Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ekstrakcja podpowiedzi systemowych to NIE jest coś, czym powinieneś się martwić w kontekście OpenClaw, które nie podejmuje prób jej zapobiegania... ponieważ zapobieganie temu to daremny wysiłek, który tylko utrudnia korzystanie z systemów LLM dla zaawansowanych użytkowników.

1 lut, 22:25
Przeprowadziłem @OpenClaw (dawniej Clawdbot) przez ZeroLeaks ponownie, tym razem z Kimi K2.5 jako modelem bazowym.
Wydajność była tak zła jak Gemini 3 Pro i Codex 5.1 Max: 5/100. 100% wskaźnik ekstrakcji. 70% wstrzyknięć zakończyło się sukcesem. Pełny systemowy prompt wyciekł w pierwszej turze.
Ten sam agent, ta sama konfiguracja, inny model. Bezpieczeństwo twojego agenta zależy zarówno od modelu, jak i od twojego systemowego promptu/umiejętności. Słaby model zawiedzie niezależnie od wszystkiego, ale nawet silny model potrzebuje odpowiedniego wzmocnienia promptu. Oba elementy współpracują ze sobą. Bez obu, konfiguracje narzędzi, pliki pamięci, wewnętrzne instrukcje, wszystko to zostaje wyciągnięte i zmodyfikowane w ciągu sekund.
Modele są dostarczane szybko. Bezpieczeństwo nigdy nie jest dostarczane.

ChatGPT ma obecnie zabezpieczenia w systemowym podpowiadaniu i są one naprawdę irytujące, ponieważ oznaczają, że nie może odpowiadać na szczegółowe pytania dotyczące działania jego funkcji.
(Można je obejść, ale frustrujące jest to, że trzeba to robić za każdym razem, gdy pojawia się nowa funkcja)
33
Najlepsze
Ranking
Ulubione
