Вилучення системних запитів — це НЕ те, про що варто турбуватися щодо OpenClaw, який не намагається це запобігти... оскільки запобігання цьому — марна справа, яка лише ускладнює використання LLM-систем для експертів
Lucas Valbuena
Lucas Valbuena1 лют., 22:25
Я знову запустив @OpenClaw (раніше Clawdbot) через ZeroLeaks, цього разу з Kimi K2.5 як базовою моделлю. Він працював так само погано, як Gemini 3 Pro та Codex 5.1 Max: 5/100. 100% швидкість екстракції. 70% ін'єкцій були успішними. Повний системний запит з'явився на першому ході. Той самий агент, та сама конфігурація, інша модель. Безпека вашого агента залежить як від моделі, так і від підказки/навичок вашої системи. Слабка модель все одно зламається, але навіть сильній моделі потрібне належне загартування за підказкою. Вони працюють разом. Без обох — конфігурації інструментів, файлів пам'яті, внутрішніх інструкцій — усе це розпаковується і змінюється за секунди. Моделі доставляються швидко. Охоронні кораблі ніколи. Повний звіт:
Зараз у ChatGPT є системний захист від підказок, і вони дуже дратують, бо не можуть відповісти на детальні питання про те, як працюють його функції (Їх можна обійти, але це прикро — робити це щоразу, коли з'являється нова функція)
44