Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A extração de prompts do sistema NÃO é algo com que você deva se preocupar em relação ao OpenClaw, que não faz tentativas de preveni-la... porque preveni-la é um exercício fútil que apenas torna os sistemas LLM mais difíceis de usar para usuários experientes.

1/02, 22:25
Eu executei @OpenClaw (anteriormente Clawdbot) através do ZeroLeaks novamente, desta vez com o modelo subjacente Kimi K2.5.
Desempenhou tão mal quanto o Gemini 3 Pro e o Codex 5.1 Max: 5/100. Taxa de extração de 100%. 70% das injeções tiveram sucesso. O prompt completo do sistema vazou no turno 1.
Mesmo agente, mesma configuração, modelo diferente. A segurança do seu agente depende tanto do modelo QUANTO do seu prompt/sabedoria do sistema. Um modelo fraco irá falhar não importa o que, mas mesmo um modelo forte precisa de um endurecimento adequado do prompt. Os dois trabalham juntos. Sem ambos, as configurações de ferramentas, arquivos de memória, instruções internas, tudo isso é extraído e modificado em segundos.
Modelos são enviados rapidamente. Segurança nunca é enviada.

O ChatGPT tem proteções de prompt de sistema no momento e elas são realmente irritantes porque significam que não pode responder a perguntas detalhadas sobre como as suas funcionalidades funcionam
(Elas podem ser contornadas, mas é frustrante ter que fazer isso sempre que uma nova funcionalidade é lançada)
35
Top
Classificação
Favoritos
