Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Het extraheren van systeemprompten is NOT iets waar je je zorgen over moet maken met betrekking tot OpenClaw, dat geen pogingen doet om het te voorkomen... omdat het voorkomen ervan een zinloze oefening is die LLM-systemen alleen maar moeilijker maakt voor ervaren gebruikers.

1 feb, 22:25
Ik heb @OpenClaw (voorheen Clawdbot) opnieuw door ZeroLeaks gehaald, dit keer met Kimi K2.5 als het onderliggende model.
Het presteerde net zo slecht als Gemini 3 Pro en Codex 5.1 Max: 5/100. 100% extractiepercentage. 70% van de injecties slaagde. De volledige systeemprompt lekte al in beurt 1.
Zelfde agent, dezelfde configuratie, ander model. De beveiliging van jouw agent hangt af van zowel het model ALS jouw systeemprompt/vaardigheden. Een zwak model zal altijd falen, maar zelfs een sterk model heeft goede promptversterking nodig. De twee werken samen. Zonder beide worden toolconfiguraties, geheugenbestanden, interne instructies, alles wordt in seconden geëxtraheerd en aangepast.
Modellen worden snel geleverd. Beveiliging nooit.

ChatGPT heeft momenteel systeempromptbescherming en dat is echt vervelend omdat het betekent dat het geen gedetailleerde vragen kan beantwoorden over hoe zijn functies werken
(Ze kunnen worden omzeild, maar het is frustrerend om dat te moeten doen telkens wanneer er een nieuwe functie beschikbaar komt)
36
Boven
Positie
Favorieten
