🚨 Dit document legt uit waarom de meeste agentdemonstraties niet zullen overleven bij echte gebruikers. Zodra je tools, geheugen en autonomie toevoegt, valt elke "promptverdediging" uit elkaar. Deze niet. De meeste "promptinjectieverdedigingen" breken op het moment dat je agents, tools of geheugen toevoegt. Het document stelt een beveiligingspipeline voor met drie agents plus een vierde evaluatieagent. Elke agent heeft een vaste rol: generatie, sanering, handhaving van beleid. Geen debatten. Geen vibes. Gewoon gelaagde verdediging. Elke tussenoutput wordt geïnspecteerd, beoordeeld en gelogd. De echte doorbraak is Geneste Leren. In plaats van prompts te behandelen als stateless gebeurtenissen, heeft elke agent een Continuüm Geheugensysteem met middellangetermijn- en langetermijngeheugen. Prompts worden semantisch ingebed en gematcht. Als een nieuwe aanval lijkt op iets wat eerder is gezien, hergebruikt de agent een geverifieerd antwoord in plaats van er een te regenereren. Dit doet drie dingen tegelijk. 1, beveiliging. Over 301 echte promptinjectieaanvallen verspreid over 10 aanvalsfamilies, bereikte het systeem nul hoge risico-inbreuken. Geen verminderd risico. Nul. 2, observeerbaarheid. Ze introduceren een nieuwe maatstaf genaamd OSR die meet hoeveel beveiligingsredenering wordt blootgesteld voor audits. Tegenintuïtief presteerde de configuratie met de meeste transparantie het beste overall. 3, duurzaamheid. Semantisch cachen verlaagde het aantal LLM-aanroepen met 41,6%, waardoor de latentie daalde van ~9 seconden naar 150 ms voor gecachte paden. Minder aanroepen betekent lagere kosten, lager energieverbruik en lagere koolstofemissies zonder de modelgewichten aan te raken. De conclusie is ongemakkelijk voor de meeste agentbouwers. Beveiliging komt niet van slimme prompts. Het komt van architectuur, geheugen en evaluatiediscipline. Dit is een van de duidelijkste blauwdrukken tot nu toe voor productieklare, veilige en duurzame agentische AI. Lees het volledige document hier: