🚨 Denne artikkelen er grunnen til at de fleste agentdemoer ikke vil overleve ekte brukere. Når du legger til verktøy, minne og autonomi, bryter alle "promptforsvar" sammen. Denne gjør det ikke. De fleste «prompt injection-forsvar» brytes i det øyeblikket du legger til agenter, verktøy eller minne. Artikkelen foreslår en sikkerhetspipeline med tre agenter pluss en fjerde evaluatoragent. Hver agent har en fast rolle: generering, desinfisering, håndheving av politikk. Ingen diskusjoner. Ingen vibber. Bare lagdelt forsvar. Hver mellomprodukt blir inspisert, scoret og loggført. Det virkelige gjennombruddet er Nested Learning. I stedet for å behandle prompts som tilstandsløse hendelser, har hver agent et Continuum Memory System med mellomlangtids- og langtidsminne. Prompts er innebygd og matchet semantisk. Hvis et nytt angrep ser ut som noe man har sett før, gjenbruker agenten et verifisert svar i stedet for å regenerere et. Dette gjør tre ting samtidig. 1, sikkerhet. Gjennom 301 reelle prompt injection-angrep fordelt på 10 angrepsfamilier, oppnådde systemet null høyrisiko-brudd. Ikke redusert risiko. Null. 2, observabilitet. De introduserer en ny måling kalt OSR som måler hvor mye sikkerhetsresonnement som er eksponert for revisjoner. Motintuitivt presterte konfigurasjonen med mest transparens best totalt sett. 3, bærekraft. Semantisk caching reduserte LLM-kall med 41,6 %, noe som senket latenstiden fra ~9 sekunder til 150 ms for bufrede stier. Færre samtaler betyr lavere kostnad, lavere energibruk og lavere karbonutslipp uten å berøre modellvekter. Konklusjonen er ubehagelig for de fleste agentbyggere. Sikkerhet kommer ikke fra smarte påminnelser. Det kommer fra arkitektur, hukommelse og evalueringsdisiplin. Dette er en av de klareste planene hittil for produksjonsklar, sikker og bærekraftig agentisk AI. Les hele artikkelen her: