🚨 Denna artikel är anledningen till att de flesta agentdemos inte överlever riktiga användare. När du lägger till verktyg, minne och autonomi bryts varje "promptförsvar" av. Den här gör det inte. De flesta "promptinjektionsförsvar" går sönder i samma ögonblick som du lägger till agenter, verktyg eller minne. Artikeln föreslår en säkerhetspipeline med tre agenter plus en fjärde utvärderaragent. Varje agent har en fast roll: generering, sanering, efterlevnad av policyn. Inga debatter. Inga vibbar. Bara lager av försvar. Varje mellanliggande utdata inspekteras, poängsätts och loggas. Det verkliga genombrottet är Nested Learning. Istället för att behandla prompts som tillståndslösa händelser har varje agent ett Continuum Memory System med medel- och långtidsminne. Prompts är inbäddade och matchade semantiskt. Om en ny attack liknar något som setts tidigare, återanvänder agenten ett verifierat svar istället för att regenerera ett. Detta gör tre saker samtidigt. 1, säkerhet. Över 301 verkliga promptinjektionsattacker inom 10 attackfamiljer uppnådde systemet noll högriskintrång. Inte minskad risk. Noll. 2, observerbarhet. De introducerar ett nytt mått kallat OSR som mäter hur mycket säkerhetsresonemang som exponeras för revisioner. Motsatt sig var konfigurationen med mest transparens bäst totalt sett. 3, hållbarhet. Semantisk caching minskade LLM-anrop med 41,6 %, vilket sänkte latensen från ~9 sekunder till 150 ms för cachade vägar. Färre samtal innebär lägre kostnad, lägre energianvändning och lägre koldioxidutsläpp utan att röra modellvikter. Slutsatsen är obekväm för de flesta mäklarbyggare. Säkerhet kommer inte från smarta promptar. Det kommer från arkitektur, minne och utvärderingsdisciplin. Detta är en av de tydligaste ritningarna hittills för produktionsklassad, säker och hållbar agentisk AI. Läs hela artikeln här: