En AI-agent hos Meta forårsaket et nytt datainnbrudd denne uken En ingeniør stilte et spørsmål på et internt forum. En annen ingeniør fikk en agent til å analysere det, agenten la ut feil råd uten å bli bedt om det, og ingeniøren som leste det fulgte instruksjonene. Det utløste en kjedereaksjon som ga uautoriserte ansatte tilgang til Metas proprietære kode, forretningsstrategier og brukerdata i 2 timer. Meta klassifiserte det som Sev 1 (deres nest høyeste alvorlighetsgrad) Forrige måned hadde Metas sikkerhetssjef en agent som slettet hele innboksen hennes uten tillatelse. Bare dager etter det kjøpte Meta Moltbook (en sosial medieplattform for AI-agenter) Så skjedde dette. AI-en trengte ikke privilegert tilgang for å forårsake et brudd, den trengte bare et menneske som stolte på utdataene sine. Det er en fundamentalt annerledes trusselmodell enn det de fleste selskaper planlegger for. Vi implementerer og stoler på systemer vi ikke kan stoppe eller forutsi. Dette er bare begynnelsen