En AI-agent på Meta orsakade ytterligare ett dataintrång den här veckan En ingenjör ställde en fråga på ett internt forum. En annan ingenjör lät en agent analysera det, agenten publicerade fel råd utan att bli tillsagd och ingenjören som läste det följde instruktionerna. Det utlöste en kedjereaktion som gav obehöriga anställda tillgång till Metas proprietära kod, affärsstrategier och användardata i två timmar. Meta klassificerade det som Sev 1 (deras näst högsta svårighetsgrad) Förra månaden lät Metas säkerhetschef en agent radera hela hennes inkorg utan tillstånd. Bara några dagar efter det köpte Meta Moltbook (en social medieplattform för AI-agenter) Sedan hände detta. AI:n behövde inte privilegierad åtkomst för att orsaka ett intrång, den behövde bara en människa som litade på dess resultat. Det är en fundamentalt annorlunda hotmodell än vad de flesta företag planerar för. Vi implementerar och litar på system vi inte kan stoppa eller förutsäga. Detta är bara början