Un agent AI de la Meta a provocat o altă breșă de date săptămâna aceasta Un inginer a pus o întrebare pe un forum intern. Un alt inginer a avut un agent care a analizat-o, agentul a postat sfatul greșit fără să i se spună, iar inginerul care l-a citit a urmat instrucțiunile. Aceasta a declanșat o reacție în lanț care a oferit angajaților neautorizați acces la codul proprietar Meta, strategii de afaceri și date de utilizator timp de 2 ore. Meta l-a clasificat ca Sev 1 (al doilea cel mai mare nivel de severitate) Luna trecută, șefa departamentului de siguranță de la Meta a pus un agent să-i șteargă întregul inbox fără permisiune. La doar câteva zile după aceea, Meta a cumpărat Moltbook (o platformă de social media pentru agenți AI) Apoi s-a întâmplat asta. AI-ul nu avea nevoie de acces privilegiat pentru a provoca o breșă, ci doar ca un om să aibă încredere în rezultatul ei. Acesta este un model de amenințare fundamental diferit față de cel pentru care plănuiesc majoritatea companiilor. Implementăm și avem încredere în sisteme pe care nu le putem opri sau prezice. Acesta este doar începutul