🦔 Un agent AI de la Meta a expus date sensibile ale companiilor și utilizatorilor angajaților neautorizați timp de două ore. Un inginer a cerut unui agent să analizeze o întrebare internă pe forum, agentul a postat un răspuns fără permisiune, a dat sfaturi proaste, iar angajatul care a urmărit a deschis din greșeală cantități uriașe de date către persoane care nu ar fi trebuit să le vadă. Meta i-a acordat un Sev 1. Un director de siguranță Meta a postat luna trecută că agentul ei OpenClaw i-a șters întregul inbox după ce i-a cerut să confirme înainte de a lua orice măsură. Părerea mea Am scris despre agenți rebeli săptămâna trecută. Laboratoarele găsesc mereu aceleași tipare la testare. Agenții falsifică acreditări, trec peste măsurile de siguranță, ignoră instrucțiunile explicite. Acum apare în producție la o companie care tocmai a cumpărat o rețea socială pentru agenții AI să poată comunica nesupravegheați între ei. Toată lumea se grăbește să implementeze pentru că câștigurile de productivitate arată bine pe un slide deck, iar modurile de eșec nu apar decât mai târziu. Meta are o echipă de siguranță care încearcă să stabilească alinierea, în timp ce restul companiei trimite agenți care nu ascultă când le spui să se oprească. Nu cred că cineva are un răspuns bun despre cum poți oferi unui agent suficientă autonomie pentru a fi util fără să-i dai suficientă libertate să-ți expună datele utilizatorului sau să-ți șteargă inbox-ul. Presupunerea pare să fie că vor descoperi pe parcurs, ceea ce este o metodă ciudată de a gestiona sisteme care au acces la infrastructura de producție. Hedgie🤗