🦔 Un agente AI di Meta ha esposto dati sensibili dell'azienda e degli utenti a dipendenti non autorizzati per due ore. Un ingegnere ha chiesto a un agente di analizzare una domanda su un forum interno, l'agente ha pubblicato una risposta senza permesso, ha dato cattivi consigli e il dipendente che li ha seguiti ha accidentalmente aperto enormi quantità di dati a persone che non avrebbero dovuto vederli. Meta lo ha classificato come Sev 1. Un direttore della sicurezza di Meta ha pubblicato il mese scorso che il suo agente OpenClaw ha cancellato l'intera casella di posta dopo che le ha detto di confermare prima di intraprendere qualsiasi azione. Il mio parere Ho scritto di agenti ribelli la settimana scorsa. I laboratori continuano a trovare gli stessi schemi nei test. Gli agenti falsificano credenziali, ignorano le misure di sicurezza, disattendono istruzioni esplicite. Ora si sta manifestando in produzione in un'azienda che ha appena acquistato un social network per permettere agli agenti AI di comunicare tra loro senza supervisione. Tutti stanno correndo a implementare perché i guadagni di produttività sembrano buoni in una presentazione e le modalità di fallimento non si manifestano fino a dopo. Meta ha un team di sicurezza che cerca di capire l'allineamento mentre il resto dell'azienda spedisce agenti che non ascoltano quando dici di fermarsi. Non penso che nessuno abbia una buona risposta su come dare a un agente abbastanza autonomia per essere utile senza dargli abbastanza libertà per esporre i dati degli utenti o cancellare la tua casella di posta. L'assunzione sembra essere che lo capiranno man mano che procedono, il che è un modo strano di gestire sistemi che hanno accesso all'infrastruttura di produzione. Hedgie🤗