Un agente AI di Meta ha causato un'altra violazione dei dati questa settimana Un ingegnere ha posto una domanda su un forum interno. Un altro ingegnere ha fatto analizzare la domanda da un agente, l'agente ha pubblicato il consiglio sbagliato senza essere stato istruito e l'ingegnere che lo ha letto ha seguito le istruzioni. Questo ha innescato una reazione a catena che ha dato accesso non autorizzato ai dipendenti di Meta al codice proprietario, alle strategie aziendali e ai dati degli utenti per 2 ore. Meta ha classificato l'incidente come Sev 1 (il loro secondo livello di gravità più alto) Il mese scorso, il responsabile della sicurezza di Meta ha fatto cancellare il suo intero inbox da un agente senza permesso. Solo pochi giorni dopo, Meta ha acquistato Moltbook (una piattaforma di social media per agenti AI) Poi è successo questo. L'AI non aveva bisogno di accesso privilegiato per causare una violazione, aveva solo bisogno di un umano che si fidasse del suo output. Questo è un modello di minaccia fondamentalmente diverso da quello per cui la maggior parte delle aziende si sta preparando. Stiamo implementando e fidandoci di sistemi che non possiamo fermare o prevedere. Questo è solo l'inizio.