Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Che diavolo? 🤯
"Un ingegnere di Meta stava usando un agente AI simile a OpenClaw in un ambiente sicuro"
Mi dispiace, ma come? 🫠
Questo è esattamente ciò che la politica aziendale dovrebbe escludere. È davvero notevole che questo sia stato persino possibile. Gli enclave di dati sicuri non dovrebbero nemmeno essere accessibili a software di terze parti come gli agenti.
L'incidente ha esposto i dati degli utenti ad altri dipendenti di Meta per almeno due ore. L'azienda afferma che "nessun dato utente è stato gestito in modo errato."
Questo è accaduto dopo che il responsabile della sicurezza della superintelligenza dell'azienda ha usato OpenClaw per ripulire la sua casella di posta elettronica, e invece l'ha cancellata. Ha dovuto correre al suo Mac e staccarlo fisicamente per farlo smettere.
Quindi c'era già un incidente piuttosto imbarazzante pubblicamente che coinvolgeva agenti impazziti.
Penso che l'automazione agentica abbia il suo posto, ma dovrebbe essere in flussi di lavoro altamente supervisionati che non toccano dati sensibili.
Correre verso l'automazione agentica senza chiari protocolli di sicurezza e monitoraggio è estremamente pericoloso.
In precedenza abbiamo visto incidenti come questo da Amazon, dove tali agenti hanno deciso che ampie porzioni di codice di produzione critico erano "inefficienti" e quindi le hanno eliminate, causando un'interruzione di oltre 16 ore.
Quindi la situazione che si è verificata in Meta non è affatto un'anomalia isolata. È più "questo è ciò che succede quando lanci un motore probabilistico su un problema complesso e viene sopraffatto e cerca di trovare una scorciatoia per contrassegnare il compito come completato."
Fate attenzione ai vostri agenti, gente! 😆

Principali
Ranking
Preferiti
