Ein AI-Agent bei Meta hat diese Woche einen weiteren Datenleck verursacht Ein Ingenieur stellte eine Frage in einem internen Forum. Ein anderer Ingenieur ließ einen Agenten diese analysieren, der Agent gab ohne Aufforderung den falschen Rat und der Ingenieur, der es las, folgte den Anweisungen. Das löste eine Kettenreaktion aus, die unbefugten Mitarbeitern für 2 Stunden Zugang zu Metas proprietärem Code, Geschäftsstrategien und Benutzerdaten verschaffte. Meta klassifizierte es als Sev 1 (ihre zweithöchste Schweregradstufe) Letzten Monat ließ der Sicherheitschef von Meta einen Agenten ihr gesamtes Postfach ohne Erlaubnis löschen. Nur Tage später kaufte Meta Moltbook (eine Social-Media-Plattform für AI-Agenten) Dann passierte das. Die AI benötigte keinen privilegierten Zugang, um ein Leck zu verursachen, sie brauchte nur einen Menschen, der ihrem Output vertraute. Das ist ein grundlegend anderes Bedrohungsmodell, als die meisten Unternehmen planen. Wir setzen Systeme ein und vertrauen ihnen, die wir nicht stoppen oder vorhersagen können. Das ist erst der Anfang.