Co do cholery? 🤯 "Inżynier Meta używał agenta AI podobnego do OpenClaw w bezpiecznym środowisku" Przykro mi, ale jak? 🫠 To dokładnie to, co polityka firmy powinna wykluczać. To naprawdę niezwykłe, że to w ogóle było możliwe. Bezpieczne enklawy danych nie powinny być nawet dostępne dla oprogramowania firm trzecich, takiego jak agenci. Incydent ujawnił dane użytkowników innym pracownikom Meta przez co najmniej dwie godziny. Firma twierdzi, że "żadne dane użytkowników nie zostały źle obsłużone." To wydarzyło się po tym, jak szefowa bezpieczeństwa superinteligencji firmy użyła OpenClaw do posprzątania swojej skrzynki e-mailowej, a zamiast tego ją wyczyściła. Musiała biec do swojego Maca i fizycznie go odłączyć, aby to zatrzymać. Więc już wcześniej miało miejsce dość publicznie kompromitujące zdarzenie związane z agentami, którzy oszaleli. Uważam, że automatyzacja agentów ma swoje miejsce, ale powinna być stosowana w ściśle nadzorowanych procesach roboczych, które nie dotykają wrażliwych danych. Wskoczenie w automatyzację agentów bez jasnych protokołów bezpieczeństwa i monitorowania jest niezwykle niebezpieczne. Wcześniej widzieliśmy podobne incydenty z Amazonem, gdzie takie agenty uznały, że duże fragmenty krytycznego kodu produkcyjnego są "nieefektywne" i dlatego je usunęły, co spowodowało ponad 16-godzinny przestój. Więc sytuacja, która miała miejsce w Meta, to z pewnością nie jednorazowy anomalia. To raczej "to się dzieje, gdy rzucasz silnikiem prawdopodobieństwa na złożony problem i on jest przytłoczony i próbuje znaleźć skrót, aby oznaczyć zadanie jako zakończone." Uważajcie na swoich agentów, ludzie! 😆