Proč je zajištění AI obtížnější, než kdokoli očekával, a blížící se bezpečnostní krize s @SanderSchulhoff Sander je přední výzkumník v oblasti adversariální odolnosti, což je umění a věda, jak přimět AI systémy dělat věci, které by neměly dělat – pomocí jailbreaku a rychlé injekce. Co Sander v této konverzaci sdílí, je v podstatě to, že všechny AI systémy, které denně používáme, jsou náchylné k tomu, aby dělaly věci, které by neměly, že na tento problém vlastně neexistuje řešení a že firmy, které se snaží řešení prodávat, jsou většinou nesmysly. Tato debata nemá nic společného s AGI, je to problém dnes. A že jediný důvod, proč jsme zatím neviděli masivní hacky a vážné poškození AI nástrojů, je ten, že zatím nedostaly dostatečnou moc a nejsou zatím široce přijaté. Ale s nástupem agentů (kteří mohou jednat vaším jménem), robotů a dokonce i prohlížečů poháněných umělou inteligencí se riziko velmi rychle zvýší. Je to opravdu důležité téma, které mi otevřelo mysl a vyděsilo mě, a je to něco, čemu všichni musíme základní porozumět, protože AI se stává v našich životech stále rozšířenější. Uvnitř: 🔸 Úvod do jailbreaku a útoků pomocí prompt injection 🔸 Proč AI zábrany nefungují 🔸 Proč jsme zatím neviděli velké bezpečnostní incidenty v oblasti AI (ale brzy budou) 🔸 Proč jsou AI agenti v prohlížeči extrémně zranitelní 🔸 Praktické kroky, které by organizace měly podniknout místo nákupu neúčinných bezpečnostních nástrojů 🔸 Proč řešení tohoto problému vyžaduje spojení klasických kybernetických bezpečnostních znalostí s znalostmi AI Poslouchej teď 👇 • YouTube: • Spotify: • Jablko: Děkujeme našim skvělým sponzorům za podporu podcastu: 🏆 @datadoghq — Nyní domov Eppo, přední platformy pro experimentování a označování funkcí: 🏆 @getmetronome — Monetizační infrastruktura pro moderní softwarové společnosti: 🏆 @gofundme Fondy na darování — Usnadněte roční darování:
cc @komorama
244