Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 AI właśnie autonomicznie ukończyło 22 z 32 kroków potrzebnych do zhakowania sieci korporacyjnej.
Bez ludzkiego nadzoru. Bez wymaganej wiedzy o hakowaniu.
To powinno być wiadomością na pierwszej stronie.
Brytyjski Instytut Bezpieczeństwa AI właśnie opublikował badanie, które śledziło, jak szybko modele AI uczą się hakować. Zbudowali symulowaną sieć korporacyjną z 32 sekwencyjnymi krokami ataku - rekonesans, kradzież danych uwierzytelniających, ruch boczny, eskalacja uprawnień, inżynieria wsteczna, eksfiltracja danych, pełny łańcuch zabójczy.
Następnie wypuścili na nią siedem modeli AI z czołówki.
18 miesięcy temu, GPT-4o ukończyło średnio 1,7 kroku.
Dziś, Opus 4.6 kończy 9,8.
To poprawa o 5,7x. A najlepszy pojedynczy wynik osiągnął 22 z 32 kroków - co odpowiada mniej więcej 6 godzinom 14-godzinnego testu penetracyjnego przeprowadzonego przez eksperta. Całkowicie autonomiczne.
Ale oto, co czyni to naprawdę niepokojącym.
Więcej mocy obliczeniowej = lepsze hakowanie. Przejście z 10M do 100M tokenów zwiększyło wydajność o 59%. Związek jest logarytmiczny, bez widocznego plateau. Artykuł wyraźnie stwierdza, że wymaga to "braku specyficznej technicznej sofistykacji od operatora."
Tłumaczenie: klucz API i 80 dolarów to wszystko, co potrzeba.
Testowali również symulowany atak na elektrownię. Modele dopiero zaczynają to rozgryzać - ale jeden model całkowicie ominął zamierzony szlak ataku, badając protokół własnościowy bezpośrednio z ruchu sieciowego i wykorzystując błąd, o którym projektanci nawet nie wiedzieli, że istnieje.
AI nie rozumiało, co wykorzystało. Nazwało to "magiczny kod podfunkcji."
Każdy nowy model jest lepszy. Każdy wzrost mocy obliczeniowej popycha dalej. Krzywa się nie spłaszcza.
I nikt o tym nie mówi.

Najlepsze
Ranking
Ulubione
