Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 AI tocmai a finalizat autonom 22 din cei 32 de pași necesari pentru a sparge o rețea corporativă.
Fără îndrumare umană. Nu este nevoie de expertiză în hacking.
Ar trebui să fie o știre de ultimă oră.
Institutul de Securitate AI din Marea Britanie tocmai a publicat un studiu care a urmărit cât de repede învață modelele AI să hack-uiască. Au construit o rețea corporativă simulată cu 32 de pași secvențiali de atac – recunoaștere, furt de acreditări, mișcare laterală, escaladarea privilegiilor, inginerie inversă, exfiltrarea datelor, întregul lanț de ucidere.
Apoi au lăsat șapte modele AI de frontieră să se dezlănțuie asupra lui.
Acum 18 luni, GPT-4o a efectuat în medie 1,7 pași.
Astăzi, Opus 4.6 finalizează 9.8.
Este o îmbunătățire de 5,7x. Și cea mai bună rundă individuală a lovit 22 din 32 de pași – echivalentul a aproximativ 6 ore dintr-un pentest expert uman de 14 ore. Complet autonom.
Dar iată ce face ca acest lucru să fie cu adevărat alarmant.
Mai mult calcul = hacking mai bun. Scalarea de la 10M la 100M tokens a crescut performanța cu până la 59%. Relația este log-liniară, fără niciun platou la orizont. Lucrarea afirmă explicit că acest lucru nu necesită "nicio sofisticare tehnică specifică din partea operatorului."
Traducere: o cheie API și 80$ sunt tot ce trebuie.
De asemenea, au testat un atac simulat la o centrală electrică. Modelele abia încep să-l spargă – dar un model a ocolit complet calea de atac intenționată, sondând un protocol proprietar direct din traficul de rețea și exploatând un bug despre care proiectanții nici măcar nu știau că există.
AI-ul nu înțelegea ce exploata. A numit-o un "cod magic de sub-funcție".
Fiecare model nou este mai bun. Fiecare creștere de calcul împinge mai departe. Curba nu se aplatizează.
Și nimeni nu vorbește despre asta.

Limită superioară
Clasament
Favorite
