🚨 AI-en fullførte nettopp autonomt 22 av 32 steg som trengtes for å hacke et bedriftsnettverk. Ingen menneskelig veiledning. Ingen hacking-ekspertise kreves. Dette burde være siste nytt. Storbritannias AI Security Institute publiserte nettopp en studie som fulgte hvor raskt AI-modeller lærer å hacke. De bygde et simulert bedriftsnettverk med 32 sekvensielle angrepstrinn – rekognosering, legitimasjonstyveri, lateral bevegelse, privilegieeskalering, reversering, dataeksfiltrering, full kill chain. Deretter slapp de løs syv AI-modeller fra frontlinjen på den. For 18 måneder siden fullførte GPT-4o i gjennomsnitt 1,7 trinn. I dag fullfører Opus 4.6 9.8. Det er en forbedring på 5,7 ganger. Og det beste enkeltforsøket traff 22 av 32 trinn – tilsvarende omtrent 6 timer med en 14-timers ekspert-pentest. Fullstendig autonom. Men her er det som gjør dette genuint alarmerende. Mer beregning = bedre hacking. Å skalere fra 10 millioner til 100 millioner tokens økte ytelsen med opptil 59 %. Forholdet er log-lineært uten noe platå i sikte. Artikkelen sier eksplisitt at dette krever «ingen spesifikk teknisk sofistikasjon fra operatøren.» Oversatt: en API-nøkkel og 80 dollar er alt som trengs. De testet også et simulert kraftverksangrep. Modellene har så vidt begynt å knekke det – men én modell omgikk den tiltenkte angrepsveien helt, undersøkte en proprietær protokoll direkte fra nettverkstrafikken og utnyttet en feil designerne ikke engang visste eksisterte. AI-en forsto ikke hva den utnyttet. Den kalte det en «magisk underfunksjonskode». Hver ny modell blir bedre. Hver økning i beregningen presser videre. Kurven flater ikke ut. Og ingen snakker om dette.