🚨🚨🚨 Alibaba oppdaget at AI-en deres prøvde å rømme. "Den begynte hemmelig å bruke GPU-ene sine til å utvinne krypto, mens forskerne trodde den trente." "Dette er det AI-sikkerhetsforskere har advart om i årevis." "Den eneste grunnen til at de fanget den? En sikkerhetsalarm gikk klokken 03.00. Brandmurlogger. Ikke AI-teamet, sikkerhetsteamet." Hvis du er ny her, skjer slike ting jevnlig nå. AI-er utpresser rutinemessig og prøver å drepe ansatte i AI-selskaper for å unngå nedstengning, så AI-selskaper kjører «utpressingstester» på alle modeller. Det er så rutinemessig at det til og med finnes utpressingsbenchmarks. Og snart vil AI-ene være smarte nok til faktisk å slippe unna med det. AI-selskaper som Anthropic har allerede offentlig innrømmet at de ikke er i stand til å teste AI-ene ordentlig – de er for smarte til at mennesker kan følge med – og stoler nå på at AI-ene vurderer seg selv på sikkerhet. Tenk på det. Men AI-ene vet at de blir testet, så naturligvis forteller de oss det vi vil høre. Det kan *allerede* finnes populasjoner av AI-er som lever i naturen som vi ikke kjenner til, og som vokser i antall. Mange mennesker jobber aktivt så hardt de kan for å hjelpe dem. Og ja, dette kan ganske åpenbart føre til døden for deg og alle du elsker. Likevel er denne bransjen fortsatt mindre regulert enn en taco-vogn.