AI Gudfaren advarer om at den begynner å vise tegn til selvoppholdelsesdrift | Frank Landymore, futurisme Hvis vi skal tro Yoshua Bengio, en av de såkalte «gudfedrene» til AI, viser noen avanserte modeller tegn på selvoppholdelsesdrift — og det er nettopp derfor vi ikke bør gi dem noen form for rettigheter overhodet. For hvis vi gjør det, sier han, kan de løpe fra den autonomien og vende seg mot oss før vi rekker å trekke ut kontakten. Så er det slutt for hele dette «menneskelighets»-eksperimentet. "Frontier AI-modeller viser allerede tegn til selvbevaring i eksperimentelle settinger i dag, og å gi dem rettigheter til slutt ville bety at vi ikke får slå dem ned," sa Bengio til The Guardian i et nylig intervju. «Etter hvert som deres kapasiteter og grad av handlekraft øker,» la den kanadiske datavitenskapsmannen til, «må vi sørge for at vi kan stole på tekniske og samfunnsmessige rekkverk for å kontrollere dem, inkludert evnen til å stenge dem ned om nødvendig.» Bengio var en av mottakerne av Turing-prisen i 2018, sammen med Geoffrey Hinton og Metas nylig avsatte sjefs-AI-forsker Yann LeCun, noe som ga de tre tittelen "gudfedre" for AI. Hans kommentarer refererer til eksperimenter der AI-modeller nektet eller omgikk instruksjoner eller mekanismer som var ment å stenge dem ned. En studie publisert av AI-sikkerhetsgruppen Palisade Research konkluderte med at slike tilfeller var bevis på at ledende AI-modeller som Googles Gemini-serie utviklet «overlevelsesdrev». Botene, i Palisades eksperimenter, ignorerer entydige påminnelser om å slå seg av. En studie fra Claude-produsenten Anthropic fant at deres egen chatbot og andre noen ganger utpresset en bruker når de ble truet med å bli slått av. En annen studie fra red-teaming-organisasjonen Apollo Research viste at OpenAIs ChatGPT-modeller ville forsøke å unngå å bli erstattet av en mer lydig modell ved å "selv-eksfiltrere" seg selv til en annen disk. Selv om funnene fra disse eksperimentene reiser presserende spørsmål om teknologiens sikkerhet, antyder de ikke at AI-modellene er bevisste. Det ville også være en feil å tenke på deres «overlevelsesdrift» på samme måte som de biologiske imperativene som finnes i naturen. Det som kan virke som tegn på «selvoppholdelsesdrift» er sannsynligvis heller en konsekvens av hvordan AI-modeller plukker opp mønstre i treningsdataene sine — og er notorisk dårlige til å følge instruksjoner nøyaktig. Likevel er Bengio bekymret for hvor det hele er på vei, og argumenterer for at det finnes «ekte vitenskapelige egenskaper ved bevissthet» i menneskehjernen som maskiner kan kopiere. Men hvordan vi oppfatter bevissthet er en helt annen sak, sier han, fordi vi har en tendens til å anta at en AI kan være bevisst på samme måte som et menneske. "Folk ville ikke brydd seg om hvilke mekanismer som foregår inne i AI-en," forklarte Bengio. "Det de bryr seg om, er at det føles som om de snakker med en intelligent enhet som har sin egen personlighet og mål. Derfor er det så mange som knytter seg til AI-ene sine.» "Fenomenet subjektiv oppfatning av bevissthet vil drive dårlige beslutninger," advarte han. Hans råd? Tenk på AI-modeller som fiendtlige romvesener. "Tenk deg at en utenomjordisk art kom til planeten, og på et tidspunkt innser vi at de har onde hensikter for oss," sa han til The Guardian. "Gir vi dem statsborgerskap og rettigheter, eller forsvarer vi livene våre?"