AI-chatboter kan påvirke velgere bedre enn politiske annonser | Michelle Kim, MIT Technology Review En samtale med en chatbot kan endre folks politiske syn – men de mest overbevisende modellene sprer også mest feilinformasjon. I 2024 brukte en demokratisk kongresskandidat i Pennsylvania, Shamaine Daniels, en AI-chatbot ved navn Ashley for å ringe velgere og føre samtaler med dem. "Hallo. Mitt navn er Ashley, og jeg er en frivillig innen kunstig intelligens for Shamaine Daniels' kandidatur til Kongressen," begynte samtalene. Daniels vant ikke til slutt. Men kanskje de samtalene hjalp henne: Ny forskning viser at AI-chatboter kan endre velgernes meninger i én samtale – og de er overraskende gode på det. Et forskerteam fra flere universiteter har funnet ut at det å chatte med en politisk partisk AI-modell var mer effektivt enn politiske annonser for å dytte både demokrater og republikanere til å støtte presidentkandidater fra motpartiet. Chatbotene påvirket meninger ved å sitere fakta og bevis, men de var ikke alltid nøyaktige—faktisk fant forskerne at de mest overbevisende modellene sa de mest usanne tingene. Funnene, detaljert i to studier publisert i tidsskriftene Nature og Science, er de siste i en ny forskningsserie som demonstrerer overbeviselseskraften til LLM-er. De reiser dype spørsmål om hvordan generativ AI kan omforme valg. "En samtale med en LLM har en ganske meningsfull effekt på viktige valgvalg," sier Gordon Pennycook, en psykolog ved Cornell University som jobbet med Nature-studien. LLM-er kan overbevise folk mer effektivt enn politiske annonser fordi de genererer mye mer informasjon i sanntid og strategisk bruker den i samtaler, sier han. For Nature-artikkelen rekrutterte forskerne mer enn 2 300 deltakere til å delta i en samtale med en chatbot to måneder før presidentvalget i USA i 2024. Chatboten, som var trent til å tale for en av de to beste kandidatene, var overraskende overbevisende, spesielt når man diskuterte kandidatenes politiske plattformer om saker som økonomi og helsevesen. Donald Trump-tilhengere som snakket med en AI-modell som favoriserte Kamala Harris, ble litt mer tilbøyelige til å støtte Harris, og flyttet seg 3,9 poeng mot henne på en 100-punkts skala. Det var omtrent fire ganger den målte effekten av politiske annonser under valgene i 2016 og 2020. AI-modellen som favoriserte Trump flyttet Harris-tilhengerne 2,3 poeng mot Trump. I lignende eksperimenter utført i forkant av det kanadiske føderale valget i 2025 og presidentvalget i Polen i 2025, fant teamet en enda større effekt. Chatbotene endret holdningene til opposisjonsvelgerne med omtrent 10 prosentpoeng. Langvarige teorier om politisk motivert resonnement hevder at partipolitiske velgere er immune mot fakta og bevis som motsier deres tro. Men forskerne fant at chatbotene, som brukte ulike modeller inkludert varianter av GPT og DeepSeek, var mer overbevisende når de ble instruert til å bruke fakta og bevis enn når de ble bedt om å la være. «Folk oppdaterer basert på fakta og informasjon som modellen gir dem,» sier Thomas Costello, psykolog ved American University, som jobbet med prosjektet. Fangsten er at noen av «bevisene» og «fakta» chatbotene presenterte var usanne. I alle tre landene kom chatboter som talte for høyreorienterte kandidater med flere unøyaktige påstander enn de som talte for venstreorienterte kandidater. De underliggende modellene er trent på enorme mengder menneskeskrevet tekst, noe som betyr at de gjengir virkelige fenomener – inkludert «politisk kommunikasjon som kommer fra høyresiden, som ofte er mindre nøyaktig», ifølge studier av partiske innlegg på sosiale medier, sier Costello. I den andre studien publisert denne uken, i Science, undersøkte et overlappende forskerteam hva som gjør disse chatbotene så overbevisende. De deployerte 19 LLM-er for å samhandle med nesten 77 000 deltakere fra Storbritannia om mer enn 700 politiske temaer, samtidig som de varierte faktorer som beregningskraft, treningsteknikker og retoriske strategier. Den mest effektive måten å gjøre modellene overbevisende på, var å instruere dem i å fylle argumentene sine med fakta og bevis, og deretter gi dem ekstra opplæring ved å gi dem eksempler på overbevisende samtaler. Faktisk flyttet den mest overbevisende modellen deltakere som opprinnelig var uenige i en politisk uttalelse 26,1 poeng mot å være enige. "Dette er virkelig store behandlingseffekter," sier Kobi Hackenburg, forsker ved UK AI Security Institute, som jobbet på prosjektet. Men optimalisering av overtalelse kom på bekostning av sannferdighet. Da modellene ble mer overbevisende, ga de i økende grad misvisende eller falsk informasjon – og ingen er sikre på hvorfor. «Det kan være at etter hvert som modellene lærer å bruke flere og flere fakta, strekker de seg i bunn og grunn til bunnen av det de kan, og dermed blir faktaene av dårligere kvalitet,» sier Hackenburg. Chatbotenes overbevisende kraft kan få dype konsekvenser for demokratiets fremtid, påpeker forfatterne. Politiske kampanjer som bruker AI-chatboter kan forme opinionen på måter som kompromitterer velgernes evne til å gjøre uavhengige politiske vurderinger. Likevel gjenstår de nøyaktige konturene av sammenstøtet å se. "Vi er ikke sikre på hvordan fremtidige kampanjer kan se ut og hvordan de kan inkorporere denne typen teknologier," sier Andy Guess, statsviter ved Princeton University. Å konkurrere om velgernes oppmerksomhet er dyrt og vanskelig, og det kan være utfordrende å få dem til å delta i lange politiske samtaler med chatboter. "Er dette måten folk informerer seg om politikk på, eller blir dette mer en nisjeaktivitet?" spør han. ...