AI-chatbots kunnen kiezers beter beïnvloeden dan politieke advertenties | Michelle Kim, MIT Technology Review Een gesprek met een chatbot kan de politieke opvattingen van mensen veranderen - maar de meest overtuigende modellen verspreiden ook de meeste desinformatie. In 2024 gebruikte een Democratische kandidaat voor het Congres in Pennsylvania, Shamaine Daniels, een AI-chatbot genaamd Ashley om kiezers te bellen en gesprekken met hen te voeren. “Hallo. Mijn naam is Ashley, en ik ben een kunstmatige intelligentie vrijwilliger voor de campagne van Shamaine Daniels voor het Congres,” begonnen de gesprekken. Daniels won uiteindelijk niet. Maar misschien hebben die gesprekken haar zaak geholpen: nieuw onderzoek onthult dat AI-chatbots de meningen van kiezers kunnen veranderen in een enkel gesprek - en ze zijn verrassend goed in wat ze doen. Een team van onderzoekers van meerdere universiteiten heeft ontdekt dat chatten met een politiek bevooroordeeld AI-model effectiever was dan politieke advertenties in het aanmoedigen van zowel Democraten als Republikeinen om de presidentiële kandidaten van de tegenpartij te steunen. De chatbots beïnvloedden meningen door feiten en bewijs te citeren, maar ze waren niet altijd accuraat - in feite ontdekten de onderzoekers dat de meest overtuigende modellen de meeste onwaarheden zeiden. De bevindingen, gedetailleerd in een paar studies gepubliceerd in de tijdschriften Nature en Science, zijn de nieuwste in een opkomend lichaam van onderzoek dat de overtuigende kracht van LLM's aantoont. Ze roepen diepgaande vragen op over hoe generatieve AI verkiezingen zou kunnen hervormen. “Een gesprek met een LLM heeft een behoorlijk betekenisvol effect op belangrijke verkiezingskeuzes,” zegt Gordon Pennycook, een psycholoog aan de Cornell University die aan de Nature-studie werkte. LLM's kunnen mensen effectiever overtuigen dan politieke advertenties omdat ze veel meer informatie in real-time genereren en deze strategisch inzetten in gesprekken, zegt hij. Voor het Nature-artikel rekruteerden de onderzoekers meer dan 2.300 deelnemers om twee maanden voor de Amerikaanse presidentsverkiezingen van 2024 een gesprek te voeren met een chatbot. De chatbot, die was getraind om voor een van de twee belangrijkste kandidaten te pleiten, was verrassend overtuigend, vooral bij het bespreken van de beleidsplatforms van kandidaten over onderwerpen zoals de economie en gezondheidszorg. Donald Trump-ondersteuners die met een AI-model dat Kamala Harris steunde, chatten, werden iets meer geneigd om Harris te steunen, met 3,9 punten op een schaal van 100. Dat was ongeveer vier keer het gemeten effect van politieke advertenties tijdens de verkiezingen van 2016 en 2020. Het AI-model dat Trump steunde, verplaatste Harris-ondersteuners 2,3 punten naar Trump. In soortgelijke experimenten die werden uitgevoerd in de aanloop naar de Canadese federale verkiezingen van 2025 en de Poolse presidentsverkiezingen van 2025, vond het team een nog groter effect. De chatbots veranderden de houding van tegenstanders met ongeveer 10 punten. Langdurige theorieën over politiek gemotiveerd redeneren houden in dat partijdige kiezers ongevoelig zijn voor feiten en bewijs die hun overtuigingen tegenspreken. Maar de onderzoekers ontdekten dat de chatbots, die gebruik maakten van een reeks modellen, waaronder varianten van GPT en DeepSeek, overtuigender waren wanneer ze werden geïnstrueerd om feiten en bewijs te gebruiken dan wanneer ze niet zo werden geïnstrueerd. “Mensen passen hun opvattingen aan op basis van de feiten en informatie die het model hen biedt,” zegt Thomas Costello, een psycholoog aan de American University, die aan het project werkte. Het probleem is dat sommige van de “bewijzen” en “feiten” die de chatbots presenteerden onwaar waren. In alle drie de landen maakten chatbots die pleitten voor rechtse kandidaten een groter aantal onnauwkeurige claims dan die welke pleitten voor linkse kandidaten. De onderliggende modellen zijn getraind op enorme hoeveelheden door mensen geschreven tekst, wat betekent dat ze real-world fenomenen reproduceren - inclusief “politieke communicatie die van rechts komt, die de neiging heeft minder accuraat te zijn,” volgens studies van partijdige sociale media-berichten, zegt Costello. In de andere studie die deze week in Science werd gepubliceerd, onderzocht een overlappend team van onderzoekers wat deze chatbots zo overtuigend maakt. Ze zetten 19 LLM's in om te interageren met bijna 77.000 deelnemers uit het VK over meer dan 700 politieke kwesties, terwijl ze factoren zoals rekencapaciteit, trainingstechnieken en retorische strategieën varieerden. De meest effectieve manier om de modellen overtuigend te maken, was om ze te instrueren hun argumenten te vullen met feiten en bewijs en ze vervolgens extra training te geven door ze voorbeelden van overtuigende gesprekken te geven. In feite verschuift het meest overtuigende model deelnemers die aanvankelijk het oneens waren met een politieke uitspraak 26,1 punten naar overeenstemming. “Dit zijn echt grote behandelingseffecten,” zegt Kobi Hackenburg, een onderzoekswetenschapper aan het UK AI Security Institute, die aan het project werkte. Maar het optimaliseren van overtuigingskracht ging ten koste van waarheidsgetrouwe informatie. Toen de modellen overtuigender werden, gaven ze steeds vaker misleidende of valse informatie - en niemand weet waarom. “Het kan zijn dat naarmate de modellen leren om meer en meer feiten te gebruiken, ze in wezen naar de bodem van de emmer van dingen die ze weten reiken, waardoor de feiten van mindere kwaliteit worden,” zegt Hackenburg. De overtuigende kracht van de chatbots zou diepgaande gevolgen kunnen hebben voor de toekomst van de democratie, merken de auteurs op. Politieke campagnes die AI-chatbots gebruiken, zouden de publieke opinie op manieren kunnen vormen die de mogelijkheid van kiezers om onafhankelijke politieke oordelen te vellen, in gevaar brengen. Toch blijven de exacte contouren van de impact nog te zien. “We weten niet zeker hoe toekomstige campagnes eruit zullen zien en hoe ze deze soorten technologieën zullen integreren,” zegt Andy Guess, een politicoloog aan de Princeton University. Concurrentie om de aandacht van kiezers is duur en moeilijk, en hen betrekken in lange politieke gesprekken met chatbots kan een uitdaging zijn. “Zal dit de manier zijn waarop mensen zich informeren over politiek, of zal dit meer een niche-activiteit zijn?” vraagt hij zich af. ...