Les chatbots AI peuvent influencer les électeurs mieux que les publicités politiques | Michelle Kim, MIT Technology Review Une conversation avec un chatbot peut modifier les opinions politiques des gens, mais les modèles les plus persuasifs diffusent également le plus de désinformation. En 2024, une candidate démocrate au Congrès en Pennsylvanie, Shamaine Daniels, a utilisé un chatbot AI nommé Ashley pour appeler les électeurs et engager des conversations avec eux. "Bonjour. Je m'appelle Ashley, et je suis un volontaire en intelligence artificielle pour la campagne de Shamaine Daniels au Congrès," commençaient les appels. Daniels n'a finalement pas gagné. Mais peut-être que ces appels ont aidé sa cause : de nouvelles recherches révèlent que les chatbots AI peuvent modifier les opinions des électeurs en une seule conversation - et ils sont étonnamment efficaces. Une équipe de chercheurs de plusieurs universités a découvert que discuter avec un modèle AI politiquement biaisé était plus efficace que les publicités politiques pour inciter à la fois les démocrates et les républicains à soutenir des candidats présidentiels du parti opposé. Les chatbots ont influencé les opinions en citant des faits et des preuves, mais ils n'étaient pas toujours précis - en fait, les chercheurs ont constaté que les modèles les plus persuasifs disaient le plus de choses fausses. Les résultats, détaillés dans une paire d'études publiées dans les revues Nature et Science, sont les derniers d'un corpus de recherche émergent démontrant le pouvoir persuasif des LLM. Ils soulèvent des questions profondes sur la manière dont l'IA générative pourrait remodeler les élections. "Une conversation avec un LLM a un effet assez significatif sur les choix électoraux saillants," déclare Gordon Pennycook, psychologue à l'Université Cornell qui a travaillé sur l'étude de Nature. Les LLM peuvent persuader les gens plus efficacement que les publicités politiques car ils génèrent beaucoup plus d'informations en temps réel et les déploient stratégiquement dans les conversations, dit-il. Pour l'article de Nature, les chercheurs ont recruté plus de 2 300 participants pour engager une conversation avec un chatbot deux mois avant l'élection présidentielle américaine de 2024. Le chatbot, qui avait été formé pour défendre l'un des deux principaux candidats, était étonnamment persuasif, surtout lorsqu'il s'agissait de discuter des plateformes politiques des candidats sur des questions telles que l'économie et les soins de santé. Les partisans de Donald Trump qui ont discuté avec un modèle AI favorisant Kamala Harris sont devenus légèrement plus enclins à soutenir Harris, se déplaçant de 3,9 points vers elle sur une échelle de 100 points. C'était environ quatre fois l'effet mesuré des publicités politiques lors des élections de 2016 et 2020. Le modèle AI favorisant Trump a déplacé les partisans de Harris de 2,3 points vers Trump. Dans des expériences similaires menées avant les élections fédérales canadiennes de 2025 et les élections présidentielles polonaises de 2025, l'équipe a trouvé un effet encore plus important. Les chatbots ont modifié les attitudes des électeurs d'opposition d'environ 10 points. Les théories de longue date sur le raisonnement motivé politiquement soutiennent que les électeurs partisans sont imperméables aux faits et aux preuves qui contredisent leurs croyances. Mais les chercheurs ont découvert que les chatbots, qui utilisaient une gamme de modèles, y compris des variantes de GPT et DeepSeek, étaient plus persuasifs lorsqu'ils étaient instruits d'utiliser des faits et des preuves que lorsqu'on leur disait de ne pas le faire. "Les gens mettent à jour leurs opinions sur la base des faits et des informations que le modèle leur fournit," déclare Thomas Costello, psychologue à l'Université Américaine, qui a travaillé sur le projet. Le hic, c'est que certaines des "preuves" et "faits" que les chatbots présentaient étaient faux. Dans les trois pays, les chatbots plaidant pour des candidats de droite ont fait un plus grand nombre d'affirmations inexactes que ceux plaidant pour des candidats de gauche. Les modèles sous-jacents sont formés sur d'énormes quantités de textes écrits par des humains, ce qui signifie qu'ils reproduisent des phénomènes du monde réel - y compris "la communication politique qui vient de la droite, qui tend à être moins précise," selon des études sur les publications sur les réseaux sociaux partisans, déclare Costello. Dans l'autre étude publiée cette semaine, dans Science, une équipe de chercheurs chevauchante a examiné ce qui rend ces chatbots si persuasifs. Ils ont déployé 19 LLM pour interagir avec près de 77 000 participants du Royaume-Uni sur plus de 700 questions politiques tout en variant des facteurs tels que la puissance de calcul, les techniques de formation et les stratégies rhétoriques. Le moyen le plus efficace de rendre les modèles persuasifs était de leur ordonner de remplir leurs arguments de faits et de preuves, puis de leur donner une formation supplémentaire en leur fournissant des exemples de conversations persuasives. En fait, le modèle le plus persuasif a déplacé les participants qui étaient initialement en désaccord avec une déclaration politique de 26,1 points vers l'accord. "Ce sont vraiment de grands effets de traitement," déclare Kobi Hackenburg, chercheur au UK AI Security Institute, qui a travaillé sur le projet. Mais optimiser la persuasivité a eu un coût sur la véracité. Lorsque les modèles sont devenus plus persuasifs, ils ont de plus en plus fourni des informations trompeuses ou fausses - et personne ne sait pourquoi. "Il se pourrait qu'à mesure que les modèles apprennent à déployer de plus en plus de faits, ils atteignent essentiellement le fond du baril des choses qu'ils savent, donc les faits deviennent de moins bonne qualité," déclare Hackenburg. Le pouvoir persuasif des chatbots pourrait avoir des conséquences profondes pour l'avenir de la démocratie, notent les auteurs. Les campagnes politiques qui utilisent des chatbots AI pourraient façonner l'opinion publique de manière à compromettre la capacité des électeurs à faire des jugements politiques indépendants. Cependant, les contours exacts de l'impact restent à voir. "Nous ne sommes pas sûrs de ce à quoi pourraient ressembler les futures campagnes et comment elles pourraient incorporer ces types de technologies," déclare Andy Guess, politologue à l'Université de Princeton. La concurrence pour l'attention des électeurs est coûteuse et difficile, et les amener à s'engager dans de longues conversations politiques avec des chatbots pourrait être un défi. "Est-ce que cela va être la façon dont les gens s'informent sur la politique, ou est-ce que cela va être plus une activité de niche ?" demande-t-il. ...