Chatboty AI mogą wpływać na wyborców lepiej niż reklamy polityczne | Michelle Kim, MIT Technology Review Rozmowa z chatbotem może zmienić poglądy polityczne ludzi — ale najbardziej przekonujące modele również rozpowszechniają najwięcej dezinformacji. W 2024 roku kandydatka na kongres z ramienia Partii Demokratycznej w Pensylwanii, Shamaine Daniels, użyła chatbota AI o imieniu Ashley, aby dzwonić do wyborców i prowadzić z nimi rozmowy. „Cześć. Nazywam się Ashley i jestem wolontariuszem sztabu Shamaine Daniels w jej kampanii do Kongresu,” zaczynały się rozmowy. Daniels ostatecznie nie wygrała. Ale może te rozmowy pomogły jej sprawie: nowe badania ujawniają, że chatboty AI mogą zmieniać opinie wyborców w jednej rozmowie — i są w tym zaskakująco dobre. Zespół badaczy z wielu uniwersytetów odkrył, że rozmowa z politycznie stronniczym modelem AI była bardziej skuteczna niż reklamy polityczne w nakłanianiu zarówno Demokratów, jak i Republikanów do poparcia kandydatów prezydenckich z przeciwnej partii. Chatboty wpływały na opinie, przytaczając fakty i dowody, ale nie zawsze były dokładne — w rzeczywistości badacze odkryli, że najbardziej przekonujące modele mówiły najwięcej nieprawdziwych rzeczy. Wyniki, szczegółowo opisane w dwóch badaniach opublikowanych w czasopismach Nature i Science, są najnowszymi w rosnącej liczbie badań demonstrujących perswazyjną moc LLM. Podnoszą one głębokie pytania o to, jak generatywna AI może przekształcić wybory. „Jedna rozmowa z LLM ma dość znaczący wpływ na istotne wybory wyborcze,” mówi Gordon Pennycook, psycholog z Uniwersytetu Cornell, który pracował nad badaniem w Nature. LLM mogą przekonywać ludzi skuteczniej niż reklamy polityczne, ponieważ generują znacznie więcej informacji w czasie rzeczywistym i strategicznie wykorzystują je w rozmowach, mówi. W pracy dla Nature badacze zrekrutowali ponad 2300 uczestników do rozmowy z chatbotem dwa miesiące przed wyborami prezydenckimi w USA w 2024 roku. Chatbot, który był szkolony, aby opowiadać się za jednym z dwóch głównych kandydatów, był zaskakująco przekonujący, zwłaszcza podczas omawiania platform politycznych kandydatów w kwestiach takich jak gospodarka i opieka zdrowotna. Zwolennicy Donalda Trumpa, którzy rozmawiali z modelem AI faworyzującym Kamalę Harris, stali się nieco bardziej skłonni do poparcia Harris, przesuwając się o 3,9 punktu w jej kierunku na skali 100-punktowej. To było około czterokrotnie większy efekt niż zmierzony wpływ reklam politycznych podczas wyborów w 2016 i 2020 roku. Model AI faworyzujący Trumpa przesunął zwolenników Harris o 2,3 punktu w kierunku Trumpa. W podobnych eksperymentach przeprowadzonych w okresie przed wyborami federalnymi w Kanadzie w 2025 roku i wyborami prezydenckimi w Polsce w 2025 roku zespół odkrył jeszcze większy efekt. Chatboty zmieniły postawy wyborców opozycji o około 10 punktów. Długotrwałe teorie dotyczące politycznie motywowanego rozumowania utrzymują, że wyborcy stronniczy są odporni na fakty i dowody, które są sprzeczne z ich przekonaniami. Ale badacze odkryli, że chatboty, które używały różnych modeli, w tym wariantów GPT i DeepSeek, były bardziej przekonujące, gdy były instruowane do używania faktów i dowodów, niż gdy powiedziano im, aby tego nie robiły. „Ludzie aktualizują swoje poglądy na podstawie faktów i informacji, które model im dostarcza,” mówi Thomas Costello, psycholog z American University, który pracował nad projektem. Problem polega na tym, że niektóre z „dowodów” i „faktów”, które chatboty przedstawiały, były nieprawdziwe. We wszystkich trzech krajach chatboty opowiadające się za kandydatami o prawicowych poglądach przedstawiały większą liczbę nieprawdziwych twierdzeń niż te, które opowiadały się za kandydatami o lewicowych poglądach. Podstawowe modele są szkolone na ogromnych ilościach tekstu napisanego przez ludzi, co oznacza, że reprodukują zjawiska ze świata rzeczywistego — w tym „komunikację polityczną, która pochodzi z prawej strony, która ma tendencję do bycia mniej dokładną,” według badań dotyczących stronniczych postów w mediach społecznościowych, mówi Costello. W innym badaniu opublikowanym w tym tygodniu w Science, pokrywający się zespół badaczy zbadał, co sprawia, że te chatboty są tak przekonujące. Wykorzystali 19 LLM do interakcji z prawie 77 000 uczestników z Wielkiej Brytanii na ponad 700 kwestiach politycznych, zmieniając czynniki takie jak moc obliczeniowa, techniki szkoleniowe i strategie retoryczne. Najskuteczniejszym sposobem na uczynienie modeli przekonującymi było polecenie im, aby wypełniły swoje argumenty faktami i dowodami, a następnie zapewnienie im dodatkowego szkolenia poprzez dostarczanie przykładów przekonujących rozmów. W rzeczywistości najbardziej przekonujący model przesunął uczestników, którzy początkowo nie zgadzali się z politycznym stwierdzeniem, o 26,1 punktu w kierunku zgody. „To naprawdę duże efekty leczenia,” mówi Kobi Hackenburg, naukowiec badawczy w UK AI Security Institute, który pracował nad projektem. Jednak optymalizacja perswazyjności odbywała się kosztem prawdziwości. Gdy modele stawały się bardziej przekonujące, coraz częściej dostarczały wprowadzających w błąd lub fałszywych informacji — i nikt nie jest pewien dlaczego. „Może być tak, że gdy modele uczą się dostarczać coraz więcej faktów, w zasadzie sięgają na dno beczki rzeczy, które znają, więc fakty stają się gorszej jakości,” mówi Hackenburg. Perswazyjna moc chatbotów może mieć głębokie konsekwencje dla przyszłości demokracji, zauważają autorzy. Kampanie polityczne, które wykorzystują chatboty AI, mogą kształtować opinię publiczną w sposób, który kompromituje zdolność wyborców do podejmowania niezależnych osądów politycznych. Niemniej jednak dokładne kontury wpływu pozostają do zobaczenia. „Nie jesteśmy pewni, jak mogą wyglądać przyszłe kampanie i jak mogą włączyć te rodzaje technologii,” mówi Andy Guess, politolog z Uniwersytetu Princeton. Konkurencja o uwagę wyborców jest kosztowna i trudna, a skłonienie ich do angażowania się w długie rozmowy polityczne z chatbotami może być wyzwaniem. „Czy to będzie sposób, w jaki ludzie będą się informować o polityce, czy będzie to bardziej niszowa aktywność?” pyta. ...