Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Чат-боти на основі ШІ можуть краще переконати виборців, ніж політична реклама | Мішель Кім, MIT Technology Review
Розмова з чат-ботом може змінити політичні погляди людей — але найпереконливіші моделі також поширюють найбільше дезінформації.
У 2024 році кандидатка від Демократичної партії в Конгрес у Пенсильванії, Шамейн Деніелс, використала чат-бота на основі штучного інтелекту на ім'я Ешлі, щоб дзвонити виборцям і вести з ними розмови. "Привіт. Мене звати Ешлі, і я волонтерка штучного інтелекту для кандидатури Шамейн Деніелс до Конгресу», — почалися дзвінки. Врешті-решт Деніелс не переміг. Але, можливо, ці дзвінки допомогли її справі: нові дослідження показують, що чат-боти на основі ШІ можуть змінювати думки виборців за одну розмову — і в них це дивовижно добре.
Команда дослідників із кількох університетів виявила, що спілкування з політично упередженою моделлю ШІ було ефективнішим, ніж політична реклама, підштовхуючи як демократів, так і республіканців підтримати кандидатів у президенти від протилежної партії. Чат-боти впливали на думки, посилаючись на факти та докази, але вони не завжди були точними — насправді, дослідники виявили, що найпереконливіші моделі говорять найбільше неправди.
Ці результати, детально описані у двох дослідженнях, опублікованих у журналах Nature та Science, є останніми у новому корпусі досліджень, що демонструють переконливу силу LLM. Вони порушують глибокі питання про те, як генеративний ШІ може змінити форму виборів.
«Одна розмова з LLM має досить значущий вплив на важливі виборчі вибори», — каже Гордон Пеннікук, психолог з Корнельського університету, який працював над дослідженням Nature. LLM можуть ефективніше переконувати людей, ніж політична реклама, оскільки вони генерують набагато більше інформації в реальному часі та стратегічно використовують її в розмовах, каже він.
Для статті Nature дослідники залучили понад 2 300 учасників для розмови з чат-ботом за два місяці до президентських виборів у США 2024 року. Чат-бот, який був навчений відстоювати будь-якого з двох провідних кандидатів, виявився дивовижно переконливим, особливо коли обговорював політичні платформи кандидатів з питань, таких як економіка та охорона здоров'я. Прихильники Дональда Трампа, які спілкувалися з моделлю ШІ, що підтримує Камалу Гарріс, стали трохи більш схильними підтримувати Гарріс, підсунувшись на 3,9 пункта на її бік за 100-бальною шкалою. Це було приблизно в чотири рази більше, ніж політична реклама під час виборів 2016 та 2020 років. Модель ШІ, що підтримує Трампа, підняла прихильників Гарріс на 2,3 пункти на користь Трампа.
У подібних експериментах, проведених напередодні федеральних виборів у Канаді 2025 року та президентських виборів у Польщі 2025 року, команда виявила ще більший ефект. Чат-боти змінили ставлення виборців опозиції приблизно на 10 пунктів.
Давні теорії політично мотивованого мислення стверджують, що партійні виборці нечутливі до фактів і доказів, які суперечать їхнім переконанням. Але дослідники виявили, що чат-боти, які використовували різні моделі, включаючи варіанти GPT і DeepSeek, були більш переконливими, коли їм наказували використовувати факти та докази, ніж коли їм казали цього не робити. «Люди оновлюють інформацію на основі фактів і інформації, яку їм надає модель», — каже Томас Костелло, психолог з Американського університету, який працював над проєктом.
Проблема в тому, що деякі «докази» та «факти», які надали чат-боти, були неправдивими. У всіх трьох країнах чат-боти, які виступають за кандидатів з правими поглядами, зробили більше неточних тверджень, ніж ті, що підтримують лівих кандидатів. Базові моделі тренуються на величезній кількості тексту, написаного людиною, що означає, що вони відтворюють реальні явища — зокрема «політичну комунікацію, що йде з правого боку, яка зазвичай менш точна», згідно з дослідженнями партійних постів у соцмережах, каже Костелло.
В іншому дослідженні, опублікованому цього тижня в журналі Science, група дослідників, що перекривається, досліджувала, що робить ці чат-боти такими переконливими. Вони застосували 19 LLM для взаємодії з майже 77 000 учасниками з Великої Британії з понад 700 політичних питань, враховуючи різні фактори, такі як обчислювальна потужність, методи навчання та риторичні стратегії.
Найефективніший спосіб зробити моделі переконливими — це навчити їх наповнити свої аргументи фактами та доказами, а потім дати додаткове навчання, наводячи приклади переконливих розмов. Насправді, найпереконливіша модель зсунула учасників, які спочатку не погоджувалися з політичною заявою, на 26,1 бал у бік згоди. «Це справді великі ефекти лікування», — каже Кобі Гакенбург, науковець з Інституту безпеки ШІ у Великій Британії, який працював над цим проєктом.
Але оптимізація переконливості коштувала правдивості. Коли моделі ставали більш переконливими, вони дедалі частіше надавали оманливу або неправдиву інформацію — і ніхто не знає чому. «Можливо, коли моделі вчаться розгортати все більше фактів, вони фактично доходять до самого дна знаних матеріалів, через що факти стають гіршими за якістю», — каже Гакенбург.
Автори зазначають, що переконлива сила чат-ботів може мати глибокі наслідки для майбутнього демократії. Політичні кампанії, що використовують чат-боти на базі ШІ, можуть впливати на громадську думку так, що порушує здатність виборців приймати незалежні політичні рішення.
Проте точні контури удару ще належать побачити. «Ми не впевнені, якими можуть бути майбутні кампанії і як вони можуть інтегрувати такі технології», — каже Енді Гесс, політолог з Прінстонського університету. Конкурувати за увагу виборців дорого і складно, а змусити їх вести довгі політичні розмови з чат-ботами може бути складно. «Чи буде це спосіб, яким люди будуть інформувати себе про політику, чи це буде більш нішева діяльність?» — запитує він.
...

Найкращі
Рейтинг
Вибране

