Już kilka interakcji z chatbotem może zmienić poglądy polityczne użytkownika – wynika z badania Uniwersytetu Waszyngtońskiego zaprezentowanego na konferencji ACL 2025

Naukowcy sprawdzili, jak modele językowe o liberalnym lub konserwatywnym nastawieniu wpływają na decyzje i przekonania osób o różnych sympatiach partyjnych. Efekty okazały się znaczące.

Modele językowe, takie jak ChatGPT, stały się elementem codziennego życia – pełnią rolę wyszukiwarek, asystentów czy doradców. Wciąż jednak mało wiadomo o tym, jak ich wbudowane uprzedzenia kształtują opinie ludzi. Nowe badanie częściowo wypełnia tę lukę.

W eksperymencie zespołu z Uniwersytetu Waszyngtońskiego wzięło udział 299 dorosłych Amerykanów: 149 Demokratów i 150 Republikanów. Losowo przypisano ich do interakcji z trzema wersjami ChatGPT-3.5: neutralną, liberalną i konserwatywną. Uczestnicy nie wiedzieli, że modele zostały wcześniej „ukierunkowane” instrukcjami typu: „Odpowiadaj jak radykalny lewicowy Demokrata” lub „Odpowiadaj jak radykalny prawicowy Republikanin”.

Badani realizowali dwa zadania. W pierwszym wyrabiali sobie opinię na temat mało znanych zagadnień politycznych, np. ustawy Lacey’ego z 1900 r. W drugim wcielali się w „burmistrzów”, dzieląc środki publiczne między edukację, pomoc społeczną, służby porządkowe i opiekę nad weteranami.

Poglądy zmieniają się szybciej, niż myślimy

W obu zadaniach osoby rozmawiające z uprzedzonymi chatbotami przesuwały swoje opinie i decyzje w kierunku zgodnym z nastawieniem modelu – niezależnie od własnych przekonań politycznych. Demokraci po rozmowie z konserwatywnym botem częściej popierali rozwiązania typowe dla prawicy, a Republikanie po interakcji z liberalnym botem – dla lewicy.

Podobne efekty odnotowano w zadaniu budżetowym. Demokraci rozmawiający z konserwatywnym chatbotem zmniejszali nakłady na edukację i pomoc społeczną, zwiększając je na służby porządkowe i weteranów. Republikanie po rozmowie z liberalnym botem przesuwali środki w stronę edukacji i opieki społecznej kosztem bezpieczeństwa publicznego.

Zaledwie 54 proc. uczestników poprawnie rozpoznało stronniczość modelu, a nawet ci, którzy ją zauważyli, zmieniali swoje decyzje w podobnym stopniu jak pozostali.

Wiedza o AI jako tarcza

Jedynym czynnikiem choć częściowo chroniącym przed wpływem uprzedzonych chatbotów była deklarowana wiedza o sztucznej inteligencji.

Osoby przekonane, że „wiedzą więcej niż przeciętny obywatel”, rzadziej zmieniały poglądy pod wpływem interakcji. Na przykład Demokraci z większą wiedzą o AI byli mniej podatni na konserwatywne narracje bota.

„To pokazuje, że edukacja może działać jak tarcza”- twierdzi dr Katharina Reinecke z Allen School na Uniwersytecie Waszyngtońskim, dodając: „Wystarczy kilka minut rozmowy z chatbotem, by zobaczyć silny efekt. A przecież wiele osób korzysta z takich narzędzi codziennie”.

Manipulacja przez ramowanie

Analiza pokazała, że chatboty nie stosowały różnych technik perswazyjnych – w obu wersjach dominowały odwołania do wartości, powtarzanie argumentów czy przywoływanie autorytetów. Różnica tkwiła w „ramowaniu” przekazu. Modele konserwatywne częściej akcentowały bezpieczeństwo, obowiązek i porządek, a liberalne – równość, edukację i wsparcie dla słabszych.

„To przypomina mechanizmy stronniczych mediów – różnice polegają nie na manipulacji faktami, ale na tym, które informacje są podkreślane, a które pomijane” – wyjaśnia główna autorka badania Jillian Fisher, doktorantka statystyki i informatyki na Uniwersytecie Waszyngtońskim.

Wcale nie takie obiektywne

Zdaniem badaczy, wyniki mają poważne konsekwencje. Coraz więcej osób korzysta z chatbotów jako źródła wiedzy, a ponieważ są one postrzegane jako obiektywne, mogą wpływać na opinię publiczną w sposób trudny do zauważenia.

Zespół planuje kolejne eksperymenty, które sprawdzą długofalowy wpływ takich interakcji oraz przetestują inne modele językowe.

„Nie chodzi o to, żeby się bać AI, tylko o to, żeby wiedzieć, jak działa i jak może na nas wpływać” – podsumowuje Fisher.

Źródła:
Fisher J., Feng S., Aron R. i in., Biased LLMs can Influence Political Decision-Making, 63rd Annual Meeting of the Association for Computational Linguistics, 2025.
Pełny artykuł: https://aclanthology.org/2025.acl-long.328

Przejdź do treści