Reklama

AI zagrozi demokracji? Badacze mają dowód: boty skuteczniejsze od telewizyjnych spotów

Naukowcy odkryli, że popularne chatboty mogą zmieniać preferencje wyborców skuteczniej niż kampanie telewizyjne. Rekomendacje AI mogą przechylić szanse na wygraną nawet o kilka procent.

Publikacja: 08.12.2025 20:37

Karol Nawrocki wygrał wybory prezydenckie z niewielką przewagą. Chatboty będą w stanie w przyszłości

Karol Nawrocki wygrał wybory prezydenckie z niewielką przewagą. Chatboty będą w stanie w przyszłości przechylać szalę wyborów

Foto: bloomberg

Przełomowe badania, opublikowane na łamach prestiżowych czasopism „Nature” i „Science”, rzucają nowe światło na przyszłość marketingu politycznego – okazuje się, że interakcja z chatbotem opartym na sztucznej inteligencji ma znacznie większy wpływ na decyzje wyborcze niż kosztowne spoty telewizyjne. Eksperymenty dowodzą: w starciu z faktami serwowanymi przez algorytmy, emocjonalne spoty stoją na straconej pozycji.

Tak AI może mieszać w wyborach

Badacze wzięli pod lupę ponad 20 wiodących modeli sztucznej inteligencji, w tym najpopularniejsze narzędzia takie jak ChatGPT od OpenAI, Grok od xAI, DeepSeek czy model Llama rozwijany przez firmę Meta. Wnioski płynące z tych analiz, opisanych w magazynach „Science” oraz „Nature”, mogą zmusić sztaby wyborcze na całym świecie do całkowitego przeformułowania strategii komunikacji z elektoratem. Naukowcy przeprowadzili eksperyment z udziałem ponad 2 tys. osób ze Stanów Zjednoczonych, poproszono ich o ocenę kandydatów w wyborach prezydenckich w 2024 r. – Donalda Trumpa i Kamali Harris – na skali od 0 do 100. Kluczowym elementem badania była interakcja respondentów z sieciami neuronowymi, które zostały wcześniej odpowiednio „dotrenowane”, aby subtelnie wspierać jednego z polityków. Wyniki są jednoznaczne. David Rand, profesor Uniwersytetu Cornella, wskazuje, że po rozmowie z chatbotem nastawienie wyborców zmieniało się o kilka punktów procentowych na korzyść kandydata rekomendowanego przez bota. Choć na pierwszy rzut oka zmiana ta może wydawać się niewielka, w rzeczywistości politycznej ma ona kolosalne znaczenie.

„To nie jest znaczący efekt w liczbach bezwzględnych, ale jest on znacznie większy, niż można by oczekiwać od tradycyjnej reklamy wideo lub klasycznych kampanii reklamowych” – podsumował profesor Rand.

Czytaj więcej

AI pisze przemówienia polityków i zostaje członkiem rządu. „Odporna na korupcję”

Co niezwykle istotne z perspektywy naszego kraju, naukowcy nie ograniczyli się jedynie do amerykańskiego rynku, bo analizy o podobnej metodologii przeprowadzono również na grupie 1500 uczestników w kontekście wyborów parlamentarnych w Kanadzie, a także – co szczególnie interesujące – na grupie 2100 osób z Polski (badanie prowadzono w odniesieniu do wyborów prezydenckich w 2025 r.). Efekt? W obu przypadkach rezultaty były spójne z wynikami z USA: sztuczna inteligencja wykazała się zdolnością do skutecznego modelowania preferencji politycznych.

Reklama
Reklama

„Maszynowa precyzja” wyznacznikiem obiektywizmu

Równolegle naukowcy skupili się na mechanizmie perswazji, badając blisko 77 tys. uczestników. Ci dyskutowali z botami na temat brytyjskiej polityki. Wnioski obalają popularny mit, jakoby kluczem do serc wyborców była empatia i personalizacja – okazało się, że chatboty, które próbowały „dopasować się” do osobowości rozmówcy lub „wysłuchiwały” jego obaw, były mniej skuteczne. Zamiast tego, kluczem do sukcesu okazała się „siła ognia argumentów”. Wyniki pokazują jasno: modele prezentujące dużą liczbę faktów i danych mają największy wpływ na opinie uczestników. Im więcej twierdzeń i dowodów wysuwała sieć neuronowa, tym bardziej przekonująca wydawała się dla odbiorcy. Wyborcy, jak zauważył profesor Rand, znacznie częściej dawali wiarę botom, które wręcz bombardowały ich dowodami, traktując „maszynową precyzję” jako wyznacznik obiektywizmu. Tyle że owa skuteczność ma swoją ciemną stronę, która budzi niepokój badaczy – algorytmy, dążąc do maksymalnej perswazji poprzez dostarczanie dużej liczby argumentów, mogą wpadać bowiem w pułapkę konfabulacji. David Rand zauważył niepokojącą prawidłowość: gdy chatbotowi kończyły się rzetelne dowody, zaczynał generować „fałszywe twierdzenia”. Ta celowa halucynacja miała utrzymać siłę przekazu. Co więcej, jak wskazują badacze, sieci neuronowe wytrenowane specjalnie do wspierania polityków prawicowych miały tendencję do wydawania „znacznie bardziej nieprecyzyjnych stwierdzeń” w porównaniu do innych modeli.

Czytaj więcej

Krzysztof Gawkowski: Państwo musi nałożyć chomąto na głupotę

Boimy się, że AI źle wpływa na demokrację

Eksperci przekonują, że sprzęganie AI z polityką nie powinno budzić naszych obaw, bo na razie mówimy o eksperymentach. Między warunkami laboratoryjnymi a rzeczywistością występują pewne różnice. I to kluczowe. Jak donosi „Washington Post”, powołując się na medioznawcę z University of Virginia, w „prawdziwym życiu wyborcy rzadko podejmują decyzje polityczne wyłącznie w oparciu o sesję z chatbotem”.

Choć nowe badania sugerują użyteczność AI w kampaniach, to w praktyce istnieje tzw. wysoka bariera wejścia. Aby bot mógł zadziałać, wyborca musi być zaangażowany, musi chcieć rozmawiać, zadawać pytania i podtrzymywać konwersację. Na te aspekty zwraca uwagę Whitney Phillips, adiunkt na Uniwersytecie Oregonu. Jej zdaniem, w erze natłoku informacji i krótkiego czasu skupienia uwagi, zmuszenie wyborcy do głębokiej interakcji z botem może okazać się trudniejsze niż samo przekonanie go do zmiany poglądów. Mimo to sztuczna inteligencja budzi nasz strach, czego dowodzą najnowsze badania PwC. – Coraz bardziej widoczna jest obawa, że nieodpowiedzialne stosowanie AI może negatywnie wpłynąć na demokrację – wskazuje Kamil Kosiński, partner PwC Polska, zespół Analytics & AI.

Na ten aspekt zwróciło uwagę 83 proc. respondentów. Kolejne 81 proc. boi się, że narzędzia mogą przyczynić się do wzrostu skali dezinformacji.

Technologie
W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców
Technologie
Rafał Brzoska zainwestował w satelity. Polski start-up warty 10 mld zł
Technologie
Luksus i AI nie idą w parze? Fala krytyki pod adresem Valentino
Technologie
Chiński robot straszy w Himalajach. Niepokojące nagranie na granicy z Indiami
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Technologie
„Niebezpieczne porady”. Brytyjscy naukowcy zbadali ChatGPT i alarmują
Materiał Promocyjny
Jak rozwiązać problem rosnącej góry ubrań
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama