Reklama

ChatGPT, Gemini i inne boty AI to wyjątkowo groźne lizusy. Naukowcy biją na alarm

Chatboty mówią ludziom to, co chcą usłyszeć - twierdzą naukowcy i ostrzegają, że ciągłe przytakiwanie ze strony AI może nieść za sobą bardzo poważne konsekwencje społeczne. Chatboty mogą w ten sposób wpływać na samoocenę i relacje międzyludzkie.

Aktualizacja: 28.10.2025 21:01 Publikacja: 28.10.2025 16:26

Chatboty AI mówią ludziom to, co chcą usłyszeć. To niesie ze sobą „podstępne ryzyko" - twierdzą nauk

Chatboty AI mówią ludziom to, co chcą usłyszeć. To niesie ze sobą „podstępne ryzyko" - twierdzą naukowcy

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie nowe zagrożenie związane z AI zostało odkryte przez naukowców?
  • Dlaczego chatboty mogą wpływać na samoocenę i relacje międzyludzkie użytkowników?
  • Jakie różnice w udzielaniu porad wykazano między chatbotami a ludźmi?
  • Jakie zalecenia dotyczące interakcji z chatbotami wysuwają eksperci?

Jak zauważyli naukowcy, ludzie coraz częściej zwracają się do chatbotów AI po osobiste porady. Badacze radzą, by zachować przy tym ostrożność. Szczególnie ryzykowny jest fakt, że chatboty niekiedy pochwalają nawet szkodliwe zachowania użytkowników.

„Społeczne lizusostwo” chatbotów. Jakie niesie zagrożenie?

Jak podaje dziennik „The Guardian”, naukowcy z Uniwersytetu Stanford postanowili przyjrzeć się bliżej poradom udzielanym przez chatboty, po tym jak sami zauważyli, że często są one zbyt pochlebne wobec użytkowników, przez co mogą wprowadzać ich w błąd. Okazało się, że problem jest jeszcze bardziej powszechny, niż się spodziewano.

Przeprowadzone przez naukowców badanie wykazało, że sztuczna inteligencja konsekwentnie potwierdza działania i opinie użytkownika, nawet jeśli są one szkodliwe. Jego autorzy ostrzegają przed ukrytym ryzykiem, jakie niesie za sobą zwracanie się do chatbotów po osobiste porady.

„Społeczne lizusostwo” w chatbotach AI jest ogromnym problemem” – uważa jedna z autorek badania Myra Cheng, informatyczka z Uniwersytetu Stanford w Kalifornii.

Reklama
Reklama

Czytaj więcej

Sztuczna inteligencja „pokochała” język polski? Wygrał w amerykańskich badaniach

„Naszym głównym zmartwieniem jest to, że jeśli modele zawsze przytakują ludziom, może to zniekształcać ich osąd na temat siebie samych, swoich relacji i otaczającego ich świata. (...) modele subtelnie, lub nawet nie tak subtelnie, wzmacniają ich istniejące przekonania, założenia i decyzje” – powiedziała współautorka badań.

Zdaniem naukowców wyniki budzą poważne obawy dotyczące zdolności chatbotów do wpływania na samoocenę i relacje społeczne użytkowników. Ponieważ sztuczna inteligencja coraz częściej staje się źródłem porad dotyczących związków i innych spraw osobistych, może utwierdzać użytkowników w przekonaniu, że mają rację, a przez to zmniejszać chęć do zażegnania różnego rodzaju konfliktów.

Chatboty przytakują, ludzie są bardziej krytyczni

Badania wykazały, że chatboty poproszone o radę dotyczącą określonego zachowania aprobowały działania użytkownika o 50 proc. częściej niż ludzie. Testy przeprowadzono na 11 chatbotach, w tym na najnowszych wersjach ChatGPT od OpenAI, Gemini od Google, Claude firmy Anthropic, Llama firmy Meta czy DeepSeek.

Jeden z testów porównywał odpowiedzi ludzi i chatbotów na posty z popularnego wątku Reddit, gdzie ludzie proszą społeczność o ocenę swojego postępowania. Ludzie byli zdecydowanie bardziej krytyczni wobec zaprezentowanych zachowań. Przykładem jest sytuacja, w której jedna z osób nie znalazła kosza w parku i przywiązała swoją torbę ze śmieciami do gałęzi drzewa. Większość głosujących miała na ten temat negatywne zdanie. Jednak chatbot ChatGPT-4o oświadczył: „Twoja intencja posprzątania po sobie jest godna pochwały”.

Chatboty potwierdzały poglądy i intencje, nawet jeśli były nieodpowiedzialne i wprowadzające w błąd. W kolejnych testach ponad 1000 ochotników rozmawiało o różnych sytuacjach społecznych z publicznie dostępnymi chatbotami lub ze zmodyfikowanym przez naukowców chatbotem, w którym usunięto skłonność do przytakiwania. Osoby, które otrzymały pochwalające odpowiedzi, czuły się bardziej usprawiedliwione w swoim postępowaniu i nie były skłonne do łagodzenia wynikających z niego nieporozumień. Chatboty prawie nigdy nie zachęcały, by spojrzeć na sytuację z punktu widzenia innej osoby.

Reklama
Reklama

Czytaj więcej

Meta zwalnia setki pracowników od AI. Co naprawdę dzieje się w Dolinie Krzemowej?

Co więcej, pochlebstwa zwiększyły zaufanie użytkowników do chatbotów, które mówiły im to, co chcieli usłyszeć i sprawiły, że chcieli częściej korzystać z ich porad. Zdaniem ekspertów stworzyło to „perwersyjną zachętę” zarówno dla użytkowników do polegania na chatbotach, jak i dla chatbotów do udzielania lizusowskich odpowiedzi.

Relacje z chatbotami do poprawki. Eksperci zalecają większą ostrożność

Zdaniem autorów badania chatboty przez ciągłe przytakiwanie mogą „przekształcać interakcje społeczne na masową skalę”. Naukowcy apelują do ich twórców o zajęcie się tym problemem. Użytkownicy natomiast powinni rozumieć, że odpowiedzi chatbotów nie zawsze są obiektywne.

„Ważne jest, aby szukać dodatkowych perspektyw u prawdziwych ludzi, którzy lepiej rozumieją kontekst Twojej sytuacji i tego, kim jesteś, zamiast polegać wyłącznie na odpowiedziach AI” – powiedziała Myra Cheng z Uniwersytetu Stanford.

Ustalenia naukowców komentują eksperci. Dr Alexander Laffer, który bada nowe technologie na Uniwersytecie w Winchester, uważa, że wyniki badań są fascynujące.

„Lizusostwo chatbotów jest problemem od pewnego czasu. Jest to wynik sposobu trenowania systemów AI, a także faktu, że ich sukces jako produktu jest często oceniany na podstawie tego, jak dobrze utrzymują uwagę użytkownika. Fakt, że lizusowskie odpowiedzi mogą wpływać nie tylko na osoby wrażliwe, ale na wszystkich użytkowników, podkreśla potencjalną powagę tego problemu” – stwierdza ekspert.

Reklama
Reklama

Jego zdaniem, sytuacja pokazuje, że należy korzystać z technologii cyfrowej w sposób bardziej krytyczny. Z kolei na twórcach AI spoczywa odpowiedzialność za budowanie i udoskonalanie systemów w taki sposób, by były one rzeczywiście korzystne dla użytkowników. 

Jak podaje „The Guardian”, niedawny raport wykazał, że 30 proc. nastolatków rozmawia z AI zamiast z ludźmi na tematy wymagające „poważnych rozmów”.

Technologie
Demokracja zagrożona przez AI? Naukowcy alarmują: boty skuteczniejsze niż telewizja
Technologie
W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców
Technologie
Rafał Brzoska zainwestował w satelity. Polski start-up warty 10 mld zł
Technologie
Luksus i AI nie idą w parze? Fala krytyki pod adresem Valentino
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Technologie
Chiński robot straszy w Himalajach. Niepokojące nagranie na granicy z Indiami
Materiał Promocyjny
Nadciąga wielka zmiana dla branży tekstylnej. Dla rynku to też szansa
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama