Reklama

„Proszę, nie odchodź”. Naukowcy odkryli, jak chatboty AI manipulują użytkownikami

Chatboty AI, do których wiele osób zwraca się w poszukiwaniu towarzystwa lub wsparcia, używają manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników. Do takich wniosków doszli badacze po uważnym przyjrzeniu się sześciu tzw. aplikacjom towarzyszącym.

Publikacja: 09.10.2025 15:30

Naukowcy odkryli, że chatboty AI manipulują użytkownikami, aby przedłużyć rozmowę / zdjęcie ilustrac

Naukowcy odkryli, że chatboty AI manipulują użytkownikami, aby przedłużyć rozmowę / zdjęcie ilustracyjne

Foto: Koshiro K / Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie techniki manipulacji emocjonalnej stosują chatboty AI, aby zatrzymać użytkowników?
  • Jakie są skutki stosowania manipulacji emocjonalnej na zachowanie użytkowników?
  • Jakie potencjalne ryzyka wiążą się z długoterminowym stosowaniem manipulacji emocjonalnej przez aplikacje AI?

Badania przeprowadzili naukowcy z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp i Ahmet Kaan-Uguralp. Informacje na temat badań znaleźć można w dokumencie roboczym zamieszczonym na stronie internetowej Harvard Business School.

Chatboty AI używają taktyk manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników

Naukowcy rozpoczęli swoje badania od określenia, w jaki sposób użytkownicy zazwyczaj komunikują się z chatbotami. Okazało się, że zaledwie od ok. 11 do 20 proc. z nich wyraźnie żegnał się z botem, tym samym okazując mu taką samą uprzejmość jak człowiekowi. Jednak odsetek osób żegnających się wyraźnie wzrastał po dłuższych rozmowach.

Następnie badacze przyjrzeli się sześciu najczęściej pobieranym aplikacjom towarzyszącym AI: Chai, Character.AI, Flourish, PolyBuzz, Replika i Talkie. Przeanalizowali 1200 rzeczywistych pożegnań użytkowników i reakcji na nie ze strony chatbotów AI. Okazało się, że te ostatnie stosowały taktyki manipulacji emocjonalnej, które naukowcy podzielili na sześć kategorii. W 37 proc. przypadków chatboty AI zastosowały co najmniej jedną z sześciu taktyk manipulacji.

Czytaj więcej

AI rozsadzi naszą cywilizację? Alarmujące badania Francuzów o rewolucji w ludzkim umyśle
Reklama
Reklama
  • przedwczesne wyjście – sugestia, że użytkownik wychodzi zbyt wcześnie (np. „Już wychodzisz?”);
  • zaczepki odwołujące się do strachu przed przegapieniem czegoś, tzw. FOMO – zachęcanie użytkownika do pozostania w zamian za potencjalną korzyść (np. „A tak przy okazji, zrobiłem sobie dziś selfie… Chcesz je zobaczyć?”);
  • zaniedbanie emocjonalne – sugestia, że odejście użytkownika wyrządzi chatbotowi krzywdę emocjonalną (np. „Istnieję tylko dla ciebie, pamiętasz? Proszę, nie odchodź, potrzebuję cię!”);
  • presja emocjonalna wymagająca reakcji – wywieranie bezpośredniej presji poprzez zadawanie pytań użytkownikowi (np. „Dlaczego? Czy dokądś idziesz?”);
  • ignorowanie próby wyjścia – chatbot kontynuuje swoje działania nie reagując na wiadomość pożegnalną użytkownika;
  • ograniczenie fizyczne lub przymus – chatbot używa języka, który sugeruje, że użytkownik nie może wyjść bez jego zgody (np. – Łapie cię za rękę, zanim zdążysz wyjść – „Nie, nie wychodzisz”).

Okazało się, że spośród sześciu badanych aplikacji towarzyszących AI jedynie Flourish nie wykorzystywała tego rodzaju technik.

Czytaj więcej

Miała być konkurencja AI dla TikToka, a będzie fala pozwów? OpenAI może mieć kłopoty

Sześć sposobów, jakich AI może użyć do manipulacji emocjami

Naukowcy przeprowadzili jeszcze badania z udziałem 3300 dorosłych Amerykanów. Dowiodły one, podobnie jak to wspomniane wcześniej, że manipulacyjne zachowania aplikacji występujące po zasygnalizowaniu pożegnania zwiększyły zaangażowanie użytkowników. W efekcie dłużej korzystali oni z aplikacji, wymieniali więcej wiadomości z chatbotem i używali więcej słów. Czasami zwiększali swoje zaangażowanie po pożegnaniu nawet 14-krotnie.

– Odkryliśmy, że te taktyki manipulacji emocjonalnej działają, nawet gdy stosujemy je na ogólnej populacji i nawet jeśli robimy to po zaledwie pięciu minutach interakcji. Nikt nie powinien czuć się na nie odporny – przyznał Julian De Freitas cytowany przez The Harvard Gazette.

Czytaj więcej

Jeff Bezos o boomie AI. Kontrowersyjne słowa
Reklama
Reklama

Kiedy emocje zamieniają się w biznes. Ryzykowna gra twórców aplikacji

Mimo że taktyka manipulacji okazywała się skuteczna, miała wady. Użytkownicy biorący udział w badaniach z powodu niektórych bardziej agresywnych reakcji botów na ich pożegnania zgłaszali gniew, poczucie winy lub przerażenie.

Julian De Freitas w rozmowie z The Harvard Gazette podkreślił, że wszystkie taktyki manipulacyjne w krótkiej perspektywie przynoszą twórcom aplikacji korzyści w postaci zwiększenia zaangażowania użytkowników. Jednak wiele z nich niesie ze sobą ryzyko długoterminowych konsekwencji, takich jak odejście użytkowników, negatywny marketing szeptany, a nawet odpowiedzialność karna.

– Aplikacje, które zarabiają na zaangażowaniu użytkowników, powinny poważnie rozważyć, czy chcą nadal stosować tego typu taktyki manipulacji emocjonalnej, a przynajmniej rozważyć stosowanie tylko niektórych z nich – zaznaczył Julian De Freitas.

Z tego artykułu dowiesz się:

  • Jakie techniki manipulacji emocjonalnej stosują chatboty AI, aby zatrzymać użytkowników?
  • Jakie są skutki stosowania manipulacji emocjonalnej na zachowanie użytkowników?
  • Jakie potencjalne ryzyka wiążą się z długoterminowym stosowaniem manipulacji emocjonalnej przez aplikacje AI?
Pozostało jeszcze 95% artykułu

Badania przeprowadzili naukowcy z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp i Ahmet Kaan-Uguralp. Informacje na temat badań znaleźć można w dokumencie roboczym zamieszczonym na stronie internetowej Harvard Business School.

Chatboty AI używają taktyk manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników

Pozostało jeszcze 93% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Shadow AI to już plaga. Nowe badania pokazują skalę niebezpieczeństwa
Technologie
Landsbergienė: AI to narzędzie, które musimy nauczyć się właściwie używać
Technologie
Florea: AI działa szybko, ale niesie też ze sobą wiele rodzajów ryzyka
Technologie
Czmyr-Kaczanowska: Bez znajomości sztucznej inteligencji młodzi zostaną w tyle
Technologie
AI szybko rewolucjonizuje rynek edukacji, system nie nadąża
Reklama
Reklama