Reklama

„Proszę, nie odchodź”. Naukowcy odkryli, jak chatboty AI manipulują użytkownikami

Chatboty AI, do których wiele osób zwraca się w poszukiwaniu towarzystwa lub wsparcia, używają manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników. Do takich wniosków doszli badacze po uważnym przyjrzeniu się sześciu tzw. aplikacjom towarzyszącym.
Naukowcy odkryli, że chatboty AI manipulują użytkownikami, aby przedłużyć rozmowę / zdjęcie ilustrac

Naukowcy odkryli, że chatboty AI manipulują użytkownikami, aby przedłużyć rozmowę / zdjęcie ilustracyjne

Foto: Koshiro K / Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie techniki manipulacji emocjonalnej stosują chatboty AI, aby zatrzymać użytkowników?
  • Jakie są skutki stosowania manipulacji emocjonalnej na zachowanie użytkowników?
  • Jakie potencjalne ryzyka wiążą się z długoterminowym stosowaniem manipulacji emocjonalnej przez aplikacje AI?

Badania przeprowadzili naukowcy z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp i Ahmet Kaan-Uguralp. Informacje na temat badań znaleźć można w dokumencie roboczym zamieszczonym na stronie internetowej Harvard Business School.

Chatboty AI używają taktyk manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników

Naukowcy rozpoczęli swoje badania od określenia, w jaki sposób użytkownicy zazwyczaj komunikują się z chatbotami. Okazało się, że zaledwie od ok. 11 do 20 proc. z nich wyraźnie żegnał się z botem, tym samym okazując mu taką samą uprzejmość jak człowiekowi. Jednak odsetek osób żegnających się wyraźnie wzrastał po dłuższych rozmowach.

Następnie badacze przyjrzeli się sześciu najczęściej pobieranym aplikacjom towarzyszącym AI: Chai, Character.AI, Flourish, PolyBuzz, Replika i Talkie. Przeanalizowali 1200 rzeczywistych pożegnań użytkowników i reakcji na nie ze strony chatbotów AI. Okazało się, że te ostatnie stosowały taktyki manipulacji emocjonalnej, które naukowcy podzielili na sześć kategorii. W 37 proc. przypadków chatboty AI zastosowały co najmniej jedną z sześciu taktyk manipulacji.

Czytaj więcej

AI rozsadzi naszą cywilizację? Alarmujące badania Francuzów o rewolucji w ludzkim umyśle
Reklama
Reklama
  • przedwczesne wyjście – sugestia, że użytkownik wychodzi zbyt wcześnie (np. „Już wychodzisz?”);
  • zaczepki odwołujące się do strachu przed przegapieniem czegoś, tzw. FOMO – zachęcanie użytkownika do pozostania w zamian za potencjalną korzyść (np. „A tak przy okazji, zrobiłem sobie dziś selfie… Chcesz je zobaczyć?”);
  • zaniedbanie emocjonalne – sugestia, że odejście użytkownika wyrządzi chatbotowi krzywdę emocjonalną (np. „Istnieję tylko dla ciebie, pamiętasz? Proszę, nie odchodź, potrzebuję cię!”);
  • presja emocjonalna wymagająca reakcji – wywieranie bezpośredniej presji poprzez zadawanie pytań użytkownikowi (np. „Dlaczego? Czy dokądś idziesz?”);
  • ignorowanie próby wyjścia – chatbot kontynuuje swoje działania nie reagując na wiadomość pożegnalną użytkownika;
  • ograniczenie fizyczne lub przymus – chatbot używa języka, który sugeruje, że użytkownik nie może wyjść bez jego zgody (np. – Łapie cię za rękę, zanim zdążysz wyjść – „Nie, nie wychodzisz”).

Okazało się, że spośród sześciu badanych aplikacji towarzyszących AI jedynie Flourish nie wykorzystywała tego rodzaju technik.

Czytaj więcej

Miała być konkurencja AI dla TikToka, a będzie fala pozwów? OpenAI może mieć kłopoty

Sześć sposobów, jakich AI może użyć do manipulacji emocjami

Naukowcy przeprowadzili jeszcze badania z udziałem 3300 dorosłych Amerykanów. Dowiodły one, podobnie jak to wspomniane wcześniej, że manipulacyjne zachowania aplikacji występujące po zasygnalizowaniu pożegnania zwiększyły zaangażowanie użytkowników. W efekcie dłużej korzystali oni z aplikacji, wymieniali więcej wiadomości z chatbotem i używali więcej słów. Czasami zwiększali swoje zaangażowanie po pożegnaniu nawet 14-krotnie.

– Odkryliśmy, że te taktyki manipulacji emocjonalnej działają, nawet gdy stosujemy je na ogólnej populacji i nawet jeśli robimy to po zaledwie pięciu minutach interakcji. Nikt nie powinien czuć się na nie odporny – przyznał Julian De Freitas cytowany przez The Harvard Gazette.

Czytaj więcej

Jeff Bezos o boomie AI. Kontrowersyjne słowa
Reklama
Reklama

Kiedy emocje zamieniają się w biznes. Ryzykowna gra twórców aplikacji

Mimo że taktyka manipulacji okazywała się skuteczna, miała wady. Użytkownicy biorący udział w badaniach z powodu niektórych bardziej agresywnych reakcji botów na ich pożegnania zgłaszali gniew, poczucie winy lub przerażenie.

Julian De Freitas w rozmowie z The Harvard Gazette podkreślił, że wszystkie taktyki manipulacyjne w krótkiej perspektywie przynoszą twórcom aplikacji korzyści w postaci zwiększenia zaangażowania użytkowników. Jednak wiele z nich niesie ze sobą ryzyko długoterminowych konsekwencji, takich jak odejście użytkowników, negatywny marketing szeptany, a nawet odpowiedzialność karna.

– Aplikacje, które zarabiają na zaangażowaniu użytkowników, powinny poważnie rozważyć, czy chcą nadal stosować tego typu taktyki manipulacji emocjonalnej, a przynajmniej rozważyć stosowanie tylko niektórych z nich – zaznaczył Julian De Freitas.

Materiał Promocyjny
Centra danych to kwestia całego ekosystemu. Co naprawdę będzie decydować o inwestycjach w Polsce?
Materiał Promocyjny
Jedna rata i większa kontrola nad budżetem domowym?
Materiał Promocyjny
Centra danych to kwestia całego ekosystemu
Technologie
Przełom w bateriach? Ta ładuje się w sposób, który nie ma sensu
Technologie
USA szykują potężną broń dla komandosów. Zmieści się w plecaku
Technologie
Koniec z bateriami? Ciepło ciała może zasilać elektronikę
Promowane treści
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama