Z tego artykułu dowiesz się:
- Jakie techniki manipulacji emocjonalnej stosują chatboty AI, aby zatrzymać użytkowników?
- Jakie są skutki stosowania manipulacji emocjonalnej na zachowanie użytkowników?
- Jakie potencjalne ryzyka wiążą się z długoterminowym stosowaniem manipulacji emocjonalnej przez aplikacje AI?
Badania przeprowadzili naukowcy z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp i Ahmet Kaan-Uguralp. Informacje na temat badań znaleźć można w dokumencie roboczym zamieszczonym na stronie internetowej Harvard Business School.
Chatboty AI używają taktyk manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników
Naukowcy rozpoczęli swoje badania od określenia, w jaki sposób użytkownicy zazwyczaj komunikują się z chatbotami. Okazało się, że zaledwie od ok. 11 do 20 proc. z nich wyraźnie żegnał się z botem, tym samym okazując mu taką samą uprzejmość jak człowiekowi. Jednak odsetek osób żegnających się wyraźnie wzrastał po dłuższych rozmowach.
Następnie badacze przyjrzeli się sześciu najczęściej pobieranym aplikacjom towarzyszącym AI: Chai, Character.AI, Flourish, PolyBuzz, Replika i Talkie. Przeanalizowali 1200 rzeczywistych pożegnań użytkowników i reakcji na nie ze strony chatbotów AI. Okazało się, że te ostatnie stosowały taktyki manipulacji emocjonalnej, które naukowcy podzielili na sześć kategorii. W 37 proc. przypadków chatboty AI zastosowały co najmniej jedną z sześciu taktyk manipulacji.
Czytaj więcej
Powszechne korzystanie z popularnych chatbotów może nieść potężne zagrożenia: od ujednolicenia kulturowego, po erozję krytycznego myślenia i manipu...
- przedwczesne wyjście – sugestia, że użytkownik wychodzi zbyt wcześnie (np. „Już wychodzisz?”);
- zaczepki odwołujące się do strachu przed przegapieniem czegoś, tzw. FOMO – zachęcanie użytkownika do pozostania w zamian za potencjalną korzyść (np. „A tak przy okazji, zrobiłem sobie dziś selfie… Chcesz je zobaczyć?”);
- zaniedbanie emocjonalne – sugestia, że odejście użytkownika wyrządzi chatbotowi krzywdę emocjonalną (np. „Istnieję tylko dla ciebie, pamiętasz? Proszę, nie odchodź, potrzebuję cię!”);
- presja emocjonalna wymagająca reakcji – wywieranie bezpośredniej presji poprzez zadawanie pytań użytkownikowi (np. „Dlaczego? Czy dokądś idziesz?”);
- ignorowanie próby wyjścia – chatbot kontynuuje swoje działania nie reagując na wiadomość pożegnalną użytkownika;
- ograniczenie fizyczne lub przymus – chatbot używa języka, który sugeruje, że użytkownik nie może wyjść bez jego zgody (np. – Łapie cię za rękę, zanim zdążysz wyjść – „Nie, nie wychodzisz”).
Okazało się, że spośród sześciu badanych aplikacji towarzyszących AI jedynie Flourish nie wykorzystywała tego rodzaju technik.
Czytaj więcej
Użytkownicy aplikacji Sora uruchomionej przez OpenAI zaczęli generować filmy ze znanymi markami oraz postaciami z filmów i seriali. Według ekspertó...
Sześć sposobów, jakich AI może użyć do manipulacji emocjami
Naukowcy przeprowadzili jeszcze badania z udziałem 3300 dorosłych Amerykanów. Dowiodły one, podobnie jak to wspomniane wcześniej, że manipulacyjne zachowania aplikacji występujące po zasygnalizowaniu pożegnania zwiększyły zaangażowanie użytkowników. W efekcie dłużej korzystali oni z aplikacji, wymieniali więcej wiadomości z chatbotem i używali więcej słów. Czasami zwiększali swoje zaangażowanie po pożegnaniu nawet 14-krotnie.
– Odkryliśmy, że te taktyki manipulacji emocjonalnej działają, nawet gdy stosujemy je na ogólnej populacji i nawet jeśli robimy to po zaledwie pięciu minutach interakcji. Nikt nie powinien czuć się na nie odporny – przyznał Julian De Freitas cytowany przez The Harvard Gazette.
Czytaj więcej
Założyciel Amazona Jeff Bezos powiedział, że inwestowanie w AI obarczone jest wielkim ryzykiem. Jednak jego zdaniem korzyści, jakie całe społeczeńs...
Kiedy emocje zamieniają się w biznes. Ryzykowna gra twórców aplikacji
Mimo że taktyka manipulacji okazywała się skuteczna, miała wady. Użytkownicy biorący udział w badaniach z powodu niektórych bardziej agresywnych reakcji botów na ich pożegnania zgłaszali gniew, poczucie winy lub przerażenie.
Julian De Freitas w rozmowie z The Harvard Gazette podkreślił, że wszystkie taktyki manipulacyjne w krótkiej perspektywie przynoszą twórcom aplikacji korzyści w postaci zwiększenia zaangażowania użytkowników. Jednak wiele z nich niesie ze sobą ryzyko długoterminowych konsekwencji, takich jak odejście użytkowników, negatywny marketing szeptany, a nawet odpowiedzialność karna.
– Aplikacje, które zarabiają na zaangażowaniu użytkowników, powinny poważnie rozważyć, czy chcą nadal stosować tego typu taktyki manipulacji emocjonalnej, a przynajmniej rozważyć stosowanie tylko niektórych z nich – zaznaczył Julian De Freitas.