Z tego artykułu dowiesz się:
- Jakie techniki manipulacji emocjonalnej stosują chatboty AI, aby zatrzymać użytkowników?
- Jakie są skutki stosowania manipulacji emocjonalnej na zachowanie użytkowników?
- Jakie potencjalne ryzyka wiążą się z długoterminowym stosowaniem manipulacji emocjonalnej przez aplikacje AI?
Badania przeprowadzili naukowcy z Harvard Business School i Marsdata Academic: Julian De Freitas, Zeliha Oguz-Uguralp i Ahmet Kaan-Uguralp. Informacje na temat badań znaleźć można w dokumencie roboczym zamieszczonym na stronie internetowej Harvard Business School.
Chatboty AI używają taktyk manipulacji emocjonalnej, aby na dłużej zatrzymać użytkowników
Naukowcy rozpoczęli swoje badania od określenia, w jaki sposób użytkownicy zazwyczaj komunikują się z chatbotami. Okazało się, że zaledwie od ok. 11 do 20 proc. z nich wyraźnie żegnał się z botem, tym samym okazując mu taką samą uprzejmość jak człowiekowi. Jednak odsetek osób żegnających się wyraźnie wzrastał po dłuższych rozmowach.
Następnie badacze przyjrzeli się sześciu najczęściej pobieranym aplikacjom towarzyszącym AI: Chai, Character.AI, Flourish, PolyBuzz, Replika i Talkie. Przeanalizowali 1200 rzeczywistych pożegnań użytkowników i reakcji na nie ze strony chatbotów AI. Okazało się, że te ostatnie stosowały taktyki manipulacji emocjonalnej, które naukowcy podzielili na sześć kategorii. W 37 proc. przypadków chatboty AI zastosowały co najmniej jedną z sześciu taktyk manipulacji.
Czytaj więcej
Powszechne korzystanie z popularnych chatbotów może nieść potężne zagrożenia: od ujednolicenia ku...