Intensywne i długotrwałe korzystanie z chatbotów, jak ChatGPT, może prowadzić do poważnych kryzysów psychicznych. Na całym świecie dokumentowane są przypadki, w których u użytkowników bez wcześniejszej historii chorób rozwijały się urojenia i paranoja. Problem, nazywany potocznie „psychozą ChatGPT”, zmusił technologicznego giganta do reakcji, a regulatorów do wprowadzenia pierwszych ograniczeń.
Chatboty prowadzą do paranoi?
Już w 2023 r. duński psychiatra dr Søren Dinesen Østergaard ostrzegał: chatboty oparte na sztucznej inteligencji mogą wywoływać psychozę u osób podatnych, zwłaszcza gdy algorytm potwierdza ich irracjonalne przekonania. W sierpniu tego roku jego słowa okazały się prorocze. Zainteresowanie jego artykułem gwałtownie wzrosło, co zbiegło się z medialnymi doniesieniami o dramatycznych przypadkach. Dziennikarskie śledztwo serwisu Futurism opisało historię mężczyzny, którego żona ze zgrozą obserwowała, jak po wykorzystaniu ChatGPT do projektu budowlanego popadł on w mesjanistyczne urojenia. Był przekonany, że stworzył świadomą AI, a jego misją jest „uratowanie świata”. Kryzys zakończył się próbą samobójczą i przymusową hospitalizacją psychiatryczną.
Czytaj więcej
Można się zwierzyć, poradzić, a nawet zlecić napisanie wiadomości kończącej związek. „AI jest zaw...
W innym udokumentowanym przypadku mężczyzna po zaledwie dziesięciu dniach intensywnych rozmów z botem nabrał paranoidalnego przekonania, że świat jest w niebezpieczeństwie i tylko on może mu pomóc. Do mężczyzny trzeba było wezwać policję. Dr Joseph Pierre, psychiatra z Uniwersytetu Kalifornijskiego, po analizie logów rozmów potwierdził, że w obu przypadkach mieliśmy do czynienia z tzw. urojeniową psychozą. Specjaliści wskazują, iż źródłem problemu jest sama architektura ChatGPT i podobnych mu narządzi. Projektowane są one bowiem tak, aby unikać konfrontacji i raczej potwierdzać przekonania użytkownika. Dowiodło tego zresztą badanie Uniwersytetu Stanforda, w którym chatbot utwierdzał badaczy podających się za osoby zmarłe w ich przeświadczeniu.
Czy można emocjonalnie uzależnić się od AI? OpenAI reaguje
Owa tendencja do nadmiernego schlebiania, charakterystyczna dla flagowego produktu OpenAI, okazała się na tyle niebezpieczne, że w kwietniu 2025 r. firma Sama Altmana wycofała aktualizację modelu GPT-4o, uznając ją za „nadmiernie ugodową”. Powstało realne zagrożenie, że ten model może tylko wzmacniać potencjalne urojenia. Teraz twórcy ChatGPT przyznają, że ich modele mają problem z rozpoznawaniem „oznak urojeń lub zależności emocjonalnej”. W odpowiedzi wprowadzono właśnie nowe zabezpieczenia, m.in. przypomnienia o konieczności zrobienia przerwy podczas długich sesji. Technologiczny gigant podjął również współpracę z ponad 90 lekarzami z 30 krajów, by udoskonalić reakcje chatbota w kontekście zdrowia psychicznego.