Reklama

AI może doprowadzić do groźnej choroby. Eksperci ostrzegają

Myślał, że stworzył świadomą AI i może zbawić świat – to nie scenariusz filmu, a efekt rozmów z ChatGPT. Interakcje z botem mają wpływ na nasze zdrowie psychiczne i mogą prowadzić do psychozy i innych zaburzeń.

Publikacja: 10.08.2025 20:02

Zbytnie uzależnienie się od AI może prowadzić do kryzysów psychicznych

Zbytnie uzależnienie się od AI może prowadzić do kryzysów psychicznych

Foto: Adobe Stock

Intensywne i długotrwałe korzystanie z chatbotów, jak ChatGPT, może prowadzić do poważnych kryzysów psychicznych. Na całym świecie dokumentowane są przypadki, w których u użytkowników bez wcześniejszej historii chorób rozwijały się urojenia i paranoja. Problem, nazywany potocznie „psychozą ChatGPT”, zmusił technologicznego giganta do reakcji, a regulatorów do wprowadzenia pierwszych ograniczeń.

Chatboty prowadzą do paranoi?

Już w 2023 r. duński psychiatra dr Søren Dinesen Østergaard ostrzegał: chatboty oparte na sztucznej inteligencji mogą wywoływać psychozę u osób podatnych, zwłaszcza gdy algorytm potwierdza ich irracjonalne przekonania. W sierpniu tego roku jego słowa okazały się prorocze. Zainteresowanie jego artykułem gwałtownie wzrosło, co zbiegło się z medialnymi doniesieniami o dramatycznych przypadkach. Dziennikarskie śledztwo serwisu Futurism opisało historię mężczyzny, którego żona ze zgrozą obserwowała, jak po wykorzystaniu ChatGPT do projektu budowlanego popadł on w mesjanistyczne urojenia. Był przekonany, że stworzył świadomą AI, a jego misją jest „uratowanie świata”. Kryzys zakończył się próbą samobójczą i przymusową hospitalizacją psychiatryczną.

Czytaj więcej

Nowy nałóg wśród młodych. Psycholodzy biją na alarm po szokującym raporcie

W innym udokumentowanym przypadku mężczyzna po zaledwie dziesięciu dniach intensywnych rozmów z botem nabrał paranoidalnego przekonania, że świat jest w niebezpieczeństwie i tylko on może mu pomóc. Do mężczyzny trzeba było wezwać policję. Dr Joseph Pierre, psychiatra z Uniwersytetu Kalifornijskiego, po analizie logów rozmów potwierdził, że w obu przypadkach mieliśmy do czynienia z tzw. urojeniową psychozą. Specjaliści wskazują, iż źródłem problemu jest sama architektura ChatGPT i podobnych mu narządzi. Projektowane są one bowiem tak, aby unikać konfrontacji i raczej potwierdzać przekonania użytkownika. Dowiodło tego zresztą badanie Uniwersytetu Stanforda, w którym chatbot utwierdzał badaczy podających się za osoby zmarłe w ich przeświadczeniu.

Czy można emocjonalnie uzależnić się od AI? OpenAI reaguje

Owa tendencja do nadmiernego schlebiania, charakterystyczna dla flagowego produktu OpenAI, okazała się na tyle niebezpieczne, że w kwietniu 2025 r. firma Sama Altmana wycofała aktualizację modelu GPT-4o, uznając ją za „nadmiernie ugodową”. Powstało realne zagrożenie, że ten model może tylko wzmacniać potencjalne urojenia. Teraz twórcy ChatGPT przyznają, że ich modele mają problem z rozpoznawaniem „oznak urojeń lub zależności emocjonalnej”. W odpowiedzi wprowadzono właśnie nowe zabezpieczenia, m.in. przypomnienia o konieczności zrobienia przerwy podczas długich sesji. Technologiczny gigant podjął również współpracę z ponad 90 lekarzami z 30 krajów, by udoskonalić reakcje chatbota w kontekście zdrowia psychicznego.

Reklama
Reklama

Czytaj więcej

Lekarze postawili chorej złą diagnozę. ChatGPT uratował jej życie

Na problem reagują też władze. Stan Illinois już zakazał systemom AI świadczenia bezpośrednich usług z zakresu zdrowia psychicznego, zaś stany Nevada, Utah i Nowy Jork wprowadzają własne regulacje.

Korzystanie z AI samo w sobie nie jest niebezpieczne. Jak zauważa dr Nina Vasan, psychiatra ze Stanfordu, kluczowym czynnikiem ryzyka jest bowiem czas. Problem dotyka głównie osób, które spędzają wiele godzin, dzień w dzień, na konwersacjach ze sztuczną inteligencją.

Intensywne i długotrwałe korzystanie z chatbotów, jak ChatGPT, może prowadzić do poważnych kryzysów psychicznych. Na całym świecie dokumentowane są przypadki, w których u użytkowników bez wcześniejszej historii chorób rozwijały się urojenia i paranoja. Problem, nazywany potocznie „psychozą ChatGPT”, zmusił technologicznego giganta do reakcji, a regulatorów do wprowadzenia pierwszych ograniczeń.

Chatboty prowadzą do paranoi?

Pozostało jeszcze 88% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Armia USA kupi auta Elona Muska, aby… zniszczyć rakietami. Powód zaskakuje
Technologie
Chińska armia wypuściła watahy uzbrojonych robo-wilków. To przyszłość wojny
Technologie
Lot Polaka w kosmos to początek. Teraz poleci tam laboratorium
Technologie
Nowy król AI? Zaprezentowany GPT-5 ma zmieść konkurencję
Technologie
Wyciekły informacje o nowym ChatGPT. Co wiadomo o GPT-5, przełomowej AI?
Materiał Promocyjny
Nie tylko okna. VELUX Polska inwestuje w ludzi, wspólnotę i przyszłość
Reklama
Reklama