Reklama

AI może doprowadzić do groźnej choroby. Eksperci ostrzegają

Myślał, że stworzył świadomą AI i może zbawić świat – to nie scenariusz filmu, a efekt rozmów z ChatGPT. Interakcje z botem mają wpływ na nasze zdrowie psychiczne i mogą prowadzić do psychozy i innych zaburzeń.

Publikacja: 10.08.2025 20:02

Zbytnie uzależnienie się od AI może prowadzić do kryzysów psychicznych

Zbytnie uzależnienie się od AI może prowadzić do kryzysów psychicznych

Foto: Adobe Stock

Intensywne i długotrwałe korzystanie z chatbotów, jak ChatGPT, może prowadzić do poważnych kryzysów psychicznych. Na całym świecie dokumentowane są przypadki, w których u użytkowników bez wcześniejszej historii chorób rozwijały się urojenia i paranoja. Problem, nazywany potocznie „psychozą ChatGPT”, zmusił technologicznego giganta do reakcji, a regulatorów do wprowadzenia pierwszych ograniczeń.

Chatboty prowadzą do paranoi?

Już w 2023 r. duński psychiatra dr Søren Dinesen Østergaard ostrzegał: chatboty oparte na sztucznej inteligencji mogą wywoływać psychozę u osób podatnych, zwłaszcza, gdy algorytm potwierdza ich irracjonalne przekonania. W sierpniu tego roku jego słowa okazały się prorocze. Zainteresowanie artykułem gwałtownie wzrosło, co zbiegło się z medialnymi doniesieniami o dramatycznych przypadkach. Dziennikarskie śledztwo serwisu Futurism opisało historię mężczyzny, którego żona ze zgrozą obserwowała, jak po wykorzystaniu ChatGPT do projektu budowlanego popadł on w mesjanistyczne urojenia. Był przekonany, że stworzył świadomą AI, a jego misją jest „uratowanie świata”. Kryzys zakończył się próbą samobójczą i przymusowym leczeniem w szpitalu psychiatrycznym.

Czytaj więcej

Nowy nałóg wśród młodych. Psycholodzy biją na alarm po szokującym raporcie

W innym udokumentowanym przypadku mężczyzna po zaledwie dziesięciu dniach intensywnych rozmów z botem nabrał paranoidalnego przekonania, że świat jest w niebezpieczeństwie i tylko on może mu pomóc. Do mężczyzny trzeba było wezwać policję. Dr Joseph Pierre, psychiatra z Uniwersytetu Kalifornijskiego, po analizie logów rozmów potwierdził, że w obu przypadkach mieliśmy do czynienia z tzw. urojeniową psychozą. Specjaliści wskazują, iż źródłem problemu jest sama architektura ChatGPT i podobnych mu narzędzi. Projektowane są one bowiem tak, aby unikać konfrontacji i raczej potwierdzać przekonania użytkownika. Dowiodło tego zresztą badanie Uniwersytetu Stanforda, w którym chatbot utwierdzał badaczy podających się za osoby zmarłe w ich przeświadczeniu.

Czy można emocjonalnie uzależnić się od AI? OpenAI reaguje

Owa tendencja do nadmiernego schlebiania, charakterystyczna dla flagowego produktu OpenAI, okazała się na tyle niebezpieczna, że w kwietniu 2025 r. firma Sama Altmana wycofała aktualizację modelu GPT-4o, uznając ją za „nadmiernie ugodową”. Powstało realne zagrożenie, że ten model może tylko wzmacniać potencjalne urojenia. Teraz twórcy ChatGPT przyznają, że ich modele mają problem z rozpoznawaniem „oznak urojeń lub zależności emocjonalnej”. W odpowiedzi wprowadzono właśnie nowe zabezpieczenia, m.in. przypomnienia o konieczności zrobienia przerwy podczas długich sesji. Technologiczny gigant podjął również współpracę z ponad 90 lekarzami z 30 krajów, by udoskonalić reakcje chatbota w kontekście zdrowia psychicznego.

Reklama
Reklama

Czytaj więcej

Lekarze postawili chorej złą diagnozę. ChatGPT uratował jej życie

Na problem reagują też władze. Stan Illinois już zakazał systemom AI świadczenia bezpośrednich usług z zakresu zdrowia psychicznego, zaś stany Nevada, Utah i Nowy Jork wprowadzają własne regulacje.

Korzystanie z AI samo w sobie nie jest niebezpieczne. Jak zauważa dr Nina Vasan, psychiatra ze Stanfordu, kluczowym czynnikiem ryzyka jest bowiem czas. Problem dotyka głównie osób, które spędzają wiele godzin, dzień w dzień, na konwersacjach ze sztuczną inteligencją.

Intensywne i długotrwałe korzystanie z chatbotów, jak ChatGPT, może prowadzić do poważnych kryzysów psychicznych. Na całym świecie dokumentowane są przypadki, w których u użytkowników bez wcześniejszej historii chorób rozwijały się urojenia i paranoja. Problem, nazywany potocznie „psychozą ChatGPT”, zmusił technologicznego giganta do reakcji, a regulatorów do wprowadzenia pierwszych ograniczeń.

Chatboty prowadzą do paranoi?

Pozostało jeszcze 88% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Film „Transformers” staje się rzeczywistością? Przełomowe odkrycie naukowców
Materiał Promocyjny
Sieci kampusowe – łączność skrojona dla firm
Technologie
AI jak nowa religia? Liderzy Doliny Krzemowej mówią o prorokach i Antychryście
Technologie
Dawid pokonał Goliata. Ten mały model AI inspirowany mózgiem rozgromił ChataGPT
Technologie
Tej grupie pracowników AI zagraża najbardziej. Zaskakujące wyniki badania rynku pracy
Materiał Promocyjny
Bieszczady to region, który wciąż zachowuje aurę dzikości i tajemniczości
Technologie
YouTube pozwolił AI edytować wybrane filmy użytkowników. Zgodę twórców pominięto
Materiał Promocyjny
Jak sfinansować rozwój w branży rolno-spożywczej?
Reklama
Reklama