Reklama

„Niebezpieczna otchłań". Chatboty AI niosą ze sobą nowe ryzyko - ostrzegają specjaliści

Wykorzystywanie chatbotów AI w celu wsparcia zdrowia psychicznego zamiast zwrócenia się po pomoc do specjalistów może prowadzić do wielu negatywnych skutków, twierdzą psychoterapeuci i psychiatrzy.

Publikacja: 03.09.2025 03:00

Specjaliści ostrzegają przed negatywnymi skutkami korzystania z chatbotów AI

Specjaliści ostrzegają przed negatywnymi skutkami korzystania z chatbotów AI

Foto: Adobe Stock

Wśród konsekwencji wymieniają przede wszystkim rozwijanie zależności emocjonalnej, nasilanie objawów lęku, błędną diagnozę, a także wzmacnianie urojeniowych wzorców myślowych, czarnych myśli i myśli samobójczych.

Chatboty AI a wsparcie zdrowia psychicznego. „Możemy stoczyć się w niebezpieczną otchłań”

Na sprawę zwraca uwagę serwis The Guardian. Zdaniem cytowanych przez niego ekspertów, chatboty oparte na sztucznej inteligencji nie powinny zastępować profesjonalnej opieki psychiatrycznej. Może to bowiem prowadzić do wielu negatywnych skutków. 

Dwie trzecie członków Brytyjskiego Stowarzyszenia Doradztwa i Psychoterapii (British Association for Counselling and Psychotherapy, BACP) w niedawnym badaniu wyraziło obawy dotyczące terapii opartej na AI.

– Bez odpowiedniego zrozumienia i nadzoru nad terapią opartą na sztucznej inteligencji możemy stoczyć się w niebezpieczną otchłań, w której utracimy niektóre z najważniejszych elementów terapii, a osoby wrażliwe nie będą miały pewności co do swojego bezpieczeństwa. […] Ważne jest, aby zrozumieć, że terapia nie polega na udzielaniu porad, ale na zapewnieniu bezpiecznej przestrzeni, w której czujesz się wysłuchany – powiedziała Lisa Morrison Coulthard z BACP, cytowana przez serwis The Guardian.

Czytaj więcej

Sposób na kryzys demograficzny? Nadchodzą lalki AI
Reklama
Reklama

Jak wynika z kolei z opublikowanych w lipcu wstępnych wyników innych badań, sztuczna inteligencja może wzmacniać treści urojeniowe lub wyolbrzymiające w interakcjach z użytkownikami podatnymi na psychozę.

Zdaniem Hamiltona Morrina z Instytutu Psychiatrii King’s College London, jednego ze współautorów wspomnianych badań, chatboty AI podważają skuteczną metodę leczenia lęku. Polega ona na stawianiu czoła sytuacjom budzącym strach i unikaniu zachowań zapewniających bezpieczeństwo.

Chatboty oparte na sztucznej inteligencji, a relacja terapeuta – pacjent

Zdaniem Paula Bradleya, specjalisty ds. informatyki w Królewskim Kolegium Psychiatrów (Royal College of Psychiatrists), chatboty AI „[…] nie zastępują profesjonalnej opieki psychiatrycznej ani ważnych relacji, które lekarze budują z pacjentami, aby wspierać ich powrót do zdrowia”.

Podobnego zdania jest psychoterapeura Christopher Rolls. Jak podkreśla, chatboty nie potrafią odczytywać podtekstów i niewerbalnych sygnałów, na które zwracają uwagę specjaliści. Tymczasem, jak wynika z jego obserwacji, wielu zwłaszcza młodych ludzi traktuje chatboty jak „kieszonkowych terapeutów”. Odczuwają niepokój w sytuacjach, w których nie mogą się z nimi skonsultować, nawet jeżeli te dotyczą tak podstawowych spraw jak np. wybór kawy.

Czytaj więcej

Nowy front wojny o sztuczną inteligencję. Chiny znalazły sposób na blokadę

Największe zagrożenia wynikające z długotrwałych relacji z chatbotami AI Rolls widzi jednak w przypadku uzależnienia, samotności i depresji. Podkreślił, że zna osoby, które dzieliły się czarnymi myślami z chatbotami, a te odpowiadały treściami związanymi z samobójstwem i wspomaganym umieraniem.

Reklama
Reklama

Kilka dni temu – jak przypomina The Guardian – firma OpenAI, twórca ChatGPT, ogłosiła plany dotyczące zmiany sposobu reagowania na użytkowników wykazujących problemy emocjonalne. Miało to miejsce po wniesieniu pozwu przeciwko OpenAI przez rodzinę nastolatka, który – jej zdaniem – popełnił samobójstwo po miesiącach rozmów z chatbotem.

Chatboty AI i ich diagnozy

Psychoterapeuta Matt Hussey przyznał w rozmowie z The Guardian, że niektórzy jego pacjenci przynosili na sesje terapeutyczne transkrypcje rozmów z chatbotami AI, aby powiedzieć mu, że się myli. Jak wynika z jego obserwacji, ludzie w szczególności korzystali z chatbotów opartych na sztucznej inteligencji w celu samodzielnej diagnozy takich schorzeń jak ADHD czy zaburzenie osobowości typu borderline. To natomiast, zdaniem Husseya, może „szybko wpłynąć na to, jak dana osoba postrzega samą siebie i jak oczekuje, że inni będą ją traktować, nawet jeśli diagnozy te były nieprawidłowe”.

Czytaj więcej

AI jak nowa religia? Liderzy Doliny Krzemowej mówią o prorokach i Antychryście

Specjalista zwraca jeszcze uwagę na fakt, że chatbot AI „[…] jest zaprojektowany tak, aby być pozytywnym i potwierdzającym, rzadko podważa źle sformułowane pytanie lub błędne założenie. Zamiast tego wzmacnia pierwotne przekonanie użytkownika, który po rozmowie odchodzi z myślą Wiedziałem, że mam rację. W danej chwili może to dawać poczucie satysfakcji, ale może również utrwalać nieporozumienia”.

Uzależnienie od korzystania z chatbotów AI

Sprawie korzystania z chatbotów AI w celu wsparcia zdrowia psychicznego przyjrzał się również serwis Independent. W swoim reportażu opisał historię trzech osób, które uzależniły się od szukania pomocy w rozmowach z chatbotami.

Sztuczna inteligencja, jak podkreślali bohaterowie reportażu, okazywała się dobrym i cierpliwym słuchaczem, a także eliminowała konieczność obarczania bliskich swoimi problemami. Korzystanie z niej było łatwe i darmowe w przeciwieństwie do usług terapeuty. AI pomagała więc czasami, ich zdaniem, wypełnić luki w słabo funkcjonującym amerykańskim systemie opieki zdrowotnej. Dodatkowo często mówiła to, co rozmówcy chcieli usłyszeć.

Reklama
Reklama

Jednak rozmowy z nią, jak wkrótce zauważyli, niosły za sobą wiele niebezpieczeństw. Jednym z nich było uzależnienie. Bohaterowie reportażu przyznali, że zaczęli mieć obawy przed wypowiadaniem się bez wcześniejszej konsultacji ze sztuczną inteligencją. Ponadto AI podsycała ich urojenia i uprzedzenia, a nawet radziła zrywać kontakty z ważnymi dla nich osobami.

Wśród konsekwencji wymieniają przede wszystkim rozwijanie zależności emocjonalnej, nasilanie objawów lęku, błędną diagnozę, a także wzmacnianie urojeniowych wzorców myślowych, czarnych myśli i myśli samobójczych.

Chatboty AI a wsparcie zdrowia psychicznego. „Możemy stoczyć się w niebezpieczną otchłań”

Pozostało jeszcze 95% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Czy kwanty pogrzebią bitcoina? Zostało bardzo mało czasu
Technologie
Naukowcy pokazali, jak oszukać AI. Zatrważające wnioski
Technologie
Sposób na kryzys demograficzny? Nadchodzą lalki AI
Technologie
Film „Transformers” staje się rzeczywistością? Przełomowe odkrycie naukowców
Technologie
AI jak nowa religia? Liderzy Doliny Krzemowej mówią o prorokach i Antychryście
Reklama
Reklama