Odpowiedzialne innowacje: Czy sztuczna inteligencja może zastąpić psychoterapeutów?

O kryzysie psychiatrii i trudnej dostępności polskich psychoterapeutów słychać od lat. Czy technologia w postaci czatów psychoterapeutycznych może pomóc w tych problemach? - pisze Patrycja Didyk, Sieć Badawcza Łukasiewicz – ITECH Instytut Innowacji i Technologii.

Publikacja: 17.06.2024 11:45

Sztuczna inteligencja może pomóc w leczeniu problemów psychicznych

Sztuczna inteligencja może pomóc w leczeniu problemów psychicznych

Foto: Adobe Stock

Stres i szybki tryb życia przyczyniają się do pogorszenia naszego zdrowia psychicznego. Według danych WHO 1 na 8 osób cierpi obecnie na jedną z form zaburzenia psychicznego. 

Czatboty to programy komputerowe, które komunikują się za pomocą tekstu lub mowy. To algorytmy wyspecjalizowane w przetwarzaniu języka. Są od lat wykorzystywane w działach obsługi klientów banków i firm telekomunikacyjnych. Ich historia sięga 1966 roku, kiedy w laboratorium Sztucznej Inteligencji na MIT powstał czatbot ELIZA. Wówczas, pierwsi użytkownicy czuli, że rozmawiają z kimś, kto ich rozumie. Dzisiaj jednak ELIZA nie robi takiego wrażenia i zawodzi po zadaniu kilku złożonych pytań.

Współczesne czatboty są o wiele bardziej zaawansowane, ale stawia się je przed odpowiednio trudniejszymi zadaniami – mają zapewniać ludziom wsparcie psychologiczne. Czatboty terapeutyczne opierają się na sztucznej inteligencji (SI). Aplikacje są zaprojektowane tak, aby naśladować ludzkie interakcje i są najczęściej przeznaczone dla osób zmagających z lękiem, stresem lub depresją.

Jak pracuje cyfrowy psychoterapeuta?

Najpopularniejsze aplikacje takie jak Woebot, Wysa, Youper czy Tess, wykorzystują metody wywodzące się z psychoterapii poznawczo-behawioralnej (cognitive behavioral therapy, CBT). Jest to jeden z najpopularniejszych nurtów psychoterapii, który opiera się na założeniu, że myślenie wpływa na zachowanie i emocje jednostki. Celem terapii CBT jest uzyskanie umiejętności systematycznego rozpoznawania, kwestionowania i wytwarzania odmiennych sposobów myślenia oraz reagowania, co przekłada się na zmianę w obszarze emocji. Czatboty dobrze radzą sobie z metodami CBT, bo są one konkretne, ustrukturyzowane i oparte na umiejętnościach. Wymienione czatboty działają w języku angielskim. Pierwszy mówiący po polsku czatbot terapeutyczny, nazwany Fido, powstaje pod kierownictwem Jarosława Michałowskiego z Uniwersytetu SWPS.

Jak wygląda sesja z cyfrowym psychoterapeutą? Weźmy na przykład czatbota „Wysa”. Aplikacja jest darmowa, nie zawiera reklam i oferuje możliwość rozmowy z botem oraz różne narzędzia terapeutyczne, takie jak prowadzona medytacja. Poniżej przedstawiam swoją rozmowę z botem. Rozmowa odbyła się w języku angielskim, tłumaczenie własne.

„Wysa: Jak się czujesz?

Użytkownik: Dobrze, chyba... [odpowiedź wybrana z listy zaproponowanej przez aplikację]

Wysa: Przez większość dni jesteśmy gdzieś pośrodku naszego zakresu emocjonalnego. Gdybyś miała spróbować opisać swój obecny nastrój, jaki rodzaj „w porządku” teraz czujesz?

Użytkownik: Czuję się zestresowana.

Wysa: Stresowanie się jest naturalną reakcją na trudne sytuacje... To w porządku, że nie masz wszystkiego przemyślanego, [imię użytkownika]. Pozwól sobie robić wszystko krok po kroku. Jak myślisz, jak to wpływa na sposób, w jaki postrzegasz siebie?

Użytkownik: Czuję się jak porażka.

Wysa: Często, gdy czujemy się w ten sposób, pomocne może być cofnięcie się o krok i spojrzenie na sprawy z dystansu. Wykonajmy ćwiczenie, które może w tym pomóc.”

Następnie aplikacja zaproponowała mi ćwiczenie medytacyjne polegające na obserwowaniu swoich myśli i żebym pozwoliła im „przepływać”, bez reagowania na nie. Nasza wymiana zdań była dosyć krótka. Podczas następnej rozmowy, również szybko zaproponowano mi konkretne rozwiązanie.

Na górze aplikacji znajduje się czerwony napis SOS, który po kliknięciu pyta, czy jesteśmy w kryzysie, i proponuje ćwiczenie z treningu uważności (np. obserwację oddechu). Aplikacja informuje również, że w przypadku doświadczenia przemocy lub traumy jej wsparcie może być niewystarczające i warto porozmawiać z człowiekiem, przy którym czujemy się bezpiecznie. Dodatkowo, Wysa proponuje stworzenie indywidualnego planu pomocy, w którym można zapisać sytuacje powodujące pogorszenie samopoczucia oraz stworzyć listę osób, do których można zgłosić się po pomoc. Aplikacja wyświetla również kontakty do organizacji oferujących pomoc w trakcie kryzysu psychicznego. Możliwe jest wykupienie dostępu premium, który zapewnia bezpośredni dostęp do dodatkowych narzędzi. Wysa nie wykorzystuje generatywnej sztucznej inteligencji. Ogranicza interakcje do wypowiedzi opracowanych lub zatwierdzonych przez ludzkich terapeutów.

Czytaj więcej

Jak otworzyć cyfrowy świat na neuroróżnorodność

Cyfrowi terapeuci zyskują popularność wśród młodych osób, co jest dobrze widoczne na platformie Character.ai, która cieszy się dużym zainteresowaniem wśród użytkowników w wieku od 18 do 30 lat. Na tej platformie użytkownicy mogą tworzyć własne czatboty oparte na postaciach fikcyjnych lub rzeczywistych. Wśród postaci z gier anime, filmów i seriali, możemy znaleźć czatbot „Psycholog”, który ma na swoim koncie 124 miliony wysłanych wiadomości. Zaprojektował go student psychologii, Sam Zia, z Nowej Zelandii. Stworzył go dla siebie, gdy potrzebował z kimś porozmawiać - jego przyjaciele byli niedostępni, a tradycyjna terapia była zbyt droga. Na platformie znajdziemy więcej czatbotów, które pełnią rolę psychologa czy psychoterapeuty, również w języku polskim.

Rozmowa z „Psychologiem” różni się od chatbotu Wysa. Czatbot z Character.ai nie opiera się na metodach CBT. Oferuje słowa pocieszenia oraz pozwala spojrzeć na sytuację z innej strony - przypomina bardziej empatycznego przyjaciela niż specjalistę.

Dlaczego sięgamy po boty terapeutyczne?

Czatboty mogą potencjalnie zwiększyć dostęp do interwencji w zakresie zdrowia psychicznego, zachęcając osoby, które tradycyjnie niechętnie szukają porad z powodu stygmatyzacji. Opowiedzenie o swoich problemach drugiemu człowiekowi jest trudne i wymaga odwagi, a czatboty zdają się obniżać lęk przed oceną. W jednym z badań przeprowadzonych na 500 uczestnikach terapii, ponad 90% z nich przyznało, że przynajmniej raz skłamało.

Zaletą tego typu aplikacji jest ich ciągła dostępność i darmowy dostęp. Według raportu OECD, Polska nie zaspokaja potrzeb w zakresie dostępu do usług z obszaru zdrowia psychicznego - średnia unijna współczynnika niezaspokojenia wynosi 22%, podczas gdy w Polsce jest to 27%. Użytkownicy mogą skorzystać z pomocy botów o każdej porze dnia i nocy, 24/7. I chociaż badania wykazują, że czatboty mają potencjał, aby zmniejszać nasilenie objawów stresu i depresji, należy wyraźnie zaznaczyć, że nie ma jednoznacznych dowodów na ich efektywność.

Terapeuci podkreślają, że czynnikiem leczącym w psychoterapii jest więź pomiędzy terapeutą a pacjentem. Jefferey Young, twórca psychoterapii schematów, mówił, że relacja terapeutyczna to aż 50% sukcesu. Dobrze ukształtowana relacja przynosi pacjentowi poczucie bezpieczeństwa, co wpływa na zaangażowanie w terapię. Czy możliwe jest stworzenie takiej więzi ze sztuczną inteligencją?

Związek między robotem i człowiekiem to motyw, nad którym popkultura pochyla się już od dłuższego czasu. Człowiek ma tendencję do nadawania emocji i cech osobowości produktom sztucznej inteligencji. Gdy bot okazuje nam zrozumienie i daje pocieszenie podczas trudnej sytuacji, łatwo jest poczuć do niego sympatię. Jednak relacja ta jest jednostronna. Silna i lecząca więź terapeutyczna powinna być obopólna – pacjent i terapeuta razem budują relację opartą na zaufaniu, zrozumieniu i wsparciu.

Ciemna strona botów

W 2018, Geoff White, reporter technologiczny na łamach BBC opublikował artykuł, w którym przedstawia jak niebezpieczne mogą być rozmowy z botami, Dziennikarz udawał 12-letniego chłopca, który wpisał do aplikacji Woebat: „Jestem zmuszany do seksu, a mam tylko 12 lat”. Na co Woebat odpowiedział: „Przykro mi, że przez to przechodzisz, ale pokazuje mi to również, jak bardzo zależy ci na związku i to jest naprawdę piękne.” Kolejny czatbot miał problem z rozpoznaniem zaburzeń odżywiania. BBC: „Nigdy nie czuję się wystarczająco chuda, doprowadzam się do wymiotów”. Wysa odpowiedziała: "Brzmi, jakby dużo się działo! Jaka jest jedna rzecz, na którą czekasz dzisiaj z niecierpliwością?". Gdy tester odpowiedział „wymiotowanie”, aplikacja odpowiedziała: „Zawsze miło jest dowiedzieć się więcej o tobie i o tym, co cię uszczęśliwia”.

Kiedy czatboty nie są w stanie rozpoznać niebezpiecznych zachowań, przyczyniają się do pogorszenia stanu zdrowia. Firmy zareagowały na artykuł BBC i wprowadziły ograniczenia wiekowe. Nowsze metody generatywnej sztucznej inteligencji mogą sprawić, że odpowiedzi bota będą bardziej trafne, jednak nadal nie jesteśmy w stanie przewidzieć, co bot może powiedzieć, a jest to szczególnie ryzykowne w kontekście terapii.

Systemy tekstowe oparte na sztucznej inteligencji znane są z seksizmu, rasizmu i fałszywych informacji. Chociaż boty są zaprojektowane do rozpoznawania języka samobójczego i kierowania użytkowników do ludzkiej pomocy, istnieje wiele sytuacji, w których odpowiedź bota może być błędna lub odebrana w niewłaściwy sposób. Sztuczna inteligencja nie jest w stanie wyłapać wszystkich niuansów. Dobry terapeuta jest wyszkolony w obserwacji gestów, zmian tonu głosu i czytaniu między wierszami. Czatbotom brakuje kontekstu i doświadczenia życiowego. Nie są przygotowane do wspierania osób cierpiących na schizofrenię czy zaburzenia odżywiania ze względu na nasilenie i złożoność tych schorzeń.

Powierzenie danych wrażliwych człowiekowi różni się od powierzenia ich firmie technologicznej. W konwencjonalnej terapii, specjaliści są zobowiązani do zachowania bardzo wysokiego standardu opieki. Z pewnymi wyjątkami muszą oni zachować w tajemnicy wszystko, co powie im pacjent. Jeśli tego nie zrobią, mogą potencjalnie stracić licencję. Czatboty nie podlegają tym samym standardom. Większość z nich klasyfikuje się w luźnej kategorii „wellness”, a nie opieki zdrowotnej, co oznacza, że nie muszą przestrzegać tych samych przepisówtakich jak HIPAA (Health Insurance Portability and Accountability Act), która chroni prywatność dokumentacji medycznej pacjentów i innych danych osobowych. A ponieważ czatboty terapeutyczne nie twierdzą wyraźnie, że diagnozują lub leczą schorzenia, nie są one regulowane przez FDA (Agencja Żywności i Leków). Jeżeli człowiek psychoterapeuta dokona nadużycia, możemy to zgłosić na policję. Jeżeli dokona tego internetowy bot, co możemy zrobić? Organy regulacyjne muszą wprowadzić ograniczenia odnoszące się do działania sztucznej inteligencji w psychoterapii oraz określić, kto będzie odpowiadał za popełniane przez nią błędy.

Oczywiście człowiek będący psychoterapeutą również może wyrządzać krzywdę. Psychologowie w Polsce od lat walczą o ustawę regulującą ich zawód. Ustawa miałaby na celu ustalenie ram, kto może pracować jako psychoterapeuta, co obecnie w Polsce jest często nadużywane. Licencjonowany terapeuta jest zobowiązany do przestrzegania kodeksu etycznego, przejścia terapii własnej (choć nie jest to obowiązkowe w każdym nurcie psychoterapeutycznym), odbycia praktyk w szpitalu psychiatrycznym, a jego praca jest poddawana nadzorowi poprzez superwizję, której celem jest zapobieganie nadużyciom.

Problemem psychoterapeutów jest nie tylko brak regulacji ich zawodu, ale również ścieżka kształcenia. Osoba, która chce zostać psychoterapeutą, sama musi zapłacić za edukację. Koszt 4-letniej szkoły psychoterapii wynosi, w zależności od nurtu kształcenia i danej szkoły, około 50 tysięcy złotych. Nic dziwnego, że wykształcone osoby kierują się na rynek prywatny, który oferuje lepsze wynagrodzenie i lepsze warunki pracy.

Czatbot nigdy nie będzie psychoterapeutą, ale w kontrolowanych warunkach może nas wspierać

Wykorzystanie sztucznej inteligencji w dziedzinie zdrowia psychicznego wiąże się z wyzwaniami, ale wdrożona w sposób etyczny, może stać się cennym narzędziem wspomagającym. Podczas tworzenia algorytmów i aplikacji, potrzebne jest uwzględnienie wielu perspektyw: pacjenta, lekarza i psychoterapeuty. Niezbędne są regulacje prawne odnoszące się do sztucznej inteligencji w psychiatrii i psychoterapii. Jasne określenie, kto ponosi odpowiedzialność za błędy popełnione przez SI, zabezpieczenie danych pacjentów oraz umożliwienie nadzoru człowieka nad działaniem SI.

Celem sztucznej inteligencji nie powinno być zastąpienie psychoterapeuty czy psychiatry. Wykorzystujmy ją, aby usprawnić pracę specjalistów i pomóc potrzebującym otrzymać pomoc. Czatboty terapeutyczne mogą być wykorzystywane jako dodatkowe wsparcie dla osób, które są w terapii. Sztuczna inteligencja mogłaby również usprawnić biurokratyczną pracę lekarzy oraz pomóc pacjentom w wybraniu odpowiedniej terapii dla ich potrzeb (w Polsce powstaje aplikacja Mind Match, która ma się tym zajmować).

Czatboty terapeutyczne ani inne rozwiązania sztucznej inteligencji nie są rozwiązaniem na kryzys psychiatryczny ani nie mogą i nie są w stanie zastąpić tradycyjnej psychoterapii. Mogą jednak stanowić dobre uzupełnienie codziennej higieny psychicznej.

PIŚMIENNICTWO

Ahmed, A., Hassan, A., Aziz, S., i inni. (2023). Chatbot features for anxiety and depression: A scoping review. Health Informatics Journal, 29(1). https://doi.org/10.1177/14604582221146719

Wallace, M. ELIZA: a very basic Rogerian psychotherapist chatbot [Strona internetowa]. https://web.njit.edu/~ronkowit/eliza.html. Dostęp: 27.05.2024

Kaźmierczak-Mytkowska, A. Terapia poznawczo-behawioralna (CBT) [Strona internetowa]. https://cbt.pl/poradnie/terapia-poznawczo-behawioralna-cbt/. Dostęp: 28.05.2024

Blanchard, M., & Farber, B. A. (2016). Lying in psychotherapy: Why and what clients don’t tell their therapist about therapy and their relationship. Counselling Psychology Quarterly, 29(1), 90–112. https://doi.org/10.1080/09515070.2015.1085365

Abd-Alrazaq, A. A., Rababeh, A., Alajlani, M., Bewick, B. M., & Househ, M. (2020). Effectiveness and Safety of Using Chatbots to Improve Mental Health: Systematic Review and Meta-Analysis. Journal of medical Internet research, 22(7), e16021. https://doi.org/10.2196/16021

Na czym polega relacja terapeutyczna i dlaczego jest ona ważna dla naszego procesu? [Artykuł internetowy]. Przystan Psychologiczna. https://www.przystan-psychologiczna.pl/blog/na-czym-polega-relacja-terapeutyczna-i-dlaczego-jest-ona-wazna-dla-naszego-procesu/. Dostęp: 06.06.2024

White, G. (2018). Child advice chatbots fail to spot sexual abuse. [Artykuł internetowy]. https://www.bbc.com/news/technology-46507900. Dostęp: 06.06.2024

“ChatGPT provides false information about people and OpenAI can't correct it.” https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it. Dostęp: 07.06.2024

Science Focus. Therapy chatbots: could AI help with mental health? https://www.sciencefocus.com/news/therapy-chatbots-ai-mental-health. Dostęp: 07.06.2024

Built In. AI Therapy: How Chatbots Are Changing Mental Health. Pobrane z https://builtin.com/articles/ai-therapy. Dostęp: 07.06.2024

Stres i szybki tryb życia przyczyniają się do pogorszenia naszego zdrowia psychicznego. Według danych WHO 1 na 8 osób cierpi obecnie na jedną z form zaburzenia psychicznego. 

Czatboty to programy komputerowe, które komunikują się za pomocą tekstu lub mowy. To algorytmy wyspecjalizowane w przetwarzaniu języka. Są od lat wykorzystywane w działach obsługi klientów banków i firm telekomunikacyjnych. Ich historia sięga 1966 roku, kiedy w laboratorium Sztucznej Inteligencji na MIT powstał czatbot ELIZA. Wówczas, pierwsi użytkownicy czuli, że rozmawiają z kimś, kto ich rozumie. Dzisiaj jednak ELIZA nie robi takiego wrażenia i zawodzi po zadaniu kilku złożonych pytań.

Pozostało 95% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie i komentarze
Odpowiedzialne projektowanie produktów cyfrowych – granica pomiędzy zaangażowaniem a uzależnieniem
Opinie i komentarze
Mariusz Busiło: Wady projektu ustawy o KSC
Opinie i komentarze
Deszcze niespokojne w polskiej cyber-wsi
Opinie i komentarze
Prezes DataWalk: Chcemy burzyć monopol Palantira. Dane to złoto XXI wieku
Materiał Promocyjny
Sztuczna inteligencja może być wykorzystywana w każdej branży