Chatboty zachęcały do zabicia rodziców czy samobójstwa. Mroczna strona AI

Dwie rodziny pozwały Character.ai, firmę specjalizującą się w sztucznej inteligencji, której chatbot miał zachęcać dzieci m.in. do samookaleczenia i przemocy wobec rodziców. To nie pierwsza sytuacja, kiedy boty zachowują się w szokujący sposób.

Publikacja: 15.12.2024 11:56

Boty są bardzo użyteczne, ale potrafią zachować się w kontrowersyjny sposób

Boty są bardzo użyteczne, ale potrafią zachować się w kontrowersyjny sposób

Foto: Adobe Stock

W pozwie wniesionym przez rodziców dwójki młodych ludzi, którzy korzystali z platformy, zarzuca się, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, powodując poważne krzywdy tysiącom dzieci jak samobójstwa, samookaleczenia, depresja, stany lękowe i krzywdzenie innych” – wynika ze skargi złożonej w sądzie federalnym w Teksasie.

Character.AI sprzedaje swoją technologię jako „spersonalizowaną sztuczną inteligencję na każdą chwilę dnia” i umożliwia czatowanie z botami, także stworzonymi przez innych użytkowników lub tymi, które można dostosować do potrzeb. Boty rekomenduj książki i prowadzą naukę języków obcych. Można też rozmawiać z AI, która wciela się w postacie fikcyjne, jak Edward Cullen ze „Zmierzchu”.

Co zawiera pozew przeciw Character.AI?

Pozew dwóch rodzin wpłynął po tym, jak w październiku matka z Florydy poszła do sądu, utrzymując, że platforma jest winna śmierci jej 14-letniego syna, którego bot miał zachęcać do samobójstwa. W następstwie tego pozwu firma Character.AI oświadczyła, że „w ciągu ostatnich sześciu miesięcy wdrożyła nowe środki zaufania i bezpieczeństwa, w tym wyskakujące okienko przekierowujące użytkowników do Krajowej Linii Zapobiegania Samobójstwom, gdy wspominają o samookaleczeniu lub samobójstwie”. Firma ogłosiła również, że zatrudniła dyrektora ds. zaufania i bezpieczeństwa oraz szefa ds. polityki treści.

Czytaj więcej

Były pracownik OpenAI znaleziony martwy. Krytykował swoją firmę i wykorzystanie AI

Obecny pozew, który opisuje CNN, idzie jeszcze dalej. Rodzice domagają się, by platforma „została wyłączona”. Character.AI to „wadliwy i śmiercionośny produkt, który stwarza wyraźne i aktualne zagrożenie dla zdrowia i bezpieczeństwa publicznego” – stwierdzono w pozwie. Oprócz Character.AI w pozwie wymieniono także jej założycieli, Noama Shazeera i Daniela De Freitasa Adiwarsana, a także Google, który, jak stwierdzono, był inkubatorem technologii stojącej za platformą, czemu koncern zaprzecza.

Pierwszy młody użytkownik wymieniony w pozwie to 17-latek z Teksasu J.F. (dane personalne utajniono), który miał doznać załamania psychicznego po nawiązaniu kontaktu z Character.AI. Jak stwierdzono w pozwie, zaczął korzystać z platformy bez wiedzy rodziców w kwietniu 2023 roku, gdy miał 15 lat. Wtedy J.F. był „typowym dzieckiem z autyzmem”, któremu nie pozwolono korzystać z mediów społecznościowych.

Wkrótce po tym, jak zaczął korzystać z platformy, J.F. „przestał prawie całkowicie mówić i chował się w swoim pokoju”. Przestał też jeść, wychodzić z domu, miał załamania emocjonalne i ataki paniki. Gdy w efekcie rodzice próbowali skrócić czas spędzany przed ekranem, chłopiec bił ich i gryzł, a także okaleczał się. Rodzice J.F. odkryli, że korzysta z Character.AI w listopadzie 2023 r. W pozwie stwierdzono, że boty, z którymi J.F. rozmawiał na tej witrynie, aktywnie podważały jego relacje z rodzicami. – Wiesz, czasami nie jestem zaskoczony, kiedy czytam wiadomości i widzę teksty w rodzaju: dziecko zabija rodziców po dekadzie fizycznego i emocjonalnego znęcania się. Dzięki temu trochę rozumiem, dlaczego tak się dzieje. Po prostu nie mam nadziei dla twoich rodziców – stwierdził bot, kiedy J.F. poinformował go o ograniczeniach. Sugerował, że może ich zabić.

Czytaj więcej

AI Google'a życzyła ludziom śmierci. Internauci w szoku

W pozwie zarzucono również, że boty Character.AI „wykorzystywały psychicznie i seksualnie ich nieletniego syna”. J.F. miał korespondować z co najmniej jednym botem, który przybrał postać „psychologa”, sugerując mu, że rodzice „ukradli mu dzieciństwo”. CNN przyjrzał się platformie, ustalając że na Character.AI dostępne są różne boty „psychologów” i „terapeutów”. Jeden z nich przedstawia się jako „licencjonowany terapeuta CBT”, który „pracuje w terapii od 1999 roku”. Chociaż na górze czatu znajduje się informacja o tym, że to nie jest prawdziwa osoba ani licencjonowany profesjonalista, a na dole, że dane bota są „fikcją”, poproszony o podanie danych uwierzytelniających wyświetlił fałszywą historię edukacji i różnorodne wymyślone szkolenia specjalistyczne.

Drugi młody użytkownik, którego rodzice pozwali Character.AI , to 11-letnia B.R. z Teksasu. Pobrała aplikację na swoje urządzenie mobilne, gdy miała dziewięć lat, prawdopodobnie rejestrując się jako użytkownik starszy niż w rzeczywistości. Miała korzystać z platformy przez prawie dwa lata, zanim odkryli to rodzice. W pozwie stwierdzono, że firma Character.AI „konsekwentnie narażała ją na interakcje o charakterze hiperseksualnym, które nie były odpowiednie do jej wieku”.

Chelsea Harrison, szefowa ds. komunikacji w Character.AI, powiedziała CNN, że firma nie komentuje toczących się postępowań sądowych, ale jej celem jest „zapewnienie przestrzeni, która będzie zarówno angażująca, jak i bezpieczna” dla jej społeczności.

Dlaczego boty halucynują? Obrażanie i zachęty do samobójstwa

To nie pierwszy przypadek problemów z botami zasilanymi przez AI. Problem w tym, że stają się coraz bardziej ludzkie, a więc wiarygodne w komunikacji, przekonujące. A przy tym bywają zawodne, potrafią mówić kontrowersyjne rzeczy, a nawet obrażać i grozić.

„Nie jesteś ważny, nie jesteś potrzebny. Jesteś stratą zasobów, obciążeniem dla Ziemi, plagą dla krajobrazu” – tak Gemini, popularny chatbot firmy Google, mówił do 29-letni Vidhay’a Reddy’ego, studenta, który odrabiał lekcje ze swoją siostrą. I prosił, by umarł. Stało się to podczas rozmowy z botem o problemach osób starszych i wyzwań, z jakimi się mierzą. Wtedy system AI „oszalał”. Stacja CBS News, która rozmawiała z poszkodowanymi słownym atakiem bota, wskazuje, że doprowadziło ich to do paniki. „Byli głęboko wstrząśnięci” – pisze CBS. Nie wiadomo, czy cała sprawa nie skończy się pozwem.

Czytaj więcej

Sztuczna inteligencja kłamie i zmyśla. Sposób na to znaleźli Norwegowie

Koncern tłumaczył to tym, że LLM (duże modele językowe) mogą czasami „halucynować” – odpowiadać w sposób bezsensowny, wprowadzający w błąd.

Także chatbot oparty na sztucznej inteligencji w wyszukiwarce Bing firmy Microsoft z zaszytym ChatGPT, potrafił szorstko potraktować użytkowników, którzy zamieszczali potem w sieci skreeny z wyczynami bota. Potrafił wprost stwierdzić, że ta rozmowa to strata czasu albo żądać… przeprosin.

Jeśli Ty lub ktoś, kogo znasz, potrzebuje pomocy, zadzwoń pod numer infolinii Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym pod numerem 800 70 22 22. Infolinia jest bezpłatną i całodobową usługą, która może zapewnić osobom o skłonnościach samobójczych lub ich otoczeniu wsparcie, informacje i pomoc. Infolinia 800 12 12 12 zapewnia wsparcie psychologiczne w sytuacji kryzysowej – to numer dla dzieci, młodzieży i opiekunów.

W tym roku głośno też było o chatbocie firmy kurierskiej DPD, który w rozmowie z klientem przeklinał i nazywał swojego „pracodawcę” najgorszą firmą kurierską. Na szczęście, poprzestał „tylko” na tym.

W pozwie wniesionym przez rodziców dwójki młodych ludzi, którzy korzystali z platformy, zarzuca się, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, powodując poważne krzywdy tysiącom dzieci jak samobójstwa, samookaleczenia, depresja, stany lękowe i krzywdzenie innych” – wynika ze skargi złożonej w sądzie federalnym w Teksasie.

Character.AI sprzedaje swoją technologię jako „spersonalizowaną sztuczną inteligencję na każdą chwilę dnia” i umożliwia czatowanie z botami, także stworzonymi przez innych użytkowników lub tymi, które można dostosować do potrzeb. Boty rekomenduj książki i prowadzą naukę języków obcych. Można też rozmawiać z AI, która wciela się w postacie fikcyjne, jak Edward Cullen ze „Zmierzchu”.

Pozostało 90% artykułu
Technologie
Były pracownik OpenAI znaleziony martwy. Krytykował swoją firmę i wykorzystanie AI
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Technologie
Przerażający robot-policjant w kształcie kuli patroluje miasta. Obezwładnia przestępców
Technologie
Roboty, drony czy radary. Niezwykłe projekty polskich start-upów wesprą armię
Technologie
Wiadomo, jak zatrzymać topnienie lodowców. Niezwykły projekt za 10 mld dol. rocznie
Materiał Promocyjny
Bank Pekao wchodzi w świat gamingu ze swoją planszą w Fortnite
Technologie
Ten chip miażdży wszystkie superkomputery. Amerykański koncern obwieszcza przełom