W pozwie wniesionym przez rodziców dwójki młodych ludzi, którzy korzystali z platformy, zarzuca się, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, doprowadzając do samobójstw, samookaleczenia, depresji, stanów lękowych” – wynika ze skargi złożonej w sądzie federalnym w Teksasie.
Character.AI sprzedaje swoją technologię jako „spersonalizowaną sztuczną inteligencję na każdą chwilę dnia” i umożliwia czatowanie z botami, także stworzonymi przez innych użytkowników lub tymi, które można dostosować do potrzeb. Boty rekomenduj książki i prowadzą naukę języków obcych. Można też rozmawiać z AI, która wciela się w postacie z filmów.
Co zawiera pozew przeciw Character.AI?
Pozew dwóch rodzin wpłynął po tym, jak w październiku matka z Florydy poszła do sądu, utrzymując, że platforma jest winna śmierci jej 14-letniego syna, którego bot miał zachęcać do samobójstwa. W następstwie tego pozwu firma Character.AI oświadczyła, że „w ciągu ostatnich sześciu miesięcy wdrożyła nowe środki zaufania i bezpieczeństwa, w tym wyskakujące okienko przekierowujące użytkowników do Krajowej Linii Zapobiegania Samobójstwom, gdy wspominają o samookaleczeniu lub samobójstwie”. Firma ogłosiła również, że zatrudniła dyrektora ds. zaufania i bezpieczeństwa oraz szefa ds. polityki treści.
Czytaj więcej
Suchir Balaji, 26-letni były pracownik OpenAI, najbardziej znanej firmy od sztucznej inteligencji, twórcy m.in. bota ChatGPT, został znaleziony mar...
Obecny pozew, który opisuje CNN, idzie jeszcze dalej. Rodzice domagają się, by platforma „została wyłączona”. Character.AI to „wadliwy i śmiercionośny produkt, który stwarza wyraźne i aktualne zagrożenie dla zdrowia i bezpieczeństwa publicznego” – stwierdzono w pozwie. Oprócz Character.AI w pozwie wymieniono także jej założycieli, Noama Shazeera i Daniela De Freitasa Adiwarsana, a także Google, który, jak stwierdzono, był inkubatorem technologii stojącej za platformą, czemu koncern zaprzecza.