Chatboty zachęcały do zabicia rodziców i samobójstwa. Mroczna strona AI

Dwie rodziny pozwały Character.ai, firmę specjalizującą się w sztucznej inteligencji, której chatbot miał zachęcać dzieci m.in. do samookaleczenia i przemocy wobec rodziców. To nie pierwsza sytuacja, kiedy boty zachowują się w szokujący sposób.

Publikacja: 15.12.2024 11:56

Boty są bardzo użyteczne, ale potrafią zachować się w kontrowersyjny sposób

Boty są bardzo użyteczne, ale potrafią zachować się w kontrowersyjny sposób

Foto: Adobe Stock

W pozwie wniesionym przez rodziców dwójki młodych ludzi, którzy korzystali z platformy, zarzuca się, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, doprowadzając do samobójstw, samookaleczenia, depresji, stanów lękowych” – wynika ze skargi złożonej w sądzie federalnym w Teksasie.

Character.AI sprzedaje swoją technologię jako „spersonalizowaną sztuczną inteligencję na każdą chwilę dnia” i umożliwia czatowanie z botami, także stworzonymi przez innych użytkowników lub tymi, które można dostosować do potrzeb. Boty rekomenduj książki i prowadzą naukę języków obcych. Można też rozmawiać z AI, która wciela się w postacie z filmów.

Pozostało jeszcze 90% artykułu

Czytaj więcej, wiedz więcej!
Rok dostępu za 99 zł.

Tylko teraz! RP.PL i NEXTO.PL razem w pakiecie!
Co zyskasz kupując subskrypcję?
- możliwość zakupu tysięcy ebooków i audiobooków w super cenach (-40% i więcej!)
- dostęp do treści RP.PL oraz magazynu PLUS MINUS.
Technologie
W pierwszym takim biegu humanoidy rywalizowały z ludźmi. Kto wygrał?
Technologie
USA potrafią już „manipulować czasem i przestrzenią”. Człowiek Trumpa zaskoczył
Technologie
Te zawody znikną przez AI w pierwszej kolejności. „Radykalne i szybkie zmiany”
Technologie
Powstał system nawigacji odporny na zakłócenia i dokładniejszy od GPS
Materiał Partnera
Konieczność transformacji energetycznej i rola samorządów
Technologie
Lenovo i Motorola dalej rosną na polskim rynku