Chatboty zachęcały do zabicia rodziców i samobójstwa. Mroczna strona AI

Dwie rodziny pozwały Character.ai, firmę specjalizującą się w sztucznej inteligencji, której chatbot miał zachęcać dzieci m.in. do samookaleczenia i przemocy wobec rodziców. To nie pierwsza sytuacja, kiedy boty zachowują się w szokujący sposób.

Publikacja: 15.12.2024 11:56

Boty są bardzo użyteczne, ale potrafią zachować się w kontrowersyjny sposób

Boty są bardzo użyteczne, ale potrafią zachować się w kontrowersyjny sposób

Foto: Adobe Stock

W pozwie wniesionym przez rodziców dwójki młodych ludzi, którzy korzystali z platformy, zarzuca się, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, doprowadzając do samobójstw, samookaleczenia, depresji, stanów lękowych” – wynika ze skargi złożonej w sądzie federalnym w Teksasie.

Character.AI sprzedaje swoją technologię jako „spersonalizowaną sztuczną inteligencję na każdą chwilę dnia” i umożliwia czatowanie z botami, także stworzonymi przez innych użytkowników lub tymi, które można dostosować do potrzeb. Boty rekomenduj książki i prowadzą naukę języków obcych. Można też rozmawiać z AI, która wciela się w postacie z filmów.

Pozostało jeszcze 90% artykułu

Tylko 99 zł za rok.
Czytaj o tym, co dla Ciebie ważne.

Sprawdzaj z nami, jak zmienia się świat i co dzieje się w kraju. Wydarzenia, społeczeństwo, ekonomia, historia i psychologia w jednym miejscu.
Technologie
Rewolucja w lotach pasażerskich. Maszyny o dziwnym kształcie zdominują niebo
Technologie
Ćwiczenia w goglach zaskoczyły efektami. Czy technologia postawi na nogi Polaków?
Technologie
Ten polski pojazd ma odmienić pole walki. Nie potrzebuje załogi
Technologie
To koniec krawcowych? Robot uszyje ubranie tylko na podstawie zdjęcia
Technologie
Czas agentów AI. Algorytmy znajdą okazje, zrobią zakupy i zapłacą w naszym imieniu