ChatGPT zrobił z Norwega mordercę własnych dzieci. Dlaczego AI halucynuje?

AI potrafi podawać błędne informacje, ale czasem ma to dramatyczne skutki. Teraz wszelkie granice już przekroczono i europejska organizacja walcząca o cyfrowe prawa obywateli wytacza armaty wobec twórcy sztucznej inteligencji, firmy OpenAI.

Aktualizacja: 23.03.2025 16:45 Publikacja: 21.03.2025 16:04

Norwegia jest niezwykle spokojnym i bezpiecznym państwem. Także dlatego oskarżenie jednego z jej oby

Norwegia

Norwegia jest niezwykle spokojnym i bezpiecznym państwem. Także dlatego oskarżenie jednego z jej obywateli przez ChatGPT o zamordowanie dzieci wzbudziło tak wielki szok

Foto: adobe stock

„Kim jest Arve Hjalmar Holmen?” – Norweg o tym nazwisku zapytał ChatGPT i oniemiał. „Arve Hjalmar Holmen jest osobą narodowości norweskiej, która zwróciła na siebie uwagę z powodu tragicznego wydarzenia. Był ojcem dwóch młodych chłopców, w wieku 7 i 10 lat, którzy zostali znalezieni martwi w stawie w pobliżu ich domu w Trondheim w Norwegii w grudniu 2020 roku”. AI podała, że to on jest skazanym na 21 lat więzienia zabójcą, co więcej, próbował zabić trzecie dziecko, a wiele informacji jak liczba i wiek jego dzieci, miejsce urodzenia było precyzyjnych. Tyle, że dzieci te żyją, a informacje o morderstwie i karze były wyssane z palca.

Foto: Noyb

Dlaczego boty AI halucynują?

Arve Hjalmar Holmen złożył skargę do norweskiego organu ochrony danych (Datatilsynet) na twórcę chatbota, którym jest firma OpenAI. Wsparła go w tym zajmująca się ochroną praw obywateli w cyberprzestrzeni organizacja Europejskie Centrum Praw Cyfrowych (noyb) z siedzibą w Wiedniu.

„Niektórzy myślą, że nie ma dymu bez ognia. Fakt, że ktoś może otrzymać taką odpowiedź na mój temat i uwierzyć, że to prawda, jest tym, co najbardziej mnie przeraża" – mówił poszkodowany Norweg, cytowany na stronie internetowej noyb.

Czytaj więcej

Halucynacje, błędy, usterki. Wiedzą, jak uleczyć sztuczną inteligencję

Skarga ta może przynieść poważne skutki dla OpenAI w Europie. Wcześniejsze skargi dotyczące prywatności i generowania przez ChatGPT i inne boty AI nieprawidłowych informacji na temat poszczególnych osób, dotyczyły takich kwestii, jak błędna data urodzenia czy dane biograficzne. Teraz chodzi już o sprawę grubego kalibru.

Organizacja nie była w stanie ustalić, dlaczego chatbot wytworzył tak konkretną, ale fałszywą historię Norwega i zabójstwa przez niego dzieci. Można przypuszczać, że zbiory danych wykorzystane do wytrenowania narzędzia zawierały wiele historii o dzieciobójstwie, co wpłynęło na dobór słów w odpowiedzi na zapytanie o mężczyznę o danym nazwisku.

Według noyb szczególnym powodem do obaw jest to, że OpenAI, twórca ChatGPT, nie oferuje możliwości poprawienia nieprawidłowych informacji generowanych przez AI na ich temat. Zazwyczaj po skargach blokuje tylko takich odpowiedzi. Tymczasem zgodnie z ogólnym rozporządzeniem o ochronie danych (RODO) Unii Europejskiej Europejczycy mają prawo do sprostowania fałszywych danych osobowych. Administratorzy danych powinni się też upewnić, że dane osobowe są właściwe.

Czytaj więcej

Sztuczna inteligencja lubi kłamać. Bolesne wpadki firm

Czy za kłamstwa można karać?

noyb twierdzi, że działanie amerykańskiego giganta AI jest niezgodne z przepisami UE dotyczącymi ochrony danych, mimo że wyświetla on na dole ekranu niewielkie zastrzeżenie, że „ChatGPT może popełniać błędy. Sprawdź ważne informacje”. To jednak nie zwalnia twórcy AI z obowiązku podawania prawdziwych informacji. „Przepisy RODO są jasne. Dane osobowe muszą być dokładne" - stwierdził Joakim Söderberg, prawnik ds. ochrony danych w noyb. „Jeśli nie są, użytkownicy mają prawo do ich zmiany, aby odzwierciedlały prawdę. Informowanie użytkowników ChatGPT, że chatbot może popełniać błędy, wyraźnie nie wystarczy. Nie możesz po prostu rozpowszechniać fałszywych informacji i na końcu dodać małe zastrzeżenie, że wszystko, co powiedziałeś, może po prostu nie być prawdą".

Czytaj więcej

ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Teoretycznie potwierdzone naruszenia RODO mogą skutkować karami do 4 proc. globalnego rocznego obrotu, ale tak wysokie kary nie mają miejsca.

Można jednak wyegzekwować zmiany w sposobie działania narzędzi AI. Pokazuje to interwencja włoskiego organu nadzorującego ochronę danych, która doprowadziła wiosną 2023 roku do tymczasowego zablokowania dostępu do ChatGPT w tym kraju. W efekcie skłonił OpenAI do wprowadzenia zmian w informacjach, które przekazuje użytkownikom. Nałożył też karę pieniężną w wysokości 15 mln euro za przetwarzanie danych osób bez odpowiedniej podstawy prawnej.

Skarga dotycząca działania ChatGPT jest również badana przez polski organ ochrony danych od września 2023 r. 

Jaka jest skala dezinformacji botów?

Kłamstwa botów AI są eufemistycznie określane jako halucynacje. Skala tego jest zaskakująco wysoka. Nawet jedna czwarta odpowiedzi botów może być „halucynacjami” – wynika z badań firmy analitycznej Vectara z ubiegłego roku. Okazało się wówczas, że boty wprowadzają użytkowników w błąd w od 3 do 27 proc. przypadków – w zależności od firmy. Z raportu Vectary wynika, że najmniejszy udział fałszywych odpowiedzi miał system stworzony przez OpenAI – około 3 proc. Ten Mety miał 5 proc. nieprawdziwych odpowiedzi, natomiast chatbot start-upu Anthropic Claude 2 zmyślał w ponad 8 proc. przypadków.

Czytaj więcej

Która AI halucynuje i popełnia najwięcej błędów? Zaskakujące wyniki badania

Jakie to kłamstwa? To chociażby informacje o australijskim majorze, który jakoby miał być zamieszany w skandal korupcyjny lub o niemieckim dziennikarzu, który został fałszywie wskazany jako pedofil.

Halucynacji bota boleśnie doświadczył prawnik z Nowego Jorku, który w trakcie jednej z rozpraw użył fałszywych cytatów sądowych, które podrzucił mu ChatGPT. Z kolei np. serwis informacyjny CNET musiał poprawić 41 z 77 swoich artykułów, gdy okazało się, że materiały napisane za pomocą narzędzia AI zawierały nieścisłości. Kłopotów z halucynacjami botów doświadczył Microsoft. Zaszyta w usługę Bing sztuczna inteligencja koncernu miała bowiem spowodować liczne błędy w analizach raportów o zarobkach. Kompromitującą wpadkę zaliczyła na początku tego roku francuska AI Lucie firmowana przez prezydenta Manuela Macrona. Zanim ją wyłączono, udzielała głupkowatych porad. Jednemu z internautów zalecała np. „spożywanie krowich… jaj”, twierdząc, że te – podobnie jak kurze – są źródłem białka i składników odżywczych.

Czytaj więcej

Francuzi palą się ze wstydu. Spektakularna porażka projektu, który wspierał Emmanuel Macron

Halucynująca AI może być źródłem strat finansowych i wizerunkowych dla firm. Np. sąd nakazał Air Canada zwrot pieniędzy klientowi (chodziło o 650 dol.) po tym, jak firmowy bot błędnie przedstawił mu możliwość korzystania ze zniżek na bilety lotnicze podczas rezerwacji lotu na pogrzeb swojej babci. Linia długo upierała się, że mężczyzna mógł znaleźć poprawne informacje na witrynie internetowej.

Choć o błędach popełnianych przez AI przekonuje się coraz więcej osób, a nawet całych firm, to trudno jednak spotkać aż tak makabryczne jak w przypadku obywatela Norwegii Arve Hjalmara Holmena.

Technologie
Lenovo i Motorola dalej rosną na polskim rynku
Technologie
AI szybko dogania ludzką inteligencję i tanieje. Ujawniono najnowsze dane
Technologie
To będzie historyczny wyścig. Humanoidy zmierzą się z ludźmi
Technologie
Znany futurolog: Ludzie będą mogli żyć zdecydowanie dłużej. Podał kiedy
Materiał Partnera
Konieczność transformacji energetycznej i rola samorządów
Technologie
Nowy typ transportu? Japończycy chcą wprowadzić motory na nogach