Niebezpieczne halucynacje sztucznej inteligencji. Potrafi kłamać jak najęta

Zaufanie do odpowiedzi generowanych przez popularne boty jak ChatGPT czy Bard może być ryzykowne – systemy AI w wiarygodny sposób preparują treści i konfabulują. Wedle ekspertów skala zjawiska jest bardzo duża.

Aktualizacja: 21.07.2023 06:27 Publikacja: 21.07.2023 01:45

Federalna Komisja Handlu wszczęła dochodzenie w kontekście nieprawdziwych treści generowanych przez

Federalna Komisja Handlu wszczęła dochodzenie w kontekście nieprawdziwych treści generowanych przez stworzonego przez Sama Altmana bota ChatGPT

Foto: Kevin Dietsch/Getty Images/AFP

Badacze z Rangaraya Medical College w Indiach przeprowadzili doświadczenie, które miało na celu sprawdzić precyzję ChatGPT w generowaniu danych i częstotliwość tzw. halucynacji AI. Skupili się na materiałach naukowych i ich źródłach, jakie miał dostarczyć rewolucyjny bot od OpenAI. Zadawali pytania, a potem weryfikowali w sieci prawdziwość i dokładność odpowiedzi, a także odniesienia do źródeł. Wyniki eksperymentu zaskakują – spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI (DOI (Digital Object Identifier to ciąg cyfr identyfikujący dowolną własność intelektualną w sieci), a 28 w ogóle nie miało jakichkolwiek odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.

Pozostało jeszcze 89% artykułu

Tylko 99 zł za rok.
Czytaj o tym, co dla Ciebie ważne.

Sprawdzaj z nami, jak zmienia się świat i co dzieje się w kraju. Wydarzenia, społeczeństwo, ekonomia, historia i psychologia w jednym miejscu.

Tylko 99 zł za rok.
Czytaj o tym, co dla Ciebie ważne.

Subskrybuj
gazeta
Technologie
Google zainwestuje w elektrownie atomowe. Pojawił się ogromny „pożeracz energii”
Technologie
Jest najszybszy na świecie. Może dać Chinom podwodną dominację
Technologie
To największy elektryczny pojazd na świecie. Same baterie ważą 250 ton
Technologie
Rząd chce wyciągnąć z dołka polskie innowacje. Powstała specgrupa
Technologie
Lekarze postawili chorej złą diagnozę. ChatGPT uratował jej życie
Materiał Promocyjny
Między elastycznością a bezpieczeństwem