Reklama
Rozwiń

Niebezpieczne halucynacje sztucznej inteligencji. Potrafi kłamać jak najęta

Zaufanie do odpowiedzi generowanych przez popularne boty jak ChatGPT czy Bard może być ryzykowne – systemy AI w wiarygodny sposób preparują treści i konfabulują. Wedle ekspertów skala zjawiska jest bardzo duża.

Aktualizacja: 21.07.2023 06:27 Publikacja: 21.07.2023 01:45

Federalna Komisja Handlu wszczęła dochodzenie w kontekście nieprawdziwych treści generowanych przez

Federalna Komisja Handlu wszczęła dochodzenie w kontekście nieprawdziwych treści generowanych przez stworzonego przez Sama Altmana bota ChatGPT

Foto: Kevin Dietsch/Getty Images/AFP

Badacze z Rangaraya Medical College w Indiach przeprowadzili doświadczenie, które miało na celu sprawdzić precyzję ChatGPT w generowaniu danych i częstotliwość tzw. halucynacji AI. Skupili się na materiałach naukowych i ich źródłach, jakie miał dostarczyć rewolucyjny bot od OpenAI. Zadawali pytania, a potem weryfikowali w sieci prawdziwość i dokładność odpowiedzi, a także odniesienia do źródeł. Wyniki eksperymentu zaskakują – spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI (DOI (Digital Object Identifier to ciąg cyfr identyfikujący dowolną własność intelektualną w sieci), a 28 w ogóle nie miało jakichkolwiek odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.

Pozostało jeszcze 89% artykułu
Technologie
Kwantowe systemy nawigacji zastąpią łatwy do zakłócania GPS. Rosja ma problem
Technologie
Pierwsze takie połączenie w Polsce. Armia sięga po technologię kwantową
Technologie
Naukowcy stworzyli bezpieczne i super wydajne baterie. Dodali składnik... ubrania
Technologie
Kilka minut zamiast miliona lat. Superkomputery pokonane
Materiał Promocyjny
Warunki rozwoju OZE w samorządach i korzyści z tego płynące
Technologie
Humanoidy wchodzą do sklepów? Sprzedaż rusza lada moment, znamy ceny
Materiał Promocyjny
Sezon motocyklowy wkrótce się rozpocznie, a Suzuki rusza z 19. edycją szkoleń