Sztuczna inteligencja kłamie i zmyśla. Sposób na to znaleźli Norwegowie

Factiverse to spółka, która na co dzień zajmuje się tzw. fact-checkingiem, a więc weryfikacją prawdziwości informacji, bierze się za boty. Chce położyć kres ich uciążliwej przypadłości – generowaniu fałszywych danych.

Publikacja: 21.06.2024 13:55

Sztuczna inteligencja ma ciągotki do tworzenia informacji wyssanych z palca

Sztuczna inteligencja ma ciągotki do tworzenia informacji wyssanych z palca

Foto: Adobe Stock

Factiverse otrzymał właśnie od inwestorów 1 mln euro na rozwój projektu, który ma ukrócić tzw. halucynacje sztucznej inteligencji. To jedna z głównych bolączek konwersacyjnej AI. Norweska firma w tym celu zamierza użyć swoich narzędzi, opartych o uczenie maszynowe, które dotąd wykorzystywała do weryfikacji treści. System ten pozwoli analizować odpowiedzi generowane przez chatboty i automatycznie wykrywać niedokładne wyniki.

Największe wpadki sztucznej inteligencji

A o błędach popełnianych przez AI przekonuje się coraz więcej osób, a nawet całych firm. Boleśnie doświadczył ich choćby prawnik z Nowego Jorku, który w trakcie jednej z rozpraw użył fałszywych cytatów sądowych, które podrzucił mu ChatGPT. Z kolei np. serwis informacyjny CNET musiał poprawić 41 z 77 swoich artykułów, gdy okazało się, że materiały napisane za pomocą narzędzia AI zawierały nieścisłości. Kłopotów z halucynacjami botów doświadczył sam Microsoft. Zaszyta w usługę Bing sztuczna inteligencja koncernu miała bowiem spowodować liczne błędy w analizach raportów o zarobkach – pisze portal TheNextWeb.

Czytaj więcej

Sztuczna inteligencja lubi kłamać. Bolesne wpadki firm

Norweski start-up ma uleczyć więc generatywną AI. Ma w walce z dezinformacją doświadczenie, gdyż od 2019 r. buduje opatentowane modele analizujące treści. Modele te wykorzystują badania Vinay Setty, współzałożyciela firmy, który jest także profesorem nadzwyczajnym w dziedzinie uczenia maszynowego na Uniwersytecie w Stavanger (Setty spędził ponad dekadę na badaniu eksploracji tekstów w celu sprawdzania faktów). Edytor Factiverse AI został uruchomione w zeszłym roku. A teraz zastrzyk gotówki od inwestorów umożliwi sfinansowanie dalszych udoskonaleń. Co ciekawe, pieniądze na walkę z halucynacjami wyłożyli m.in.: Johann Olav Koss , przedsiębiorca i czterokrotny złoty medalista olimpijski w łyżwiarstwie szybkim, oczy Yasmin Namini, była dyrektorka „New York Times”.

Jak skończyć z halucynacjami AI

Ale norweska spółka nie jest jedyną, która szuka leku na halucynacje AI. Nad podobnym projektem pracuje RagaAI, start-up założony przez Gaurava Agarwala, byłego pracownika producentów chipów Nvidia Corp. i Texas Instruments Inc. Firma niedawno pozyskał 4,7 mln dol. na rozwój. A problem, którymi obie spółki się zajmują jest potężny, czego dowodzą badacze z Rangaraya Medical College w Indiach. Przeprowadzili oni doświadczenie, które miało na celu sprawdzić precyzję ChatGPT w generowaniu danych i częstotliwość konfabulacji. Skupili się na materiałach naukowych i ich źródłach, jakie miał dostarczyć rewolucyjny bot od OpenAI. Zadawali pytania, a potem weryfikowali w sieci prawdziwość i dokładność odpowiedzi, a także odniesienia do źródeł.

Czytaj więcej

Zaskakująca skala „halucynacji” sztucznej inteligencji. Które boty oszukują?

Wyniki eksperymentu zaskakują – spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI (Digital Object Identifier to ciąg cyfr identyfikujący dowolną własność intelektualną w sieci), a 28 w ogóle nie miało jakichkolwiek odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.

Factiverse otrzymał właśnie od inwestorów 1 mln euro na rozwój projektu, który ma ukrócić tzw. halucynacje sztucznej inteligencji. To jedna z głównych bolączek konwersacyjnej AI. Norweska firma w tym celu zamierza użyć swoich narzędzi, opartych o uczenie maszynowe, które dotąd wykorzystywała do weryfikacji treści. System ten pozwoli analizować odpowiedzi generowane przez chatboty i automatycznie wykrywać niedokładne wyniki.

Największe wpadki sztucznej inteligencji

Pozostało 87% artykułu

Ten artykuł przeczytasz z aktywną subskrypcją rp.pl

Zyskaj dostęp do ekskluzywnych treści najbardziej opiniotwórczego medium w Polsce

Na bieżąco o tym, co ważne w kraju i na świecie. Rzetelne informacje, różne perspektywy, komentarze i opinie. Artykuły z Rzeczpospolitej i wydania magazynowego Plus Minus.

Technologie
X – to ma być samolot przyszłości. Nie potrzebuje pasa startowego
Technologie
Polacy ratują Ziemię. Kluczowa misja kosmiczna z urządzeniem z Warszawy
Technologie
Rewolucyjny test wykryje zagrożenie zawałem serca. Jest tani i szybki
Materiał Partnera
Design thinking usprawnia wdrożenie sztucznej inteligencji
Technologie
Amerykański samolot może latać bez końca. Tak wygląda przyszłość lotnictwa?