ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Czytaj więcej, wiedz więcej!
Rok dostępu za 99 zł.

Tylko teraz! RP.PL i NEXTO.PL razem w pakiecie!
Co zyskasz kupując subskrypcję?
- możliwość zakupu tysięcy ebooków i audiobooków w super cenach (-40% i więcej!)
- dostęp do treści RP.PL oraz magazynu PLUS MINUS.
Technologie
Maszyny zyskają kolejny zmysł. To rewolucja w robotyce
Technologie
Koniec z fałszywymi uśmiechami. Teraz będzie już można łatwo poznać prawdziwe uczucia
Technologie
Stworzyli kontrowersyjne rozwiązanie. Po cichu pomaga na egzaminie i w rozmowie o pracę
Technologie
To może być wielkie zagrożenie dla świata i Kościoła. Co zrobi następca Franciszka?
Technologie
Między elastycznością a bezpieczeństwem