ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Czytaj więcej, wiedz więcej!
9zł za pierwszy miesiąc.

Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.
9 zł pierwszy miesiąc, a potem 39 zł/msc
Technologie
Niewidomi odzyskają wzrok, a to dopiero początek. Elon Musk składa ważną deklarację
Materiał Promocyjny
Jak wygląda nowoczesny leasing
Technologie
Przełom w komputerach kwantowych. Holendrzy znaleźli sposób na błędy
Technologie
AI zawiodła przy prognozowaniu stanu zdrowia. Zimny prysznic dla szpitali
Technologie
Start-up Google’a stworzył inteligentne szyby. Pojazdy będą jak myśliwce
Materiał Partnera
Kroki praktycznego wdrożenia i operowania projektem OZE w wymiarze lokalnym
Technologie
Pomorze z potencjałem dla sektora półprzewodników
Materiał Promocyjny
Suzuki Moto Road Show już trwa. Znajdź termin w swoim mieście