ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Czytaj dalej RP.PL

Tylko 9 zł aż za 3 miesiące!
Ciesz się dostępem do treści najbardziej opiniotwórczego medium w Polsce. Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.
Technologie
Obraz AI zrobił furorę na prestiżowej aukcji. Ile kosztują najdroższe obrazy świata?
Materiał Promocyjny
Z kartą Simplicity można zyskać nawet 1100 zł, w tym do 500 zł już przed świętami
Technologie
Baterie litowo-jonowe idą w odstawkę. Czas na zupełnie nowe rozwiązanie
Technologie
Chińska „Gwiazda śmierci". Pekin opracował zabójczo groźną technologię
Technologie
Drewniany satelita poleciał na orbitę. Może otworzyć nowy rozdział w podboju kosmosu
Materiał Promocyjny
Najszybszy internet domowy, ale także mobilny
Technologie
Implanty oka pomogą odzyskać wzrok. Przełom w medycynie
Materiał Promocyjny
Polscy przedsiębiorcy coraz częściej ubezpieczeni