ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

119 zł za rok czytania RP.PL

Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.

Technologie
Po które boty AI sięgamy najczęściej? „Król” jest jeden, ale trwa walka o podium
Materiał Promocyjny
Suzuki e VITARA jest w pełni elektryczna
Technologie
Nowe organiczne ogniwa słoneczne odpowiedzią na kosmiczne zagrożenie
Technologie
Kamizelka kuloodporna nie do przebicia? Powstał najbardziej wytrzymały materiał
Technologie
Chcą przywrócić do życia dodo i mamuty. Firma osiągnęła astronomiczną wartość
Materiał Promocyjny
Warta oferuje spersonalizowaną terapię onkologiczną
Technologie
Chińska firma stworzyła imponującego robota. Ma wiele wspólnego z „Rodziną Addamsów”
Materiał Promocyjny
Najlepszy program księgowy dla biura rachunkowego