ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

O tym jak szybko zmienia się świat. Ameryka z nowym prezydentem. Chiny z własnymi rozwiązaniami AI. Co się dzieje w kraju przed wyborami. Teraz szczególnie warto wiedzieć więcej. Wyjaśniamy, inspirujemy, analizujemy

Technologie
Powstała pierwsza szkoła dla... robotów. Humanoidy zastąpią ludzi w pracy i w domu
Technologie
Humanoidy pojawią się na „igrzyskach”. To rewolucja w sporcie
Technologie
Ten projekt ma dać ludziom długowieczność. Zaskakująca inwestycja twórcy ChatGPT
Technologie
Brytyjscy chirurdzy korzystają z usług polskiego start-upu. Ma nowatorską technologię
Technologie
Życie ma być łatwiejsze. Ten asystent AI sam zarezerwuje nocleg czy zrobi zakupy