ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

„Rzeczpospolita” najbardziej opiniotwórczym medium października!

Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.

Czytaj za 9 zł miesięcznie!
Technologie
Humanoidy wejdą do domów w 2025 roku. Ten sprząta, ale potrafi też prać i zrobić kawę
Technologie
Ukraińcy szkolą sztuczną inteligencję filmami z wojny. Wyrastają na potęgę
Technologie
Paliwo przyszłości kryje się pod Ziemią. Przełomowe znalezisko w Europie
Technologie
Pierwsza na świecie kamera AI wykrywa pijanych kierowców. Alkomat nie jest potrzebny?
Technologie
Chiny mają już drony z laserami. Promień tnie metal i zniszczy cały oddział wojska
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10