ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Tylko 9 zł z Płatnościami powtarzalnymi

Jak zmienia się Polska, Europa i Świat? Wydarzenia, społeczeństwo, ekonomia i historia w jednym miejscu i na wyciągnięcie ręki.
Subskrybuj i bądź na bieżąco!
Technologie
Amerykańskie big techy mogą tracić w Europie. UE walczy o suwerenność
Materiał Promocyjny
Bank Pekao S.A. uruchomił nową usługę doradztwa inwestycyjnego
Technologie
Inwazja niemieckich humanoidów? Elon Musk ma powody do obaw
Technologie
„Oko Chin”. Imponująca technologia szpiegowska
Technologie
Przełom w broni strzeleckiej. 3 tys. pocisków na minutę. I to bez prochu
Materiał Promocyjny
Cyberprzestępczy biznes coraz bardziej profesjonalny. Jak ochronić firmę
Technologie
Ludzie będą widzieć lepiej w nocy i mimo... zamkniętych oczu? Zaskakujące odkrycie
Materiał Promocyjny
Pogodny dzień. Wiatr we włosach. Dookoła woda po horyzont