Reklama

ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Już za 19 zł miesięcznie przez rok

Jak zmienia się świat i Polska. Jak wygląda nowa rzeczywistość polityczna po wyborach prezydenckich. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.

Czytaj, to co ważne.

Reklama
Technologie
AI wymyśla fakty? Twórcy ChatGPT zbadali halucynacje i mają na nie sposób
Technologie
OpenAI zatrudnia wybitnego neurobiologa z Harvardu. Chce przełomów w AI i w medycynie
Technologie
Tajemnicze obiekty w oceanie. Marynarka USA: „To nie nasza technologia”
Technologie
Nowy Concorde. W trzy godziny przez Atlantyk jeszcze w 2029 roku
Technologie
AI może pozbawić pracy 99 proc. pracowników w 5 lat. „Nie ma planu B”
Reklama
Reklama