Reklama

ChatGPT może zniszczyć Wikipedię. Halucynacje i zalew fałszywych historii

Konwersacyjna sztuczna inteligencja stworzyła potężne zagrożenie dla najpopularniejszego źródła wiedzy w sieci. Wolontariusze, którzy prowadzą cyfrową encyklopedię, nie wiedzą, co robić z rosnącą liczbą treści i dezinformacji tworzonych przez boty.

Publikacja: 04.05.2023 12:15

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie

Foto: Adobe Stock

Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Tylko 19 zł miesięcznie przez cały rok.

Bądź na bieżąco. Czytaj sprawdzone treści od Rzeczpospolitej. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.

Treści, którym możesz zaufać.

Reklama
Technologie
Sztuczna inteligencja „pokochała” język polski? Wygrał w amerykańskich badaniach
Materiał Promocyjny
W poszukiwaniu nowego pokolenia prezesów: dlaczego warto dbać o MŚP
Technologie
Czy AI odbierze nam pracę? Współzałożyciel OpenAI ma zaskakującą odpowiedź
Technologie
Przełom w bateriach. Dzięki fluorowi elektryki pojadą 1500 km na jednym ładowaniu
Technologie
Harry i Meghan pod rękę z naukowcami. Boją się superinteligencji
Materiał Promocyjny
Stacje ładowania dla ciężarówek pilnie potrzebne
Technologie
Szczepionka na raka może już istnieć. To szczepionka przeciw... COVID-19
Materiał Promocyjny
Prawnik 4.0 – AI, LegalTech, dane w codziennej praktyce
Reklama
Reklama