Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.

Czytaj więcej

Rosja chce surowo ukarać Wikipedię. „Za fałszerstwa”

Treści generowane maszynowo trafiające do Wikipedii musiałyby zatem być równoważone dużą liczbą recenzji tworzonych przez ludzi. – Jedynym wyjściem jest użycie dużych modeli językowych, ale z opcją edycji tworzonych treści i ludźmi sprawdzającymi źródła – potwierdza Amy Bruckman z Georgia Institute of Technology, autorka książki „Czy wierzyć Wikipedii?”, cytowana przez Vice.

Fundacja Wikimedia, organizacja non-profit stojąca za popularną internetową encyklopedią, musi zmierzyć się z wyzwaniem. Stąd zdecydowała się stworzyć narzędzia, które ułatwią wolontariuszom identyfikację treści generowanych przez boty. Na razie pracuje nad spisem zasad, które określą granice tego, w jaki sposób wolontariusze mogą używać AI do tworzenia treści. Wikimedia obawia, że nieumiejętne korzystanie z botów przez społeczność narazi platformę na pozwy o zniesławienie i naruszenia praw autorskich.