Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.
Czytaj więcej
Władze chcą grzywny od światowej encyklopedii online za rzekome fałszowanie obrazu wojny w Ukrainie. Wcześniej ukarane za podobne zarzuty zostało Google.
Treści generowane maszynowo trafiające do Wikipedii musiałyby zatem być równoważone dużą liczbą recenzji tworzonych przez ludzi. – Jedynym wyjściem jest użycie dużych modeli językowych, ale z opcją edycji tworzonych treści i ludźmi sprawdzającymi źródła – potwierdza Amy Bruckman z Georgia Institute of Technology, autorka książki „Czy wierzyć Wikipedii?”, cytowana przez Vice.
Fundacja Wikimedia, organizacja non-profit stojąca za popularną internetową encyklopedią, musi zmierzyć się z wyzwaniem. Stąd zdecydowała się stworzyć narzędzia, które ułatwią wolontariuszom identyfikację treści generowanych przez boty. Na razie pracuje nad spisem zasad, które określą granice tego, w jaki sposób wolontariusze mogą używać AI do tworzenia treści. Wikimedia obawia, że nieumiejętne korzystanie z botów przez społeczność narazi platformę na pozwy o zniesławienie i naruszenia praw autorskich.