Generowane przez AI (sztuczna inteligencja) fałszywe raporty są już tak perfekcyjne i zaawansowane, że mogą zmylić nawet ekspertów. To, jak daleko posuwają się technologie wykorzystywane do tworzenia fake newsów, może przerażać.

Dotąd z takimi fałszywymi treściami spotykali się głównie użytkownicy serwisów społecznościowych, jak Facebook czy Twitter. Posty siejące dezinformacje, bardzo często generowane właśnie przez systemy AI, są tam już niestety na porządku dziennym. Ale teraz takie fałszywki są już podrzucane nie tylko do szerokiego ogółu odbiorców, ale nawet wyspecjalizowanych w swoich dziedzinach wąskich grup ekspertów. „Wprowadzające w błąd treści w dziedzinach naukowych i technicznych, tak krytycznych, jak jak cyberbezpieczeństwo, bezpieczeństwo publiczne czy medycyna, publikowane w literaturze naukowej czy recenzowanych artykułach badawczych nie są już dziś nierealne” – przestrzega na łamach akademickiego serwisu „The Conversation” zespół badaczy z University of Maryland. I alarmuje, że ryzyko związane z tego rodzaju dezinformacją jest ogromne.

CZYTAJ TAKŻE: Kiedy aktor umiera, zastępuje go sztuczna inteligencja

– Ogólna dezinformacja często ma na celu podważenie reputacji firm lub osób publicznych. Dezinformacja w społecznościach ekspertów może prowadzić do przerażających skutków, takich jak dostarczanie lekarzom i pacjentom nieprawidłowych porad medycznych. A to może narazić życie na niebezpieczeństwo – twierdzą naukowcy.

Prowadzone przez nich badania nad cyberbezpieczeństwem ujawniły, że uczące się algorytmy są w stanie generować fałszywe specjalistyczne informacje w taki sposób, że mogą oszukać fachowców. Badacze wykorzystali sztuczną inteligencję, by stworzyła nieprawdziwe wiadomości nt. zagrożeń internetowych oraz danych medycznych dotyczących Covid-19. Umieszczono je w otwartych źródłach internetowych, omawiających luki w zabezpieczeniach cybernetycznych i informacje o atakach, a także m.in. w serwisie medrXiv, gdzie przesyłane są tzw. preprinty artykułów naukowych, które nie zostały jeszcze poddane rygorystycznej recenzji (są one nie tylko opisywane w prasie, ale wykorzystywane do podejmowania decyzji dotyczących zdrowia publicznego).

Model stworzony przez naukowców z University of Maryland był m.in. w stanie wygenerować całe sentencje pisane hermetycznym, branżowym językiem programistów i tworzyć streszczenia rzekomo opisujące skutki uboczne szczepień na Covid-19. Takie informacje przedstawiono następnie ekspertom poszczególnych dziedzin. Okazało się, że fałszywki całkowicie samodzielnie wygenerowane przez algorytmy (tzw. transformery) nie zostały przez specjalistów danych dziedzin wykryte.

CZYTAJ TAKŻE: Sztuczna inteligencja rozszyfruje nieznane dziś języki

Dotąd zaawansowane systemy AI były wykorzystywane głównie w słusznych celach. Np. BERT od Google’a czy GPT firmy OpenAI, używają przetwarzanie języka naturalnego do rozumienia tekstu i tworzenia tłumaczeń, streszczeń i interpretacji. Wykorzystywano je w takich zadaniach, jak opowiadanie historii i odpowiadanie na pytania. Przesuwając granice maszyn wykazujących ludzkie możliwości generowania tekstu, doszliśmy jednak do momentu, w którym stają się one dla nas potencjalnym zagrożeniem – ostrzega serwis TheNexWeb.

Fałszywki nie tylko mogą być niewykryte przez ludzi, ale na bazie takich sfabrykowanych danych mogą uczyć się inne systemy AI, rozpowszechniając błędy do skali, w której ciężko ją zahamować.