Reklama

AI zalewa sieć coraz lepszymi fałszywkami. Detektory nie nadążają

Treści generowane przez sztuczną inteligencję są dziś tak realistyczne, że ich odróżnienie od prawdziwych materiałów bywa niemal niemożliwe. Testy pokazują, że również narzędzia do wykrywania AI nie są nieomylne.
Mężczyzna niesie wygenerowany przez sztuczną inteligencję obraz przedstawiający prezydenta USA Donal

Mężczyzna niesie wygenerowany przez sztuczną inteligencję obraz przedstawiający prezydenta USA Donalda Trumpa niosącego koty odebrane haitańskim imigrantom — nawiązanie do fałszywych informacji rozpowszechnianych na temat Springfield w stanie Ohio

Foto: Rebecca NOBLE / AFP

Z tego artykułu dowiesz się:

  • Dlaczego rozróżnienie pomiędzy prawdziwymi a generowanymi przez AI treściami jest coraz trudniejsze?
  • Jakie są ograniczenia i skuteczność detektorów treści generowanych przez AI?
  • Jakie są najważniejsze wyzwania związane z wykrywaniem fałszywych filmów i nagrań audio generowanych przez AI?
  • Dlaczego uznanie prawdziwych treści za fałszywe może prowadzić do chaosu informacyjnego?

Treści generowane przez sztuczną inteligencję stały się tak realistyczne, że często nie sposób odróżnić, czy film lub zdjęcie krążące w mediach społecznościowych jest prawdziwe, czy fałszywe. Jak grzyby po deszczu powstają aplikacje, które mają bezbłędnie wykrywać treści stworzone przez AI. Ich twórcy zapewniają, że narzędzia te potrafią odróżnić rzeczywistość od materiałów wygenerowanych przez sztuczną inteligencję, wyszukiwać ukryte znaki wodne, błędy kompozycji i inne cyfrowe ślady.

Jak działają detektory AI i czego szukają w treściach?

Z testów przeprowadzonych przez „The New York Times” wynika jednak, że rzeczywistość jest bardziej złożona. Choć wiele narzędzi dobrze radziło sobie z wykrywaniem części treści tworzonych przez AI, ich skuteczność nie była na tyle wysoka, by można było mówić o całkowitej pewności i niezawodności.

Wnioski sugerują, że narzędzia wykrywające obrazy i filmy stworzone przez AI mogą pomóc potwierdzić podejrzenia, ale trudno polegać na którymkolwiek z nich przy wydawaniu ostatecznych werdyktów. Dziennikarze „NYT” podkreślają, że wszelkie wnioski wyciągane przez te narzędzia powinny być potwierdzane dodatkowymi źródłami, takimi jak oficjalne fotografie czy doniesienia medialne.

Czytaj więcej

Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują
Reklama
Reklama

Mimo to wiele osób postrzega narzędzia detekcyjne – które analizują już nie tylko obrazy, ale także wideo i dźwięk – jako potężnych arbitrów prawdy w kluczowym momencie, gdy treści generowane przez AI zalewają media społecznościowe i wprowadzają użytkowników w błąd. Korzystają z nich banki i firmy ubezpieczeniowe próbujące wykrywać oszustwa z użyciem AI, nauczyciele sprawdzający plagiaty oraz internetowi „śledczy” weryfikujący materiały krążące w sieci.

- Nigdy nie będzie narzędzia, które w 100 proc. wykryje użycie AI w tekście, obrazie czy wideo – powiedział „NYT” Mike Perkins, profesor na British University Vietnam, który badał detektory AI i uznał, że detektory tekstu są niewiarygodne.

Test 1000 analiz: skuteczność detektorów AI pod znakiem zapytania

Dziennikarze przetestowali ponad tuzin detektorów AI oraz chatbotów zdolnych do identyfikowania fałszywych filmów, nagrań audio, muzyki i obrazów. Łącznie przeprowadzili ponad 1000 analiz. Doszli do wniosku, że tworzenie większości fałszywek AI krążących w internecie nie wymaga dużego wysiłku: użytkownicy wpisują proste polecenia i otrzymują realistyczny obraz lub film przedstawiający prawdziwe osoby. Tego typu treści zalały internet wkrótce po aresztowaniu w styczniu Nicolása Maduro, odsuniętego od władzy prezydenta Wenezueli.

Detektory AI są zazwyczaj trenowane na ogromnych zbiorach treści wygenerowanych przez sztuczną inteligencję i uczą się rozpoznawać cyfrowe ślady pozostawiane przez narzędzia AI.

Czytaj więcej

Koniec z bikini na X? Musk blokuje Groka, ale Polska wciąż czeka

Detektory miały większe trudności z obrazami takimi jak fikcyjna scena nadmorskiego portu, zawierająca niewiele oczywistych oznak wygenerowania przez AI. Może to wynikać z faktu, że część detektorów jest trenowana głównie do rozpoznawania twarzy – w celach bezpieczeństwa i przeciwdziałania oszustwom.

Reklama
Reklama

Filmy generowane przez AI szybko stają się kolejnym zagrożeniem dla mediów społecznościowych. Wprowadzenie aplikacji Sora – generatora wideo AI stworzonego przez OpenAI – doprowadziło do zalewu fałszywych nagrań, często bez odpowiednich oznaczeń. Niestety, tylko nieliczne detektory potrafią analizować wideo i dźwięk. Te, które to potrafiły, osiągały mieszane wyniki.

Fałszywe wideo i audio – największe wyzwanie dla wykrywania AI

Wideo i audio stały się kluczowym zagrożeniem dla bezpieczeństwa firm. Przedsiębiorstwa zajmujące się detekcją zainwestowały znaczne środki w wykrywanie takich fałszerstw, oferując analizę nawet transmisji na żywo.

Także nagrania audio generowane przez AI stały się bardzo realistyczne. Narzędzia takie jak ElevenLabs tworzą głosy z oddechami, pauzami i naturalną intonacją. Wykorzystuje się je zarówno w viralowych filmach, jak i w oszustwach telefonicznych.

Siedem testowanych przez „NYT” detektorów potrafiło analizować dźwięk. Najlepiej poradziły sobie Sensity i Resemble.ai. Nawet po znacznym zmodyfikowaniu nagrania narzędzia te z dużą pewnością wskazywały, że głos lub muzyka zostały wygenerowane przez AI.

Czytaj więcej

Fałszywe zdjęcia Taylor Swift krążą po sieci. Kontrowersyjne grafiki zrobiła AI
Reklama
Reklama

Jednym z zagrożeń związanych z detektorami jest możliwość uznania prawdziwego materiału za fałszywy, co może wprowadzać chaos informacyjny. Gdy na początku konfliktu między Izraelem a Hamasem w sieci pojawiło się drastyczne zdjęcie zwęglonego ciała, część obserwatorów uznała je za fałszywkę AI. Eksperci twierdzili, że najprawdopodobniej było autentyczne, ale wątpliwości zdążyły się już rozejść po internecie.

Ryzyko błędnych ocen: gdy prawdziwe treści uznawane są za fałszywe

Ogólnie detektory lepiej radziły sobie z rozpoznawaniem prawdziwych obrazów niż fałszywych. Podobnie dobrze analizowały prawdziwe nagrania wideo, np. z iPhone’a czy z serwisów informacyjnych. Choć dźwięk generowany przez AI potrafił je zmylić, wszystkie poprawnie oznaczyły jako autentyczne nagranie reportera czytającego tekst wygenerowany przez AI.

Czytaj więcej

„Wykrywacz” ChatGPT dla nauczycieli szwankuje. Uczniowie byli niewinni

Część fałszywek łączy prawdziwe materiały z elementami wygenerowanymi przez AI, co jeszcze bardziej utrudnia ich wykrycie. W testach dziennikarzy „NYT” również większość narzędzi nie wykryła takich modyfikacji.

AI
AI uderza w gigantów. Miliardy wyparowały
Materiał Promocyjny
Rekordy sprzedaży i większy magazyn w Duchnicach
AI
Chińska aplikacja wywołała panikę w Hollywood. Czy to koniec tradycyjnych filmów?
AI
AI zmienia poglądy polityczne użytkowników? Naukowcy dostali twarde dowody
AI
„Moment Hindenburga”. Znany naukowiec ostrzega przed wyścigiem AI
Materiał Promocyjny
Dove Self-Esteem: Wsparcie dla nastolatków
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama