Reklama

Nie odróżnisz prawdy od fałszu. AI jako broń w wojnie z Iranem

Wojna na Bliskim Wschodzie wywołała bezprecedensową lawinę fałszywych materiałów tworzonych przez AI. Zalewające sieć deepfake’i są dziś tak realistyczne, że stały się skuteczną bronią dezinformacji.
Myśliwiec F-35 rzekomo zestrzelony przez Irańczyków  – na tym zmanipulowanym materiale widać „sklono

Myśliwiec F-35 rzekomo zestrzelony przez Irańczyków – na tym zmanipulowanym materiale widać „sklonowanych przez AI” żołnierzy i flagi

Foto: Reuters/Stringer

– To, co wyróżnia ten konflikt, to ogromny wzrost liczby treści generowanych przez AI, które muszę demaskować – mówi Tal Hagin, starszy analityk w firmie Golden Owl, cytowany przez „Wired”. – AI jest już na tyle zaawansowana, że potrafi zmylić dziennikarzy, a użytkownicy mogą tworzyć takie treści bez żadnych konsekwencji. Bez regulacji skala szkód będzie rosła.

Wojna USA i Izraela z Iranem zdecydowanie, jak twierdzą eksperci, przebiła wojnę na Ukrainie pod względem liczby fałszywych materiałów generowanych przez AI. Ale też ich jakości, co czyni je coraz trudniejszymi do odróżnienia od oryginalnych treści.

Zalew deepfake’ów. Fałszywe nagrania podbijają internet

Niektóre z fałszywych materiałów osiągają ogromne zasięgi. Obraz przedstawiający zestrzelenie amerykańskiego bombowca B-2 przez Iran obejrzało na X ponad milion osób, zanim został usunięty. Zdjęcia rzekomo pojmanych żołnierzy Delta Force miały ponad 5 mln wyświetleń. „The New York Times” zidentyfikował ponad 110 unikalnych materiałów wygenerowanych przez AI w ciągu ostatnich dwóch tygodni.

Eksperci zwracają uwagę, że w 2026 r. problemem nie są już tylko statyczne obrazy, ale tzw. „shallowfakes” – autentyczne nagrania z poprzednich konfliktów (np. z Syrii czy Jemenu), które przy użyciu AI są poddawane szybkiej postprodukcji: zmienia się cyfrowo oznaczenia jednostek, pogodę czy dźwięk wystrzałów, by pasowały do bieżących doniesień z Zatoki Perskiej.

Czytaj więcej

„Śmierć papieża to mistyfikacja”. Świat zalewa fala oszustw „na Franciszka”
Reklama
Reklama

Fałszywe treści przedstawiały m.in. przerażonych Izraelczyków w Tel Awiwie, Irańczyków opłakujących ofiary czy amerykańskie okręty atakowane rakietami i torpedami. Łącznie materiały te osiągnęły miliony wyświetleń w serwisach takich jak X, TikTok i Facebook, a także były szeroko rozpowszechniane w prywatnych komunikatorach na całym świecie. Coraz łatwiejszy dostęp do narzędzi generujących obrazy i wideo sprawił, że fałszywe treści stają się coraz bardziej powszechne i realistyczne.

Skala dezinformacji jest tak ogromna, że prowadzi do paranoi, w której kwestionuje się nawet autentyczne nagrania. Głośnym echem odbiło się oficjalne wystąpienie premiera Benjamina Netanjahu, które w sieci masowo uznano za fake. Internauci dopatrywali się u polityka sześciu palców, co premier musiał później osobiście dementować, pokazując dłoń do kamer.

Fejki AI wykorzystywane są nie tylko do zarobku dzięki powiększaniu zasięgów, ale również do szerzenia propagandy. Według analityków Institute of Strategic Dialogue sieci kont powiązanych z irańskim reżimem publikują obrazy przedstawiające np. ortodoksyjnych Żydów kierujących amerykańskimi żołnierzami lub świętujących ich śmierć.

Piekło zamarzło. Trump walczy z dezinformacją

– Nawet w porównaniu z początkiem wojny w Ukrainie sytuacja jest dziś zupełnie inna – mówi Marc Owen Jones z Northwestern University w Katarze. – Prawdopodobnie widzimy więcej treści związanych z AI niż kiedykolwiek wcześniej.

Na serwisach społecznościowych moderacja nie jest wystarczająca. Platforma X szybko została zalana dezinformacją: tysiące kont masowo zaczęły publikować fałszywe i przerabiane nagrania, a Grok regularnie udzielał błędnych odpowiedzi przy próbach weryfikacji treści. Takie materiały udostępniają także konta premium z niebieskimi znaczkami, jak i irańscy urzędnicy, którzy chcą wyolbrzymić skalę zniszczeń po drugiej stronie cieśniny Ormuz.

Czytaj więcej

Iran zapowiada zabicie izraelskiego premiera Netanjahu. „Jeśli wciąż żyje”
Reklama
Reklama

Prezydent USA Donald Trump w niedzielę oskarżył Iran o wykorzystywanie sztucznej inteligencji jako „broni dezinformacyjnej” do przedstawiania fałszywego obrazu swoich sukcesów wojennych i poparcia. – AI może być bardzo niebezpieczna, musimy być z nią bardzo ostrożni – powiedział Trump dziennikarzom na pokładzie Air Force One, krótko po wpisie na swojej platformie Truth Social, w którym oskarżył zachodnie media o „ścisłą koordynację” z Iranem w rozpowszechnianiu generowanych przez AI „fake newsów”.

Trump, który wcześniej sam wielokrotnie szerzył dezinformację, zaznaczył, że media rozpowszechniające takie informacje powinny zostać oskarżone o zdradę. Napisał m.in., że Iran pokazał „łodzie kamikadze”, które nie istnieją, i sfabrykował udany atak na lotniskowiec USS Abraham Lincoln, który nie miał miejsca.

Jak rozpoznać fake? Walka z dezinformacją coraz trudniejsza

Badacze wskazują też, że model zarabiania na platformach, uzależniony od zaangażowania użytkowników, zwiększa motywację do publikowania sensacyjnych i fałszywych treści. Jedno z kont premium opublikowało np. wygenerowane przez AI nagranie płonącego wieżowca Burj Khalifa w Dubaju i zignorowało prośbę o oznaczenie materiału. Wideo zdobyło ponad 2 mln wyświetleń.

Czytaj więcej

Irańscy hakerzy przechodzą do ofensywy. Europa na celowniku

Jak zatem nie dać się nabrać? Kluczowa jest analiza detali: w nagraniach wideo warto zwracać uwagę na nienaturalny rytm mrugania oczu lub brak synchronizacji ruchu warg z dźwiękiem. W obrazach z frontu zdradliwe bywają cienie – AI często generuje oświetlenie niezgodne z fizyką, np. cienie padające w różnych kierunkach w jednej scenie, lub nienaturalnie „rozmyte” tła w miejscach, gdzie powinny być ostre detale techniczne sprzętu wojskowego. Nadzwyczaj często pojawiają się też flagi.

Platforma X ogłosiła, że będzie zawieszać na 90 dni udział w programie zarabiania dla twórców publikujących materiały AI bez oznaczenia ich jako wytwór sztucznej inteligencji. – Kolejne naruszenia mają skutkować trwałym zawieszeniem konta – zapowiedział szef produktu X Nikita Bier.

Reklama
Reklama

Problem w tym, że przy obecnej prędkości cyfrowego obiegu informacji „cykl życia” fejka wynosi zaledwie 48 godzin – po tym czasie szkoda wizerunkowa jest już nieodwracalna, a zablokowanie zarobków post factum nie zniechęca państwowych farm trolli, które działają dla celów politycznych, a nie komercyjnych.

Problem dotyczy nie tylko X. Rada nadzorcza Mety skrytykowała sposób oznaczania treści AI, uznając go za niewystarczający wobec skali zjawiska. – AI staje się narzędziem wojny, a algorytmy do wykrywania działalności AI wciąż są niedoskonałe – ostrzega analityczka NewsGuard Isis Blachez. Choć często dodaje się do materiałów „znaki wodne”, łatwo je usunąć lub ukryć. Tylko niewielka część analizowanych przez badaczy nagrań zawierała takie oznaczenia. W sprawę zaangażowała się globalna sieć fact-checkerów – od Brazylii po Indie, identyfikując i zgłaszając liczne fałszywe materiały AI dotyczące wojny. Na razie to jednak walka z wiatrakami.

Dla „Rzeczpospolitej”

Bartosz Popadiak, analityk weryfikacji treści z Ośrodka Analizy Dezinformacji NASK

W związku z wojną w Iranie w polskojęzycznej przestrzeni informacyjnej pojawiło się kilkadziesiąt zmanipulowanych materiałów graficznych oraz wideo, zidentyfikowanych tylko w ramach działań Ośrodka Analizy Dezinformacji. Obecnie odnotowujemy, że najczęściej generowane przy pomocy sztucznej inteligencji są nagrania, które mają na celu wyolbrzymienie strat zadanych przez Iran Izraelowi, USA oraz państwom arabskim w regionie. Są to głównie filmy przedstawiające nieprawdziwe wybuchy oraz ich katastrofalne skutki. Wśród nich znalazły się również materiały przedstawiające rzekome ataki na władze Izraela, w tym premiera Binjamina Netanjahu.

Rozwijające się technologie i coraz łatwiejszy dostęp do narzędzi tworzących deepfake’i zdecydowanie wpływają na szybkość ich generowania. Materiały posiadają jednak różną jakość. W tym konkretnym przypadku większość z nich możemy ocenić jako możliwe do zweryfikowania również przez zwykłych użytkowników po dokładnym przyjrzeniu się bądź wsparciu podstawowymi narzędziami do weryfikacji. Pojawiały się także trudniejsze przypadki, jak ten z premierem Netanjahu, ale ze względu na medialność sprawy szybko zostały zweryfikowane nie tylko przez internautów, ale i ekspertów.

Reklama
Reklama

Deepfake’i z wojny w Ukrainie, podobnie jak obecne, często przedstawiały pole walki oraz rzekome ogromne straty Ukraińców. Najczęściej miały słabą jakość, najprawdopodobniej w celu utrudnienia weryfikacji prawdziwości, która w takich przypadkach często opiera się na sprawdzaniu charakterystycznych symboli na mundurach czy sprzęcie wojskowym. W obu przypadkach przeciętny użytkownik może mieć problemy z rozpoznawaniem takich treści, dlatego zachęcamy do zgłaszania ich do Ośrodka Analizy Dezinformacji lub Zakładu Analiz Audiowizualnych i Systemów Biometrycznych NASK.

W celu dezinformacji używane są również realne nagrania z innych konfliktów zbrojnych, umieszczane w kontekście wojny pomiędzy USA i Izraelem a Iranem, aby przedstawić ją w określony, zmanipulowany sposób. Taki rodzaj dezinformowania był używany również w przypadku wojny w Ukrainie i jest częstym schematem szerzenia fałszywych treści.

AI
Pensja w AI zamiast pieniędzy? Nowy trend z Doliny Krzemowej, promuje go szef Nvidii
Materiał Promocyjny
Jedna rata i większa kontrola nad budżetem domowym?
Materiał Promocyjny
Centra danych to kwestia całego ekosystemu
AI
AI nie odróżnia prawdy od fałszu? Wyniki badania zaskakują
AI
Chatbot AI przeanalizuje wyniki badań użytkownika. Eksperci ostrzegają przed ryzykiem
AI
AI i roboty wchodzą na okręty wojenne. Rewolucja w marynarce USA
Promowane treści
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama