Ukraińskie rządowe Centrum Komunikacji Strategicznej już 2 marca ostrzegło, że Rosjanie mogą spreparować przemówienie prezydenta Wołodymyra Zełenskiego ogłaszającego poddanie się. I rzeczywiście, wkrótce na Facebooku i YouTubie pojawiło się fałszywe wideo, w którym dziwnie nieruchomy Zełenski poprosił ukraińskich żołnierzy o złożenie broni. Klip został również opublikowany na Telegramie i w rosyjskiej sieci społecznościowej VKontakte czy w jednej ze stacji telewizyjnych w Ukrainie, która została zhakowana.

Zełenski zareagował błyskawicznie, publikując na Facebooku wideo, w którym wszystkiemu zaprzeczył, a całą akcję nazwał „dziecinną prowokacją”. Zaraz potem i Facebook, i YouTube usunęły wideo za naruszenie zasad platform związanych z zamieszczaniem zmanipulowanych materiałów.

Zaraz potem na Twitterze pojawiło się wideo z prezydentem Rosji Władimirem Putinem przekonującym: „Udało nam się osiągnąć pokój z Ukrainą”. Stworzono je na bazie prawdziwego przemówienia z 21 lutego.

Nieruchomy Zełenski

To pierwsze na świecie użycie deepfake’ów podczas konfliktu zbrojnego, chociaż nie jest jasne, kto dokładnie je tworzy i rozpowszechnia. Bez wątpienia będzie ich coraz więcej, będą coraz lepsze i bardziej wiarygodne.

Szybka reakcja Zełenskiego i platform społecznościowych pomogła ograniczyć czas, w którym klip mógł się rozprzestrzenić, więc nie osiągnął swojego celu. Inna sprawa to niskiej jakości deepfake. Sobowtór prezydenta wyglądał nienaturalnie, z twarzą, która nie pasowała do jego ciała, a jego głos brzmiał nieco inaczej.

– Ukraina była do tego dobrze przygotowana – mówi cytowany przez The Verge Sam Gregory, ekspert ds. sztucznej inteligencji i dezinformacji oraz dyrektor programowy międzynarodowej organizacji non profit WITNESS. Jego zdaniem paradoksalnie niska jakość może pomagać w oszustwie. Wskazuje wideo, które pojawiło się w Birmie w zeszłym roku, pokazujące byłego ministra rządu trzymanego w areszcie. Mówił, że dostarczył gotówkę i złoto byłej przywódczyni kraju Aung San Suu Kyi. Rząd wojskowy, który obalił Aung San Suu Kyi w zamachu stanu, wykorzystał ten materiał, aby oskarżyć ją o korupcję.

Hany Farid, profesor Uniwersytetu Kalifornijskiego w Berkeley i ekspert ds. kryminalistyki cyfrowej, cytowany przez CNN, podkreśla, że wideo nagrano w słabej rozdzielczości, a niska jakość to pierwszy sygnał, że możemy mieć do czynienia z fałszerstwem. – W ten sposób łatwo ukryć zniekształcenia powstałe podczas tworzenia deepfake’ów. Po drugie, Zełenski w filmie patrzy prosto przed siebie, nie poruszając rękami przez cały klip – bardzo trudno jest zrobić przekonujący deepfake, który obejmuje ruchy głową i ruchy rąk – wskazuje Farid.

Deepfake ma przyszłość

– Gdyby to był bardziej profesjonalny film i opublikowano go wcześniej na początku rosyjskiego natarcia na Kijów, mogłoby to spowodować wiele zamieszania – mówi z kolei Samuel Bendett organizacji non profit CNA.

Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W ciągu kilku ostatnich lat trafiły do polityki czy filmów pornograficznych. Technologia ta może mieć także pozytywne zastosowania w rozrywce czy edukacji, umożliwiając choćby uczniom dyskusję z wyglądającym jak żywy Albertem Einsteinem.

Autopromocja
Subskrybuj nielimitowany dostęp do wiedzy

Unikalna oferta

Tylko 5,90 zł/miesiąc


WYBIERAM
Zmanipulowane wystąpienie Władimira Putina

Zmanipulowane wystąpienie Władimira Putina

mat. pras.