Sztuczna inteligencja zrobi z tobą film porno

Technologia pozwalająca na tworzenie filmów deepfake to kolejny powód, by przestać ślepo wierzyć w to, co widzimy w internecie.

Publikacja: 22.02.2019 17:21

Aktorka Scarlett Johansson to jedna z najczęstszych ofiar tego procederu

Aktorka Scarlett Johansson to jedna z najczęstszych ofiar tego procederu

Foto: Bloomberg

W ostatnich latach wielokrotnie zdarzało się, że politycy w różnych krajach wpadali w kłopoty z powodu wyjścia na jaw nagrań ich poufnych rozmów. Czasem kwestionowali autentyczność nagrań lub tłumaczyli, że ich słowa zostały wyrwane z kontekstu, ale zazwyczaj mało kto im wierzył. A co, gdyby nagle zaczęły wychodzić na jaw nagrania filmowe pokazujące prominentnych polityków w bardzo kompromitujących sytuacjach (np. podczas molestowania seksualnego dzieci lub w trakcie satanistycznych obrzędów), a oni nieporadnie tłumaczyliby, że to fałszerstwa i co więcej mieliby 100 proc. rację?

Jest już dostępna technologia umożliwiająca tworzenie sztucznych obrazów filmowych przedstawiających realnie istniejących ludzi

Taki scenariusz staje się coraz bardziej realny. Jest już dostępna technologia umożliwiająca tworzenie sztucznych obrazów filmowych przedstawiających realnie istniejących ludzi. Tego typu filmy tworzone przez programy komputerowe są nazywane głębokimi fałszywkami (deepfake) i znane są przypadki, gdy były one wykorzystane przez cyberprzestępców do celów szantażu.

Fałszywa Scarlett Johansson

Głębokie fałszywki pojawiły się po raz pierwszy w 2017 r. Wówczas jeden z użytkowników portalu społecznościowego Reddit, posługujący się pseudonimem „Deepfakes”, zamieścił w nim serię filmów pornograficznych z udziałem popularnych aktorek i piosenkarek takich jak: Gal Gadot, Scarlett Johansson, Emma Watson, Katy Perry czy Taylor Swift. Wszystkie te filmy zostały stworzone za pomocą sztucznej inteligencji. Twarze celebrytek zostały tam wmontowane przez program, który przeanalizował wcześniej tysiące ich zdjęć.

CZYTAJ TAKŻE: Cyberprzestępcy sięgają po sztuczną inteligencję

Technologia ta była wówczas jeszcze daleka od doskonałości, więc internetowi maniacy szybko wykryli w tych filmikach drobne anomalie (np. to że ich bohaterki nie mrugały. Rzadko kiedy można bowiem znaleźć zdjęcia celebrytek, na których mają one zamknięte oczy). W grudniu 2017 r. jako pierwszy o fenomenie deepfake’ów napisał serwis „Vice”. W styczniu 2018 r. pojawiła się na rynku aplikacja pozwalająca w prosty sposób stworzyć własnego, mało skomplikowanego deepfake’a.

Zamieszczanie głębokich fałszywek zostało zakazane przez wiele serwisów internetowych m.in. Reddit i Twitter. Zakazały jej również niektóre wielkie serwisy pornograficzne (ale i tak można na nich znaleźć dużo filmów tego typu). Mimo to pojawiało się ich coraz więcej w necie. Skarżyła się na to m.in. Scarlett Johansson, szczególnie często będąca obiektem tego rodzaju „twórczości”.

""

Deepfake może przybrać postać niewinnej zabawy jak to skrzyżowanie znanych aktorów Sharon Stone ze Stevem Buscemi, ale też przybrać niebezpieczne formy,YouTube

cyfrowa.rp.pl

Głębokie fałszywki są również wykorzystywane do celów politycznych, satyrycznych oraz edukacyjnych. Grupa naukowców stworzyła m.in. wygenerowane przez sztuczną inteligencję telewizyjne przemówienie byłego prezydenta USA Baracka Obamy poświęcone zagrożeniom związanym z… technologią deepfake. Spektakularnym przykładem zastosowania tej technologii był również film, na którym zastąpiono twarz niemieckiej kanclerz Angeli Merkel wizerunkiem prezydenta USA Donalda Trumpa.

„Washington Post” opisał niedawno historię kobiety, która stała się celem szantażu z użyciem deepfake. Jej twarz wklejono do filmu porno i zagrożono, że ta fałszywka zostanie wysłana do jej rodziny i kolegów z pracy

W styczniu 2019 r. telewizja KCPQ w złośliwy sposób wykorzystała technologię deepfake przeciwko Trumpowi, modyfikując jego wygląd podczas przemówienia z Białego Domu. Po tegorocznej ceremonii rozdania nagród Złotych Globów pojawił się natomiast w sieci deepfake, w którym cyfrowo doklejono twarz aktora Steve’a Buscemiego do ciała aktorki Jennifer Lawrence. – Nigdy nie wyglądałem lepiej. Smuci mnie jednak, że ktoś musiał nad tym spędzić dużo czasu, bo założę się, że trudno coś takiego zrobić – skomentował to Buscemi.

Narzędzie szantażu

Głębokie fałszywki są też wykorzystywane do celów kryminalnych. „Washington Post” opisał niedawno historię kobiety, która stała się celem szantażu z użyciem deepfake. Jej twarz wklejono do filmu porno i zagrożono, że ta fałszywka zostanie wysłana do jej rodziny i kolegów z pracy. Do stworzenia tej fałszywki program wykorzystał zaledwie 450 zdjęć tej kobiety dostępnych na portalach społecznościowych.

Jedna z dziennikarek śledczych w Indiach stała się ofiarą kampanii zniesławiającej z udziałem głębokich fałszywek. Istnieją fora, gdzie można zlecić stworzenie tego typu filmów. Czasem kosztuje to zaledwie 20 dolarów.

IT

W ostatnich latach wielokrotnie zdarzało się, że politycy w różnych krajach wpadali w kłopoty z powodu wyjścia na jaw nagrań ich poufnych rozmów. Czasem kwestionowali autentyczność nagrań lub tłumaczyli, że ich słowa zostały wyrwane z kontekstu, ale zazwyczaj mało kto im wierzył. A co, gdyby nagle zaczęły wychodzić na jaw nagrania filmowe pokazujące prominentnych polityków w bardzo kompromitujących sytuacjach (np. podczas molestowania seksualnego dzieci lub w trakcie satanistycznych obrzędów), a oni nieporadnie tłumaczyliby, że to fałszerstwa i co więcej mieliby 100 proc. rację?

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
IT
Telegram padł w Rosji. Ucierpiały główne miasta
IT
Zamrożona sztuka. Polskie dzieła trafiają do Światowego Archiwum Arktycznego
IT
Nie zjadajmy oszczędności – AI w biurach rachunkowych
IT
Hakerzy zaatakowali znaną polską firmę odzieżową. Wyciekły ważne dane
IT
Google usuwa konta. Chodzi m.in. o Gmail. Jak tego uniknąć?