Sztuczna inteligencja zrobi z tobą film porno

Aktorka Scarlett Johansson to jedna z najczęstszych ofiar tego procederu
Bloomberg

Technologia pozwalająca na tworzenie filmów deepfake to kolejny powód, by przestać ślepo wierzyć w to, co widzimy w internecie.

W ostatnich latach wielokrotnie zdarzało się, że politycy w różnych krajach wpadali w kłopoty z powodu wyjścia na jaw nagrań ich poufnych rozmów. Czasem kwestionowali autentyczność nagrań lub tłumaczyli, że ich słowa zostały wyrwane z kontekstu, ale zazwyczaj mało kto im wierzył. A co, gdyby nagle zaczęły wychodzić na jaw nagrania filmowe pokazujące prominentnych polityków w bardzo kompromitujących sytuacjach (np. podczas molestowania seksualnego dzieci lub w trakcie satanistycznych obrzędów), a oni nieporadnie tłumaczyliby, że to fałszerstwa i co więcej mieliby 100 proc. rację?

Jest już dostępna technologia umożliwiająca tworzenie sztucznych obrazów filmowych przedstawiających realnie istniejących ludzi

Taki scenariusz staje się coraz bardziej realny. Jest już dostępna technologia umożliwiająca tworzenie sztucznych obrazów filmowych przedstawiających realnie istniejących ludzi. Tego typu filmy tworzone przez programy komputerowe są nazywane głębokimi fałszywkami (deepfake) i znane są przypadki, gdy były one wykorzystane przez cyberprzestępców do celów szantażu.

Fałszywa Scarlett Johansson

Głębokie fałszywki pojawiły się po raz pierwszy w 2017 r. Wówczas jeden z użytkowników portalu społecznościowego Reddit, posługujący się pseudonimem „Deepfakes”, zamieścił w nim serię filmów pornograficznych z udziałem popularnych aktorek i piosenkarek takich jak: Gal Gadot, Scarlett Johansson, Emma Watson, Katy Perry czy Taylor Swift. Wszystkie te filmy zostały stworzone za pomocą sztucznej inteligencji. Twarze celebrytek zostały tam wmontowane przez program, który przeanalizował wcześniej tysiące ich zdjęć.

CZYTAJ TAKŻE: Cyberprzestępcy sięgają po sztuczną inteligencję

Technologia ta była wówczas jeszcze daleka od doskonałości, więc internetowi maniacy szybko wykryli w tych filmikach drobne anomalie (np. to że ich bohaterki nie mrugały. Rzadko kiedy można bowiem znaleźć zdjęcia celebrytek, na których mają one zamknięte oczy). W grudniu 2017 r. jako pierwszy o fenomenie deepfake’ów napisał serwis „Vice”. W styczniu 2018 r. pojawiła się na rynku aplikacja pozwalająca w prosty sposób stworzyć własnego, mało skomplikowanego deepfake’a.

Zamieszczanie głębokich fałszywek zostało zakazane przez wiele serwisów internetowych m.in. Reddit i Twitter. Zakazały jej również niektóre wielkie serwisy pornograficzne (ale i tak można na nich znaleźć dużo filmów tego typu). Mimo to pojawiało się ich coraz więcej w necie. Skarżyła się na to m.in. Scarlett Johansson, szczególnie często będąca obiektem tego rodzaju „twórczości”.

Deepfake może przybrać postać niewinnej zabawy jak to skrzyżowanie znanych aktorów Sharon Stone ze Stevem Buscemi, ale też przybrać niebezpieczne formy,
YouTube

Głębokie fałszywki są również wykorzystywane do celów politycznych, satyrycznych oraz edukacyjnych. Grupa naukowców stworzyła m.in. wygenerowane przez sztuczną inteligencję telewizyjne przemówienie byłego prezydenta USA Baracka Obamy poświęcone zagrożeniom związanym z… technologią deepfake. Spektakularnym przykładem zastosowania tej technologii był również film, na którym zastąpiono twarz niemieckiej kanclerz Angeli Merkel wizerunkiem prezydenta USA Donalda Trumpa.

„Washington Post” opisał niedawno historię kobiety, która stała się celem szantażu z użyciem deepfake. Jej twarz wklejono do filmu porno i zagrożono, że ta fałszywka zostanie wysłana do jej rodziny i kolegów z pracy

W styczniu 2019 r. telewizja KCPQ w złośliwy sposób wykorzystała technologię deepfake przeciwko Trumpowi, modyfikując jego wygląd podczas przemówienia z Białego Domu. Po tegorocznej ceremonii rozdania nagród Złotych Globów pojawił się natomiast w sieci deepfake, w którym cyfrowo doklejono twarz aktora Steve’a Buscemiego do ciała aktorki Jennifer Lawrence. – Nigdy nie wyglądałem lepiej. Smuci mnie jednak, że ktoś musiał nad tym spędzić dużo czasu, bo założę się, że trudno coś takiego zrobić – skomentował to Buscemi.

Narzędzie szantażu

Głębokie fałszywki są też wykorzystywane do celów kryminalnych. „Washington Post” opisał niedawno historię kobiety, która stała się celem szantażu z użyciem deepfake. Jej twarz wklejono do filmu porno i zagrożono, że ta fałszywka zostanie wysłana do jej rodziny i kolegów z pracy. Do stworzenia tej fałszywki program wykorzystał zaledwie 450 zdjęć tej kobiety dostępnych na portalach społecznościowych.

Jedna z dziennikarek śledczych w Indiach stała się ofiarą kampanii zniesławiającej z udziałem głębokich fałszywek. Istnieją fora, gdzie można zlecić stworzenie tego typu filmów. Czasem kosztuje to zaledwie 20 dolarów.

Tagi:

Mogą Ci się również spodobać

Rząd chce sięgnąć do kieszeni Ubera

Wkrótce do Sejmu ma trafić projekt ustawy, która zmusi operatorów aplikacji łączących pasażerów z ...

Składane ekrany to rewolucja. Po Samsungu wprowadzą je inni producenci

Galaxy Fold jest nieporęczny, brzydki i drogi. Mimo to najnowszy sprzęt Samsunga stanowi przełom ...

Polacy polubili aplikacje do wynajmu pojazdów

Współdzielenie różnych środków transportu to globalny trend, który opanowuje miasta, również w Polsce. Coraz ...

Jesteś dobry w gry wideo? Możesz zarabiać krocie

Młodzieży nie chce się już nawet grać. Wolą oglądać, jak kto inny to robi. ...

„Jadł tylko to, co osobiście zabił”. Prezes Twittera wspomina obiad z Zuckerbergiem

Szefowie największych mediów społecznościowych mieli unikalne przeżycie kulinarne. Szef Twittera Jack Dorsey długo będzie ...

Biznes poznaje wielką moc cyfrowej rozrywki

Największe światowe marki biorą się do sponsoringu imprez gamingowych. Potencjał tego rynku doceniły m.in. ...