Spreparowane wystąpienia angielskiej królowej Elżbiety II i przedstawicieli rządów innych państw, sfabrykowane komunikaty służbowe czy filmy dla dorosłych wykorzystujące zmontowane wizerunki gwiazd Hollywood – to tylko niektóre z zastosowań techniki obróbki obrazu powszechnie znanej jako deepfake. Coraz częściej jest ona wykorzystywana również do przeprowadzania cyberataków. Analitycy ostrzegają, że ta technologia zafałszowywania rzeczywistości może zrewolucjonizować skalę zagrożeń w sieci. – Obecnie tworzone filmy trudno odróżnić od oryginału, a cyberprzestępcy z pewnością będą wykorzystywać udoskonalone techniki, by atakować firmy i osoby prywatne – przekonują eksperci z firmy Eset.

Fake news może wpływać na wybory

Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W efekcie mogą powstać np. filmy z udziałem dowolnej osoby, która z jego nagraniem nie miała nic wspólnego, a widzowie nie będą w stanie odróżnić oryginalnego nagrania od fałszywki. Od 2017 r., kiedy deepfake pojawiły się po raz pierwszy, ich popularność zdecydowanie wzrosła. Jak tłumaczy Kamil Sadkowski, specjalista cyberbezpieczeństwa w Eset, materiały stworzone z użyciem tej technologii mogą mieć charakter pozytywny, choćby rozrywkowy czy edukacyjny (np. w formie spotkania „na żywo” i rozmowy z Salvadorem Dali w ramach wystawy multimedialnej), albo przybrać postać negatywną, w tym dezinformacyjną czy dyskredytacyjną, której celem jest ośmieszanie lub atak na osoby publiczne, instytucje, państwa.

CZYTAJ TAKŻE: Nowa broń przestępców. Przemówią sklonowanym głosem

Niestety, fake newsy stają się coraz powszechniejszym zagrożeniem i wkrótce będą naszą codziennością, a odróżnienie fałszywych treści od rzeczywistości okaże się bardzo trudne. Przykładem jest wideo z przemówieniem Baracka Obamy, które w krótkim czasie ukazało się na wielu portalach internetowych. Film z wypowiedzą byłego prezydenta dotyczył, nomen omen, zagrożeń, jakie mogą spowodować dezinformacja i fałszywe wiadomości publikowane w sieci. Głos podłożył aktor Jordan Peele, ale obecnie sztuczna inteligencja jest w stanie generować dźwięk mowy dowolnej osoby na podstawie archiwalnych nagrań. – Tak zaawansowana technologia może się stać w przyszłości niebezpiecznym narzędziem w rękach cyberprzestępców i oszustów internetowych. Publikowanie filmów z rzekomych wystąpień ważnych polityków może powodować realne szkody na szczeblu polityki międzynarodowej. Deepfake może się przyczynić do powstawania konfliktów i skandali dyplomatycznych, a przez to wpływać na opinie i zachowania społeczne. Filmy z wykorzystaniem deepfake publikowane w czasie trwania kampanii wyborczych mogą się z kolei przełożyć na wyniki wyborów – ocenia Sadkowski.

Potrzebne regulacje i duża doza krytycyzmu

Dominika Kaczorowska-Spychalska, dyrektor Centrum Mikser Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego, wskazuje, iż groźba wykorzystania tej technologii jako narzędzia manipulacji w polityce, dyskredytacji konkurencyjnych marek, cyberprzestępstwach, zwłaszcza kradzieży tożsamości i pornografii, oraz w sabotażu czy hybrydowych atakach terrorystycznych jest olbrzymia.

Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe

– I chociaż deepfake właściwie wykorzystany w celach naukowych, edukacyjnych i rozrywkowych może działać na naszą korzyść, to obawa, że jego negatywny wymiar będzie jednak bardziej atrakcyjny i lukratywny dla twórców, staje się realna. Stawia to wiele pytań w toczącej się dyskusji o etyce technologii, ochronie naszych praw podstawowych i odpowiedzialności. Im technologia deepfake będzie bardziej powszechna i doskonała, tym ryzyko, że w końcu zatracimy, jako ludzie, chęć i umiejętność rozróżniania prawdy od fałszu, ślepo akceptując lub negując każdą konsumowaną informację, jest większe – komentuje dr Kaczorowska-Spychalska.

Jak zaznacza, szkoda byłoby, gdybyśmy dopiero wtedy zrozumieli, że do rozwiązania tego problemu nie wystarczą nam regulacje prawne czy programy do weryfikacji autentyczności materiałów.

CZYTAJ TAKŻE: Deepfake podbija pornografię. Zmanipulowane filmy z gwiazdami

– Równie ważny jest nasz krytycyzm wobec tego, co oglądamy, i odpowiedzialność za to, co udostępniamy w sieci – tłumaczy nasza rozmówczyni.

Jak dodaje Krzysztof Kuźmicz, medioznawca z Akademii Leona Koźmińskiego, wybierając się na wojnę z deepfakiem, nie jesteśmy bezbronni. – Dysponujemy oprogramowaniem umożliwiającym detekcję i oznaczanie fałszywych treści, które, podobnie jak w przypadku tworzenia deepfake’ów, wykorzystuje algorytmy i duże zbiory danych oraz uczenie maszynowe. Pomocne w tej walce są także media społecznościowe i spółki technologiczne, które na swych platformach i w aplikacjach stosują autorskie technologie do wykrywania fałszywych treści wideo – podkreśla.