Spreparowane wystąpienia angielskiej królowej Elżbiety II i przedstawicieli rządów innych państw, sfabrykowane komunikaty służbowe czy filmy dla dorosłych wykorzystujące zmontowane wizerunki gwiazd Hollywood – to tylko niektóre z zastosowań techniki obróbki obrazu powszechnie znanej jako deepfake. Coraz częściej jest ona wykorzystywana również do przeprowadzania cyberataków. Analitycy ostrzegają, że ta technologia zafałszowywania rzeczywistości może zrewolucjonizować skalę zagrożeń w sieci. – Obecnie tworzone filmy trudno odróżnić od oryginału, a cyberprzestępcy z pewnością będą wykorzystywać udoskonalone techniki, by atakować firmy i osoby prywatne – przekonują eksperci z firmy Eset.
Fake news może wpływać na wybory
Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W efekcie mogą powstać np. filmy z udziałem dowolnej osoby, która z jego nagraniem nie miała nic wspólnego, a widzowie nie będą w stanie odróżnić oryginalnego nagrania od fałszywki. Od 2017 r., kiedy deepfake pojawiły się po raz pierwszy, ich popularność zdecydowanie wzrosła. Jak tłumaczy Kamil Sadkowski, specjalista cyberbezpieczeństwa w Eset, materiały stworzone z użyciem tej technologii mogą mieć charakter pozytywny, choćby rozrywkowy czy edukacyjny (np. w formie spotkania „na żywo” i rozmowy z Salvadorem Dali w ramach wystawy multimedialnej), albo przybrać postać negatywną, w tym dezinformacyjną czy dyskredytacyjną, której celem jest ośmieszanie lub atak na osoby publiczne, instytucje, państwa.
CZYTAJ TAKŻE: Nowa broń przestępców. Przemówią sklonowanym głosem
Niestety, fake newsy stają się coraz powszechniejszym zagrożeniem i wkrótce będą naszą codziennością, a odróżnienie fałszywych treści od rzeczywistości okaże się bardzo trudne. Przykładem jest wideo z przemówieniem Baracka Obamy, które w krótkim czasie ukazało się na wielu portalach internetowych. Film z wypowiedzą byłego prezydenta dotyczył, nomen omen, zagrożeń, jakie mogą spowodować dezinformacja i fałszywe wiadomości publikowane w sieci. Głos podłożył aktor Jordan Peele, ale obecnie sztuczna inteligencja jest w stanie generować dźwięk mowy dowolnej osoby na podstawie archiwalnych nagrań. – Tak zaawansowana technologia może się stać w przyszłości niebezpiecznym narzędziem w rękach cyberprzestępców i oszustów internetowych. Publikowanie filmów z rzekomych wystąpień ważnych polityków może powodować realne szkody na szczeblu polityki międzynarodowej. Deepfake może się przyczynić do powstawania konfliktów i skandali dyplomatycznych, a przez to wpływać na opinie i zachowania społeczne. Filmy z wykorzystaniem deepfake publikowane w czasie trwania kampanii wyborczych mogą się z kolei przełożyć na wyniki wyborów – ocenia Sadkowski.
Potrzebne regulacje i duża doza krytycyzmu
Dominika Kaczorowska-Spychalska, dyrektor Centrum Mikser Inteligentnych Technologii na Wydziale Zarządzania Uniwersytetu Łódzkiego, wskazuje, iż groźba wykorzystania tej technologii jako narzędzia manipulacji w polityce, dyskredytacji konkurencyjnych marek, cyberprzestępstwach, zwłaszcza kradzieży tożsamości i pornografii, oraz w sabotażu czy hybrydowych atakach terrorystycznych jest olbrzymia.