Fałszywe treści zalewają internet z mocą, z jaką nigdy wcześniej nie mieliśmy do czynienia. Dziś zapanowanie nad rosnącą skalą dezinformacji w sieci, tworzonej za pomocą zaawansowanych narzędzi sztucznej inteligencji, wydaje się wręcz niemożliwe – odbiorcy nie mają praktycznie możliwości, by określić, czy treści, które widzą online, są rzeczywistością. Tymczasem filmy oraz zdjęcia generowane przez AI (tzw. deepfake) czy klony głosu prawdziwych osób mogą zachwiać nie tylko życiem jednostki, ale wręcz całymi przedsiębiorstwami, a nawet państwami.
Broń cyberprzestępców
O tym, że nie są to obawy na wyrost, może świadczyć historia, którą ujawniło CNN. Chodzi o pracownika międzynarodowej firmy odpowiedzialnego za jej finanse, który został oszukany na kwotę 25 mln dol. Pieniądze wyłudzili od niego oszuści, którzy za pomocą technologii deepfake podszyli się pod jednego z dyrektorów przedsiębiorstwa. Choć wcześniej wysłany e-mail w sprawie przelewu wzbudził wątpliwości ofiary, to już połączenie wideokonferencyjne, które miało potwierdzić autentyczność polecenia służbowego, przekonało pracownika do przeprowadzenia transakcji. Na ekranie zobaczył bowiem swoich kolegów, którzy okazali się być jedynie cyfrowo wygenerowanym przez AI obrazem. Eksperci ostrzegają, iż podobnych incydentów będzie przybywać.
Czytaj więcej
Koncern Meta zapowiada oznaczanie treści wygenerowanych przez sztuczną inteligencję na Instagramie, Facebooku i w serwisie społecznościowym Threads. To m.in. odpowiedź na zalew fałszywek, których ofiarami padli niedawno Joe Biden czy Taylor Swift.
– AI jest obecnie zarówno szansą, jak i zagrożeniem – przyznaje Marcin Spychała z firmy HCL Software. I wskazuje, że sztuczna inteligencja może być wykorzystywana przez przestępców do tworzenia bardziej zaawansowanych ataków, jak choćby właśnie obrazy typu deepfake.
Ale spreparowany może być też głos. Jak zauważa Kamil Sadkowski, analityk firmy Eset, głos sklonowany przez AI jest wystarczająco przekonujący, by oszukać nawet najbliższych członków rodziny.