Z tego artykułu dowiesz się:
- Jak sztuczna inteligencja zmienia oblicze oszustw telefonicznych, czyniąc je psychologicznymi atakami.
- W jaki sposób technologia klonowania głosu potrafi imitować barwę, intonację i emocje, podszywając się pod bliskie osoby.
- Czym współczesne oszustwa głosowe różnią się od tradycyjnych schematów, takich jak oszustwo „na wnuczka”.
- Jakie praktyczne kroki można podjąć, aby chronić się przed atakami deepfake’owymi.
Kris Sampson pracowała z domu w Montanie, gdy na ekranie jej telefonu wyświetliło się zdjęcie i imię dorosłej córki. Po odebraniu usłyszała przerażony płacz. „To był jej głos. Znam ten dźwięk” – wspomina Sampson w rozmowie z CNBC. Chwilę później do rozmowy włączył się agresywny mężczyzna, żądając pieniędzy przez PayPal i grożąc śmiercią dziewczyny. Choć Sampson słyszała wcześniej o podobnych oszustwach, realizm głosu córki mówiącej „mamo” sprawił, że sparaliżował ją strach. Dopiero po 20 minutach udało się potwierdzić, że córka jest bezpieczna w pracy. Tożsamości sprawcy nigdy nie ustalono.
Przypadek Sampson nie jest odosobniony. w Arizonie (USA) w 2023 roku doszło do niemal identycznej sytuacji jak u Sampson – Jennifer DeStefano usłyszała głos „porwanej” córki Brianny. Oszuści żądali miliona dolarów okupu. Matka była przekonana o autentyczności nagrania, dopóki nie skontaktowała się z córką przebywającą na obozie narciarskim.
Czytaj więcej
Hakerzy wykorzystują śmierć papieża i atakują. Publikują fałszywe treści i zdjęcia deepfake, aby skłonić internautów do kliknięcia w link. Eksperci...
deepfakePolska też nie jest wolna od tej plagi. W 2024 roku głośnym echem odbiła się sprawa mieszkanki Krakowa, która otrzymała telefon od „syna” twierdzącego, że spowodował śmiertelny wypadek. Oszuści wykorzystali technologię klonowania głosu, by oddać drżenie i specyficzną barwę głosu mężczyzny, co skłoniło kobietę do przekazania „kurierowi” 50 tys. zł.
Przy nowej technologii dotychczasowe oszustwa „na wnuczka”, których ofiarą padają starsze osoby, wyszukiwane w książkach telefonicznych, mogą się wydawać wyjątkowo prymitywnym procederem. Przestępca dzwoni do ofiary, podszywając się pod członka rodziny lub – w nowszych wariantach – pod policjanta. Nie pozwala ofierze się rozłączyć ani zweryfikować informacji, twierdząc, że pieniądze są potrzebne „na już”, by uniknąć więzienia lub zapłacić za operację. Często oszuści proszą ofiarę o wybranie numeru 911/112 bez rozłączania się, by potwierdzić tożsamość policjanta – w rzeczywistości ofiara wciąż rozmawia z tym samym oszustem (lub jego wspólnikiem), który po prostu zmienia głos. Teraz, za sprawą AI, ofiarą może już paść każdy.
AI podrobi głos po trzech sekundach nagrania
To, co zmieniło się w ostatnich latach, to poziom wyrafinowania. Według Federalnej Komisji Handlu (FTC) oszustwa polegające na podszywaniu się były w ubiegłym roku najczęściej zgłaszanym nadużyciem. Liczba przypadków wzrosła o 19 proc. w 2025 r., a straty przekroczyły 3,5 mld dol.
Ian Bednowitz z firmy LifeLock twierdzi, że oszustwa głosowe zmieniają sposób, w jaki korzystamy z telefonów. Przez dekady znajomy dzwonek i numer były sygnałem zaufania. Dziś to założenie jest martwe. Narzędzia do klonowania głosu potrafią działać na próbkach trwających zaledwie trzy sekundy, które oszuści pozyskują z filmów na Instagramie, TikToku czy nagrań poczty głosowej.
Czytaj więcej
Firma, która stoi za Facebookiem, zaczęła wprowadzać nowe zastosowania dla technologii rozpoznawania twarzy. Swoje nietypowe rozwiązanie wykorzysta...
Eksperci ds. cyberbezpieczeństwa ostrzegają przed tzw. Vishingiem (Voice Phishing). Nowoczesne modele generatywne, takie jak te rozwijane przez start-upy w Azji, potrafią nie tylko naśladować barwę głosu, ale też intonację i emocje: panikę, zadyszkę czy płacz. Co gorsza, przestępcy korzystają z „spoofingu” – techniki pozwalającej na podrobienie numeru wyświetlanego na ekranie ofiary. Nawet jeśli ofiara ataku ma zapisaną córkę w kontaktach jako „Kasia”, telefon wyświetli to imię, mimo że połączenie przychodzi z serwera w innym kraju.
Fabryki oszustw działają jak korporacje
Bednowitz podkreśla, że proceder stał się „uprzemysłowiony”. Zorganizowane sieci w Azji Południowo-Wschodniej i Afryce funkcjonują jak regularne korporacje z działami HR, skryptami rozmów i targetami sprzedażowymi. Często sami pracownicy tych „call center” są ofiarami handlu ludźmi, zmuszanymi do oszukiwania pod groźbą przemocy.
Prawdziwe zagrożenie czai się jednak w pełnej automatyzacji. W 2025 r. naukowiec Sanket Badhe z Rutgers University stworzył system AI zdolny do autonomicznego prowadzenia oszukańczych rozmów. AIgorytm sam wybiera ofiarę, klonuje głos bliskiej osoby i reaguje na odpowiedzi w czasie rzeczywistym, naśladując emocje i potrafi wyłudzić dane lub pieniądze. W całym procesie nie uczestniczył żaden człowiek. Gdy koszty mocy obliczeniowej spadną, będziemy świadkami milionów takich rozmów wykonywanych jednocześnie przez boty.
Czytaj więcej
Coraz więcej młodych ludzi, w tym nastolatków poniżej 16. roku życia, pomaga przy oszustwach metodą „na wnuczka” i „na legendę”. Według ustaleń Rad...
Najbardziej spektakularnym przykładem wykorzystania tej technologii był atak na menedżera banku w Hongkongu w 2020 roku. Przestępcy użyli technologii deepfake głosowego, aby podszyć się pod dyrektora firmy i nakazać przelew 35 mln dol. na „zakup nowej spółki”. Menedżer, rozpoznając głos swojego szefa, bez wahania autoryzował transakcję. To pokazuje, że ofiarami nie są tylko starsze osoby, ale też profesjonaliści z sektora finansowego.
Jak bronić się przed deepfake’owym telefonem?
Michael Bruemmer z Experian w rozmowie z CNBC sugeruje zasadę „JDA” (Just Don’t Answer) – po prostu nie odbieraj telefonu od nieznanych numerów. Ale co zrobić, gdy wyświetla się numer bliskiej osoby? Eksperci rekomendują stworzenie „rodzinnego hasła”, np. „Fioletowy Słoń”, które należy podać w sytuacji zagrożenia. Jeśli dzwoniący „syn” go nie zna, jest oszustem. Można zadać pytanie kontrolne, na które AI nie znajdzie odpowiedzi w sieci (np. „Jak nazywał się nasz pierwszy pies?”).
Inny sposób to weryfikacja dwukanałowa. W przypadku takiego połączenia, należy się rozłączyć się i natychmiast próbować zadzwonić do danej osoby na komunikator (np. WhatsApp) lub skontaktować się z jej miejscem pracy. Można ograniczyć zagrożenie, unikając publikowania nagrań, np. w mediach społecznościowych, na których słychać czysty głos przez dłuższy czas. To zaproszenie do kradzieży.
Czytaj więcej
Globalna firma zajmująca się projektowaniem i inżynierią stała się celem oszustwa typu deepfake, w wyniku, którego jeden z jej pracowników w Hongko...
Kris Sampson i jej rodzina korzystają obecnie z hasła bezpieczeństwa. – Jestem zdeterminowana, by nagłośnić ten problem… żeby żadna inna matka nie musiała przeżyć tego paraliżującego strachu – kończy swoją historię. W świecie, w którym AI potrafi idealnie podrobić miłość i przerażenie, naszą jedyną bronią pozostaje zdrowy sceptycyzm wobec tego, co słyszymy w słuchawce.
O ile oszukujących „na wnuczka” udaje się czasem schwytać, to z AI jest już większy problem. Obecnie prawo nie nadąża za technologią. Ściganie sprawców z innych kontynentów jest niemal niemożliwe. Eksperci apelują do operatorów telekomunikacyjnych o wdrożenie standardów STIR/SHAKEN (protokołów, które pozwalają operatorom potwierdzić, że numer widoczny na wyświetlaczu jest faktycznym źródłem połączenia, co ukróciłoby proceder spoofingu) na szerszą skalę, co pozwoliłoby skuteczniej weryfikować autentyczność numeru dzwoniącego. w Polsce również trwają prace nad ustawą o zwalczaniu nadużyć w komunikacji elektronicznej, która nakłada na operatorów obowiązek blokowania fałszywych SMS-ów i połączeń (spoofingu).
Jedno już wiemy na pewno. Czasy, gdy głos w telefonie musiał należeć do jego właściciela, bezpowrotnie się skończyły.