Oszustwa na wnuczka po nowemu. ChatGPT pomoże przestępcom

Możliwość łatwego preparowania dowolnego głosu i obrazu przez coraz powszechniejszą sztuczną inteligencję daje narzędzie do przestępstw na niespotykaną skalę.

Aktualizacja: 27.03.2023 10:32 Publikacja: 22.03.2023 01:17

Podszywanie się pod wnuczka jest metodą oszustów w wielu krajach, także w Polsce i teraz może być wy

Podszywanie się pod wnuczka jest metodą oszustów w wielu krajach, także w Polsce i teraz może być wyjątkowo skuteczne

Foto: AdobeStock

Wystarczy próbka głosu z TikToka czy YouTube, nagranej rozmowy telefonicznej, a nawet zdjęcie z Facebooka, by paść ofiarą przestępstwa. AI jest w stanie odtworzyć nie tylko głos, ale wypowiedzieć dowolne słowa lub zdania. Inwencja zależy od tego, co użytkownik takiego oprogramowania wpisze na klawiaturze komputera.

Klonowanie głosu, technologia sztucznej inteligencji, która pozwala użytkownikom naśladować czyjś głos, była do tej pory używana tylko do naśladowania gwiazd Hollywood, np. w przypadku ich śmierci w trakcie trwania filmu czy utraty głosu. Jednak teraz eksperci ostrzegają, że oszuści mogą wykorzystać nowe możliwości do osiągnięcia korzyści finansowych.

- Ludzie wkrótce będą mogli korzystać z narzędzi takich jak ChatGPT, a nawet Bing czy Google, aby tworzyć głosy, które brzmią bardzo podobnie do ich głosu, używać ich intonacji, oddawać nastrój - powiedziała CTV News Marie Haynes, ekspert ds. sztucznej inteligencji, założycielka firmy MHC. - I będzie bardzo, bardzo trudno odróżnić od rzeczywistej żywej osoby.

Czytaj więcej

„Trochę się boimy”. Opracował ChatGPT, a teraz ostrzega

Marie Haynes dodała, że nawet rozmowy wideo nie są bezpieczne, ponieważ sztuczna inteligencja jest dziś wystarczająco potężna, aby sklonować czyjąś twarz. - Korzystanie z tej nikczemnej technologii będzie się tylko rozprzestrzeniać – ostrzegła ekspertka.

Carmi Levy, niezależny analityk technologiczny, ostrzega, że technologia ta pozwala teraz oszustom nawet podszyć się pod numery telefonów rodziny i przyjaciół. To posunie przestępstwa o krok dalej, pozwalając przekonać ofiary, że połączenie pochodzi od osoby, pod którą się podszywają.

Aby uniknąć wyłudzenia należy – radzi ekspert –po otrzymaniu podejrzanego połączenia należy natychmiast się rozłączyć i zadzwonić do osoby, która rzekomo dzwoniła.

- Jeśli dostaniesz telefon i brzmi to trochę nie tak, pierwszą rzeczą, którą powinieneś zrobić, to powiedzieć: „Okey, bardzo dziękuję za poinformowanie mnie. Zadzwonię do mojego wnuka, do mojej wnuczki, do kogokolwiek, o kim mi mówisz, że ma kłopoty. Potem rozłącz się i zadzwoń do nich - zauważył.

Podszywanie się pod wnuczka jest metodą oszustów w wielu krajach, także w Polsce i teraz może być wyjątkowo skuteczne. Bo też dziadek rzeczywiście usłyszy głos swojego wnuczka i do tego odbierze telefon z jego numeru. Oszust nie musi udawać, że jest chory i dlatego jego głos brzmi inaczej. Zwykle rzekomy wnuczek potrzebuje pieniędzy na okazjonalny zakup samochodu czy mieszkania lub – tu oszuści są wyjątkowo bezczelni – na pilną pomoc w wypadku np. drogowym dla rodziny ofiar.

Czytaj więcej

ChatGPT udawał niewidomego. Sprytny, szalony, groźny

Teraz łatwo będzie nabrać nie tylko osoby starsze, ale i obeznane z technologią i dysponujące wielkimi sumami. Pokazuje to głośna historia z 2019 r., gdy jeden z brytyjskich menedżerów, słysząc głos szefa niemieckiej firmy, w której pracował, przelał na jego prośbę ze służbowego konta 260 tys. dol. Okazało się, że głos sfałszowali przestępcy.

Ale to nie koniec zagrożeń. Banki na całym świecie uważają identyfikację głosową klientów za całkowicie bezpieczny sposób logowania się na konto. Np. na stronie internetowej Lloyds Banku można przeczytać: „Twój głos jest jak twój odcisk palca i jest dla ciebie unikalny. Voice ID analizuje ponad 100 różnych cech twojego głosu, podobnie jak w przypadku twojego odcisku palca. Dotyczy to na przykład sposobu, w jaki używasz ust i strun głosowych, twojego akcentu i szybkości mówienia. Rozpoznaje cię nawet wtedy, gdy jesteś przeziębiony lub boli cię gardło”. Dziennikarz portalu „Vice” pokazał właśnie, że to już przeszłość. Przy pomocy sztucznej inteligencji dostał się na konta w kilku bankach, odtwarzając wcześniej ściągnięty plik audio. Eksperci już teraz apelują do banków o całkowite wycofanie uwierzytelniania głosowego.

Wystarczy próbka głosu z TikToka czy YouTube, nagranej rozmowy telefonicznej, a nawet zdjęcie z Facebooka, by paść ofiarą przestępstwa. AI jest w stanie odtworzyć nie tylko głos, ale wypowiedzieć dowolne słowa lub zdania. Inwencja zależy od tego, co użytkownik takiego oprogramowania wpisze na klawiaturze komputera.

Klonowanie głosu, technologia sztucznej inteligencji, która pozwala użytkownikom naśladować czyjś głos, była do tej pory używana tylko do naśladowania gwiazd Hollywood, np. w przypadku ich śmierci w trakcie trwania filmu czy utraty głosu. Jednak teraz eksperci ostrzegają, że oszuści mogą wykorzystać nowe możliwości do osiągnięcia korzyści finansowych.

Pozostało 85% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
IT
Polska liderem rozwoju IT w Europie. Kto jest najbardziej poszukiwany
IT
Pracownicy IT z mniejszym wzięciem i zagrożeni przez AI. Ciężki los juniora
IT
Brytyjski gigant oszukany na ogromne sumy. Stworzyli fałszywego dyrektora finansowego
IT
Polskie paradoksy dostosowań do unijnej dyrektywy
IT
Lawinowo przybywa programistów na swoim. Mają bardzo niepewną przyszłość
Materiał Promocyjny
CERT Orange Polska: internauci korzystają z naszej wiedzy