Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Możliwości sztucznej inteligencji rosną w zawrotnym tempie – skopiowanie dowolnego dźwięku, w tym wybranego ludzkiego głosu, nie jest już problemem. Brytyjski bank ostrzega przed ogromnym zagrożeniem.

Publikacja: 21.09.2024 13:13

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pożyczkodawca działający wyłącznie online ostrzega, że do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych. Spreparowane na tej podstawie nagranie może zostać użyte choćby do wyciągnięcia pieniędzy od znajomych, czy członków rodziny ofiary. Podszywając się pod daną osobę oszuści mogą bowiem np. w rozmowie telefonicznej prosić o pilne wsparcie finansowe i przelew na wskazany numer konta. Starling Bank przekonuje, iż na tego typu triki złapać może się wielu z nas. „Miliony osób może paść ofiarą oszustów” – podała instytucja w specjalnie wydanym komunikacie.

Czytaj więcej

„Zła” sztuczna inteligencja mnoży się jak szalona. Podszyje się, oszuka, okradnie

Zresztą już teraz ta nowatorska metoda jest już coraz szerzej wykorzystywana. Z badań Mortar Research wynika, iż tylko w zeszłym miesiącu ofiarą takiego niecodziennego procederu klonowania głosu na Wyspach ofiarą padło ponad 3 tys. osób. Z takimi próbami ataku z wykorzystaniem AI zetknąć się miał w ciągu ostatniego roku co czwarty z badanych. Jednocześnie blisko połowa ankietowanych nie była świadoma, że istnieje taki model tzw. scamu.

Wyłudzanie danych, czy pieniędzy przez przestępców podszywających się pod inną osobę, w tym bliskich, nie jest niczym nowym. Zaprzęgnięcie do tego sztucznej inteligencji to już jednak wyższy poziom wyrafinowania niż tzw. metoda na wnuczka. Specjaliści ze Starling Bank twierdzą, iż łatwo paść ofiarą „kradzieży” głosu, bo sami często umieszczamy materiały audio i wideo w sieci.

Oszuści kradną głos i pieniądze

Jak zatem bronić się przed tak zaawansowany „scamem”? Eksperci wskazują, że nie należy zbyt wiele publikować na swój temat online, a co więcej radzą, by ustalić tzw. bezpieczną frazę w kontaktach ze znajomymi i bliskimi. Chodzi o rodzaj hasła, czy zwrotu, które łatwo zapamiętać, a może posłużyć do identyfikacji z kim faktycznie mamy do czynienia podczas rozmowy telefonicznej. Przy tym owa „bezpieczna fraza” nie powinna być przekazywana we wiadomościach tekstowych, bowiem ona również mogłaby wpaść w niepowołane ręce.

Czytaj więcej

Dzięki AI można już ukraść postać. Klon Ukrainki kocha Chiny i sprzedaje tam towary

Narzędzi do klonowania głosu w internecie nie brakuje. Jednym z najbardziej zaawansowanych i popularnych jest system stworzony przez ElevenLabs. Start-up stworzony przez Piotra Dąbkowskiego i Matiego Staniszewskiego, opracował model AI, który stał się światowym hitem – potrafi generować szereg realistycznych głosów na podstawie tekstu lub istniejącej już mowy. Można go używać np. do dubbingu, ale również deepfake’ów. System jest już w stanie generować płynną mowę w ok. 30 językach.

Na początku br. OpenAI również zaprezentował narzędzie do replikacji głosu. Technologia, za którą stoją twórcy ChatGPT, nie została jednak udostępniona publicznie. OpenAI podało, iż projekt Voice Engine niesie bowiem ze sobą potencjalne ryzyko niewłaściwego zastosowania.

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pozostało 90% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Test na starość? Powstała prosta metoda badania tempa starzenia i ryzyka śmierci
Technologie
Polska jest pełna psich odchodów. Ale znalazł się na to pomysłowy sposób
Technologie
Kontrowersyjne zmiany w NCBR. Światowe protesty w obronie polskiego naukowca
Technologie
Chiny mają drona-kamikaze o niezwykłych możliwościach. Rośnie zagrożenie Tajwanu
Technologie
Początek jadalnej elektroniki. To będzie rewolucja w medycynie