Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Możliwości sztucznej inteligencji rosną w zawrotnym tempie – skopiowanie dowolnego dźwięku, w tym wybranego ludzkiego głosu, nie jest już problemem. Brytyjski bank ostrzega przed ogromnym zagrożeniem.

Publikacja: 21.09.2024 13:13

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pozostało jeszcze 89% artykułu

Czytaj więcej, wiedz więcej!
Rok dostępu za 99 zł.

Tylko teraz! RP.PL i NEXTO.PL razem w pakiecie!
Co zyskasz kupując subskrypcję?
- możliwość zakupu tysięcy ebooków i audiobooków w super cenach (-40% i więcej!)
- dostęp do treści RP.PL oraz magazynu PLUS MINUS.
Technologie
Maszyny zyskają kolejny zmysł. To rewolucja w robotyce
Technologie
Koniec z fałszywymi uśmiechami. AI pozna uczucia człowieka
Technologie
Stworzyli kontrowersyjne rozwiązanie. Po cichu pomaga na egzaminie i w rozmowie o pracę
Technologie
To może być wielkie zagrożenie dla świata i Kościoła. Co zrobi następca Franciszka?
Technologie
Między elastycznością a bezpieczeństwem