Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Możliwości sztucznej inteligencji rosną w zawrotnym tempie – skopiowanie dowolnego dźwięku, w tym wybranego ludzkiego głosu, nie jest już problemem. Brytyjski bank ostrzega przed ogromnym zagrożeniem.

Publikacja: 21.09.2024 13:13

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pozostało 90% artykułu

BLACK WEEKS -75%

Czytaj dalej RP.PL. Nie przegap oferty roku!
Ciesz się dostępem do treści najbardziej opiniotwórczego medium w Polsce. Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.
Technologie
Armia USA zasili broń zdalnie i z daleka. To odmieni działania wojenne
Technologie
Chiny penetrują rowy oceaniczne. Dlaczego wysyłają tam batyskafy?
Technologie
Maszyny zastąpią ludzi w armii USA. Bullfrog jest szybki i bezwzględny
Technologie
AI Google'a życzyła ludziom śmierci. Internauci w szoku
Materiał Promocyjny
Klimat a portfele: Czy koszty transformacji zniechęcą Europejczyków?
Technologie
„Proces przekształcania robotów w ludzi”. Chiny rzuciły wyzwanie USA i Muskowi