Reklama

Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Możliwości sztucznej inteligencji rosną w zawrotnym tempie – skopiowanie dowolnego dźwięku, w tym wybranego ludzkiego głosu, nie jest już problemem. Brytyjski bank ostrzega przed ogromnym zagrożeniem.

Publikacja: 21.09.2024 13:13

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pozostało jeszcze 89% artykułu

Już za 19 zł miesięcznie przez rok

Jak zmienia się świat i Polska. Jak wygląda nowa rzeczywistość polityczna po wyborach prezydenckich. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.

Czytaj, to co ważne.

Reklama
Technologie
Poważny incydent z chatbotem AI od Elona Muska. „Katastrofa prywatności"
Technologie
„Sowa” dostarczy paczkę. Tak wyglądają drony przyszłości z AI
Technologie
Szef działu AI w Microsoft alarmuje: Ludzkość nie jest na to gotowa
Technologie
Rosyjscy hakerzy wykorzystują AI. Ruszył nowy wyścig zbrojeń
Technologie
Dzięki AI ludzie w przyszłości będą mieli więcej dzieci? Twórca ChatGPT o potencjale AGI
Materiał Promocyjny
Firmy coraz częściej stawiają na prestiż
Reklama
Reklama