Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Możliwości sztucznej inteligencji rosną w zawrotnym tempie – skopiowanie dowolnego dźwięku, w tym wybranego ludzkiego głosu, nie jest już problemem. Brytyjski bank ostrzega przed ogromnym zagrożeniem.

Publikacja: 21.09.2024 13:13

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pozostało jeszcze 89% artykułu

Czytaj więcej, wiedz więcej!
Rok dostępu za 99 zł.

Tylko teraz! RP.PL i NEXTO.PL razem w pakiecie!
Co zyskasz kupując subskrypcję?
- możliwość zakupu tysięcy ebooków i audiobooków w super cenach (-40% i więcej!)
- dostęp do treści RP.PL oraz magazynu PLUS MINUS.
Technologie
Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci
Materiał Promocyjny
Rośnie znaczenie magazynów energii dla systemu energetycznego i bezpieczeństwa kraju
Technologie
Niewidomi odzyskają wzrok, a to dopiero początek. Elon Musk składa ważną deklarację
Technologie
Przełom w komputerach kwantowych. Holendrzy znaleźli sposób na błędy
Technologie
AI zawiodła przy prognozowaniu stanu zdrowia. Zimny prysznic dla szpitali
Materiał Partnera
Kroki praktycznego wdrożenia i operowania projektem OZE w wymiarze lokalnym
Technologie
Start-up Google’a stworzył inteligentne szyby. Pojazdy będą jak myśliwce
Materiał Promocyjny
Jak znaleźć nieruchomość w Warszawie i czy warto inwestować?