Reklama

Brytyjska „metoda na wnuczka” szalenie niebezpieczna. Oszuści zaprzęgli technologię

Możliwości sztucznej inteligencji rosną w zawrotnym tempie – skopiowanie dowolnego dźwięku, w tym wybranego ludzkiego głosu, nie jest już problemem. Brytyjski bank ostrzega przed ogromnym zagrożeniem.

Publikacja: 21.09.2024 13:13

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w

Do szkolenia AI oszustom może posłużyć choćby film, który nieświadoma niczego ofiara opublikowała w mediach społecznościowych

Foto: Adobe stock

Starling Bank alarmuje, że systemy AI klonujące głos w rękach przestępców to recepta na ogromne problemy. Wskazuje, że technologie są na tyle zaawansowane, iż przestępcom wystarczy zaledwie niewielka próbka głosy, nawet 3-sekundowa, by na tej podstawie „skonstruować” bota wypowiadającego taką samą barwą i intonacją dowolną kwestię.

Jak można sklonować głos i użyć do przestępstwa

Pozostało jeszcze 89% artykułu

Tylko 19 zł miesięcznie przez cały rok.

Bądź na bieżąco. Czytaj sprawdzone treści od Rzeczpospolitej. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.

Treści, którym możesz zaufać.

Reklama
Technologie
Sztuczna inteligencja „pokochała” język polski? Wygrał w amerykańskich badaniach
Materiał Promocyjny
W poszukiwaniu nowego pokolenia prezesów: dlaczego warto dbać o MŚP
Technologie
Czy AI odbierze nam pracę? Współzałożyciel OpenAI ma zaskakującą odpowiedź
Technologie
Przełom w bateriach. Dzięki fluorowi elektryki pojadą 1500 km na jednym ładowaniu
Technologie
Harry i Meghan pod rękę z naukowcami. Boją się superinteligencji
Materiał Promocyjny
Stacje ładowania dla ciężarówek pilnie potrzebne
Technologie
Szczepionka na raka może już istnieć. To szczepionka przeciw... COVID-19
Materiał Promocyjny
Prawnik 4.0 – AI, LegalTech, dane w codziennej praktyce
Reklama
Reklama