Wystarczy próbka głosu z TikToka czy YouTube, nagranej rozmowy telefonicznej, a nawet zdjęcie z Facebooka, by paść ofiarą przestępstwa. AI jest w stanie odtworzyć nie tylko głos, ale wypowiedzieć dowolne słowa lub zdania. Inwencja zależy od tego, co użytkownik takiego oprogramowania wpisze na klawiaturze komputera.
Klonowanie głosu, technologia sztucznej inteligencji, która pozwala użytkownikom naśladować czyjś głos, była do tej pory używana tylko do naśladowania gwiazd Hollywood, np. w przypadku ich śmierci w trakcie trwania filmu czy utraty głosu. Jednak teraz eksperci ostrzegają, że oszuści mogą wykorzystać nowe możliwości do osiągnięcia korzyści finansowych.
- Ludzie wkrótce będą mogli korzystać z narzędzi takich jak ChatGPT, a nawet Bing czy Google, aby tworzyć głosy, które brzmią bardzo podobnie do ich głosu, używać ich intonacji, oddawać nastrój - powiedziała CTV News Marie Haynes, ekspert ds. sztucznej inteligencji, założycielka firmy MHC. - I będzie bardzo, bardzo trudno odróżnić od rzeczywistej żywej osoby.
Czytaj więcej
Sam Altman, dyrektor generalny OpenAI, firmy, która opracowała rewolucyjną sztuczną inteligencję i właśnie wprowadza udoskonaloną wersję ChatGPT-4, ostrzegł, że technologia ta wiąże się z poważnymi zagrożeniami i wymaga nadzoru.
Marie Haynes dodała, że nawet rozmowy wideo nie są bezpieczne, ponieważ sztuczna inteligencja jest dziś wystarczająco potężna, aby sklonować czyjąś twarz. - Korzystanie z tej nikczemnej technologii będzie się tylko rozprzestrzeniać – ostrzegła ekspertka.