Wystarczy próbka głosu z TikToka czy YouTube, nagranej rozmowy telefonicznej, a nawet zdjęcie z Facebooka, by paść ofiarą przestępstwa. AI jest w stanie odtworzyć nie tylko głos, ale wypowiedzieć dowolne słowa lub zdania. Inwencja zależy od tego, co użytkownik takiego oprogramowania wpisze na klawiaturze komputera.
Klonowanie głosu, technologia sztucznej inteligencji, która pozwala użytkownikom naśladować czyjś głos, była do tej pory używana tylko do naśladowania gwiazd Hollywood, np. w przypadku ich śmierci w trakcie trwania filmu czy utraty głosu. Jednak teraz eksperci ostrzegają, że oszuści mogą wykorzystać nowe możliwości do osiągnięcia korzyści finansowych.