Aktualizacja: 27.03.2023 10:32 Publikacja: 22.03.2023 01:17
Podszywanie się pod wnuczka jest metodą oszustów w wielu krajach, także w Polsce i teraz może być wyjątkowo skuteczne
Foto: AdobeStock
Wystarczy próbka głosu z TikToka czy YouTube, nagranej rozmowy telefonicznej, a nawet zdjęcie z Facebooka, by paść ofiarą przestępstwa. AI jest w stanie odtworzyć nie tylko głos, ale wypowiedzieć dowolne słowa lub zdania. Inwencja zależy od tego, co użytkownik takiego oprogramowania wpisze na klawiaturze komputera.
Klonowanie głosu, technologia sztucznej inteligencji, która pozwala użytkownikom naśladować czyjś głos, była do tej pory używana tylko do naśladowania gwiazd Hollywood, np. w przypadku ich śmierci w trakcie trwania filmu czy utraty głosu. Jednak teraz eksperci ostrzegają, że oszuści mogą wykorzystać nowe możliwości do osiągnięcia korzyści finansowych.
W internecie pojawiły się informacje, jakoby Państwowa Komisja Wyborcza ogłosiła nową datę wyborów. To dezinform...
Wybór kardynała Roberta Prevosta na następcę Franciszka wywołał istną lawinę wyszukiwań informacji w sieci o now...
Wybory prezydenckie to w ostatnich dniach jeden z najgorętszych tematów, zarówno w dyskusjach Polaków, jak i w m...
Spółka NSO Group, twórca oprogramowania szpiegującego, po sześciu latach walki w sądzie przegrała proces z właśc...
Dziś w Watykanie rozpoczyna się konklawe. W najbliższych godzinach lub dniach kardynałowie zdecydują, kto zostan...
W debacie o rynku pracy nie można zapominać o człowieku. Ideałem dla większości pozostaje umowa o pracę, ale technologie i potrzeba elastyczności oferują nowe rozwiązania.
Masz aktywną subskrypcję?
Zaloguj się lub wypróbuj za darmo
wydanie testowe.
nie masz konta w serwisie? Dołącz do nas