Oszustwa na wnuczka po nowemu. ChatGPT pomoże przestępcom

Możliwość łatwego preparowania dowolnego głosu i obrazu przez coraz powszechniejszą sztuczną inteligencję daje narzędzie do przestępstw na niespotykaną skalę.

Aktualizacja: 27.03.2023 10:32 Publikacja: 22.03.2023 01:17

Podszywanie się pod wnuczka jest metodą oszustów w wielu krajach, także w Polsce i teraz może być wy

Podszywanie się pod wnuczka jest metodą oszustów w wielu krajach, także w Polsce i teraz może być wyjątkowo skuteczne

Foto: AdobeStock

Wystarczy próbka głosu z TikToka czy YouTube, nagranej rozmowy telefonicznej, a nawet zdjęcie z Facebooka, by paść ofiarą przestępstwa. AI jest w stanie odtworzyć nie tylko głos, ale wypowiedzieć dowolne słowa lub zdania. Inwencja zależy od tego, co użytkownik takiego oprogramowania wpisze na klawiaturze komputera.

Klonowanie głosu, technologia sztucznej inteligencji, która pozwala użytkownikom naśladować czyjś głos, była do tej pory używana tylko do naśladowania gwiazd Hollywood, np. w przypadku ich śmierci w trakcie trwania filmu czy utraty głosu. Jednak teraz eksperci ostrzegają, że oszuści mogą wykorzystać nowe możliwości do osiągnięcia korzyści finansowych.

Pozostało jeszcze 84% artykułu

Tylko 9 zł z Płatnościami powtarzalnymi

Jak zmienia się Polska, Europa i Świat? Wydarzenia, społeczeństwo, ekonomia i historia w jednym miejscu i na wyciągnięcie ręki.
Subskrybuj i bądź na bieżąco!
IT
Jaki prezent na Dzień Dziecka 2025? Polacy szukają pomysłów w sieci
Materiał Promocyjny
VI Krajowe Dni Pola Bratoszewice 2025
IT
Snus rozbił bank w internecie. Co to jest?
Materiał Partnera
Optymalizacja IT bez kompromisów – gdzie szukać realnych oszczędności?
IT
Cyberbezpieczeństwo z poślizgiem. Dlaczego Polska się spóźnia z przepisami?
Materiał Promocyjny
Cyberprzestępczy biznes coraz bardziej profesjonalny. Jak ochronić firmę
IT
Jak Polacy obchodzą Dzień Matki? Tego najczęściej szukamy dziś w sieci
Materiał Promocyjny
Pogodny dzień. Wiatr we włosach. Dookoła woda po horyzont