To rozwiązanie pozwoli wypowiedzieć AI dowolną kwestię głosem wybranej osoby. To niebezpieczne narzędzie, otwiera bowiem furtkę do dezinformacji i tworzenia tzw. fake news’ów.
Firnansowana przez Microsoft firma OpenAI na razie nie udostępnia publicznie swojego rozwiązania. Technologia o nazwie VALL-E dowodzi, że sztuczna inteligencja ma coraz większe umiejętności, bo jest w stanie nie tylko z nami konwersować pisemnie, ale tworzyć obrazy (model DALL-E 2) i naśladować ludzki głos. VALL-E wystarczą ledwie 3 sekundy, aby nauczyć się sposobu wymowy charakterystycznej dla danej osoby. Po wysłuchaniu krótkiej próbki nagrania AI w podobnym tonie, z realistyczną intonacją i emocjami, odtworzy ów głos, zamieniając przy tym pisane przez użytkownika frazy na mowę. Model został przeszkolony na 60 tys. godzin nagrań mowy w języku angielskim. Naukowcy z Cornell University wskazują, że algorytm ćwiczono na próbkach głosu pochodzących od ponad 7 tys. osób.
Czytaj więcej
Popularność sztucznej inteligencji konwersacyjnej, opracowanej przez OpenAI, jest tak ogromna, że usługa czatowania z chatbotem została zawieszona. Strona internetowa ChatGPT nie obsługuje nowych zapytań.
Rozwiązania podobne do VALL-E to zagrożenie nie tylko fake newsami, ale również ryzyko wykorzystania przez przestępców, podszywających się pod inną osobę. Tak było w 2019 r., gdy doszło do głośnego oszustwa z udziałem AI. Brytyjski oddział niemieckiej firmy energetycznej otrzymał telefon od prezesa, który zlecił przelew na 220 tys. euro. Akcent, intonacja były takie, że nikt z podwładnych nie domyślił się, że po drugiej stronie słuchawki jest AI. Pieniędzy nie odzyskano.
Takie zaawansowane technologie dezinformacyjne, tworzące fałszywy obraz i dźwięk, to tzw. deepfake. Z prognoz HSRC wynika, że globalny rynek deepfake’ów i fake news’ów w latach 2020-2026 będzie rósł w tempie 42 proc. rocznie.