Sztuczna inteligencja może wykorzystywać próbki głosu lub twarzy aktora do generowania zupełnie nowych treści. „Od audiobooków po cyfrowe awatary, systemy sztucznej inteligencji zastępują teraz wykwalifikowanych profesjonalnych wykonawców” – twierdzi związek w oświadczeniu, do którego dotarło BBC. Ostrzega przed „dystopijnymi” konsekwencjami, chyba że zostanie zmienione prawo autorskie.

Chociaż wytwory sztucznej inteligencji mogą być użyteczne, związek obawia się, że nie zawsze będzie można kontrolować wykorzystania podobizn aktorów czy ich głosu – mogą być wykorzystywane bez zgody lub odpowiedniego wynagrodzenia. Tu możliwości są ogromne. AI może generować sztuczne podkłady głosowe, pomagać tworzyć cyfrowe awatary, a nawet pozwalać zmarłym aktorom pojawiać się w filmach. Tak było w przypadku kolejnej odsłony „Gwiezdnych wojen” z udziałem zmarłej Carrie Fisher (księżniczka Leia w „Rogue One”) czy animowanego serialu „Simpsonowie”, w którym głos pod Ednę Krabappel podkładała zmarła Marcia Wallace. Z kolei w „Irlandczyku” Netfliksa można zobaczyć odmłodzonego o 50 lat Roberta De Niro.

To działania legalne. Jednak wygenerowane przez sztuczną inteligencję pirackie filmy „deep fake” stają się coraz bardziej popularne w internecie. W taki sposób „kręcone” są np. filmy pornograficzne z udziałem znanych osób. Ofiarą takich produkcji padła np. Scarlett Johansson.

Kontrola nad korzystaniem z głosu

– Ważne jest, aby mój głos i mój wizerunek były moje, bez względu na to, jak łatwo i tanio te rzeczy można cyfrowo odtworzyć. Uważam, że wykonawcy muszą być sprawiedliwie wynagradzani za treści, które tworzymy – mówi aktorka Talulah Riley (znana m.in. z filmu „Duma i uprzedzenie”), która wspiera kampanię. – Rosnąca zdolność sztucznej inteligencji do klonowania ludzkich głosów stwarza znaczne ryzyko, że tak nie będzie.

Związek Equity twierdzi, że jest szczególnie zaniepokojony rozwojem cyfrowej technologii głosowej, np. do tworzenia audiobooków czy aplikacji. BBC przytacza przykład kanadyjskiej lektorki, która pozwała TikToka za użycie jej głosu. Nagrała około 10 tys. zdań audio dla wspieranego przez państwo chińskiego instytutu badawczego do wykorzystania w tłumaczeniach w 2018 roku.

Ale jej głos, twierdzi lektorka, został później użyty przez TikToka w funkcji konwertowania pisma na mowę, która mogła być następnie odtwarzana na filmach przesłanych do aplikacji. W efekcie jej syntetyczny głos często powtarzał wulgaryzmy.

Klonowanie głosu może być również wykorzystywane do tłumaczenia słów aktora na różne języki, co może oznaczać na przykład, że amerykańskie firmy produkujące filmy nie będą już musiały zatrudniać dodatkowych aktorów do tworzenia dubbingowanych wersji swoich filmów do dystrybucji zagranicznej.

Czas oznakować

Związek twierdzi, że istniejące prawo autorskie nie zapewnia wykonawcom wystarczającej ochrony, ponieważ sztuczna inteligencja „odtwarza wykonania bez generowania nagrania lub kopii”. Aktorzy chcą, by rząd podjął działania w celu ochrony praw wykonawców i zreformował je tak, by nadążały za rozwojem technologicznym.

Pojawiają się jednak obawy, że zmiany w prawie autorskim mogą mieć negatywny wpływ na wolność słowa lub stłumić innowacje. Z drugiej strony padają pytania o etykę. Tak było przy okazji „Roadrunnera”, dokumentu o Anthonym Bourdainie, słynnym szefie kuchni, który w 2018 roku popełnił samobójstwo. Syntetyczny głos Bourdaine’a odczytywał jego zapiski. W filmie wykorzystano głos stworzony na podstawie dziesięciu godzin nagrań z wykorzystaniem technologii uczenia maszynowego.

Kanadyjska firma Resemble AI twierdzi, że może już teraz sklonować głos w 15 językach. I do stworzenia wysokiej jakości kopii oprogramowanie potrzebuje nagrania kogoś mówiącego przez zaledwie dziesięć minut.

David Leslie, kierownik ds. etyki w Instytucie Alana Turinga, mówi BBC, że problem pokazał znaczenie informowania odbiorców, że sztuczna inteligencja jest wykorzystywana, aby zapobiec sytuacji, w której ludzie mogą czuć się oszukani lub zmanipulowani. Podobnie jak to ma miejsce w przypadku reklamowego lokowania produktu.