Żeby zrozumieć, z czym mamy do czynienia, wystarczy wpisać w internetowej wyszukiwarce „baby peacock”, aby znaleźć zdjęcie małego pawia. W wynikach pojawiają się realistyczne portrety słodkich miniaturowych ptaków, które jednak nie mają nic wspólnego z prawdziwym wyglądem pawiego pisklęcia. „Zdjęcia” to bowiem grafiki stworzone przez modele generatywnej AI, jak Midjourney, Stable Diffusion czy Dall-e.
Czytaj więcej
Zdjęcia tworzone przez sztuczną inteligencję zalewają internet, coraz trudniej odróżnić prawdziwe obrazy od tych spreparowanych przez algorytmy i stojących za nimi ludzi. Google wprowadza narzędzia, które pozwolą rozpoznać autentyczną grafikę
– W bazie Adobe Stock znajduje się około 600 tys. zdjęć dla zapytania „lew”. Z tego około 130 tys. to grafiki generatywnej AI – podaje z kolei inny przykład Johan Cedmar-Brandstedt, ekspert ds. etycznej AI, który na platformie LinkedIn ostrzega, iż już wśród wszystkich 277 mln zdjęć na Adobe Stock 53 mln to „zdjęcia” wygenerowane. Tobias Ambs-Thomsen, dyrektor w Kunde & Co., ekspert w zakresie AI, przekonuje, że sztuczna inteligencja już przejmuje wyniki wyszukiwania Google’a. „Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać” – napisał w mediach społecznościowych.
Czy to koniec internetu?
Eksperci alarmują, że zalew fałszywych treści prowadzi do masowego zacierania granic między fikcją a rzeczywistością. Adobe Stock oznacza grafiki AI, ale w internecie jest wiele materiałów, które nie informują użytkowników, że nie są one prawdziwe. Co więcej, część wprowadza w błąd lub wręcz jest fałszywa. Analitycy zwracają uwagę, że na tak wadliwych danych dostępnych w sieci uczą się ludzie (zwłaszcza dzieci), ale i same algorytmy. Dezinformacja z powrotem przenika zatem do modeli AI. Treści generowane przez sztuczną inteligencję trafiają więc do internetu, potem są wykorzystywane do trenowania kolejnych modeli i – o ile nie ma weryfikacji – nieprawdziwe dane są powielane. To błędne koło.
Jak zauważa Dariusz Jemielniak, profesor w Akademii L. Koźmińskiego, specjalizujący się m.in. w problematyce dezinformacji, zagrożenie związane z tą tzw. pętlą zwrotną AI jest obecnie bardzo poważne i stale rośnie. – Modele generatywne AI stały się niezwykle zaawansowane i potrafią tworzyć realistyczne obrazy oraz teksty. Jednak brak odpowiedniej weryfikacji generowanych treści prowadzi do sytuacji, w której fałszywe informacje przenikają do przestrzeni publicznej – wyjaśnia Dariusz Jemielniak.