Żeby zrozumieć, z czym mamy do czynienia, wystarczy wpisać w internetowej wyszukiwarce „baby peacock”, aby znaleźć zdjęcie małego pawia. W wynikach pojawiają się realistyczne portrety słodkich miniaturowych ptaków, które jednak nie mają nic wspólnego z prawdziwym wyglądem pawiego pisklęcia. „Zdjęcia” to bowiem grafiki stworzone przez modele generatywnej AI, jak Midjourney, Stable Diffusion czy Dall-e.
Czytaj więcej
Zdjęcia tworzone przez sztuczną inteligencję zalewają internet, coraz trudniej odróżnić prawdziwe obrazy od tych spreparowanych przez algorytmy i s...
– W bazie Adobe Stock znajduje się około 600 tys. zdjęć dla zapytania „lew”. Z tego około 130 tys. to grafiki generatywnej AI – podaje z kolei inny przykład Johan Cedmar-Brandstedt, ekspert ds. etycznej AI, który na platformie LinkedIn ostrzega, iż już wśród wszystkich 277 mln zdjęć na Adobe Stock 53 mln to „zdjęcia” wygenerowane. Tobias Ambs-Thomsen, dyrektor w Kunde & Co., ekspert w zakresie AI, przekonuje, że sztuczna inteligencja już przejmuje wyniki wyszukiwania Google’a. „Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać” – napisał w mediach społecznościowych.
Czy to koniec internetu?
Eksperci alarmują, że zalew fałszywych treści prowadzi do masowego zacierania granic między fikcją a rzeczywistością. Adobe Stock oznacza grafiki AI, ale w internecie jest wiele materiałów, które nie informują użytkowników, że nie są one prawdziwe. Co więcej, część wprowadza w błąd lub wręcz jest fałszywa. Analitycy zwracają uwagę, że na tak wadliwych danych dostępnych w sieci uczą się ludzie (zwłaszcza dzieci), ale i same algorytmy. Dezinformacja z powrotem przenika zatem do modeli AI. Treści generowane przez sztuczną inteligencję trafiają więc do internetu, potem są wykorzystywane do trenowania kolejnych modeli i – o ile nie ma weryfikacji – nieprawdziwe dane są powielane. To błędne koło.
Jak zauważa Dariusz Jemielniak, profesor w Akademii L. Koźmińskiego, specjalizujący się m.in. w problematyce dezinformacji, zagrożenie związane z tą tzw. pętlą zwrotną AI jest obecnie bardzo poważne i stale rośnie. – Modele generatywne AI stały się niezwykle zaawansowane i potrafią tworzyć realistyczne obrazy oraz teksty. Jednak brak odpowiedniej weryfikacji generowanych treści prowadzi do sytuacji, w której fałszywe informacje przenikają do przestrzeni publicznej – wyjaśnia Dariusz Jemielniak.
Czytaj więcej
Google ogłosił, że niemal we wszystkich produktach i usługach „zaszyje” technologię AI. Rywalizacja z OpenAI się zaostrza, a eksperci ostrzegają, ż...
Ambs-Thomsen twierdzi, że „kończy się era polegania na wynikach wyszukiwania w sieci”.
Czy to zatem koniec internetu, jaki znamy? Julia Krysztofiak-Szopa, była szefowa Startup Poland, zajmująca się szkoleniami z zakresu wykorzystania AI w codziennej pracy, wskazuje, że dziś nie jesteśmy w stanie oszacować skali zjawiska zalewania sieci fałszywymi treściami.
Niebezpieczne imitowanie rzeczywistości
– AI to niesłychanie dynamicznie rozwijająca się technologia, a problem jest tym większy, że mamy do czynienia z jej równie dynamiczną adopcją. Ludzie bardzo szybko zaczęli korzystać z narzędzi sztucznej inteligencji, tyle że wielu z nich nie jest świadomymi użytkownikami – mówi Krysztofiak-Szopa.
Według niej nie potrafimy rozpoznawać treści wygenerowanych przez algorytmy i odróżniać od tych tworzonych przez ludzi. – To spore wyzwanie edukacyjne, które dotyczy właściwie wszystkich grup społecznych – zarówno seniorów, jak i nauczycieli czy profesjonalistów w różnych dziedzinach – komentuje. I dodaje, że AI pozwala nam dziś łatwo imitować praktycznie wszystko.
– Na szkoleniach podaję przykład, jak generatywna AI potrafi zdefiniować inflację w stylu Olgi Tokarczuk. Sztuczna inteligencja produkuje treść, którą równie dobrze napisałaby noblistka. To robi duże wrażenie – wyjaśnia Julia Krysztofiak-Szopa.
Czytaj więcej
Jeśli model AI nie będzie trenowany na danych europejskich, to będzie miał znacznie wyższy poziom halucynacji przy pytaniach, które zadają Europejc...
Jej zdaniem to imitowanie, w sytuacji gdy nie mamy kompetencji czy narzędzi, które pozwalają odróżnić oryginalną treść od fałszywej, staje się niebezpieczne. – W tę pułapkę w sieci wpada wiele osób starszych, które bezkrytycznie pochłaniają informacje z internetu, nie bacząc przy tym na źródła – zaznacza Julia Krysztofiak-Szopa. – Jedynym sposobem na poradzenie sobie z tymi zagrożeniami jest uświadamianie internautów i nauka krytycznego myślenia. Musimy uwrażliwić się na to, że online bombardują nas treści, które niekoniecznie są wiarygodne – kontynuuje.
AI napędza polaryzację i nieufność
Prof. Jemielniak wskazuje, że niekontrolowany napływ materiałów generowanych przez AI grozi zalewem dezinformacji oraz manipulacjami. – Społeczeństwo może być narażone na celowe lub przypadkowe wprowadzanie w błąd, co może wpływać na opinię publiczną, decyzje polityczne czy zachowania konsumenckie. Kolejne ryzyko wiąże się z utratą zaufania. Jeśli ludzie nie będą w stanie odróżnić prawdziwych informacji od fałszywych, może to prowadzić do ogólnej nieufności wobec mediów, instytucji, a nawet nauki. Na tym nie koniec: kolejnym zagrożeniem jest polaryzacja. Dezinformacja może pogłębiać bowiem podziały społeczne, prowadząc do konfliktów i utrudniając dialog – wylicza ekspert.
Negatywnych konsekwencji tego zjawiska jest jednak więcej. Według Dariusza Jemielniaka fałszywe informacje mogą przenikać do systemów edukacyjnych, wpływając negatywnie na proces uczenia się i rozwój wiedzy, z kolei manipulacja informacją na dużą skalę może stanowić zagrożenie dla procesów demokratycznych oraz bezpieczeństwa narodowego.
Czytaj więcej
Demokratyczny gubernator Kalifornii Gavin Newsom zablokował przełomowy projekt ustawy o bezpieczeństwie sztucznej inteligencji (AI). Projekt był os...
Lekiem nie będzie jednak ograniczanie czy zakazywanie systemów AI. Julia Krysztofiak-Szopa zastrzega, by nie demonizować AI, bo podobny strach na początku lat 2000. zapanował, gdy pojawił się internet. – Nauczyciele ostrzegali wówczas, że co to może być za wiedza w sieci, że uczyć można się tylko z książek. Jednakże pewne mechanizmy kontroli w tym przypadku się wykształciły, dziś Wikipedia jest w miarę rozsądnym źródłem wiedzy, a sami nauczyciele chętnie sięgają po narzędzia online – tłumaczy.
Kto odpowie za fałszywe treści?
Eksperci zgodnie twierdzą, że potrzeba edukacji na temat AI i promowania umiejętności krytycznego myślenia. Ale przeciwdziałanie temu zjawisku wymaga wielopłaszczyznowego podejścia.
– Twórcy modeli AI powinni implementować mechanizmy sprawdzające jakość i prawdziwość danych wykorzystywanych do trenowania. Obejmuje to usuwanie treści potencjalnie fałszywych lub wprowadzających w błąd. Potrzebne są inwestycje w technologie pozwalające na identyfikację i oznaczanie treści tworzonych przez AI, ale także regulacje i standardy etyczne. Współpraca między naukowcami, przemysłem a ustawodawcami może prowadzić do ustanowienia norm i przepisów regulujących tworzenie i dystrybucję treści generowanych przez AI – twierdzi prof. Jemielniak.
Niezbędny jest też bat. – Serwisy udostępniające treści powinny aktywnie monitorować i moderować zawartość, aby ograniczyć rozprzestrzenianie się dezinformacji. Muszą być odpowiedzialne finansowo, żeby realnie się zaangażować – przekonuje nasz rozmówca.