Pisklę pawia niszczy internet. AI przejęła wyniki wyszukiwania Google’a

Przez sztuczną inteligencję wpadliśmy w tzw. błędne koło dezinformacji – alarmują eksperci. Jak wskazują, algorytmy coraz częściej tworzą fikcyjne treści, które trafiają do sieci, a potem wykorzystywane są do szkolenia kolejnych modeli AI.

Publikacja: 22.10.2024 04:52

Jedynym sposobem na poradzenie sobie z zagrożeniami związanymi z tzw. błędnym kołem dezinformacji je

Jedynym sposobem na poradzenie sobie z zagrożeniami związanymi z tzw. błędnym kołem dezinformacji jest uświadamianie internautów i nauka krytycznego myślenia

Foto: Adobe Stock

Żeby zrozumieć, z czym mamy do czynienia, wystarczy wpisać w internetowej wyszukiwarce „baby peacock”, aby znaleźć zdjęcie małego pawia. W wynikach pojawiają się realistyczne portrety słodkich miniaturowych ptaków, które jednak nie mają nic wspólnego z prawdziwym wyglądem pawiego pisklęcia. „Zdjęcia” to bowiem grafiki stworzone przez modele generatywnej AI, jak Midjourney, Stable Diffusion czy Dall-e.

Czytaj więcej

Walka z dezinformacją i deepfake. Google oznaczy spreparowane zdjęcia etykietą

– W bazie Adobe Stock znajduje się około 600 tys. zdjęć dla zapytania „lew”. Z tego około 130 tys. to grafiki generatywnej AI – podaje z kolei inny przykład Johan Cedmar-Brandstedt, ekspert ds. etycznej AI, który na platformie LinkedIn ostrzega, iż już wśród wszystkich 277 mln zdjęć na Adobe Stock 53 mln to „zdjęcia” wygenerowane. Tobias Ambs-Thomsen, dyrektor w Kunde & Co., ekspert w zakresie AI, przekonuje, że sztuczna inteligencja już przejmuje wyniki wyszukiwania Google’a. „Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać” – napisał w mediach społecznościowych.

Czy to koniec internetu?

Eksperci alarmują, że zalew fałszywymi treściami prowadzi do masowego zacierania granic między fikcją a rzeczywistością. Adobe Stock oznacza grafiki AI, ale w internecie jest wiele materiałów, które nie informują użytkowników, że nie są one prawdziwe. Co więcej, część wprowadza w błąd lub wręcz jest fałszywa. Analitycy zwracają uwagę, że na tak wadliwych danych dostępnych w sieci uczą się ludzie (zwłaszcza dzieci), ale i same algorytmy. Dezinformacja z powrotem przenika zatem do modeli AI. Treści generowane przez sztuczną inteligencję trafiają więc do internetu, potem są wykorzystywane do trenowania kolejnych modeli i – o ile nie ma weryfikacji – nieprawdziwe dane są powielane. To błędne koło.

Jak zauważa Dariusz Jemielniak, profesor w Akademii L. Koźmińskiego, specjalizujący się m.in. w problematyce dezinformacji, zagrożenie związane z tą tzw. pętlą zwrotną AI jest obecnie bardzo poważne i stale rośnie. – Modele generatywne AI stały się niezwykle zaawansowane i potrafią tworzyć realistyczne obrazy oraz teksty. Jednak brak odpowiedniej weryfikacji generowanych treści prowadzi do sytuacji, w której fałszywe informacje przenikają do przestrzeni publicznej – wyjaśnia Dariusz Jemielniak.

Czytaj więcej

Nie dla inwigilacji Europejczyków. AI staje się wszechobecna

Ambs-Thomsen twierdzi, że „kończy się era polegania na wynikach wyszukiwania w sieci”.

Czy to zatem koniec internetu, jaki znamy? Julia Krysztofiak-Szopa, była szefowa Startup Poland, zajmująca się szkoleniami z zakresu wykorzystania AI w codziennej pracy, wskazuje, że dziś nie jesteśmy w stanie oszacować skali zjawiska zalewu sieci fałszywymi treściami.

Niebezpieczne imitowanie rzeczywistości

– AI to niesłychanie dynamicznie rozwijająca się technologia, a problem jest tym większy, że mamy do czynienia z jej równie dynamiczną adopcją. Ludzie bardzo szybko zaczęli korzystać z narzędzi sztucznej inteligencji, tyle że wielu z nich nie jest świadomymi użytkownikami – mówi Krysztofiak-Szopa.

Według niej nie potrafimy rozpoznawać treści wygenerowanych przez algorytmy i odróżniać od tych tworzonych przez ludzi. – To spore wyzwanie edukacyjne, które dotyczy właściwie wszystkich grup społecznych – zarówno seniorów, jak i nauczycieli czy profesjonalistów w różnych dziedzinach – komentuje. I dodaje, że AI pozwala nam dziś łatwo imitować praktycznie wszystko.

– Na szkoleniach podaję przykład, jak generatywna AI potrafi zdefiniować inflację w stylu Olgi Tokarczuk. Sztuczna inteligencja produkuje treść, którą równie dobrze napisałaby noblistka. To robi duże wrażenie – wyjaśnia Julia Krysztofiak-Szopa.

Czytaj więcej

Joelle Pineau, wiceprezes Meta: Rozwój sztucznej inteligencji wymaga jasnych regulacji

Jej zdaniem to imitowanie, w sytuacji gdy nie mamy kompetencji czy narzędzi, które pozwalają odróżnić oryginalną treść od fałszywej, staje się niebezpieczne. – W tę pułapkę w sieci wpada wiele osób starszych, które bezkrytycznie pochłaniają informacje z internetu, nie bacząc przy tym na źródła – zaznacza Julia Krysztofiak-Szopa. – Jedynym sposobem na poradzenie sobie z tymi zagrożeniami jest uświadamianie internautów i nauka krytycznego myślenia. Musimy uwrażliwić się na to, że online bombardują nas treści, które niekoniecznie są wiarygodne – kontynuuje.

AI napędza polaryzację i nieufność

Prof. Jemielniak wskazuje, że niekontrolowany napływ materiałów generowanych przez AI grozi zalewem dezinformacji oraz manipulacjami. – Społeczeństwo może być narażone na celowe lub przypadkowe wprowadzanie w błąd, co może wpływać na opinię publiczną, decyzje polityczne czy zachowania konsumenckie. Kolejne ryzyko wiąże się z utratą zaufania. Jeśli ludzie nie będą w stanie odróżnić prawdziwych informacji od fałszywych, może to prowadzić do ogólnej nieufności wobec mediów, instytucji, a nawet nauki. Na tym nie koniec: kolejnym zagrożeniem jest polaryzacja. Dezinformacja może pogłębiać bowiem podziały społeczne, prowadząc do konfliktów i utrudniając dialog – wylicza ekspert.

Negatywnych konsekwencji tego zjawiska jest jednak więcej. Według Dariusza Jemielniaka fałszywe informacje mogą przenikać do systemów edukacyjnych, wpływając negatywnie na proces uczenia się i rozwój wiedzy, z kolei manipulacja informacją na dużą skalę może stanowić zagrożenie dla procesów demokratycznych oraz bezpieczeństwa narodowego.

Czytaj więcej

Gubernator Kalifornii zablokował przełomowy projekt ustawy o bezpieczeństwie AI

Lekiem nie będzie jednak ograniczanie czy zakazywanie systemów AI. Julia Krysztofiak-Szopa zastrzega, by nie demonizować AI, bo podobny strach na początku lat 2000. zapanował, gdy pojawił się internet. – Nauczyciele ostrzegali wówczas, że co to może być za wiedza w sieci, że uczyć można się tylko z książek. Jednakże pewne mechanizmy kontroli w tym przypadku się wykształciły, dziś Wikipedia jest w miarę rozsądnym źródłem wiedzy, a sami nauczyciele chętnie sięgają po narzędzia online – tłumaczy.

Kto odpowie za fałszywe treści?

Eksperci zgodnie twierdzą, że potrzeba edukacji na temat AI i promowania umiejętności krytycznego myślenia. Ale przeciwdziałanie temu zjawisku wymaga wielopłaszczyznowego podejścia.

– Twórcy modeli AI powinni implementować mechanizmy sprawdzające jakość i prawdziwość danych wykorzystywanych do trenowania. Obejmuje to usuwanie treści potencjalnie fałszywych lub wprowadzających w błąd. Potrzebne są inwestycje w technologie pozwalające na identyfikację i oznaczanie treści tworzonych przez AI, ale także regulacje i standardy etyczne. Współpraca między naukowcami, przemysłem a ustawodawcami może prowadzić do ustanowienia norm i przepisów regulujących tworzenie i dystrybucję treści generowanych przez AI – twierdzi prof. Jemielniak.

Niezbędny jest też bat. – Serwisy udostępniające treści powinny aktywnie monitorować i moderować zawartość, aby ograniczyć rozprzestrzenianie się dezinformacji. Muszą być odpowiedzialne finansowo, żeby realnie się zaangażować – przekonuje nasz rozmówca.

Żeby zrozumieć, z czym mamy do czynienia, wystarczy wpisać w internetowej wyszukiwarce „baby peacock”, aby znaleźć zdjęcie małego pawia. W wynikach pojawiają się realistyczne portrety słodkich miniaturowych ptaków, które jednak nie mają nic wspólnego z prawdziwym wyglądem pawiego pisklęcia. „Zdjęcia” to bowiem grafiki stworzone przez modele generatywnej AI, jak Midjourney, Stable Diffusion czy Dall-e.

– W bazie Adobe Stock znajduje się około 600 tys. zdjęć dla zapytania „lew”. Z tego około 130 tys. to grafiki generatywnej AI – podaje z kolei inny przykład Johan Cedmar-Brandstedt, ekspert ds. etycznej AI, który na platformie LinkedIn ostrzega, iż już wśród wszystkich 277 mln zdjęć na Adobe Stock 53 mln to „zdjęcia” wygenerowane. Tobias Ambs-Thomsen, dyrektor w Kunde & Co., ekspert w zakresie AI, przekonuje, że sztuczna inteligencja już przejmuje wyniki wyszukiwania Google’a. „Przyzwyczailiśmy się, że wyszukiwarki dostarczają odpowiedzi opartych na faktach. Ale nie możemy już na tym polegać” – napisał w mediach społecznościowych.

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Sztuczna Inteligencja
Nowy napęd smartfonów. Rekordowe wzrosty
Cykl Partnerski
Przejście do nowej energetyki musi być bezpieczne
Materiał Promocyjny
Naukowa Fundacja Polpharmy ogłasza start XXIII edycji Konkursu o Grant Fundacji
Sztuczna Inteligencja
ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm
Sztuczna Inteligencja
Algorytmy znad Wisły mogą zdziałać cuda
Sztuczna Inteligencja
Sztuczna inteligencja łamie kolejne bariery. To już groźne