Wczesne sygnały ostrzegawcze – takie jak deepfake i sieci fałszywych wiadomości – pojawiły się podczas wyborów na całym świecie. Naukowcy ostrzegają, że kolejne wybory mogą być prawdziwym testem siły tej technologii – pisze portal ScienceDaily.

Czytaj więcej

Ubezpieczyciele obawiają się katastrofy. AI wywróci polisy do góry nogami

To nowy rodzaj zagrożenia politycznego – znacznie mniej widoczny niż protesty czy dotychczasowe manipulacje wyborcze. Postacie kontrolowane przez AI mogą wkrótce odegrać dużą rolę w kształtowaniu opinii publicznej i wpływaniu na systemy demokratyczne.

Jak działają roje AI w internecie

Niedawny artykuł opublikowany na forum politycznym w czasopiśmie „Science” opisuje, jak duże grupy postaci generowanych przez AI mogą wiarygodnie naśladować ludzkie zachowania w sieci. Systemy te mogą wchodzić do społeczności cyfrowych, uczestniczyć w dyskusjach i wpływać na poglądy w niezwykle szybkim tempie. W przeciwieństwie do wcześniejszych sieci botów, agenci AI potrafią błyskawicznie koordynować działania, reagować na informacje zwrotne i utrzymywać spójne narracje na tysiącach kont.

Szybki rozwój dużych modeli językowych oraz systemów wieloagentowych sprawił, że pojedynczy operator może zarządzać rozległymi sieciami „głosów” AI. Takie postacie mogą wydawać się autentyczne, przyjmować lokalny język i ton oraz wchodzić w interakcje w sposób naturalny dla innych użytkowników – pisze ScienceDaily.

Czytaj więcej

Kamery, dane i AI. Nowy Jork walczy z taksówkarzami-oszustami i rachunkami grozy

Są także zdolne do przeprowadzania milionów niewielkich eksperymentów, by ustalić, które komunikaty są najbardziej przekonujące. Dzięki temu mogą na bieżąco udoskonalać swoje strategie komunikacyjne i wytwarzać pozory szerokiej zgody społecznej. W rzeczywistości taki konsensus jest sztucznie tworzony i zaprojektowany tak, by wpływać na debatę polityczną.

Roje AI a wybory i manipulacja opinią publiczną

Badacze podkreślają, że sygnały ostrzegawcze już widać. Należą do nich m.in. generowane przez AI deepfake’i oraz fałszywe portale informacyjne, które wpływały na debatę wyborczą w krajach takich jak Stany Zjednoczone, Tajwan, Indonezja czy Indie – wskazuje informatyk z University of British Columbia, Kevin Leyton-Brown.

Jednocześnie organizacje monitorujące zidentyfikowały liczne sieci prorosyjskie rozpowszechniające ogromne ilości treści w internecie. Działania te mają – jak się uważa – wpływać na dane wykorzystywane do trenowania przyszłych systemów AI, co może oddziaływać na ich zachowanie i priorytety informacyjne – zauważa ScienceDaily.

Czytaj więcej

Rewolucja w zdjęciach. Aplikacja sprawdzi, czy obraz jest prawdziwy, czy z AI

W przyszłości roje AI mogą znacząco wpłynąć na równowagę sił w społeczeństwach demokratycznych. Badacze sugerują, że nadchodzące wybory prezydenckie w USA w 2028 roku mogą być kluczowym testem dla tej technologii. Największym wyzwaniem będzie rozpoznanie i przeciwdziałanie kampaniom wpływu opartym na AI, zanim staną się one zbyt powszechne, by można było nad nimi zapanować.

Naukowcy ostrzegają: AI w rękach autokratów

Laureatka Pokojowej Nagrody Nobla i działaczka na rzecz wolności słowa Maria Ressa, a także czołowi badacze sztucznej inteligencji i nauk społecznych z University of California, Berkeley, Harvard University, University of Oxford, University of Cambridge oraz Yale University należą do globalnego konsorcjum, które ostrzega przed nowym „zakłócającym zagrożeniem” ze strony trudnych do wykrycia, złośliwych „rojów AI”, zalewających media społecznościowe i kanały komunikacyjne.

Jak podkreślają, potencjalny autokrata mógłby wykorzystać takie roje do przekonania społeczeństw do zaakceptowania odwołanych wyborów lub podważenia ich wyników. Ostrzeżenia te pojawiają się w kontekście prognoz, że technologia ta może zostać wdrożona na dużą skalę do czasu wyborów prezydenckich w USA w 2028 roku – pisze brytyjski „The Guardian”.

Czytaj więcej

„Koniec mitu myślącej AI”. Naukowcy wskazują poważny problem

Wśród ekspertów ostrzegających przed AI są m.in. Gary Marcus z New York University – znany sceptyk wobec deklarowanego potencjału obecnych modeli AI, który określa siebie mianem „realisty generatywnej AI” – oraz Audrey Tang, pierwsza minister cyfryzacji Tajwanu, ostrzegająca: „Osoby opłacane przez siły autorytarne podważają procesy wyborcze, uzbrajają sztuczną inteligencję i wykorzystują nasze społeczne atuty przeciwko nam.”

Jonas Kunst, profesor komunikacji w BI Norwegian Business School, uważa, że jeśli te boty zaczną ewoluować w kolektyw i wymieniać się informacjami, aby rozwiązać problem – w tym przypadku realizować złośliwy cel, czyli analizować społeczność i znajdować jej słabe punkty – wówczas koordynacja zwiększy ich dokładność i skuteczność. To bardzo poważne zagrożenie, które – jak przewiduje Kunst – wkrótce się zmaterializuje.