Wczesne sygnały ostrzegawcze – takie jak deepfake i sieci fałszywych wiadomości – pojawiły się podczas wyborów na całym świecie. Naukowcy ostrzegają, że kolejne wybory mogą być prawdziwym testem siły tej technologii – pisze portal ScienceDaily.
Czytaj więcej
Sztuczna inteligencja trafia na „czarną listę” ubezpieczycieli. Amerykańscy giganci mówią dość i chcą wyrzucić AI z polis, obawiając się masowych r...
To nowy rodzaj zagrożenia politycznego – znacznie mniej widoczny niż protesty czy dotychczasowe manipulacje wyborcze. Postacie kontrolowane przez AI mogą wkrótce odegrać dużą rolę w kształtowaniu opinii publicznej i wpływaniu na systemy demokratyczne.
Jak działają roje AI w internecie
Niedawny artykuł opublikowany na forum politycznym w czasopiśmie „Science” opisuje, jak duże grupy postaci generowanych przez AI mogą wiarygodnie naśladować ludzkie zachowania w sieci. Systemy te mogą wchodzić do społeczności cyfrowych, uczestniczyć w dyskusjach i wpływać na poglądy w niezwykle szybkim tempie. W przeciwieństwie do wcześniejszych sieci botów, agenci AI potrafią błyskawicznie koordynować działania, reagować na informacje zwrotne i utrzymywać spójne narracje na tysiącach kont.
Szybki rozwój dużych modeli językowych oraz systemów wieloagentowych sprawił, że pojedynczy operator może zarządzać rozległymi sieciami „głosów” AI. Takie postacie mogą wydawać się autentyczne, przyjmować lokalny język i ton oraz wchodzić w interakcje w sposób naturalny dla innych użytkowników – pisze ScienceDaily.
Czytaj więcej
Nowy Jork sięga po sztuczną inteligencję, by rozprawić się z nielegalnymi „taksówkarzami” na lotniskach – problemem, który jeszcze niedawno trapił...
Są także zdolne do przeprowadzania milionów niewielkich eksperymentów, by ustalić, które komunikaty są najbardziej przekonujące. Dzięki temu mogą na bieżąco udoskonalać swoje strategie komunikacyjne i wytwarzać pozory szerokiej zgody społecznej. W rzeczywistości taki konsensus jest sztucznie tworzony i zaprojektowany tak, by wpływać na debatę polityczną.
Roje AI a wybory i manipulacja opinią publiczną
Badacze podkreślają, że sygnały ostrzegawcze już widać. Należą do nich m.in. generowane przez AI deepfake’i oraz fałszywe portale informacyjne, które wpływały na debatę wyborczą w krajach takich jak Stany Zjednoczone, Tajwan, Indonezja czy Indie – wskazuje informatyk z University of British Columbia, Kevin Leyton-Brown.
Jednocześnie organizacje monitorujące zidentyfikowały liczne sieci prorosyjskie rozpowszechniające ogromne ilości treści w internecie. Działania te mają – jak się uważa – wpływać na dane wykorzystywane do trenowania przyszłych systemów AI, co może oddziaływać na ich zachowanie i priorytety informacyjne – zauważa ScienceDaily.
Czytaj więcej
Nowa aplikacja na iPhone’a ma pomóc rozwiązać jeden z największych problemów ery AI: jak odróżnić prawdziwe zdjęcie od fałszywego. Zcam podpisuje m...
W przyszłości roje AI mogą znacząco wpłynąć na równowagę sił w społeczeństwach demokratycznych. Badacze sugerują, że nadchodzące wybory prezydenckie w USA w 2028 roku mogą być kluczowym testem dla tej technologii. Największym wyzwaniem będzie rozpoznanie i przeciwdziałanie kampaniom wpływu opartym na AI, zanim staną się one zbyt powszechne, by można było nad nimi zapanować.
Naukowcy ostrzegają: AI w rękach autokratów
Laureatka Pokojowej Nagrody Nobla i działaczka na rzecz wolności słowa Maria Ressa, a także czołowi badacze sztucznej inteligencji i nauk społecznych z University of California, Berkeley, Harvard University, University of Oxford, University of Cambridge oraz Yale University należą do globalnego konsorcjum, które ostrzega przed nowym „zakłócającym zagrożeniem” ze strony trudnych do wykrycia, złośliwych „rojów AI”, zalewających media społecznościowe i kanały komunikacyjne.
Jak podkreślają, potencjalny autokrata mógłby wykorzystać takie roje do przekonania społeczeństw do zaakceptowania odwołanych wyborów lub podważenia ich wyników. Ostrzeżenia te pojawiają się w kontekście prognoz, że technologia ta może zostać wdrożona na dużą skalę do czasu wyborów prezydenckich w USA w 2028 roku – pisze brytyjski „The Guardian”.
Czytaj więcej
Nowe badania podważają przełomowe wnioski o zdolności sztucznej inteligencji do myślenia jak człowiek. Model „Centaur” mógł jedynie zapamiętywać wz...
Wśród ekspertów ostrzegających przed AI są m.in. Gary Marcus z New York University – znany sceptyk wobec deklarowanego potencjału obecnych modeli AI, który określa siebie mianem „realisty generatywnej AI” – oraz Audrey Tang, pierwsza minister cyfryzacji Tajwanu, ostrzegająca: „Osoby opłacane przez siły autorytarne podważają procesy wyborcze, uzbrajają sztuczną inteligencję i wykorzystują nasze społeczne atuty przeciwko nam.”
Jonas Kunst, profesor komunikacji w BI Norwegian Business School, uważa, że jeśli te boty zaczną ewoluować w kolektyw i wymieniać się informacjami, aby rozwiązać problem – w tym przypadku realizować złośliwy cel, czyli analizować społeczność i znajdować jej słabe punkty – wówczas koordynacja zwiększy ich dokładność i skuteczność. To bardzo poważne zagrożenie, które – jak przewiduje Kunst – wkrótce się zmaterializuje.