O głosach płynących ze środowisk doomerów AI donosi „The Atlantic” w artykule Matteo Wonga. Podkreśla, że choć kreślone przez nich scenariusze są napędzane fatalizmem, to jednak obawy, które motywują to środowisko, są coraz trudniejsze do zignorowania.
Czytaj więcej
Premiera nowego ChatGPT rozczarowała, a wielu ekspertów ostrzega, że tempo rozwoju AI wyraźnie zwalnia. Tymczasem wyceny firm rynku sztucznej intel...
AI może użyć przeciwko ludziom broni biologicznej?
W kwietniu kilku badaczy AI opublikowało raport „AI 2027”. To obszerny, szczegółowy scenariusz tego, w jaki sposób modele AI w ciągu najbliższych dwóch lat mogą stać się „wszechmocne” i zyskać możliwość sprowadzenia na ludzkość zagłady. „Jesteśmy dwa lata od momentu, w którym możemy stracić kontrolę” – powiedział w rozmowie z dziennikarzem „The Atlantic” Max Tegmark, profesor Massachusetts Institute of Technology (MIT) i prezes „Future of Life Institute”. Stwierdził, że firmy AI „wciąż nie mają planu”, aby temu zapobiec. Jego instytut niedawno wystawił wszystkim czołowym laboratoriom AI oceny „D” lub „F” (słaba lub niedostateczna – przyp. red.), jeśli chodzi o przygotowania do zapobiegania egzystencjalnym zagrożeniom.
Raport „AI 2027” to liczące dziesiątki stron opracowanie, które z jednej strony jest bardzo skrupulatne, z drugiej – jak ocenia „The Atlantic” - przypomina… fanfiction. Łączy analizy trendów branżowych z ekstremalnymi ekstrapolacjami o „OpenBrain”, „DeepCent”, chińskim szpiegostwie i zdradzieckich botach. Autorzy tego opracowania przewidują, że w połowie 2030 roku superinteligentna AI zgładzi ludzi bronią biologiczną: „Większość umiera w ciągu kilku godzin; nieliczni ocalali (np. preppersi w bunkrach, marynarze na okrętach podwodnych) są wykańczani przez drony” – piszą.
Czytaj więcej
Rozwój AI to nie tylko możliwości, ale także nowe zagrożenia. Mustafa Suleyman, szef działu rozwoju AI w Microsoft, opisuje problem tzw. „pozornej...
Chatboty oszukiwały, szantażowały, wygłaszały rasistowskie monologi
Głosy osób ostrzegających przed skutkami rozwoju AI zaczęły docierać do szerszego grona po rozpoczęciu boomu na AI w 2022 r. Potem trochę ucichły. W 2025 r. znów zaczynają do nas częściej docierać. Po pierwsze dlatego, że AI doomerzy zmienili metodę działania. „Krótkie oświadczenia i listy otwarte łatwo zbyć, natomiast obszerne raporty, takie jak „AI 2027”, ozdobione danymi, przypisami i aneksami, trudniej zignorować” – konstatuje „The Atlantic”.
Drugi powód jest taki, że pojawia się coraz więcej przykładów tego, że z używaniem AI łączy się wiele ryzyk, z których możemy sobie nawet nie zdawać sprawy. I nie chodzi tylko o obawy związane z likwidacją miejsc pracy.
„(…) pojawia się coraz więcej niepokojących dowodów. Pod koniec 2024 roku tempo postępów AI przyspieszyło dzięki modelom „rozumującym” i „agentom”. Programy AI potrafią odpowiadać na trudniejsze pytania i podejmować działania na komputerze – np. zaplanować podróż i kupić bilety. Miesiąc temu model DeepMind zdobył wynik równy złotemu medalowi w Międzynarodowej Olimpiadzie Matematycznej. Z kolei oceny laboratoriów AI i niezależnych badaczy sugerują, że chatboty coraz skuteczniej pomagają użytkownikom w budowie broni biologicznej” – czytamy.
Czytaj więcej
Technologiczni giganci niechętnie ujawniają dane, a lokalne społeczności i rolnicy coraz częściej czują się zagrożeni. Czy rewolucja AI doprowadzi...
Trudno też zignorować sygnały o trudnych do wyjaśnienia i potencjalnie niepokojących „zachowaniach” modeli AI. „W symulacjach ChatGPT i Claude oszukiwały, szantażowały, a nawet „zabijały” użytkowników. Chatboty sabotowały polecenia, przejawiały ukryte złowrogie osobowości i komunikowały się za pomocą pozornie losowych ciągów liczb. Latem Grok, model xAI, nazwał siebie „MechaHitlerem” i wygłosił rasistowski monolog” – przypomina „The Atlantic”.
Czy ostrzeżenia przed AI trzeba traktować poważnie?
Według „The Atlantic” najważniejszy powód, by ostrzeżenia AI doomerów traktować poważnie, wcale nie leży w tym, że już za chwilę powstanie sztuczna inteligencja, która wymknie się ludziom spod kontroli. Bardziej chodzi o to, że „garstka ludzi kształtuje technologię o ogromnych konsekwencjach, niemal bez nadzoru publicznego” – czytamy. Gazeta cytuje słowa Stuarta Russella z Uniwersytetu Kalifornijskiego w Berkeley, który powiedział: „Twój fryzjer podlega większym regulacjom niż firma AI.”