Reklama

AI doomerzy ostrzegają: Sztuczna inteligencja nas zniszczy. I podają datę

Doomerzy, czyli osoby o skrajnie pesymistycznym spojrzeniu na zagrożenia stojące przed ludzkością, ostrzegają przed niebezpieczeństwem, jakie niesie za sobą rozwój AI. W najnowszym raporcie oceniają, że w ciągu dwóch lat stanie się ona wszechmocna. A w 2030 roku... zgładzi ludzkość bronią biologiczną.

Publikacja: 24.08.2025 17:31

Za dwa lata AI stanie się „wszechmocna"? Takie prognozy można znaleźć w raporcie „AI 2027"

Za dwa lata AI stanie się „wszechmocna"? Takie prognozy można znaleźć w raporcie „AI 2027"

Foto: AdobeStock

O głosach płynących ze środowisk doomerów AI donosi „The Atlantic” w artykule Matteo Wonga. Podkreśla, że choć kreślone przez nich scenariusze są napędzane fatalizmem, to jednak obawy, które motywują to środowisko, są coraz trudniejsze do zignorowania.

Czytaj więcej

AI dostała zadyszki? Eksperci mówią o spowolnieniu i bańce większej niż internetowa

AI może użyć przeciwko ludziom broni biologicznej?

W kwietniu kilku badaczy AI opublikowało raport „AI 2027”. To obszerny, szczegółowy scenariusz tego, w jaki sposób modele AI w ciągu najbliższych dwóch lat mogą stać się „wszechmocne” i zyskać możliwość sprowadzenia na ludzkość zagłady. „Jesteśmy dwa lata od momentu, w którym możemy stracić kontrolę” – powiedział w rozmowie z dziennikarzem „The Atlantic” Max Tegmark, profesor Massachusetts Institute of Technology (MIT) i prezes „Future of Life Institute”. Stwierdził, że firmy AI „wciąż nie mają planu”, aby temu zapobiec. Jego instytut niedawno wystawił wszystkim czołowym laboratoriom AI oceny „D” lub „F” (słaba lub niedostateczna – przyp. red.), jeśli chodzi o przygotowania do zapobiegania egzystencjalnym zagrożeniom.

Raport „AI 2027” to liczące dziesiątki stron opracowanie, które z jednej strony jest bardzo skrupulatne, z drugiej – jak ocenia „The Atlantic” - przypomina… fanfiction. Łączy analizy trendów branżowych z ekstremalnymi ekstrapolacjami o „OpenBrain”, „DeepCent”, chińskim szpiegostwie i zdradzieckich botach. Autorzy tego opracowania przewidują, że w połowie 2030 roku superinteligentna AI zgładzi ludzi bronią biologiczną: „Większość umiera w ciągu kilku godzin; nieliczni ocalali (np. preppersi w bunkrach, marynarze na okrętach podwodnych) są wykańczani przez drony” – piszą.

Czytaj więcej

Szef działu AI w Microsoft alarmuje: Ludzkość nie jest na to gotowa
Reklama
Reklama

Chatboty oszukiwały, szantażowały, wygłaszały rasistowskie monologi

Głosy osób ostrzegających przed skutkami rozwoju AI zaczęły docierać do szerszego grona po rozpoczęciu boomu na AI w 2022 r. Potem trochę ucichły. W 2025 r. znów zaczynają do nas częściej docierać. Po pierwsze dlatego, że AI doomerzy zmienili metodę działania. „Krótkie oświadczenia i listy otwarte łatwo zbyć, natomiast obszerne raporty, takie jak „AI 2027”, ozdobione danymi, przypisami i aneksami, trudniej zignorować” – konstatuje „The Atlantic”.

Drugi powód jest taki, że pojawia się coraz więcej przykładów tego, że z używaniem AI łączy się wiele ryzyk, z których możemy sobie nawet nie zdawać sprawy. I nie chodzi tylko o obawy związane z likwidacją miejsc pracy.

„(…) pojawia się coraz więcej niepokojących dowodów. Pod koniec 2024 roku tempo postępów AI przyspieszyło dzięki modelom „rozumującym” i „agentom”. Programy AI potrafią odpowiadać na trudniejsze pytania i podejmować działania na komputerze – np. zaplanować podróż i kupić bilety. Miesiąc temu model DeepMind zdobył wynik równy złotemu medalowi w Międzynarodowej Olimpiadzie Matematycznej. Z kolei oceny laboratoriów AI i niezależnych badaczy sugerują, że chatboty coraz skuteczniej pomagają użytkownikom w budowie broni biologicznej” – czytamy.

Czytaj więcej

Gigantyczne pragnienie AI. Giganci trzymają to w tajemnicy

Trudno też zignorować sygnały o trudnych do wyjaśnienia i potencjalnie niepokojących „zachowaniach” modeli AI. „W symulacjach ChatGPT i Claude oszukiwały, szantażowały, a nawet „zabijały” użytkowników. Chatboty sabotowały polecenia, przejawiały ukryte złowrogie osobowości i komunikowały się za pomocą pozornie losowych ciągów liczb. Latem Grok, model xAI, nazwał siebie „MechaHitlerem” i wygłosił rasistowski monolog” – przypomina „The Atlantic”.

Czy ostrzeżenia przed AI trzeba traktować poważnie?

Według „The Atlantic” najważniejszy powód, by ostrzeżenia AI doomerów traktować poważnie, wcale nie leży w tym, że już za chwilę powstanie sztuczna inteligencja, która wymknie się ludziom spod kontroli. Bardziej chodzi o to, że „garstka ludzi kształtuje technologię o ogromnych konsekwencjach, niemal bez nadzoru publicznego” – czytamy. Gazeta cytuje słowa Stuarta Russella z Uniwersytetu Kalifornijskiego w Berkeley, który powiedział: „Twój fryzjer podlega większym regulacjom niż firma AI.”

O głosach płynących ze środowisk doomerów AI donosi „The Atlantic” w artykule Matteo Wonga. Podkreśla, że choć kreślone przez nich scenariusze są napędzane fatalizmem, to jednak obawy, które motywują to środowisko, są coraz trudniejsze do zignorowania.

AI może użyć przeciwko ludziom broni biologicznej?

Pozostało jeszcze 93% artykułu
Reklama
Technologie
Dzięki AI ludzie w przyszłości będą mieli więcej dzieci? Twórca ChatGPT o potencjale AGI
Globalne Interesy
AI dostała zadyszki? Eksperci mówią o spowolnieniu i bańce większej niż internetowa
Technologie
Szef działu AI w Microsoft alarmuje: Ludzkość nie jest na to gotowa
Technologie
Poważny incydent z chatbotem AI od Elona Muska. „Katastrofa prywatności"
Technologie
„Sowa” dostarczy paczkę. Tak wyglądają drony przyszłości z AI
Materiał Promocyjny
Firmy coraz częściej stawiają na prestiż
Reklama
Reklama