Reklama

Były inżynier Google: AI zniszczy nas na 95 proc. „Jak auto bez hamulców”

Szokująca prognoza doświadczonego inżyniera z Doliny Krzemowej: W najlepszym scenariuszu mamy tylko 5 proc. szans na przetrwanie dalszego dynamicznego rozwoju sztucznej inteligencji.

Publikacja: 11.08.2025 17:56

Sztuczna inteligencja może być wielkim zagrożeniem dla ludzkości. Ta prognoza bije wszystkie dotychc

Sztuczna inteligencja może być wielkim zagrożeniem dla ludzkości. Ta prognoza bije wszystkie dotychczasowe

Foto: AdobeStock

Wizja przyszłości, jaką w wywiadzie dla „The Times” nakreślił Nate Soares, były inżynier Google i Microsoft, a obecnie szef Machine Intelligence Research Institute (MIRI), mrozi krew w żyłach. Jego zdaniem ludzkość pędzi w kierunku egzystencjalnej katastrofy napędzanej przez sztuczną inteligencję, a szanse na pomyślny finał tej podróży są niewielkie. Ekspert wyliczył je na ledwie 5 proc. I to w najbardziej w optymistycznym scenariuszu.

Czym jest „P(doom)”?

Soares, kierujący jednym z najstarszych instytutów badawczych dedykowanych bezpieczeństwu AI, używa sugestywnej metafory. Rozwój superinteligencji przypomina mu samochód pędzący w stronę przepaści. Różnica polega na tym, że w pojeździe, który znamy, wiemy, gdzie jest hamulec. W przypadku sztucznej inteligencji – wciąż go szukamy, a prędkość rośnie. W przypadku AI ów postęp widać z każdym miesiącem. Prognoza prezesa MIRI mówi o zagładzie. Prawdopodobieństwo to miałoby sięgać 95 proc. To jedno z najbardziej radykalnych stanowisk w branży. Jednocześnie jest to głos, który trudno zignorować, biorąc pod uwagę doświadczenie Soaresa w technologicznych gigantach, gdzie miał bezpośredni wgląd w tempo prac nad AI.

Czytaj więcej

Bill Gates otworzył się jak nigdy. Chce ograniczenia wolności słowa?

Skrajny pesymizm nie jest jednak w tej branży aż tak powszechny. Ekstremalna ocena, dokonana przez Nate'a Soaresa, ma jednak spore grono wyznawców. W tym gronie często odwołuje się do pojęcia „P(doom)”. To wskaźnik prawdopodobieństwa katastrofy egzystencjalnej spowodowanej przez wymykającą się spod kontroli sztuczną inteligencję.

Jak AI może zniszczyć ludzkość?

W branży uśrednione wyniki ankiet „P(doom)” wśród badaczy AI wskazują na 14,4 proc. A mediana jest na poziomie 5 proc. Warto przytoczyć badanie z 2024 r., w którym wzięło udział 2778 specjalistów od sztucznej inteligencji. Wnioski? Od 38 do 51 proc. ankietowanych prawdopodobieństwo unicestwienia ludzkości przez AI ocenia na co najmniej 10 proc. Mówimy tu o ocenie ludzi, którzy na co dzień tworzą te technologie.

Reklama
Reklama

Czytaj więcej

Ukrywają, że to przez AI. Zwolnienia w spółkach technologicznych przyspieszają

Umiarkowane, choć wciąż alarmujące, szacunki przedstawiają też Elon Musk czy prezes Google Sundar Pichai, którzy mówią o ryzyku rzędu 10-20 proc. Toby Ord, filozof z Oxfordu, w swojej głośnej książce „The Precipice” zagrożenie ocenia na 10 proc., zaś Nick Bostrom, pionier badań nad superinteligencją, mówi już tylko o 5-proc. ryzyku. Na tym tle 95 proc. Soaresa brzmi mało wiarygodnie.

A jak właściwie AI miałaby nas unicestwić? Scenariusz rodem z filmów, gdy świadome maszyny wypowiadają wojnę swoim stwórcom, jest mało realny. Bardziej wiarygodnie brzmi teza, że superinteligencja, realizując jakiś cel, zyska np. zdolność do projektowania i dystrybucji zaawansowanej broni biologicznej bądź, wykonując powierzone jej zadanie – np. „zoptymalizuj produkcję energii na świecie” – może dojść do wniosku, że najefektywniejszym sposobem jest wyeliminowanie ludzi, którzy zużywają zasoby i stanowią przeszkodę. To tzw. problem niedopasowania celów (alignment problem).

Czytaj więcej

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Potrzeba „wyłączników awaryjnych”

W odpowiedzi na rosnące obawy, organizacje międzynarodowe i eksperci dyskutują o środkach zaradczych: od globalnych traktatów ograniczających niebezpieczne badania, po wdrożenie „wyłączników awaryjnych” w najpotężniejszych systemach. Jak dowodzą ekonomiści Jakob Grovetz i Klaus Prettner w pracy „The Economics of p(doom)”, inwestycje w bezpieczeństwo AI są uzasadnione ekonomicznie nawet przy nisko postrzeganym ryzyku. Przy ocenach sięgających kilkunastu procent, stają się absolutnym priorytetem. A historia uczy, że każda rewolucja technologiczna niesie ryzyko. Tym bardziej taka jak sztuczna inteligencja, która jest pierwszą technologią, mającą zdolność rozwijać się i doskonalić samoistnie, przy tym w tempie przekraczającym ludzką zdolność do adaptacji i kontroli.

Technologie
W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców
Technologie
Rafał Brzoska zainwestował w satelity. Polski start-up warty 10 mld zł
Technologie
Luksus i AI nie idą w parze? Fala krytyki pod adresem Valentino
Technologie
Chiński robot straszy w Himalajach. Niepokojące nagranie na granicy z Indiami
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Technologie
„Niebezpieczne porady”. Brytyjscy naukowcy zbadali ChatGPT i alarmują
Materiał Promocyjny
Jak rozwiązać problem rosnącej góry ubrań
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama