Reklama

Były inżynier Google: AI zniszczy nas na 95 proc. „Jak auto bez hamulców”

Szokująca prognoza doświadczonego inżyniera z Doliny Krzemowej: W najlepszym scenariuszu mamy tylko 5 proc. szans na przetrwanie dalszego dynamicznego rozwoju sztucznej inteligencji.

Publikacja: 11.08.2025 17:56

Sztuczna inteligencja może być wielkim zagrożeniem dla ludzkości. Ta prognoza bije wszystkie dotychc

Sztuczna inteligencja może być wielkim zagrożeniem dla ludzkości. Ta prognoza bije wszystkie dotychczasowe

Foto: AdobeStock

Wizja przyszłości, jaką w wywiadzie dla „The Times” nakreślił Nate Soares, były inżynier Google i Microsoft, a obecnie szef Machine Intelligence Research Institute (MIRI), mrozi krew w żyłach. Jego zdaniem ludzkość pędzi w kierunku egzystencjalnej katastrofy napędzanej przez sztuczną inteligencję, a szanse na pomyślny finał tej podróży są niewielkie. Ekspert wyliczył je na ledwie 5 proc. I to w najbardziej w optymistycznym scenariuszu.

Czym jest „P(doom)”?

Soares, kierujący jednym z najstarszych instytutów badawczych dedykowanych bezpieczeństwu AI, używa sugestywnej metafory. Rozwój superinteligencji przypomina mu samochód pędzący w stronę przepaści. Różnica polega na tym, że w pojeździe, który znamy, wiemy, gdzie jest hamulec. W przypadku sztucznej inteligencji – wciąż go szukamy, a prędkość rośnie. W przypadku AI ów postęp widać z każdym miesiącem. Prognoza prezesa MIRI mówi o zagładzie. Prawdopodobieństwo to miałoby sięgać 95 proc. To jedno z najbardziej radykalnych stanowisk w branży. Jednocześnie jest to głos, który trudno zignorować, biorąc pod uwagę doświadczenie Soaresa w technologicznych gigantach, gdzie miał bezpośredni wgląd w tempo prac nad AI.

Czytaj więcej

Bill Gates otworzył się jak nigdy. Chce ograniczenia wolności słowa?

Skrajny pesymizm nie jest jednak w tej branży aż tak powszechny. Ekstremalna ocena, dokonana przez Nate'a Soaresa, ma jednak spore grono wyznawców. W tym gronie często odwołuje się do pojęcia „P(doom)”. To wskaźnik prawdopodobieństwa katastrofy egzystencjalnej spowodowanej przez wymykającą się spod kontroli sztuczną inteligencję.

Jak AI może zniszczyć ludzkość?

W branży uśrednione wyniki ankiet „P(doom)” wśród badaczy AI wskazują na 14,4 proc. A mediana jest na poziomie 5 proc. Warto przytoczyć badanie z 2024 r., w którym wzięło udział 2778 specjalistów od sztucznej inteligencji. Wnioski? Od 38 do 51 proc. ankietowanych prawdopodobieństwo unicestwienia ludzkości przez AI ocenia na co najmniej 10 proc. Mówimy tu o ocenie ludzi, którzy na co dzień tworzą te technologie.

Reklama
Reklama

Czytaj więcej

Ukrywają, że to przez AI. Zwolnienia w spółkach technologicznych przyspieszają

Umiarkowane, choć wciąż alarmujące, szacunki przedstawiają też Elon Musk czy prezes Google Sundar Pichai, którzy mówią o ryzyku rzędu 10-20 proc. Toby Ord, filozof z Oxfordu, w swojej głośnej książce „The Precipice” zagrożenie ocenia na 10 proc., zaś Nick Bostrom, pionier badań nad superinteligencją, mówi już tylko o 5-proc. ryzyku. Na tym tle 95 proc. Soaresa brzmi mało wiarygodnie.

A jak właściwie AI miałaby nas unicestwić? Scenariusz rodem z filmów, gdy świadome maszyny wypowiadają wojnę swoim stwórcom, jest mało realny. Bardziej wiarygodnie brzmi teza, że superinteligencja, realizując jakiś cel, zyska np. zdolność do projektowania i dystrybucji zaawansowanej broni biologicznej bądź, wykonując powierzone jej zadanie – np. „zoptymalizuj produkcję energii na świecie” – może dojść do wniosku, że najefektywniejszym sposobem jest wyeliminowanie ludzi, którzy zużywają zasoby i stanowią przeszkodę. To tzw. problem niedopasowania celów (alignment problem).

Czytaj więcej

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Potrzeba „wyłączników awaryjnych”

W odpowiedzi na rosnące obawy, organizacje międzynarodowe i eksperci dyskutują o środkach zaradczych: od globalnych traktatów ograniczających niebezpieczne badania, po wdrożenie „wyłączników awaryjnych” w najpotężniejszych systemach. Jak dowodzą ekonomiści Jakob Grovetz i Klaus Prettner w pracy „The Economics of p(doom)”, inwestycje w bezpieczeństwo AI są uzasadnione ekonomicznie nawet przy nisko postrzeganym ryzyku. Przy ocenach sięgających kilkunastu procent, stają się absolutnym priorytetem. A historia uczy, że każda rewolucja technologiczna niesie ryzyko. Tym bardziej taka jak sztuczna inteligencja, która jest pierwszą technologią, mającą zdolność rozwijać się i doskonalić samoistnie, przy tym w tempie przekraczającym ludzką zdolność do adaptacji i kontroli.

Wizja przyszłości, jaką w wywiadzie dla „The Times” nakreślił Nate Soares, były inżynier Google i Microsoft, a obecnie szef Machine Intelligence Research Institute (MIRI), mrozi krew w żyłach. Jego zdaniem ludzkość pędzi w kierunku egzystencjalnej katastrofy napędzanej przez sztuczną inteligencję, a szanse na pomyślny finał tej podróży są niewielkie. Ekspert wyliczył je na ledwie 5 proc. I to w najbardziej w optymistycznym scenariuszu.

Czym jest „P(doom)”?

Pozostało jeszcze 89% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
AI może doprowadzić do groźnej choroby. Eksperci ostrzegają
Technologie
Armia USA kupi auta Elona Muska, aby… zniszczyć rakietami. Powód zaskakuje
Technologie
Chińska armia wypuściła watahy uzbrojonych robo-wilków. To przyszłość wojny
Technologie
Lot Polaka w kosmos to początek. Teraz poleci tam laboratorium
Technologie
Nowy król AI? Zaprezentowany GPT-5 ma zmieść konkurencję
Materiał Promocyjny
Nie tylko okna. VELUX Polska inwestuje w ludzi, wspólnotę i przyszłość
Reklama
Reklama