Reklama

Były inżynier Google: AI zniszczy nas na 95 proc. „Jak auto bez hamulców”

Szokująca prognoza doświadczonego inżyniera z Doliny Krzemowej: W najlepszym scenariuszu mamy tylko 5 proc. szans na przetrwanie dalszego dynamicznego rozwoju sztucznej inteligencji.

Publikacja: 11.08.2025 17:56

Sztuczna inteligencja może być wielkim zagrożeniem dla ludzkości. Ta prognoza bije wszystkie dotychc

Sztuczna inteligencja może być wielkim zagrożeniem dla ludzkości. Ta prognoza bije wszystkie dotychczasowe

Foto: AdobeStock

Wizja przyszłości, jaką w wywiadzie dla „The Times” nakreślił Nate Soares, były inżynier Google i Microsoft, a obecnie szef Machine Intelligence Research Institute (MIRI), mrozi krew w żyłach. Jego zdaniem ludzkość pędzi w kierunku egzystencjalnej katastrofy napędzanej przez sztuczną inteligencję, a szanse na pomyślny finał tej podróży są niewielkie. Ekspert wyliczył je na ledwie 5 proc. I to w najbardziej w optymistycznym scenariuszu.

Czym jest „P(doom)”?

Soares, kierujący jednym z najstarszych instytutów badawczych dedykowanych bezpieczeństwu AI, używa sugestywnej metafory. Rozwój superinteligencji przypomina mu samochód pędzący w stronę przepaści. Różnica polega na tym, że w pojeździe, który znamy, wiemy, gdzie jest hamulec. W przypadku sztucznej inteligencji – wciąż go szukamy, a prędkość rośnie. W przypadku AI ów postęp widać z każdym miesiącem. Prognoza prezesa MIRI mówi o zagładzie. Prawdopodobieństwo to miałoby sięgać 95 proc. To jedno z najbardziej radykalnych stanowisk w branży. Jednocześnie jest to głos, który trudno zignorować, biorąc pod uwagę doświadczenie Soaresa w technologicznych gigantach, gdzie miał bezpośredni wgląd w tempo prac nad AI.

Czytaj więcej

Bill Gates otworzył się jak nigdy. Chce ograniczenia wolności słowa?

Skrajny pesymizm nie jest jednak w tej branży aż tak powszechny. Ekstremalna ocena, dokonana przez Nate'a Soaresa, ma jednak spore grono wyznawców. W tym gronie często odwołuje się do pojęcia „P(doom)”. To wskaźnik prawdopodobieństwa katastrofy egzystencjalnej spowodowanej przez wymykającą się spod kontroli sztuczną inteligencję.

Jak AI może zniszczyć ludzkość?

W branży uśrednione wyniki ankiet „P(doom)” wśród badaczy AI wskazują na 14,4 proc. A mediana jest na poziomie 5 proc. Warto przytoczyć badanie z 2024 r., w którym wzięło udział 2778 specjalistów od sztucznej inteligencji. Wnioski? Od 38 do 51 proc. ankietowanych prawdopodobieństwo unicestwienia ludzkości przez AI ocenia na co najmniej 10 proc. Mówimy tu o ocenie ludzi, którzy na co dzień tworzą te technologie.

Reklama
Reklama

Czytaj więcej

Ukrywają, że to przez AI. Zwolnienia w spółkach technologicznych przyspieszają

Umiarkowane, choć wciąż alarmujące, szacunki przedstawiają też Elon Musk czy prezes Google Sundar Pichai, którzy mówią o ryzyku rzędu 10-20 proc. Toby Ord, filozof z Oxfordu, w swojej głośnej książce „The Precipice” zagrożenie ocenia na 10 proc., zaś Nick Bostrom, pionier badań nad superinteligencją, mówi już tylko o 5-proc. ryzyku. Na tym tle 95 proc. Soaresa brzmi mało wiarygodnie.

A jak właściwie AI miałaby nas unicestwić? Scenariusz rodem z filmów, gdy świadome maszyny wypowiadają wojnę swoim stwórcom, jest mało realny. Bardziej wiarygodnie brzmi teza, że superinteligencja, realizując jakiś cel, zyska np. zdolność do projektowania i dystrybucji zaawansowanej broni biologicznej bądź, wykonując powierzone jej zadanie – np. „zoptymalizuj produkcję energii na świecie” – może dojść do wniosku, że najefektywniejszym sposobem jest wyeliminowanie ludzi, którzy zużywają zasoby i stanowią przeszkodę. To tzw. problem niedopasowania celów (alignment problem).

Czytaj więcej

Donald Trump to nic. Przed tym „egzystencjalnym zagrożeniem” ostrzegają eksperci

Potrzeba „wyłączników awaryjnych”

W odpowiedzi na rosnące obawy, organizacje międzynarodowe i eksperci dyskutują o środkach zaradczych: od globalnych traktatów ograniczających niebezpieczne badania, po wdrożenie „wyłączników awaryjnych” w najpotężniejszych systemach. Jak dowodzą ekonomiści Jakob Grovetz i Klaus Prettner w pracy „The Economics of p(doom)”, inwestycje w bezpieczeństwo AI są uzasadnione ekonomicznie nawet przy nisko postrzeganym ryzyku. Przy ocenach sięgających kilkunastu procent, stają się absolutnym priorytetem. A historia uczy, że każda rewolucja technologiczna niesie ryzyko. Tym bardziej taka jak sztuczna inteligencja, która jest pierwszą technologią, mającą zdolność rozwijać się i doskonalić samoistnie, przy tym w tempie przekraczającym ludzką zdolność do adaptacji i kontroli.

Wizja przyszłości, jaką w wywiadzie dla „The Times” nakreślił Nate Soares, były inżynier Google i Microsoft, a obecnie szef Machine Intelligence Research Institute (MIRI), mrozi krew w żyłach. Jego zdaniem ludzkość pędzi w kierunku egzystencjalnej katastrofy napędzanej przez sztuczną inteligencję, a szanse na pomyślny finał tej podróży są niewielkie. Ekspert wyliczył je na ledwie 5 proc. I to w najbardziej w optymistycznym scenariuszu.

Czym jest „P(doom)”?

Pozostało jeszcze 89% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Film „Transformers” staje się rzeczywistością? Przełomowe odkrycie naukowców
Technologie
AI jak nowa religia? Liderzy Doliny Krzemowej mówią o prorokach i Antychryście
Technologie
Dawid pokonał Goliata. Ten mały model AI inspirowany mózgiem rozgromił ChataGPT
Technologie
Tej grupie pracowników AI zagraża najbardziej. Zaskakujące wyniki badania rynku pracy
Materiał Promocyjny
Bruksela i krajowe fundusze wspierają firmy rolno-spożywcze
Technologie
YouTube pozwolił AI edytować wybrane filmy użytkowników. Zgodę twórców pominięto
Materiał Promocyjny
Nie tylko okna. VELUX Polska inwestuje w ludzi, wspólnotę i przyszłość
Reklama
Reklama