Wizja przyszłości, jaką w wywiadzie dla „The Times” nakreślił Nate Soares, były inżynier Google i Microsoft, a obecnie szef Machine Intelligence Research Institute (MIRI), mrozi krew w żyłach. Jego zdaniem ludzkość pędzi w kierunku egzystencjalnej katastrofy napędzanej przez sztuczną inteligencję, a szanse na pomyślny finał tej podróży są niewielkie. Ekspert wyliczył je na ledwie 5 proc. I to w najbardziej w optymistycznym scenariuszu.
Czym jest „P(doom)”?
Soares, kierujący jednym z najstarszych instytutów badawczych dedykowanych bezpieczeństwu AI, używa sugestywnej metafory. Rozwój superinteligencji przypomina mu samochód pędzący w stronę przepaści. Różnica polega na tym, że w pojeździe, który znamy, wiemy, gdzie jest hamulec. W przypadku sztucznej inteligencji – wciąż go szukamy, a prędkość rośnie. W przypadku AI ów postęp widać z każdym miesiącem. Prognoza prezesa MIRI mówi o zagładzie. Prawdopodobieństwo to miałoby sięgać 95 proc. To jedno z najbardziej radykalnych stanowisk w branży. Jednocześnie jest to głos, który trudno zignorować, biorąc pod uwagę doświadczenie Soaresa w technologicznych gigantach, gdzie miał bezpośredni wgląd w tempo prac nad AI.
Czytaj więcej
Miliarder i twórca Microsoftu zadebiutuje już za kilkanaście dni w nowym serialu na platformie Netflix zatytułowanym „Co dalej? Przyszłość z Billem...
Skrajny pesymizm nie jest jednak w tej branży aż tak powszechny. Ekstremalna ocena, dokonana przez Nate'a Soaresa, ma jednak spore grono wyznawców. W tym gronie często odwołuje się do pojęcia „P(doom)”. To wskaźnik prawdopodobieństwa katastrofy egzystencjalnej spowodowanej przez wymykającą się spod kontroli sztuczną inteligencję.
Jak AI może zniszczyć ludzkość?
W branży uśrednione wyniki ankiet „P(doom)” wśród badaczy AI wskazują na 14,4 proc. A mediana jest na poziomie 5 proc. Warto przytoczyć badanie z 2024 r., w którym wzięło udział 2778 specjalistów od sztucznej inteligencji. Wnioski? Od 38 do 51 proc. ankietowanych prawdopodobieństwo unicestwienia ludzkości przez AI ocenia na co najmniej 10 proc. Mówimy tu o ocenie ludzi, którzy na co dzień tworzą te technologie.
Czytaj więcej
Średnio 608 osób dziennie dotykały cięcia zatrudnienia ogłoszone już w tym roku w branży ICT. Choć same firmy na ogół nie wiążą ich z rozwojem sztu...
Umiarkowane, choć wciąż alarmujące, szacunki przedstawiają też Elon Musk czy prezes Google Sundar Pichai, którzy mówią o ryzyku rzędu 10-20 proc. Toby Ord, filozof z Oxfordu, w swojej głośnej książce „The Precipice” zagrożenie ocenia na 10 proc., zaś Nick Bostrom, pionier badań nad superinteligencją, mówi już tylko o 5-proc. ryzyku. Na tym tle 95 proc. Soaresa brzmi mało wiarygodnie.
A jak właściwie AI miałaby nas unicestwić? Scenariusz rodem z filmów, gdy świadome maszyny wypowiadają wojnę swoim stwórcom, jest mało realny. Bardziej wiarygodnie brzmi teza, że superinteligencja, realizując jakiś cel, zyska np. zdolność do projektowania i dystrybucji zaawansowanej broni biologicznej bądź, wykonując powierzone jej zadanie – np. „zoptymalizuj produkcję energii na świecie” – może dojść do wniosku, że najefektywniejszym sposobem jest wyeliminowanie ludzi, którzy zużywają zasoby i stanowią przeszkodę. To tzw. problem niedopasowania celów (alignment problem).
Czytaj więcej
Należąca do Google spółka specjalizująca się w sztucznej inteligencji opublikowała 145-stronicowy dokument na temat bezpieczeństwa tej technologii....
Potrzeba „wyłączników awaryjnych”
W odpowiedzi na rosnące obawy, organizacje międzynarodowe i eksperci dyskutują o środkach zaradczych: od globalnych traktatów ograniczających niebezpieczne badania, po wdrożenie „wyłączników awaryjnych” w najpotężniejszych systemach. Jak dowodzą ekonomiści Jakob Grovetz i Klaus Prettner w pracy „The Economics of p(doom)”, inwestycje w bezpieczeństwo AI są uzasadnione ekonomicznie nawet przy nisko postrzeganym ryzyku. Przy ocenach sięgających kilkunastu procent, stają się absolutnym priorytetem. A historia uczy, że każda rewolucja technologiczna niesie ryzyko. Tym bardziej taka jak sztuczna inteligencja, która jest pierwszą technologią, mającą zdolność rozwijać się i doskonalić samoistnie, przy tym w tempie przekraczającym ludzką zdolność do adaptacji i kontroli.