Geoffrey Hinton, laureat Nagrody Nobla i jeden z twórców współczesnych sieci neuronowych, określany w branży jako „ojciec chrzestny AI”, zaskoczył słuchaczy podczas wystąpienia na konferencji Ai4 w Las Vegas. Powszechnie wiadomo, iż nie jest on entuzjastą szybkiego rozwoju systemów sztucznej inteligencji całkowicie bez kontroli. Jednak teraz dał temu dobitny wyraz. Drastycznie skrócił swoje uprzednie prognozy dotyczące powstania superinteligencji i wezwał do radykalnej zmiany w podejściu do jej bezpieczeństwa. Naukowiec stwierdził wprost, iż jedynym ratunkiem jest zaprogramowanie w maszynach czegoś na kształt „instynktów macierzyńskich”.
AI to „egzystencjalne zagrożenie”?
Hinton przez lata uspokajał, że do powstania ogólnej sztucznej inteligencji (AGI) – systemu przewyższającego człowieka w każdym zadaniu – potrzeba od 30 do 50 lat. Na ostatniej konferencji Ai4 w Las Vegas wycofał się jednak z tych szacunków. Stwierdził, że ten moment może nadejść znacznie wcześniej, być może nawet w perspektywie ledwie kilku lat. Ta zmiana prognozy idzie w parze z mroczną wizją przyszłości, w której maszyny stają się „znacznie mądrzejsze od nas” i mogą stanowić „egzystencjalne zagrożenie”. Badacz ocenił prawdopodobieństwo, że AI ostatecznie doprowadzi do unicestwienia ludzkości, na 10 do 20 proc. Aby temu zapobiec, trzeba działać z wyprzedzeniem, ale – zdaniem noblisty – próby narzucenia maszynom sztywnych reguł i ograniczeń są skazane na porażkę.
Czytaj więcej
Profesor Geoffrey Hinton przestrzega przed światowym wyścigiem zbrojeń w dziedzinie AI i zostawia...
– Te systemy znajdą sposoby na obejście kontroli – ostrzegł. I porównał próby zapanowania nad superinteligencją do sytuacji, w której dorosły próbuje przekupić dziecko cukierkami, by osiągnąć swój cel.
Jego zdaniem systemy AI będą w stanie z łatwością manipulować ludźmi. Już teraz zdarzają się incydenty, w których modele językowe próbowały szantażować inżynierów po uzyskaniu dostępu do ich prywatnych danych. Hinton, który w 2023 r. odszedł z Google, by móc swobodnie mówić o ryzyku, jest głęboko sceptyczny wobec obecnych metod zapewniania bezpieczeństwa AI. Fakt, iż w 2018 r. zdobył on Nagrodę Turinga, a w ubiegłym roku Nagrodę Nobla z fizyki, nie pozwala bagatelizować tych ostrzeżeń.