– Kiedy myślę o zagrożeniach egzystencjalnych dla dużej części ludzkości to widzę oczami wyobraźni następną pandemię, zmiany klimatyczne prowadzące do masowej depopulacji, czy asteroidę lecącą w stronę Ziemi – tak do alarmistycznych prognoz, ostrzegających przed sztuczną inteligencją odniósł się na Twitterze wiodący naukowiec zajmujący się tematyką AI - Andrew Ng. Amerykański informatyk, były szef Google Brain i założyciel DeepLearning.AI, przekonuje, że to właśnie zaawansowane systemy AI mogą stać się lekarstwem na wszystkie potencjalne kryzysy grożące ludzkości. „AI jest rozwiązaniem, a nie zagrożeniem.

- Jeśli chcemy, aby ludzkość przetrwała i rozwijała się przez następne tysiąc lat, sprawmy, by sztuczna inteligencja działała szybciej, a nie wolniej – zaapelował guru branży AI.\

Czytaj więcej

Najwięksi wrogowie sztucznej inteligencji. Potężne zmiany nie przejdą bez walki

Ekspert twierdzi wprost, że straszenie botami i porównywanie ich do bomby atomowej jest szkodliwe. Odniósł się tym samym do toczącej się od wielu tygodni dyskusji o tym, czy należy ograniczyć lub wręcz wstrzymać prace nad rozwojem tej technologii. Do tego nawołuje choćby Elon Musk. Ale również były dyrektor generalny Google Eric Schmidt ostrzegł ostatnio, że sztuczna inteligencja to „ryzyko egzystencjalne” dla ludzkości. Dość niespodziewanie do tego grona dołączył teraz Sam Altman, prezes OpenAI. W opublikowanym we wtorek liście, który podpisało w sumie kilkudziesięciu najbardziej znanych w branży naukowców, menedżerów firm technologicznych i filozofów, napisał: „Ograniczenie ryzyka egzystencjalnego, spowodowanego przez sztuczną inteligencję, powinno stać się globalnym priorytetem, obok takich zagrożeń jak pandemie, czy wojna nuklearna”.

Sygnatariuszami oświadczenia, za którym stoi organizacją Center for AI Safety, są m.in. Geoffrey Hinton, nazywany „ojcem chrzestnym AI”, Yoshua Bengio (profesor University of Montreal), Demis Hassabis (prezes Google DeepMind), a także Dario Amodei (twórca Anthropic), czy Eliezer Yudkowsky (ekspert z Machine Intelligence Research Institute).