O głosach płynących ze środowisk doomerów AI donosi „The Atlantic” w artykule Matteo Wonga. Podkreśla, że choć kreślone przez nich scenariusze są napędzane fatalizmem, to jednak obawy, które motywują to środowisko, są coraz trudniejsze do zignorowania.
Czytaj więcej
Premiera nowego ChatGPT rozczarowała, a wielu ekspertów ostrzega, że tempo rozwoju AI wyraźnie zw...
AI może użyć przeciwko ludziom broni biologicznej?
W kwietniu kilku badaczy AI opublikowało raport „AI 2027”. To obszerny, szczegółowy scenariusz tego, w jaki sposób modele AI w ciągu najbliższych dwóch lat mogą stać się „wszechmocne” i zyskać możliwość sprowadzenia na ludzkość zagłady. „Jesteśmy dwa lata od momentu, w którym możemy stracić kontrolę” – powiedział w rozmowie z dziennikarzem „The Atlantic” Max Tegmark, profesor Massachusetts Institute of Technology (MIT) i prezes „Future of Life Institute”. Stwierdził, że firmy AI „wciąż nie mają planu”, aby temu zapobiec. Jego instytut niedawno wystawił wszystkim czołowym laboratoriom AI oceny „D” lub „F” (słaba lub niedostateczna – przyp. red.), jeśli chodzi o przygotowania do zapobiegania egzystencjalnym zagrożeniom.
Raport „AI 2027” to liczące dziesiątki stron opracowanie, które z jednej strony jest bardzo skrupulatne, z drugiej – jak ocenia „The Atlantic” - przypomina… fanfiction. Łączy analizy trendów branżowych z ekstremalnymi ekstrapolacjami o „OpenBrain”, „DeepCent”, chińskim szpiegostwie i zdradzieckich botach. Autorzy tego opracowania przewidują, że w połowie 2030 roku superinteligentna AI zgładzi ludzi bronią biologiczną: „Większość umiera w ciągu kilku godzin; nieliczni ocalali (np. preppersi w bunkrach, marynarze na okrętach podwodnych) są wykańczani przez drony” – piszą.
Czytaj więcej
Rozwój AI to nie tylko możliwości, ale także nowe zagrożenia. Mustafa Suleyman, szef działu rozwo...