„Wzywamy do zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie zapanuje szeroki konsensus naukowy, że można to zrobić w sposób bezpieczny i kontrolowany, oraz nie uzyska się silnego poparcia społecznego” – czytamy w liście, pod którym podpisało się m.in. pięciu laureatów Nagrody Nobla, Steve Wozniak (współzałożyciel Apple), Steve Bannon (bliski sojusznik prezydenta Trumpa), Paolo Benanti (doradca papieża), a także Harry i Meghan, książę i księżna Sussex.
Kto napisał list w sprawie superinteligencji?
List stworzyła Future of Life Institute (FLI) – organizacja non-profit, która w 2023 r. opublikowała inny list otwarty, wzywający do sześciomiesięcznej przerwy w rozwoju potężnych systemów AI. Choć list ten był szeroko komentowany, nie osiągnął swojego celu.
Teraz organizacja skupiła się na superinteligencji, ponieważ – jak wierzą przedstawiciele FLI – ta technologia, definiowana jako system zdolny przewyższyć człowieka we wszystkich użytecznych zadaniach, może pojawić się już w ciągu roku lub dwóch.
Czytaj więcej
Superinteligencja może wyrwać się spod kontroli i zniszczyć ludzkość – alarmuje Geoffrey Hinton,...
– Czas się kończy – powiedział w rozmowie z magazynem „Time” Anthony Aguirre, dyrektor wykonawczy FLI. – Jedyną rzeczą, która może powstrzymać firmy AI przed niekontrolowanym dążeniem do superinteligencji, jest powszechne uświadomienie sobie na wszystkich poziomach społeczeństwa, że tego właśnie nie chcemy.