Reklama

Harry i Meghan pod rękę z naukowcami. Boją się superinteligencji

Ponad 700 osób, w tym laureaci Nobla, liderzy religijni, naukowcy i celebryci podpisali apel o zakaz rozwoju superinteligentnej sztucznej inteligencji. Naukowcy ostrzegają, że takie systemy mogą powstać już w ciągu dwóch lat i wymknąć się spod kontroli.

Publikacja: 23.10.2025 12:40

Książeta Harry i Meghan obwiają się superinteligencji

Książeta Harry i Meghan obwiają się superinteligencji

Foto: Bloomberg

„Wzywamy do zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie zapanuje szeroki konsensus naukowy, że można to zrobić w sposób bezpieczny i kontrolowany, oraz nie uzyska się silnego poparcia społecznego” – czytamy w liście, pod którym podpisało się m.in. pięciu laureatów Nagrody Nobla, Steve Wozniak (współzałożyciel Apple), Steve Bannon (bliski sojusznik prezydenta Trumpa), Paolo Benanti (doradca papieża), a także Harry i Meghan, książę i księżna Sussex.

Kto napisał list w sprawie superinteligencji?

List stworzyła Future of Life Institute (FLI) – organizacja non-profit, która w 2023 r. opublikowała inny list otwarty, wzywający do sześciomiesięcznej przerwy w rozwoju potężnych systemów AI. Choć list ten był szeroko komentowany, nie osiągnął swojego celu.

Teraz organizacja skupiła się na superinteligencji, ponieważ – jak wierzą przedstawiciele FLI – ta technologia, definiowana jako system zdolny przewyższyć człowieka we wszystkich użytecznych zadaniach, może pojawić się już w ciągu roku lub dwóch.

Czytaj więcej

AI może zniszczyć ludzkość w kilka lat? Noblista ma zaskakujące rozwiązanie: „matka AI”

– Czas się kończy – powiedział w rozmowie z magazynem „Time” Anthony Aguirre, dyrektor wykonawczy FLI. – Jedyną rzeczą, która może powstrzymać firmy AI przed niekontrolowanym dążeniem do superinteligencji, jest powszechne uświadomienie sobie na wszystkich poziomach społeczeństwa, że tego właśnie nie chcemy.

Reklama
Reklama

W lipcu Mark Zuckerberg, dyrektor generalny Meta (Facebook) – jednej z największych firm rozwijających AI w USA – powiedział, że rozwój superinteligencji jest „na horyzoncie”.

Dlaczego superinteligencja może zagrozić ludzkości?

Badanie opinii publicznej opublikowane wraz z listem wykazało, że 64 proc. Amerykanów uważa, iż superinteligencja nie powinna być rozwijana, dopóki nie zostanie udowodnione, że jest bezpieczna i kontrolowalna, a tylko 5 proc. sądzi, że należy ją rozwijać jak najszybciej.

– Niewielka liczba bardzo bogatych firm buduje te systemy, podczas gdy ogromna większość ludzi wolałaby obrać inną drogę – mówi Aguirre.

Wśród sygnatariuszy znaleźli się również aktorzy Joseph Gordon-Levitt i Stephen Fry, raper will.i.am, izraelski historyk i pisarz Yuval Noah Harari, „ojciec chrzestny AI” Geoffrey Hinton czy brytyjski miliarder Richard Branson. Pod listem podpisała się także Susan Rice, doradczyni ds. bezpieczeństwa narodowego w administracji Baracka Obamy, a nawet Leo Gao – pracownik techniczny w OpenAI, organizacji, którą jej dyrektor generalny Sam Altman określa jako „firmę badającą superinteligencję”. Aguirre spodziewa się, że z czasem liczba podpisów wzrośnie: – Przekonania już istnieją. Problem w tym, że ludzie nie czują się swobodnie, by je otwarcie wyrażać.

Czytaj więcej

Microsoft zaskoczył: Nie ma szans na szybkie stworzenie superinteligencji

Książę Harry, książę Sussex, napisał w dokumencie: „Przyszłość sztucznej inteligencji powinna służyć ludzkości, a nie ją zastępować. Wierzę, że prawdziwym testem postępu będzie nie to, jak szybko się poruszamy, lecz jak mądrze kierujemy. Drugiej szansy nie będzie”.

Reklama
Reklama

Joseph Gordon-Levitt dodał: „Tak, chcemy konkretnych narzędzi AI, które pomogą leczyć choroby, wzmocnią bezpieczeństwo narodowe itd. Ale czy AI musi też naśladować ludzi, manipulować naszymi dziećmi, uzależniać nas od bezwartościowych treści i zarabiać miliardy na reklamach? Większość ludzi tego nie chce. A jednak to właśnie mają na myśli wielkie firmy technologiczne, gdy mówią o »superinteligencji«”.

Potrzebne regulacje prawne

Aguirre uważa jednak, że do realnych zmian potrzebne będą regulacje prawne: – Wiele szkód wynika z wypaczonych struktur motywacyjnych, którym obecnie podlegają firmy – zauważa. – Firmy w USA i Chinach ścigają się, kto pierwszy stworzy superinteligencję. Bez względu na to, czy stanie się to wkrótce, czy za jakiś czas – po stworzeniu superinteligencji to maszyny przejmą kontrolę – dodaje.

Przybywa głosów, które ostrzegają, że szybki postęp w dziedzinie sztucznej inteligencji może doprowadzić ludzkość na skraj zagłady. Prof. Yoshua Bengio, laureat prestiżowej Nagrody Turinga i jeden z pionierów AI, w rozmowie z „Wall Street Journal” mówił wprost, że obawia się egzystencjalnego zagrożenia ze strony tej technologii – Może nastąpić w ciągu najbliższej dekady – ostrzegł. – Jeśli zbudujemy maszyny, które są o wiele mądrzejsze od nas i mają własne cele przetrwania, to jest to niebezpieczne – tłumaczył. Bo gdy AI stanie przed dylematem: zrealizować wyznaczony cel lub ocalić ludzkie życie, może bez wahania wybrać to pierwsze. I to nawet jeśli ceną będzie śmierć człowieka.

FLI podobnie jak to czyni wielu naukowców, w swym dokumencie ostrzega nie tylko przed zagładą ludzkości, ale i takimi zagrożeniami jak utrata miejsc pracy, ograniczenie wolności obywatelskich czy zagrożenie dla bezpieczeństwa narodowego.

„Wzywamy do zakazu rozwoju superinteligencji, który nie zostanie zniesiony, dopóki nie zapanuje szeroki konsensus naukowy, że można to zrobić w sposób bezpieczny i kontrolowany, oraz nie uzyska się silnego poparcia społecznego” – czytamy w liście, pod którym podpisało się m.in. pięciu laureatów Nagrody Nobla, Steve Wozniak (współzałożyciel Apple), Steve Bannon (bliski sojusznik prezydenta Trumpa), Paolo Benanti (doradca papieża), a także Harry i Meghan, książę i księżna Sussex.

Pozostało jeszcze 90% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Przełom w bateriach. Dzięki fluorowi elektryki pojadą 1500 km na jednym ładowaniu
Materiał Promocyjny
W poszukiwaniu nowego pokolenia prezesów: dlaczego warto dbać o MŚP
Technologie
Szczepionka na raka może już istnieć. To szczepionka przeciw... COVID-19
Technologie
Dzięki AI uczą się tylko dwie godziny dziennie. Rewolucyjne szkoły odmienią edukację?
Technologie
AI złoży za ciebie zamówienie i zapłaci. „Mr. Wonderful” zapowiada rewolucję w zakupach
Materiał Promocyjny
Stacje ładowania dla ciężarówek pilnie potrzebne
Technologie
Komputery bez ekranów. Samsung i Google chcą zmienić sposób, w jaki widzimy świat
Materiał Promocyjny
Bank Pekao uczy cyberodporności
Reklama
Reklama