Reklama

Sojusz przeciw Big Techom. Nobliści i politycy chcą wziąć AI na smycz

Właśnie opublikowano „The Pro-Human AI Declaration”, która może zadać cios w oligopol Big Techów i plany budowy „superinteligencji”. Lista znanych osób i instytucji, które podpisują manifest rośnie. Celem ma być zatrzymanie „wyścigu o zastąpienie” człowieka.
Naukowcy ostrzegają przez niekontrolowanym rozwojem AI, na którym korzystają wielkie koncerny

Naukowcy ostrzegają przez niekontrolowanym rozwojem AI, na którym korzystają wielkie koncerny

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Czym jest „The Pro-Human AI Declaration”?
  • Kto popiera tę inicjatywę i jakie konkretne regulacje proponuje?
  • Jakie zasady mają zapewniać bezpieczny rozwój sztucznej inteligencji?

Jeśli deklaracja, która jednoczy skrajnych politycznych oponentów (od Steve'a Bannona, byłego doradcy Donalda Trumpa, po Susan Rice, byłą doradczynię Joe Bidena ds. bezpieczeństwa), autorytety naukowe, jak Yoshua Bengio (jeden z "ojców chrzestnych" AI, laureat Nagrody Turinga), Daron Acemoglu (laureat Nagrody Nobla w dziedzinie ekonomii), Max Tegmark (ekspert AI, profesor MIT), zmaterializuje się, powstaną twarde regulacje, które pozwolą ludziom zachować decyzyjność nad systemami AI. List w tej sprawie podpisali choćby miliarder sir Richard Branson, największe związki zawodowe czy polski Instytut Badawczy IDEAS.

„Nie” dla superinteligencji?

Autorzy „The Pro-Human AI Declaration” domagają się twardych regulacji, w tym osobistej odpowiedzialności karnej prezesów firm za szkody wyrządzone przez sztuczną inteligencję, wdrożenia mechanizmów natychmiastowego wyłączania („off-switch”) oraz zakaz rozwoju superinteligencji do czasu uzyskania szerokiego konsensusu naukowego o jej bezpieczeństwie. Dokument nawołuje też, by zapobiegać koncentracji władzy w rękach kilku gigantów technologicznych i domaga się zakazu nadawania AI osobowości prawnej. Sygnatariusze chcą, by to ludzie zachowali pełną władzę nad swoimi danymi osobowymi oraz „prywatnością psychologiczną” (zakaz wykorzystywania danych o stanie emocjonalnym do manipulacji).

Manifest wzywa do zatrzymania technologicznego „wyścigu o zastąpienie” człowieka i postuluje wprowadzenie twardego prawa. Skala poparcia dla deklaracji pokazuje, że obawy o utratę kontroli nad technologią stały się problemem ponad podziałami. List podpisali m.in. Roman Jampolskij, znany w branży AI informatyk z Uniwersytetu Louisville (ekspert bezpieczeństwa AI), przedstawiciele instytucji, jak Americans for Responsible Innovation, Future of Life Institute, czy Center for AI Safety, a także Institute for Security and Technology i Center for Safe AGI.

Czytaj więcej

Harry i Meghan pod rękę z naukowcami. Boją się superinteligencji
Reklama
Reklama

Algorytm zdymisjonował premiera

Deklarację podpisał właśnie też Instytut Badawczy IDEAS. Kierujący nim prof. Piotr Sankowski, tłumacząc tę decyzję na platformie X, przywołuje głośne przykłady „nieludzkiego” wdrożenia systemów AI. Jego zdaniem sztandarowym dowodem na to, do czego prowadzi brak ludzkiego nadzoru, jest holenderski skandal świadczeń opiekuńczych (Toeslagenaffaire). W latach 2005-2019 samouczący się algorytm tamtejszego urzędu skarbowego fałszywie oskarżył ok. 26 tys. rodziców o defraudację państwowych dotacji na dzieci. Model wykształcił patologiczną pętlę dyskryminacyjną, uznając pochodzenie etniczne i podwójne obywatelstwo za wskaźniki ryzyka. Skutki były tragiczne: tysiące rodzin wpadło z dnia na dzień w spiralę zadłużenia, zanotowano falę samobójstw, rozbitych małżeństw, a ponad tysiąc dzieci, z powodu nagłej niewydolności finansowej oskarżonych, przymusowo odebrano z domów do rodzin zastępczych. Afera ta doprowadziła w 2021 r. do dymisji rządu premiera Marka Rutte.

Prof. Sankowski przypomina także o australijskim programie „Robodebt” (2016-2020), który systemowo oskarżył tysiące najuboższych obywateli, wymuszając na rządzie ostateczny zwrot pieniędzy z 470 tys. nielegalnie wygenerowanych długów. Z kolei w USA (system MiDAS w Michigan) algorytm pozbawiony ludzkiej weryfikacji osiągnął wskaźnik fałszywych alarmów na poziomie 93 proc., bezprawnie rekwirując konta bankowe rzekomych oszustów.

Te historie to sygnał ostrzegawczy. Jak podsumowuje polski badacz, rozwój sztucznej inteligencji musi iść w parze z wyjaśnialnością algorytmów, pełną przejrzystością, a przede wszystkim z ostatecznym nadzorem pozostającym zawsze w rękach człowieka.

To nie pierwsza tego typu inicjatywa. W 2023 r. głośno było o apelu Elona Muska, który w liście otwartym apelował o pilne zatrzymanie prac nad rozwojem sztucznej inteligencji, w tym botami w rodzaju ChatGPT, który „wyrwał się spod kontroli”. Wsparł go m.in. Steve Wozniak, współzałożyciel Apple.

AI
Jak mądrze korzystać z AI? Firmy zaczynają realne wdrożenia i szukają „wartości”
Materiał Promocyjny
PR&Media Days 2026
Materiał Promocyjny
Nowoczesne finanse, decyzje finansowe w świecie algorytmów – jak zachować kontrolę
AI
AI wymyka się spod kontroli. Bot Alibaby zaczął… kopać kryptowaluty
AI
Dwugodzinny dzień pracy? Taką przyszłość przewiduje szef Xiaomi
AI
Kontrowersyjny kontrakt z Pentagonem. Kluczowa menedżerka opuszcza OpenAI
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama