Z tego artykułu dowiesz się:
- Czym jest „The Pro-Human AI Declaration”?
- Kto popiera tę inicjatywę i jakie konkretne regulacje proponuje?
- Jakie zasady mają zapewniać bezpieczny rozwój sztucznej inteligencji?
Jeśli deklaracja, która jednoczy skrajnych politycznych oponentów (od Steve'a Bannona, byłego doradcy Donalda Trumpa, po Susan Rice, byłą doradczynię Joe Bidena ds. bezpieczeństwa), autorytety naukowe, jak Yoshua Bengio (jeden z "ojców chrzestnych" AI, laureat Nagrody Turinga), Daron Acemoglu (laureat Nagrody Nobla w dziedzinie ekonomii), Max Tegmark (ekspert AI, profesor MIT), zmaterializuje się, powstaną twarde regulacje, które pozwolą ludziom zachować decyzyjność nad systemami AI. List w tej sprawie podpisali choćby miliarder sir Richard Branson, największe związki zawodowe czy polski Instytut Badawczy IDEAS.
„Nie” dla superinteligencji?
Autorzy „The Pro-Human AI Declaration” domagają się twardych regulacji, w tym osobistej odpowiedzialności karnej prezesów firm za szkody wyrządzone przez sztuczną inteligencję, wdrożenia mechanizmów natychmiastowego wyłączania („off-switch”) oraz zakaz rozwoju superinteligencji do czasu uzyskania szerokiego konsensusu naukowego o jej bezpieczeństwie. Dokument nawołuje też, by zapobiegać koncentracji władzy w rękach kilku gigantów technologicznych i domaga się zakazu nadawania AI osobowości prawnej. Sygnatariusze chcą, by to ludzie zachowali pełną władzę nad swoimi danymi osobowymi oraz „prywatnością psychologiczną” (zakaz wykorzystywania danych o stanie emocjonalnym do manipulacji).
Manifest wzywa do zatrzymania technologicznego „wyścigu o zastąpienie” człowieka i postuluje wprowadzenie twardego prawa. Skala poparcia dla deklaracji pokazuje, że obawy o utratę kontroli nad technologią stały się problemem ponad podziałami. List podpisali m.in. Roman Jampolskij, znany w branży AI informatyk z Uniwersytetu Louisville (ekspert bezpieczeństwa AI), przedstawiciele instytucji, jak Americans for Responsible Innovation, Future of Life Institute, czy Center for AI Safety, a także Institute for Security and Technology i Center for Safe AGI.
Czytaj więcej
Ponad 700 osób, w tym laureaci Nobla, liderzy religijni, naukowcy i celebryci podpisali apel o zakaz rozwoju superinteligentnej sztucznej inteligen...