Świat chce uregulować AI. Groźba zniszczenia ludzkości czy histeria i urojenia?

Globalny szczyt w Bletchley Park zakończył się niespodziewanym sukcesem – mocarstwa jednomyślnie zgodziły się, że prace nad sztuczną inteligencją należy kontrolować. Niestety, zabrakło na nim Polski.

Publikacja: 06.11.2023 03:21

Elon Musk, twórca SPaceX, i brytyjski premier Rishi Sunak rozmawiali o egzystencjalnym zagrożeniu ze

Elon Musk, twórca SPaceX, i brytyjski premier Rishi Sunak rozmawiali o egzystencjalnym zagrożeniu ze strony AI dla ludzkości. Zgodzili się, że potrzebny jest „sędzia”, który będzie nadzorował superkomputery przyszłości

Foto: PAP/EPA

Pierwszy krok do regulacji sektora AI został wykonany – najwięksi gracze spotkali się w ubiegłym tygodniu na szczycie zorganizowanym przez brytyjskiego premiera Rishiego Sunaka, aby, choć reprezentują różne interesy i wizje wykorzystania tej technologii, osiągnąć porozumienie w sprawie ujarzmienia niekontrolowanego rozwoju sztucznej inteligencji. Ten, jak zgodzili się uczestnicy, mógłby bowiem zagrozić ludzkości. Deklaracja, zawarta przez kraje członkowskie grupy G7, w tym Stany Zjednoczone, a także Unię Europejską czy Chiny, mówi o kooperacji i konieczności nadzoru nad zaawansowanymi algorytmami w celu minimalizowania zagrożeń. A te są ogromne. Jak podkreślał premier Sunak, „ryzyko jest egzystencjalne”.

Czytaj więcej

Zagrożony rozwój sztucznej inteligencji. Polak ma odegrać doniosłą rolę

Już zdecydowano, że w przyszłym roku odbędzie się kolejny szczyt bezpieczeństwa AI – w Rzymie. Zwolennicy puszczenia inteligentnych botów na żywioł, wśród których jest wielu naukowców z branży, mogą być zawiedzeni. Tym bardziej że przyszłoroczna gospodyni szczytu Giorgia Meloni z dystansem podchodzi do tej technologii. – Stoimy w obliczu nowej granicy postępu, która po raz pierwszy poważnie grozi podważeniem samej zasady centralnego miejsca człowieczeństwa – podkreśliła premier Włoch.

Polska poza szczytem

Kluczowe dla przyszłości AI spotkanie w Bletchley Park zgromadziło przedstawicieli największych gospodarek i potęg technologicznych. Deklarację podpisało 28 państw. Niestety, na tak istotnym wydarzeniu zabrakło reprezentacji naszego kraju. Choć byli Włosi, Hiszpanie, Holendrzy czy przedstawiciele Turcji, Ukrainy, Brazylii, a nawet Filipin, Kenii oraz Rwandy.

W Ministerstwie Cyfryzacji (MC) usłyszeliśmy, że to UE reprezentowała stanowisko Polski i pozostałych krajów Wspólnoty. – Polska jest jednym z krajów Unii nadających ton legislacji w dziedzinie sztucznej inteligencji. Nasze stanowisko popiera większość krajów w UE i jest odzwierciedlone w ogólnym podejściu organów unijnych w projektowanych dokumentach dotyczących AI, które zasadniczo opierają się na szerokim konsensusie wewnątrz Wspólnoty – przekonują w biurze prasowym MC. I dodają, że legislacja dotycząca sztucznej inteligencji będzie niedługo stanowiła zharmonizowaną część prawa wspólnotowego.

– I w tym przypadku UE mówi jednym głosem – zaznaczają w resorcie cyfryzacji.

Czytaj więcej

Sztuczna inteligencja może wpędzić świat w kryzys. Zużywa mnóstwo wody i prądu

Faktycznie, Bruksela jest w trakcie wypracowywania ostatecznego kształtu tzw. AI Act. Ramy prawne dla botów szykuje również Kanada (projekt AIDA). Z kolei prezydent USA wydał już rozporządzenie ws. bezpieczeństwa AI, które obliguje firmy pracujące nad takimi rozwiązaniami do udostępniania wyników testów rządowi Stanów Zjednoczonych, a przy tym zapowiada utworzenie specjalnego organu (National Institute of Standard and Technology), który określi reguły w zakresie wdrażania botów (ma to zapobiec powstawaniu tzw. dyskryminujących algorytmów i sprzyjać „etycznemu” ich wykorzystaniu).

Ale niespodziewanie być może to Chiny pokażą światu, jak należy zapanować nad botami. Grupa tamtejszych naukowców, w skład której wchodzi m.in. Andrew Yao, jeden z najwybitniejszych chińskich informatyków, wezwała do utworzenia międzynarodowego organu regulacyjnego AI, a także do obowiązkowej rejestracji i audytu zaawansowanych systemów tego typu. Postulują ponadto opracowanie procedury natychmiastowego „wyłączenia”. Według nich firmy i instytucje badające i rozwijające sztuczną inteligencję powinny ponadto zostać zobowiązane do przeznaczania 30 proc. swojego budżetu właśnie na prace nad zapewnieniem bezpieczeństwa takiej technologii.

Algorytm nas ochroni?

Jednak nie wszyscy sprzyjają okiełznaniu AI. Wiele firm, ustami swoich badaczy i naukowców, daje wyraz temu, iż nadmierna regulacja zahamuje technologiczny rozwój. Andrew Ng, szef jednej z wiodących firm w tej branży – DeepLearning.AI (wcześniej zakładał Google Brain i budował dział AI w chińskim koncernie Baidu), mówi wprost, że obawia się o przyszłość sztucznej inteligencji. Jego zdaniem przesadne ryzyko, jak wyginięcie ludzkości, „pozwoli lobbystom na wprowadzenie w życie dławiących tę technologię przepisów”. Ostrzega, że to może „zmiażdżyć innowacje”. Wielu ekspertów podkreśla bowiem, że ograniczanie algorytmów wcale nie chroni ludzkości, ale sprawia, że hamuje się technologie, które mogą ją wręcz ratować przed licznymi zagrożeniami.

Geoffrey Hinton, kanadyjsko-brytyjski informatyk, nazywany „ojcem chrzestnym AI” (przez wiele lat pracował dla Google’a), szacuje, iż szanse, że nieuregulowana sztuczna inteligencja zwróci się przeciwko człowiekowi i doprowadzi do jego wyginięcia, wynosi ledwie 0,1. – To znacznie mniej niż większość innych potencjalnych przyczyn wyginięcia człowieka, w tym katastrof naturalnych – wtóruje mu na platformie X (d. Twitter) inny guru tego sektora, Yann LeCun (Francuz jest zdobywcą nagrody Turinga i szefem działu AI w koncernie Meta). Przekonuje on, że strach przed AI to histeria, a wskazywane przez Rishiego Sunaka zagrożenia to urojenia. Stanowisko LeCuna ostro skrytykował już ruch PauseAI (zwolennicy radykalnego ograniczenia prac nad tą technologią).

Edi Pyrek

współzałożyciel Global Artificial Intelligence Alliance (GAIA)

To, co się dzieje w ciągu ostatnich tygodni wokół sztucznej inteligencji, świadczy o tym, że decydenci coraz lepiej zdają sobie sprawę z tego, że stoimy przed największym wyzwaniem w historii naszego gatunku. UE ustaliła AI Act, prezydent Joe Biden ostatnio ogłosił konieczność tworzenia AI, której możemy zaufać, i nawet Chińczycy wydają się rozumieć, że niekontrolowane tworzenie sztucznej inteligencji może być bardziej niebezpieczne niż broń jądrowa w rękach grupki terrorystów. Kiedy kilka lat temu GAIA zaczęła mówić o konieczności pracy nad etyczną AI, opartą na „compassion” (współodczuwająca sztuczna inteligencja), byliśmy traktowani jak grupka panikarzy próbujących nadać kilku algorytmom opartym na maszynowym uczeniu prawie ludzką świadomość. Dziś coraz lepiej rozumiemy, że musimy potraktować AI jako powstający obok nas oddzielny byt, który puszczony bez kontroli może zniszczyć nasz świat. Takie działania jak podpisanie deklaracji Bletchley jest światłem w tunelu – może stać się tym, czym była deklaracja Narodów Zjednoczonych w 1942 r. Wtedy podpisało ją 26 krajów, deklarację Bletchley sygnowało 28. Może mamy jeszcze szanse.

Pierwszy krok do regulacji sektora AI został wykonany – najwięksi gracze spotkali się w ubiegłym tygodniu na szczycie zorganizowanym przez brytyjskiego premiera Rishiego Sunaka, aby, choć reprezentują różne interesy i wizje wykorzystania tej technologii, osiągnąć porozumienie w sprawie ujarzmienia niekontrolowanego rozwoju sztucznej inteligencji. Ten, jak zgodzili się uczestnicy, mógłby bowiem zagrozić ludzkości. Deklaracja, zawarta przez kraje członkowskie grupy G7, w tym Stany Zjednoczone, a także Unię Europejską czy Chiny, mówi o kooperacji i konieczności nadzoru nad zaawansowanymi algorytmami w celu minimalizowania zagrożeń. A te są ogromne. Jak podkreślał premier Sunak, „ryzyko jest egzystencjalne”.

Pozostało 91% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Robopsy mają zastąpić żołnierzy. Amerykanie prowadzą testy na poligonie
Technologie
Amerykanie skokowo zwiększą liczbę dronów bojowych. Przełomowa technologia
Technologie
Te grupy zawodowe już cierpią przez algorytmy. Najwięksi przegrani boomu AI
Technologie
Prymitywna broń ze starożytności sieje spustoszenie wśród Rosjan. Drony kończą dzieło
Technologie
Sztuczna inteligencja lubi kłamać. Bolesne wpadki firm