Ekspert ONZ: Sztuczna inteligencja może zagrozić demokracji i prawom człowieka

Korzyści płynące z AI mogą być skoncentrowane w kilku obszarach geograficznych, w rękach garstki firm i osób, wielu ludzi pozostawiając na marginesie – ostrzega Amandeep Gill, przedstawiciel sekretarza generalnego ONZ ds. technologii.

Publikacja: 05.12.2023 12:05

Ekspert ONZ: Sztuczna inteligencja może zagrozić demokracji i prawom człowieka

Foto: Adobe stock

Szybko rozwijająca się technologia, szczególnie w dziedzinie sztucznej inteligencji, to dziś potężne wyzwanie. Jak skutecznie zarządzać jej wpływem na społeczeństwo? Jak sprawić, aby polityka i regulacje nadążały za tempem tych zmian?

To istotna kwestia i myślę, że potrzebujemy czegoś więcej niż dokumentu. Niezbędne są konkretne zobowiązania i wypracowanie reguł ich przestrzegania. Musimy także na bieżąco aktualizować kwestie wyzwań, bo technologia rozwija się naprawdę szybko. A odpowiedź polityczna, reakcja rządów pozostają w tyle za tym tempem. Ale z technologią zawsze tak było, choć dzisiaj, z zaawansowaną sztuczną inteligencją, ten problem stał się bardziej dotkliwy. Stąd niezbędna wydaje się budowa potencjału w sektorze publicznym, zwłaszcza zdolności regulatorów i ustawodawców, aby nadążać za zmianami. Musimy ściślej współpracować z sektorem prywatnym, innowatorami, w kontekście wprowadzania pewnych zabezpieczeń i myślenia o odpowiedzialnej innowacji już na wczesnym etapie cyklu badawczo-rozwojowego.

Jak Organizacja Narodów Zjednoczonych radzi sobie z wyzwaniami wynikającymi z zaawansowanych technologii cyfrowych, jednocześnie przestrzegając swoich podstawowych zasad. Szczególnie dzisiaj, w obliczu napięć politycznych?

W ONZ przestrzegamy określonych standardów: Karty ONZ, międzynarodowych traktatów praw człowieka i prawa humanitarnego. Te ramy są w pewnym sensie ponadczasowe, ujmują istotę godności ludzkiej, indywidualności i autonomii niezależnie od postępu technologicznego. W przeszłości podstawowe technologie były wykorzystywane do naruszania praw człowieka. Dziś systemy nadzoru i narzędzia cyfrowe mogą czynić to na masową skalę. Jednakże fundamentalne zasady pozostają te same. Musimy opierać się na tych podstawowych standardach, aby sprostać obecnym wyzwaniom, jako że te zasady są niezmienne. ONZ opiera się na filarach pokoju i bezpieczeństwa, praw człowieka i zrównoważonego rozwoju. Możemy je wykorzystać, aby odnowić nasze zobowiązania i zaktualizować wspólną wizję w odpowiedzi na wyzwania stawiane przez zaawansowane technologie cyfrowe. Takie podejście pozwala nam wpływać na krajowe i regionalne regulacje, zapewniając jednolitość w zarządzaniu. Technologie cyfrowe nie znają granic, więc preferowane jest rozwiązanie uniwersalnie stosowalne niż izolowane podejścia.

Czytaj więcej

Arabska guru AI: Sztuczna inteligencja zyska wpływ na politykę zagraniczną

W dzisiejszym pejzażu politycznym, naznaczonym napięciami geopolitycznymi i konfliktami, ONZ może zaoferować neutralny lub apolityczny głos. Zapewnia platformę dla stron, które zwykle nie zgadzają się lub nie współpracują, umożliwiając im wspólne rozwiązywanie globalnych problemów.

Co pan widzi, myśląc o technologii i przyszłości w perspektywie pięciu–dziesięciu lat? Dominuje nadzieja czy pesymizm?

Nie jestem jasnowidzem, ale jestem odpowiedzialny za działania w teraźniejszości i idealnie byłoby, gdyby wszyscy byli na tej samej pozycji w zakresie świadomości i odpowiedzialności, niezależnie od tego, czy chodzi o walkę ze zmianą klimatu, czy wyzwania stawiane przez technologie. Tak możemy zbudować lepszą przyszłość.

Z jakimi wyzwaniami możemy się mierzyć w obszarach demokracji, interakcji społecznych czy rynku pracy na skutek cyfrowych zmian, jak ta związana np. z rozwojem sztucznej inteligencji?

Jeśli będziemy kontynuować dotychczasowe działania przez kolejne pięć lat, to obawiam się, że przepaść cyfrowa jeszcze się pogłębi. Obecnie 2,7 mld ludzi nie ma dostępu do internetu. A nawet ci, którzy go mają, często borykają się z wysokimi kosztami danych i korzystają z urządzeń oferujących znacząco ograniczoną treść. Są głównie konsumentami, a nie twórcami w gospodarce cyfrowej, co stanowi znaczący problem. Wraz ze wzrostem dominacji danych i AI korzyści prawdopodobnie będą skoncentrowane w kilku obszarach geograficznych, w rękach garstki firm i osób, pozostawiając wielu ludzi na marginesie. Demokracja i przestrzenie obywatelskie mogą zostać zagrożone.

W jaki sposób?

Fundamentom naszych demokracji zagrażają: rozprzestrzenianie się mowy nienawiści i dezinformacja, wraz z manipulowaniem wyborami dla celów biznesowych lub politycznych.

Innym problemem jest wpływ na naszą społeczną tkankę. Zwiększone zaangażowanie w wirtualne światy i towarzystwo AI może prowadzić do mniejszej liczby realnych interakcji i mniejszego skupienia na namacalnych problemach.

Czytaj więcej

Sztuczna inteligencja jak internet w 1995 roku. „Nadchodzi niezwykły czas"

Ponadto, zmieniają się role zawodowe – pisarze i scenarzyści wyrażają obawy, że zaawansowane narzędzia mogą ich przewyższyć, potencjalnie prowadząc do utraty pracy. Te zmiany są trudne do przewidzenia, ale mogą powodować zakłócenia w społeczeństwach. Stąd jest potrzeba pilnych działań prewencyjnych. Jeśli nie zaczniemy działać już dziś, w ciągu najbliższych lat napotkamy znaczne trudności. Liczę, że będziemy w stanie aktywnie zarządzać tymi technologiami.

Czy AI może w tym pomóc?

Znajdujemy się wciąż w fazie eksperymentalnej, brakuje konkretnych przykładów, jak boty AI mogą pomóc. Ale postęp jest na horyzoncie. Z pewnością sztuczna inteligencja nie zastąpi unikalnych cech ludzkiej interakcji, jak bezstronna i pełna miłości reakcja, jaką można otrzymać od bliskiego przyjaciela czy partnera. Jeszcze daleko nam do technologii, która mogłaby to naśladować. Ludzie działają w warunkach niepewności, z intuicją. I to jest coś, czego AI w swoim obecnym paradygmacie nie jest w stanie zrobić. Choć niektórzy eksperci uważają, iż AI jest już świadoma, to ja z taką teorią się nie zgadzam.

Czy świat powinien skupić się na budowie etycznej AI?

Tak, choć etyka różni się w zależności od regionu. Istnieją jednak pewne uniwersalne aspekty. Podczas mojej pracy nad zaleceniami UNESCO, dotyczącymi etyki AI, analizowaliśmy różne systemy etyczne i próbowaliśmy je zintegrować. Zidentyfikowaliśmy kilka zasad, które mają zastosowanie na całym świecie, a UNESCO obecnie promuje je w kilku krajach. Istnieje potrzeba dalszych dyskusji na ten temat w różnych regionach świata i tradycjach filozoficznych. W Azji perspektywa na AI ma tendencję do bycia bardziej optymistyczną w porównaniu z Europą Zachodnią czy Ameryką Północną. Podkreśla to potrzebę prowadzenia szerszych światowych rozmów na ten temat.

Ludzie mają jeszcze wiele do zbadania pod kątem własnego rozwoju duchowego i zrozumienia pełnego spektrum naszej inteligencji. Często to ograniczone zrozumienie wynika z uprzedzeń w zachodnich paradygmatach naukowych i filozoficznych, które mają tendencję do rozkładania rzeczy na ich najmniejsze części. Jednak inne tradycje widzą inteligencję inaczej. W tradycji, w której się wychowałem, inteligencja jest wieloaspektowa. Jest „manas”, inteligencja ego rezydująca w umyśle, i „buddhi”, wyższa forma inteligencji postrzegana jako pole energetyczne wokół nas. Mogą istnieć aspekty inteligencji, których jeszcze w pełni nie rozumiemy. Nawet powszechnie akceptowane teorie naukowe, takie jak czynnik „g” Spearmana (na początku XX w. angielski psycholog Charles Spearman postawił tezę, że u podłoża wszystkich inteligentnych zachowań leży jeden wspólny czynnik – red.), są tylko przybliżeniami. Biorąc pod uwagę nasze niekompletne zrozumienie inteligencji, koncepcja czegoś, co jest „sztucznie inteligentne”, jest sama w sobie myląca. Jako inżynier z wykształcenia pamiętam, że kiedy skończyłem studia, byłem pełen wiedzy na temat teorii informacji, zer i jedynek, kodowania i układów scalonych. Ta wiedza sprawiała, że czułem się, jakbym mógł osiągnąć wszystko. To taki rodzaj pychy, która czasami towarzyszy inżynierom. I dziś dostrzegam podobną pychę w obecnych dyskusjach na temat sztucznej inteligencji.

Co może zrobić ONZ?

Na poziomie ONZ to, co możemy zrobić, to opracowywać pewne globalne ramy, a także tworzyć przestrzenie do wzajemnej nauki. Takie działania są w stanie pomóc w zamykaniu luk. Na poziomie krajowym kluczowe są regulacje, szczególnie te w zakresie ochrony danych. Ważne jest też inwestowanie w rozwój i zastosowanie dobrej AI. Warto też powiedzieć o oczekiwaniach na poziomie indywidualnym – tu niezmiernie istotne wydaje się aktualizowanie naszych umiejętności, co nie oznacza tylko edukacji STEM (nauka, technologia, inżynieria i matematyka – red.). Obejmuje to zrozumienie etyki, nauk behawioralnych i nauczanie dzieci umiejętności korzystania z danych. Podstawą wydaje się dzisiaj uodpornienie ogólnej populacji na dezinformację.

Szybko rozwijająca się technologia, szczególnie w dziedzinie sztucznej inteligencji, to dziś potężne wyzwanie. Jak skutecznie zarządzać jej wpływem na społeczeństwo? Jak sprawić, aby polityka i regulacje nadążały za tempem tych zmian?

To istotna kwestia i myślę, że potrzebujemy czegoś więcej niż dokumentu. Niezbędne są konkretne zobowiązania i wypracowanie reguł ich przestrzegania. Musimy także na bieżąco aktualizować kwestie wyzwań, bo technologia rozwija się naprawdę szybko. A odpowiedź polityczna, reakcja rządów pozostają w tyle za tym tempem. Ale z technologią zawsze tak było, choć dzisiaj, z zaawansowaną sztuczną inteligencją, ten problem stał się bardziej dotkliwy. Stąd niezbędna wydaje się budowa potencjału w sektorze publicznym, zwłaszcza zdolności regulatorów i ustawodawców, aby nadążać za zmianami. Musimy ściślej współpracować z sektorem prywatnym, innowatorami, w kontekście wprowadzania pewnych zabezpieczeń i myślenia o odpowiedzialnej innowacji już na wczesnym etapie cyklu badawczo-rozwojowego.

Pozostało 89% artykułu

Ten artykuł przeczytasz z aktywną subskrypcją rp.pl

Zyskaj dostęp do ekskluzywnych treści najbardziej opiniotwórczego medium w Polsce

Na bieżąco o tym, co ważne w kraju i na świecie. Rzetelne informacje, różne perspektywy, komentarze i opinie. Artykuły z Rzeczpospolitej i wydania magazynowego Plus Minus.

Opinie i komentarze
Odpowiedzialne innowacje: Cyfrowe duchy zmarłych
Opinie i komentarze
Odpowiedzialne innowacje: Czy sztuczna inteligencja może zastąpić psychoterapeutów?
Opinie i komentarze
Odpowiedzialne projektowanie produktów cyfrowych – granica pomiędzy zaangażowaniem a uzależnieniem
Opinie i komentarze
Mariusz Busiło: Wady projektu ustawy o KSC