Unia chce uregulować sztuczną inteligencję. Czy to dobrze?

Gdy na horyzoncie wyłania się nowa przełomowa technologia, której oddziaływanie na życie społeczne będzie znaczące, powraca zwykle to samo pytanie. Czy dobrym rozwiązaniem jest jej prawna regulacja? Może jednak należy postawić na jej żywiołowy rozwój i zlikwidować ograniczenia prawne i administracyjne? – pyta dr hab. Karol Dobrzeniecki, prof. UMK w Toruniu główny specjalista ds. badawczych w Łukasiewicz – Centrum Oceny Technologii.

Publikacja: 15.07.2021 19:09

Unia chce uregulować sztuczną inteligencję. Czy to dobrze?

Foto: Adobe Stock

Cel został wyraźne sformułowany: dzięki nowej regulacji uczynić Europę światowym centrum rozwoju wiarygodnej sztucznej inteligencji (SI). Tu nasuwa się pytanie, na czym wiarygodność sztucznej inteligencji miałaby polegać. Krótko: wiarygodna SI to taka, z której bez obawy będzie można korzystać, która nie zniszczy specyficznego ludzkiego świata wartości, ale pozwoli mu sprawniej funkcjonować.

Kilka lat temu Komisja Europejska powołała komisję ekspertów do wypracowania wytycznych promujących godną zaufania sztuczną inteligencję. Owocem prac był dokument, w którym za godny ufania uznano taki system SI , który spełnia trzy warunki. Po pierwsze jest zgodny z prawem, czyli wszystkimi obowiązującymi normami o charakterze ustawowym i aktami niższego rzędu. System taki nie może też naruszać norm etycznych, a zastosowana w nim technologa ma być niezawodna, zarówno z technicznego, jak i ze społecznego punktu widzenia. Wadliwie działające systemy SI mogą bowiem wywoływać niezamierzone szkody nawet wówczas, gdy korzysta się z nich w dobrej wierze. W idealnej sytuacji powinny zostać spełnione wszystkie trzy wymogi, ponieważ ich zakresy w pewnym stopniu się zazębiają.

Systemy SI należy opracowywać, wdrażać i wykorzystywać, mając na względzie poszanowanie autonomii człowieka i jego poczucia sprawiedliwości. Należy dążyć do zapobiegania szkodom, a jednocześnie umożliwić użytkownikom uzyskiwanie na bieżąco informacji na temat działania systemu. Ukierunkowanie na humanistyczny pierwiastek wyraża się także w powinności zachowania przewodniej i nadzorczej roli człowieka względem systemu SI.

Prawo regulujące SI nadal w powijakach

Prawo próbuje nadążać za rozwojem sztucznej inteligencji. Podobnie jak w większości państw rozwiniętych, również w Polsce powstają projekty aktów prawnych poświęcone specyficznie systemom SI i ich zastosowaniom. Nie oznacza to, że tworzenie, wdrażanie i korzystanie z takich systemów jest prawnie neutralne i odbywa się na zasadzie pełnej swobody. Nawet jeżeli brakuje przepisów ściśle dotyczących sztucznej inteligencji, prawo determinuje tę sferę na różne sposoby.

Twórcy i importerzy systemów muszą przestrzegać przepisów o ochronie danych osobowych i wypełniać związane z tym obowiązki informacyjne. Powinni też spełniać wymogi związane z konkretnym sektorem, w którym wdrażają swoje rozwiązania. Związani są reżimem prawa karnego i zasadami odpowiedzialności cywilnej za szkodę wyrządzoną klientowi i osobom trzecim. Przyszła, unijna regulacja sztucznej inteligencji uczyni pewne kwestie bardziej jednoznacznymi, ograniczy sferę niepewności. Obecnie wiele zagadnień związanych z prawnym aspektem funkcjonowania SI ostatecznie rozstrzygana jest przez sądy w oparciu o zasady ogólne.

Gdy na horyzoncie wyłania się nowa przełomowa technologia, której oddziaływanie na życie społeczne będzie znaczące, powraca zwykle to samo pytanie. Czy dobrym rozwiązaniem jest jej prawna regulacja? Może jednak należy postawić na jej żywiołowy rozwój i zlikwidować ograniczenia prawne i administracyjne?

W Europie zwykle zwycięża pierwsza opcja ze względu na przywiązanie do wartości prawnych, takich jak bezpieczeństwo obrotu, ochrona konsumenta, poszanowanie prywatności i danych osobowych. Pozostaje wierzyć, jak chce tego prawodawca unijny, że ucywilizowanie technologii nie zepchnie nas do drugiej ligi producentów kluczowej technologii przyszłości, a prymat innowacyjności nie zostanie oddany tym jurysdykcjom, które takich ograniczeń nie nakładają.

Komisja Europejska ujmuje kwestie związane ze SI w ramach szerszego przedsięwzięcia regulacyjnego, jakim jest tworzenie Wspólnego Rynku Cyfrowego. Jego filary tworzą: Akt o usługach cyfrowych, Europejska strategia w zakresie danych i Rozporządzenie w sprawie zarządzania danymi.

Na świecie kreowanie ram prawnych dla sztucznej inteligencji wciąż jest w powijakach. Wyjątkiem są pojazdy autonomiczne, które od kilku lat przyciągają uwagę prawodawców w krajach rozwiniętych. Tak rządy, jak i organizacje międzynarodowe publikowały dotąd przede wszystkim plany działania, wytyczne lub kodeksy dobrych praktyk określające podstawowe zasady rozwoju sztucznej inteligencji. Przyjmowanie przepisów prawa materialnego w tej dziedzinie  to wciąż pieśń przyszłości, choć jak się wydaje – już całkiem niedalekiej.

W jaki sposób nowe unijne prawo będzie regulować SI?

Nowe unijne prawo ma regulować sposoby korzystania z systemów sztucznej inteligencji, a nie systemy SI jako takie. Można doszukać się w tym rozwiązaniu realizacji zasady pomocniczości i proporcjonalności. Ingerencja prawodawcy sięga tam, gdzie to konieczne, a więc do tych zastosowań sztucznej inteligencji, które bez właściwej regulacji mogą doprowadzić do poważnych konsekwencji i często nieodwracalnych strat. Jeżeli ryzyko takie w przypadku danego systemu nie zachodzi, rygory nakładane na producentów i importerów będą znacznie mniejsze.

Ryzyka związane z zastosowaniem poszczególnych typów systemów sztucznej inteligencji podzielono na minimalne, ograniczone, wysokie i nieakceptowalne. Pierwsze z nich nie są w ogólne objęte regulacją. W przypadku kolejnych pojawiają się coraz bardziej rozbudowane obowiązki o charakterze informacyjnym, certyfikacyjnym. Większość przepisów projektu rozporządzenia dotyczy systemów wysokiego ryzyka, które w sposób znaczący ingerują w życie człowieka w obszarze np. biometrii, rekrutacji zawodowej czy medycyny. Takie obszary jak stosowanie prawa albo użycie komponentów ze sztuczną inteligencją podczas operacji medycznych mają bardzo duży potencjał innowacyjności, jednak ryzyko z nimi związane wymaga podjęcia szczególnych środków ostrożności. Na terytorium Unii Europejskiej niedopuszczalne będzie używanie systemów, które stanowią wyraźne zagrożenie dla bezpieczeństwa ludzi, ich praw i wolności, np. zachęcających do podejmowania niebezpiecznych zachowań.

Regulacja mówi też o powołaniu europejskich centrach innowacji cyfrowych, zwanych też hubami innowacji (DIH – od Digital Innovation Hubs).  Są one jednym ze środków stanowiących część pakietu przygotowanego przez Komisję Europejską w celu tworzenia jednolitego rynku cyfrowego i usług publicznych. Wedle przyjmowanych założeń centra te mają wywoływać falę oddolnych innowacji we wszystkich sektorach poprzez np. pomoc firmom w staniu się bardziej konkurencyjnymi w obrębie usług wykorzystujących technologie cyfrowe, zapewnienie dostępu do najnowszej wiedzy i technologii, wsparcie finansowe w celu wdrożenia innowacji. Huby są powiązane w sieć, która ma umożliwić dyfuzję najbardziej efektywnych rozwiązań w całej UE, co uzasadnia ich zaangażowanie również w implementowanie planowanych rozwiązań w zakresie SI.

Przeciwko nadużyciom

Autorzy projektu nowej unijnej regulacji dostrzegają, że oprócz wielu korzystnych zastosowań sztucznej inteligencji, ta technologia może również być nadużywana i dostarczać nowatorskich narzędzi służących do manipulacji, wyzysku i nieautoryzowanej przez prawo kontroli społecznej. Takie praktyki uznane zostały za sprzeczne z unijnymi wartościami i prawami podstawowymi. Przykładem mogą być systemy SI wykorzystujące tzw. komponenty podprogowe, których użytkownicy nie potrafią dostrzec ze względu na swój wiek, niepełnosprawność fizyczną lub psychiczną. Celem tego typu systemów jest zaburzenie procesów decyzyjnych konsumenta i wyrządzenie danej osobie szkody. Inny przypadek stanowią systemy społecznej klasyfikacji ludzi. Wykorzystywane obecnie w niektórych państwach, systemy te mogą one prowadzić do dyskryminacji i wykluczenia. Oceniają one wiarygodność osób fizycznych na podstawie ich zachowań społecznych w wielu kontekstach, analizując różne cechy osobowe. Unia uznała podobne praktyki za niedopuszczalne.

Projekt aktu regulującego sztuczną inteligencję to rozporządzenie Parlamentu Europejskiego i Rady. Akty tego rodzaju nie wymają udziału parlamentów krajowych. Obowiązują w sposób bezpośredni we wszystkich państwach członkowskich. Udział DIH-ów w implementacji rozporządzenia o SI polegać więc będzie przede wszystkim na udzielaniu pomocy przedsiębiorcom w dostosowaniu swojej działalności do wymogów tego aktu.

Kto zyska dzięki nowej unijnej regulacji

Zastosowanie systemów sztucznej inteligencji może przysporzyć korzyści gospodarczych i społecznych: poprawić zdolności prognostyczne, zoptymalizować procesy i wykorzystanie zasobów, zapewnić przewagę konkurencyjną. Na rozwoju systemów SI mogą zyskać sektory związane z opieką zdrowotną, rolnictwem, edukacją, zarządzaniem infrastrukturą, energią, usługami publicznymi i wymiarze sprawiedliwości. Jednocześnie, w zależności od okoliczności dotyczących konkretnego zastosowania, sztuczna inteligencja może generować ryzyko i szkodzić interesom publicznym i prywatnym. Regulacja unijna ma ograniczyć tego rodzaju zagrożenie. Trzeba mieć świadomość, że jest propozycje zawarte w rozporządzeniu to rozwiązania pionierskie, dalekie od całościowego uregulowania problemu. Wiele nowych kwestii prawnych wyłoni się zapewne wraz z rozwojem i popularyzacją systemów SI. Z drugiej strony nie należy ulegać wrażeniu, że nowa technologia wymaga zupełnie nowych rozwiązań normatywnych. W większości przypadków obecny system może działać skutecznie, jeśli producenci technologii AI będą skłonni zapewnić wystarczającą przejrzystość w wyjaśnianiu, w jaki sposób podejmowane są decyzje z zastosowaniem systemów sztucznej inteligencji.

Transparentność działania technologii jest niezbędna dla ewentualnego rekompensowania szkód wyrządzonym ofiarom błędnych decyzji, a tam, gdzie szkody mogą być szczególnie dotkliwe do przewidywania zagrożeń mogących pojawić się w wyniku jej użycia w przyszłości.

dr hab. Karol Dobrzeniecki, prof. UMK w Toruniu – ekspert ds. legislacji Biura Analiz Sejmowych Kancelarii Sejmu, radca prawny, główny specjalista ds. badawczych w Łukasiewicz – Centrum Oceny Technologii. Jest autorem blisko stu publikacji poświęconych prawu nowych technologii, wyzwań legislacyjnych w społeczeństwie informacyjnym, zagadnieniom teorii prawa i państwa. Członek Rady ds. Cyfryzacji przy Ministrze Cyfryzacji w latach 2016-2018, arbiter Sądu Polubownego ds. Domen Internetowych, ekspert Sektorowej Rady ds. Kompetencji Telekomunikacja i Cyberbezpieczeństwo. Od 2014 r. dyplomowany historyk sztuki.

Cel został wyraźne sformułowany: dzięki nowej regulacji uczynić Europę światowym centrum rozwoju wiarygodnej sztucznej inteligencji (SI). Tu nasuwa się pytanie, na czym wiarygodność sztucznej inteligencji miałaby polegać. Krótko: wiarygodna SI to taka, z której bez obawy będzie można korzystać, która nie zniszczy specyficznego ludzkiego świata wartości, ale pozwoli mu sprawniej funkcjonować.

Kilka lat temu Komisja Europejska powołała komisję ekspertów do wypracowania wytycznych promujących godną zaufania sztuczną inteligencję. Owocem prac był dokument, w którym za godny ufania uznano taki system SI , który spełnia trzy warunki. Po pierwsze jest zgodny z prawem, czyli wszystkimi obowiązującymi normami o charakterze ustawowym i aktami niższego rzędu. System taki nie może też naruszać norm etycznych, a zastosowana w nim technologa ma być niezawodna, zarówno z technicznego, jak i ze społecznego punktu widzenia. Wadliwie działające systemy SI mogą bowiem wywoływać niezamierzone szkody nawet wówczas, gdy korzysta się z nich w dobrej wierze. W idealnej sytuacji powinny zostać spełnione wszystkie trzy wymogi, ponieważ ich zakresy w pewnym stopniu się zazębiają.

Pozostało 88% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Opinie i komentarze
Dominik Skoczek: W Polsce cyfrowi giganci mają się dobrze
Opinie i komentarze
Tantiemy autorskie z internetu: jak korzyści nielicznych przekuć w sukces wszystkich
Opinie i komentarze
Od kredy i tablicy po sztuczną inteligencję. Szkoła chce być na czasie
Opinie i komentarze
Odpowiedzialne innowacje, czyli wątpliwości wokół Neuralinka i sterowania myślami
Opinie i komentarze
Prof. Ryszard Markiewicz: Można obciążyć producentów filmów wypłatami dla twórców i artystów