Szerokie zastosowanie algorytmów, możliwość ich łączenia się oraz autonomiczność powodują, że posiadają one duży potencjał w zakresie ich wykorzystania. Z drugiej strony mogą stanowić bardzo poważne ryzyko dla osób, które mają z nimi styczność. Mając na uwadze, że algorytmy mogą być wykorzystywane przez organy ścigania, do wspomagania usług transportu czy w zakresie edukacji, istnieje wysokie ryzyko szkody, jeżeli systemy SI zawiodą. Przy braku regulacji, jakie systemy mogą być wykorzystywane i w jaki sposób, należy je monitorować oraz zapewnić ich stałe i prawidłowe funkcjonowanie, powstaje niepewność co do obowiązków podmiotów odpowiedzialnych za algorytmy.

Komisja we wniosku dotyczącym rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji) z dnia 21 kwietnia 2021 r. przedstawiła propozycję rozwiązania odnoszącą się do powyższych problemów. Akt w sprawie SI stanowił również kontynuację postulatów Parlamentu Europejskiego, który w licznych Rezolucjach wzywał do unormowania kwestii związanych z obecnością SI na rynku unijnym.

W szczególności Parlament wyróżnił w swoich propozycjach legislacyjnych algorytm „wysokiego ryzyka”. „Wysokie ryzyko” ma oznaczać potencjalną możliwość losowego wyrządzenia szkody przez system SI w taki sposób, że wykracza to poza okoliczności, jakich można by racjonalnie oczekiwać. Jest to dodatkowo uzależnione od „(…) wzajemnego powiązania między powagą ewentualnej szkody, stopniem autonomiczności w podejmowaniu decyzji, prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi, oraz sposobem i kontekstem użycia systemu sztucznej inteligencji” (Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r.).

Akt w sprawie sztucznej inteligencji kontynuuje tym samym zapoczątkowane przez Parlament propozycje, proponując podzielenie systemu SI na poszczególne kategorie mające na celu identyfikację, jakie ryzyko dany algorytm może stanowić dla społeczeństwa. W zależności od potencjalnego stopnia zagrożenia Komisja przydziela zakres obowiązków określonym osobom odpowiedzialnym za algorytm mający zapewnić jego poprawne działanie.

Pierwszą kategorią, która jest określona w Akcie w sprawie sztucznej inteligencji jest kategoria systemów niedopuszczalnych. Są to systemy wykorzystujące techniki podprogowe lub dowolne słabości osób w celu niebezpiecznego zniekształcenia zachowania osoby, które może doprowadzić do szkody. Do tej kategorii zaliczane są również systemy SI, które mają dokonywać oceny ludzi na podstawie ich zachowania i charakteru w sposób, który może doprowadzić do niesprawiedliwego traktowania takich osób. Komisja Europejska uznaje, że wykorzystywanie systemów tego rodzaju powinno być niedopuszczalne ze względu na szkodę, którą mogą wywołać. Zgodnie ze stanowiskiem prezentowanym w uzasadnieniu do Aktu w sprawie SI, systemy wysokiego ryzyka stanowią zdaniem Komisji zagrożenie dla podstawowych praw człowieka z wysokim potencjałem do manipulowania ludźmi.

Drugą kategorią systemów SI, tak jak w ww. Rezolucji, są systemy „wysokiego ryzyka”. Chodzi tutaj m.in. o systemy, które stanowią znaczne zagrożenie dla zdrowia i bezpieczeństwa lub praw podstawowych człowieka i są wykorzystywane w pewnej określonej kategorii usług (m.in. w edukacji czy w transporcie). W ramach tych systemów Komisja określiła system zarządzania ryzykiem. Ma być to ciągły proces realizowany przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka wymagającego regularnej, systematycznej aktualizacji. Ma to zapobiec powstawaniu ewentualnych szkód i zabezpieczyć interes osób dotkniętych działaniami takiego systemu SI.

Pomimo zbieżności nazw należy zauważyć, że algorytm „wysokiego ryzyka” Parlamentu Europejskiego jest szerszym pojęciem niż kategoria określona przez Komisję. Rezolucja Parlamentu Europejskiego zakładała, że istnieją systemy „wysokiego ryzyka” oraz „pozostałe” systemy SI. Tym samym propozycja Komisji Europejskiej w zakresie dokonania podziału algorytmów, ze względu na ryzyko jakie przedstawiają, uszczegółowiła wcześniejsze założenie Parlamentu.

Kolejną kategorią systemów SI określonych w Akcie w sprawie SI są systemy stwarzające ryzyko, szczególnie w zakresie możliwości ryzyka manipulacji – Komisja nawiązuje tutaj do produktu stwarzającego ryzyko w rozumieniu art. 3 pkt 19 rozporządzenia (UE) 2019/1020. Dotyczy to m.in. systemów wchodzących w interakcję z człowiekiem, wykrywających emocje czy wykorzystujących tzw. technologię deepfake. Komisja wyznacza w tym zakresie obowiązek transparentności co do systemów tak, by osoby wchodzące w interakcję z systemami miały możliwość podjęcia świadomych wyborów lub wycofania się z danej sytuacji.

Kategoria, w której powinna się znajdować największa ilość systemów SI działających na terytorium Unii Europejskiej według Komisji to kategoria „minimalnego ryzyka”, w którą będą m.in. wchodziły systemy filtrujące wiadomości e-mail czy systemy wspomagające gry wideo. W ramach tej kategorii Komisja nie przewiduje żadnych dodatkowych ograniczeń nakładanych na osoby odpowiedzialne za działanie takiego algorytmu. Nie stanowią one zagrożenia dla osób fizycznych, więc nie są obarczone obostrzeniami jak systemy SI pozostałych kategorii.

Autopromocja
FORUM ESG

Co warto wiedzieć o ESG? Jej znaczenie dla firm i gospodarki.

CZYTAJ WIĘCEJ

Powyższe regulacje mają zapewnić pewność co do sposobu funkcjonowania systemów SI na rynku oraz od samego początku dbać, by nie doszło do wyrządzenia szkody przez nieprawidłowe działanie systemu. Należy jednak stwierdzić, że pojawia się wiele głosów krytycznych co do formy obecnej propozycji legislacyjnej, uznając, że nie gwarantuje ona bezpieczeństwa działania SI i posiada zbyt wiele luk prawnych. Ma być to związane z faktem, że Komisja wzorując się głównie na istniejących aktach prawa, nie uwzględniła całościowej specyfiki funkcjonowania sztucznej inteligencji.

Kompleksowe uregulowanie systemów SI jest dużym wyzwaniem, przed którym obecnie stoi Unia Europejska. Akt w sprawie sztucznej inteligencji z pewnością będzie ulegał jeszcze zmianom, jednak pokazuje on pewien kierunek w sposobie przypisania odpowiedzialności za działanie SI. Dostosowanie przepisów w sposób zarówno gwarantujący bezpieczeństwo osób dotkniętych działaniem sztucznej inteligencji, jak i zapewnienie korzystania z pełnej funkcjonalności oferowanej przez tę technologię jest niezbędne do prawidłowego działania rynku wspieranego przez SI.

Autorem jest Malwina Sulińska-Jakubowska, Lubasz i Wspólnicy – Kancelaria Radców Prawnych sp. k. Kancelaria jest zrzeszona w sieci Kancelarie RP działającej pod patronatem dziennika „Rzeczpospolita