Akt o sztucznej inteligencji. Trilogi trwają, dlaczego to takie ważne?

Równowaga między regulacjami a elastycznością dla rozwoju sektora sztucznej inteligencji jest kluczowa dla osiągnięcia sukcesu i globalnej konkurencyjności przez europejskie podmioty w tej dziedzinie - pisze Michał Kanownik, prezes Związku Cyfrowa Polska, Członek Zarządu Digital Europe.

Publikacja: 27.11.2023 17:24

Michał Kanownik

Michał Kanownik

Foto: materiały prasowe

Regulacje dotyczące sztucznej inteligencji, zwłaszcza w kontekście procedowanego właśnie AI Act, są niezwykle istotne dla całej europejskiej gospodarki. Akty te mają na celu stworzenie spójnego, ramowego podejścia do regulacji sztucznej inteligencji w Unii Europejskiej. Jest to kluczowy krok dla zwiększenia potencjału badawczego i przemysłowego sztucznej inteligencji w Europie oraz zapewnienia bezpieczeństwa obywatelom korzystającym z tej technologii. Jednak, jak w większości spraw, jest też jedno ważne “ale”.

Obecnie trwają trilogi, czyli negocjacje pomiędzy krajami członkowskimi reprezentowanymi przez prezydencję hiszpańską, Parlamentem Europejskim i Komisją Europejską, mające na celu uzgodnienie ostatecznego kształtu przepisów. To ostatnia faza procesu legislacyjnego i ostatni moment na wypracowanie konkretnych przepisów. Regulacje zawarte w AI Act są istotne z perspektywy ochrony praw obywateli, szczególnie w kwestiach bezpieczeństwa danych osobowych, etyki i przejrzystości algorytmów.

Jednak należy głośno i konkretnie mówić o konieczności zachowania ostrożności w procesie tworzenia tychże regulacji. Przede wszystkim dlatego, aby nowe rozporządzenie nie zaszkodziło rozwojowi sztucznej inteligencji w Europie, ani nie stłumiło potencjału innowacyjnego tej technologii. Równowaga między regulacjami a elastycznością dla rozwoju sektora sztucznej inteligencji jest kluczowa dla osiągnięcia sukcesu i globalnej konkurencyjności przez europejskie podmioty w tej dziedzinie.

Czytaj więcej

Świat chce uregulować AI. Groźba zniszczenia ludzkości czy histeria i urojenia?

Dlatego jako Związek Cyfrowa Polska idąc w jednym zjednoczonym bloku z innymi organizacjami europejskimi reprezentującymi przedsiębiorców zaapelowaliśmy do przedstawicieli Komisji Europejskiej, Parlamentu Europejskiego i prezydencji hiszpańskiej o opracowanie takich ram regulacyjnych dla wykorzystywania sztucznej inteligencji w Europie, które zapewnią odpowiedni zrównoważony rozwój nowych technologii na kontynencie i nie będą stwarzały niepotrzebnych barier w powstawaniu innowacji opartych o AI. Przesłaliśmy też do Brukseli zestaw rekomendacji w tej sprawie.

Ważny głos Francji, Niemiec i Włoch

Nagłówki światowych mediów obiegła niedawno informacja o “naciskach” ze strony trzech największych krajów Unii Europejskiej – Francji, Niemiec i Włoch – które opowiedziały się za obowiązkową samoregulacją podstawowych modeli w unijnym prawie dotyczącym sztucznej inteligencji. Te “naciski” to tak naprawdę zwrócenie uwagi na ważny aspekt procedowanych regulacji o sztucznej inteligencji, w myśl starej zasady mówiącej o tym, że należy zachować ostrożność, by nie wylać dziecka z kąpielą.

Zapisy te pojawiły się w formie tzw. non-paper, czyli w nieoficjalnym dokumencie, który jednakże oficjalną drogą trafił na biurko hiszpańskiej prezydencji Rady UE, negocjującej w imieniu państw członkowskich. Te trzy kraje zaapelowały o wycofanie się z wielopoziomowego podejścia na rzecz racjonalnego i zrównoważonego regulowania w ramach AI Act. Poparcie dla podejścia opartego na ryzyku i sprzeciw wobec asymetrycznego regulowania modeli podstawowych to pozytywny krok w kierunku wypracowania przepisów, które nie będą stwarzały barier dla innowacyjności, a nie “naciski” czy “próba wywrócenia kompromisu”.

Największe kraje UE uznały potrzebę kompleksowego uregulowania systemów sztucznej inteligencji i podkreśliły, że ustawa o sztucznej inteligencji zapewni obywatelom Wspólnoty ochronę i zaufanie do produktów opartych o AI, które będą dystrybuowane na jednolitym rynku. Wskazały przy tym jednak, że jeśli Unia Europejska zamierza zająć czołową pozycję w wyścigu nowych technologii i usług opartych o AI, to uregulowanie tych kwestii wymaga ram wspierających innowacje i konkurencyjność, tak, aby europejscy gracze mogli wyłonić się na globalnym rynku i zaistnieć na arenie międzynarodowej, jako główni dostawcy rozwiązań AI.

Stanowcze sprzeciwienie się "nietestowanym normom" oraz podejściu dwustopniowemu w kontekście modeli podstawowych pokazuje, że państwa członkowskie zdają sobie sprawę, że regulowanie tak kluczowej technologii to nie przestrzeń na wdrażanie eksperymentalnych rozwiązań. Zamiast tego proponowana "obowiązkowa samoregulacja" poprzez kodeksy postępowania stanowi konstruktywną alternatywę.

Wspomniane kodeksy miałyby być inspirowane np. procesem Hiroshima AI grupy G7, co zdecydowanie dodaje wiarygodności tym propozycjom. Jak określono w propozycji państw członkowskich, kodeksy miałyby zawierać wymogi dot. przejrzystości, zasad wymiany informacji i zabezpieczeń modeli. W praktyce dostawcy byliby zobowiązani do opracowania "kart modeli" dla każdego modelu podstawowego, w których byłaby zawarta dokumentacja dotyczącą funkcjonowania, możliwości i ograniczeń modelu.

Jak racjonalnie regulować AI

Stąd też nasz apel do uczestników trójstronnych negocjacji, który w głównej mierze dotyczy powstrzymania się od ustanawiania asytemtrycznych obowiązków w rozporządzeniu. Chodzi tu przede wszystkim o mierzenie ryzyka danego wykorzystania sztucznej inteligencji. W naszej ocenie, miara ta powinna być oparta o testy pokazujące, jak modele radzą sobie w rzeczywistych warunkach, a nie o specyfikacje techniczne czy wielkość dostawcy, jak w jednej z obecnie proponowanych wersji.

Obecnie sformułowane zapisy doprowadzą w ostateczności do luki w przepisach i egzekwowania nowych regulacji tylko wobec wybranych podmiotów. A opieranie się na progu mocy obliczeniowej stwarza ryzyko pozostawienia mniejszych, ale potencjalnie niebezpiecznych modeli poza zakresem AI Actu. Warto jednocześnie podkreślić, że przepisy nie mogą dotyczyć wyłącznie dużych platform, ale powinny mieć charakter horyzontalny i regulować cały rynek, obejmując także mniejsze podmioty.

Obawy naszej branży obejmują również projektowane zakazy użycia sztucznej inteligencji. Powinny być one rygorystycznie ograniczone tylko do konkretnych przypadków. Klasyfikacja wysokiego ryzyka powinna uwzględniać jedynie jasno określone sytuacje stwarzające rzeczywiste zagrożenie. Inaczej, wprowadzenie całkowitych zakazów może w sposób niezamierzony wpłynąć na użyteczność technologii AI.

Niepotrzebne są również proponowane przez Komisję Europejską wymagania zewnętrznych testów produktów i usług wykorzystujących sztuczną inteligencję przed i po wprowadzeniu ich na rynek. Takie rozwiązanie w rzeczywistości byłoby niepraktyczne i nieskuteczne, a przy tym stwarzałoby wymóg ujawnia przez firmy danych wrażliwych, np. tajemnic handlowych.

Zatem wciąż aktualne pozostaje wezwanie, że potrzebujemy wynegocjowania spójnych ram prawnych dla sztucznej inteligencji w Europie. Przepisy takie są niezbędne, aby umożliwić dalszy rozwój tej innowacyjnej technologii i zapewnić Europie pozycję lidera w badaniach oraz rozwoju sztucznej inteligencji. Tylko dzięki jasnemu i przewidywalnemu otoczeniu regulacyjnemu będziemy mogli w pełni czerpać korzyści z tej rewolucyjnej technologii.

Opinie i komentarze
Odpowiedzialne innowacje. Jak mądra będzie „smart” wieś?
Opinie i komentarze
Odpowiedzialne innowacje: Moralność maszyn, czyli liczne pytania natury etycznej
Opinie i komentarze
Jan Widacki: Modernizacja stacji bazowej telefonii komórkowej nie musi być rozbudową
Opinie i komentarze
Prof. Jan Widacki: Miliardy za częstotliwości kosztem inwestycji?
Opinie i komentarze
Michał Targiel, partner PwC Polska: Inwestycje w AI warunkiem przetrwania
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10