Giganci AI zniecierpliwieni Londynem i Brukselą. „Co z regulacjami?"

Firmy z branży sztucznej inteligencji naciskają na brytyjski rząd, który wprowadza regulacyjne zabezpieczenia w kontekście rozwoju tej technologii. Konieczność kontrolowania i testowania algorytmów jest big techom nie na rękę.

Publikacja: 07.02.2024 21:10

Wielka Brytania ma na pieńku z firmami AI, których systemy testuje pod kątem bezpieczeństwa. Takie z

Wielka Brytania ma na pieńku z firmami AI, których systemy testuje pod kątem bezpieczeństwa. Takie zdjęcie wygenerowała AI

Foto: AdobeStock

Koncerny apelują do Londynu, by ten przyspieszył testy bezpieczeństwa systemów sztucznej inteligencji – donosi „Financial Times”. Przyjęte przez Wielką Brytanię rozwiązania, choć nie mają rangi przepisów, opracowano, by podnieść bezpieczeństwo AI. Najwyraźniej hamują jednak plany ekspansji potentatów branży. OpenAI, Google DeepMind, Microsoft i Meta, które w listopadzie ub.r. podpisały dobrowolne zobowiązania dotyczące udostępnienia swoich najnowszych modeli generatywnej AI (GenAI) do tzw. przeglądu przez przedstawicieli brytyjskiego Instytutu Bezpieczeństwa AI (AISI). Obiecały, że dostosują swoje systemy do wskazań, o ile instytut ten znajdzie jakieś wady w technologii. Ale firmy tracą cierpliwość i teraz domagają się jasności co do prowadzonych testów. Chcą mieć pewność, ile takie analizy potrwają i w jaki sposób będą otrzymywać informacje zwrotne w razie wykrycia nieprawidłowości. „FT” wskazuje, że nieoficjalnie firmy już dają znać, iż wcale nie muszą wdrażać zmian postulowanych przez AISI ani opóźniać wprowadzania swoich systemów AI na brytyjski rynek.

Testy sztucznej inteligencji

Do sprawy na platformie LinkedIn odniósł się przewodniczący AISI Ian Hogarth, który podkreślił, że firmy same zgodziły się na to, aby rząd testował modele GenAI przed ich udostępnieniem. „AISI wdraża ten postulat w praktyce” – napisał.

Testy przedwdrożeniowe to koncepcja będąca efektem ubiegłorocznego szczytu AI Safety Summit, który odbył się w Bletchley Park. Część ekspertów zauważa, że nadzieje dotyczące samoregulacji gigantów AI okazały się na wyrost. „FT” twierdzi, że podejście firm technologicznych ujawniło, iż należy w ograniczonym stopniu polegać „na dobrowolnych porozumieniach w celu ustalenia parametrów rozwoju” zaawansowanych algorytmów.

Czytaj więcej

Świat chce uregulować AI. Groźba zniszczenia ludzkości czy histeria i urojenia?

Dlatego Londyn intensywnie pracuje nad „wiążącymi regulacjami” w sprawie sztucznej inteligencji. Na finiszu takich prac jest już Bruksela. Państwa członkowskie Unii Europejskiej zaakceptowały treść przepisów dla AI (przyjęto ją jednogłośnie). Teraz, najprawdopodobniej w przyszłym tygodniu, czas na głosowania w komisjach Parlamentu Europejskiego (w Komisji Rynku Wewnętrznego i Ochrony Konsumentów oraz w Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych). Kolejny, ostateczny już krok to głosowanie plenarne nad rozporządzeniem AI Act. To mogłoby odbyć się w marcu bądź kwietniu br.

AI ma być bezpieczna

Zdaniem Neila Thackera, członka zarządu Netskope, firmy specjalizującej się w cyfrowym bezpieczeństwie, unijne przepisy o sztucznej inteligencji mają szeroki zakres: starają się zapewnić wytyczne i ochronę w wielu obszarach, na które AI będzie miała wpływ w nadchodzących latach.

– Dla przeciętnego, niespecjalistycznego przedsiębiorstwa są to odniesienia do systemów AI ogólnego przeznaczenia, na które powinny zwrócić uwagę na początku ich stosowania. Nowe przepisy obejmują wymogi dotyczące przejrzystości, w tym dokumentację techniczną i zgodność z unijnymi przepisami dotyczącymi praw autorskich, a w przypadku gdy informacje te nie są dostępne, przedsiębiorstwa będą zobowiązane do kontrolowania wykorzystania takich systemów w swojej organizacji – mówi Thacker. I zaznacza, że szczególnie cieszą wyraźne wymogi dotyczące szczegółowych podsumowań treści wykorzystywanych do szkolenia sztucznej inteligencji.

Nowa unijna ustawa o sztucznej inteligencji jest pierwszym na świecie międzysektorowym i transgranicznym aktem prawnym dotyczącym AI.

Koncerny apelują do Londynu, by ten przyspieszył testy bezpieczeństwa systemów sztucznej inteligencji – donosi „Financial Times”. Przyjęte przez Wielką Brytanię rozwiązania, choć nie mają rangi przepisów, opracowano, by podnieść bezpieczeństwo AI. Najwyraźniej hamują jednak plany ekspansji potentatów branży. OpenAI, Google DeepMind, Microsoft i Meta, które w listopadzie ub.r. podpisały dobrowolne zobowiązania dotyczące udostępnienia swoich najnowszych modeli generatywnej AI (GenAI) do tzw. przeglądu przez przedstawicieli brytyjskiego Instytutu Bezpieczeństwa AI (AISI). Obiecały, że dostosują swoje systemy do wskazań, o ile instytut ten znajdzie jakieś wady w technologii. Ale firmy tracą cierpliwość i teraz domagają się jasności co do prowadzonych testów. Chcą mieć pewność, ile takie analizy potrwają i w jaki sposób będą otrzymywać informacje zwrotne w razie wykrycia nieprawidłowości. „FT” wskazuje, że nieoficjalnie firmy już dają znać, iż wcale nie muszą wdrażać zmian postulowanych przez AISI ani opóźniać wprowadzania swoich systemów AI na brytyjski rynek.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Szefował badaniom nad ChatGPT w OpenAI. Teraz chce zbudować jego „zabójcę”
Globalne Interesy
Nowa najcenniejsza firma na świecie. Microsoft zdetronizowany
Globalne Interesy
Elon Musk znów miesza w X. Czy ta zmiana nie zdenerwuje użytkowników?
Globalne Interesy
Intel kasuje gigantyczną inwestycję. Co z opóźnioną budową fabryki w Polsce?
Akcje Specjalne
Firmy chcą działać w sposób zrównoważony
Globalne Interesy
Elon Musk skapitulował w wojnie o sztuczną inteligencję. Pogrążyły go maile
Materiał Promocyjny
Sztuczna inteligencja może być wykorzystywana w każdej branży