W tym tygodniu Komisja Europejska ma przyjąć pakiet strategii z obszaru gospodarki cyfrowej. Jej założenia w środę przedstawią przewodnicząca KE Ursula von der Leyen, a także Thierry Breton, komisarz ds. rynku wewnętrznego. Potem przedstawiciele krajów członkowskich będą dyskutowali o finansowaniu tych planów. Koncepcja, która ma z jednej strony uregulować, ujednolicić i zachęcić państwa do współpracy nad sztuczną inteligencją (AI), wykorzystania komputerów kwantowych i do wymiany cyfrowych danych, a z drugiej gwarantować bezpieczeństwo, budzi wiele kontrowersji. Wcześniej wiele mówiło się, że m.in. KE rozważa wprowadzenie czasowego zakazu stosowania technologii rozpoznawania twarzy w przestrzeni publicznej. Ale ostatecznie ta propozycja nie znajdzie się w oficjalnym dokumencie.
Przedstawiciele KE twierdzą, że już teraz zdalna identyfikacja biometryczna jest mocno ograniczona, m.in. regulacjami o ochronie danych (tzw. RODO), więc potrzeba rozwiązań, które pomogą wykorzystać możliwości tej technologii, a jednocześnie zniwelują wszelkie ryzyka. Część ekspertów ma jednak obawy, że ustalanie zbyt sztywnych ram etycznych dla AI sprawi, że technologie takie z Chin (gdzie wykorzystywane są głównie do inwigilacji) czy USA odskoczą tym europejskim.
CZYTAJ TAKŻE: Aleksandra Przegalińska: Ludzie kochają AI albo się jej boją
Dziś – jak przekonuje Aleksandra Przegalińska z Akademii L. Koźmińskiego i bostońskiego MIT – wyścig jest wyrównany. – Trudno powiedzieć, jak będzie wyglądała przyszłość. Chińczycy mają plan na 2050 r., żeby doprowadzić AI do pewnego pułapu i coraz szerzej ją wdrażać. Podejście europejskie i amerykańskie jest raczej takie, aby tworzyć projekty unikatowe i mieć prawną ochronę własności intelektualnej – zaznacza.