Koncerny apelują do Londynu, by ten przyspieszył testy bezpieczeństwa systemów sztucznej inteligencji – donosi „Financial Times”. Przyjęte przez Wielką Brytanię rozwiązania, choć nie mają rangi przepisów, opracowano, by podnieść bezpieczeństwo AI. Najwyraźniej hamują jednak plany ekspansji potentatów branży. OpenAI, Google DeepMind, Microsoft i Meta, które w listopadzie ub.r. podpisały dobrowolne zobowiązania dotyczące udostępnienia swoich najnowszych modeli generatywnej AI (GenAI) do tzw. przeglądu przez przedstawicieli brytyjskiego Instytutu Bezpieczeństwa AI (AISI). Obiecały, że dostosują swoje systemy do wskazań, o ile instytut ten znajdzie jakieś wady w technologii. Ale firmy tracą cierpliwość i teraz domagają się jasności co do prowadzonych testów. Chcą mieć pewność, ile takie analizy potrwają i w jaki sposób będą otrzymywać informacje zwrotne w razie wykrycia nieprawidłowości. „FT” wskazuje, że nieoficjalnie firmy już dają znać, iż wcale nie muszą wdrażać zmian postulowanych przez AISI ani opóźniać wprowadzania swoich systemów AI na brytyjski rynek.