Michael Wooldridge, profesor sztucznej inteligencji na Uniwersytecie Oksfordzkim, powiedział, że zagrożenie wynika z pośpiechu ogromnej presji komercyjnej, pod jaką znajdują się firmy technologiczne, aby wypuszczać nowe narzędzia AI. Nagły wzrost liczby chatbotów AI wyposażonych w zabezpieczenia, które jednak można łatwo ominąć, pokazuje – jego zdaniem – że bodźce komercyjne mają pierwszeństwo przed bardziej ostrożnym rozwojem i testami bezpieczeństwa.
Presja komercyjna kontra bezpieczeństwo systemów AI
– To klasyczny scenariusz technologiczny – powiedział, cytowany przez „The Guardian”. – Mamy technologię, która jest bardzo, bardzo obiecująca, ale nie została przetestowana tak rygorystycznie, jak byśmy sobie tego życzyli, a presja komercyjna stojąca za nią jest nie do wytrzymania.
Wooldridge, który jest wybitnym ekspertem od logiki AI, dyrektorem ds. fundamentów AI w Instytucie Alana Turinga w Londynie oraz autorem poczytnych książek popularnonaukowych, takich jak „Droga do świadomych maszyn”, uważa, że „moment Hindenburga” jest „bardzo prawdopodobny”. Niemiecki sterowiec Hindenburg, mierzący 245 metrów i wykonujący rejsy przez Atlantyk, stanął w płomieniach 6 maja 1937 r., podczas lądowania w New Jersey w USA. Zginęło wówczas 36 członków załogi, pasażerów i pracowników naziemnych. Pożar został wywołany iskrą, która zapaliła 200 tysięcy metrów sześciennych wodoru utrzymującego sterowiec w powietrzu.
Czytaj więcej
Pathfinder 1 to testowany właśnie elektryczny sterowiec, który ma zapoczątkować nową erę w lotnic...
– Katastrofa Hindenburga zniszczyła globalne zainteresowanie sterowcami. Od tego momentu była to martwa technologia, a podobny moment stanowi realne ryzyko dla AI – powiedział Wooldridge. Ponieważ AI jest wbudowana w tak wiele systemów, poważny incydent mógłby dotknąć niemal każdej branży.