Roje robotów zdolnych do zabijania ludzi to już nie science fiction. Systemy autonomicznej broni (LAWS) już są stosowane – pisze portal foreignpolicy.com. W Ukrainie Moskwa miała rozmieścić systemy Kałasznikowa napędzane sztuczną inteligencją. Z kolei drony kamikadze zbierały doświadczenie bojowe w Syrii. Dowodem na ich użycie jest film z zestrzelenia takiego dronu nad dzielnicą Kijowa Podolskij. Natomiast Kijów używa tureckich dronów Bayraktar TB2, które mają ograniczone możliwości autonomiczne. Według ONZ technologie te w postaci dronów Kargu-2 mogły być wykorzystane przez Turcję do „polowania” na wycofujących się żołnierzy libijskich.

W przeciwieństwie do zwykłych dronów, systemy autonomiczne potrafią samodzielnie nawigować, a niektóre wybierają cele. Chociaż człowiek kontroler wciąż może decydować, czy uderzyć, taka broń zyskuje coraz większą samodzielność. Siły zbrojne na całym świecie zauważyły już korzyści płynące z zastosowania takiego sprzętu i technologie te mogą stać się powszechnie używane lub nawet wszechobecne – pisze „Foreign Policy”.

Jak dotąd Izrael, Rosja, Korea Południowa i Turcja podobno rozmieściły broń o autonomicznych zdolnościach – choć nie do końca wiadomo, czy ten tryb jest aktywny – a Australia, Wielka Brytania, Chiny i USA intensywnie inwestują w rozwój LAWS, szukając nowych funkcji i możliwości zastosowania takiej broni.

Czytaj więcej

Robot na kołach wystrzeli drony. Mordercza broń

Już teraz autonomiczne systemy uzbrojenia są w stanie przeczesywać okolicę i odnajdować cele dzięki AI nauczonej, jak rozpoznawać systemy radarowe wroga, czołgi, statki, a nawet konkretne osoby. Broń ta może być niewielka, operować w grupach, ale czasem są to duże jednostki wyposażone w pociski. Armie używają także zmodyfikowanych dronów komercyjnych, które są niewielkich rozmiarów.

Mark Gubrud z University of North Carolina w Chapel Hill zwraca uwagę, że zastosowanie takiej broni w wojnie w Ukrainie może „zwiększyć entuzjazm Zachodu dla takiej broni”. Ale gdy technologie te rozprzestrzenią się na szeroką skalę, trudno będzie je kontrolować. Dlatego też eksperci ostrzegają, że potrzebne są nowe regulacje i prawa. Pod koniec 2021 roku sekretarz generalny ONZ Antonio Guterres wezwał do wprowadzenia nowych zasad użycia broni autonomicznej. Ma to zapobiec sytuacji, w której sztuczna inteligencja, sama będzie w stanie wyszukiwać i niszczyć wrogie cele, w tym ludzi. Na forum ONZ rozmowy o ograniczeniach dla tego typu uzbrojenia prowadzone są od ośmiu lat. Na razie bez rezultatów.

Według „Foreign Policy” podstawą ograniczenia i kontroli nad „robotami zabójcami” może być dyrektywa 3000.09, wprowadzona w życie przez USA w 2012 roku. Dyrektywa jest tak rygorystyczna, że ONZ może na jej bazie opracować ogólnie obowiązujące prawo w postaci konwencji.