Niedawny raport Rady Bezpieczeństwa ONZ ds. Libii ujawnił, że w marcu ub. r. turecki dron STM Kargu-2 uderzył w konwoje przeciwnika. Ten inteligentny pocisk wystartował, zidentyfikował cel i zaatakował bez udziału człowieka wycofujących się żołnierzy lojalnych wobec libijskiego generała Khalifa Haftara. Dynamicznie rozwijające się technologie w sektorze zbrojeń piszą nowy rozdział w militarnej historii świata.

Broń autonomiczna, wspierana przez sztuczną inteligencję (AI) i np. systemy rozpoznawania twarzy, to poważne zagrożenie. Szef ONZ wzywa do podjęcia ostrych działań, które powstrzymają „zabójcze roboty”. Dron-samobójca to tylko jeden z przykładów wykorzystania takiej technologii. Głośno było także o zdalnie sterowanej inteligentnej broni maszynowej, z której w listopadzie 2020 r. zabiła Mohsena Fakhrizadecha, irańskiego naukowca zajmującego się rozwojem broni nuklearnej.

Czytaj więcej

Amerykanie stworzyli robotycznego psa snajpera. Trudno go powstrzymać

Na forum ONZ rozmowy o ograniczeniach dla tego typu uzbrojenia prowadzone są od ośmiu lat. Teraz presja na zdecydowane działanie rządów rośnie. - Zachęcam do uzgodnienia ambitnego planu na przyszłość, aby wprowadzić ograniczenia w użyciu niektórych rodzajów broni autonomicznej – zaapelował w poniedziałek Guterres, cytowany przez agencję Reuters.

Niektóre kraje biorące udział w konwencji, w tym Austria, chcą całkowitego zakazu dla „robotów-zabójców”. Niechętni zablokowaniu tej precyzyjnej broni są Stany Zjednoczone, inicjatywy takie blokują też Rosjanie. Do szybkiego uregulowania tej kwestii wzywają członkowie kampanii „Stop Killer Robots”. Jej przedstawicielka Clare Conboy ostrzega, że tempo rozwoju takich autonomicznych technologii zaczyna przewyższać tempo rozmów dyplomatycznych na ich temat. – Nastał historyczny moment, by podjąć kroki w celu ochrony ludzkości przed autonomicznym użyciem siły – zaapelowała Conboy.

Human Rights Watch już wiele miesięcy temu wzywało do prewencyjnego zakazu rozwoju, produkcji i używania w pełni autonomicznej broni. Z kolei tacy wizjonerzy, jak Steven Hawking i Elon Musk, wielokrotnie ostrzegali, że „robo-broń” to zagrożenie dla ludzkości. AI nie potrafi bowiem odróżnić cywilów od żołnierzy. Istnieje ponadto ryzyko, że inteligentne uzbrojenie w przyszłości może wymknąć się spod nadzoru człowieka.