Reklama

Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

Algorytmy uczenia maszynowego odegrały kluczową rolę w kierowaniu ponad 85 atakami powietrznymi przeprowadzonymi kilka tygodni temu przez amerykańskie bombowce i myśliwce w Iraku oraz Syrii. To efekt okrytego tajemnicą projektu Maven.

Publikacja: 26.02.2024 22:57

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Myśliwiec F-35 nad Syrią

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Foto: Departament Obrony USA

Dyrektorka ds. technologii w Centralnym Dowództwie Stanów Zjednoczonych Schuyler Moore ujawniła tę informację Bloombergowi, nie zdradzając jednak szczegółów misji. Wiadomo jednak, że sztuczna inteligencja została wykorzystana przez armię do identyfikowania celów na Bliskim Wschodzie. Na podstawie wskazań AI prowadzono niszczycielskie naloty na minimum kilka obiektów zlokalizowanych w Iraku i Syrii. W konsekwencji miały zostać zniszczone m.in. magazyny dronów, wyrzutnie rakiet, czy centra operacyjne ugrupowań islamistycznych.

Projekt Maven i sztuczna inteligencja

Za atakami stała najnowsza technologia – chodzi o Projekt Maven. To inicjatywa Pentagonu, która swoje korzenie ma w 2017 r. Rozwijany od tego czasu program ma na celu wdrożenie technologii AI w sektorze obronnym. Idea jest taka, by zaawansowane algorytmy wspierały armię USA w działaniach wywiadowczych i bojowych. Choć sztuczna inteligencja nie decydowała o celach to – jak tłumaczy Moore - system pomógł zidentyfikować potencjalne zagrożenia. To on pozwolił namierzyć Amerykanom wyrzutnie w Jemenie, czy statki na Morzu Czerwonym, powiązane z bojówkami Huti.

Czytaj więcej

Jeden żołnierz zastąpi całą armię, a rojami dronów pokieruje sztuczna inteligencja

Wykorzystanie sztucznej inteligencji w precyzyjnych atakach z powietrza to rewolucja na polu walki. Schuyler Moore przekonywała jednak, że nie ma mowy, by systemy AI podejmowały jakiekolwiek decyzje poza kontrolą człowieka. Wciąż istnieją bowiem ryzyka związane z zapewnieniem dokładności i niezawodności takich systemów, stąd nadzór ludzki w weryfikowaniu zaleceń AI jest kluczowy. Błędy wywołane przez algorytmy w innym wypadku mogłyby prowadzić do katastrofalnych konsekwencji i potencjalnej niezamierzonej eskalacji działań wojskowych.

Ryzyko AI

Część ekspertów jest przekonanych, że wykorzystanie sztucznej inteligencji musi być precyzyjnie uregulowane. Zwolennikiem takich przepisów jest m.in. Kjell Carlsson, ekspert ds. strategii sztucznej inteligencji w Domino Data Lab. – To da gwarancję, że ludzie rozwijają i wykorzystują AI w sposób odpowiedzialny – zaznacza w rozmowie z Bloombergiem.

Reklama
Reklama
Technologie
Demokracja zagrożona przez AI? Naukowcy alarmują: boty skuteczniejsze niż telewizja
Technologie
W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców
Technologie
Rafał Brzoska zainwestował w satelity. Polski start-up warty 10 mld zł
Technologie
Luksus i AI nie idą w parze? Fala krytyki pod adresem Valentino
Materiał Promocyjny
Startupy poszukiwane — dołącz do Platform startowych w Polsce Wschodniej i zyskaj nowe możliwości!
Technologie
Chiński robot straszy w Himalajach. Niepokojące nagranie na granicy z Indiami
Materiał Promocyjny
Jak rozwiązać problem rosnącej góry ubrań
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama