Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

Algorytmy uczenia maszynowego odegrały kluczową rolę w kierowaniu ponad 85 atakami powietrznymi przeprowadzonymi kilka tygodni temu przez amerykańskie bombowce i myśliwce w Iraku oraz Syrii. To efekt okrytego tajemnicą projektu Maven.

Publikacja: 26.02.2024 22:57

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Foto: Departament Obrony USA

Dyrektorka ds. technologii w Centralnym Dowództwie Stanów Zjednoczonych Schuyler Moore ujawniła tę informację Bloombergowi, nie zdradzając jednak szczegółów misji. Wiadomo jednak, że sztuczna inteligencja została wykorzystana przez armię do identyfikowania celów na Bliskim Wschodzie. Na podstawie wskazań AI prowadzono niszczycielskie naloty na minimum kilka obiektów zlokalizowanych w Iraku i Syrii. W konsekwencji miały zostać zniszczone m.in. magazyny dronów, wyrzutnie rakiet, czy centra operacyjne ugrupowań islamistycznych.

Projekt Maven i sztuczna inteligencja

Za atakami stała najnowsza technologia – chodzi o Projekt Maven. To inicjatywa Pentagonu, która swoje korzenie ma w 2017 r. Rozwijany od tego czasu program ma na celu wdrożenie technologii AI w sektorze obronnym. Idea jest taka, by zaawansowane algorytmy wspierały armię USA w działaniach wywiadowczych i bojowych. Choć sztuczna inteligencja nie decydowała o celach to – jak tłumaczy Moore - system pomógł zidentyfikować potencjalne zagrożenia. To on pozwolił namierzyć Amerykanom wyrzutnie w Jemenie, czy statki na Morzu Czerwonym, powiązane z bojówkami Huti.

Czytaj więcej

Jeden żołnierz zastąpi całą armię, a rojami dronów pokieruje sztuczna inteligencja

Wykorzystanie sztucznej inteligencji w precyzyjnych atakach z powietrza to rewolucja na polu walki. Schuyler Moore przekonywała jednak, że nie ma mowy, by systemy AI podejmowały jakiekolwiek decyzje poza kontrolą człowieka. Wciąż istnieją bowiem ryzyka związane z zapewnieniem dokładności i niezawodności takich systemów, stąd nadzór ludzki w weryfikowaniu zaleceń AI jest kluczowy. Błędy wywołane przez algorytmy w innym wypadku mogłyby prowadzić do katastrofalnych konsekwencji i potencjalnej niezamierzonej eskalacji działań wojskowych.

Ryzyko AI

Część ekspertów jest przekonanych, że wykorzystanie sztucznej inteligencji musi być precyzyjnie uregulowane. Zwolennikiem takich przepisów jest m.in. Kjell Carlsson, ekspert ds. strategii sztucznej inteligencji w Domino Data Lab. – To da gwarancję, że ludzie rozwijają i wykorzystują AI w sposób odpowiedzialny – zaznacza w rozmowie z Bloombergiem.

Czytaj więcej

Chiński „generał AI”. Sztuczna inteligencja namierzy wrogów i przewidzi ich ruchy

Dyrektorka ds. technologii w Centralnym Dowództwie Stanów Zjednoczonych Schuyler Moore ujawniła tę informację Bloombergowi, nie zdradzając jednak szczegółów misji. Wiadomo jednak, że sztuczna inteligencja została wykorzystana przez armię do identyfikowania celów na Bliskim Wschodzie. Na podstawie wskazań AI prowadzono niszczycielskie naloty na minimum kilka obiektów zlokalizowanych w Iraku i Syrii. W konsekwencji miały zostać zniszczone m.in. magazyny dronów, wyrzutnie rakiet, czy centra operacyjne ugrupowań islamistycznych.

Pozostało 82% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Sztuczna inteligencja zdecyduje o zabiciu człowieka. ChatGPT idzie na wojnę
Technologie
Powstała realna alternatywa dla plastiku. Zwycięstwo w wojnie z odpadami?
Technologie
Jakim pojazdem pojadą po Księżycu astronauci? Pierwszy taki łazik skonstruował Polak
Technologie
Chcą dostarczyć niezwykłą broń Ukrainie. Moneta trafiona z odległości kilometra
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Technologie
Naukowcy opracowali „inteligentny” płyn. Ma odmienić robotykę i motoryzację