Reklama
Rozwiń
Reklama

Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

Algorytmy uczenia maszynowego odegrały kluczową rolę w kierowaniu ponad 85 atakami powietrznymi przeprowadzonymi kilka tygodni temu przez amerykańskie bombowce i myśliwce w Iraku oraz Syrii. To efekt okrytego tajemnicą projektu Maven.

Publikacja: 26.02.2024 22:57

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Myśliwiec F-35 nad Syrią

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Foto: Departament Obrony USA

Dyrektorka ds. technologii w Centralnym Dowództwie Stanów Zjednoczonych Schuyler Moore ujawniła tę informację Bloombergowi, nie zdradzając jednak szczegółów misji. Wiadomo jednak, że sztuczna inteligencja została wykorzystana przez armię do identyfikowania celów na Bliskim Wschodzie. Na podstawie wskazań AI prowadzono niszczycielskie naloty na minimum kilka obiektów zlokalizowanych w Iraku i Syrii. W konsekwencji miały zostać zniszczone m.in. magazyny dronów, wyrzutnie rakiet, czy centra operacyjne ugrupowań islamistycznych.

Projekt Maven i sztuczna inteligencja

Za atakami stała najnowsza technologia – chodzi o Projekt Maven. To inicjatywa Pentagonu, która swoje korzenie ma w 2017 r. Rozwijany od tego czasu program ma na celu wdrożenie technologii AI w sektorze obronnym. Idea jest taka, by zaawansowane algorytmy wspierały armię USA w działaniach wywiadowczych i bojowych. Choć sztuczna inteligencja nie decydowała o celach to – jak tłumaczy Moore - system pomógł zidentyfikować potencjalne zagrożenia. To on pozwolił namierzyć Amerykanom wyrzutnie w Jemenie, czy statki na Morzu Czerwonym, powiązane z bojówkami Huti.

Czytaj więcej

Jeden żołnierz zastąpi całą armię, a rojami dronów pokieruje sztuczna inteligencja

Wykorzystanie sztucznej inteligencji w precyzyjnych atakach z powietrza to rewolucja na polu walki. Schuyler Moore przekonywała jednak, że nie ma mowy, by systemy AI podejmowały jakiekolwiek decyzje poza kontrolą człowieka. Wciąż istnieją bowiem ryzyka związane z zapewnieniem dokładności i niezawodności takich systemów, stąd nadzór ludzki w weryfikowaniu zaleceń AI jest kluczowy. Błędy wywołane przez algorytmy w innym wypadku mogłyby prowadzić do katastrofalnych konsekwencji i potencjalnej niezamierzonej eskalacji działań wojskowych.

Ryzyko AI

Część ekspertów jest przekonanych, że wykorzystanie sztucznej inteligencji musi być precyzyjnie uregulowane. Zwolennikiem takich przepisów jest m.in. Kjell Carlsson, ekspert ds. strategii sztucznej inteligencji w Domino Data Lab. – To da gwarancję, że ludzie rozwijają i wykorzystują AI w sposób odpowiedzialny – zaznacza w rozmowie z Bloombergiem.

Reklama
Reklama
Technologie
Sztuczna inteligencja w medycynie wykazuje uprzedzenia. Nowe badania z Harvardu
Technologie
Na ADHD kamizelka z AI. Zaskakujący projekt naukowców z Hongkongu
Technologie
5G, AI, metaverse i cyfrowe bliźniaki: technologie, które dziś zmieniają biznes
Technologie
Twórca iRobota nazywa wizję Muska „fantazją”. Ale Chiny już budują miasto maszyn
Technologie
Przełom w sztucznej inteligencji. Ten model AI przewiduje ludzkie działania
Materiał Promocyjny
W kierunku zrównoważonej przyszłości – konkretne działania
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama