Reklama

Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

Algorytmy uczenia maszynowego odegrały kluczową rolę w kierowaniu ponad 85 atakami powietrznymi przeprowadzonymi kilka tygodni temu przez amerykańskie bombowce i myśliwce w Iraku oraz Syrii. To efekt okrytego tajemnicą projektu Maven.

Publikacja: 26.02.2024 22:57

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Myśliwiec F-35 nad Syrią

Myśliwiec F-35 nad Syrią. Działania lotnictwa USA mocno wspiera sztuczna inteligencja

Foto: Departament Obrony USA

Dyrektorka ds. technologii w Centralnym Dowództwie Stanów Zjednoczonych Schuyler Moore ujawniła tę informację Bloombergowi, nie zdradzając jednak szczegółów misji. Wiadomo jednak, że sztuczna inteligencja została wykorzystana przez armię do identyfikowania celów na Bliskim Wschodzie. Na podstawie wskazań AI prowadzono niszczycielskie naloty na minimum kilka obiektów zlokalizowanych w Iraku i Syrii. W konsekwencji miały zostać zniszczone m.in. magazyny dronów, wyrzutnie rakiet, czy centra operacyjne ugrupowań islamistycznych.

Projekt Maven i sztuczna inteligencja

Za atakami stała najnowsza technologia – chodzi o Projekt Maven. To inicjatywa Pentagonu, która swoje korzenie ma w 2017 r. Rozwijany od tego czasu program ma na celu wdrożenie technologii AI w sektorze obronnym. Idea jest taka, by zaawansowane algorytmy wspierały armię USA w działaniach wywiadowczych i bojowych. Choć sztuczna inteligencja nie decydowała o celach to – jak tłumaczy Moore - system pomógł zidentyfikować potencjalne zagrożenia. To on pozwolił namierzyć Amerykanom wyrzutnie w Jemenie, czy statki na Morzu Czerwonym, powiązane z bojówkami Huti.

Czytaj więcej

Jeden żołnierz zastąpi całą armię, a rojami dronów pokieruje sztuczna inteligencja

Wykorzystanie sztucznej inteligencji w precyzyjnych atakach z powietrza to rewolucja na polu walki. Schuyler Moore przekonywała jednak, że nie ma mowy, by systemy AI podejmowały jakiekolwiek decyzje poza kontrolą człowieka. Wciąż istnieją bowiem ryzyka związane z zapewnieniem dokładności i niezawodności takich systemów, stąd nadzór ludzki w weryfikowaniu zaleceń AI jest kluczowy. Błędy wywołane przez algorytmy w innym wypadku mogłyby prowadzić do katastrofalnych konsekwencji i potencjalnej niezamierzonej eskalacji działań wojskowych.

Ryzyko AI

Część ekspertów jest przekonanych, że wykorzystanie sztucznej inteligencji musi być precyzyjnie uregulowane. Zwolennikiem takich przepisów jest m.in. Kjell Carlsson, ekspert ds. strategii sztucznej inteligencji w Domino Data Lab. – To da gwarancję, że ludzie rozwijają i wykorzystują AI w sposób odpowiedzialny – zaznacza w rozmowie z Bloombergiem.

Reklama
Reklama
Technologie
Awaryjny powrót astronautów z USA. Kosmosu nie da się podbić bez sztucznej grawitacji
Technologie
ChatGPT przejmuje zdrowie. Czy lekarze mają się czego bać?
Technologie
Nie Tesla i nie Apple. Wielka gwiazda muzyki pokazuje pojazd przyszłości
Technologie
Chińczycy rzucają wyzwanie Tesli. Wchodzą do USA z humanoidalnymi robotami
Technologie
AI wypisze leki zamiast lekarza? Kontrowersyjny krok w USA
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama