Reklama
Rozwiń

USA badają ataki Izraela w Gazie z wykorzystaniem AI. Tajemniczy system Lavender

Stany Zjednoczone analizują doniesienia mediów mówiące, że izraelskie wojsko wykorzystuje sztuczną inteligencję do identyfikacji celów bombardowań w Gazie, powiedział CNN rzecznik ds. bezpieczeństwa narodowego Białego Domu John Kirby.

Publikacja: 05.04.2024 11:49

Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory

Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory margines błędu

Foto: Bloomberg

Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że ​​izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).

20 sekund na decyzję

Oprogramowanie to miało odegrać znaczącą rolę w bombardowaniach przeprowadzonych na terenie Strefy Gazy w pierwszych tygodniach po ataku Hamasu na Izrael. - Zdarzały się sytuacje, w których Hamas był definiowany szerzej. Wtedy system sugerował nam wszelkiego rodzaju pracowników obrony cywilnej czy policjantów. Pomagają oni Hamasowi, ale nie stanowią zagrożenia - twierdzi jedno ze źródeł portali.

Czytaj więcej

Twórca World Central Kitchen: Izrael brał na cel wolontariuszy samochód po samochodzie

+972 Magazine podał, że margines błędu oprogramowania miał wynosić około 10 procent, a izraelska armia miała być świadoma niedoskonałości systemu. Na weryfikację tego, czy dana osoba powinna zostać uznana za cel i zabita poświęcano "jedynie 20 sekund". Upewniano się tylko, że cel jest mężczyzną. Algorytmy miały też sugerować przede wszystkim zaskakujące ataki nocne.

Po 7 października, gdy krwawo uderzył Hamas, dowódcy armii izraelskiej domagali się od wywiadu dostarczania coraz większej ilości celów. - Ciągle byliśmy pod presją: „Przynieście nam więcej celów". Naprawdę na nas krzyczeli – powiedział jeden z oficerów wywiadu. - Powiedziano nam, że teraz musimy zniszczyć Hamas, bez względu na koszty. Cokolwiek możesz, zbombardujesz.

Lavender został opracowana przez oddział wywiadowczy Izraelskich Sił Obronnych, Unit 8200, który jest porównywany do amerykańskiej Agencji Bezpieczeństwa Narodowego czy GCHQ w Wielkiej Brytanii.

Izrael zaprzecza wykorzystaniu AI

Z kolei Izraelskie Siły Obronne zaprzeczają, jakoby sztuczna inteligencja była wykorzystywana do identyfikowania podejrzanych ekstremistów i celów. „IDF nie korzysta z systemu sztucznej inteligencji, który identyfikuje terrorystów, ani nie próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informacyjne to jedynie narzędzia dla analityków w procesie identyfikacji celów” – stwierdziła IDF w oświadczeniu.

Czytaj więcej

Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

W oświadczeniu dodano, że wytyczne armii upoważniają analityków do przeprowadzania niezależnych badań, podczas których weryfikują, czy zidentyfikowane cele spełniają odpowiednie definicje zgodnie z prawem międzynarodowym i izraelskimi wytycznymi. Zaprzeczono przy tym, że chodzi o system AI, ale raczej o „bazę danych kojarzącą terrorystów”. Same ataki miano przeprowadzać zgodnie "z zasadami proporcjonalności na mocy prawa międzynarodowego".

Sprawa korzystania ze sztucznej inteligencji przy doborze celów budzi wielkie kontrowersje także w kontekście niedawnego ataku na konwój humanitarny, w którym zginął polski obywatel Damian Soból.

Globalne Interesy
Te latające pojazdy mają odmienić transport. Właśnie rusza produkcja
Globalne Interesy
AI Elona Muska zyskała miliardy. To będzie wojna z twórcą ChatGPT o pozycję nr 1
Globalne Interesy
„Jestem Satoshi Nakamoto". Kim jest twórca bitcoina?
Globalne Interesy
Moderatorzy Facebooka nie wytrzymują pracy i makabrycznych treści. Jest pozew grupowy
Materiał Promocyjny
Najlepszy program księgowy dla biura rachunkowego
Globalne Interesy
USA szykują cios w Chiny. Tym razem to produkt, który znajduje się w milionach domów
Materiał Promocyjny
„Nowy finansowy ja” w nowym roku