Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).
20 sekund na decyzję
Oprogramowanie to miało odegrać znaczącą rolę w bombardowaniach przeprowadzonych na terenie Strefy Gazy w pierwszych tygodniach po ataku Hamasu na Izrael. - Zdarzały się sytuacje, w których Hamas był definiowany szerzej. Wtedy system sugerował nam wszelkiego rodzaju pracowników obrony cywilnej czy policjantów. Pomagają oni Hamasowi, ale nie stanowią zagrożenia - twierdzi jedno ze źródeł portali.
Czytaj więcej
José Andrés, założyciel organizacji pomocowej World Central Kitchen, której wolontariusze zginęli w Strefie Gazy w izraelskim ataku powietrznym, ud...
+972 Magazine podał, że margines błędu oprogramowania miał wynosić około 10 procent, a izraelska armia miała być świadoma niedoskonałości systemu. Na weryfikację tego, czy dana osoba powinna zostać uznana za cel i zabita poświęcano "jedynie 20 sekund". Upewniano się tylko, że cel jest mężczyzną. Algorytmy miały też sugerować przede wszystkim zaskakujące ataki nocne.
Po 7 października, gdy krwawo uderzył Hamas, dowódcy armii izraelskiej domagali się od wywiadu dostarczania coraz większej ilości celów. - Ciągle byliśmy pod presją: „Przynieście nam więcej celów". Naprawdę na nas krzyczeli – powiedział jeden z oficerów wywiadu. - Powiedziano nam, że teraz musimy zniszczyć Hamas, bez względu na koszty. Cokolwiek możesz, zbombardujesz.
Lavender został opracowana przez oddział wywiadowczy Izraelskich Sił Obronnych, Unit 8200, który jest porównywany do amerykańskiej Agencji Bezpieczeństwa Narodowego czy GCHQ w Wielkiej Brytanii.
Izrael zaprzecza wykorzystaniu AI
Z kolei Izraelskie Siły Obronne zaprzeczają, jakoby sztuczna inteligencja była wykorzystywana do identyfikowania podejrzanych ekstremistów i celów. „IDF nie korzysta z systemu sztucznej inteligencji, który identyfikuje terrorystów, ani nie próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informacyjne to jedynie narzędzia dla analityków w procesie identyfikacji celów” – stwierdziła IDF w oświadczeniu.
Czytaj więcej
Algorytmy uczenia maszynowego odegrały kluczową rolę w kierowaniu ponad 85 atakami powietrznymi przeprowadzonymi kilka tygodni temu przez amerykańs...
W oświadczeniu dodano, że wytyczne armii upoważniają analityków do przeprowadzania niezależnych badań, podczas których weryfikują, czy zidentyfikowane cele spełniają odpowiednie definicje zgodnie z prawem międzynarodowym i izraelskimi wytycznymi. Zaprzeczono przy tym, że chodzi o system AI, ale raczej o „bazę danych kojarzącą terrorystów”. Same ataki miano przeprowadzać zgodnie "z zasadami proporcjonalności na mocy prawa międzynarodowego".
Sprawa korzystania ze sztucznej inteligencji przy doborze celów budzi wielkie kontrowersje także w kontekście niedawnego ataku na konwój humanitarny, w którym zginął polski obywatel Damian Soból.