USA badają ataki Izraela w Gazie z wykorzystaniem AI. Tajemniczy system Lavender

Stany Zjednoczone analizują doniesienia mediów mówiące, że izraelskie wojsko wykorzystuje sztuczną inteligencję do identyfikacji celów bombardowań w Gazie, powiedział CNN rzecznik ds. bezpieczeństwa narodowego Białego Domu John Kirby.

Publikacja: 05.04.2024 11:49

Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory

Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory margines błędu

Foto: Bloomberg

Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że ​​izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).

20 sekund na decyzję

Oprogramowanie to miało odegrać znaczącą rolę w bombardowaniach przeprowadzonych na terenie Strefy Gazy w pierwszych tygodniach po ataku Hamasu na Izrael. - Zdarzały się sytuacje, w których Hamas był definiowany szerzej. Wtedy system sugerował nam wszelkiego rodzaju pracowników obrony cywilnej czy policjantów. Pomagają oni Hamasowi, ale nie stanowią zagrożenia - twierdzi jedno ze źródeł portali.

Czytaj więcej

Twórca World Central Kitchen: Izrael brał na cel wolontariuszy samochód po samochodzie

+972 Magazine podał, że margines błędu oprogramowania miał wynosić około 10 procent, a izraelska armia miała być świadoma niedoskonałości systemu. Na weryfikację tego, czy dana osoba powinna zostać uznana za cel i zabita poświęcano "jedynie 20 sekund". Upewniano się tylko, że cel jest mężczyzną. Algorytmy miały też sugerować przede wszystkim zaskakujące ataki nocne.

Po 7 października, gdy krwawo uderzył Hamas, dowódcy armii izraelskiej domagali się od wywiadu dostarczania coraz większej ilości celów. - Ciągle byliśmy pod presją: „Przynieście nam więcej celów". Naprawdę na nas krzyczeli – powiedział jeden z oficerów wywiadu. - Powiedziano nam, że teraz musimy zniszczyć Hamas, bez względu na koszty. Cokolwiek możesz, zbombardujesz.

Lavender został opracowana przez oddział wywiadowczy Izraelskich Sił Obronnych, Unit 8200, który jest porównywany do amerykańskiej Agencji Bezpieczeństwa Narodowego czy GCHQ w Wielkiej Brytanii.

Izrael zaprzecza wykorzystaniu AI

Z kolei Izraelskie Siły Obronne zaprzeczają, jakoby sztuczna inteligencja była wykorzystywana do identyfikowania podejrzanych ekstremistów i celów. „IDF nie korzysta z systemu sztucznej inteligencji, który identyfikuje terrorystów, ani nie próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informacyjne to jedynie narzędzia dla analityków w procesie identyfikacji celów” – stwierdziła IDF w oświadczeniu.

Czytaj więcej

Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

W oświadczeniu dodano, że wytyczne armii upoważniają analityków do przeprowadzania niezależnych badań, podczas których weryfikują, czy zidentyfikowane cele spełniają odpowiednie definicje zgodnie z prawem międzynarodowym i izraelskimi wytycznymi. Zaprzeczono przy tym, że chodzi o system AI, ale raczej o „bazę danych kojarzącą terrorystów”. Same ataki miano przeprowadzać zgodnie "z zasadami proporcjonalności na mocy prawa międzynarodowego".

Sprawa korzystania ze sztucznej inteligencji przy doborze celów budzi wielkie kontrowersje także w kontekście niedawnego ataku na konwój humanitarny, w którym zginął polski obywatel Damian Soból.

Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że ​​izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).

Pozostało 82% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Ustawa antytiktokowa stała się ciałem. Chiński koncern wzywa Amerykanów
Globalne Interesy
Niemiecki robot ma być jak dobry chrześcijanin. Zaskakujące przepisy za Odrą
Globalne Interesy
Mark Zuckerberg rzuca wyzwanie ChatGPT. „Wstrząśnie światem sztucznej inteligencji”
Globalne Interesy
Amerykański koncern zwalnia pracowników. Protestowali przeciw kontraktowi z Izraelem
Globalne Interesy
Zagadkowa inwestycja Microsoftu w arabską sztuczną inteligencję. Porzucone Chiny
Materiał Promocyjny
Wsparcie dla beneficjentów dotacji unijnych, w tym środków z KPO