USA badają ataki Izraela w Gazie z wykorzystaniem AI. Tajemniczy system Lavender

Stany Zjednoczone analizują doniesienia mediów mówiące, że izraelskie wojsko wykorzystuje sztuczną inteligencję do identyfikacji celów bombardowań w Gazie, powiedział CNN rzecznik ds. bezpieczeństwa narodowego Białego Domu John Kirby.

Publikacja: 05.04.2024 11:49

Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory

Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory margines błędu

Foto: Bloomberg

Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że ​​izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).

20 sekund na decyzję

Oprogramowanie to miało odegrać znaczącą rolę w bombardowaniach przeprowadzonych na terenie Strefy Gazy w pierwszych tygodniach po ataku Hamasu na Izrael. - Zdarzały się sytuacje, w których Hamas był definiowany szerzej. Wtedy system sugerował nam wszelkiego rodzaju pracowników obrony cywilnej czy policjantów. Pomagają oni Hamasowi, ale nie stanowią zagrożenia - twierdzi jedno ze źródeł portali.

Czytaj więcej

Twórca World Central Kitchen: Izrael brał na cel wolontariuszy samochód po samochodzie

+972 Magazine podał, że margines błędu oprogramowania miał wynosić około 10 procent, a izraelska armia miała być świadoma niedoskonałości systemu. Na weryfikację tego, czy dana osoba powinna zostać uznana za cel i zabita poświęcano "jedynie 20 sekund". Upewniano się tylko, że cel jest mężczyzną. Algorytmy miały też sugerować przede wszystkim zaskakujące ataki nocne.

Po 7 października, gdy krwawo uderzył Hamas, dowódcy armii izraelskiej domagali się od wywiadu dostarczania coraz większej ilości celów. - Ciągle byliśmy pod presją: „Przynieście nam więcej celów". Naprawdę na nas krzyczeli – powiedział jeden z oficerów wywiadu. - Powiedziano nam, że teraz musimy zniszczyć Hamas, bez względu na koszty. Cokolwiek możesz, zbombardujesz.

Lavender został opracowana przez oddział wywiadowczy Izraelskich Sił Obronnych, Unit 8200, który jest porównywany do amerykańskiej Agencji Bezpieczeństwa Narodowego czy GCHQ w Wielkiej Brytanii.

Izrael zaprzecza wykorzystaniu AI

Z kolei Izraelskie Siły Obronne zaprzeczają, jakoby sztuczna inteligencja była wykorzystywana do identyfikowania podejrzanych ekstremistów i celów. „IDF nie korzysta z systemu sztucznej inteligencji, który identyfikuje terrorystów, ani nie próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informacyjne to jedynie narzędzia dla analityków w procesie identyfikacji celów” – stwierdziła IDF w oświadczeniu.

Czytaj więcej

Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki

W oświadczeniu dodano, że wytyczne armii upoważniają analityków do przeprowadzania niezależnych badań, podczas których weryfikują, czy zidentyfikowane cele spełniają odpowiednie definicje zgodnie z prawem międzynarodowym i izraelskimi wytycznymi. Zaprzeczono przy tym, że chodzi o system AI, ale raczej o „bazę danych kojarzącą terrorystów”. Same ataki miano przeprowadzać zgodnie "z zasadami proporcjonalności na mocy prawa międzynarodowego".

Sprawa korzystania ze sztucznej inteligencji przy doborze celów budzi wielkie kontrowersje także w kontekście niedawnego ataku na konwój humanitarny, w którym zginął polski obywatel Damian Soból.

Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że ​​izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).

Pozostało 82% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
To już wojna przeglądarek. Nowi gracze uderzyli w potęgi jak Chrome czy Firefox
Globalne Interesy
Nowa, darmowa wersja ChatGPT bije rekordy zainteresowania. Skok o 5 tys. proc.
Globalne Interesy
Microsoft pokazał nowatorskie komputery AI. Ostra krytyka ze strony Elona Muska
Globalne Interesy
Polska zbuduje „żelazną kopułę". Ogromny kredyt na zakup satelitów
Globalne Interesy
Rewolucja w firmie, która stworzyła ChatGPT. Polak objął kluczową funkcję
Globalne Interesy
ChatGPT mocno przyspiesza. Tymczasem konkurencja w AI ma poważne problemy