Aktualizacja: 19.04.2025 17:09 Publikacja: 05.04.2024 11:49
Izrael miał używać sztucznej inteligencji do wskazywania celów ataków w Gazie. Sytem ma jednak spory margines błędu
Foto: Bloomberg
Kirby w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały jeszcze treści doniesień medialnych opublikowanych w izraelsko-palestyńskim +972 Magazine. Chodzi o szokujące wyniki dziennikarskiego śledztwa. Zeznania sześciu oficerów izraelskiego wywiadu, którzy byli zaangażowani w wykorzystanie systemów sztucznej inteligencji do identyfikacji celów podczas wojny z Hamasem zebrał dziennikarz Yuval Abraham z +972 Magazine. Z zebranych informacji wynika, że izraelska armia oznaczyła nawet 37 tysięcy mieszkańców Gazy jako podejrzanych o zabójstwo, korzystając z systemu sztucznej inteligencji przy niewielkim nadzorze człowieka. Takie działania miano podejmować, korzystając z systemu AI znanego jako „Lawender” (ang. lawenda).
Trzy firmy ze SpaceX Elona Muska na czele są faworytami w wyścigu o kontrakt na budowę kosmicznej tarczy przeciw...
Problemy z aplikacją do odtwarzania muzyki zaczęły się pojawiać około godziny 14. czasu polskiego. Firma przyzna...
OpenAI, po gigantycznym sukcesie swojej generatywnej sztucznej inteligencji, teraz chce zrobić kolejny krok i we...
Koncern Marka Zuckerberga ogłosił właśnie, że rozpocznie trening modeli sztucznej inteligencji w oparciu o publi...
Polityka klimatyczna i rynek energii w Polsce: podstawy prawne, energetyka społeczna. praktyczny proces powołania i rejestracji spółdzielni energetycznych oraz podpisania umowy z OSD
Najmocniej zyskującym popularność w sieci kandydatem w majowych wyborach prezydenckich jest całkowicie nieoczywi...
Masz aktywną subskrypcję?
Zaloguj się lub wypróbuj za darmo
wydanie testowe.
nie masz konta w serwisie? Dołącz do nas