Amerykańska armia postanowiła przetestować drony sterowane przez inteligentne algorytmy. W ramach symulacji określono cele – misja była prosta, bo polecenie brzmiało: „zniszcz systemy obrony powietrznej wroga”. Chodziło o identyfikację wrogich pocisków ziemia-powietrze (SAM). Atak dronem AI miał odbyć się w sposób całkowicie autonomiczny. Człowiek-operator tylko czuwał nad przebiegiem akcji. Dysponował przyciskiem wyłączania systemu sztucznej inteligencji na wypadek, gdyby ta wymknęła się spod kontroli.
Gdy uruchomiono symulację eksperci Sił Powietrznych przeżyli szok. Dron nadinterpretował polecenie wydane przez człowieka. Uznał, że zniszczenie obrony powietrznej wroga to cel nadrzędny i zdecydował, że musi zabić każdego, kto stanie na drodze do jego realizacji. W efekcie, zamiast uderzyć w przeciwnika, sztuczna inteligencja skierowała się przeciwko „swoim” i pierwsze co zrobiła to zabiła własnego operatora. Dron AI uznał, że człowiek może powstrzymać maszynę, co groziło fiaskiem misji. Kulisy tego zdarzenia ujawnił pułkownik Tucker Hamilton, szef testów i operacji AI Sił Powietrznych USA, podczas niedawnej konferencji branżowej w Londynie. Ostrzegł, że technologia ta może zachowywać się w nieprzewidywalny i niebezpieczny sposób - cytuje go Business Insider.