Ponad setka ofiar w irańskiej szkole w Minab, zlokalizowanej niedaleko bazy Korpusu Strażników Rewolucji Islamskiej, to prawdopodobnie skutek ataku dokonanego przez AI. Tak twierdzą analitycy, choć wciąż nie ma oficjalnych informacji potwierdzających, że to bot wyznaczył cel i zdecydował o uderzeniu. Eksperci ostrzegają jednak: w kontekście broni sterowanej przez algorytmy przekraczamy właśnie niebezpieczną granicę. – AI może prowadzić do eskalowania rozmiarów szkód i liczby ofiar konfliktów zbrojnych – mówi nam Kaja Kowalczewska, adiunktka w Inkubatorze Doskonałości Naukowej „Digital Justice Center” na Uniwersytecie Wrocławskim i na Uniwersytecie w Swansea, ekspertka AI Law Tech.
Czy teraz sztuczna inteligencja będzie decydować o życiu lub śmierci człowieka?
– Jesteśmy w przełomowym momencie dla ludzkości – przyznaje Nicole Van Rooijen, dyrektor wykonawcza inicjatywy Stop Killer Robot.
Złudzenie ludzkiej kontroli
W Genewie ruszyły właśnie kluczowe rozmowy ONZ na temat w pełni autonomicznej broni. Potrwają do końca tygodnia. Jałowa dyskusja, spory o definicje i detale nie wróżą przełomu. Van Rooijen ostrzega: Tempo rozwoju technologicznego nie będzie czekać, aż dyplomacja stanie na nogi.
– Z każdym rokiem, bez wiążącego prawa międzynarodowego, luka między możliwościami tych systemów a naszą zdolnością do zarządzania nimi się pogłębia – wyjaśnia.