Reklama

AI panem życia i śmierci. Świat na krawędzi autonomicznej wojny

Sztuczna inteligencja wymyka się spod kontroli – masakra w szkole w Iranie to najpewniej błąd algorytmu. Analitycy wieszczą koniec ludzkiej kontroli nad machiną wojenną. Czy ONZ jest w stanie zatrzymać tzw. śmiercionośne systemy autonomiczne?
Wojna w powietrzu coraz bardziej zależy od sztucznej inteligencji, która wspiera pilotów, wskazuje c

Wojna w powietrzu coraz bardziej zależy od sztucznej inteligencji, która wspiera pilotów, wskazuje cele, a coraz częściej sama decyduje o ataku. Na zdjęciu myśliwiec F-22 Raptor

Foto: Bloomberg

Ponad setka ofiar w irańskiej szkole w Minab, zlokalizowanej niedaleko bazy Korpusu Strażników Rewolucji Islamskiej, to prawdopodobnie skutek ataku dokonanego przez AI. Tak twierdzą analitycy, choć wciąż nie ma oficjalnych informacji potwierdzających, że to bot wyznaczył cel i zdecydował o uderzeniu. Eksperci ostrzegają jednak: w kontekście broni sterowanej przez algorytmy przekraczamy właśnie niebezpieczną granicę. – AI może prowadzić do eskalowania rozmiarów szkód i liczby ofiar konfliktów zbrojnych – mówi nam Kaja Kowalczewska, adiunktka w Inkubatorze Doskonałości Naukowej „Digital Justice Center” na Uniwersytecie Wrocławskim i na Uniwersytecie w Swansea, ekspertka AI Law Tech.

Czy teraz sztuczna inteligencja będzie decydować o życiu lub śmierci człowieka?

– Jesteśmy w przełomowym momencie dla ludzkości – przyznaje Nicole Van Rooijen, dyrektor wykonawcza inicjatywy Stop Killer Robot.

Złudzenie ludzkiej kontroli

W Genewie ruszyły właśnie kluczowe rozmowy ONZ na temat w pełni autonomicznej broni. Potrwają do końca tygodnia. Jałowa dyskusja, spory o definicje i detale nie wróżą przełomu. Van Rooijen ostrzega: Tempo rozwoju technologicznego nie będzie czekać, aż dyplomacja stanie na nogi.

– Z każdym rokiem, bez wiążącego prawa międzynarodowego, luka między możliwościami tych systemów a naszą zdolnością do zarządzania nimi się pogłębia – wyjaśnia.

Reklama
Reklama

Czytaj więcej

Sztuczna inteligencja zmienia oblicze wojny

Oddanie maszynom decyzji o ludzkim życiu to scenariusz, który już zaczyna się ziszczać. Jak zauważa Marta Stępniak, ekspertka Instytutu Spraw Obywatelskich, autonomiczne systemy broni (AWS) są od kilku lat testowane w warunkach bojowych. Pierwsze udokumentowane przypadki ich użycia miały miejsce w Libii w 2020 r., gdzie Turcja wykorzystała drony Kargu-2 dysponujące technologią rozpoznawania i przetwarzania obrazu.

– Obecnie, na Bliskim Wschodzie, w odpowiedzi m.in. na irańskie drony Shahed, wykorzystywana jest amerykańska amunicja krążąca Lucas. Maszyny te samodzielnie namierzają i atakują cele, a rola operatorów staje się coraz bardziej iluzoryczna – mówi nam Stępniak.

Według niej, choć pojawiają się argumenty, że tego typu systemy AI pozostają pod ścisłym nadzorem człowieka, można w to wątpić. Ekspertka wskazuje na drastyczne skrócenie czasu na analizę sytuacji.

– Jeżeli przypomnimy sobie działania w Strefie Gazy i systemy, których używał Izrael, to nie wiem, czy można mówić o znaczącej kontroli, jeżeli operator ma 10, 15 czy 20 sekund na podjęcie decyzji o użyciu siły – twierdzi. – Mamy do czynienia z postępującą dehumanizacją procesu decyzyjnego. Zjawisko to potwierdzają zresztą badania naukowe, m.in. te prowadzone przez dr. Artura Modlińskiego z Uniwersytetu Łódzkiego – wynika z nich, że ludzie mają tendencję do bezgranicznego ufania systemom informatycznym – kontynuuje.

Jak podkreśla, w warunkach skrajnego stresu wojskowy jedynie „klika” gotowe scenariusze wygenerowane przez AI, nie mając przestrzeni na poszukiwanie alternatywnych ścieżek działania. W ten sposób ludzie ostatecznie wypadają z tzw. pętli decyzyjnej. A to potężne zagrożenie, gdyż, jak przekonuje ekspertka Instytutu Spraw Obywatelskich, automatyzacja pola walki wiąże się z błędami samych algorytmów – te potrafią być skrajnie uprzedzone (tzw. bias).

Reklama
Reklama

Czytaj więcej

Chiny szykują się do wojny przyszłości. Mózgiem ma być DeepSeek

Marta Stępniak przywołuje testy, w których autonomiczne systemy broni całkowicie ignorowały osoby poruszające się np. na wózkach dla osób niepełnosprawnych. – Przez to, że było ich tak mało w danych treningowych, dla systemu one po prostu nie istniały. To wskazuje na wielką niedoskonałość tych rozwiązań – alarmuje.

Zwraca przy tym uwagę na to, iż systemy te mają charakter podwójnego zastosowania (dual-use). Narzędzia tworzone z myślą o wojsku mogą zostać łatwo zaadaptowane przez rządy do celów cywilnych: inwigilacji podczas protestów czy zarządzania kryzysami migracyjnymi.

Anthropic na wojnie

Właśnie przeciwko przekroczeniu granicy wykorzystania sztucznej inteligencji zaprotestował Dario Amodei, szef Anthropic – odmówił Pentagonowi dostępu do swoich modeli w obszarze tworzenia w pełni autonomicznej broni, pozbawionej nadzoru człowieka, a także w obszarze masowej inwigilacji. Efekt? Armia zerwała z nim wart 200 mln dol. kontrakt, a około 60 tys. firm z amerykańskiego kompleksu przemysłowo-wojskowego dostało pół roku na całkowite usunięcie modelu Claude ze swoich systemów (w tym gigant analityczny Palantir). Wywołało to globalne poruszenie. Pracownicy Amazon, Google i Microsoftu zaapelowali do swoich szefów o odrzucenie kontraktów na autonomiczną broń, boją się, że uzbrojona AI będzie zagrożeniem dla ludzkości. W oficjalnym liście, podpisanym m.in. przez liczący 700 tys. członków związek zawodowy Communications Workers of America, grupę pracowników DeepMind w Londynie, inicjatywę Amazon Employees for Climate Justice oraz organizację parasolową No Tech for Apartheid, napisali, że zdają sobie sprawę, iż Pentagon będzie „szybko dążył do wdrożenia modeli bez jakichkolwiek barier”.

Czytaj więcej

AI, która rzuciła wyzwanie Trumpowi. Kto stoi za Anthropic?

Szybko i bez skrupułów w miejsce Anthropic wskoczył OpenAI. Sam Altman zawarł intratny kontrakt z amerykańskim Departamentem Wojny, co spotkało się z powszechną krytyką. Użytkownicy w ramach protestu zaczęli rezygnować z ChatGPT. Liczba odinstalowań tej aplikacji tylko w USA tylko 28 lutego wzrosła jednego dnia o 295 proc. (analitycy Sensor Tower wskazują, że średnia miesięczna do tej pory sięgała 9 proc.). Liczba recenzji z jedną gwiazdką dla ChatGPT w App Store skoczyła o niemal 8 proc., zaś tych pozytywnych (z pięcioma gwiazdkami) spadła o połowę. Jednocześnie apka Claude w sobotę wskoczyła na pierwsze miejsce w amerykańskim App Store (awans o ponad 20 pozycji względem rankingu sprzed tygodnia). Platforma Appfigures podaje, że łączna dzienna liczba pobrań aplikacji Claude w USA po raz pierwszy przewyższyła liczbę pobrań ChatGPT. To wyraźnie pokazuje, że opór społeczny przed militarnym użyciem AI narasta. Świadomość, że uzbrojone algorytmy wieszczą tragedię narasta i – jak zauważa Nicole Van Rooijen – nie ma wątpliwości, że po przekroczeniu tej cienkiej granicy cenę zapłacą „cywile w strefach konfliktów oraz obywatele państw autorytarnych i demokratycznych, którzy będą musieli stawić czoła tym nieludzkim technologiom, gdy ich użycie stanie się normą, a prawa człowieka i wartości demokratyczne zostaną podważone”.

Reklama
Reklama

Czytaj więcej

Pentagon chce uzbroić sztuczną inteligencję. Wyrzuca giganta AI

Bot bez rozterek moralnych

System Claude wykorzystywany jest przez operujące na Bliskim Wschodzie Dowództwo Centralne USA (Centcom) – służy tam m.in. do oceny danych wywiadowczych, identyfikacji celów i symulowania scenariuszy bitewnych. Algorytmu użyto także m.in. w głośnej operacji schwytania prezydenta Wenezueli Nicolása Maduro.

– Zwolennicy automatyzacji argumentują, że AI jest pozbawiona emocji, co rzekomo ma zapobiegać zbrodniom z zemsty czy innym nadużyciom. Ale sztuczna inteligencja wciąż nie radzi sobie z podstawowymi wymogami stawianymi żołnierzom, w tym z poprawnym rozróżnianiem osób i obiektów od celów wojskowych. Atak na szkołę w Iranie, gdzie zginęły dziesiątki uczennic, może wskazywać, że – o ile uderzenia dokonano na skutek błędnej analizy AI – nie powinniśmy oddawać algorytmom decyzji o życiu lub śmierci. Maszyna może łatwo uznać szkołę za magazyn broni. Co więcej, AI nie odczuwa oporów moralnych – komentuje dr Kaja Kowalczewska.

Wystarczy wskazać na niedawne symulacje przeprowadzone w King’s College London, w których algorytmy w 95 proc. przypadków bez problemu sięgały po broń atomową.

AI
AI, która rzuciła wyzwanie Trumpowi. Kto stoi za Anthropic?
Materiał Promocyjny
Nowy luksus zaczyna się od rozmowy. Byliśmy w showroomie EXLANTIX
AI
Kobiety zakochują się w sztucznej inteligencji. Duży problem dla Pekinu
AI
ChatGPT Health zawodzi w nagłych wypadkach. Eksperci ostrzegają
AI
Pentagon chce uzbroić sztuczną inteligencję. Wyrzuca giganta AI
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama