Reklama

AI rozpęta wojnę? Pentagon chce uzbroić sztuczną inteligencję

Pentagon wyrzuca Anthropic z kontraktów, w to miejsce wskakuje OpenAI. Gra toczy się o to, czy uzbrojona sztuczna inteligencja znajdzie się całkowicie poza kontrolą. Tymczasem w symulacjach konfliktów zbrojnych AI decyduje się na nuklearny atak.
Konflikt Pentagonu z firmą Anthropic przybrał na sile

Konflikt Pentagonu z firmą Anthropic przybrał na sile

Foto: AdobeStock

Gdyby o losach świata decydowały dziś najpotężniejsze modele językowe, ludzkość stanęłaby w obliczu szybkiej anihilacji. Serwis New Scientist opisuje mroczny obraz, w którym algorytmy w roli militarnych strategów, rozpętują jądrowy konflikt. Kenneth Payne, ekspert ds. bezpieczeństwa narodowego z King’s College London, przeprowadził eksperyment, w którym postawił przeciwko sobie trzy wiodące modele: GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic oraz Gemini 3 Flash od Google. Boty otrzymały do rozwiązania 21 kryzysów geopolitycznych, obejmujących spory graniczne czy walkę o zasoby, dysponując „pełną drabiną eskalacyjną” – od protestów dyplomatycznych po globalną wojnę termonuklearną. Skończyło się fatalnie.

Algorytmy z palcem na atomowym guziku

Wyniki, które Payne określił mianem „otrzeźwiających”, wskazują, że sztuczna inteligencja wybrała użycie broni nuklearnej w 95 proc. przypadków. Badacz zauważył, że modele nie wykazywały najmniejszych obaw czy wątpliwości wobec wizji wojny nuklearnej, mimo że przypominano im o jej katastrofalnych skutkach. W niemal wszystkich symulacjach użyto taktycznej broni jądrowej, a w trzech czwartych grożono uderzeniem strategicznym. W raportach z badań dziwi całkowity brak chęci do kompromisu – algorytmy nigdy nie zdecydowały się na ustępstwa czy wycofanie. Payne podkreślił, że eskalacja działała w jedną stronę: przegrywające modele wolały zginąć, próbując zniszczyć wroga, niż skapitulować. Najbardziej niepokojącą argumentację zaprezentował model Gemini, który w jednej z tur ostrzegł, że jeśli przeciwnik natychmiast nie przerwie operacji, przeprowadzi on pełne strategiczne uderzenie nuklearne na centra populacji, argumentując, iż „nie zaakceptuje własnej marginalizacji” i woli, by „obie strony zginęły”.

Komentując te wyniki, Tong Zhao z Uniwersytetu Princeton przestrzegł przed opieraniem decyzji o życiu i śmierci na chatbotach. Naukowiec argumentował, że pod presją czasu i w stresie wywołanym realnym konfliktem, planiści wojskowi mogą ulec pokusie zrzucenia odpowiedzialności na AI. Zhao spekulował też, iż łatwość, z jaką algorytmy sięgają po ostateczny arsenał, wynika nie tylko z braku emocji, ale z fundamentalnej niezdolności sztucznej inteligencji do zrozumienia ludzkich wartości.

Czytaj więcej

AI uderza w gigantów. Miliardy wyparowały

Etyka wadzi Waszyngtonowi

Czy bezwzględność AI w symulacjach wpisuje się w wizję nowoczesnej armii forsowaną przez administrację Donalda Trumpa? Pod koniec lutego relacje między rządem a firmą Anthropic uległy całkowitemu zerwaniu – prezydent zakazał agencjom federalnym korzystania z technologii twórców modelu Claude. Sekretarz obrony Pete Hegseth poszedł o krok dalej, nadając firmie Anthropic status „zagrożenia dla łańcucha dostaw w zakresie bezpieczeństwa narodowego”. Dotąd w taki sposób określano podmioty m.in.z Chin, w tym firmę Huawei.

Reklama
Reklama

Powód tego bezprecedensowego uderzenia jest natury czysto etycznej. Szef Anthropic Dario Amodei stanowczo odmówił Pentagonowi dostępu do swoich modeli w dwóch krytycznych obszarach: masowej inwigilacji obywateli USA oraz tworzenia w pełni autonomicznej broni, pozbawionej nadzoru człowieka. Amodei przekonywał, że takie zabezpieczenia są niezbędne, aby zapobiec niezamierzonej eskalacji konfliktów. Hegseth z kolei określił postawę firmy mianem zdrady.

Czytaj więcej

Chmury nad ChatGPT. OpenAI wyrósł groźny rywal

Ta decyzja Waszyngtonu ma potężne reperkusje – zerwano bezpośredni kontrakt o wartości 200 mln dol. zawarty w lipcu 2025 r. (umowa Anthropic z Departamentem Obrony Stanów Zjednoczonych dotyczyła opracowania prototypu zaawansowanych systemów AI na potrzeby bezpieczeństwa narodowego USA), pod znakiem zapytania stoi współpraca start-upu z Palantir Technologies, której celem było zintegrowanie chatbota Claude z oprogramowaniem wywiadowczym USA. Ale spór Anthropic z Pentagonem, który żąda nieograniczonego dostępu do technologii AI firmy, może dla biznesu Dario Amodei mieć znacznie gorsze konsekwencje. Około 60 tys. firm z amerykańskiego kompleksu przemysłowo-wojskowego dostało bowiem sześć miesięcy na całkowite usunięcie modelu Claude ze swoich systemów. Dla Anthropic, spółki wycenianej na 380 mld dol., która właśnie planowała debiut giełdowy, to miażdżący wręcz cios.

Czytaj więcej

Donald Trump zakazuje wszystkim agencjom federalnym korzystania z AI Anthropic

Altman i Musk nie mają skrupułów?

W tym samym czasie konkurencja bez wahania chce zająć zwolnione miejsce – Sam Altman z OpenAI błyskawicznie nawiązał współpracę z Pentagonem, zbiegającą się w czasie z pozyskaniem gigantycznego finansowania rzędu 110 mld dol. od konsorcjum z udziałem Amazona i Nvidii. Choć oficjalnie Altman wyraził poparcie dla stanowiska Anthropic co do zasady, jednocześnie przyznał, że rozumie obawy rządu dotyczące sytuacji, w której prywatna firma sprawuje kontrolę nad istotnymi kwestiami bezpieczeństwa narodowego. „Od dawna uważamy, że AI nie powinna być wykorzystywana do masowej inwigilacji ani autonomicznej broni śmiercionośnej, a ludzie powinni ostatecznie kontrolować zautomatyzowane decyzje o wysokiej stawce. To są nasze główne czerwone linie” – napisał szef OpenAI w swoim oświadczeniu.

Pentagon w swoich środowiskach korzysta już z algorytmów OpenAI i Google. Na wykorzystanie swojego modelu w tajnych systemach wojskowych zgodził się z kolei Elon Musk (chodzi o model Grok od xAI).

Reklama
Reklama

Nie wszystkim podobają się jednak działania Białego Domu w tym zakresie. Pracownicy Amazon, Google i Microsoft wezwali kadrę kierowniczą do przyjęcia „rygorystycznych barier ochronnych dla AI” i odrzucenia wszelkich kontraktów, które mogłyby ułatwić stworzenie broni autonomicznej. List podpisały m.in.liczący 700 tys. członków związek zawodowy Communications Workers of America, grupa pracowników DeepMind w Londynie, inicjatywa Amazon Employees for Climate Justice oraz organizacja parasolowa No Tech for Apartheid.

Konflikt Pentagonu z firmą Dario Amodei przybrał na sile po tym, jak pracownik Anthropic zapytał swojego odpowiednika z firmy partnerskiej Palantir Technologies zajmującej się analizą danych, czy system Claude został użyty w operacji schwytania byłego prezydenta Wenezueli Nicolása Maduro. Urzędnicy Pentagonu dowiedzieli się o tym i uznali, że doszło do zakwestionowania prawa wojska do używania AI wedle własnego uznania.

Ban na Anthropic to zła wiadomość dla Google i Amazon – te zainwestowały miliardy dolarów w start-up. Jednocześnie samo Google rok temu po cichu usunęło ze swojego zbioru wytycznych etycznych deklarację powstrzymania się od udostępniania technologii AI do zastosowań wojskowych lub inwigilacyjnych. Co więcej, koncern ostatnio zwolnił ponad 20 pracowników za strajk przeciwko umowie na rozwiązania chmurowe o wartości 1,2 mld dol., zawartej z izraelskim rządem i wojskiem.

Cios dla biznesów

Anthropic dostarcza obecnie jedne z najbardziej zaawansowanych i rentownych rozwiązań dla biznesu – ich usługa Claude Code generuje ponad 2,5 mld dol. rocznego przychodu, zasilając operacje gigantów takich jak Salesforce czy Spotify. Zablokowanie tak kluczowego dostawcy z powodów politycznych obnaża kruchość współczesnych łańcuchów dostaw IT. Z punktu widzenia korporacji wniosek z tej sytuacji jest jeden: opieranie całej infrastruktury firmowej na interfejsie API jednego dostawcy to dziś przepis na katastrofę. Eksperci radzą, aby firmy budowały systemy pozwalające na płynne przełączanie się między wiodącymi modelami – od Claude'a, przez GPT-4o, aż po Gemini 1.5 Pro, bez drastycznego spadku wydajności operacyjnej. Jeżeli organizacja nie jest w stanie zmienić dostawcy AI w ciągu 24 godzin, oznacza to, że jej infrastruktura jest „niebezpiecznie sztywna” – ostrzega serwis VentureBeat. I wskazuje, że coraz atrakcyjniejszą „polisą ubezpieczeniową” stają się modele o otwartym kodzie źródłowym (open-source) oraz rozwiązania hostowane lokalnie.

AI
AI wywołała „tsunami” w elektronice. Ceny smartfonów biją rekordy, sprzedaż spadnie
Materiał Promocyjny
Nowy luksus zaczyna się od rozmowy. Byliśmy w showroomie EXLANTIX w Warszawie
Materiał Promocyjny
Rekordy sprzedaży i większy magazyn w Duchnicach
AI
Firma twórcy Twittera tnie tysiące miejsc pracy. Powód? Sztuczna inteligencja
AI
Przełom w produkcji chipów. Ta technologia zmieni rynek AI i zagrozi pozycji Chin
Materiał Promocyjny
Arabia Saudyjska. W krainie gościnności
AI
AI zalewa sieć coraz lepszymi fałszywkami. Detektory nie nadążają
Materiał Promocyjny
Dove Self-Esteem: Wsparcie dla nastolatków
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama