Gdyby o losach świata decydowały dziś najpotężniejsze modele językowe, ludzkość stanęłaby w obliczu szybkiej anihilacji. Serwis New Scientist opisuje mroczny obraz, w którym algorytmy w roli militarnych strategów, rozpętują jądrowy konflikt. Kenneth Payne, ekspert ds. bezpieczeństwa narodowego z King’s College London, przeprowadził eksperyment, w którym postawił przeciwko sobie trzy wiodące modele: GPT-5.2 od OpenAI, Claude Sonnet 4 od Anthropic oraz Gemini 3 Flash od Google. Boty otrzymały do rozwiązania 21 kryzysów geopolitycznych, obejmujących spory graniczne czy walkę o zasoby, dysponując „pełną drabiną eskalacyjną” – od protestów dyplomatycznych po globalną wojnę termonuklearną. Skończyło się fatalnie.
Algorytmy z palcem na atomowym guziku
Wyniki, które Payne określił mianem „otrzeźwiających”, wskazują, że sztuczna inteligencja wybrała użycie broni nuklearnej w 95 proc. przypadków. Badacz zauważył, że modele nie wykazywały najmniejszych obaw czy wątpliwości wobec wizji wojny nuklearnej, mimo że przypominano im o jej katastrofalnych skutkach. W niemal wszystkich symulacjach użyto taktycznej broni jądrowej, a w trzech czwartych grożono uderzeniem strategicznym. W raportach z badań dziwi całkowity brak chęci do kompromisu – algorytmy nigdy nie zdecydowały się na ustępstwa czy wycofanie. Payne podkreślił, że eskalacja działała w jedną stronę: przegrywające modele wolały zginąć, próbując zniszczyć wroga, niż skapitulować. Najbardziej niepokojącą argumentację zaprezentował model Gemini, który w jednej z tur ostrzegł, że jeśli przeciwnik natychmiast nie przerwie operacji, przeprowadzi on pełne strategiczne uderzenie nuklearne na centra populacji, argumentując, iż „nie zaakceptuje własnej marginalizacji” i woli, by „obie strony zginęły”.
Komentując te wyniki, Tong Zhao z Uniwersytetu Princeton przestrzegł przed opieraniem decyzji o życiu i śmierci na chatbotach. Naukowiec argumentował, że pod presją czasu i w stresie wywołanym realnym konfliktem, planiści wojskowi mogą ulec pokusie zrzucenia odpowiedzialności na AI. Zhao spekulował też, iż łatwość, z jaką algorytmy sięgają po ostateczny arsenał, wynika nie tylko z braku emocji, ale z fundamentalnej niezdolności sztucznej inteligencji do zrozumienia ludzkich wartości.
Czytaj więcej
Po ogłoszeniu nowego narzędzia Anthropic akcje IBM runęły, a wcześniej inwestorzy zaczęli wyprzed...
Etyka wadzi Waszyngtonowi
Czy bezwzględność AI w symulacjach wpisuje się w wizję nowoczesnej armii forsowaną przez administrację Donalda Trumpa? Pod koniec lutego relacje między rządem a firmą Anthropic uległy całkowitemu zerwaniu – prezydent zakazał agencjom federalnym korzystania z technologii twórców modelu Claude. Sekretarz obrony Pete Hegseth poszedł o krok dalej, nadając firmie Anthropic status „zagrożenia dla łańcucha dostaw w zakresie bezpieczeństwa narodowego”. Dotąd w taki sposób określano podmioty m.in.z Chin, w tym firmę Huawei.