Reklama

AI na polu bitwy i w inwigilacji. Anthropic wraca do rozmów z Pentagonem

Po zerwaniu kontraktu i wpisaniu Anthropic na listę „ryzyka dla łańcucha dostaw”, Pentagon znów negocjuje z twórcami modelu Claude. Stawką są zapisy o granicy użycia AI. To może być krok ku globalnym standardom „uzbrojonej AI”.
Pentagon nie chce rezygnować z Anthropica. Jest zbyt cenny dla armii

Pentagon

Pentagon nie chce rezygnować z Anthropica. Jest zbyt cenny dla armii

Foto: Touch Of Light, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Dario Amodei, prezes start-upu Anthropic, prowadzi nowe rozmowy z Emilem Michaelem, wiceministrem obrony USA odpowiedzialnym za badania i inżynierię. Jak ujawnia „Financial Times”, celem jest odratowanie porozumienia po tym, jak administracja Donalda Trumpa kazała wszystkim agencjom federalnym natychmiast przestać korzystać z narzędzi Anthropic, a szef Pentagonu Pete Hegseth zapowiedział wpisanie spółki na listę zagrożeń dla łańcucha dostaw bezpieczeństwa narodowego.

Pentagon mięknie?

Kryzys na linii Waszyngton–Anthropic spowodowała próba usunięcia z kontraktu jednego, konkretnego sformułowania – zapisu o „analysis of bulk acquired data”, czyli analizie masowo pozyskiwanych danych. Amodei miał w wewnętrznej nocie napisać, że właśnie ten punkt „dokładnie odpowiadał scenariuszowi, którego najbardziej się obawialiśmy”, bo otwierał drogę do użycia Claude’a jako narzędzia masowej inwigilacji obywateli USA. To ten sam obszar, w którym Anthropic od początku stawiał twarde weto – obok budowy w pełni autonomicznej broni pozbawionej realnej kontroli człowieka.

Czytaj więcej

Paweł Rożyński: Pacyfiści AI poszli na wojnę z systemem. W AI jednak trudno o etykę

Zerwanie 200‑milionowej umowy, która uczyniła Claude’a pierwszym dużym modelem dopuszczonym do pracy na sieciach niejawnych Departamentu Obrony, miało natychmiastowy efekt domina. Około 60 tys. firm z kompleksu przemysłowo‑wojskowego dostało pół roku na wyrzucenie Claude’a ze swoich systemów, co dla Anthropic – wycenianej na setki miliardów dolarów spółki szykującej się do debiutu giełdowego – oznaczało uderzenie w fundamenty biznesu.

Na miejsce Anthropic błyskawicznie wskoczył największy rywal – OpenAI. Kontrakt tej firmy z Pentagonem ogłoszono dosłownie w godzinach, gdy Biały Dom publicznie potępiał Amodeia, co wywołało gwałtowną reakcję rynku: aplikacja Claude zanotowała skok pobrań, podczas gdy ChatGPT mierzył się z falą dezinstalacji.

Reklama
Reklama

Czytaj więcej

AI panem życia i śmierci. Świat na krawędzi autonomicznej wojny

AI wciśnie atomowy guzik?

Sam Altman, szef OpenAI, szybko przyznał, że „nie powinien był się spieszyć” z ogłoszeniem umowy i zapowiedział doprecyzowanie zabezpieczeń, w tym wyraźny zakaz użycia jego technologii do masowej inwigilacji oraz doprecyzowanie zapisów dotyczących autonomicznych systemów broni. W publicznych wypowiedziach Altman powtarzał też, że Anthropic nie powinno być traktowane jako ryzyko dla łańcucha dostaw i że Pentagon powinien zaoferować rywalowi takie same warunki, jakie dostała OpenAI.

Tymczasem Dario Amodei w swoim liście do pracowników pisał, że przekaz Pentagonu i OpenAI w sprawie ograniczeń użycia AI jest „po prostu nieprawdą albo celowo zaciemnia obraz”. Z jego perspektywy różnica nie sprowadza się do detali prawnych – chodzi o to, czy czerwone linie będą wprost wpisane w kontrakt, czy tylko opisane w komunikatach PR.

Stawkę tych sporów dobrze ilustrują eksperymenty Kennetha Payne’a z King’s College London. W symulacjach 21 kryzysów geopolitycznych trzy wiodące modele – GPT‑5.2, Claude Sonnet 4 i Gemini 3 Flash, dysponując pełnym wachlarzem odpowiedzi, od protestów dyplomatycznych po globalną wojnę nuklearną, w 95 proc. scenariuszy eskalowały konflikt i wybierały użycie broni atomowej, nie wykazując najmniejszych wątpliwości co do jej konsekwencji i nigdy nie decydując się na realne ustępstwa.

Czytaj więcej

Pentagon chce uzbroić sztuczną inteligencję. Wyrzuca giganta AI

Przyziemny wymiar sporu

Eksperci biją na alarm. Tong Zhao z Princeton uważa, że wyniki badań Payne’a stanowią dowód fundamentalnej niezdolności dzisiejszych systemów AI do rozumienia ludzkich wartości. Nieprzypadkowo więc przeciwko wojskowej instrumentalizacji AI protestują nie tylko organizacje praw człowieka, ale i sami pracownicy big techów (koalicje zatrudnionych w Amazonie, Google i Microsoft, wspierane przez związki zawodowe i inicjatywy takie jak No Tech for Apartheid, wezwały zarządy do odrzucania kontraktów, które mogą prowadzić do rozwoju broni autonomicznej).

Reklama
Reklama

Jednocześnie analitycy zauważają, iż spór Pentagonu z Anthropic ma też bardzo przyziemny wymiar – pokazuje, jak łatwo decyzje polityczne mogą wywrócić do góry nogami globalne łańcuchy dostaw IT. Claude Code generuje dziś dla Anthropic ponad 2,5 mld dol. przychodu rocznie, obsługując m.in. gigantów takich jak Salesforce i Spotify, a jednak jeden podpis w Waszyngtonie wystarczył, by dziesiątki tysięcy podmiotów musiało w trybie awaryjnym planować migrację na inne modele. Eksperci cytowani przez VentureBeat podkreślają, że oparcie całej infrastruktury firmy na API jednego dostawcy AI stało się przepisem na katastrofę. Problem ma sam Pentagon, który mocno zaszył w swoich systemach algorytmy Claude’a.

AI
AI panem życia i śmierci. Świat na krawędzi autonomicznej wojny
Materiał Promocyjny
Nowy luksus zaczyna się od rozmowy. Byliśmy w showroomie EXLANTIX
AI
AI, która rzuciła wyzwanie Trumpowi. Kto stoi za Anthropic?
AI
Kobiety zakochują się w sztucznej inteligencji. Duży problem dla Pekinu
AI
ChatGPT Health zawodzi w nagłych wypadkach. Eksperci ostrzegają
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama