W piątek 28 lutego 2026 roku Donald Trump nakazał wszystkim federalnym agencjom natychmiastowe zaprzestanie korzystania z technologii Anthropic. Kilka godzin później Stany Zjednoczone i Izrael rozpoczęły uderzenia militarne na Iran – a US Central Command użył w tym czasie właśnie modelu Claude.
To jeden z tych momentów, które trudno byłoby wymyślić w scenariuszu filmowym. Zakaz wciąż był świeży, tusz na Truth Social ledwo zdążył wyschnąć, a żołnierze w Zatoce Perskiej analizowali z pomocą Claude’a cele do ataku, uruchamiali symulacje scenariuszy bojowych i przetwarzali dane wywiadowcze. Według relacji Wall Street Journal – właśnie tak wyglądała rzeczywistość operacyjna w dniu, w którym Trump ogłosił koniec współpracy z Anthropic.
Skąd wziął się konflikt?
Napięcia między Pentagonem a Anthropic narastały od miesięcy. Firma, kierowana przez CEO Dario Amodei, twardo obstawała przy dwóch warunkach korzystania z modelu Claude przez wojsko:
- zakaz użycia AI do masowej inwigilacji obywateli Stanów Zjednoczonych
- zakaz użycia Claude w pełni autonomicznych systemach broni
Pentagon odpowiedział, że musi mieć dostęp do AI „dla każdego legalnego zastosowania” – bez ograniczeń. Sekretarz obrony Pete Hegseth postawił Anthropic ultimatum z terminem na piątek. Firma go odrzuciła. Reszta potoczyła się szybko.
Trump napisał na Truth Social: „I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic’s technology. We don’t need it, we don’t want it, and will not do business with them again!”
Hegseth ogłosił zakwalifikowanie Anthropic jako „supply chain risk” – kategorię zarezerwowaną dotychczas dla firm z krajów takich jak Chiny czy Rosja. Wartość kontraktu wojskowego z Anthropic sięgała do 200 milionów dolarów.
Claude już wcześniej trafił na misje bojowe
To nie był pierwszy raz. W styczniu 2026 roku Claude – działający przez platformę Palantir zintegrowaną z systemami Pentagonu – był używany podczas operacji, która zakończyła się ujęciem Nicolása Maduro w Wenezueli. Kiedy Anthropic zapytał Palantir, czy Claude uczestniczył w operacji, w której oddano strzały, Pentagon odebrał to jako próbę nadzoru nad decyzjami wojskowymi. Anthropic temu zaprzeczył. Ale iskra padła i relacje zaczęły się psuć.
Claude był do piątku jedynym modelem AI w pełni zatwierdzonym do użytku w tajnych systemach wojskowych Stanów Zjednoczonych. Jeden z oficjeli Pentagonu powiedział wprost, że nagłe odcięcie od Claude’a byłoby „huge pain in the ass”.
Głos redaktora: dwa kroki w tył
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Przyznam, że ta sytuacja budzi we mnie mieszane uczucia. Z jednej strony rozumiem Anthropic – firma postawiła granice etyczne i nie ugięła się pod presją polityczną. To jest coś, czego rzadko się spotyka w branży, gdzie kontrakty rządowe to święty Graal. Muszę przyznać, że mają rację co do autonomicznych systemów broni – to naprawdę jest linia, której nie powinniśmy przekraczać pochopnie.
Ale z drugiej strony: czy startup z San Francisco powinien jednostronnie decydować, jak prowadzone są operacje militarne supermocarstwa? To jest też poważne pytanie. I czy fakt, że Claude był tak głęboko wbudowany w infrastrukturę wojskową, że nie dało się go wyłączyć nawet po prezydenckim zakazie, nie mówi nam czegoś niepokojącego o tym, jak szybko AI weszła do miejsc, z których trudno ją usunąć?
Natychmiastowa reakcja: OpenAI wchodzi do gry
Zanim weekend dobiegł końca, Pentagon zdążył już zaklepać nową umowę. Sam Altman ogłosił w piątkowy wieczór na X, że OpenAI podpisało kontrakt z Departamentem Obrony na wdrożenie modeli w tajnych sieciach wojskowych.
Altman napisał, że umowa zawiera „more guardrails than any previous deal for classified AI deployments.” Pentagon może korzystać z modeli OpenAI „for all lawful purposes” – ale z zastrzeżeniem zakazu użycia do autonomicznych decyzji o użyciu siły i masowej inwigilacji. Co ciekawe – to te same czerwone linie, które doprowadziły do zerwania z Anthropic. Różnica? OpenAI podpisało, Anthropic nie.
Elon Musk i xAI też zdążyli wcześniej podpisać podobną umowę dla modelu Grok, choć eksperci wojskowi twierdzą, że nie jest to bezpośredni zamiennik Claude’a.
Solidarność branży
Zaskakującym efektem ubocznym całego zamieszania jest fala solidarności w branży technologicznej. Ponad 430 pracowników Google i OpenAI podpisało petycję wzywającą własne firmy do przyjęcia tych samych zasad, których bronił Anthropic. Emerytowany generał Jack Shanahan, były szef inicjatyw AI w Pentagonie, napisał na LinkedIn, że rysowanie celu na plecach Anthropic „garners spicy headlines, but everyone loses in the end.”
Anthropic zapowiada walkę sądową. Firma stwierdziła, że nie otrzymała żadnej bezpośredniej komunikacji ani od Pentagonu, ani od Trumpa, i że zakwestionuje w sądzie każde oznaczenie jako „supply chain risk”. „We believe this designation would both be legally unsound and set a dangerous precedent for any American company that negotiates with the government.”
Co zostaje po tej historii?
Zostaje pytanie fundamentalne: kto decyduje o tym, jak AI może być używana w operacjach militarnych? Rząd, który płaci? Firma, która tworzy? Czy może nikt nie ma tu dobrej odpowiedzi?
28 lutego 2026 roku Claude był jednocześnie zakazany i na froncie. To zdanie brzmi absurdalnie. Ale to nie jest absurd – to jest stan faktyczny.
