Anthropic złożyło pozew przeciwko Departamentowi Obrony i innym agencjom federalnym, kwestionując decyzję administracji Trumpa o uznaniu firmy za „supply chain risk”. To już nie jest spór o kontrakt – to walka o zasady.
Sprawa eskalowała w ostatnich tygodniach w zawrotnym tempie. Pentagon chciał używać technologii Anthropic do „wszystkich zgodnych z prawem celów” – bez ograniczeń. Firma postawiła jednak dwa twarde warunki, których nie zamierzała odpuszczać:
- AI nie może być wykorzystywana do masowej inwigilacji obywateli USA
- AI nie może działać w trybie autonomicznej broni
To właśnie na tych dwóch punktach negocjacje się posypały. 27 lutego administracja wydała dyrektywę nakazującą agencjom federalnym i wykonawcom wojskowym wstrzymanie współpracy z Anthropic. Sekretarz obrony Pete Hegseth ogłosił na platformie X, że firma zostaje wpisana na listę zagrożeń dla łańcucha dostaw i że „żaden wykonawca, dostawca ani partner współpracujący z wojskiem USA nie może prowadzić żadnej działalności komercyjnej z Anthropic.”
This week, Anthropic delivered a master class in arrogance and betrayal as well as a textbook case of how not to do business with the United States Government or the Pentagon.
Our position has never wavered and will never waver: the Department of War must have full, unrestricted…
— Secretary of War Pete Hegseth (@SecWar) February 27, 2026
Bezprecedensowa etykieta
Oznaczenie „supply chain risk” to narzędzie, które do tej pory stosowano wobec firm powiązanych z zagranicznymi przeciwnikami – głównie chińskimi podmiotami. Użycie go wobec amerykańskiej firmy AI, której misją jest bezpieczeństwo sztucznej inteligencji, to coś, czego branża jeszcze nie widziała.
Anthropic w dokumentach sądowych nazywa te działania „unprecedented and unlawful” i twierdzi, że rząd naruszył Pierwszą Poprawkę do Konstytucji, karząc firmę za jej publiczne stanowisko. Prawicy zarzuca też Trumpowi przekroczenie uprawnień wykonawczych – bo prezydent nie ma, według Anthropic, prawnego umocowania do nakazywania agencjom zerwania kontraktów z konkretną firmą prywatną.
Rzeczniczka Białego Domu Liz Huston nie przebierała w słowach: „The President and Secretary of War are ensuring America’s courageous warfighters have the appropriate tools they need to be successful and will guarantee that they are never held hostage by the ideological whims of any Big Tech leaders.”
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem obie strony tego sporu i nie zamierzam jej upraszczać. Pentagon ma rację w jednym – w razie kryzysu bezpieczeństwa narodowego nie może sobie pozwolić na sytuację, w której prywatna firma blokuje dostęp do kluczowych narzędzi. To realne ryzyko. Z drugiej strony pytanie, które zadaje Anthropic, jest absolutnie zasadne: czy chcemy, żeby AI decydowała autonomicznie o wyborze celów wojskowych? Czy naprawdę jesteśmy gotowi na masową inwigilację obywateli przez algorytmy? To nie są „ideologiczne kaprysy” – to fundamentalne pytania, na które my jako społeczeństwo jeszcze nie znaleźliśmy odpowiedzi. Mnie niepokoi coś innego: że OpenAI podpisało umowę z Pentagonem kilka godzin po tym, jak Anthropic odmówiło. Czy to był świadomy gest – pokazanie, że zawsze znajdzie się ktoś skłonny do kompromisu? I co to oznacza dla całej branży w dłuższej perspektywie?
OpenAI skorzystało na kryzysie
OpenAI zawarło porozumienie z Pentagonem dosłownie kilka godzin po tym, jak administracja ogłosiła dyrektywę wobec Anthropic. Zbieżność czasowa jest uderzająca i trudno nie dostrzec w tym wyraźnego sygnału – zarówno dla rynku, jak i dla samego Anthropic.
Paradoksalnie, konflikt nie zaszkodził wizerunkowi firmy wśród zwykłych użytkowników. Dzień po ogłoszeniu przez Pentagon zamiaru rozwiązania kontraktu aplikacja Claude po raz pierwszy w historii wyprzedziła ChatGPT w rankingu App Store na iPhonie. Firma poinformowała też 5 marca, że codziennie rejestruje się ponad milion nowych użytkowników.
Co dalej?
Anthropic szuka tzw. injunctive relief – tymczasowego wstrzymania skutków decyzji rządu do czasu rozstrzygnięcia sprawy. W dokumentach sądowych firma wskazuje, że „setki milionów dolarów” są zagrożone, bo niepewność co do statusu firmy blokuje nowe kontrakty z podmiotami prywatnymi, które współpracują z Departamentem Obrony.
Rzecznik Anthropic podkreślił: „Seeking judicial review does not change our longstanding commitment to harnessing AI to protect our national security, but this is a necessary step to protect our business, our customers, and our partners.”
Dario Amodei spotkał się z Hegsethem 24 lutego, ale rozmowy zakończyły się fiaskiem. CEO Anthropic tłumaczył publicznie, że obecna technologia AI po prostu nie jest wystarczająco niezawodna, żeby bezpiecznie używać jej w scenariuszach masowej inwigilacji czy autonomicznego podejmowania decyzji bojowych. Trump z kolei napisał na Truth Social, że Anthropic popełniło „disastrous mistake”, próbując dyktować wojsku, jak ma działać.
Sprawa trafia do sądu federalnego w momencie, gdy cała branża AI wstrzymuje oddech. Wyrok może zdecydować, czy firmy technologiczne mają prawo stawiać etyczne granice rządowym klientom – i czy cena za to nie będzie zbyt wysoka.
