Anthropic złożyło w piątek oświadczenie przed federalnym sądem w Kalifornii, w którym kategorycznie zaprzecza, że jest w stanie manipulować modelem Claude po jego wdrożeniu przez armię USA. Spór z Departamentem Obrony eskaluje w błyskawicznym tempie i może wyznaczyć precedens dla całej branży AI.
Skąd się wziął ten konflikt?
Wszystko zaczęło się od decyzji sekretarza obrony Pete’a Hegsetha, który w marcu oficjalnie oznaczył Anthropic jako „ryzyko dla łańcucha dostaw” (supply-chain risk). To nie jest zwykła etykietka. Taka klasyfikacja skutkuje zakazem korzystania z oprogramowania firmy przez federalne agencje rządowe, a Pentagon to jeden z największych potencjalnych klientów AI w historii.
Departament Obrony od miesięcy kłóci się z Anthropic o to, jak technologia firmy może być wykorzystywana do celów związanych z bezpieczeństwem narodowym i jakie powinny być granice tego użycia. Rząd twierdzi, że Anthropic mógłby zakłócać aktywne operacje wojskowe, wyłączając dostęp do Claude albo wypychając szkodliwe aktualizacje, jeśli firmie nie spodobają się konkretne zastosowania.
Co dokładnie twierdzi Anthropic?
Thiyagu Ramasamy, szef działu publicznego Anthropic, napisał w dokumentach sądowych: „Anthropic has never had the ability to cause Claude to stop working, alter its functionality, shut off access, or otherwise influence or imperil military operations.”
Ramasamy dodał, że firma nie ma dostępu wymaganego do wyłączenia technologii ani do zmiany zachowania modelu przed operacjami lub w ich trakcie. Co więcej, raz wdrożony w rządowym, izolowanym systemie operowanym przez zewnętrznego kontrahenta, Claude jest poza zasięgiem Anthropic – nie ma żadnego zdalnego wyłącznika, tylnego wejścia ani mechanizmu do wypychania nieautoryzowanych aktualizacji.
Ramasamy zaznaczył też, że Anthropic nie ma dostępu do promptów ani innych danych, które użytkownicy wojskowi wpisują do Claude. Aktualizacje modelu mogą być dostarczane wyłącznie za zgodą rządu i dostawcy chmury, w tym przypadku Amazon Web Services.
Negocjacje, które skończyły się fiaskiem
Warto podkreślić, że Anthropic aktywnie próbowało dogadać się z Pentagonem. 4 marca firma zaproponowała kontrakt zawierający zapis, że Anthropic nie ma prawa kontrolować ani wetować legalnych decyzji operacyjnych Departamentu Obrony. Sarah Heck, szefowa działu polityki Anthropic, napisała w dokumentach sądowych: „For the avoidance of doubt, [Anthropic] understands that this license does not grant or confer any right to control or veto lawful Department of War operational decision‑making.”
Firma była gotowa zaakceptować zapisy odnoszące się do jej obaw dotyczących użycia Claude do przeprowadzania śmiercionośnych uderzeń bez nadzoru człowieka. Ale negocjacje ostatecznie się załamały.
Co więcej, nowe dokumenty sądowe ujawniają wewnętrzną sprzeczność w stanowisku rządu: tydzień po tym, jak Pentagon sfinalizował decyzję o uznaniu Anthropic za ryzyko dla łańcucha dostaw, wysoki rangą urzędnik poinformował CEO firmy, że obie strony są „very close” w kwestiach, które rząd teraz określa jako zagrożenie dla bezpieczeństwa narodowego.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Ten spór to coś więcej niż prawnicza przepychanka między start-upem a Pentagonem. To pierwsza poważna bitwa o to, kto tak naprawdę kontroluje AI wdrożoną w krytycznej infrastrukturze państwa. I obie strony mają trochę racji. Anthropic słusznie wskazuje, że po wdrożeniu modelu w izolowanym, rządowym środowisku firma po prostu nie ma technicznych możliwości jego sabotowania. Ale Pentagon też nie jest bez powodu nerwowy: jeśli dostawca AI może pushować aktualizacje, nawet za czyjąś zgodą, to zawsze istnieje potencjalne okno ryzyka. Kluczowe pytanie nie brzmi „czy Anthropic chciało sabotować armię”. Brzmi: „jak powinna wyglądać architektura zaufania między rządem a prywatnymi firmami AI, kiedy stawką są ludzkie życia?” Na to pytanie nie ma jeszcze dobrej odpowiedzi. I właśnie dlatego ta sprawa jest tak ważna.
Skutki dla biznesu są już odczuwalne
Sprawa nie jest tylko teoretyczna. Inne federalne agencje również rezygnują z Claude. Anthropic złożyło dwa pozwy kwestionujące konstytucyjność zakazu i domaga się trybu awaryjnego nakazu jego odwołania. Klienci już zaczęli jednak anulować kontrakty.
Rozprawa w jednej ze spraw zaplanowana jest na 24 marca w federalnym sądzie okręgowym w San Francisco. Sędzia może podjąć decyzję o tymczasowym uchyleniu zakazu wkrótce po niej.
Tymczasem Pentagon podejmuje dodatkowe środki, żeby zminimalizować ryzyko ze strony Anthropic, współpracując z zewnętrznymi dostawcami chmury, aby uniemożliwić kierownictwu firmy dokonywanie jednostronnych zmian w systemach Claude już wdrożonych przez wojsko.
Szerszy kontekst: Claude i wojsko
Trzeba pamiętać, że Pentagon aktywnie używał Claude do całkiem konkretnych zadań. Wojsko korzystało z Claude do analizowania danych, pisania notatek i wspierania generowania planów bitewnych.
Równolegle toczy się też osobna debata o tym, czy Claude był celowo zaprogramowany tak, żeby odmawiać pomocy przy projektach wojskowych. Na platformie X krążyły zrzuty ekranu pokazujące, jak Claude odrzuca prośby związane z systemami uzbrojenia, sugerując pokojowe alternatywy przy prośbach o pomoc przy kodzie naprowadzania rakiet. Anthropic odpowiedziało jednoznacznie: „Claude is not anti-military.” Firma wyjaśniła, że odmowy były niezamierzonym skutkiem zbyt restrykcyjnych mechanizmów bezpieczeństwa, a nie celową polityką.
Co to oznacza dla branży?
Skutki tej sprawy wyjdą daleko poza sam Anthropic. Kilka kluczowych kwestii jest teraz na stole:
- Kto kontroluje aktualizacje modelu AI po jego wdrożeniu w krytycznej infrastrukturze?
- Czy rząd powinien wymagać dostępu do kodu źródłowego lub prawa do audytu modeli?
- Jak skonstruować umowy z dostawcami AI tak, żeby chronić bezpieczeństwo operacji bez zabijania innowacji?
- Czy zachodnie demokracje powinny budować własne, państwowe modele AI do zastosowań militarnych?
Jeśli sąd przyjmie stanowisko Anthropic, może to ugruntować praktyczne oczekiwanie, że wdrożone modele są odizolowane od późniejszej ingerencji ze strony dostawcy. To byłby precedens, który ukształtuje całą kolejną generację kontraktów rządowych z firmami AI.
Rozprawa 24 marca będzie warta uwagi. Nie tylko dla Anthropic.
