Microsoft złożył w federalnym sądzie w San Francisco dokument prawny – tzw. amicus brief – popierający pozew Anthropic przeciwko Departamentowi Obrony USA. Gigant z Redmond wzywa sąd do tymczasowego zablokowania decyzji Pentagonu, który uznał twórcę modelu Claude za „zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego.”
Skąd się wzięło to zamieszanie?
Żeby zrozumieć, co się dzieje, trzeba cofnąć się kilka tygodni. Anthropic posiadał kontrakt z Pentagonem wart 200 milionów dolarów, ale negocjacje między stronami ostatecznie się posypały. Kością niezgody były gwarancje bezpieczeństwa wbudowane w modele Claude – Anthropic odmawiał usunięcia zabezpieczeń uniemożliwiających wykorzystanie swoich modeli do masowej inwigilacji obywateli i w pełni autonomicznych systemów bojowych. Pentagon chciał nieograniczonego dostępu do modeli „dla każdego zgodnego z prawem celu.”
Kiedy rozmowy się załamały, Anthropic wycofał się z kontraktu wartego 200 milionów dolarów. OpenAI błyskawicznie zajął jego miejsce. Kilka dni później sekretarz obrony Pete Hegseth oficjalnie oznaczył Anthropic jako zagrożenie dla łańcucha dostaw – etykieta, którą dotychczas rezerwowano dla zagranicznych przeciwników, takich jak chiński Huawei.
Dyrektor generalny Anthropic, Dario Amodei, powiedział w wewnętrznych komentarzach – od których później się zdystansował – że firma została ukarana za niedonowanie na kampanię Trumpa i nieudzielanie mu „pochwał godnych dyktatora.”
W poniedziałek Anthropic złożył dwa pozwy sądowe, twierdząc, że decyzja Pentagonu jest „bezprecedensowa i bezprawna” i wyrzządza firmie nieodwracalne szkody.
Microsoft wchodzi do gry
Amicus brief Microsoftu wpłynął dzień po tym, jak firma ogłosiła Copilot Cowork – nowy produkt AI zbudowany na modelach Claude od Anthropic – i cztery miesiące po tym, jak Microsoft zobowiązał się zainwestować do 5 miliardów dolarów w ten startup.
Zbieżność dat nie jest przypadkowa. Microsoft ma tu twarde interesy finansowe i operacyjne. Produkty Anthropic stanowią „fundamentalną warstwę” w ofercie Microsoftu skierowanej do armii USA. Natychmiastowe egzekwowanie klasyfikacji zmusiłoby firmy do rekonfigurowania istniejących produktów w trybie pilnym, co „mogłoby potencjalnie osłabić zdolności bojowe USA w krytycznym momencie.”
Microsoft napisał wprost: „AI nie powinno być wykorzystywane do prowadzenia masowej inwigilacji wewnętrznej ani do stawiania kraju w sytuacji, w której autonomiczne maszyny mogłyby samodzielnie rozpocząć wojnę.”
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: To jeden z tych momentów, gdy warto zatrzymać się i spojrzeć na całość z dystansu. Z jednej strony rozumiem frustrację Pentagonu – armia chce narzędzi bez ograniczeń, bo tak zawsze działały kontrakty obronne. Z drugiej strony Anthropic broni zasad, które większość z nas powinna uznać za słuszne: żaden model AI nie powinien służyć do masowej inwigilacji obywateli ani do podejmowania samodzielnych decyzji o użyciu siły śmiertelnej. Pytanie, które powinniśmy sobie postawić, brzmi: czy to precedens, który otworzy drzwi do podobnych nacisków na inne firmy technologiczne? I co się stanie, gdy następna firma po prostu ulegnie?
Rzadka solidarność branży
Microsoft nie jest odosobniony. 37 inżynierów i naukowców z OpenAI oraz Google, w tym główny naukowiec Google, Jeff Dean, złożyło własny amicus brief popierający Anthropic. To rzadki przykład solidarności w branży, w której rywalizacja jest na co dzień zacięta.
Swoje wsparcie wyraziła też grupa 22 emerytowanych wysokich rangą oficerów wojskowych, wśród których znaleźli się byli sekretarze Marynarki Wojennej, Sił Powietrznych i Armii, a także generał Michael Hayden – były dyrektor CIA i NSA.
Oficerowie skupili się nie na meritum sporu, lecz na czymś bardziej fundamentalnym: „Coś bardziej podstawowego jest tu zagrożone: nadużycie władzy.”
Koalicja organizacji broniących wolności słowa, w tym EFF i Cato Institute, złożyła z kolei osobny brief argumentując, że decyzja Pentagonu narusza Pierwszą Poprawkę do Konstytucji. Polityka użycia modeli Claude i dokument „Claude’s Constitution” to chroniona wypowiedź, a Pentagon de facto wymusza na Anthropic zmianę wartości firmy.
Podwójne standardy
Microsoft zwrócił uwagę na podwójne standardy w podejściu rządu: Pentagon dał sobie sześć miesięcy na odejście od modeli Anthropic, ale dla kontrahentów klasyfikacja stała się skuteczna natychmiast.
Tymczasem OpenAI – który ogłosił własny kontrakt z Pentagonem niemal w tym samym momencie, co ogłoszono ban na Anthropic – sam przyznał, że timing wyglądał nieelegancko. Dyrektor generalny Sam Altman powiedział, że czas ogłoszenia wyglądał „oportunistycznie i niechlujnie.”
Warto dodać, że:
- Amazon zainwestował 8 miliardów dolarów w Anthropic, ale jak dotąd publicznie nie zajął stanowiska w sprawie pozwu
- Google i Apple poinformowały klientów, że produkty Anthropic pozostają dostępne na ich platformach chmurowych do zastosowań niezwiązanych z Pentagonem
- Departament Stanu podobno przeniósł już swój wewnętrzny chatbot z modelu Claude Sonnet 4.5 na GPT-4.1 od OpenAI
Co dalej?
Sprawa toczy się równolegle w sądzie federalnym w San Francisco oraz w federalnym sądzie apelacyjnym w Waszyngtonie. Rozstrzygnięcie w kwestii tymczasowego zakazu wykonania decyzji Pentagonu powinno zapaść w najbliższych dniach.
Aplikacja Claude znalazła się na szczycie list pobierania w App Store, a wielu analityków prawnych ocenia, że Anthropic ma realne szanse na sukces w sądzie. Dean Ball, były doradca ds. polityki AI w administracji Trumpa, skomentował zaangażowanie Microsoftu krótko i treściwie:
„I would not have predicted this and I think Microsoft deserves serious praise here.”
Bez względu na to, jak zakończy się ta bitwa sądowa, jedno jest pewne: branża AI właśnie otrzymała sygnał, że granica między innowacją a polityką bezpieczeństwa narodowego może przesuwać się w każdą stronę – i to bez ostrzeżenia.
