Przez ostatnie dwa tygodnie relacje między Anthropic a amerykańskim Departamentem Obrony rozpadają się w ekspresowym tempie. Wszystko zaczęło się od styczniowej operacji pojmania wenezuelskiego dyktatora Nicolása Maduro – i od ujawnienia, że kluczową rolę odegrał w niej model Claude.
Sprawa jest poważna. Anthropic zawarło z Pentagonem kontrakt wart do 200 milionów dolarów, podpisany latem ubiegłego roku. Claude był pierwszym modelem AI wdrożonym w tajnych sieciach wojskowych USA – żaden inny producent nie dotarł tak daleko. A teraz ta wyjątkowa pozycja może kosztować firmę utratę całej współpracy.
Co się właściwie stało?
Zacznijmy od Maduro. Kiedy Wall Street Journal ujawnił, że Claude był używany podczas operacji jego pojmania, w Anthropic podobno rozległ się alarm. Według doniesień Semafora, podczas rutynowego spotkania między Anthropic a firmą Palantir (która wdraża Claude’a dla wojska), pracownik Anthropic wyraził zaniepokojenie tym, jak system mógł zostać użyty. Palantir to odebrał jako sygnał, że Anthropic może mieć zastrzeżenia co do samej operacji.
I tu zaczął się prawdziwy kryzys.
Rzecznik Pentagonu Sean Parnell oświadczył bez ogródek: „Naród wymaga, aby nasi partnerzy byli gotowi pomagać naszym żołnierzom wygrywać w każdej walce.” Stojący za kulisami urzędnicy idą dalej – jeden z nich powiedział Axios wprost: „Będzie to ogromny bałagan do rozplątania, i zamierzamy się upewnić, że zapłacą cenę za zmuszenie nas do takiego kroku.”
Dwie linie czerwone Anthropic
Firma nie zamierza zgadzać się na wszystko. Anthropic konsekwentnie odmawia zgody na dwa konkretne zastosowania:
- masową inwigilację obywateli – czyli wykorzystania Claude’a do monitorowania Amerykanów na szeroką skalę
- w pełni autonomiczne systemy broni – czyli sytuacji, w których AI sama decyduje o ataku bez żadnej kontroli człowieka
Pentagon odpowiada, że to zbyt wąskie ograniczenia. Wojsko chce móc korzystać z modeli AI „do wszystkich zgodnych z prawem celów” – i taka formuła ma obowiązywać zarówno w sieciach jawnych, jak i tajnych. OpenAI, Google i xAI podobno już takie warunki zaakceptowały lub są bliskie akceptacji. Według Axiosa, jako pierwszy zgodę na klasyfikowane sieci bez ograniczeń wyraziło xAI, firma Elona Muska – co nie powinno zaskakiwać nikogo, kto śledzi publiczne wypowiedzi Muska o „woke AI”.
Muszę przyznać, że ta sprawa mnie niepokoi na kilku poziomach jednocześnie, mówi Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl. Z jednej strony rozumiem logikę Anthropic – firma od początku budowała swoją tożsamość na bezpieczeństwie AI i naprawdę nie może sobie pozwolić na wizerunkową katastrofę. Pytanie o autonomiczną broń i masową inwigilację to nie są pytania akademickie – to pytania, które definiują, jaką rolę AI odegra w demokracji. Z drugiej strony: czy firma, która podpisuje kontrakt z wojskiem na 200 milionów dolarów, może naprawdę być zaskoczona, że wojsko chce używać jej narzędzi do… prowadzenia operacji wojskowych? I czy „produktywne rozmowy w dobrej wierze” to coś więcej niż korporacyjny eufemizm, gdy Pentagon dosłownie grozi etykietą zarezerwowaną dla obcych wrogów? Myślę, że najważniejsze pytanie brzmi: kto, i w jakim trybie, powinien decydować o granicach AI w operacjach zbrojnych – firmy technologiczne, Kongres, czy tylko wykonawcza gałąź rządu?
„Ryzyko łańcucha dostaw” – groźba rodem z zimnej wojny
Najpoważniejsza z rozważanych sankcji to oznaczenie Anthropic jako „supply chain risk” – ryzyka łańcucha dostaw. Brzmi technicznie, ale konsekwencje byłyby druzgocące: każda firma, która chce współpracować z Pentagonem, musiałaby poświadczyć, że w żaden sposób nie korzysta z produktów Anthropic. Biorąc pod uwagę, że firma niedawno chwaliła się, iż osiem z dziesięciu największych amerykańskich firm korzysta z Claude’a – to byłby cios nie tylko finansowy, ale i reputacyjny na ogromną skalę. Co ciekawe, taka etykieta stosowana jest zwykle wobec podmiotów z Chin czy Rosji.
Pentagon przyznaje zresztą w kuluarach, że sam ma problem. Jak powiedział jeden z urzędników: „inne firmy modelowe są po prostu z tyłu” jeśli chodzi o specjalistyczne zastosowania rządowe. Claude to jedyny model działający w tajnych sieciach. Rozplątanie tej współpracy nie będzie ani szybkie, ani tanie.
Co to oznacza dla branży?
To nie jest tylko spór między jedną firmą a rządem. To jest precedens. Trzy inne laboratoria – OpenAI, Google i xAI – obserwują tę bitwę i podejmują własne decyzje. Hegseth najwyraźniej używa Anthropic jako przykładu: „ustąpcie, albo spotka was to samo.” Jeśli największy rynek dla zaawansowanego AI wymaga pełnej rezygnacji z jakichkolwiek ograniczeń, cała branża będzie musiała to zważyć.
Anthropic deklaruje, że pozostaje „zaangażowane w sferę bezpieczeństwa narodowego.” Pentagon deklaruje, że jest „śmiertelnie poważny” w swoich groźbach. Ktoś będzie musiał ustąpić – albo to będzie cisza przed większą burzą.
