Trump pochwalił się tym publicznie. „Zwolniłem Anthropic. Są w tarapatach, bo ich zwolniłem jak psy – nie powinni byli tego robić” – powiedział prezydent w rozmowie z Politico w czwartek. Tego samego dnia Pentagon formalnie wpisał Anthropic na listę podmiotów stanowiących „zagrożenie dla łańcucha dostaw” – oznaczenie, które dotychczas stosowano wyłącznie wobec firm z krajów uznawanych za wrogie Stanom Zjednoczonym. Nigdy wcześniej nie użyto go przeciwko amerykańskiej firmie.
Żeby zrozumieć, jak do tego doszło, trzeba cofnąć się o kilka tygodni.
Skąd się wziął ten konflikt?
Anthropic podpisał z Pentagonem kontrakt wart do 200 milionów dolarów. Claude stał się pierwszym modelem AI wdrożonym w tajnych sieciach Departamentu Obrony. Wszystko szło dobrze – do momentu, gdy strony zaczęły negocjować szczegółowe warunki dalszej współpracy.
Anthropic postawił dwa warunki, których nie chciał odpuścić:
- zakaz używania Claude do masowej inwigilacji obywateli USA
- zakaz używania go w systemach w pełni autonomicznej broni – czyli takich, w których AI, a nie człowiek, podejmuje ostateczną decyzję o ataku
Pentagon odpowiedział, że potrzebuje swobody używania zakupionej technologii „do wszystkich zgodnych z prawem celów”. I tu drogi się rozeszły.
Napięcie rosło przez tygodnie. Trump ostatecznie wydał 27 lutego rozkaz nakazujący wszystkim agencjom federalnym natychmiastowe zaprzestanie korzystania z technologii Anthropic. „The Leftwing nut jobs at Anthropic have made a DISASTROUS MISTAKE trying to STRONG-ARM the Department of War, and force them to obey their Terms of Service instead of our Constitution” – napisał na Truth Social.
Claude w irańskich uderzeniach
Skala problemu jest większa niż sam kontrakt. Claude był zintegrowany z systemem Maven firmy Palantir – kluczowym narzędziem wywiadu wojskowego, który był używany podczas ostatnich uderzeń na Iran, jak donosi Washington Post. Jeden z oficjeli Pentagonu powiedział wprost, że odcięcie się od Anthropic będzie „huge pain in the ass”.
W tym kontekście warto zadać sobie pytanie, które wcale nie jest retoryczne.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Cała ta sprawa ujawnia fundamentalne napięcie, które będzie towarzyszyć branży AI przez kolejne lata. Z jednej strony Anthropic ma rację – firma powinna mieć prawo określić, do czego jej technologia może być używana. To nie jest lewicowa ideologia, to elementarne prawo każdego producenta. Z drugiej strony – jeśli AI jest wbudowane w systemy wojskowe działające w czasie rzeczywistym, negocjowanie warunków z prywatną firmą w trakcie operacji brzmi jak przepis na chaos. Kto podejmuje decyzję, gdy czas się liczy? Nie mam gotowej odpowiedzi, ale wolę, żebyśmy o tym rozmawiali teraz, a nie po pierwszym głośnym incydencie.
OpenAI wchodzi przez tylne drzwi
Godziny po ogłoszeniu banu na Anthropic, Sam Altman ogłosił na X, że OpenAI podpisało własny kontrakt z Departamentem Obrony na dostęp do tajnych sieci. Timing był… nieprzypadkowy.
Reakcja była natychmiastowa. Claude trafił na szczyt list pobieranych aplikacji w USA. ChatGPT notował odinstalowania. Altman sam przyznał później w wewnętrznej wiadomości do pracowników, że firma „shouldn’t have rushed” i że całe zachowanie wyglądało „opportunistic and sloppy”.
Zresztą Amodei w wewnętrznym memo do pracowników – które wyciekło do prasy – nazwał Altmana wprost „mendacious” i określił kontrakt OpenAI mianem „safety theater”. Potem przeprosił za ton tej wiadomości, choć nie za meritum.
Memo wyciekło, negocjacje wróciły
Amodei w czwartkowym oświadczeniu odniósł się do afery z memem: „I also want to apologize directly for a post internal to the company that was leaked to the press yesterday. Anthropic did not leak this post nor direct anyone else to do so – it is not in our interest to escalate this situation. It was a difficult day for the company, and I apologize for the tone of the post.”
Jednocześnie według doniesień Financial Times i Bloomberg – negocjacje między Anthropic a Pentagonem cicho wznowiono. Amodei rozmawia z Emilem Michaelem, podsekretarzem obrony. New York Times pisze, że obaj panowie szczerze się nie lubią. To nie ułatwia sprawy.
Co to oznacza finansowo?
Oficjalne oznaczenie „supply chain risk” to nie jest symboliczne uderzenie. Oznacza, że każdy wykonawca pracujący dla Pentagonu musi udowodnić, że nie ma żadnych powiązań z Anthropic. A Anthropic ma rozległe kontrakty korporacyjne – część z tych firm obsługuje również rząd.
Axios informuje, że ostatnia runda finansowania Anthropic, wyceniona na około 60 miliardów dolarów, jest zagrożona z powodu tego konfliktu.
Microsoft zbadał jednak sytuację prawnie i doszedł do wniosku, że Claude może nadal być dostępny przez platformy M365, GitHub i Azure AI Foundry – dla wszystkich klientów poza Departamentem Obrony. To pewna ulga.
Silicon Valley, w tym paradoksalnie OpenAI, wyraziło wsparcie dla Anthropic w kwestii oznaczenia jako zagrożenie dla łańcucha dostaw. Bo wszyscy zdają sobie sprawę, że precedens dotyczy ich wszystkich.
