Dario Amodei, CEO Anthropic, udzielił ostrego w tonie, ale spokojnego w formie wywiadu, w którym po raz pierwszy tak szczegółowo wyjaśnił, dlaczego jego firma odmówiła Departamentowi Obrony USA pełnego dostępu do swoich modeli AI. Rozmowa odbyła się w momencie, gdy Sekretarz Obrony Pete Hegseth publicznie oznaczył Anthropic jako „ryzyko dla łańcucha dostaw” – klasyfikacja stosowana dotychczas wyłącznie wobec firm powiązanych z obcymi mocarstwami.
Cała sprawa zaczęła się od ultimatum. Departament Obrony dał Anthropic trzy dni na zaakceptowanie warunków współpracy – bez negocjacji, bez pola manewru. Firma odmówiła, wskazując na dwa konkretne zastrzeżenia: masową inwigilację obywateli USA oraz w pełni autonomiczną broń działającą bez udziału człowieka.
Amodei podkreślił, że Anthropic jako pierwsza firma spośród wszystkich dużych graczy AI udostępniła swoje modele na klasyfikowanej chmurze rządowej i tworzyła dedykowane rozwiązania dla potrzeb wywiadu wojskowego. Operacje cyberbezpieczeństwa, wsparcie dowodzenia w czasie walki – to obszary, gdzie Claude jest już wdrożony.
Dwa obszary pozostają jednak poza tym co firma jest gotowa zaoferować:
- Masowa inwigilacja wewnętrzna – rząd może legalnie kupować dane od prywatnych firm i analizować je masowo za pomocą AI. Przed erą sztucznej inteligencji ta możliwość technicznie nie istniała, a prawo jej nie nadążyło.
- W pełni autonomiczna broń – systemy zdolne do ataku bez jakiegokolwiek udziału człowieka w pętli decyzyjnej.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: To jeden z rzadkich momentów, kiedy CEO dużej firmy technologicznej publicznie stawia się w opozycji do administracji rządowej i robi to nie na Twitterze, lecz z argumentami w ręku. Amodei ma rację mówiąc, że autonomiczna broń i masowa inwigilacja to kategorie, które wymagają demokratycznej debaty – nie umowy NDA podpisanej pod presją czasu. Ale jest też druga strona: czy prywatna firma naprawdę powinna wyznaczać granice w kwestiach bezpieczeństwa narodowego? To pytanie nie ma łatwej odpowiedzi. Jeśli Anthropic ustąpi, precedens jest groźny. Jeśli nie ustąpi – a inne firmy ustąpią – to efekt będzie ten sam, tylko bez etycznych hamulców.
„Najważniejsza jest niezawodność, nie ideologia”
Amodei wielokrotnie wracał do kwestii czysto technicznej: modele AI nie są jeszcze wystarczająco przewidywalne, by oddać im decyzje o życiu i śmierci.
„Anyone who’s worked with AI models understands that there’s a basic unpredictability to them that in a purely technical way we have not solved” – powiedział w wywiadzie.
To argument, który trudno zbagatelizować. Armia dronów sterowana przez AI bez nadzoru człowieka to scenariusz, który Amodei porównał do problemu koncentracji władzy – nie ideologicznie, lecz strukturalnie. Kto trzyma palec na spuście, jeśli nie ma żadnego palca?
Tweety zamiast decyzji formalnych
Osobny wątek to sposób komunikacji ze strony Waszyngtonu. Według Amodei, firma do momentu nagrania wywiadu nie otrzymała żadnej formalnej decyzji – tylko tweety. Tweeta od prezydenta Trumpa, tweeta od Hegstha.
Trump napisał, że „selfishness” Anthropic zagraża życiu amerykańskich żołnierzy. Hegseth ogłosił klasyfikację supply chain risk – krok, który w historii USA był stosowany wyłącznie wobec takich podmiotów jak Kaspersky Lab czy chińskie firmy produkujące chipy.
Amodei zapowiedział wprost: jeśli formalna decyzja nadejdzie, Anthropic zaskarży ją do sądu.
Co dalej?
Firma deklaruje gotowość do płynnego przejścia – pomoże Pentagonowi przez cały proces offboardingu, by wojsko nie straciło dostępu do narzędzi AI. Rozmówcy w mundurach, z którymi rozmawiał Amodei, mówili mu, że przerwa w dostępie do systemów AI może kosztować sześć, może dwanaście miesięcy opóźnienia operacyjnego.
Paradoks jest ewidentny: administracja, która chce jak najszybciej militaryzować AI, swoją decyzją może ten proces skutecznie spowolnić.
Amodei nie wyklucza porozumienia. Ale jego warunki się nie zmieniły i, jak zaznaczył, nie zmienią się.
