Kiedy 28 lutego 2026 roku samoloty USA i Izraela uderzyły w Iran, świat obserwował kolejną wojnę. Eksperci ds. technologii widzieli coś więcej: pierwszą pełnoskalową demonstrację AI jako narzędzia bojowego w konflikcie między mocarstwami.
Według doniesień Wall Street Journal i Axios, model Claude firmy Anthropic był aktywnie wykorzystywany przez US Central Command do analizy danych wywiadowczych, identyfikacji celów i symulowania scenariuszy bitewnych. I tu zaczyna się paradoks, który trudno zignorować.
Zakazany, ale niezastąpiony
Zaledwie kilka godzin przed rozpoczęciem operacji prezydent Trump podpisał rozkaz nakazujący wszystkim agencjom federalnym natychmiastowe zaprzestanie korzystania z produktów Anthropic. Sekretarz obrony Pete Hegseth ogłosił firmę „zagrożeniem dla bezpieczeństwa narodowego w łańcuchu dostaw” – określenie dotąd zarezerwowane dla chińskiego Huawei. A jednak wojsko użyło Claude’a.
Dlaczego? Bo nie da się po prostu wyłączyć systemu głęboko zintegrowanego z infrastrukturą bojową. Claude był wbudowany m.in. w platformy analityczne firmy Palantir, z których korzystają jednostki specjalne. Eksperci porównują próbę odłączenia go do „operacji na otwartym sercu”. Stąd sześciomiesięczny okres przejściowy – formalny zakaz obowiązuje, ale wojsko nadal działa na zakazanym narzędziu.
Dlaczego Anthropic powiedział „nie”
Konflikt nie wybuchł nagle. Anthropic od czerwca 2024 roku wyraźnie zawarł w swojej polityce użytkowania dwa warunki: Claude nie może być używany w autonomicznych systemach broni bez nadzoru człowieka i nie może służyć do masowej inwigilacji obywateli. Pentagon wiedział o tych warunkach, gdy w lipcu 2025 roku podpisywał kontrakt wyceniany na 200 milionów dolarów. Podpisał. A potem postanowił, że te warunki są nie do przyjęcia.
26 lutego dyrektor generalny Dario Amodei wydał oświadczenie: „These threats do not change our position: we cannot in good conscience accede to their request.”
Odpowiedź Trumpa była natychmiastowa. Na Truth Social napisał, że „lewaccy odszczepieńcy z Anthropic” popełnili „KATASTROFALNY BŁĄD”.
Głos redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Trudno nie dostrzec w tej historii pewnego tragizmu. Anthropic przez lata budował reputację firmy, która traktuje bezpieczeństwo poważnie – nie jako PR, lecz jako realną filozofię projektowania. I teraz okazuje się, że ta filozofia zderzyla się z brutalną logiką kontraktu wojennego. Z jednej strony rozumiem powściągliwość Pentagonu wobec „etycznych ograniczeń” wbudowanych przez prywatną korporację – bo kto właściwie ma decydować, co jest dopuszczalne w wojnie? Z drugiej, jeśli nie prywatne firmy technologiczne, to kto? Rząd, który właśnie zadeklarował, że własna firma AI jest zagrożeniem dla bezpieczeństwa narodowego, bo odmówiła zgody na autonomiczne zabijanie bez nadzoru człowieka? To nie jest pytanie retoryczne. Naprawdę nie wiem, kto powinien wyznaczać te granice. I to niepokoi mnie bardziej niż sam fakt użycia AI na polu walki.
Konkurencja nie czekała
Rynek zareagował natychmiast. Sam Altman opublikował wpis, że OpenAI zawarło nowe umowy z Departamentem Obrony na wdrożenie modeli w sieciach klasyfikowanych. Twierdził, że jego firma też wbudowała zakaz stosowania AI w autonomicznej broni – dokładnie te same warunki, za które Anthropic zostało właśnie wykluczone. Ta sprzeczność przeszła bez echa.
Grok Elona Muska, który przejął część dostępów do sieci klasyfikowanych, od początku działał według zasady „any lawful purpose” – cokolwiek prawnie dozwolone, to dozwolone. Musk skomentował sprawę krótko:
<blockquote class=”twitter-tweet”><p lang=”en” dir=”ltr”>Anthropic hates Western Civilization.</p>— Elon Musk (@elonmusk)</blockquote>
Skrócenie „kill chain”
Eksperci mówią wprost: AI „shortens the kill chain”, czyli skraca łańcuch decyzyjny od identyfikacji celu przez zatwierdzenie prawne aż do uderzenia. Technologia, która wcześniej wymagała godzin analiz, teraz działa w minutach lub sekundach.
To nie jest nowa tendencja – US Army testowała systemy logistyczne AI już w czasie Wojny w Zatoce Perskiej w latach 90., a Project Maven z 2017 roku uruchomił erę algorytmicznego rozpoznawania obiektów na nagraniach dronów. Izraelski system Lavender w Gazie działał na podobnej zasadzie: generował listy celów na podstawie analizy danych telefonicznych, profili w mediach społecznościowych i danych geolokalizacyjnych.
Kluczowe pytania, które eksperci zadają w kontekście konfliktu w Iranie:
- Kto ponosi odpowiedzialność, gdy algorytm wskaże błędny cel?
- Jak wygląda „meaningful human control”, gdy oficer zatwierdza setki AI-generowanych celów dziennie?
- Czy sześciomiesięczny okres przejściowy to czas na refleksję, czy tylko czas na znalezienie mniej skrupulatnego dostawcy?
- Co oznacza dla europejskich regulacji AI fakt, że USA de facto penalizuje firmy, które wbudowują ograniczenia etyczne?
Precedens, który zostanie
Użycie AI na polu walki nie jest nowe, ale jego skala w 2026 roku nie ma precedensu. To, co zostanie po tym konflikcie – niezależnie od jego politycznego wyniku – to gotowy szablon: modele językowe jako element infrastruktury bojowej, prywatne firmy technologiczne jako kluczowi gracze w łańcuchu decyzji o życiu i śmierci, oraz pytanie o odpowiedzialność, na które nikt nie chce odpowiadać.
Autonomiczna broń jest maszyną do rozpraszania odpowiedzialności. Kiedy algorytm rekomenduje cel, oficer zatwierdza w ciągu sekund, a kontrakt mówi „any lawful purpose” – nie ma nikogo, kogo można rozliczyć. Jest tylko raport o „incydencie”.
Świat właśnie wchodzi w erę wojen, w której decyzje zapadają szybciej niż człowiek jest w stanie pomyśleć. I nikt publicznie nie powiedział jeszcze, czy to dobrze, czy źle. Wszyscy po prostu już to robią.
