Wired opublikował w czwartek najszczegółowszy dotychczas opis tego, jak komercyjna sztuczna inteligencja działa w warunkach aktywnych operacji wojskowych. Centrum tej historii jest Palantir Technologies i chatbot Claude od Anthropic – dwa podmioty, które znalazły się po przeciwnych stronach jednego z największych politycznych konfliktów w historii branży AI.
Śledztwo dziennikarki Caroline Haskins, oparte na nagraniach demonstracyjnych oprogramowania oraz wewnętrznych dokumentach Pentagonu, ujawnia, w jaki sposób Claude został wbudowany w system Maven Smart System – flagową platformę wywiadową i targetingową armii USA – podczas operacji Epic Fury, wspólnej kampanii wojskowej USA i Izraela przeciwko Iranowi, która rozpoczęła się 28 lutego.
Maven, Claude i 1000 celów w 24 godziny
System Maven działa jako interfejs łączący klasyfikowane dane z satelitów, dronów i archiwów wywiadowczych. Claude przetwarza te dane i generuje priorytetowe listy celów – wraz z dokładnymi współrzędnymi GPS, rekomendacjami co do użytej broni, a nawet automatycznie generowanymi uzasadnieniami prawnymi uderzeń.
Skala jest trudna do ogarnięcia. Washington Post podał, że w ciągu pierwszych 24 godzin operacji Epic Fury system Maven wspomagany przez Claude wygenerował i ustalił priorytety dla około 1000 celów. Dla porównania: inwazja na Irak w 2003 roku wymagała sztabu około 2000 analityków wywiadowczych do przeprowadzenia podobnej pracy. Dziś to samo robi około 20 osób.
Nagrania demonstracyjne opisane przez Wired pokazują Claude jako naturalny interfejs językowy – wojskowi planiści mogą zadawać pytania do baz danych wywiadowczych i otrzymywać taktyczne podsumowania zwykłym angielskim. Według NBC News Claude funkcjonuje jako system wsparcia decyzji, nie autonomiczny silnik targetingowy – źródło bliskie pracom Anthropic z Departamentem Obrony podkreśliło, że Claude „does not directly offer targeting recommendations.”
Ta granica – między „wsparciem decyzji” a „rekomendacją celu” – jest jednak w praktyce płynna, gdy system w ciągu sekund generuje uporządkowane listy priorytetowych obiektów wraz z uzasadnieniami.
Komentarz redakcji
Patrząc na to wszystko, trudno mi nie dostrzec głębokiej sprzeczności, w której tkwimy. Z jednej strony mamy system, który realnie zwiększa możliwości wywiadowcze i pozwala ograniczyć straty po stronie atakującej. To argument, którego nie można zlekceważyć. Z drugiej – mamy AI trenowaną na danych konsumenckich, teraz operującą w środowisku tajnych danych na poziomie „secret”, generującą listę celów z 60-procentową dokładnością w testach z 2024 roku. Zadaję sobie pytanie: gdzie przebiega granica między narzędziem wspomagającym człowieka a systemem, który de facto decyduje? I kto odpowiada, gdy algorytm się myli?
— Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Szkoła w Minabie i pytania Kongresu
To nie jest abstrakcja. 28 lutego, w pierwszych godzinach operacji Epic Fury, pocisk trafił w szkołę dla dziewcząt Shajareh Tayyebeh w Minabie w Iranie. Zginęło co najmniej 175 osób – w większości uczennice w wieku od 7 do 12 lat.
New York Times, powołując się na urzędników USA, podał, że wstępne dochodzenie Pentagonu wskazuje na rakietę Tomahawk jako prawdopodobną przyczynę, a błąd w targetingu mógł wynikać z nieaktualnych danych wywiadowczych. Obiekt był wcześniej powiązany z irańską infrastrukturą wojskową, jednak w momencie ataku te informacje były już nieaktualne.
W czwartek 121 demokratycznych kongresmenów, w tym Rep. Sara Jacobs, Rep. Jason Crow i Rep. Yassamin Ansari, skierowało formalne pismo do sekretarza obrony Pete’a Hegsetha z żądaniem odpowiedzi. Pytania poszły wprost w sedno:
„What is the role of artificial intelligence, if any, in selecting targets, assessing intelligence, and making legal determinations during Operation Epic Fury? Was artificial intelligence, including the use of Maven Smart System, used to identify the Shajareh Tayyebeh school as a target? If so, did a human verify the accuracy of this target?”
Kongresmenów obowiązuje termin odpowiedzi do 20 marca.
CENTCOM potwierdza: AI to już standard operacyjny
Admirał Brad Cooper, dowódca US Central Command, nie zostawił wątpliwości co do roli AI w operacjach w Iranie. W nagraniu opublikowanym w środę na platformie X powiedział wprost:
„Our warfighters are leveraging a variety of advanced AI tools. These systems help us sift through vast amounts of data in seconds so our leaders can cut through the noise and make smarter decisions faster than the enemy can react.”
I zaraz dodał to, co wszyscy powtarzają jak mantrę:
„Humans will always make final decisions on what to shoot and what not to shoot and when to shoot, but advanced AI tools can turn processes used to take hours and sometimes even days into seconds.”
Pytanie, czy to zapewnienie jest wystarczające, gdy między rekomendacją a uderzeniem upływają sekundy, pozostaje bez odpowiedzi.
Paradoks: Pentagon odciął AI, której nie może przestać używać
Historia ma jeszcze jeden wymiar – i to zaskakujący nawet jak na standardy Waszyngtonu.
27 lutego, dzień przed startem operacji Epic Fury, negocjacje między Anthropic a Pentagonem urwały się. CEO Dario Amodei odmówił usunięcia dwóch nieprzekraczalnych ograniczeń w licencji na Claude:
- zakaz wykorzystania Claude do masowej inwigilacji obywateli USA,
- zakaz użycia Claude w pełni autonomicznych systemach śmiercionośnych bez nadzoru człowieka.
Hegseth zażądał nieograniczonego dostępu do „all lawful use.” Amodei powiedział nie. Hegseth wpisał Anthropic na listę zagrożeń dla bezpieczeństwa narodowego – kategoria historycznie stosowana wobec obcych państw wrogich USA. Trump wrzucił na Truth Social: federalne agencje muszą „IMMEDIATELY CEASE all use of Anthropic’s technology.”
Pentagon przyznał jednak, że odejście od Claude potrwa sześć miesięcy ze względu na uzależnienie operacyjne. Innymi innymi słowami: armia USA bombarduje Iran za pomocą Claude, jednocześnie publicznie nazywając jego twórców zagrożeniem.
9 marca Anthropic złożył dwa pozwy federalne – jeden w Kalifornii, jeden przed Sądem Apelacyjnym w D.C. W 48-stronicowym dokumencie firma nazwała decyzję Pentagonu „unprecedented and unlawful” i oskarżyła administrację o działania odwetowe za publiczne wypowiedzi na temat bezpieczeństwa AI:
„The Constitution does not allow the government to wield its enormous power to punish a company for its protected speech.”
Rzeczniczka Białego Domu Liz Huston odpowiedziała:
„Under the Trump Administration, our military will obey the United States Constitution, not any woke AI company’s terms of service.”
60 procent skuteczności. Czy to wystarczy?
Poza batalią prawną i polityczną zostaje problem techniczny, którego żadna ze stron nie kwestionuje.
Według wewnętrznych danych testowych Pentagonu z 2024 roku, cytowanych przez Tech Brew, Maven poprawnie identyfikował obiekty – odróżniając na przykład ciężarówkę od drzewa – w około 60% przypadków. Ludzcy analitycy w porównywalnych testach osiągali skuteczność rzędu 84%.
Dane mówią same za siebie:
- 60% – skuteczność Maven (AI) w identyfikacji obiektów podczas testów z 2024 roku
- 84% – skuteczność ludzkich analityków w tych samych warunkach
- 1000 – celów wygenerowanych przez Maven/Claude w pierwszych 24 godzinach operacji
- 20 – tylu analityków wykonuje dziś pracę, do której w 2003 roku potrzeba było 2000
Obrońcy technologii wskazują na wzrost efektywności. Krytycy odpowiadają, że skrócenie cyklu decyzyjnego i zmniejszenie liczby ludzi w procesie weryfikacji podnosi ryzyko błędów – takich jak ten w Minabie.
OpenAI wchodzi przez boczne drzwi
Kilka godzin po odcięciu Anthropic Pentagon podpisał nową umowę z OpenAI. Sam Altman zapewnił, że kontrakt zawiera zabezpieczenia przed autonomiczną bronią i masową inwigilacją – i zaapelował, żeby Pentagon oferował równoważne warunki wszystkim firmom AI. Byli pracownicy OpenAI publicznie skrytykowali umowę, zarzucając firmie, że stawia przychody z kontraktów wojskowych ponad zasadami bezpieczeństwa AI.
Schemat jest czytelny: komercyjna AI tworzona z myślą o konsumentach trafia przez firmy takie jak Palantir do sklasyfikowanych systemów wojskowych. Pytanie, czy ramy bezpieczeństwa negocjowane przed podpisaniem kontraktu wytrzymają presję rządu, który te same ramy publicznie nazywa zagrożeniem, przestało być akademickie. W Iranie jest to pytanie operacyjne. I odpowiedź na nie piszą się w czasie rzeczywistym.
