Stany Zjednoczone po raz pierwszy oficjalnie potwierdziły, że w trwającym konflikcie zbrojnym z Iranem wojsko korzysta z zaawansowanych narzędzi sztucznej inteligencji. Ogłoszenie padło z ust admirała Brada Coopera, dowódcy US Central Command (CENTCOM), i natychmiast wywołało falę pytań o granice etyczne stosowania AI w warunkach bojowych.
Cooper opublikował komunikat wideo, w którym stwierdził wprost: „Our war fighters are leveraging a variety of advanced AI tools. These systems help us sift through vast amounts of data in seconds so our leaders can cut through the noise and make smarter decisions faster than the enemy can react.”
Według admirała chodzi przede wszystkim o przetwarzanie ogromnych ilości danych wywiadowczych. Procesy, które wcześniej zajmowały godziny, a niekiedy całe dni, mają teraz trwać sekundy. Cooper zaznaczył też, że ostateczna decyzja o tym, co, kiedy i czy w ogóle zaatakować, zawsze pozostaje w rękach człowieka.
AI na wojnie – narzędzie czy ryzyko?
To rozróżnienie – AI jako wsparcie, nie autonomiczny decydent – brzmi uspokajająco. Ale warto zatrzymać się przy nim na chwilę dłużej.
– Rozumiem logikę wojskową stojącą za wdrożeniem AI do analizy danych wywiadowczych. Szybkość przetwarzania informacji może ratować życie własnych żołnierzy i ograniczać błędy wynikające z chaosu informacyjnego. Ale im bardziej skracamy pętlę decyzyjną, tym większa pokusa, by zaufać algorytmowi bardziej niż człowiekowi. Historia technologii wojskowej pokazuje, że „człowiek zawsze podejmuje ostateczną decyzję” to zdanie, które bardzo łatwo staje się formalnością. Powinniśmy zadać sobie pytanie: jak będziemy weryfikować, że ta zasada naprawdę działa w polu, a nie tylko na papierze? – mówi Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl.
Kontekst jest tu istotny. Kampania US-Israel trwa od 28 lutego i pochłonęła dotychczas ponad 1250 ofiar po stronie irańskiej. Irański Czerwony Półksiężyc podał, że bombardowania uszkodziły blisko 20 tysięcy budynków cywilnych oraz 77 placówek ochrony zdrowia.
Szkoła i 170 dzieci. Śledztwo w tle
Szczególnie głośno robi się w związku z jednym atakiem. W południowym Iranie zbombardowana została szkoła – zginęło ponad 170 osób, w zdecydowanej większości dzieci. Senatorowie USA zażądali niezależnego śledztwa w tej sprawie, nazywając atak „appalling”. Na razie bez konkretnych efektów.
Czy AI miało udział w tym tragicznym błędzie – lub celowym wyborze celu? Tego na razie nikt oficjalnie nie potwierdza.
Anthropic kontra Pentagon – sprawa nabiera kształtu
Ogłoszenie Coopera nie jest przypadkowe w czasie. Równolegle toczy się głośny spór między administracją Trumpa a firmą Anthropic – twórcą modeli Claude.
Pentagon miał kontrakt z Anthropic, ale firma postawiła twarde warunki: jej modele AI nie mogą być używane do w pełni autonomicznego prowadzenia broni ani do masowej inwigilacji. Administracja odpowiedziała, wpisując Anthropic na listę „supply chain risk”, co de facto odcięło firmę od współpracy z agencjami rządowymi.
Anthropic pozwało rząd federalny. Rzeczniczka Pentagonu Kingsley Wilson skomentowała to tak: „America’s warfighters supporting Operation Epic Fury and every mission worldwide will never be held hostage by unelected tech executives and Silicon Valley ideology. We will decide, we will dominate, and we will win.”
Mocne słowa. I bardzo znaczące, bo wskazują na kierunek, w którym administracja Trumpa chce pchać militarne AI – bez ograniczeń narzucanych przez sektor prywatny.
Precedens, który wykracza poza Iran
Przypomnijmy, że to nie pierwszy raz, gdy AI pojawia się w kontekście działań zbrojnych na Bliskim Wschodzie. Izrael podczas operacji w Gazie korzystał z systemów AI do tworzenia list celów. Tamte doniesienia wywołały międzynarodowe oburzenie i debatę o tym, gdzie kończy się „wspomaganie decyzji”, a zaczyna „automatyczne wyznaczanie ofiar”.
Najważniejsze pytania, które wyłaniają się z tej sytuacji:
- Kto i jak weryfikuje decyzje podejmowane przy wsparciu AI w warunkach bojowych?
- Czy istniejące prawo humanitarne nadąża za tempem wdrażania tych technologii?
- Jak ustalić odpowiedzialność za błędy wynikające z rekomendacji algorytmu?
- Czy sektor prywatny ma prawo – i obowiązek – narzucać etyczne ograniczenia wojsku?
Na żadne z tych pytań nie ma dziś satysfakcjonujących odpowiedzi. A konflikty, w których AI odgrywa coraz większą rolę, trwają.
