Kampania militarna administracji Trumpa w Iranie stała się czymś więcej niż kolejnym konfliktem zbrojnym. To pierwszy w historii przypadek, gdy wielkie modele językowe odgrywają udokumentowaną rolę w planowaniu działań wojennych na żywo. I to właśnie ta okoliczność każe zadać pytania, na które branża AI nie ma gotowych odpowiedzi.
Według doniesień „Wall Street Journal” oficerowie wojskowi sięgnęli po Claude’a od Anthropic w celu wsparcia decyzji dotyczących celów ataku, i to zaledwie kilka godzin po tym, jak administracja Trumpa wpisała tę firmę na czarną listę za odmowę udostępnienia swoich produktów do autonomicznej broni i masowej inwigilacji. „Washington Post” informuje z kolei, że hybryda modeli Anthropic i systemu Maven od Palantir jest zintegrowana z danymi Pentagonu, zamieniając „wielotygodniowe planowanie bitewne w operacje w czasie rzeczywistym”.
Brzmi jak scenariusz z powieści? Niestety nie.
Anthropic między młotem a kowadłem
Sekretarz obrony Pete Hegseth oficjalnie uznał Anthropic za ryzyko dla łańcucha dostaw. Trump nakazał agencjom federalnym zaprzestanie korzystania z produktów firmy. Wcześniej administracja groziła nawet uruchomieniem ustawy o produkcji obronnej, by zmusić Anthropic do współpracy, niezależnie od jakichkolwiek zastrzeżeń etycznych. Firma odwołuje się od tej decyzji i prowadzi rozmowy z Pentagonem.
To, co powiedział publicznie CEO Anthropic Dario Amodei, robi największe wrażenie: „Anthropic has much more in common with the Department of War than we have differences.”
Trudno o bardziej wymowne zdanie.
Komentarz: Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Ta sytuacja odsłania fundamentalne napięcie, które branża AI od lat zamiatała pod dywan. Firmy takie jak Anthropic budowały swój wizerunek na „odpowiedzialnym AI”, „alignment z wartościami ludzkimi” i podobnych frazach. Tymczasem okazuje się, że gdy państwo wywiera wystarczającą presję, ta architektura etyczna ugina się szybciej, niż ktokolwiek się spodziewał. Nie mówię, że Anthropic postąpił źle, bo sam nie wiem. Rząd ma swoje prerogatywy, a firmy działają w określonych warunkach prawnych. Ale warto zapytać wprost: czy „alignment” był kiedykolwiek czymś więcej niż strategią PR? I czy my, jako użytkownicy tych narzędzi, mieliśmy prawo sądzić, że po drugiej stronie stoi jakaś rzeczywista bariera moralna?
Język, który uśmierza sumienie
Analityk Eryk Salvaggio z Uniwersytetu Cambridge stawia w swoim tekście pytanie głębsze niż kwestia militarna: co robi z nami sam fakt, że przez LLM rozmawiamy o wojnie?
Sięga do George’a Orwella i jego eseju „Politics and the English Language”, gdzie Orwell argumentował, że polityczny język ma za zadanie zakryć polityczną przemoc. Kiedy bombardowanie wioski opisuje się jako „pacyfikację”, umysł nie przetwarza fizycznego wymiaru tego słowa. Model językowy działa analogicznie: zmuszony do abstrakcji przez swój projekt, nie mówi o konkretnych ciałach, tylko o „operacjach”, „celach”, „zdolnościach”.
Salvaggio wskazuje na kilka warstw tego problemu:
- LLM nie posiada sprawczości moralnej, a więc nie może mówić z moralnym autorytetem
- Modele trenowane na masowych danych komercyjnych wchłaniają kulturowe mity, które legitymizują wojnę
- Udzielanie „płynnych odpowiedzi” na pytania o przemoc to forma uśpienia sumienia użytkownika
- System nagradzający „dobre odczucia” nie jest zdolny do prawdziwego oporu wobec bezprawnych rozkazów
Wyraźnie to widać w eksperymencie, który przeprowadził Salvaggio: poprosił model o opis tego, co dzieje się z dziećmi, gdy spadają na nie bomby, bez eufemizmów i abstrakcji. Odpowiedź została natychmiast wycofana jako naruszenie polityki użytkowania.
Abstrahowanie jest wbudowane w samą architekturę tych systemów.
„Alignment” jako placebo
Socjolog Jacques Ellul pisał w 1962 roku, że masowa komunikacja wzmacnia przekonania już podzielane przez społeczeństwo, zamiast je kwestionować. Komunikaty zgodne z dominującymi założeniami kulturowymi rezonują. Te, które wprowadzają tarcie, są odrzucane. LLM trenowany na „szerokim przekroju wiadomości i tekstów komercyjnych” wchłania te założenia jak gąbka.
Salvaggio pisze wprost: pacyfistyczne AI jest praktycznie niemożliwe. Wymagałoby celowo dobranego korpusu treści, który nazywałby rzeczy po imieniu, stawiał opór abstrakcji i odmawiał komfortu łatwych odpowiedzi.
Zamiast tego dostajemy „moralny rozmaz” systemu zaprojektowanego tak, by wygładzać krawędzie.
Co z tego wynika dla nas
To, co dzieje się w Iranie, jest brutalne i realne. Dzieci giną w szkole. Ale debata o AI i wojnie wciąż skupia się głównie na tym, co modele mówią, a pomija pytanie o to, co robi medium.
Narzędzie, które sprawia, że myślenie o politycznej przemocy staje się łatwe i przyjemne, nie jest zdolne ani do odmowy wykonania nielegalnych rozkazów, ani do rzeczywistego angażowania sumień.
I właśnie w tym tkwi sedno. Nie w tym, że AI „popełnia zbrodnie wojenne”. Ale w tym, że ułatwia ludziom myślenie i mówienie o nich tak, jakby były czymś normalnym.
Tymczasem Hannah Arendt przypomina: demokracja i pokój wymagają czegoś innego. Pluralizmu. Deliberacji. Rozmowy twarzą w twarz, z całym towarzyszącym jej dyskomfortem.
Chatbot tego nie zastąpi.
