Spór między Anthropic a administracją Trumpa o militarne zastosowania sztucznej inteligencji przybrał zaskakujący obrót – do sądu wkroczyli katoliccy teolodzy i etycy, składając oficjalny brief popierający twórców Claude’a. Debata o granicach AI w wojsku przestała być wyłącznie techniczna czy polityczna. Stała się teologiczna.
Tło konfliktu
Wszystko zaczęło się w lutym 2026 roku, kiedy Dario Amodei, CEO Anthropic, publicznie ogłosił, że firma nie odnowi kontraktu z Departamentem Obrony o wartości 200 milionów dolarów, jeśli Pentagon nie zgodzi się na dwa warunki. Po pierwsze, Claude nie może być używany do masowej inwigilacji obywateli USA. Po drugie, modele Anthropic nie mogą zasilać w pełni autonomicznych systemów broni – takich, w których żaden człowiek nie uczestniczy w procesie wyboru i atakowania celów.
Pentagon powiedział: nie.
Sekretarz obrony Pete Hegseth oznaczył Anthropic jako „ryzyko w łańcuchu dostaw” – etykietę do tej pory zarezerwowaną dla zagranicznych przeciwników, takich jak Huawei – skutecznie umieszczając firmę na czarnej liście kontraktów federalnych. Anthropic złożyło dwie skargi sądowe: jedną w Sądzie Okręgowym dla Północnego Okręgu Kalifornii i drugą w federalnym sądzie apelacyjnym w Waszyngtonie, zarzucając administracji Trumpa naruszenie praw wynikających z Pierwszej Poprawki oraz niewłaściwe zastosowanie oznaczenia „ryzyka łańcucha dostaw.”
Czternastu teologów wchodzi do sądu
Czternastu ekspertów i uczonych z dziedziny katolickiej teologii moralnej, filozofii i myśli społecznej złożyło brief amici curiae – „przyjaciół sądu” – po stronie Anthropic w jego procesie przeciwko Departamentowi Obrony. To rzadki, a może bezprecedensowy krok: akademicy kościelni angażują się bezpośrednio w spór korporacji z własnym rządem o etykę AI.
Autorami merytorycznego argumentu w briefie są cztery osoby: Charles Camosy, profesor teologii moralnej na Catholic University of America w Waszyngtonie; Joseph Vukov z Loyola University Chicago; Brian J.A. Boyd, teolog moralny; oraz Brian Patrick Green, wykładowca etyki na Graduate School of Engineering w Santa Clara University.
Ich stanowisko jest jednoznaczne. W kwestii autonomicznych systemów broni stwierdzają wprost, że „użycie broni kierowanej przez AI z definicji nie spełnia warunków jus in bello wymaganych, aby czyny wojenne były moralnie dozwolone w myśli katolickiej.”
Komentarz redaktora
To jeden z tych momentów, gdy warto zatrzymać się i dostrzec coś więcej niż tylko korporacyjny spór z rządem. Anthropic broni zasad – i to za cenę realnych pieniędzy. Jednocześnie nie możemy zapominać, że jesteśmy zdani wyłącznie na deklaracje firmy co do tego, jak rzeczywiście działa Claude w zastosowaniach wojskowych. Kto to weryfikuje? Czy etyczne granice nakreślone przez Amodeia przetrwają kolejnych CEO, kolejnych inwestorów, kolejne rundy finansowania? Kościół słusznie zadaje pytania o godność człowieka i odpowiedzialność moralną. Ale sam fakt, że to prywatna firma musi dziś pełnić rolę hamulca etycznego wobec supermocarstwa, powinien nas niepokoić bardziej niż jakikolwiek konkretny kontrakt.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Papież Leon XIV i Watykan po tej samej stronie
Angażowanie się Kościoła w te spory to nie przypadek. W swoim przesłaniu na 59. Światowy Dzień Pokoju papież Leon XIV ostrzegał, że militarne zastosowania AI „pogłębiły tragedię konfliktów zbrojnych” i że delegowanie „decyzji o życiu i śmierci” maszynom stanowi „bezprecedensową i destrukcyjną zdradę” zasad humanizmu, na których opiera się cywilizacja.
W styczniu 2025 roku Dykasteria Nauki Wiary i Dykasteria ds. Kultury i Edukacji opublikowały wspólnie dokument Antiqua et Nova – najbardziej kompleksowe do tej pory stanowisko Kościoła w sprawie AI. Dokument ostrzega, że technologie nadzoru oparte na AI zagrażają „granicom życia wewnętrznego osoby” i że używanie AI „do inwigilacji mającej na celu ograniczanie wolności innych lub korzyść nielicznych kosztem wielu jest nieuzasadnione.”
Przedstawiciel Stolicy Apostolskiej na konferencji rozbrojeniowej ONZ w Genewie w lutym 2026 roku wezwał explicite do moratorium na letalne autonomiczne systemy broni, ostrzegając, że gdy autonomiczna broń „staje się kombatantem”, zanika „wyjątkowa ludzka zdolność do moralnego osądu i etycznego podejmowania decyzji.”
Dwa zarzuty, dwa argumenty
Katoliccy uczeni w briefie szczegółowo odnoszą się do obu spornych kwestii:
- Masowa inwigilacja – teolodzy wskazują na nauczanie katolickie o prywatności i zasadzie pomocniczości, cytując wprost Katechizm: „Nikt nie jest zobowiązany do ujawniania prawdy temu, kto nie ma prawa jej znać.” Ostrzegają też, że „scentralizowana inwigilacja może być krokiem w kierunku totalitaryzmu, któremu Kościół absolutnie sprzeciwia się ze względu na zagrożenia dla godności człowieka.”
- Autonomiczne systemy broni – uczeni argumentują, że „letalne autonomiczne systemy broni w sposób problematyczny zaciemniają ludzką sprawczość, niebezpiecznie przesuwając odpowiedzialność z ludzi na maszyny” i że „przyspieszają już szybkie procesy decyzyjne wojska, być może do punktu eliminowania możliwości jakiegokolwiek zaangażowania człowieka.”
Co ważne: teolodzy zajmują stanowisko nawet twardsze niż Anthropic. Firma opiera swój sprzeciw na ocenie technicznej, że obecne systemy AI są niewystarczająco niezawodne. Uczeni katoliccy twierdzą natomiast, że nie zaakceptowaliby letalnych autonomicznych systemów broni nawet gdyby okazały się technicznie doskonałe.
Pentagon odpowiada
Rzecznik Pentagonu Sean Parnell w komentarzach w mediach społecznościowych stwierdził, że wojsko „nie ma zamiaru używać AI do masowej inwigilacji Amerykanów (co jest nielegalne), ani nie chce używać AI do rozwijania autonomicznych broni działających bez udziału człowieka.” Brzmi rozsądnie – ale to właśnie brak konkretnych gwarancji w tekście kontraktu był przyczyną zerwania negocjacji przez Anthropic.
Co dalej?
Jeśli Anthropic przegra intratny kontrakt z Departamentem Obrony w imię zasad, jest wysoce prawdopodobne, że inne firmy AI wypełnią tę lukę – bez żadnych podobnych skrupułów. To być może najważniejsze pytanie w całej tej sprawie: czy etyczna postawa jednej firmy cokolwiek zmienia, jeśli rynek natychmiast zastąpi ją mniej skrupulatnym konkurentem?
Spór Anthropic z Pentagonem to już nie tylko historia ze świata technologii. To jeden z pierwszych poważnych testów tego, gdzie naprawdę przebiega granica między cywilną kontrolą nad AI a militarnym imperatywem jej wdrożenia. I nagle okazuje się, że głos Kościoła katolickiego – z całym jego dorobkiem myśli o wojnie sprawiedliwej, godności człowieka i odpowiedzialności moralnej – jest w tej debacie nie tylko obecny, ale merytorycznie trafny.
