Konferencja deweloperska AIPCon 9 Palantira w Maryland była czymś więcej niż prezentacją nowych funkcji platformy. Była manifestem. CEO Alex Karp jasno ogłosił, że jego firma nie zamierza przepraszać za budowanie AI dla wojska – i ostrzegł Silicon Valley przed konsekwencjami odwrócenia się od Pentagonu.
AIPCon 9: więcej niż konferencja techniczna
Ponad 70 klientów Palantira wzięło udział w konferencji, prezentując na scenie, jak integrują narzędzia AI firmy we własnych operacjach. Byli tam przedstawiciele United Airlines, Lear, Wendy’s – ale prawdziwym centrum uwagi nie był żaden z nich. Był nim Karp, który wyszedł na scenę z komunikatem trafiającym prosto w twarz całej branży.
„What makes America special right now is our lethal capabilities, our ability to fight war” – powiedział Karp podczas konferencji. Dodał też, że rewolucja AI jest „uniquely American” i że właśnie ta przewaga powinna decydować o globalnym układzie sił.
To nie jest język typowego CEO spółki technologicznej. To język człowieka, który od lat robi to, co robi, i nie zamierza tego zmieniać.
Project Maven i konflikt na Bliskim Wschodzie
Palantir od dawna jest znany z kontraktów z wojskiem, ale ostatnie tygodnie przyniosły nowy poziom zaangażowania. Departament Obrony USA ujawnił pięcioletni kontrakt z firmą o wartości 480 milionów dolarów na rozwijanie systemu Maven – platformy AI do wsparcia działań bojowych, identyfikacji celów i analizy danych wywiadowczych w czasie rzeczywistym.
Karp na konferencji nawiązał do roli Palantira w koordynowaniu danych bojowych między USA a partnerami na Bliskim Wschodzie, którzy padli ofiarą irańskich ataków. Zapytany wprost, czy Project Maven był zaangażowany w operację, w której zginął irański Najwyższy Przywódca Ajatollah Ali Chamenei, nie potwierdził, ale też nie zaprzeczył.
„I have read that Palantir’s Project Maven is the core backbone of that” – powiedział, mówiąc ogólnie o zaangażowaniu USA na Bliskim Wschodzie.
Palantir twierdzi, że jego systemy potrafią:
- łączyć dane bojowe z różnych źródeł w czasie rzeczywistym
- koordynować działania między różnymi rodzajami sił zbrojnych
- przekształcać przestarzałe systemy wojskowe w zintegrowane, nowoczesne sieci
- skracać czas od analizy do decyzji operacyjnej
Karp kontra Anthropic – i reszta Doliny Krzemowej
Równolegle z konferencją rozgorzał spór, w którym Palantir znalazł się dokładnie w środku. Anthropic i Departament Obrony od tygodni toczą bój o warunki, na jakich wojsko może korzystać z modeli Claude. Pentagon chce możliwości użycia AI do „wszystkich zgodnych z prawem celów”, Anthropic odmawia zgody na usunięcie zabezpieczeń chroniących przed użyciem modeli do masowej inwigilacji obywateli USA czy w pełni autonomicznej broni.
Rzecz w tym, że Palantir jest głównym kanałem, przez który Departament Obrony w ogóle korzysta z Claude. Jak sam Karp przyznał Fortune: „It’s our stack that runs the LLMs.”
Karp nie przebierał w słowach, gdy oceniał postawę firm odmawiających współpracy z Pentagonem. Na szczycie a16z American Dynamism powiedział: „If Silicon Valley believes we are going to take away everyone’s white-collar job… and you’re gonna screw the military—if you don’t think that’s gonna lead to nationalization of our technology, you’re retarded.”
Twarde? Tak. Ale argument za tym stojący jest całkiem realny – Palantir mógłby stracić dostęp do Claude Opus w krytycznym momencie, gdyby Anthropic trafił na czarną listę Pentagonu, co zmusiłoby firmę do kosztownej i ryzykownej zmiany modeli w trakcie trwania kontraktów.
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Karp ma rację w jednym: jeśli Chiny, Rosja i Iran budują AI wojskowe – i budują – to zachodni sojusznicy nie mogą pozwolić sobie na jednostronne rozbrojenie. To nie jest opinia, to jest fakt geopolityczny.
Ale jest druga strona tej monety. Palantir przez lata był atakowany za pomoc agencjom rządowym w inwigilacji cywilów. ICE, CIA, kontraktorzy wywiadu – lista jest długa. Deklaracje Karpa o „braku planów inwigilacji własnych obywateli” brzmią dobrze w wywiadzie dla Fortune, ale historia pokazuje, że technologie budowane dla celów wojskowych rzadko pozostają wyłącznie w tej szufladzie.
Pytanie, które naprawdę mnie interesuje: kto i w jaki sposób kontroluje te systemy, gdy już działają? Kto decyduje, kiedy algorytm identyfikuje cel? I czy te decyzje kiedykolwiek będą podlegać jakiemukolwiek niezależnemu nadzorowi?
Karp mówi, że Silicon Valley powinno samo narzucić sobie zasady. Brzmi rozsądnie. Ale samoregulacja działa wtedy, gdy nie ma się 480 milionów dolarów w kieszeni i rosnącego parcia ze strony rządów, żeby iść dalej. Obserwuję to uważnie.
Inwigilacja domowa? Karp mówi: to inna bajka
Palantir od lat odpiera zarzuty o pomaganie rządom w śledzeniu własnych obywateli. Karp zapewnia, że Pentagon nie używa ich produktów do masowej inwigilacji Amerykanów i nie planuje tego robić.
„Without commenting on internal dialogs, there was never a sense that these products would be used domestically” – powiedział w rozmowie z Fortune. „The Department of War is not planning to use these products domestically. That’s a completely different kettle of fish.”
Firma wcześnie powołała wewnętrzny zespół „Privacy and Civil Liberties”, złożony z inżynierów, prawników, filozofów i socjologów, który miał dbać o to, żeby produkty Palantira były używane odpowiedzialnie. Działała też wewnętrzna linia etyczna dla pracowników.
Organizacje broniące praw obywatelskich nadal mają inne zdanie. Współpraca Palantira z ICE – zapoczątkowana jeszcze za administracji Obamy, a eskalująca przy Trumpie – pozostaje otwartą raną.
Wyniki rosną, kontrowersje też
Trudno ignorować liczby. Przychody Palantira w czwartym kwartale 2025 roku wzrosły o 70 procent, a segment komercyjny w USA skoczył o 137 procent. Akcje firmy zyskały ponad 84 procent w ciągu ostatnich dwunastu miesięcy.
Karp jest przekonany, że to dopiero początek. Na konferencji podkreślał, że jeśli produkty Palantira umożliwią bardziej precyzyjne operacje z jasnymi celami, to firma może rosnąć daleko poza zastępowanie starego oprogramowania wojskowego – aż do wsparcia misji, które wcześniej były uznawane za zbyt ryzykowne.
„America is the center of the AI revolution” – stwierdził na AIPCon 9.
Nie ma tu miejsca na skromność. I może właśnie o to chodzi.
