Caitlin Kalinowski, która stała na czele działu robotyki OpenAI, ogłosiła rezygnację ze stanowiska. Powodem jest kontrowersyjna umowa firmy z Departamentem Obrony USA, podpisana w ubiegłym tygodniu.
Kalinowski poinformowała o swojej decyzji w poście na LinkedIn, pisząc wprost: „This wasn’t an easy call. AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got.”
Jej odejście to cios wizerunkowy dla OpenAI, który przychodzi w i tak gorącym momencie. Firma zawarła z Pentagonem umowę, która pozwala na wykorzystanie jej technologii w środowiskach niejawnych, w tym potencjalnie w zastosowaniach militarnych. Sam Altman tłumaczył publicznie, że porozumienie zawiera techniczne zabezpieczenia i wyraźne „czerwone linie”: brak inwigilacji obywateli i brak autonomicznej broni bez nadzoru człowieka. Tylko że część pracowników po prostu mu nie wierzy.
Kalinowski zaznaczyła w kolejnym wpisie na X, że jej zarzut ma charakter proceduralny, nie ideologiczny:
To be clear, my issue is that the announcement was rushed without the guardrails defined. It's a governance concern first and foremost. These are too important for deals or announcements to be rushed.
— Caitlin Kalinowski (@kalinowski007) March 7, 2026
Jej słowa brzmią jak głos kogoś, kto nie jest przeciwny samej idei AI w obronności, ale ma poważne wątpliwości co do tempa i transparentności decyzji.
Jak do tego doszło?
Żeby zrozumieć tło, trzeba cofnąć się o kilka tygodni. Wcześniej to Anthropic negocjowało z Pentagonem podobną umowę, ale rozmowy się posypały, bo firma próbowała wynegocjować zapisy blokujące masową inwigilację i w pełni autonomiczną broń. Pentagon uznał Anthropic za ryzyko dla łańcucha dostaw, a OpenAI błyskawicznie weszło na zwolnione miejsce.
W efekcie:
- Anthropic walczy z designacją „supply chain risk” w sądzie
- Microsoft, Google i Amazon potwierdziły, że nadal udostępniają Claude klientom spoza sektora obronnego
- ChatGPT zanotował wzrost odinstalowań o 295% po ogłoszeniu umowy z Pentagonem
- Claude wspiął się na szczyt rankingu App Store w USA
Kalinowski dołączyła do OpenAI w listopadzie 2024 roku, przyszła z Mety, gdzie prowadziła zespół budujący okulary rozszerzonej rzeczywistości Orion. Niecały rok i a już odchodzi, bo czuje, że firma poszła za daleko, za szybko.
Komentarz redakcji
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rezygnacja Kalinowski jest symptomatyczna dla czegoś, co obserwuję w całej branży od miesięcy: rosnącej przepaści między ambicjami komercyjnymi firm AI a wartościami, które deklarują. Nie twierdzę, że AI nie powinna mieć miejsca w obronności, to byłoby naiwne. Państwa i tak będą rozwijać te zastosowania, z udziałem komercyjnych firm lub bez nich. Pytanie brzmi: kto ustala zasady i w jakim tempie? Kalinowski nie mówi „nie” dla AI w armii. Mówi „nie” dla pośpiechu. I to jest różnica, którą warto dostrzec. Z drugiej strony, OpenAI publicznie deklaruje zabezpieczenia, a umowę można interpretować jako próbę zachowania wpływu na to, jak technologia jest używana, zamiast oddać pole graczom bez żadnych skrupułów. Pytanie otwarte: czy firma, która sprzedaje usługi Pentagonowi, może jednocześnie wiarygodnie wyznaczać granice etyczne? Na to odpowiedzi nie ma.
Reputacja pęka pod ciśnieniem
Odejście Kalinowski to drugi wyraźny sygnał, że umowa z Pentagonem nie jest wewnątrz OpenAI sprawą zamkniętą. Firma wydała oświadczenie, w którym podtrzymuje swoją narrację: porozumienie „tworzy wykonalną ścieżkę dla odpowiedzialnego wykorzystania AI w celach bezpieczeństwa narodowego” i zawiera jasne granice dotyczące inwigilacji oraz autonomicznej broni.
Tylko że liczby mówią co innego. Prawie trzykrotny wzrost odinstalowań ChatGPT to sygnał, który trudno zignorować. Użytkownicy głosują nogami, a Anthropic zbiera tego owoce, notując rekordowe pozycje w App Store.
Kalinowski podkreśliła, że jej decyzja to kwestia zasad, nie ludzi, i że ma „deep respect” wobec Sama Altmana i reszty zespołu. Ale sama ta formuła, uprzejme pożegnanie z wyraźnym „ale”, mówi chyba więcej niż wszystkie oficjalne komunikaty OpenAI razem wzięte.
