OpenAI pali mosty. Sam Altman w trybie zarządzania kryzysem, a użytkownicy masowo odchodzą do Claude’a
Decyzja Sama Altmana o podpisaniu umowy z Departamentem Obrony Stanów Zjednoczonych wywołała jeden z największych kryzysów wizerunkowych w historii OpenAI. Tysiące użytkowników ChatGPT rezygnuje z subskrypcji, Claude wspiął się na szczyt App Store, a sam Altman przyznaje, że cała sprawa „wygląda źle.”
Przypomnijmy, co się stało: w piątek, 28 lutego, OpenAI ogłosiło zawarcie porozumienia z Departamentem Obrony USA (przemianowanym przez administrację Trumpa na „Department of War”) dotyczącego wdrożenia systemów AI w strukturach wojskowych. Kontrakt jest kontrowersyjny z wielu powodów – ale najbardziej dlatego, że kilka dni wcześniej Anthropic odmówił podpisania podobnej umowy. Pentagon zażądał od twórców Claude’a nieograniczonego dostępu do modelu dla celów militarnych. Anthropic powiedział nie – nawet pod groźbą uznania firmy za „ryzyko dla łańcucha dostaw” i potencjalnego przejęcia jej technologii.
OpenAI idzie tam, gdzie Anthropic nie chciał
Różnica w postawach obu firm jest uderzająca. Dario Amodei postawił twarde warunki: Claude nie będzie używany do autonomicznego uzbrojenia ani masowej inwigilacji obywateli. OpenAI natomiast zawarło deal – choć Altman twierdzi, że umowa zawiera podobne ograniczenia, co te, których domagało się Anthropic.
Dla użytkowników nie miało to jednak znaczenia. Liczyło się samo faktu podpisania porozumienia.
Reddit eksplodował. Wątek w r/ChatGPT zatytułowany „You’re now training a war machine. Let’s see proof of cancellation” stał się jednym z najczęściej głosowanych postów w historii forum. W r/singularity pojawiły się wezwania do masowych rezygnacji i przejścia na Claude’a.
I ludzie faktycznie to zrobili. Claude w ciągu weekendu wspiął się na pierwsze miejsce w App Store, wyprzedzając ChatGPT – i utrzymał tę pozycję przynajmniej do poniedziałku. Wśród tych, którzy publicznie zapowiedzieli odejście z ChatGPT, znalazła się m.in. Katy Perry.
Altman na X: AMA, które bardziej zaszkodziło niż pomogło
W obliczu narastającej fali krytyki Altman zorganizował sesję pytań i odpowiedzi na platformie X. Respondenci nie owijali w bawełnę.
Jeden z użytkowników zapytał wprost:
„How did you go from 'a tool for the betterment of the human race’ to 'let’s work with the department of WAR’?”
Inny zadrwił pytając, czy Altman cieszy się, że Claude wyprzedził ChatGPT w App Store. Altman odpowiedział krótko: „No.”
Na pytanie, co OpenAI zrobi, gdyby Pentagon wydał rozkaz sprzeczny z Konstytucją lub próbował prowadzić masową inwigilację, szef firmy odparł, że odmówiłby wykonania takiego polecenia – nawet gdyby miało się to skończyć więzieniem. Na X pojawił się nawet jego komentarz:
If we were asked to do something unconstitutional or illegal, we will walk away. Please come visit me in jail if necessary.
— Sam Altman (@sama) March 1, 2026
Altman jednocześnie wyraził bezgraniczne zaufanie do wojska, twierdząc, że żołnierze „są bardziej przywiązani do Konstytucji niż przeciętny człowiek z ulicy” – i powołał się na zapewnienia urzędnika Pentagonu, że armia nigdy nie naruszy praw obywatelskich Amerykanów.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem zarówno decyzję Altmana, jak i gniew użytkowników. To nie jest czarno-biała sytuacja. Z jednej strony – wojsko to rzeczywisty klient, a kontrakt z Departamentem Obrony to ogromne pieniądze i wpływy. Z drugiej strony – OpenAI od lat budowało wizerunek firmy, która stawia bezpieczeństwo i dobro ludzkości ponad zysk. Teraz sam Altman przyznaje, że „optics don’t look good.” To zdumiewające przyznanie się do błędu – ale czy chodzi o błąd etyczny, czy tylko komunikacyjny? To jest właśnie pytanie, które powinni sobie zadać użytkownicy przed anulowaniem subskrypcji. Bo uwaga – doniesienia wskazują, że to właśnie Claude, model Anthropic, który miał „odmówić” współpracy z Pentagonem, był używany przez wojsko USA do wyboru celów w Iranie. Jeśli to prawda, to cały ten spektakl zasadniczych postaw może być po prostu lepiej wyreżyserowanym PR-em.
Kontekst, który wszystko komplikuje
I tu właśnie robi się naprawdę ciekawie – bo ta historia ma drugie dno.
Kilka godzin po tym, jak Altman ogłosił umowę z Pentagonem, USA i Izrael przeprowadziły serię ataków na Iran, w których zginęły setki cywilów, w tym irański przywódca Ruhollah Chomejni. Zbieżność czasowa była mordercza wizerunkowo. Ale jest jeszcze jedna warstwa: według doniesień medialnych Departament Obrony używał właśnie Claude’a do wyboru celów podczas tych uderzeń. Innymi słowy – Anthropic, który tak ostentacyjnie odmówił „nieograniczonej” współpracy z wojskiem, i tak skończył zaangażowany w decyzje militarne.
Czy to oznacza, że cały spór był teatrem? Że różnica między Altmanem a Amodeim sprowadza się do tego, kto lepiej zarządza narracją? Na to pytanie na razie nie ma jednoznacznej odpowiedzi.
Co jest pewne:
- Claude tymczasowo zdominował App Store, wyprzedzając ChatGPT
- Fala rezygnacji z ChatGPT jest realna i widoczna
- Sam Altman przyznał, że „the optics don’t look good” i że cały deal „was definitely rushed”
- Żadna z firm AI nie jest wolna od wojskowych zastosowań swoich modeli
Lekcja z kryzysu: zaufanie to kapitał, który spalił się w weekend
OpenAI zapłaciło wysoką cenę za komunikacyjną wpadkę, bo to właśnie tak należy czytać działania Altmana. Nie zadeklarował otwarcie, że chce pomagać wojsku budować broń – wręcz przeciwnie, próbował przekonać, że jego umowa jest tak samo restrykcyjna jak stanowisko Anthropic. Ale przekaz się nie przebił. Timing był fatalny, AMA na X zamiast gasić pożar, dolało oliwy.
Rynek reaguje emocjami, szczególnie gdy w grę wchodzi etyka. A użytkownicy ChatGPT – wielu z nich to osoby, które świadomie wybrały tę usługę z powodów ideowych – poczuli się zdradzeni.
Altman będzie musiał teraz zdecydować, czy dalej będzie balansował między apelami do sumień a wymogami biznesowymi Pentagonu. Bo jedno i drugie jednocześnie – jak pokazał weekend – zwyczajnie nie działa.
