Pod koniec lutego 2026 roku Claude zrobił coś, czego nikt się nie spodziewał: wspiął się na pierwsze miejsce w rankingu bezpłatnych aplikacji w amerykańskim App Store, wyprzedzając ChatGPT. Wszystko zaczęło się od sporu z Pentagonem, który miał zniszczyć Anthropic, a skończyło się najlepszym tygodniem w historii firmy.
Jeszcze na koniec stycznia aplikacja Claude znajdowała się poza top 100 w amerykańskim sklepie Apple’a. Przez większość lutego utrzymywała się gdzieś w okolicach pierwszej dwudziestki, bez specjalnego rozgłosu. Potem ruszyła lawina.
W środę 25 lutego Claude był na szóstym miejscu. W czwartek na czwartym. W sobotę wieczorem przesunął na pierwsze, a dane Sensor Tower pokazują, że pozycja ta utrzymywała się jeszcze w niedzielny poranek. Kiedy artykuł był aktualizowany, Claude zajmował numer dwa, tuż za ChatGPT, z Google Gemini na trzecim miejscu.
Czym tak naprawdę rozzłościł Anthropic Pentagon?
Sedno sporu to kontrakt warty do 200 milionów dolarów, który Departament Obrony zawarł z Anthropic jeszcze w 2024 roku. Pentagon zażądał dostępu do modeli Claude’a „do wszystkich legalnych celów” bez wyjątków. Anthropic odmówiło ustępstw w dwóch kwestiach: masowego nadzoru obywateli USA oraz w pełni autonomicznej broni.
Firma argumentowała to wprost:
„First, we do not believe that today’s frontier AI models are reliable enough to be used in fully autonomous weapons. Allowing current models to be used in this way would endanger America’s warfighters and civilians.”
Departament wyznaczył deadline: 5:01 PM czasu wschodniego w piątek. Godzinę wcześniej prezydent Trump nakazał federalnym agencjom zaprzestanie korzystania ze wszystkich produktów Anthropic.
Efekt? Żaden wykonawca wojskowy, dostawca ani partner Pentagonu nie może prowadzić żadnej działalności handlowej z Anthropic. Firma dostała sześć miesięcy na „płynne przejście do lepszej i bardziej patriotycznej usługi.”
Dario Amodei nie zamierzał kapitulować
CEO Anthropic wydał oświadczenie, które nie pozostawiało złudzeń co do jego stanowiska: „It is the Department’s prerogative to select contractors most aligned with their vision. But given the substantial value that Anthropic’s technology provides to our armed forces, we hope they reconsider.”
Spokojne, eleganckie. I niezmienione.
Tymczasem OpenAI błyskawicznie ogłosiło własną umowę z Pentagonem. Sam Altman zapewnił, że kontrakt zawiera zabezpieczenia dotyczące inwigilacji i autonomicznej broni, choć szczegóły pozostają niejasne. Trudno oprzeć się wrażeniu, że OpenAI skorzystało na całym zamieszaniu dwukrotnie: raz wizerunkowo, deklarując podobne zasady co Anthropic, i raz biznesowo, przejmując kontrakt, którego tamci nie chcieli podpisać za każdą cenę.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
„To jeden z tych momentów, które zmuszają do poważnej refleksji. Z jednej strony Anthropic zachowało się po ludzku uczciwie – nie sprzedało swoich zasad za rządowy kontrakt. To trzeba docenić. Z drugiej strony mamy tu do czynienia z bardzo poważnym pytaniem: czy firma AI może stawiać granice władzy wykonawczej państwa, które jest jednocześnie jej największym potencjalnym klientem? I co ważniejsze – kto ma rację, jeśli chodzi o ryzyko autonomicznych systemów bojowych? Anthropic mówi, że dzisiejsze modele są za mało wiarygodne. Pentagon twierdzi, że nie zamierza ich tak używać. Obaj mogą mieć rację. Obaj mogą się mylić. Pytanie brzmi: komu ufamy, że nie przekroczy tej granicy, gdy nikt nie patrzy?”
Skandal jako najlepsza kampania marketingowa
Rzecznik Anthropic podał liczby, które robią wrażenie. W tygodniu afery:
- liczba dziennych rejestracji biła rekordy wszechczasów każdego dnia
- liczba bezpłatnych użytkowników wzrosła o ponad 60% od stycznia
- liczba płatnych subskrybentów podwoiła się od początku roku
Do tego dorzucił się popkulturowy akcent: Katy Perry opublikowała na swoich mediach społecznościowych screenshot subskrypcji Claude Pro z nałożonym sercem. Trudno o lepszy darmowy influencer marketing.
Co z tego wynika dla rynku?
Sprawa Anthropic odsłoniła kilka rzeczy jednocześnie. Po pierwsze, firmy AI coraz częściej będą stawać przed dylematami, które wykraczają daleko poza technologię. Po drugie, pozycja etyczna może stać się realnym wyróżnikiem rynkowym, nie tylko deklaracją w dokumencie „o nas”. Po trzecie, kontroversia może generować ruch i zainteresowanie szybciej niż jakikolwiek launch kampania.
Ale jest też drugą strona medalu, o której warto pamiętać. Rankingi App Store są zmienne jak pogoda. Spike popularności nie oznacza retencji. Pytanie, ile z tych nowych użytkowników zostanie z Claude za miesiąc, a ile po prostu zaspokoiło ciekawość i wróciło do ChatGPT.
Anthropic ma silne plecy – Amazon zainwestował do 4 miliardów dolarów i oferuje Claude przez swój ekosystem chmurowy. To daje firmie stabilność niezależnie od tego, co dzieje się z rządowymi kontraktami. Ale utrata Pentagonu to nadal duży finansowy cios, który będzie odczuwalny.
Jedna rzecz jest pewna: tydzień, który zaczął się od groźby bankructwa kontraktu wartego 200 milionów, skończył się jako najlepsza reklama, jaką Anthropic mogło sobie wymarzyć. Nie każdy potrafi zamienić kryzys w momentum. Tym razem się udało.
