Roczny budżet AI Ubera wyczerpał się już na początku 2026 roku. Główny winowajca? Claude Code od Anthropic, z którego inżynierowie firmy korzystają tak intensywnie, że planiści finansowi dosłownie nie nadążyli za popytem.
To rzadki moment szczerości ze strony dyrektora technologicznego dużej korporacji. Praveen Neppalli Naga, CTO Ubera, powiedział wprost w rozmowie z The Information: „I’m back to the drawing board, because the budget I thought I would need is blown away already” / „Wróciłem do punktu wyjścia, bo budżet, który zakładałem, już dawno przestał istnieć.”
Jak Uber wpadł w pułapkę własnego sukcesu?
Historia tego przepalenia środków jest równocześnie opowieścią o tym, jak głęboko AI zdążył wniknąć w codzienną pracę inżynierów jednej z największych platform technologicznych na świecie.
Uber zaczął masowo wdrażać Claude Code mniej więcej rok temu. Nie odgórnie, lecz oddolnie. Jeden inżynier z działu platform zbudował w październiku 2024 roku wewnętrzny „marketplace” z dwoma narzędziami opartymi na modelu Anthropic. Dziś w tym samym repozytorium działa ponad 500 wyspecjalizowanych umiejętności (skills) obsługujących wszystko: od przeglądów kodu, przez testy mobilne, po monitoring produkcyjny. Co ważne, dziś jeden na dziewięć gotowych do wdrożenia commitów w Uberze pochodzi od agentów AI, podczas gdy kilka miesięcy wcześniej było to mniej niż 1%.
Adoptacja narzędzia wyglądała imponująco. Budżet niestety za nią nie nadążył.
Tokenowe pole minowe
Skąd biorą się tak kosmiczne koszty? Odpowiedź tkwi w architekturze rozliczania Claude Code.
Narzędzie działa w trybie agentycznym, co oznacza, że każde bardziej złożone zadanie kodowania generuje ogromne ilości tokenów:
- Jedno żądanie kodowania w trybie agentycznym to od 30 do 80 tysięcy tokenów wejściowych
- Tryb „extended thinking” (głębokie rozumowanie) jest domyślnie włączony i może generować dziesiątki tysięcy dodatkowych tokenów per zapytanie
- Każdy plik CLAUDE.md ładowany do kontekstu sesji „kosztuje” tokeny nawet przy zadaniach, które go nie potrzebują
- Anthropic rozlicza tokeny „myślące” jak tokeny wyjściowe, co oznacza stawkę 15 dolarów za milion
Gdy inżynierów korzystających z narzędzia masz setki lub tysiące, matematyka robi się brutalna szybciej niż ktokolwiek się spodziewa.
Widzę tu pewną ironię. Narzędzia AI mają nam oszczędzać czas i pieniądze, tymczasem Uber pokazuje, że równie dobrze mogą generować koszty szybciej niż jakikolwiek model finansowy był w stanie przewidzieć. To nie znaczy, że Claude Code jest złym narzędziem. Oznacza raczej, że firmy wciąż uczą się, jak je prawidłowo wycenić i nadzorować. Pytanie, które powinien zadać każdy CTO, brzmi: czy mamy odpowiednie mechanizmy kontroli zużycia, zanim podpiszemy enterprise’owy kontrakt na kolejny rok? Bo odkrycie tego dopiero w czwartym kwartale może być bolesne.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
„Tokenmaxxing” nie zwiększył marż operacyjnych
Reakcja rynku na wyznanie Nagi była natychmiastowa. Chamath Palihapitiya, inwestor z Doliny Krzemowej, skomentował na platformie X bez ogródek:
„ummm so tokenmaxxing didn’t increase operating margins?!?!? of course it didn’t. its just that the cto of uber had the courage to say the quiet part out loud.”
Ed Zitron, krytyk technologiczny, poszedł o krok dalej i zauważył, że Neppalli Naga odmówił podania konkretnych kwot wydanych na tokeny. Według Zitrona to „początek epoki, w której organizacje zaczną przyznawać, że AI jest gigantycznym pożeraczem zasobów.”
Nikt nie mówił, że będzie za darmo
Kłopot polega na tym, że subsydiowane ceny subskrypcji Claude Max (200 dolarów miesięcznie) czy Cursor Pro (20 dolarów) stwarzają złudzenie niskich kosztów. W rzeczywistości model rozliczeń za tokeny w użyciu agentycznym potrafi generować koszty na poziomie pracownika etatowego – miesięcznie, na jednego aktywnego inżyniera.
Prawdziwe TCO (total cost of ownership) narzędzi AI do kodowania składa się z kilku warstw, które firmy zwykle ignorują na etapie budżetowania:
- koszty API / subskrypcji (30–40% całości)
- czas człowieka na weryfikację wygenerowanego kodu (20–30%)
- debugowanie i korekcja błędów (10–20%)
- infrastruktura monitoringowa (5–10%)
- ryzyko migracji do innego dostawcy (5–15%)
Uber wpadł w tę pułapkę. Prawdopodobnie nie jako ostatni.
Co teraz?
Neppalli Naga nie zdradził ani konkretnych liczb, ani tego, co Uber planuje zrobić z nadwyrężonym budżetem. Możliwości są kilka: renegocjacja warunków z Anthropic, wprowadzenie limitów zużycia per inżynier, sięgnięcie po tańsze modele do mniej wymagających zadań. Być może kombinacja wszystkich trzech.
To, co zrobił CTO Ubera, przyznając publicznie, że roczny budżet AI wyczerpał się w kilka miesięcy, jest jednak ważniejsze niż sama anegdota finansowa. To sygnał dla całej branży: czas budżetowania AI na podstawie pilotażowych kosztów i entuzjastycznych pitch decków właśnie dobiegł końca. Zaczyna się era poważnego zarządzania kosztami.
I to, wbrew pozorom, jest dobra wiadomość.
