Przez lata Nvidia rosła właściwie bez hamulców – z niszowego producenta kart graficznych do najcenniejszej firmy na świecie. Teraz, w 2026 roku, po raz pierwszy rynek zaczyna zadawać trudne pytania.
Jeszcze rok temu mówienie o „zagrożeniu dla Nvidii” brzmiało jak fanaberia analityków szukających kontrowersji. Dziś to poważna rozmowa – toczona w salach zarządów największych firm technologicznych, gabinetach regulatorów w USA i UE, i oczywiście na Wall Street.
Twierdza, której nie widać końca
Nvidia kontroluje dziś około 80–90% rynku układów AI wysokiej klasy i około 85–90% całego rynku, a jej pozycję wzmacnia ekosystem zbudowany wokół stosu oprogramowania CUDA i technologii NVLink. To nie jest przewaga – to moat, przepaść, która sprawia, że przejście na konkurencyjne rozwiązania jest dla większości firm po prostu zbyt kosztowne.
Goldman Sachs szacuje, że Nvidia wygeneruje w 2026 roku ponad 383 miliardy dolarów ze sprzedaży układów GPU i sprzętu. Dla porównania: cały budżet obronny Niemiec w 2025 roku wyniósł niespełna 100 miliardów euro.
Finansowo też nie ma na co narzekać. Firma projektuje przychody na rok fiskalny 2026 na poziomie 213 miliardów dolarów, co oznacza wzrost o 63% rok do roku, przy marżach brutto utrzymujących się w okolicach 73–75%.
Kiedy klient staje się konkurentem
I tu zaczyna się ciekawa część.
Alphabet, Amazon, Microsoft i Meta odpowiadają za ponad 40% przychodów Nvidii – ale każda z tych firm intensywnie inwestuje jednocześnie we własne projekty układów scalonych, żeby uniezależnić się od drogiego sprzętu Nvidii. Przy cenach pojedynczych GPU przekraczających 30 tysięcy dolarów, logika budowania własnych rozwiązań na skalę hiperscalerów jest wyjątkowo prosta.
Google’s latest AI model, Gemini 3, was trained without Nvidia’s technology. To zdanie, które jeszcze dwa lata temu byłoby nie do pomyślenia, dziś brzmi jak ostrzeżenie.
„Największy klient Nvidii jest jednocześnie jej największym zagrożeniem strukturalnym. I nie chodzi tylko o Google.” – Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Nie twierdzę, że Nvidia upada. Absolutnie nie. Ale obserwuję ten rynek od lat i po raz pierwszy widzę realną konwergencję kilku trendów naraz – własne chipy hiperscalerów, rosnące możliwości AMD, regulacje antymonopolowe i wyzwania geopolityczne. To jest nowy układ sił. Każdy z tych czynników z osobna byłby do zarządzania. Razem? Pytanie otwarte.
AMD, Broadcom i inne głosy w chórze
Konkurencja nie śpi. AMD planuje wprowadzenie nowego flagowego serwera AI, a Google zabezpieczyło kontrakt na dostarczanie własnych układów dla Anthropic i prowadzi rozmowy z Meta Platforms.
Broadcom przyjmuje inne podejście – zamiast tworzyć ogólne GPU, partneruje bezpośrednio z hiperscalerami przy budowie dedykowanych akceleratorów AI. W czwartym kwartale przychody firmy z segmentu półprzewodników AI wzrosły o 74% rok do roku. Szybciej niż sam Nvidia.
Gdzie konkretnie Nvidia odczuwa presję? Głównie w obszarze inference – czyli wnioskowania, już po treningu modeli. To właśnie tutaj:
- własne chipy hiperscalerów (TPU Google’a, Trainium Amazona) są najskuteczniejszą alternatywą
- AMD ze swoimi układami MI300 i MI350 zyskuje realny udział w rynku
- Broadcom z niestandardowymi ASIC-ami rośnie szybciej niż cały segment GPU
Inference stanowi szacunkowo 80% długoterminowego zapotrzebowania na obliczenia AI. Kto zdominuje inference, zdominuje rynek.
Rubin na horyzoncie
Nvidia oczywiście nie stoi w miejscu. Nowa platforma Vera Rubin, zapowiedziana na drugą połowę 2026 roku, ma być pięciokrotnie wydajniejsza niż poprzednia generacja. Architektura Rubin jest projektowana z myślą o modelach AI wymagających większej pojemności pamięci i dłuższego kontekstu – obszaru, gdzie Nvidia chce utrzymać przewagę.
Technologia NVLink 6 pozwala dziesiątkom tysięcy GPU działać jak jeden masywny komputer, co skutecznie przekształca centrum danych w nową jednostkę obliczeniową.
To imponujące. Ale rodzi też pytanie: czy kolejna generacja sprzętu wystarczy, gdy klienci uczą się, że da się bez niej żyć?
Chiny, regulatorzy i inne komplikacje
Równolegle Nvidia musi żonglować kilkoma trudnymi frontami naraz. W ramach porozumienia z rządem USA 25% przychodów Nvidii z chińskiej sprzedaży układów H200 trafia bezpośrednio do budżetu federalnego.
Trwają też dochodzenia antymonopolowe ze strony Departamentu Sprawiedliwości USA i Unii Europejskiej, dotyczące praktyk bundlowania chipów z oprogramowaniem sieciowym przez Nvidię. CUDA, która przez lata była kluczem do dominacji, staje się jednocześnie przedmiotem regulacyjnej lupki.
Co dalej?
Nvidia wciąż jest i długo pozostanie niezastąpionym centrum ekosystemu AI. Wydatki kapitałowe czterech największych hiperscalerów mają w 2026 roku przekroczyć łącznie 400 miliardów dolarów – z czego znaczna część trafi na infrastrukturę AI, a więc w dużej mierze do Nvidii.
Ale era bezwarunkowej dominacji bez pytań o cenę i alternatywy definitywnie się kończy. Rynek akcji zresztą to wyczuwa – kurs Nvidii spadł o 8% od szczytu z końca października, co przy skali poprzednich wzrostów jest sygnałem zmiany nastrojów, a nie końca historii.
Pytanie, które zadaje sobie teraz cały rynek brzmi nie „czy Nvidia przetrwa?”, ale „jak bardzo skurczy się jej udział i kiedy?”. A na to nikt – włącznie z Jensenem Huangiem – nie zna jeszcze odpowiedzi.
