NVIDIA właśnie pokazała, że termin „konferencja technologiczna” już jej nie wystarcza. GTC 2026 w San Jose to było coś bliższego manifestowi: kompletna wizja tego, jak sztuczna inteligencja ma przepisać gospodarkę, przemysł i naukę w ciągu najbliższych kilku lat.
Jensen Huang wyszedł na scenę SAP Center przy akompaniamencie owacji tłumu, który wypełnił halę do ostatniego miejsca. I przez kilka godzin nie dał mu odetchnąć.
https://blogs.nvidia.com/blog/gtc-2026-news/
Vera Rubin, Feynman i kosmiczna ekspansja
Huang zaczął od tego, czym NVIDIA jest u podstaw: CUDA skończyła właśnie 20 lat. Nazwał ją „kołem zamachowym” całej firmy, platformą, która „wspiera każdą fazę cyklu życia AI”. Ale szybko przeszedł do przyszłości.
Nowa platforma obliczeniowa, NVIDIA Vera Rubin, to siedem układów scalonych, pięć systemów rack-scale i jeden superkomputer zaprojektowany pod kątem agentycznej AI. Do tego nowy procesor NVIDIA Vera CPU i architektura pamięci masowej BlueField-4 STX. Huang mówił o tym w kategoriach pełnej integracji pionowej: „When we think Vera Rubin, we think the entire system, vertically integrated, complete with software, extended end to end, optimized as one giant system.”
Kolejna generacja po Vera Rubin to platforma Feynman. Jej centrum ma być procesor NVIDIA Rosa, nazwany na cześć Rosalind Franklin, której krystalografia rentgenowska ujawniła strukturę DNA. Feynman łączy nowy procesor LPU o oznaczeniu LP40, sieciowanie BlueField-5 i CX10 oraz połączenia miedziane i fotoniczne przez NVIDIA Kyber.
A potem Huang powiedział coś, czego chyba nikt do końca się nie spodziewał: NVIDIA idzie w kosmos. Przyszłe systemy w stylu NVIDIA Space-1 Vera Rubin mają przenieść centra danych AI na orbitę. To nie jest żart, choć brzmi jak science fiction.
OpenClaw, NemoClaw i era agentów
Centralnym punktem keynote’u okazał się projekt, o którym jeszcze kilka tygodni temu nie wiedziała większość branży. OpenClaw to open source’owy framework do budowania autonomicznych agentów AI, stworzony przez niezależnego dewelopera Petera Steinbergera. Huang nazwał go wprost „najpopularniejszym projektem open source w historii ludzkości” i powiedział, że w pierwszym tygodniu odwiedziły go ponad 2 miliony osób, a projekt przekroczył 100 tysięcy gwiazdek na GitHubie.
NVIDIA ogłosiła pełne wsparcie dla OpenClaw w swojej infrastrukturze. Równolegle zaprezentowała NemoClaw, otwarty stack do bezpiecznego uruchamiania długoterminowych agentów oraz OpenShell, runtime definiujący, jak agenty mają dostęp do danych i narzędzi wewnątrz firmy.
Obserwuję ten ruch z dużym zainteresowaniem, ale też z pewnym dystansem. OpenClaw i cała koncepcja „always-on agents” to coś więcej niż kolejna nowość – to zmiana modelu pracy z AI. Agent, który działa w tle, ma dostęp do naszych plików, kalendarzy i aplikacji, potrafi sam pisać kod i tworzyć podzadania… to potężne narzędzie. Ale właśnie dlatego warto zatrzymać się przy pytaniu o kontrolę: kto nad nim sprawuje nadzór? Co się dzieje, gdy agent podejmuje błędną decyzję autonomicznie? NVIDIA stara się odpowiedzieć na to przez OpenShell i polityki dostępu, jednak szczegóły będą decydować o tym, czy przedsiębiorstwa rzeczywiście zaufają tym systemom w środowiskach produkcyjnych. Widzę tu ogromny potencjał i równie realną potrzebę ostrożności.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Huang skomentował to prosto: „Every single company in the world today has to have an OpenClaw strategy.”
DGX Station i Spark: superkomputer przy biurku
NVIDIA ogłosiła też, że pierwsze egzemplarze DGX Station GB300 trafiły do rąk deweloperów. Pierwszy system, wyprodukowany przez Dell Technologies jako Dell Pro Max with GB300, trafił 6 marca do Andreja Karpathy’ego w Palo Alto. Karpathy był jednym z założycieli i badaczy OpenAI w latach 2015-2017.
DGX Station dysponuje 748 GB zunifikowanej pamięci i oferuje do 20 petaflopsów wydajności FP4. Uruchamia modele do biliona parametrów. Obsługiwane modele to między innymi OpenAI gpt-oss-120b, Google Gemma 3, Qwen3, DeepSeek V3.2 i NVIDIA Nemotron.
DGX Spark z kolei można teraz klastrować do czterech jednostek, tworząc coś w rodzaju „biurkowego centrum danych” ze zbliżonym liniowo skalowaniem wydajności.
Firmy wdrażają te systemy już nie tylko do eksperymentów:
- instytucje finansowe przyspieszają modelowanie ryzyka
- badacze z sektora ochrony zdrowia skracają czas odkryć
- firmy energetyczne optymalizują operacje
- media i telekomunikacja budują pipeline’y produkcji treści w czasie rzeczywistym
Physical AI wychodzi z laboratorium
NVIDIA rozszerzyła platformę dla fizycznej AI o nowych partnerów. W segmencie automotive do grona producentów dołączyły BYD, Hyundai, Nissan i Geely. Uber będzie wdrażał pojazdy autonomiczne w swojej sieci ride-hailingu.
W przemyśle NVIDIA współpracuje z ABB, Universal Robots i KUKA przy integracji modeli fizycznej AI i narzędzi do symulacji. T-Mobile planuje transformację stacji bazowych w platformy edge AI.
Premierę miał też IGX Thor, przemysłowy komputer brzegowy do wdrożeń wymagających bezpieczeństwa funkcjonalnego. Adopcja jest szeroka:
- Caterpillar buduje asystenta AI do kabin maszyn
- Hitachi Rail wdraża predykcyjne utrzymanie sieci kolejowych
- Johnson & Johnson zasila platformę chirurgiczną Polyphonic
- Planet Labs przetwarza dane satelitarne na orbicie
- CERN uruchamia zaawansowane modele fizyczne dla potrzeb badawczych
Nauka, zdrowie i największa baza białek na świecie
NVIDIA wspólnie z Google DeepMind, EMBL i Sungkyunkwan University rozbudowała bazę AlphaFold Protein Structure Database o 1,7 miliona przewidywanych kompleksów białkowych. Dodatkowe 30 milionów struktur jest dostępnych do pobrania. To największy tego rodzaju zestaw danych na świecie, który ma przyspieszać badania nad nowymi lekami i biologią chorób.
W segmencie zdrowia Heidi Health odnotowało po przejściu na model Nemotron Speech 75% redukcję latencji i 64% obniżenie kosztów operacyjnych. Revolut po wdrożeniu transaction foundation model na infrastrukturze NVIDIA osiągnął 20-procentowy wzrost precyzji wykrywania fraudów i niemal 10-procentowy wzrost skuteczności cross-sellingu.
Olaf i śpiewające roboty
Huang zakończył keynote w sposób, którego nie dało się przewidzieć. Na scenę wszedł Olaf z Disnejowskiej Krainy lodu, napędzany przez stack fizycznej AI NVIDIA: silnik fizyczny Newton, platformę Omniverse i komputer Jetson schowany w jego „brzuchu”. „Well, it’s in your tummy… and you learned how to walk inside Omniverse,” powiedział Huang do bałwana.
Demonstracja była celowa: wszystko, co pojawiło się podczas konferencji, było symulowane, nie prerenderowane. Huang zamknął wątek, a scenę opanował chór śpiewających robotów, cyfrowy awatar Jensena i animowany homar przy ognisku. GTC nie jest już tylko konferencją. To teatr o bardzo poważnych konsekwencjach dla całej branży.
