NVIDIA opublikowała szczegółowy przewodnik techniczny dotyczący NemoClaw – otwartego stosu referencyjnego, który pozwala uruchomić w pełni lokalnego, autonomicznego asystenta AI, bez wysyłania jakichkolwiek danych do zewnętrznych serwerów. Całość działa na sprzęcie NVIDIA DGX Spark i opiera się na modelu Nemotron 3 Super 120B, a dostęp do agenta można uzyskać przez Telegram z dowolnego miejsca na świecie.
Agenci AI wychodzą z trybu demo
Przez długi czas agenty AI były bardziej konceptem niż narzędziem gotowym do wdrożenia. Dziś jednak coraz wyraźniej widać zmianę – systemy tego typu przestają odpowiadać na pojedyncze pytania, a zaczynają realizować złożone, wieloetapowe zadania: czytają pliki, wywołują zewnętrzne API, wykonują kod. To zupełnie inna liga odpowiedzialności i ryzyka.
NVIDIA odpowiada na ten trend stosem NemoClaw, który łączy kilka komponentów w spójną całość:
- NemoClaw – warstwa orkiestracji i instalacji, punkt wejścia do całego systemu
- OpenShell – środowisko uruchomieniowe z izolacją sieciową i systemu plików
- OpenClaw – framework agentowy działający wewnątrz piaskownicy, obsługujący integracje z platformami do komunikacji
- Nemotron 3 Super 120B – model językowy zoptymalizowany pod kątem pracy agentycznej
- Ollama / NVIDIA NIM – lokalny serwer inferencji
Cały inference odbywa się lokalnie. Żadne dane nie opuszczają urządzenia w trakcie działania agenta.
Bezpieczeństwo przez izolację
OpenShell działa jak „walled garden” – oddziela agenta od reszty systemu, kontroluje dostęp do sieci i systemu plików, pośredniczy w wywołaniach zewnętrznych API. Kiedy agent próbuje wykonać żądanie sieciowe do nieznanego endpointu, OpenShell je blokuje i czeka na decyzję operatora. Można zatwierdzić dostęp jednorazowo albo dodać regułę do stałych polityk.
Lokalne modele AI i prywatność danych to temat, który w środowiskach enterprise nabiera coraz większego znaczenia. NemoClaw idzie w dobrym kierunku – pełna kontrola nad inferencją, izolacja piaskownicy, brak zależności od zewnętrznych serwisów w czasie działania. To brzmi świetnie. Ale warto zachować zdrowy sceptycyzm: sam NVIDIA zaznacza, że OpenShell nie chroni w 100% przed zaawansowanymi atakami typu prompt injection. Pytanie brzmi, jak wiele organizacji jest w stanie poprawnie skonfigurować i utrzymać taki stos technicznie? I czy bariera wejścia – sprzęt DGX Spark, model 87 GB, konfiguracja Dockera i Ollamy – nie jest zbyt wysoka dla firm, które najbardziej potrzebują prywatności AI?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Jak to działa w praktyce
Konfiguracja wymaga sprzętu DGX Spark z Ubuntu 24.04, Dockera w wersji 28.x lub wyższej oraz Ollamy jako silnika inferencji. Sam model Nemotron 3 Super 120B waży około 87 GB – jego pobranie zajmuje od 15 do 30 minut w zależności od łącza.
Instalacja NemoClaw sprowadza się do jednej komendy:
curl -fsSL https://www.nvidia.com/nemoclaw.sh | bash
Następnie kreator konfiguracji pyta o nazwę piaskownicy, wybór dostawcy inferencji (lokalny Ollama), model oraz polityki dostępu. Opcjonalnie można od razu skonfigurować integrację z Telegramem.
Po skonfigurowaniu bota przez @BotFather w Telegramie i zatwierdzeniu parowania wewnątrz piaskownicy – agent działa. Odpowiada na wiadomości, a cały inference leci lokalnie przez model 120B. Czas odpowiedzi? Według dokumentacji 30–90 sekund per zapytanie. Nie jest to prędkość rozmowy na żywo, ale dla wielu zastosowań automatyzacyjnych w zupełności wystarczy.
Dla kogo to rozwiązanie
NemoClaw nie jest produktem dla każdego. Bariera techniczna jest realna – wymaga znajomości Dockera, Linuksa i konfiguracji środowisk kontenerowych. Z drugiej strony, docelowa grupa użytkowników to właśnie deweloperzy i zespoły IT, które:
- nie chcą wysyłać danych firmowych do zewnętrznych API
- potrzebują autonomicznego agenta zintegrowanego z narzędziami do komunikacji
- szukają kontrolowanego środowiska do testowania agentycznych pipeline’ów
Całość jest open source – kod dostępny na GitHubie NVIDIA pod adresem github.com/NVIDIA/NemoClaw. Można też uruchomić NemoClaw bez własnego sprzętu, korzystając z wersji demonstracyjnej na build.nvidia.com/nemoclaw.
Kierunek, który warto obserwować
NemoClaw to sygnał z rynku – enterprise coraz głośniej domaga się lokalnej inferencji z pełną kontrolą nad danymi. NVIDIA odpowiada na to nie tylko sprzętem (DGX Spark), ale również całym stosem oprogramowania, który obniża próg wejścia dla organizacji chcących wdrożyć agenty AI bez oddawania kluczy do swojej infrastruktury zewnętrznym dostawcom.
To ciekawy ruch w kontekście narastającej konkurencji ze strony projektów takich jak Ollama czy llama.cpp, które oferują podobną lokalność, ale bez opinionowanego podejścia do bezpieczeństwa agentycznego. NemoClaw wyróżnia się właśnie tym – nie tylko uruchamia model lokalnie, ale też próbuje odpowiedzieć na pytanie, co zrobić, gdy ten model zacznie działać autonomicznie.
