LangChain opublikowało nową bibliotekę o nazwie Deep Agents, zaprojektowaną z myślą o agentach AI, które muszą realizować złożone, wieloetapowe zadania. To nie kolejny model językowy ani nowy runtime – to zestaw gotowych narzędzi i domyślnych konfiguracji nałożonych na sprawdzony ekosystem LangChain i LangGraph.
Większość agentów LLM sprawdza się dobrze przy krótkich pętlach z wywołaniami narzędzi. Problem pojawia się wtedy, gdy zadanie wymaga wielu kroków, zarządzania stanem i pracy z dużą ilością danych pośrednich. Właśnie tę lukę adresuje Deep Agents, określane przez twórców jako „agent harness” – czyli coś w rodzaju uprzęży, która spinuje różne elementy systemu w spójną całość.
Co to właściwie jest Deep Agents?
Biblioteka jest zbudowana na bazie bloków konstrukcyjnych LangChain oraz runtime LangGraph, który obsługuje trwałe wykonanie, streaming i workflow z udziałem człowieka (tzw. human-in-the-loop). Ważne zastrzeżenie: Deep Agents nie wprowadza nowego modelu rozumowania ani oddzielnego środowiska wykonawczego. Zamiast tego dostarcza sensowne domyślne ustawienia i wbudowane narzędzia dla deweloperów, którzy potrzebują agentów potrafiących planować, zarządzać dużym kontekstem, delegować podzadania i przechowywać informacje między rozmowami.
Wywołanie create_deep_agent(...) zwraca CompiledStateGraph – czyli standardowy graf LangGraph, który można podłączyć do wszystkich funkcji ekosystemu: streamingu, LangGraph Studio i checkpointerów.
Planowanie i rozkład zadań
Jednym z kluczowych elementów jest wbudowane narzędzie write_todos służące do planowania. Agent może podzielić złożone zadanie na dyskretne kroki, śledzić postęp i aktualizować plan w miarę napływu nowych informacji.
Bez warstwy planowania model improvizuje każdy krok na podstawie bieżącego promptu. Dzięki write_todos workflow staje się bardziej przewidywalny – co przekłada się wprost na jakość pracy przy dłuższych sesjach kodowania, badań czy analizy danych.
Zarządzanie kontekstem przez system plików
Deep Agents używa narzędzi systemowych do zarządzania kontekstem. Dostępne są między innymi read_file, write_file, edit_file, ls, glob i grep. Agent może przenosić duże fragmenty kontekstu do pliku zamiast trzymać wszystko w aktywnym oknie promptu, co zapobiega przepełnieniu okna kontekstowego i obsługuje wyniki narzędzi o zmiennej długości.
To konkretna decyzja projektowa, a nie mglisty marketing wokół słowa „pamięć”. Agent zapisuje notatki, wygenerowany kod, raporty pośrednie lub wyniki wyszukiwania do plików, a potem je pobiera. System obsługuje kilka typów backendu:
StateBackend(domyślny) – przechowuje efemeryczny system plików w stanie LangGraph dla jednego wątkuFilesystemBackendiLocalShellBackend– dostęp do lokalnego systemu plikówStoreBackend– dla danych persystentnychCompositeBackend– kombinacja powyższych
Deep Agents robi coś, co powinno być standardem w branży już od dawna: przenosi odpowiedzialność za planowanie, przechowywanie wyników pośrednich i delegowanie zadań z dewelopera do samego środowiska wykonawczego. Z jednej strony to duże ułatwienie – mniej konfiguracji, szybsze prototypowanie, niższy próg wejścia. Z drugiej strony pojawia się pytanie, czy tak daleko posunięta automatyzacja zarządzania kontekstem nie utrudni debugowania i audytu zachowania agenta w środowiskach produkcyjnych, gdzie przejrzystość działania bywa wymogiem prawnym lub bezpieczeństwa. Chętnie zobaczę, jak społeczność poradzi sobie z tym kompromisem.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Subagenci i izolacja kontekstu
Deep Agents wprowadza też wbudowane narzędzie task do tworzenia subagentów. Główny agent może uruchamiać wyspecjalizowane subagenty z izolowanym kontekstem, co pozwala mu skupić się na orkiestracji, a nie na przetwarzaniu każdego szczegółu.
To jedna z bardziej przemyślanych odpowiedzi na typową awarię systemów agentycznych. Kiedy pojedynczy wątek akumuluje zbyt wiele celów, wyników narzędzi i tymczasowych decyzji, jakość działania modelu spada. Podział pracy na subagentów ogranicza to przeciążenie i ułatwia debugowanie całego procesu.
Długoterminowa pamięć i integracja z LangGraph
Deep Agents obsługuje również pamięć długoterminową między wątkami – za pośrednictwem LangGraph Memory Store. Agent może zapisywać i pobierać informacje z poprzednich rozmów, co otwiera drogę do bardziej trwałych, kontekstowych asystentów.
Dostępny jest też dostęp do powłoki systemowej przez narzędzie execute z sandboxingiem, co rozszerza możliwości agenta o wykonywanie poleceń systemowych w kontrolowanym środowisku.
Jak zacząć?
Oficjalny quickstart pokazuje minimalne środowisko Python: instalacja pakietu deepagents i dostawcy wyszukiwania (np. tavily-python), ustawienie kluczy API, zdefiniowanie narzędzi i utworzenie agenta przez create_deep_agent(...). Biblioteka wymaga modelu obsługującego tool calling. Dla środowisk produkcyjnych LangChain kieruje deweloperów ku opcjom wdrożenia LangGraph.
Repozytorium projektu oraz dokumentacja są dostępne publicznie na GitHub: github.com/langchain-ai/deepagents oraz w dokumentacji LangChain pod adresem docs.langchain.com/oss/python/deepagents/overview.
