OpenAI wypuściło właśnie dwa nowe, mniejsze modele językowe – GPT-5.4 mini i GPT-5.4 nano. To nie są modele do rozmów z użytkownikiem końcowym. Zaprojektowano je z myślą o zupełnie innym zastosowaniu: mają pracować w tle, jako subagenci delegowani przez większe systemy AI do wykonywania konkretnych, wyspecjalizowanych zadań.
To pierwsza taka premiera od czasu GPT-5 mini i nano z 2025 roku. I choć nazwy brzmią znajomo, tym razem OpenAI poszło krok dalej w stosunku do poprzedniej generacji.
Czym są subagenci i dlaczego to ważne
W architekturze agentowej AI nie wszystko musi robić jeden, duży model. Coraz częściej dominuje podejście, w którym model-orkiestrator (np. GPT-5.4) zajmuje się planowaniem i koordynacją, a do konkretnych podzadań deleguje mniejsze, szybsze i tańsze jednostki. Przeszukiwanie bazy kodu, analiza pliku, równoległe przetwarzanie dokumentów – to właśnie robota dla mini i nano.
OpenAI wprost wskazuje, że w takich warunkach „najlepszy model to często nie ten największy, lecz ten, który odpowiada szybko, niezawodnie korzysta z narzędzi i radzi sobie z wymagającymi zadaniami.”
Ile to kosztuje i gdzie jest dostępne
GPT-5.4 mini trafił do API, Codexa oraz ChatGPT. Ma okno kontekstu o rozmiarze 400 000 tokenów, obsługuje zarówno tekst, jak i obrazy. Ceny:
- GPT-5.4 mini: $0,75 za milion tokenów wejściowych, $4,50 za milion wyjściowych
- GPT-5.4 nano: $0,20 za milion tokenów wejściowych, $1,25 za milion wyjściowych
Nano jest dostępny wyłącznie przez API – to w tej chwili najtańszy model w ofercie OpenAI. Deweloperzy korzystający z Codexa zyskują dodatkową zachętę: mini zużywa zaledwie 30% limitu przyznanego dla GPT-5.4.
Jak bardzo mini odstaje od flagowego modelu?
I tu robi się naprawdę ciekawie. Na benchmarku SWE-bench Pro, który testuje modele na rzeczywistych zadaniach inżynierii oprogramowania, mini uzyskał 54,38% – tylko 3 punkty procentowe poniżej pełnego GPT-5.4. Na OSWorld-Verified, mierzącym umiejętności obsługi komputera, mini osiągnął 72,13%, przy 75,03% dla flagowca.
Nano naturalnie wypada słabiej od mini, choć i tak bije poprzedni GPT-5 mini w zadaniach kodowania i korzystania z narzędzi. Jednocześnie nano poległ na OSWorld-Verified (39,01% wobec 42% starszego mini) – czego nie powinniśmy się specjalnie dziwić przy tej klasie modelu i cenie.
Widzę tu pewien paradoks, który warto głośno nazwać. Przez ostatnie dwa lata branża rywalizowała o to, kto zbuduje największy, najmądrzejszy model. Dziś okazuje się, że równie ważne, albo i ważniejsze, jest to, kto zbuduje modele najtańsze i wystarczająco dobre. Mini i nano to sygnał, że przyszłość kosztów AI wcale nie leży w optymalizacji flagowców – leży w masowym wdrożeniu modeli roboczych. Pytanie, które mnie nurtuje: czy ta architektura, gdzie jeden duży model zarządza dziesiątkami małych, nie przyniesie ze sobą nowych problemów z niezawodnością i bezpieczeństwem całego systemu? Jeden błąd na poziomie orkiestracji może kaskadowo się mnożyć.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Głos z branży: to już działa w produkcji
Abhisek Modi, Lead AI Engineering w Notion, nie zostawia wątpliwości co do praktycznej wartości nowych modeli: „GPT-5.4 mini handles focused, well-defined tasks with impressive precision. For editing pages specifically, it matched and often exceeded GPT-5.2 on handling complex formatting at a fraction of the compute.” Modi dodaje, że do niedawna tylko najdroższe modele potrafiły niezawodnie obsługiwać agentic tool calling – dziś mniejsze modele robią to bez problemu.
Rynek nie śpi
OpenAI nie jest jedynym graczem w tej grze. Anthropic ma Claude 4.5 Haiku, projektowany właśnie pod lekkie zadania agentowe. Google odpowiada Gemini 3 Flash. Wszyscy zdają się dochodzić do tego samego wniosku: przy skalowaniu systemów agentowych większość obliczeń i tak trafia do tanich modeli roboczych, nie do flagowców z górki rankingów.
Mniejszy. Szybszy. Tańszy. I zaskakująco zdolny. Tak wygląda nowa linia frontu w wojnie modeli AI.
