Przez lata otwarte modele językowe traktowano jako ciekawostki dla badaczy i hobbystów. Dobra do eksperymentów, ale do poważnej produkcji? Nie bardzo. Alibaba właśnie postanowiła skończyć z tym podziałem.
Najnowsza seria Qwen 3.5 nie celuje w segment „wystarczająco dobry za mniejsze pieniądze”. Celuje prosto w GPT-5.2 i Claude’a 4.5. I ma konkretne argumenty.
Liczby, które robią wrażenie
Flagowy model zawiera 397 miliardów parametrów, ale aktywnie używa zaledwie 17 miliardów z nich przy przetwarzaniu każdego tokena. To architektura Mixture-of-Experts, popularnie zwana MoE – i to właśnie ona sprawia, że model jest tak szybki. Wedle danych Alibaby, prędkość dekodowania wzrosła nawet 19-krotnie względem poprzedniej generacji.
Prędkość to nie wszystko, ale w aplikacjach produkcyjnych latencja potrafi zadecydować o wszystkim.
Qwen 3.5 obsługuje okno kontekstowe sięgające miliona tokenów w wersji hostowanej. Milion tokenów to mniej więcej 750 tysięcy słów – całe kodebasy, elaboraty prawne, obszerne dokumentacje finansowe zmieszczą się w jednym prompcie. Do tego model rozumie 201 języków i obsługuje natywnie zadania multimodalne, włącznie z autonomicznym poruszaniem się po interfejsach graficznych.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Obserwuję chiński rynek AI od dłuższego czasu i muszę powiedzieć wprost: coś się tu fundamentalnie zmieniło. DeepSeek zimą pokazał, że można osiągać topowe wyniki znacznie niższym kosztem obliczeniowym. Alibaba idzie teraz tym samym tropem, ale z dużo większymi zasobami i dystrybucją. Zachodnie firmy przez lata żyły z założenia, że przewaga wydatków kapitałowych przekłada się na trwałą przewagę modelową. To założenie pęka na naszych oczach.
Cena, która boli konkurencję
Na platformie OpenRouter Qwen 3.5 dostępny jest za 3,60 dolarów za milion tokenów. Przy porównywalnych modelach zamkniętych liczba ta robi konkretną różnicę przy skalowaniu do produkcji.
Licencja Apache 2.0 pozwala firmom hostować model we własnej infrastrukturze. To eliminuje jeden z głównych argumentów przeciw otwartym modelom w środowiskach korporacyjnych – ryzyko przesyłania wrażliwych danych do zewnętrznych API. Model można uruchomić lokalnie, na własnych serwerach, bez żadnych opłat licencyjnych.
Ktoś w komentarzach zwrócił uwagę, że model chodzi nawet na Mac Ultra. To nie jest szczegół dla gadżeciarzy – to sygnał dla działów IT, że bariera sprzętowa właśnie mocno się obniżyła.
Benchmarki to jedno, produkcja to drugie
Specjaliści, którzy zdążyli przetestować nowy model, są pod wrażeniem. Jeden z komentatorów branżowych ocenił, że Qwen 3.5 „wymienia ciosy z Claude Opus 4.5 i GPT-5.2 na każdym froncie” i wyprzedza je w przeglądaniu sieci, rozumowaniu i śledzeniu instrukcji.
Pada też uczciwe ostrzeżenie: benchmarki to benchmarki. Prawdziwy test to produkcja.
Pojawia się też wątek, którego nie można ignorować. Dział compliance w każdej poważnej firmie zapyta o geopolityczne pochodzenie oprogramowania. Chiński provenance budzi pytania o łańcuchy dostaw i potencjalne regulacje. Otwarta waga modelu i możliwość lokalnego hostingu łagodzi część tych obaw – ale nie wszystkie.
Koniec epoki „doganiania”
Przez lata modele open-source były opisywane jako te, które „gonią” zamknięte systemy. Komentatorzy technologiczni obserwujący rynek AI coraz częściej wskazują, że ta narracja się kończy – otwarte modele nie gonią już liderów, w niektórych obszarach sami wyznaczają tempo.
Dla firm korzystających z komercyjnych API pytanie staje się bardzo konkretne: czy warto nadal płacić premię za modele zamknięte, skoro koszt wdrożenia własnej infrastruktury spada, a jakość otwartych modeli przestała być kompromisem?
Alibaba nie daje odpowiedzi. Stawia pytanie i zostawia decyzję działom IT.
