Firma ogłosiła właśnie jeden z najbardziej ambitnych planów w historii swojego działu infrastruktury – w ciągu zaledwie dwóch lat zamierza wdrożyć cztery nowe generacje autorskich układów scalonych MTIA, czyli Meta Training and Inference Accelerator.
Koniec zależności od Nvidii?
Nie do końca – ale Meta wyraźnie zmierza w stronę większej niezależności sprzętowej. Od 2023 roku firma rozwija własną rodzinę chipów MTIA, zaprojektowanych specjalnie pod kątem swoich potrzeb: rankingowania treści, systemów rekomendacji i – coraz ważniejszej – inferencji modeli generatywnej AI. Setki tysięcy układów MTIA pracują już dziś w centrach danych firmy, obsługując zarówno organiczne treści w aplikacjach, jak i reklamy.
Nowy plan jest jednak znacznie bardziej agresywny niż dotychczas. Branża chipów AI rządzi się zwyczajowym rytmem – nowa generacja co rok, góra dwa. Meta chce wydawać nowe wersje co sześć miesięcy lub częściej. To tempo niemal bezprecedensowe w tym segmencie.
Cztery chipy, jeden cel
Roadmapa wygląda następująco:
- MTIA 300 – już w produkcji, dedykowany głównie do trenowania modeli rankingujących i systemów rekomendacji
- MTIA 400 – kolejny krok, z myślą o pełniejszym pokryciu zadań AI
- MTIA 450 – zoptymalizowany przede wszystkim pod kątem inferencji modeli generatywnych
- MTIA 500 – docelowy układ do obsługi produkcyjnych obciążeń GenAI do 2027 roku
Ważny szczegół techniczny: wszystkie nowe generacje mają być kompatybilne z istniejącą infrastrukturą rack, co skraca czas wdrożenia i obniża koszty wymiany sprzętu.
Strategia „inference-first”
Tu kryje się sedno różnicy między podejściem Mety a mainstreamem. Większość układów AI projektuje się pod kątem najbardziej wymagającego zadania – czyli trenowania ogromnych modeli od zera. Potem te same chipy trafiają do inferencji, często ze stratą efektywności. Meta odwraca tę logikę: MTIA 450 i 500 są projektowane przede wszystkim pod inferencję, a dopiero potem dostosowywane do innych zadań.
To ma sens, bo inferencja – czyli uruchamianie gotowych modeli dla miliardów użytkowników – stanowi dziś lwią część realnych kosztów AI w firmach tej skali.
Komentarz: Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Strategia Mety robi wrażenie i rozumiem entuzjazm komentatorów technologicznych. Własny silicon to realna przewaga – niższe koszty, lepsza kontrola nad stosem, mniejsza zależność od jednego dostawcy. Z drugiej strony warto pamiętać, że podobnych zapowiedzi w branży nie brakowało, a przepaść między roadmapą a produkcją bywa ogromna. Google od lat rozwija TPU, ale nadal kupuje od Nvidii. Amazon inwestuje w Trainium i Inferentia, a mimo to AWS to jeden z największych klientów Nvidii na świecie.
Pytanie, które mnie nurtuje: czy tempo sześciu miesięcy na generację to realna wydajność inżynierska, czy raczej marketingowa narracja dla inwestorów i opinii publicznej? I drugie: jak ta strategia wpłynie na dostawców zewnętrznych – czy Meta staje się konkurentem dla firm, które dotychczas dostarczały jej sprzęt?
Ekosystem, nie monokultura
Meta podkreśla, że nie rezygnuje z chipów zewnętrznych dostawców. Firma wprost mówi o „podejściu portfelowym” – różne układy do różnych zadań. Ostatnio ogłoszono też długoterminową umowę partnerską z AMD, co wyraźnie wskazuje, że relacja z Nvidią przestaje być wyłączna.
MTIA budowany jest na otwartych standardach – PyTorch, vLLM, Triton, Open Compute Project. To świadomy wybór: ułatwia adopcję przez wewnętrzne zespoły i eliminuje konieczność tworzenia zamkniętego ekosystemu od zera. Analogia do tego, co Apple robi z układami M-series, jest tu częściowo trafna – z tą różnicą, że Meta gra na zupełnie innym boisku skali i otwartości.
Co to oznacza dla rynku?
Kilka rzeczy naraz. Przede wszystkim kolejny sygnał, że wielkie platformy technologiczne coraz poważniej traktują inwestycje w własną infrastrukturę obliczeniową. Google, Amazon, Microsoft, Apple, a teraz Meta – wszyscy idą w tym kierunku. Nvidia pozostaje dominantem, ale coraz wyraźniej widać, że jej klienci nie zamierzają być od niej zależni wiecznie.
Dla rynku AI oznacza to też coś innego: firmy, które nie mają zasobów Mety, Amazona czy Google’a, będą miały coraz trudniej. Koszt infrastruktury AI rośnie, a zdolność do budowania własnego sprzętu staje się jednym z kluczowych wyróżników konkurencyjnych w długim terminie.
Meta zapowiedziała, że więcej szczegółów technicznych dotyczących roadmapy MTIA znajdzie się na blogu Meta AI. Będziemy śledzić.
