Google prowadzi zaawansowane rozmowy z Marvell Technology w sprawie wspólnego opracowania dwóch nowych układów scalonych przeznaczonych do obsługi modeli AI. To kolejny ruch giganta z Mountain View, który konsekwentnie buduje wielodostawcowy łańcuch dostaw chipów i uniezależnia się od pojedynczych partnerów.
Informację jako pierwszy podał serwis The Information. Według doniesień, w grze są dwa projekty: procesor pamięci (memory processing unit) zaprojektowany do współpracy z istniejącymi układami TPU oraz całkowicie nowy TPU zoptymalizowany pod kątem inference, czyli fazy działania modeli AI, w której obsługują zapytania użytkowników, a nie się uczą. Marvell miałby pełnić rolę partnera projektowego, podobnie jak MediaTek przy najnowszym układzie Google o nazwie Ironwood. Rozmowy nie zaowocowały jeszcze podpisaniem żadnej umowy.
Nie chodzi o zastąpienie Broadcoma
Wyczucie czasu jest tu nieprzypadkowe. Kilka dni przed pojawieniem się tych doniesień Broadcom ogłosił długoterminową umowę z Google, obejmującą projektowanie i dostarczanie układów TPU oraz komponentów sieciowych aż do 2031 roku. Google nie zamierza więc pozbywać się dotychczasowego partnera, lecz dokłada kolejny element do układanki. W praktyce łańcuch dostaw wygląda teraz tak:
- Broadcom dostarcza wysokowydajne warianty chipów
- MediaTek produkuje tańsze warianty „e” w cenie niższej o 20-30%
- TSMC odpowiada za produkcję
- Marvell wchodzi jako potencjalny czwarty partner
To klasyczna strategia dywersyfikacji rodem z branży motoryzacyjnej: żaden dostawca nie dostaje tyle, żeby móc dyktować warunki.
Dlaczego inference, i dlaczego teraz
Siódma generacja TPU od Google, o nazwie Ironwood, zadebiutowała w tym miesiącu. Firma opisuje go jako „the first Google TPU for the age of inference” / „pierwszy TPU Google zaprojektowany dla ery inference”. Układ osiąga dziesięciokrotnie wyższą szczytową wydajność w porównaniu z TPU v5p, a w konfiguracji superpod, obejmującej 9216 układów chłodzonych cieczą, generuje 42,5 eksaflopsa w formacie FP8. Google planuje wyprodukować miliony sztuk Ironwooda w tym roku.
Chipy projektowane przez Marvella byłyby uzupełnieniem Ironwooda, nie jego zastępstwem. Mogłyby trafiać do różnych klas obciążeń lub oferować inny poziom kosztów. Tu właśnie leży sedno sprawy.
Patrząc na to, co robi Google, widzę przemyślaną strategię, a nie chaotyczną dywersyfikację. Wielodostawcowy model to dobra odpowiedź na ryzyko, jakie niesie uzależnienie od jednego partnera. Z drugiej strony, zarządzanie czterema partnerami chipowymi jednocześnie to ogromna złożoność operacyjna i inżynieryjna. Pojawia się też pytanie, czy rozdrobnienie zamówień nie osłabi pozycji negocjacyjnej Google wobec każdego z dostawców z osobna. I wreszcie: skoro kontrakt z Broadcomem jest ważny do 2031 roku, to kiedy realnie zobaczymy układy od Marvella w produkcji? Chipy AI to nie sprint, to maraton.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Trening dużego modelu to jednorazowe zdarzenie, wymagające ogromnych zasobów przez tygodnie lub miesiące. Inference działa nieustannie, obsługując każde zapytanie każdego użytkownika, a jego koszty rosną razem z popytem. Gdy produkty AI docierają do setek milionów użytkowników, inference staje się dominującym wydatkiem. Dedykowane układy do inference mają nad GPU ogólnego przeznaczenia przewagę kosztową, której nie da się zignorować.
Historia, której mało kto pamięta
Relacja Google z Marvellem ma dłuższą historię, niż sugerują bieżące doniesienia. Już w 2023 roku The Information informował, że Google od 2022 roku pracuje nad układem o nazwie kodowej „Granite Redux”, który miał zastąpić Broadcoma właśnie Marvellem. Ówczesny rzecznik Google określił Broadcoma „an excellent partner” / „doskonałym partnerem” i zapewnił, że firma pozostaje „productively engaged with Broadcom and multiple other suppliers for the long term” / „aktywnie zaangażowana we współpracę z Broadcomem i wieloma innymi dostawcami długoterminowo”.
Co się zmieniło? Google najwyraźniej porzucił pomysł całkowitego zastąpienia Broadcoma. Zamiast tego buduje architekturę wielodostawcową, w której każdy z partnerów obsługuje inną część programu TPU.
Kim jest Marvell i dlaczego go chcą
Marvell nie jest niszowym graczem. W roku fiskalnym kończącym się w lutym 2026 firma osiągnęła rekordowe przychody z data center na poziomie 6,1 miliarda dolarów, a łączne przychody wyniosły 8,2 miliarda dolarów, co oznacza wzrost o 42% rok do roku. Biznes custom silicon generuje już 1,5 miliarda dolarów rocznego przychodu w ramach 18 kontraktów z dostawcami chmurowymi. Firma projektuje układy dla Amazon (procesory Trainium), Microsoft (akcelerator Maia AI) i Meta, a przy tym współpracuje z Google przy procesorach ARM Axion.
Pod koniec marca Nvidia zainwestowała w Marvella 2 miliardy dolarów, wchodząc w partnerstwo w ramach programu NVLink Fusion. W grudniu 2025 roku Marvell przejął Celestial AI za nawet 5,5 miliarda dolarów, pozyskując technologię połączeń fotonicznych. CEO Matt Murphy celuje w 20% udziału w rynku custom AI chipów i spodziewa się około 30% wzrostu przychodów rok do roku w roku fiskalnym 2027.
Akcje Marvella wzrosły w tym roku o około 50%, z czego 30% tylko w kwietniu, po ogłoszeniu partnerstwa z Nvidią i doniesieniach o rozmowach z Google.
Co to znaczy dla rynku
Rynek custom ASIC rośnie szybciej niż rynek GPU. TrendForce prognozuje wzrost sprzedaży chipów na zamówienie o 45% w 2026 roku, wobec 16% wzrostu w segmencie GPU. Counterpoint Research szacuje, że Broadcom utrzyma około 60% rynku custom akceleratorów AI do 2027 roku, a Marvell zdobędzie około 25%. Cały rynek ma osiągnąć 118 miliardów dolarów do 2033 roku.
Pozycja Broadcoma pozostaje silna. Jego przychody z AI osiągnęły 8,4 miliarda dolarów w ostatnim kwartale, rosnąc o 106% rok do roku, z prognozą 10,7 miliarda dolarów na kolejny kwartał. Firma celuje w 100 miliardów dolarów przychodów z chipów AI do 2027 roku.
Rozmowy z Marvellem to jeszcze nie umowa, a harmonogramy rozwoju chipów oznaczają, że ewentualny produkt trafi do produkcji za kilka lat. Ale kierunek jest czytelny: Google buduje łańcuch dostaw zdolny do obsługi najbardziej wymagających obciążeń inference na świecie i zamierza mieć więcej niż jednego dostawcę krzemowych układów. Dla Marvella kontrakt na inference TPU od Google byłby potwierdzeniem statusu drugiego najważniejszego projektanta custom chipów AI na świecie. Dla Google to kolejny krok w budowaniu uniezależnienia od cudzego krzemu.
