Rynek AI wchodzi w nową fazę. Nie chodzi już o to, kto ma najładniejszy chatbot ani najbardziej rozbudowany zestaw funkcji – liczy się teraz twarda infrastruktura: serwerownie, kable, prąd i chłodzenie.
Analitycy Goldman Sachs opisują ten moment jako „flight to quality”, czyli ucieczkę kapitału w kierunku sprawdzonych, solidnych aktywów. W praktyce oznacza to, że inwestorzy coraz chłodniej patrzą na firmy oferujące wąskie narzędzia AI lub eksperymentalne oprogramowanie, a coraz cieplej na tych, którzy faktycznie posiadają i zarządzają dużą infrastrukturą obliczeniową.
Sztuczna inteligencja pożre 30% pojemności data centres
Goldman Sachs szacuje, że w ciągu najbliższych dwóch lat zadania związane z AI mogą odpowiadać za około 30% całkowitej pojemności globalnych centrów danych. To ogromna zmiana w stosunku do jeszcze niedawnych realiów. Modele językowe wymagają tysięcy procesorów działających równolegle przez długi czas podczas treningu, a inference, czyli generowanie odpowiedzi w czasie rzeczywistym, też nie jest procesem tanim obliczeniowo.
Wielkie firmy chmurowe inwestują dziesiątki miliardów dolarów rocznie w nowe obiekty i sprzęt. Skalują się w tempie, którego nie widzieliśmy podczas wcześniejszych fal rozwoju chmury obliczeniowej.
Energia jako nowe wąskie gardło
Tu dochodzimy do sedna problemu, który nie jest jeszcze powszechnie rozumiany poza wąskim kręgiem specjalistów. Goldman Sachs prognozuje, że globalne zapotrzebowanie data centres na energię elektryczną może wzrosnąć do 2030 roku o około 175% względem poziomu z 2023 roku. Firma szacuje, że przyrost ten jest mniej więcej równoważny dodaniu do sieci energetycznej całego kraju z pierwszej dziesiątki najbardziej energochłonnych państw świata.
To nie jest abstrakcja. To konkretne obciążenie dla sieci energetycznych, rządów i regulatorów.
Widzę tu kilka warstw tej historii, które warto rozdzielić. Z jednej strony Goldman Sachs ma rację: era „wystarczy napisać 'powered by AI’ na stronie głównej” faktycznie dobiega końca i kapitał zaczyna szukać realnych fundamentów. To zdrowe. Z drugiej strony, gdy słyszę prognozę wzrostu zużycia energii o 175% do 2030 roku, to zadaję sobie pytanie: czy ktoś poważnie liczy te koszty środowiskowe? I czy rozmowa o AI jako narzędziu transformacji cywilizacyjnej może być uczciwa bez głośnego mówienia o tym, że ta transformacja dosłownie zjada kilowatogodziny w tempie, za którym sieci energetyczne wielu krajów nie nadążą? Infrastruktura to fundament, zgoda. Ale fundament wymaga również odpowiedzialności.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Gdzie buduje się centra danych i dlaczego to nie jest proste
Wybór lokalizacji dla nowych obiektów to teraz decyzja strategiczna na poziomie geopolitycznym. Firmy szukają miejsc, w których łatwiej o:
- stabilne i tanie źródła energii elektrycznej
- dostęp do sieci światłowodowych o dużej przepustowości
- tereny z przestrzenią na rozbudowę
- korzystny klimat obniżający koszty chłodzenia
- otoczenie regulacyjne przyjazne dla szybkich inwestycji
Coraz częściej data centres lądują w odległych rejonach, z dala od centralnych węzłów miejskich. Badania akademickie wskazują, że systemy chłodzenia i lokalizacja geograficzna potrafią wpłynąć na zużycie energii i wody równie mocno jak sama efektywność sprzętu.
Selektywna faza rynku AI
Podczas pierwszej fali generatywnego AI wiele firm widziało wzrost wycen właściwie tylko dlatego, że zdecydowało się użyć słowa „sztuczna inteligencja” w komunikacie prasowym. To się skończyło albo właśnie się kończy.
Inwestorzy analizują teraz, które firmy mają modele przychodowe zdolne do utrzymania długoterminowego wdrożenia AI. Operatorzy data centres i producenci chipów zajmują uprzywilejowaną pozycję u podstaw tego ekosystemu. Ich usługi są potrzebne niezależnie od tego, która aplikacja AI zyska masowych użytkowników.
Analogia historyczna jest tutaj kusząca: podczas poprzednich fal wzrostu w branży komputerowej to właśnie firmy budujące fundamentalną infrastrukturę generowały stabilne przychody, podczas gdy oprogramowanie rosło i upadało znacznie szybciej.
Gospodarka AI może w nadchodzących latach zależeć od elektrowni i systemów chłodzenia co najmniej tak samo, jak od algorytmów. To nie jest metafora. To plan budowy.
