Jeszcze kilka lat temu pierwsza strona wyników Google była dla wydawców cyfrowych czymś w rodzaju żyły złota. Dziś coraz częściej mówi się o scenariuszu „Google Zero” – sytuacji, w której ruch z wyszukiwarki przestaje istnieć jako znaczące źródło odwiedzin. To nie jest scenariusz z odległej przyszłości. Dla wielu redakcji dzieje się to właśnie teraz.
Liczby, które bolą
Dane są bezlitosne. Business Insider stracił 55% ruchu organicznego między 2022 a 2025 rokiem i zwolnił ponad jedną piątą załogi. HuffPost – połowę wejść z wyszukiwarki. New York Times zanotował spadek udziału ruchu z Google z 44% do niespełna 37%. To nie są chwilowe wahania algorytmu.
Badanie Pew Research Center, które objęło 68 tysięcy rzeczywistych zapytań, pokazało coś niepokojącego: kiedy w wynikach pojawia się AI Overview, użytkownicy klikają w linki tylko 8% przypadków. Bez tego podsumowania – 15%. To ponad 46-procentowy spadek współczynnika klikalności.
Według Similarweb tzw. wyszukiwania zerowe (czyli te, po których użytkownik nie opuszcza Google’a) wzrosły z 56% do 69% między majem 2024 a majem 2025 roku. Google po prostu odpowiada, zanim użytkownik zdąży pomyśleć, żeby kliknąć.
Algorytm, który nie przeprasza
Google konsekwentnie twierdzi, że AI Overviews generują ruch lepszej jakości. Branża nie do końca się z tym zgadza. Lily Ray, wiceprezes ds. strategii SEO w Amsive, publicznie wskazywała na dziesiątki przypadków, gdzie AI Overview wyświetlała treści nieprawdziwe, stronnicze lub zwyczajnie mylące. Barry Adams, specjalista SEO, nie owijał w bawełnę: „Google’s AI Overviews are terrible at quoting the right sources.”
Jednocześnie sama firma jest konsekwentna w swoim przekazie – John Mueller z Google powiedział niedawno wprost: „Our systems don’t care if content is created by AI or humans. We care if it’s helpful, accurate, and created to serve users rather than just manipulate search rankings.”
No i tu pojawia się paradoks. Google stawia poprzeczkę jakościową coraz wyżej, a jednocześnie sam odpowiada na pytania zanim użytkownik trafi na stronę, z której ta odpowiedź pochodzi.
Co robią sprytni wydawcy
Nie wszyscy siedzą z założonymi rękami. Wall Street Journal – jeden z wydawców aktywnie testujących nowe podejście – skupia się na tym, co ich zdaniem ma nadal wartość: ruchu intencjonalnym. Ed Hyatt, dyrektor ds. SEO w redakcji WSJ, tłumaczył w rozmowie z Digiday:
„What we know is that Google organic search is highly intentional – somebody actually went to Google, typed in a specific query.”
WSJ stawia na strukturę treści, szybkość ładowania stron i czytelność dla crawlerów AI. Analizują pliki logów, żeby zobaczyć, które sekcje serwisu boty AI odwiedzają najczęściej – i na tej podstawie testują nowe podejścia do contentu.
Część wydawców poszła w stronę umów licencyjnych. New York Times podpisał deal z Amazonem na licencjonowanie treści do trenowania modeli AI. Atlantic i Washington Post publicznie przyznają, że bez rewizji modeli biznesowych branża prasowa stoi przed egzystencjalnym zagrożeniem.
Komentarz redaktora
Obserwuję tę sytuację z mieszanymi uczuciami. Z jednej strony rozumiem Google – firma dostarcza użytkownikom odpowiedzi szybciej i wygodniej. Trudno z tym polemizować. Ale z drugiej strony, skąd te odpowiedzi się biorą? Z treści, które ktoś napisał, sprawdził, sfinansował. Wydawcy od lat subwencjonowali ekosystem wyszukiwania swoją pracą i teraz patrzą, jak ten ekosystem odpowiada na pytania „zamiast nich”, zamiast „dzięki nim”. To nie jest tylko problem biznesowy. To jest pytanie o to, kto będzie finansował wartościowe dziennikarstwo za pięć lat, jeśli ruch z wyszukiwarek spadnie do zera. Umowy licencyjne z Big Techem brzmią jak ratunek, ale mogą być też krótkoterminowym plastrem na ranę wymagającą poważniejszej operacji. Nie mam gotowej odpowiedzi. Mam tylko przekonanie, że wydawcy, którzy budują dziś bezpośrednie relacje z czytelnikami, są w o wiele lepszej pozycji niż ci, którzy wciąż liczą na łaskę algorytmu.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
SEO w 2026 roku – co jeszcze działa
Google powtarza jak mantrę, że fundamenty SEO nie zmieniły się. I ma rację – tyle że samo „fundamenty” rozumie teraz szerzej. Co faktycznie działa:
- Treść „granularnie użyteczna” – AI Mode wymaga, żeby strona odpowiadała nie na ogólne pytanie, ale na każdy krok rozumowania modelu
- Autorytet tematyczny zamiast optymalizacji słów kluczowych – algorytm MUVERA nagradza strony z głębokim, spójnym pokryciem tematu
- Dane strukturalne (schema) – nie dla wizualnych urozmaiceń, ale po to, żeby maszyna rozumiała kontekst
- E-E-A-T, czyli rzeczywiste doświadczenie, wiedza, autorytet i wiarygodność – coraz trudniejsze do sfabrykowania
- Szybkość i crawlowalność – Google wprowadził mechanizm „quality pre-check”, który ocenia stronę jeszcze zanim zainwestuje czas crawlera
Znika natomiast sens istnienia treści produkowanych wyłącznie pod kątem rankingów. Masowo generowany content AI bez nadzoru redakcyjnego jest coraz skuteczniej wykrywany i penalizowany.
Koniec epoki błękitnych linków
ChatGPT odpowiada dziś na mniej więcej 4-5% wszystkich zapytań, które dotychczas trafiały do Google’a. To wciąż mało, ale Perplexity rośnie rok do roku o ponad 200%. Kierunek jest wyraźny.
Stuart Forrest z Bauer Media powiedział BBC bez ogródek: „We’re definitely moving into the era of lower clicks and lower referral traffic for publishers.”
Otwarte wciąż pozostaje pytanie, co będzie zamiast tego. Subskrypcje? Licensing? Treść zamknięta za paywallem, dostępna tylko dla „prawdziwych” czytelników? Rynek szuka odpowiedzi. Niektórzy znajdą ją na czas. Inni – nie.
