Ponad połowa treści w anglojęzycznym internecie to dziś materiały wygenerowane przez sztuczną inteligencję. Brzmi alarmująco – ale rzeczywistość jest bardziej złożona, niż sugerują nagłówki.
Słowo roku, które mówi wszystko
Merriam-Webster wybrało „slop” słowem roku 2025. Australijski słownik narodowy zrobił to samo. Termin, który jeszcze kilka lat temu funkcjonował wyłącznie w niszowych dyskusjach technologicznych, trafił do mainstreamu – i to z rozmachem.
AI slop definiuje się jako treści cyfrowe tworzone za pomocą generatywnej sztucznej inteligencji, postrzegane jako pozbawione wysiłku, jakości lub znaczenia, produkowane masowo jako clickbait w celu zdobycia przewagi w ekonomii uwagi. Innymi słowy – content dla algorytmu, nie dla człowieka.
Według danych firmy Meltwater, w 2025 roku wzmianki o „AI slop” w internecie wzrosły dziewięciokrotnie w porównaniu do roku 2024, a negatywny sentyment wokół tego zjawiska osiągnął rekordowe 54 procent w październiku.
Liczby robią wrażenie. Ale co tak naprawdę mierzą?
Firma SEO Graphite przeanalizowała losową próbę 65 tysięcy anglojęzycznych artykułów opublikowanych między styczniem 2020 a majem 2025. Badanie pokazało gwałtowny wzrost treści generowanych przez AI po premierze ChatGPT – z około 10 procent pod koniec 2022 roku do ponad 40 procent w 2024. Dziś oscylujemy wokół granicy 50/50.
Z kolei w kwietniu 2025 roku firma Ahrefs przeanalizowała 900 tysięcy nowo opublikowanych anglojęzycznych stron internetowych i oszacowała, że 74,2 procent zawierało treści wygenerowane przez AI.
Liczby różnią się w zależności od metodologii – ale trend jest niepodważalny.
Jest jednak pewien niuans, który ginie w debacie publicznej. Choć AI-generowane artykuły osiągnęły szczyt w listopadzie 2024, od tego czasu proporcja nowych treści AI i ludzkich utrzymuje się na względnie stabilnym poziomie. Co więcej, 86 procent artykułów w wynikach wyszukiwania Google to nadal teksty pisane przez ludzi – AI stanowi tylko 14 procent.
To znaczy, że slop istnieje, ale – przynajmniej na razie – nie zdominował tego, co faktycznie dociera do użytkowników przez wyszukiwarkę.
Kto to produkuje i po co?
Tak zwana „slopper economy” opiera się na zaawansowanych pipeline’ach contentowych wymagających niemal zerowej interwencji człowieka. Systemy te wykorzystują skrypty oparte na modelach językowych do scrapowania popularnych tematów z X i Reddita, generowania skryptów i wysyłania ich do API wideo.
Efekt? Fala treści projektowanych wyłącznie z myślą o algorytmach platform.
Schemat działania jest przewidywalny:
- kupno porzuconej domeny po dawnym medium,
- wypełnienie jej AI-generowanymi artykułami,
- zbieranie ruchu od wiernych czytelników nieświadomych zmiany właściciela,
- zarabianie na reklamach.
Kate Knibbs z Wired opisywała serbskiego przedsiębiorcy, który kupował porzucone serwisy informacyjne, zapełniał je treściami generowanymi przez AI i inkasował przychody z reklam. To nie jest science fiction – to dziś standardowy model biznesowy w szarej strefie mediów.
Komentarz redaktora
Patrzę na te dane z mieszanymi uczuciami. Z jednej strony – to, że algorytmy Google wciąż preferują treści ludzkie, jest dobrą wiadomością dla rzetelnego dziennikarstwa. Z drugiej – mam poważne wątpliwości co do długoterminowej trajektorii. Granica między „AI-assisted” a „AI-generated” zaciera się z każdym miesiącem, a detektory treści nie nadążają za tempem zmian. Pytanie, które mnie nurtuje, brzmi: co tak naprawdę mierzymy, mówiąc „ludzki content”? Jeśli dziennikarz pisze artykuł z pomocą AI, koryguje go, nadaje mu swój głos – czy to jeszcze slop? Obawiam się, że debata skupia się na złym problemie. Prawdziwe zagrożenie to nie sama ilość AI-generowanych treści, ale postępująca erozja zaufania do wszystkiego, co czytamy online. I na to liczby Graphite nie dają odpowiedzi.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Platformy zaczynają reagować
Nie wszystkie serwisy siedzą z założonymi rękami. Pinterest i YouTube uruchomiły funkcje pozwalające użytkownikom ograniczyć ilość AI-generowanych treści w swoich feedach. Reddit i LinkedIn zainwestowały w strefy weryfikowanych autorów.
Tony Stubblebine, CEO Medium, stwierdził wprost: „The vast majority of detectable AI-generated stories in the raw feeds for these topics already have zero views. Zero views is the goal and we already have a system that accomplishes that” / „Zdecydowana większość wykrywalnych treści generowanych przez AI w surowych feedach ma już zero wyświetleń. Zero wyświetleń to cel i mamy system, który to już osiąga”.
To optymistyczne, ale nasuwa pytanie: co z treściami, których systemy nie wykrywają?
„Nudne AI” wygra z „seksownym AI”
Wśród całego tego szumu pojawia się interesująca teza: przyszłość nie należy do spektakularnego AI, lecz do tego użytecznego i niewidocznego.
Kate Moran z Nielsen Norman Group zwraca uwagę, że rzeczy naprawdę zmieniające produkty i sposób pracy „are not the sexy things” – jako przykład podaje AI-generowane podsumowania recenzji produktów na Amazonie, które pomagają użytkownikom bez zmiany ich sposobu korzystania z serwisu.
To model, w którym AI pracuje w tle – cicho, skutecznie, bez zadęcia.
Internet nie umiera. Ale mutuje
Najbardziej trzeźwa konkluzja tej debaty jest taka, że internet nie zostaje „zniszczony” przez slop – on się adaptuje. Badacz David Caswell przewiduje, że internet będzie miał „vast underbelly of AI crap that very few people ever see” – rozległe podbrzusze pełne AI-śmieci, do których większość użytkowników nigdy nie dotrze, podobnie jak dzisiaj spam trafia do folderu śmieciowego, a nie do skrzynki głównej.
Problem w tym, że ten mechanizm zakłada sprawne działanie filtrów. A filtry – jak każdy system – można obejść.
Według badań firmy Graphika, rządy Chin i Rosji wykorzystują AI-generowany slop jako narzędzie propagandowe, stosując technikę „spamouflage” – kampanie z fałszywymi influencerami powiązanymi z Pekinem, skupiające się na tematach podziałowych.
To już nie jest problem jakości treści. To problem bezpieczeństwa informacyjnego.
