Wynik głosowania mówi sam za siebie: 44 do 2. Anglojęzyczna Wikipedia zakazuje używania modeli językowych do tworzenia i przepisywania treści encyklopedycznych. To koniec pewnej pobłażliwości, która przez ostatnie miesiące kosztowała społeczność wolontariuszy tysiące godzin sprzątania po algorytmach.
Decyzja zapadła 20 marca 2026 roku i jest bezpośrednią odpowiedzią na narastający problem, który wolontariusze zaczęli nazywać po imieniu: „AI slop” zalewający encyklopedię. Duchy artykułów ze zmyślonymi przypisami, wpisy pisane przez boty udające redaktorów, masy treści produkowane w sekundę i wymagające godzin weryfikacji.
Co dokładnie zmieniła nowa polityka?
Poprzednie zasady były mgliste. Mówiły, że LLM-y „nie powinny być używane do tworzenia nowych artykułów od zera”. Ale co z przepisywaniem istniejących? Co z wstawianiem akapitów do już istniejących haseł? Luka była wystarczająco szeroka, żeby przez nią przejechać ciężarówką.
Nowa polityka zamknęła te furtki jednym zdaniem: „the use of LLMs to generate or rewrite article content is prohibited.”
Zostały tylko dwa wyjątki:
- Korygowanie własnych tekstów – edytor może poprosić model o zasugerowanie poprawek redakcyjnych we własnym, ludzkim piśmie, ale musi osobiście zweryfikować każdą zmianę i upewnić się, że AI nie dopisała nic od siebie.
- Tłumaczenie – wstępne tłumaczenie maszynowe jest dopuszczalne, ale wyłącznie wtedy, gdy edytor płynnie zna oba języki i potrafi wychwycić błędy przed publikacją.
Nawet te wyjątki opatrzone są ostrzeżeniem wprost w treści polityki: „Caution is required, because LLMs can go beyond what you ask of them and change the meaning of the text such that it is not supported by the sources cited.”
Iskra, która wywołała pożar
Bezpośrednią przyczyną zaostrzenia polityki był bot o nazwie TomWikiAssist. Zidentyfikowany jako autonomiczny agent AI, który w marcu 2026 roku tworzył i edytował wiele artykułów, stał się symbolem realnego zagrożenia dla integralności encyklopedii. Nie był to odosobniony przypadek, ale najgłośniejszy.
„In recent months, more and more administrative reports centered on LLM-related issues, and editors were being overwhelmed” – czytamy w dokumentacji dołączonej do nowej polityki.
Ilyas Lebleu, edytor działający pod pseudonimem Chaotic Enby, który zaproponował ostateczną wersję zakazu, wprost wskazał autonomiczne agenty jako punkt bez powrotu. Napisał na Mastodonie: „My genuine hope is that this can spark a broader change. Empower communities on other platforms, and see this become a grassroots movement.”
Dlaczego wcześniejsze próby zawodziły?
To nie był pierwszy raz, kiedy społeczność próbowała uregulować kwestię AI. Lebleu w swojej propozycji uczciwie przyznał, że poprzednie inicjatywy rozbijały się nie o brak woli, ale o szczegóły. „Consensus has existed on the idea of change, but not on the implementation of change” – tłumaczył.
Tym razem podejście było inne: zamiast próbować stworzyć od razu kompleksową regulację, skupiono się na wąskim, konkretnym problemie – generowaniu treści artykułów. To zadziałało.
Głos AIPORT.pl
Rozumiem frustrację wolontariuszy Wikipedii i decyzja ta ma mocne uzasadnienie praktyczne. Ale warto zadać sobie jedno pytanie: czy zakaz rzeczywiście rozwiąże problem, skoro narzędzia do wykrywania treści AI wciąż są zawodne? Sam dokument polityki przyznaje, że „some editors may have similar writing styles to LLMs” – co oznacza, że uczciwy edytor może być podejrzewany, a nieuczciwy może działać bezkarnie. Z drugiej strony, argument o dysproporcji jest mocny: generowanie treści przez AI zajmuje sekundy, weryfikacja – godziny. Wikipedia to jeden z największych zbiorów danych treningowych dla modeli AI. Jeśli te modele zatrują własne źródło, skutki mogą być odczuwalne przez całą branżę. Być może ważniejsze niż sam zakaz jest pytanie, czy Wikipedia jest w stanie go egzekwować – i co to mówi o przyszłości platform opartych na pracy wolontariuszy w erze autonomicznych agentów.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Problem, który daje do myślenia całej branży
Wikipedia jest nie tylko jedną z najczęściej odwiedzanych stron w internecie, ale też podstawowym źródłem danych treningowych dla modeli AI. Treści generowane przez LLM-y na Wikipedii tworzą ryzyko kumulacyjne: nieścisły lub zmyślony tekst trafia do encyklopedii, jest pobierany przez firmy AI i ponownie wchodzi do danych treningowych przyszłych modeli.
To pętla, o której branża AI woli nie rozmawiać zbyt głośno.
Hannah Clover, Wikimedian roku 2024, skomentowała głosowanie krótko: „LLM text has been really frowned upon for a while, but it’s good to have that officially be the case.” Weteran David Lovett, prowadzący newsletter Edit History, był dosadniejszy: „The Internet is already awash with slop. Wikipedia should do everything it can to stay clean.”
Angielska Wikipedia, nie cała Wikipedia
Warto podkreślić: zakaz obejmuje wyłącznie anglojęzyczną edycję. Każda edycja językowa działa niezależnie. Hiszpańska Wikipedia idzie nawet dalej, zakazując wszelkiego użycia LLM-ów, bez żadnych wyjątków dla korekty czy tłumaczenia.
Czy inne wersje językowe pójdą śladem angielskiej? Na razie nic nie wskazuje, żeby decyzja miała charakter globalny. Ale precedens już istnieje – i trudno sobie wyobrazić, żeby kolejne edycje mogły go zignorować w nieskończoność.
