Reddit wypowiada wojnę botom. CEO Steve Huffman ogłosił wczoraj nową politykę platformy: konta wykazujące „podejrzane lub zautomatyzowane zachowanie” będą musiały udowodnić, że stoją za nimi prawdziwi ludzie. Brzmi prosto, ale diabeł tkwi w szczegółach.
Jak to będzie działać?
Weryfikacja nie będzie masowa. Huffman podkreśla, że monit pojawi się tylko w „rzadkich” przypadkach i „nie będzie dotyczył większości użytkowników” – jedynie tych, u których Reddit wykryje sygnały wskazujące na automatyczne działanie. System analizuje sygnały na poziomie konta i inne czynniki, w tym to, jak szybko dane konto próbuje pisać lub publikować treści.
Jeśli konto nie przejdzie testu? Może zostać zablokowane.
Na razie weryfikacja będzie opierać się na metodach działających na urządzeniu, takich jak Face ID i passkeys. Platforma rozważa jednak alternatywne metody, w tym World ID, czyli skaner twarzy prowadzony przez Sama Altmana.
Sam Huffman ujął to tak:
„I think the internet needs verification solutions like this, where your account information, usage data, and identity never mix.”
Dobre boty też dostaną swoje miejsce
To nie tylko walka z botami. Reddit wprowadza równolegle etykietę [APP] dla zautomatyzowanych kont, które działają legalnie i z pożytkiem dla użytkowników, podobnie jak oznaczenia „dobrych botów” na X. Deweloperzy, którzy używają botów w dozwolony sposób, mogą je teraz oficjalnie oznaczyć. Reddit opublikował już instrukcje, jak to zrobić.
To istotna zmiana podejścia. Platforma nie traktuje automatyzacji jako czegoś z definicji złego, lecz chce wiedzieć, co jest botem, a co człowiekiem. Transparentność zamiast ślepego banowania.
Dlaczego teraz?
Zmiany mają odpowiedzieć na rosnący problem botów w mediach społecznościowych i szerzej w sieci. Boty są używane do wpływania na politykę, szerzenia dezinformacji, sztucznego pompowania popularności, tajnego marketingu produktów czy generowania fałszywych kliknięć reklam.
Według Cloudflare ruch generowany przez boty przekroczy ruch ludzki jeszcze przed 2027 rokiem, jeśli uwzględnić crawlery i agentów AI.
Reddit ma szczególny powód do obaw. Google drastycznie zwiększył widoczność Reddita w wynikach wyszukiwania od 2024 roku, co zamieniło platformę w raj dla spam botów napędzanych SEO. Logika jest prosta: opublikuj na Reddicie, pojaw się wysoko w Google. Trudno o lepszą zachętę do nadużyć.
Przestroga była też bardzo konkretna. Niedawno reaktywowany Digg zamknął otwartą betę po zaledwie trzech miesiącach z powodu „bezprecedensowego problemu z botami” napędzanego przez „zaawansowanych agentów AI i zautomatyzowane konta”, jak napisał sam CEO Digg, Justin Mezzell.
Teoria martwego internetu przestaje być teorią
Współzałożyciel Reddita Alexis Ohanian odniósł się do tzw. „teorii martwego internetu”, czyli przekonania, że boty przewyższają liczebnie ludzi w sieci, a większość treści i aktywności online jest już automatyczna lub generowana przez AI.
W erze agentów AI to przestaje być teoria spiskowa.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem intencje Reddita i szczerze kibicuję temu kierunkowi. Internet bez możliwości odróżnienia człowieka od maszyny to poważny problem cywilizacyjny, nie tylko techniczny. Ale mam obawy. Po pierwsze: kto decyduje, co jest „podejrzanym zachowaniem”? Aktywny użytkownik piszący dużo i szybko może zostać ofiarą fałszywego alarmu. Po drugie: weryfikacja przez World ID Sama Altmana to ciekawy pomysł, ale jednocześnie projekt, który sam zbiera dane biometryczne na masową skalę. Czy lekiem na boty ma być kolejna wielka baza danych o ludzkich twarzach? I po trzecie, najważniejsze: Reddit zbudował swoją tożsamość na anonimowości. Każdy krok w stronę weryfikacji tożsamości to krok, który może tę społeczność odpychać. Pytanie, czy więcej użytkowników opuści Reddita z powodu botów, czy z powodu weryfikacji, jest wciąż otwarte.
Co z treściami generowanymi przez AI?
Tu Reddit stąpa po cienkim lodzie. Platforma nie ujawniła, jak duża część jej treści jest generowana przez AI, a walka z tzw. AI slop okazała się trudna nawet dla moderatorów, nawet w subredditach, które oficjalnie zakazały generatywnej AI.
Huffman podkreśla, że walczy z botami, nie z ludźmi używającymi narzędzi AI do tworzenia treści. Różnica jest ważna, choć coraz trudniej ją utrzymać w praktyce.
Reddit usuwa średnio 100 000 kont dziennie w ramach walki z botami i spamem. To liczba, która mówi wszystko o skali problemu.
Prywatność kontra bezpieczeństwo
Huffman stara się to wyważyć. Weryfikacja ma potwierdzać „człowieczeństwo”, a nie tożsamość. Reddit zamierza „potwierdzać człowieczeństwo”, a nie weryfikować faktyczną tożsamość użytkowników, co mogłoby zniszczyć anonimowość, z której platforma jest znana.
Najciekawszy fragment całego ogłoszenia to jednak ta deklaracja Huffmana:
„The best long-term solutions will be decentralized, individualized, private, and ideally not require an ID at all.”
Cel jest słuszny. Droga do niego jeszcze niepewna. Reddit robi ruch, który może być przełomowy lub bardzo kosztowny. Zobaczymy, którą stronę historii wypisze sobie jako pierwszą.
