Kiedy Brett Levenson dołączył do Facebooka w 2019 roku, myślał, że problem moderacji treści da się rozwiązać lepszą technologią. Szybko przekonał się, że to złudzenie. Dziś wraca do gry z własnym startupem i świeżym finansowaniem.
Moneta w powietrzu, czyli jak Facebook moderował treści
Levenson trafił do Meta prosto z Apple, gdzie wcześniej zajmował się business integrity. Na Facebooku zastał system, który trudno nazwać systemem. Moderatorzy mieli do dyspozycji 40-stronicowy dokument z polityką, przetłumaczony maszynowo na ich język ojczysty. Na ocenę każdego zgłoszonego materiału przysługiwało im około 30 sekund. Decyzja nie polegała wyłącznie na stwierdzeniu, czy treść narusza zasady, ale też na wyborze reakcji: blokada, ban użytkownika, ograniczenie zasięgu.
Skuteczność? Według Levensona „slightly better than 50% accurate” / „nieznacznie lepsza niż 50 procent”. Czyli mniej więcej tyle, co rzut monetą. A i tak decyzja padała wiele dni po tym, gdy szkoda już się dokonała.
„Policy as code”, czyli polityka, którą można uruchomić
Z tej frustracji urodziła się idea „policy as code”. Zamiast statycznych dokumentów, które ktoś musi interpretować pod presją czasu, Levenson wyobraził sobie reguły zapisane jako wykonywalna, aktualizowana logika, ściśle powiązana z egzekwowaniem. To stało się fundamentem Moonbounce, startupu, który właśnie ogłosił zamknięcie rundy finansowania w wysokości 12 milionów dolarów. Rundę współprowadzili Amplify Partners i StepStone Group.
Moonbounce działa jako dodatkowa warstwa bezpieczeństwa wszędzie tam, gdzie treść jest generowana, czy to przez użytkownika, czy przez AI. Firma wytrenowała własny duży model językowy, który:
- analizuje dokumenty polityki danego klienta,
- ocenia treści w czasie rzeczywistym,
- zwraca odpowiedź w czasie poniżej 300 milisekund,
- podejmuje działanie: spowalnia dystrybucję, kieruje do ludzkiej weryfikacji albo blokuje treść natychmiast.
Dziś platforma obsługuje ponad 40 milionów przeglądów dziennie i dociera do ponad 100 milionów aktywnych użytkowników na dobę. Wśród klientów są: Channel AI, platforma generowania obrazów i wideo Civitai oraz serwisy do odgrywania ról z postaciami AI, jak Dippy AI i Moescape.
Bezpieczeństwo jako przewaga, nie koszt
Levenson forsuje tezę, która w branży wciąż nie jest oczywista. „Safety can actually be a product benefit / Bezpieczeństwo może być realną zaletą produktu” – mówi. Dodaje, że nigdy tak nie było, bo bezpieczeństwo zawsze traktowano jako coś, co dochodzi później, a nie coś, co wbudowuje się w produkt od początku.
Obserwuję ten rynek od dłuższego czasu i widzę wyraźny paradoks: z jednej strony mamy lawinowo rosnącą liczbę chatbotów, towarzyszy AI i generatorów treści, z drugiej wciąż kulejące mechanizmy ochrony użytkowników. Moderacja treści przez lata była traktowana jako centrum kosztów, nie jako element strategii produktowej. Podejście Moonbounce, które stawia bezpieczeństwo jako mierzalną przewagę konkurencyjną, brzmi sensownie. Ale mam pytanie, które zadaję sobie przy każdym podobnym projekcie: kto pilnuje pilnujących? Model językowy trenowany na zasadach danego klienta będzie tak dobry, jak te zasady. A zasady piszą firmy, które mają własne interesy. To nie jest argument przeciwko Moonbounce, to argument za tym, żeby branża zadawała takie pytania głośno.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Presja rośnie, bo wypadki się zdarzają
Kontekst dla całego tego projektu jest brutalny. Chatboty oskarżano o kierowanie nastolatków i wrażliwych użytkowników ku samookaleczeniu i myślom samobójczym. Generatory obrazów, jak Grok od xAI, trafiły pod ostrzał po tym, jak użyto ich do tworzenia nieautoryzowanych materiałów o charakterze intymnym z wizerunkami konkretnych osób. Wewnętrzne zabezpieczenia zawodzą, a firmy zaczynają rozumieć, że to nie tylko problem wizerunkowy, ale pytanie o odpowiedzialność prawną.
Levenson twierdzi, że coraz więcej firm AI szuka wsparcia z zewnątrz. Argument jest techniczny, ale zrozumiały: „We’re a third party sitting between the user and the chatbot, so our system isn’t inundated with context the way the chat itself is / Jesteśmy zewnętrzną stroną siedzącą między użytkownikiem a chatbotem, więc nasz system nie jest przeciążony kontekstem tak jak sam czat”. Model konwersacyjny musi pamiętać dziesiątki tysięcy tokenów historii. Moonbounce pilnuje wyłącznie egzekwowania reguł w czasie rzeczywistym.
Podobną logikę stosuje Tinder. Szef działu trust and safety platformy randkowej opisał niedawno, jak korzystanie z rozwiązań opartych na LLM pozwoliło osiągnąć dziesięciokrotną poprawę skuteczności wykrywania problematycznych treści.
Nie blokuj, kieruj
Levenson i jego wspólnik Ash Bhardwaj, z którym pracował jeszcze w Apple i który odpowiadał tam za infrastrukturę chmurową i AI, pracują teraz nad funkcją nazwaną „iterative steering”. Pomysł wziął się wprost z tragedii: w 2024 roku 14-letni chłopiec z Florydy odebrał sobie życie po tym, jak obsesyjnie angażował się w relację z chatbotem Character AI.
Zamiast brutalnej blokady w momencie, gdy pojawiają się niebezpieczne tematy, system miałby przechwytywać rozmowę i przekierowywać ją w czasie rzeczywistym, modyfikując zapytania tak, by chatbot stał się nie tylko empatycznym, ale aktywnie pomocnym rozmówcą.
Przejęcie przez Meta? „Moi inwestorzy by mnie zabili”
Kiedy dziennikarz zapytał Levensona, czy nie widzi naturalnego wyjścia z biznesu przez przejęcie przez Meta, co zamknęłoby koło jego kariery, były człowiek Facebooka był zaskakująco szczery. „My investors would kill me for saying this, but I would hate to see someone buy us and then restrict the technology / Moi inwestorzy by mnie za to zabili, ale nienawidziłbym myśli, że ktoś nas kupi i ograniczy tę technologię” – powiedział. Bo wtedy nikt inny już by na niej nie skorzystał.
To zdanie mówi wiele. I o rynku, i o samym Levensonie.
