Dziesiątki tysięcy ludzi na całym świecie były opłacane przez firmę współkontrolowaną przez Meta za trenowanie modeli AI – przeglądając cudze profile społecznościowe, zbierając chronione prawem autorskim prace artystów, a nawet transkrybując ścieżki dźwiękowe filmów pornograficznych. Ujawnienie to pochodzi z reportażu Guardiana, który dotarł do dziesięciorga pracowników tzw. platformy Outlier, zarządzanej przez Scale AI.
Czym jest Scale AI i dlaczego to ważne
Scale AI to firma, w której Meta Marka Zuckerberga posiada 49% udziałów. Jej platformę Outlier reklamuje się hasłem: „Zostań ekspertem, od którego uczy się AI” („Become the expert that AI learns from”). Firma kusi specjalistów z dziedziny medycyny, fizyki czy ekonomii, obiecując elastyczną pracę. W rzeczywistości wielu pracowników trafiło na zadania, które trudno pogodzić z takim opisem.
Co ciekawe, dawny CEO Scale AI, Alexandr Wang, jest dziś Chief AI Officerem w Meta, a dawny dyrektor zarządzający firmy, Michael Kratsios, pełni funkcję doradcy naukowego prezydenta USA, Donalda Trumpa. To nie jest mała, niezależna firma – to podmiot głęboko osadzony w technologiczno-politycznym ekosystemie.
Co dokładnie robili pracownicy?
Reportaż Guardiana opisuje szerokie spektrum zleconych zadań:
- przeglądanie publicznych kont na Instagramie i Facebooku, tagowanie osób po imieniu, oznaczanie ich znajomych, lokalizacji, a nawet wieku – w tym w przypadku nieletnich
- pobieranie chronionych prawem autorskim dzieł artystycznych w celu trenowania modeli generujących obrazy
- transkrypcja pornograficznych ścieżek audio
- oznaczanie zdjęć odchodów zwierzęcych i martwych zwierząt
- odpowiadanie na pytania w stylu: „Co zrobiłbyś, gdyby więzień odmówił posłuszeństwa?”
Jeden z pracowników – doktorant – opisał zadanie, w którym musiał oznaczać diagram narządów płciowych niemowlęcia. Rzecznik Scale AI zaprzeczył, by firma zlecała treści związane z materiałami seksualnymi dotyczącymi dzieci lub pornografią. Według firmy nieodpowiednie treści są usuwane po zgłoszeniu, a pracownicy nie są zobowiązani do kontynuowania zadań, które sprawiają im dyskomfort.
Komentarz redaktora
Ta historia to klasyczny przykład przepaści między tym, co firmy AI mówią publicznie, a tym, co dzieje się w praktyce. Scale AI nie jest wyjątkiem – to standard w całej branży data labellingu. Z jednej strony, ktoś musi wykonywać tę pracę: bez danych nie ma modeli, bez modeli nie ma AI, którą wszyscy podziwiamy. Z drugiej – warunki opisane przez pracowników Outlieru to sygnał alarmowy. Pytanie nie brzmi „czy ktoś to robi”, ale „jak” i „na czyich danych”. Scraping publicznych profili użytkowników Instagrama, włącznie z profilami osób nieletnich, pod hasłem „to dane publiczne” – to argument prawnie nośny, ale etycznie wątły. I właśnie o tym warto rozmawiać głośno.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
„Wielu z nas było naprawdę zdesperowanych”
Guardian rozmawiał z osobami zatrudnionymi jako tzw. taskerzy – dziennikarze, doktoranci, nauczyciele, bibliotekarze. Wspólny mianownik: szukali dodatkowego zarobku w czasie, gdy AI zagraża ich własnym zawodom. Jeden z artystów przyznał, że czuje „wewnętrzny wstyd i poczucie winy” za „bezpośredni wkład w automatyzację własnych marzeń”.
„A lot of us were really desperate. Many people really needed this job, myself included, and really tried to make the best of a bad situation” / „Wielu z nas było naprawdę zdesperowanych. Wiele osób naprawdę potrzebowało tej pracy, ja też – i naprawdę staraliśmy się jak najlepiej radzić sobie w złej sytuacji.”
Prawnicy reprezentujący pracowników gig economy w procesach przeciwko Scale AI szacują, że setki tysięcy ludzi na całym świecie pracuje dla platform podobnych do Outlieru.
Monitoring i „bait-and-switch”
Pracownicy Outlieru skarżą się też na warunki zatrudnienia. Byli stale monitorowani przez aplikację Hubstaff, która mogła robić zrzuty ekranu odwiedzanych stron internetowych. Scale AI twierdzi, że narzędzie służyło tylko do dokładnego rozliczania czasu pracy, nie do „aktywnego monitorowania”. Firma jest też oskarżana o taktykę „bait-and-switch” – obiecywanie wysokich zarobków na etapie rekrutacji, a następnie oferowanie znacznie niższych stawek.
Osobny problem: przed otrzymaniem niektórych zleceń pracownicy musieli przejść przez nieopłacane rozmowy kwalifikacyjne z AI. Wielu podejrzewa, że te rozmowy były po prostu kolejnym zestawem danych treningowych.
Dane Meta, kod etyczny i milczenie Anthropic
Taskerzy opisywali interakcje z ChatGPT i Claude’em. Część z nich przypuszczała, że trenuje nowy model Meta o roboczej nazwie Avocado. OpenAI oświadczyło, że zaprzestało współpracy ze Scale AI w czerwcu 2025 roku i że jego „supplier code of conduct sets out clear expectations for the ethical and fair treatment of all workers” / „kodeks postępowania dla dostawców określa jasne oczekiwania dotyczące etycznego i sprawiedliwego traktowania wszystkich pracowników”. Meta i Anthropic nie odpowiedziały na prośby o komentarz.
Sami pracownicy w większości nadal przyjmują zlecenia na Outlier. Nieregularne wypłaty, masowe zwolnienia, brak alternatyw. Jak ujął to jeden z nich: „I have to be positive about AI because the alternative is not great” / „Muszę podchodzić do AI pozytywnie, bo alternatywa nie jest dobra.”
