Tysiące ludzi na całym świecie mikrolicencjonuje swoje twarze, głosy i prywatne rozmowy firmom szkolącym modele AI. Dla jednych to ratunek finansowy, dla innych zaczyna się koszmar tożsamości.
Jacobus Louw wyszedł pewnego ranka na swój codzienny spacer po Cape Town, żeby nakarmić mewy. Tym razem wziął telefon i nagrał kilka krótkich filmów ze swoich stóp i widoku chodnika. Wideo przyniosło mu 14 dolarów, czyli mniej więcej dziesięciokrotność dziennej stawki minimalnej w RPA. Albo, jak sam liczy, połowę tygodniowych zakupów spożywczych.
Louw zarabia w ten sposób przez Kled AI, aplikację płacącą użytkownikom za przesyłanie danych: zdjęć, filmów i nagrań audio, które służą do trenowania modeli sztucznej inteligencji. W ciągu kilku tygodni zebrał 50 dolarów, po prostu dokumentując swoje codzienne życie.
Globalny wyścig po dane
Tysiące kilometrów od Cape Town, w Ranchi w Indiach, 22-letni student Sahil Tigga regularnie zarabia, udostępniając Silencio, platformie crowdsourcingowej, mikrofon swojego telefonu. Aplikacja rejestruje dźwięki otoczenia: ruch uliczny na ruchliwych skrzyżowaniach, hałas w restauracjach, szum w holach hotelowych. Tigga dojeżdża specjalnie do miejsc jeszcze niezarejestrowanych na mapie Silencio. Zarabia ponad 100 dolarów miesięcznie, co wystarcza mu na pokrycie wszystkich wydatków na jedzenie.
W Chicago 18-letni praktykant spawalniczy Ramelio Hill zarobił kilkaset dolarów, sprzedając prywatne rozmowy telefoniczne i wiadomości z bliskimi platformie Neon Mobile, która płaci 50 centów za minutę. Logika była prosta: uznał, że firmy technologiczne i tak zbierają jego dane, więc czemu nie dostać za to czegoś w zamian.
Ci ludzie to nowa kategoria pracowników gig economy. Uploadują momenty swojego życia, żeby nakarmić modele językowe pokroju ChatGPT i Gemini. I robią to w momencie, kiedy Silicon Valley desperacko potrzebuje danych.
Kryzys danych popycha firmy ku ludziom
Największe zbiory danych treningowych, takie jak C4, RefinedWeb czy Dolma, odpowiadające za niemal ćwierć najwyższej jakości treści w sieci, zaczynają blokować dostęp firmom AI. Naukowcy szacują, że laboratoria mogą wyczerpać zasoby świeżych tekstów do trenowania już w 2026 roku. Część firm próbuje zastępować je syntetycznymi danymi generowanymi przez własne modele, ale to ślepa uliczka: taki rekurencyjny proces prowadzi do degradacji jakości i w końcu do zapaści modelu.
Lukę wypełniają platformy takie jak Kled AI, Silencio czy Neon Mobile. Do tej samej kategorii należą Luel AI, wspierany przez inkubator Y Combinator i płacący 15 centów za minutę wielojęzycznych rozmów, oraz ElevenLabs, który umożliwia sklonowanie swojego głosu i jego licencjonowanie za 2 centy za minutę.
Zatrzymajmy się chwilę i spójrzmy na to trzeźwo. Z jednej strony mamy realne korzyści: dla Louw w RPA 14 dolarów za spacer to prawdziwe pieniądze. Dla Tiggi w Indiach 100 dolarów miesięcznie za rejestrowanie dźwięków miasta to pokrycie kosztów życia. Trudno moralizować wobec kogoś, kto po prostu próbuje przeżyć. Z drugiej strony, co się stanie z tymi nagraniami za 5 lat? Czy głos Tiggi trafi kiedyś do bota obsługi klienta bez jego wiedzy? Czy twarz któregoś z tych ludzi pojawi się w deepfake’u? Pytania pozostają bez odpowiedzi, bo transparentność tych platform jest żadna.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Licencja na „prawie wszystko”
Problem tkwi w szczegółach umów. Kiedy użytkownicy przesyłają dane na Neon Mobile czy Kled AI, podpisują licencję, która jest:
- ogólnoświatowa
- wyłączna
- nieodwołalna
- zbywalna
- bezpłatna (royalty-free)
Enrico Bonadio, profesor prawa na Uniwersytecie City St George’s w Londynie, mówi wprost: takie umowy pozwalają platformom i ich klientom robić „almost anything with that material, forever, with no further payment and no realistic way for the contributor to withdraw consent or meaningfully renegotiate”.
Jennifer King, badaczka prywatności danych ze Stanford Institute for Human-Centered Artificial Intelligence, wskazuje, że platformy te są niejasne co do tego, jak i gdzie dane trafią. Bez znajomości swoich praw użytkownicy ryzykują, że ich dane zostaną wykorzystane w sposób, którego nigdy nie przewidywali, i nie będą mieli żadnej możliwości odwołania.
Avi Patel, założyciel Kled AI, zapewnia, że umowy jego firmy ograniczają użycie danych wyłącznie do celów treningowych. „Cały biznes opiera się na zaufaniu użytkowników” – twierdzi, dodając, że firma weryfikuje kupujących i odrzuca tych o „questionable intent”.
Żal sprzedawcy
Nawet staranniej wynegocjowane umowy nie chronią przed konsekwencjami, których nie sposób przewidzieć. Adam Coy, aktor z Nowego Jorku, sprzedał swoje wizerunek w 2024 roku za 1000 dolarów firmie Captions (działającej teraz pod nazwą Mirage). Umowa wykluczała użycie jego tożsamości do celów politycznych, reklamowania alkoholu, tytoniu czy pornografii, a licencja miała wygasnąć po roku.
Niedługo potem znajomi zaczęli przesyłać mu filmy ze swoją twarzą i głosem, zbierające miliony wyświetleń. W jednym z nich, rolce na Instagramie, cyfrowy sobowtór Coya przedstawia się jako „vagina doctor” i promuje niesprawdzone suplementy dla kobiet w ciąży i po porodzie.
„It felt embarrassing to explain it to people” – powiedział Coy.
„The comments are strange to read because they comment on my physical appearance, but it’s not really me” – dodał. Decydując się na sprzedaż, kierował się logiką podobną do Hilla: firmy i tak zbierają dane z internetu, więc przynajmniej lepiej dostać coś w zamian.
Od tamtej pory Coy nie wrócił do sprzedawania swojego wizerunku.
Struktura bez wyjścia
Bouke Klein Teeselink, profesor ekonomii w King’s College London, uważa, że gig AI training to wyłaniająca się kategoria pracy, która będzie dynamicznie rosnąć. Ale Mark Graham, profesor geografii internetu na Oxfordzie i autor książki Feeding the Machine, ostrzega, że dla pracowników z krajów rozwijających się pieniądze mogą być znaczące w krótkim terminie, jednak „structurally this work is precarious, non-progressive and effectively a dead end”.
Platformy danych bazują na „wyścigu do dna w kwestii wynagrodzeń” i „tymczasowym popycie na dane ludzkie”. Kiedy ten popyt się przesunie, pracownicy zostaną bez ochrony, bez przenoszalnych umiejętności i bez siatki bezpieczeństwa. Jedynym zwycięzcą pozostają „platforms in the global north [that] capture all the enduring value” – stwierdza Graham.
Cena niewidzialnego ryzyka
Louw ze swoim nerwowym zaburzeniem przez lata nie mógł znaleźć pracy. Pieniądze z platform AI pozwoliły mu zaoszczędzić 500 dolarów na kurs masażu.
Tymczasem Hill dowiedział się o swojej decyzji sprzedaży więcej, niż chciał. We wrześniu, zaledwie kilka tygodni po uruchomieniu, Neon Mobile wyłączyło się po tym, jak TechCrunch odkrył lukę bezpieczeństwa umożliwiającą dostęp do numerów telefonów, nagrań rozmów i transkryptów użytkowników. Hill nigdy nie otrzymał żadnego powiadomienia. Teraz martwi się, jak jego głos może być używany w sieci.
Pytanie nie brzmi już tylko: ile można zarobić na własnych danych? Brzmi: co z nimi zrobią, kiedy już ich nie będziesz potrzebować?
