Meta obiecywała, że jej inteligentne okulary Ray-Ban zostały zaprojektowane z myślą o prywatności użytkowników. Nowe śledztwo szwedzkich dziennikarzy i pozew zbiorowy złożony w USA pokazują, że rzeczywistość wygląda zupełnie inaczej. Nagrania z okularów trafiają do ludzkich pracowników w Kenii, którzy widzą na nich dosłownie wszystko.
Skandynawskie śledztwo, które uruchomiło lawinę
W lutym 2026 roku szwedzkie dzienniki Svenska Dagbladet i Göteborgs-Posten opublikowały wspólne śledztwo dotyczące tego, co tak naprawdę dzieje się z materiałami wideo zbieranymi przez okulary Ray-Ban Meta. Okazało się, że firma korzysta z podwykonawców w Kenii, którzy ręcznie przeglądają i oznaczają nagrania w ramach procesu trenowania sztucznej inteligencji.
Pracownicy, którzy rozmawiali z dziennikarzami, nie ukrywali szoku.
„We see everything, from living rooms to naked bodies. Meta has that type of content in its databases.”
Inny pracownik dodał wprost: „In some videos you can see someone going to the toilet, or getting undressed. I don’t think they know, because if they knew they wouldn’t be recording.”
To nie są abstrakcyjne obawy. To konkretne relacje ludzi, których zadaniem jest klikanie i etykietowanie treści wrzucanych przez użytkowników mających pełne zaufanie do deklaracji firmy o prywatności.
Co widzą annotatorzy danych?
Zakres przeglądanych materiałów jest szeroki i niepokojący. Wśród nagrań, które trafiały do rąk kenijskich pracowników, znalazły się:
- nagrania z łazienek i sypialni
- materiały pokazujące osoby rozbierające się lub w intymnych sytuacjach
- numery kart kredytowych i dokumenty finansowe
- w co najmniej jednym udokumentowanym przypadku: nagranie partnera użytkownika, który nigdy nie wyraził zgody na bycie rejestrowanym (okulary leżały na szafce nocnej)
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: To jest jeden z tych przypadków, gdzie prawo zwyczajnie nie nadąża za technologią. Użytkownicy okularów Ray-Ban Meta, którzy zdecydowali się na udostępnianie danych do trenowania AI, prawdopodobnie rozumieli to jako „moje dane idą do algorytmu”. Nikt rozsądny nie zakłada, że po drugiej stronie siedzi człowiek i ogląda wideo z jego sypialni. Z drugiej strony Meta rzeczywiście informuje w swojej polityce prywatności o możliwości ręcznej weryfikacji danych. Pytanie brzmi: czy ktokolwiek to czyta? I czy taki zapis w regulaminie faktycznie stanowi świadomą zgodę? To są pytania, na które prawo powinno już mieć odpowiedź, a nie ma.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Meta odpowiada. Mało przekonująco
Rzecznik Mety odniósł się do śledztwa standardową formułą korporacyjną: firma korzysta z kontrahentów do przeglądu danych w celu poprawy jakości usług, tak jak robią to inne firmy, a dane są wcześniej filtrowane w celu ochrony prywatności. Spółka powołała się przy tym na własną politykę prywatności, która faktycznie zawiera wzmiankę o możliwości „automatycznego lub ręcznego” przeglądu interakcji z AI.
Prawnik Brian Hall z kancelarii Stubbs Alderton & Markiles nie owijał w bawełnę komentując sprawę dla Fortune: „That’s horrifying. It’s kind of exactly what we all imagined would happen.”
Hall przywołał historię Google Glass z 2013 roku, kiedy prototypowe okulary Googla wywołały falę społecznego oburzenia, zakazy w barach, restauracjach i kasynach, a ich użytkowników zaczęto nazywać „Glasshole’ami”. Wtedy projekt trafił do zamrażarki. Tym razem Meta poszła znacznie dalej, a Ray-Bany są już produktem masowym.
Pozew zbiorowy trafia do sądu
4 marca 2026 roku, niecały tydzień po publikacji szwedzkiego śledztwa, do sądu federalnego w Kalifornii trafił pozew zbiorowy. Powodami są Gina Bartone i Mateo Canu, którzy oskarżają Meta Platforms oraz producenta oprawek, Luxotticę of America, o naruszenie prawa federalnego i stanowego.
Zarzut jest konkretny: firma nie poinformowała użytkowników, że ich nagrania trafiają na serwery, a następnie do kenijskiego podwykonawcy zajmującego się ręcznym etykietowaniem. Pozew odwołuje się do rosnącej świadomości społecznej na temat prywatności w dobie AI i „surveillance economy”, wskazując, że Meta doskonale wiedziała o tych obawach, a mimo to reklamowała okulary hasłem „designed for privacy, controlled by you.”
Największy problem? Nie użytkownicy, lecz osoby postronne
Hall wskazuje w rozmowie z Fortune na aspekt, który umyka w dyskusji. Problem nie dotyczy głównie samych właścicieli okularów, którzy przynajmniej formalnie zaakceptowali regulamin. Prawdziwymi ofiarami są osoby postronne, rejestrowane bez jakiejkolwiek wiedzy i zgody.
„Sadly, our privacy laws are not designed to protect those people. They’re designed to protect the people who are wearing the glasses and their ability to manage their own data” – stwierdził Hall.
Sytuację komplikuje dodatkowo fakt, że Meta podobno rozważa dodanie do okularów funkcji rozpoznawania twarzy. To zmienia skalę problemu diametralnie. Zamiast biernego rejestrowania obrazu, okulary stałyby się narzędziem do natychmiastowej identyfikacji każdej napotkanej osoby, automatycznie, bez żadnego wysiłku ze strony użytkownika.
Prawo, które przegrywa z rzeczywistością
Hall nie ma złudzeń co do obecnego stanu prawnego: istniejące przepisy o prywatności nie zostały stworzone z myślą o nowej rzeczywistości, którą tworzą produkty takie jak Ray-Ban Meta. Są aplikowane na siłę do sytuacji, do których nie pasują, i rzadko egzekwowane nawet w tych przypadkach, gdy technicznie by się nadawały.
„I’m not seeing that people are meaningfully addressing it in any way” – ocenił prawnik. Jego zdaniem, dopóki kwestia prywatności nie zostanie potraktowana serio na poziomie legislacyjnym, wszystkie inne regulacje dotyczące AI pozostają tylko „window dressing”.
Meta nie odpowiedziała na pytania redakcji Fortune w tej sprawie.
