Brytyjski urząd ochrony danych osobowych (ICO) skontaktuje się z Meta po tym, jak szwedzkie media ujawniły, że outsourcingowi pracownicy firmy mieli dostęp do wrażliwych nagrań zarejestrowanych przez inteligentne okulary Ray-Ban Meta. Wśród materiałów znalazły się filmy z sypialni, toalet i sceny seksualne.
Śledztwo przeprowadziły dwa szwedzkie dzienniki: Svenska Dagbladet (SvD) i Goteborgs-Posten (GP). Ich dziennikarze dotarli do pracowników nairobjskiego podwykonawcy o nazwie Sama, który zajmuje się anotacją danych dla Meta. Zadanie tych osób polega na ręcznym oznaczaniu treści, by uczyć algorytmy rozpoznawania obrazów.
„We see everything – from living rooms to naked bodies” – tak jeden z pracowników opisał zakres materiałów, które trafiały na jego ekran.
Co widzieli pracownicy Sama?
Według relacji zebranych przez szwedzkich dziennikarzy, wśród przeglądanych materiałów znalazły się nagrania użytkowników korzystających z toalety, oglądających treści pornograficzne, a także przypadkowe rejestracje z sypialni. W jednym z opisanych przypadków mężczyzna zostawił włączone okulary w pokoju, które następnie nagrały jego żonę podczas rozbierania się.
Pracownicy opisywali surowe procedury bezpieczeństwa w miejscu pracy: kamery wszędzie, zakaz używania telefonów. Dane były anonimizowane, twarze miały być rozmywane. Tyle że, jak przyznali rozmówcy dziennikarzy, filtrowanie czasami zawodzi i twarze pozostają widoczne.
Meta: „to standardowa procedura, opisana w regulaminie”
Meta nie zaprzeczyła faktom. Firma potwierdziła BBC, że podwykonawcy mogą przeglądać treści przechwycone przez okulary w celu „ulepszania doświadczeń użytkowników” i że praktyka ta jest opisana w jej polityce prywatności.
„When people share content with Meta AI, like other companies we sometimes use contractors to review this data to improve people’s experience with the glasses, as stated in our Privacy Policy” – przekazała firma.
W brytyjskich warunkach korzystania z usług AI Meta zapisała, że przegląd interakcji może być „automated or manual (human)”. Problem w tym, że mało kto czyta dokumenty liczące dziesiątki stron drobnym drukiem.
Komentarz Piotra Wolniewicza, Redaktora Naczelnego AIPORT.pl:
Sprawa jest poważna, choć mechanizm sam w sobie nie jest nowy. Firmy technologiczne od lat korzystają z ludzkich adnotatorów do trenowania modeli AI i robią to jawnie, tyle że głęboko schowane w regulaminach. Problem polega na tym, że nikt rozsądny nie spodziewa się, że nagranie z okularów, które uruchomił przypadkowo, trafi do pracownika w Kenii.
Z jednej strony Meta ma rację: dane zbierane do trenowania AI trzeba jakoś oznaczać, a automatyczne metody nie są jeszcze wystarczająco precyzyjne. Z drugiej strony pytanie brzmi: czy użytkownicy rozumieją, na co wyrażają zgodę? Czy akapit w regulaminie to wystarczające poinformowanie kogoś, że jego intymne nagranie może obejrzeć nieznajomy na innym kontynencie? Bardzo wątpię.
Otwartą kwestią pozostaje też to, gdzie leży granica między ulepszaniem produktu a naruszeniem prywatności. I kto ją wyznacza.
ICO wchodzi do gry
Brytyjski ICO (Information Commissioner’s Office) poinformował BBC, że uważa doniesienia za „niepokojące” i zapowiedział wysłanie pisma do Meta z żądaniem wyjaśnień dotyczących zgodności z brytyjskim prawem ochrony danych.
„Devices processing personal data, including smart glasses, should put users in control and provide for appropriate transparency” – napisał urząd w oświadczeniu.
To nie pierwsza trudna chwila dla Sama. Firma:
- zaczynała jako organizacja non-profit, stawiająca na tworzenie miejsc pracy przez technologię
- posiada certyfikat etyczny B-corp
- wcześniej świadczyła usługi moderacji treści dla dużych firm technologicznych, co spotkało się z krytyką i doprowadziło do pozwów byłych pracowników
- oficjalnie zakończyła działalność w obszarze moderacji treści i publicznie wyraziła żal z powodu przyjęcia tamtych zleceń
Okulary, które „widzą za dużo”
We wrześniu 2025 roku Meta zaprezentowała nową linię urządzeń AI we współpracy z markami Ray-Ban i Oakley. Okulary mają diodę sygnalizującą nagrywanie, a firma oficjalnie przestrzega przed nagrywaniem w prywatnych przestrzeniach i bez wiedzy innych osób.
Tyle że w praktyce jest inaczej. BBC wcześniej rozmawiało z kobietami, które były filmowane bez zgody przez użytkowników inteligentnych okularów. Problem nie leży wyłącznie w wadliwych procedurach jednej firmy. To systemowe wyzwanie całej branży wearables, która rośnie szybciej niż zdolność regulatorów do jej nadzorowania.
Pytanie, które powinniśmy sobie zadać jako społeczeństwo: czy jesteśmy gotowi na świat, w którym każde okulary mogą być kamerą, a nagrania automatycznie lądują w chmurze cudzego modelu AI?
