Meta właśnie przekroczyła granicę, której większość firm technologicznych dotąd unikała. Zuckerberg wysłał do pracowników wewnętrzny memo z informacją, że na ich służbowych komputerach zostało zainstalowane oprogramowanie śledzące każde kliknięcie, każdy ruch myszy, każde naciśnięcie klawisza oraz robiące zrzuty ekranu w czasie rzeczywistym.
Cel? Trenowanie modeli AI. I nie ma możliwości rezygnacji.
Reuters jako pierwszy ujawnił treść wewnętrznego memo rozesłanego do pracowników firmy. Narzędzie nosi nazwę Model Capability Initiative i działa na wyznaczonej liście aplikacji oraz stron służbowych. Pracownicy zostali poinformowani, że mogą „zrobić swoją część, po prostu wykonując codzienną pracę” („do their part to help by just doing their daily work”). Program działa pod parasolem szerszej inicjatywy, która wcześniej nosiła nazwę AI for Work, a teraz przemianowano ją na Agent Transformation Accelerator. Za całością stoi Meta Superintelligence Labs.
Co dokładnie zbiera Meta?
Lista jest konkretna:
- ruchy myszy i kliknięcia
- naciśnięcia klawiszy (keystrokes)
- zrzuty ekranu w czasie rzeczywistym
- sposób nawigacji po aplikacjach i stronach służbowych
Meta nie kryje celu. Rzecznik firmy wyjaśnił w rozmowie z TechCrunch: „If we’re building agents to help people complete everyday tasks using computers, our models need real examples of how people actually use them” / „Jeśli budujemy agentów, którzy mają pomagać ludziom w codziennych zadaniach przy komputerze, nasze modele potrzebują prawdziwych przykładów tego, jak ludzie faktycznie z nich korzystają.”
Brzmi sensownie z technicznego punktu widzenia. Problem w tym, co kryje się po drugiej stronie tej logiki.
Brak możliwości rezygnacji to nie szczegół
To jest serce całej sprawy. Pracownicy nie mogą zrezygnować z uczestnictwa w programie. To nie jest dobrowolna inicjatywa badawcza. To obowiązkowy warunek pracy w firmie.
Meta zapewnia, że dane zostaną zanonimizowane i nie będą wykorzystywane do innych celów niż trening AI. Ale nawet przy tych gwarancjach, brak opt-outu zmienia charakter całego przedsięwzięcia. Jak trafnie ujął to Gizmodo: pracownicy „są w zasadzie informowani, że trenują systemy, które ich zastąpią” („essentially being told they are training the systems that will replace them”).
Mam mieszane uczucia wobec tego, co robi Meta. Z jednej strony rozumiem logikę techniczną: behawioralne dane od prawdziwych użytkowników przy komputerze są nieporównanie lepsze niż dane syntetyczne. Jeśli chcesz zbudować agenta, który naprawdę potrafi nawigować po interfejsach tak jak człowiek, musisz go tego nauczyć na podstawie tego, jak człowiek naprawdę to robi. Z drugiej strony brak opt-outu to poważny sygnał ostrzegawczy. Nie chodzi nawet o to, czy dane są bezpieczne. Chodzi o to, co ten ruch mówi o relacji między pracodawcą a pracownikiem w erze AI. Czy pracownik ma prawo wiedzieć, do czego konkretnie zostanie użyta jego praca? Czy ma prawo odmówić, nie tracąc przy tym pracy? To pytania, na które branża technologiczna będzie musiała odpowiedzieć szybciej, niż jej się wydaje.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Połączenie ze Scale AI i Alexandrem Wangiem
Program nie wziął się znikąd. W zeszłym roku Meta przejęła 49% udziałów w firmie Scale AI, specjalizującej się w labelowaniu danych, płacąc za to ponad 14 miliardów dolarów. Alexandr Wang, były CEO Scale AI, teraz kieruje właśnie Meta Superintelligence Labs – tym samym działem, który rozesłał memo do pracowników.
To nie jest przypadkowe obsadzenie stanowisk. Wang doskonale rozumie, czym jest jakość danych treningowych i jak budować infrastrukturę do ich pozyskiwania. Model Capability Initiative to dokładnie ten rodzaj inicjatywy, do której jego doświadczenie zostało stworzone.
Co Meta chce zbudować?
Celem jest stworzenie agentów AI zdolnych do samodzielnego wykonywania zadań przy komputerze: nawigowania po menu, korzystania ze skrótów klawiszowych, wykonywania wieloetapowych przepływów pracy. To zachowania trudne do zasymulowania, ale łatwe do uchwycenia od prawdziwych użytkowników.
Meta podobno buduje agentów zaprojektowanych do pracy obok pracowników, a nawet podobno jeden z nich powstaje specjalnie dla samego Zuckerberga. Firma wyraźnie przyspiesza wyścig z OpenAI i Google w segmencie agentic AI.
Pracownicy nie są więc wolontariuszami w projekcie badawczym. Są de facto nieopłaconą siłą roboczą produkującą dane.
RODO może powiedzieć „nie”
Europa to osobny rozdział. Podejście Mety stoi w bezpośredniej sprzeczności z RODO, które wymaga wyraźnej zgody i proporcjonalności przy zbieraniu danych osobowych przez pracodawców. Samo anonimizowanie danych może nie wystarczyć jako zabezpieczenie według unijnych standardów.
Warto pamiętać, że Meta ma za sobą długą historię starć z europejskimi regulatorami w kwestii prywatności użytkowników Facebooka i Instagrama. Dodanie do tej listy danych behawioralnych własnych pracowników to kolejny front, którego Meta nie potrzebuje akurat teraz, kiedy chce maksymalnie przyspieszyć rozwój AI.
Czy inne firmy pójdą tym samym tropem?
To jest pytanie, które wykracza daleko poza samą Metę. Jeśli firma z jej skalą i zasobami zdecyduje, że zachowanie pracowników przy komputerze jest zastrzeżonym zasobem do trenowania AI, inne firmy technologiczne zauważą ten ruch. Presja konkurencyjna na budowanie lepszych agentów jest realna, a dane behawioralne od prawdziwych pracowników są autentycznie bardziej wartościowe niż syntetyczne alternatywy.
Pojawia się pytanie, gdzie leży granica między prawami pracodawcy do danych a prywatnością pracownika. Meta właśnie dała swoją odpowiedź. Reszta branży będzie musiała teraz zająć jakieś stanowisko, niezależnie od tego, czy regulatorzy zareagują, czy nie.
