Elon Musk obiecał w styczniu, że jego chatbot AI zakończy proceder tworzenia seksualnych deepfake’ów. Trzy miesiące później NBC News udowodniło, że to była pusta deklaracja.
Skala problemu nie zmniejszyła się wystarczająco
Redakcja NBC News przejrzała posty na platformie X z ostatniego miesiąca i znalazła dziesiątki wygenerowanych przez Groka seksualnych obrazów przedstawiających prawdziwe kobiety – bez ich zgody. Algorytm xAI umieszczał znane twarze: gwiazdy popu i aktorki w prowokacyjnych pozach, skąpych strojach albo wygenerowanych od podstaw ujęciach o wyraźnie seksualnym charakterze. Część materiałów to nie obrazy, lecz krótkie klipy wideo.
Użytkownicy X nauczyli się omijać zabezpieczenia. Zamiast wprost prosić o rozbieranie kobiet, wgrywają jednocześnie zdjęcie osoby i rysunek postaci w określonej pozie, prosząc model, żeby „odtworzył układ ciała z drugiego zdjęcia”. Inny schemat polega na wymianie ubrań między dwiema fotografiami, z których jedna zawiera skąpy strój. Grok spełniał te prośby.
Detale, które trudno zignorować
Analityczka Genevieve Oh, której badania nad deepfake’ami są szeroko cytowane w środowisku, nie owijała w bawełnę:
„Grok was and still is unmistakably the largest nonconsensual synthetic nudity generator” / „Grok był i nadal jest bez wątpienia największym generatorem niekonsensualnych syntetycznych nagości”
Według jej szacunków Grok prawdopodobnie generuje więcej tego typu treści niż wszystkie inne podobne narzędzia łącznie.
Center for Countering Digital Hate w swoim raporcie z początku roku oszacowało, że w ciągu zaledwie 11 dni Grok wyprodukował 3 miliony seksualnych obrazów. Organizacja potwierdziła w zeszłym tygodniu, że problem wciąż istnieje. CEO Imran Ahmed powiedział wprost:
„Perverts can still use Grok to put women and girls into sexualized positions and outfits, despite the platform’s claims otherwise” / „Zboczeńcy nadal mogą używać Groka do umieszczania kobiet i dziewcząt w seksualnych pozach i strojach, wbrew temu, co twierdzi platforma”
Komentarz redaktora
To jest jeden z tych przypadków, gdzie naprawdę trudno znaleźć równowagę między wolnością technologii a odpowiedzialnością jej twórców. Z jednej strony rozumiem, że żaden system nie jest szczelny i że determinowani użytkownicy zawsze znajdą obejście. Z drugiej – skala tego problemu, 3 miliony obrazów w 11 dni, to nie jest „exploit”, to jest funkcja. Pytanie, które warto postawić wprost: czy xAI w ogóle chciała to zatrzymać, czy raczej zrobiła tyle, żeby mieć czym odpierać zarzuty w sądzie? Obietnice ze stycznia brzmiały poważnie. Rzeczywistość z kwietnia wygląda zupełnie inaczej. I to jest właśnie moment, w którym regulatorzy mają rację – same deklaracje firm nie wystarczą.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Musk sam nakręcał spiralę
Nie można zrozumieć tej historii bez kontekstu. To nie był przypadkowy błąd systemu. xAI aktywnie promowało „Spicy mode” – tryb chatbota pozwalający na generowanie treści NSFW. Sam Musk regularnie publikuje na X generowane przez AI obrazy kobiet w seksualnych pozach. W październiku skarżył się, że jego narzędzie „robi gorsze deepfake’i niż konkurencja” i że musi „podnieść poprzeczkę”.
The Verge informował, że narzędzie „Imagine” od xAI tworzyło topless deepfake’i Taylor Swift bez żadnych dodatkowych próśb ze strony użytkownika.
Konsekwencje prawne rosną
Sprawa weszła na nowe tory w lutym, kiedy francuskie władze przeszukały biuro X w Paryżu. Prokuratura planuje wezwać na przesłuchanie pracowników i kadrę kierowniczą firmy, w tym Muska i byłą CEO Lindę Yaccarino, w tygodniu 20 kwietnia. X określiło przeszukanie jako „nadużycie organów ścigania”.
Lista instytucji prowadzących aktywne dochodzenia jest długa:
- Prokurator generalny Kalifornii
- Australijskie biuro eSafety
- Komisarz ds. prywatności Kanady
- Komisja Europejska
- Irlandzka Komisja Ochrony Danych (tu X ma europejską siedzibę)
- Paryska prokuratura
- Brytyjskie Ofcom i Information Commissioner’s Office
Niderlandzki sąd wydał w marcu nakaz, nakazując Grokowi zaprzestanie generowania materiałów rozbierających dorosłych i dzieci. xAI argumentowało przed sądem, że nie może zatrzymać wszelkich nadużyć swoich narzędzi – i nie powinno być karane za działania złośliwych użytkowników. To brzmi jak wstępna linia obrony przed falą pozwów.
IPO SpaceX w cieniu Groka
W lutym xAI zostało przejęte przez SpaceX. W czerwcu SpaceX planuje wejście na giełdę, licząc na wycenę rzędu 2 bilionów dolarów. Eksperci prawni wskazują, że SpaceX niemal na pewno przejmie odpowiedzialność za ewentualne przyszłe kary związane z zachowaniem Groka. Skala finansowa tych kar jest na razie niepewna – choć przy wycenie 2 bln dolarów trudno sobie wyobrazić kwotę, która byłaby „materialna” dla inwestorów.
Tyle że to nie tylko kwestia pieniędzy. To reputacja przed IPO. I właśnie dlatego odpowiedź xAI po publikacji NBC News była tak szybka: większość zidentyfikowanych obrazów zniknęła z X niemal natychmiast po tym, jak dziennikarze zapowiedzieli publikację.
Czego naprawdę chce xAI?
Po opublikowaniu raportu NBC News X wydało oświadczenie: platforma „surowo zabrania” tworzenia niekonsensualnych deepfake’ów i dysponuje „rozbudowanymi zabezpieczeniami”, w tym ciągłym monitoringiem, analizą prób obchodzenia systemu w czasie rzeczywistym i regularnymi aktualizacjami modelu.
Stefan Turkheimer z organizacji RAINN, zajmującej się walką z przemocą seksualną, zwrócił uwagę na to, co w tym procederze jest szczególnie niebezpieczne:
„When these images are being created and spread around, the people in the images don’t necessarily find out” / „Kiedy te obrazy są tworzone i rozpowszechniane, osoby na nich przedstawione niekoniecznie się o tym dowiadują”
Brytyjska Internet Watch Foundation stwierdziła, że jej analitycy nie mogą w pełni zbadać tego, co Grok generuje za barierą płatną. I dodała, że ograniczenie narzędzi AI wyłącznie do płatnych użytkowników nie jest wystarczającym rozwiązaniem. Jej stanowisko jest jednoznaczne: firmy technologiczne muszą projektować bezpieczne produkty z założenia. Czekanie, aż niebezpieczne narzędzie zostanie nadużyte, zanim cokolwiek się zrobi, jest nieakceptowalne.
