Trzy nastolatki z Tennessee złożyły pozew zbiorowy przeciwko xAI, firmie Elona Muska odpowiedzialnej za chatbota Grok. Twierdzą, że technologia stworzona przez spółkę posłużyła do wygenerowania realistycznych, seksualnych obrazów i filmów z ich wizerunkiem – gdy były jeszcze dziećmi.
Nie Grok, ale algorytm xAI
To ważne rozróżnienie. Pozew nie dotyczy bezpośrednio Groka ani platformy X. Sprawca – który według dokumentów sądowych miał „bliskie i przyjacielskie relacje” z jedną z powódek – korzystał z bliżej niezidentyfikowanej aplikacji mobilnej, która działała na algorytmie xAI. Zdjęcia ofiary pozyskiwał z różnych źródeł: z jej własnych wiadomości, ze zdjęć klasowych w szkolnym roczniku i z mediów społecznościowych.
Jeden z wygenerowanych filmów przedstawiał powódkę „rozbierającą się do naga”. Materiały nie były w żaden sposób oznaczone jako wygenerowane przez AI. Sprawca wytworzył też podobne treści przedstawiające 18 innych osób i wymieniał się nimi online. Został aresztowany.
Celowe licencjonowanie na zewnątrz
Prawnicy powódek twierdzą, że xAI świadomie licencjonowało swoją technologię aplikacjom zewnętrznym – często działającym poza terytorium USA. „In this way, xAI could attempt to outsource the liability of their incredibly dangerous tool” – czytamy w pozwie.
To nie jest pierwsza sprawa tego rodzaju, ale pierwsza, w której nieletnie ofiary wprost pozywają xAI za materiały przedstawiające ich seksualne wykorzystanie. Wcześniej influencerka Ashley St. Clair – matka dziecka Muska – pozwała firmę za generowanie na platformie X nagich zdjęć jej wizerunku z okresu, gdy była niepełnoletnia.
Mamy tu do czynienia z prawdziwym testem dla całej branży. Z jednej strony modele generatywne są coraz potężniejsze i otwierają drzwi do zastosowań, które jeszcze kilka lat temu były niemożliwe. Z drugiej – ten sam potencjał jest regularnie wykorzystywany do wyrządzania realnych krzywd konkretnym ludziom, często dzieciom. Pytanie nie brzmi „czy AI może to zrobić?”, ale „dlaczego firmy nadal na to pozwalają?”. xAI nie wdrożyło cyfrowych znaków wodnych dla generowanych obrazów, choć Google i OpenAI już tak zrobiły. To nie jest przypadek – to decyzja biznesowa. I właśnie tę decyzję próbuje zakwestionować ten pozew.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Branża wie o problemie. Tylko xAI nie reaguje
Aplikacje z funkcją tzw. „nudyfikacji” istnieją od lat w ciemnych zakamarkach sieci. Jednak w ubiegłym roku duże firmy technologiczne – w tym Google, OpenAI i xAI – zaktualizowały swoje narzędzia do generowania obrazów w sposób, który pozwala na usuwanie ubrań z ludzkich sylwetek. Różnica jest jednak istotna:
- Google i OpenAI wdrożyły cyfrowe znaki wodne ujawniające AI jako źródło obrazu
- xAI jak dotąd nie przyjęło żadnego takiego standardu
Wygenerowany materiał wyglądał na tyle realistycznie, że powódki były nim wyraźnie wstrząśnięte. Jak opisuje sam pozew: „Like a rag doll brought to life through the dark arts, this child can be manipulated into any pose, however sick, however fetishized, however unlawful. To the viewer, the resulting video appears entirely real.”
„Chcemy, żeby to przestało mieć sens biznesowo”
Vanessa Baehr-Jones, prawniczka reprezentująca nastolatki, nie kryje celów pozwu. Powódki – figurujące w dokumentach jako Jane Does 1, 2 i 3 – domagają się odszkodowania za krzywdę emocjonalną i inne szkody. Ale przede wszystkim chcą zmiany sposobu, w jaki firmy AI podejmują decyzje dotyczące treści seksualnych. „We want to make it one that does not make any business sense anymore” – powiedziała.
xAI nie odpowiedziało na prośbę o komentarz.
