Federalny sąd w Los Angeles odmówił w czwartek spółce xAI tymczasowego wstrzymania egzekucji kalifornijskiego prawa nakazującego firmom AI ujawnianie danych, na których trenują swoje modele. To dotkliwa porażka dla jednej z najdroższych firm sztucznej inteligencji na świecie i wyraźny sygnał, że Kalifornia nie zamierza ustąpić w swoim dążeniu do większej przejrzystości branży.
O co chodzi z AB 2013?
Ustawa AB 2013, znana jako Generative Artificial Intelligence: Training Data Transparency Act, została podpisana przez gubernatora Gavina Newsoma we wrześniu 2024 roku i weszła w życie 1 stycznia 2026 roku. Nakłada ona na firmy tworzące generatywne modele AI obowiązek publicznego publikowania informacji o danych wykorzystanych do treningu. Konkretnie chodzi o:
- wskazanie źródeł danych i kiedy były zbierane,
- informację o tym, czy zbiory danych zawierają treści chronione prawem autorskim, znakami towarowymi lub patentami,
- ujawnienie, czy dane osobowe były częścią treningu,
- podanie informacji o tym, czy dane były licencjonowane lub kupowane,
- wskazanie udziału danych syntetycznych w procesie treningu.
To ostatnie może służyć jako swoista miara jakości modelu. Zwolennicy etycznej AI przekonują, że taka transparentność pomaga ocenić, czy dany system nie utrwala dyskryminacji lub innych szkodliwych wzorców.
xAI: to narusza wolność słowa i kradnie nam tajemnice handlowe
xAI pozwało stan Kalifornia w grudniu 2025 roku, domagając się trwałego zakazu egzekwowania ustawy wobec spółki. Argumentacja opierała się na dwóch filarach prawnych. Po pierwsze, firma twierdziła, że przymusowe ujawnianie danych treningowych stanowi naruszenie wolności słowa zagwarantowanej przez Pierwszą Poprawkę do Konstytucji USA. Po drugie, wskazywała na Piątą Poprawkę, według której państwo nie może przejmować własności prywatnej bez stosownego odszkodowania.
W pozwie czytamy, że AB 2013 to „reżim ujawniania niszczący tajemnice handlowe, który daje konkurentom mapę drogową pokazującą, jak firmy takie jak xAI rozwijają i trenują swoje własnościowe modele AI.”
Sędzia okręgowy Jesus Bernal odrzucił jednak wniosek o tymczasowe wstrzymanie egzekucji, stwierdzając że xAI nie wykazało na tym etapie, iż jego pozew ma realne szanse powodzenia. Sprawa główna toczy się dalej, ale na razie firma musi przestrzegać prawa.
To był naprawdę zły tydzień dla xAI
Warto dodać, że porażka w sprawie AB 2013 nastąpiła zaledwie dzień po innym niepowodzeniu sądowym. 25 lutego federalny sędzia oddalił odrębny pozew xAI przeciwko OpenAI, w którym spółka Muska oskarżała swojego głównego rywala o kradzież tajemnic handlowych. Sprawa, która budziła niemałe zainteresowanie ze względu na osobistą historię między Muskiem a Samem Altmanem, zakończyła się bez dramatycznego rozstrzygnięcia.
Dwie porażki sądowe w dwa dni to coś, co trudno zignorować.
Jest tu zresztą pewna ironia, na którą zwracają uwagę obserwatorzy: xAI jednocześnie przekonuje, że dane treningowe to święte tajemnice handlowe, których żaden rząd nie ma prawa ujawniać, i jednocześnie oskarża konkurenta o kradzież właśnie takich tajemnic.
„To ciekawy moment w historii regulacji AI” – komentuje Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl. „Z jednej strony transparentność danych treningowych to postulat, który trudno kwestionować. Użytkownicy mają prawo wiedzieć, na czym uczono modele, którym powierzają swoje pytania, dokumenty i dane. Z drugiej strony, argumenty xAI o tajemnicach handlowych nie są całkowicie pozbawione sensu – szczególnie w środowisku, gdzie konkurencja jest brutalna, a wyścig technologiczny toczy się o miliardy dolarów. Pytanie brzmi: czy można zbudować sensowny system przejrzystości, który chroni uzasadnione interesy biznesowe, a jednocześnie daje opinii publicznej realną wiedzę o tym, skąd pochodzi AI, której używa? Kalifornia próbuje na to odpowiedzieć. Zobaczymy, czy to wystarczy.”
Califonia nie zamierza odpuszczać
Rzecznik Departamentu Sprawiedliwości Kalifornii skomentował wyrok słowami: „celebrates this key win and remains committed to continuing our defense” ustawy. Prokurator generalny stanu Rob Bonta buduje zresztą szerzej zakrojony program nadzoru nad AI w obliczu zastoju w regulacjach federalnych.
Biuro Bonty prowadzi też osobne postępowanie wobec xAI w związku z generowaniem przez chatbota Grok treści o charakterze seksualnym bez zgody zainteresowanych, w tym dotyczących nieletnich. Firma otrzymała wcześniej wezwanie do zaprzestania tych praktyk, ale regulatorzy twierdzą, że spółka uchyla się od odpowiedzialności i nadal zezwala na pewien rodzaj tego rodzaju treści płatnym subskrybentom.
„Just because you stop going forward doesn’t mean you get a pass on what you did” – powiedział Bonta.
Co to oznacza dla całej branży?
Skutki tego wyroku wykraczają daleko poza xAI. Ustawa obowiązuje wszystkich twórców generatywnych modeli AI dostępnych w Kalifornii, co w praktyce oznacza niemal wszystkich liczących się graczy: OpenAI, Google, Anthropic i innych. Era „czarnej skrzynki” w treningu AI zaczyna się zamykać – przynajmniej w największym stanie USA.
Dla inwestorów to sygnał, że ryzyko regulacyjne w sektorze AI jest realne i rośnie. Firmy, które od początku budowały swoje pipeline’y danych z myślą o ewentualnej kontroli, są dziś w znacznie lepszej pozycji niż te, które liczyły na to, że pytania o dane treningowe nigdy nie padną.
xAI ma ochotę walczyć dalej i sprawa główna wciąż się toczy. Ale na razie Musk przegrywa z Kalifornią – i to na własnym podwórku.
