Gubernator Kalifornii Gavin Newsom podpisał wczoraj rozporządzenie wykonawcze, które stawia stan w wyraźnej opozycji wobec polityki Donalda Trumpa w kwestii sztucznej inteligencji. To nie jest zwykła regulacja techniczna – to deklaracja polityczna i próba zbudowania alternatywnego centrum decyzyjnego w sprawach AI na poziomie stanowym.
Napięcie między Waszyngtonem a Sacramento narasta od miesięcy. W grudniu 2025 roku Trump podpisał rozporządzenie „Ensuring a National Policy Framework for Artificial Intelligence”, które wprost zachęca do blokowania stanowych przepisów dotyczących AI i grozi wstrzymaniem federalnego finansowania stanom, które nie dostosują się do federalnej polityki. Dla Kalifornii – stanu z potencjalnie 1,8 miliarda dolarów w funduszach szerokopasmowych na szali – to nie jest puste ostrzeżenie.
Newsom uderza w stół
Nowe rozporządzenie Newsoma idzie w zupełnie innym kierunku. Gubernator zobowiązuje agencje stanowe do wdrożenia surowszych standardów przy zakupach rozwiązań AI – firmy, które chcą robić interesy z Kalifornią, muszą wykazać, że ich technologie:
- nie rozpowszechniają nielegalnych treści,
- są wolne od stronniczości algorytmicznej lub posiadają mechanizmy jej przeciwdziałania,
- nie naruszają praw obywatelskich i wolności słowa.
Dokument idzie jeszcze dalej: Californian Department of Technology ma opracować standardy znakowania wodnego (watermarking) treści generowanych przez AI – to pionierskie rozwiązanie w skali całego kraju. Dodatkowym elementem jest platforma Engaged California, czyli narzędzie do cyfrowej demokracji, przez które mieszkańcy stanu będą mogli wpływać na kształtowanie polityki AI i odpowiadać na pytania o jej wpływ na rynek pracy.
„California’s always been the birthplace of innovation. But we also understand the flip side: in the wrong hands, innovation can be misused in ways that put people at risk” – stwierdził Newsom w oficjalnym komunikacie.
Czy stanowe regulacje mają rację bytu?
Sprawa jest bardziej skomplikowana, niż wygląda na pierwszy rzut oka. Z jednej strony rozumiem logikę Newsoma – przy bierności Waszyngtonu ktoś musi stawiać granice. Szczególnie jeśli chodzi o ochronę dzieci, prywatność danych czy deepfejki. Ale widzę też realne zagrożenie w tym, co się dzieje: jeśli każdy stan zacznie regulować AI po swojemu, firmy technologiczne staną przed prawdziwym koszmarem compliance. Patchwork przepisów może faktycznie hamować innowacje – i to nie jest argument branżowego lobbingu, to zwykła matematyka operacyjna. Pytanie brzmi: czy Stany Zjednoczone są w stanie wypracować sensowny kompromis federalny, zanim rozdrobnienie regulacyjne stanie się faktem? Bo na razie widzę dwie strony, które okopują się na swoich pozycjach, zamiast szukać rozwiązania. A czas gra przeciwko wszystkim.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Bitwa, która dopiero się zaczyna
Administracja Trumpa opublikowała w marcu 2026 roku legislacyjny framework AI, który wprost wzywa Kongres do ujednolicenia prawa i wyeliminowania stanowych przepisów nakładających „nadmierne obciążenia” na branżę. Biały Dom chce jednego zestawu reguł dla całego kraju – argument jest prosty: Chiny działają jako jeden organizm, a USA nie może sobie pozwolić na pięćdziesiąt różnych regulacji.
Tyle że Kalifornia i inni stanowi ustawodawcy już zapowiadają walkę sądową. Senator Scott Wiener z San Francisco, autor stanowych przepisów bezpieczeństwa AI, był bezpośredni: „If the Trump Administration tries to enforce this ridiculous order, we will see them in court.”
Kontekst ekonomiczny jest nie do pominięcia. Kalifornia to czwarta co do wielkości gospodarka na świecie. W Zatoce San Francisco pochodzi 51% całego amerykańskiego finansowania startupów AI. Stan jest domem dla 33 z 50 największych prywatnych firm AI na świecie i odpowiada za 25% globalnych patentów w tej dziedzinie. Kiedy Newsom mówi o „kołysce innowacji” – ma na myśli coś więcej niż retorykę.
Co to oznacza dla firm technologicznych?
Branża jest podzielona. Firmy venture capital, jak Andreessen Horowitz, jednoznacznie popierają federalne ujednolicenie przepisów. Z kolei część środowiska – szczególnie organizacje zajmujące się bezpieczeństwem cyfrowym i ochroną dzieci – stoi po stronie stanowych regulacji.
Nowe prawo stanowe, które już obowiązuje od początku 2026 roku, wprowadza między innymi:
- zakaz podszywania się chatbotów pod licencjonowanych specjalistów (lekarzy, psychologów),
- obowiązkowe ujawnianie użycia AI w policyjnych raportach,
- rygorystyczne zasady dla platform oferujących chatboty towarzyskie, z rozszerzoną ochroną dla nieletnich.
Kongres tymczasem nie potrafi wyegzekwować nawet podstawowych federalnych standardów – wcześniejsza próba wprowadzenia 10-letniego moratorium na stanowe regulacje AI rozbiła się o wewnętrzne spory w Partii Republikańskiej.
Próba sił, której wynik jest niepewny
To, co dzieje się teraz między Newsom a Trumpem, to nie jest typowy spór polityczny. To konfrontacja dwóch modeli zarządzania technologią. Jeden zakłada, że innowacja potrzebuje przestrzeni i minimalnej ingerencji regulacyjnej – że rynek sam ureguluje to, co trzeba. Drugi wychodzi z założenia, że przy tak transformacyjnej technologii jak AI ryzyko bezczynności jest zbyt wysokie.
Sądy rozstrzygną, jak daleko sięga władza federalna w tłumieniu stanowych przepisów. Ale już teraz widać, że Kalifornia nie zamierza czekać na wyrok.
