Administracja Trumpa opublikowała w piątek projekt ram legislacyjnych dla sztucznej inteligencji w Stanach Zjednoczonych. Dokument ma jeden wyraźny cel: ujednolicić politykę AI na poziomie federalnym i skutecznie zamknąć usta stanom, które do tej pory próbowały regulować tę technologię na własną rękę.
Biały Dom nie owijał w bawełnę. „Te ramy mogą odnieść sukces tylko wtedy, gdy będą stosowane jednolicie w całych Stanach Zjednoczonych. Patchwork sprzecznych przepisów stanowych osłabiłby amerykańską innowacyjność i naszą zdolność do prowadzenia w globalnym wyścigu AI” – czytamy w oświadczeniu Białego Domu.
Federalizm, ale tylko na papierze
Propozycja centralnie blokuje możliwość regulowania przez stany samego procesu tworzenia AI, uznając to za kwestię „z natury międzystanową”, powiązaną z bezpieczeństwem narodowym i polityką zagraniczną. Stany zachowują jedynie wąskie kompetencje w sprawach ogólnych, takich jak przepisy antyfraudowe, ochrona dzieci, zagospodarowanie przestrzenne i własny użytek AI przez instytucje stanowe.
To nie jest przypadkowy kierunek. Trzy miesiące temu Trump podpisał rozporządzenie wykonawcze nakazujące agencjom federalnym identyfikować „uciążliwe” przepisy stanowe dotyczące AI. Departament Handlu miał 90 dni na sporządzenie takiej listy – i do dziś jej nie opublikował.
Krytycy są jednoznaczni. Brendan Steinhauser, CEO The Alliance for Secure AI, stwierdził wprost: „White House AI czar David Sacks continues to do the bidding of Big Tech at the expense of regular, hardworking Americans. This federal AI framework seeks to prevent states from legislating on AI and provides no path to accountability for AI developers for the harms caused by their products.”
Branża AI przyjęła propozycję z entuzjazmem – i trudno się dziwić. Teresa Carlson, prezeska General Catalyst Institute, stwierdziła: „This framework is exactly what startups have been asking for: a clear national standard so they can build fast and scale. Founders shouldn’t have to navigate a patchwork of conflicting state AI laws that impede innovation.”
Mój komentarz
Rozumiem logikę jednego standardu. Inwestowanie w produkt AI, który musi spełniać 50 różnych zestawów wymagań stanowych, to rzeczywiście koszmar dla każdego startupu. Z tej perspektywy federalna jednolitość brzmi sensownie. Ale jest drugie dno. Stany przez ostatnie lata były jedynym miejscem, gdzie w ogóle działo się cokolwiek konkretnego w kwestii regulacji AI. Nowy Jork, Kalifornia – to tam powstawały przepisy z prawdziwymi zębami. Teraz mamy dostać „minimalnie uciążliwy standard narodowy” bez jasnych mechanizmów egzekwowania i bez niezależnego nadzoru. To nie jest regulacja. To jest gest. Czy rzeczywiście wierzymy, że Big Tech będzie dobrowolnie chronił użytkowników, skoro nie musi? I na ile „minimalne obciążenie” oznacza faktyczną ochronę, a na ile – jej pozory?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Bezpieczeństwo dzieci? Sprawa rodziców
Jednym z najbardziej kontrowersyjnych elementów dokumentu jest podejście do ochrony nieletnich. W czasie gdy część stanów agresywnie forsowała przepisy nakładające twarde obowiązki na platformy, Biały Dom idzie w przeciwnym kierunku.
„Parents are best equipped to manage their children’s digital environment and upbringing” – głosi framework. Administracja wzywa Kongres do dostarczenia rodzicom narzędzi – kontroli kont i zarządzania czasem ekranowym. Ale zamiast twardych wymogów prawnych dla platform, dokument używa kwalifikatorów w rodzaju „commercially reasonable” i ogólnych apeli, by firmy „wdrożyły funkcje zmniejszające ryzyko seksualnego wykorzystywania dzieci.”
Bez minimalnych standardów, bez egzekwowalnych wymagań. Same dobre chęci.
Konkretne mechanizmy, których brakuje w dokumencie:
- niezależny nadzór nad platformami AI
- jasne progi odpowiedzialności dla deweloperów
- wiążące standardy ochrony małoletnich
- mechanizmy egzekwowania przepisów na poziomie federalnym
Prawo autorskie i wolność słowa po amerykańsku
W kwestii praw autorskich framework próbuje balansować między ochroną twórców a interesem firm AI, które trenują modele na istniejących dziełach. Dokument powołuje się na „fair use” – co jest niemal dosłownym echem argumentów, jakimi spółki AI bronią się w sądach w kolejnych sprawach o naruszenie praw autorskich.
Osobny rozdział to wolność słowa. Framework koncentruje się na zapobieganiu „cenzurze rządowej” i zabrania Kongresowi zmuszania platform do usuwania treści z powodów „partyjnych lub ideologicznych”. Brzmi nieźle – do momentu, gdy zauważymy, że właśnie ta sama administracja wydała wcześniej rozporządzenie nakazujące agencjom federalnym unikać „woke AI.” Tę sprzeczność wprost wytknął Samir Jain z Center for Democracy and Technology: „The framework rightly says that the government should not coerce AI companies to ban or alter content based on 'partisan or ideological agendas,’ yet the Administration’s 'woke AI’ Executive Order this summer does exactly that.”
W tle: sprawa Anthropic kontra Pentagon
Trudno nie zauważyć, że framework pojawia się w momencie, gdy Anthropic pozwał Departament Obrony. Firma twierdzi, że Pentagon oznaczył ją jako „ryzyko dla łańcucha dostaw” w odwecie za odmowę udostępnienia swoich modeli do masowej inwigilacji i autonomicznych systemów broni. Trump wcześniej określał Anthropic i jego CEO Dario Amodeia mianem „woke” i „radykalnych lewicowców.”
Język frameworku o ochronie „legalnej ekspresji politycznej i sprzeciwu” wydaje się pisany z myślą o tej konkretnej sytuacji. Albo przynajmniej pasuje do niej jak ulał.
Jedno jest pewne: Waszyngton właśnie postawił się w centrum decyzji o tym, jak AI będzie rozwijane i regulowane w USA. Stany mają się z tym pogodzić. A użytkownicy – liczyć na dobrą wolę platform.
