OpenAI opublikowało 13-stronicowy dokument zatytułowany „Industrial Policy for the Intelligence Age: Ideas to Keep People First”, w którym proponuje rządom rewolucyjne reformy gospodarcze i społeczne jako odpowiedź na nadchodzącą erę superinteligentnych systemów AI. Sam Altman, CEO OpenAI, w rozmowie z Axios przyznał wprost, że skala nadchodzących zmian jest porównywalna z erą Nowego Ładu i Erą Progresywną z początku XX wieku.
Nie manifest, lecz punkt wyjścia do debaty
OpenAI nie wydaje poleceń. Altman zaznaczył wyraźnie, że dokument to propozycja otwierająca dyskusję, nie gotowa recepta. Powiedział Axios:
„We want to put these things into the conversation. Some will be good. Some will be bad. But … we do feel a sense of urgency. And we want to see the debate of these issues really start to happen with seriousness.”
„Chcemy wprowadzić te kwestie do rozmowy. Niektóre pomysły okażą się dobre, inne złe. Ale czujemy pilność sytuacji. Chcemy, żeby debata na te tematy zaczęła się toczyć poważnie.”
Dokument pojawia się w chwili, gdy Kongres szykuje się do debaty nad regulacjami AI. OpenAI otwiera jednocześnie nowe biuro w Waszyngtonie i finansuje granty na wsparcie tych rozmów.
Sześć kluczowych propozycji
OpenAI zebrało swoje postulaty w kilku obszarach. Oto najważniejsze z nich:
- Publiczny fundusz majątkowy – zarządzany przez państwo, zasilany częściowo przez firmy AI. Inwestuje w spółki technologiczne i szerszy ekosystem AI, a zyski trafiają bezpośrednio do każdego obywatela. Model wzorowany na Permanent Fund stanu Alaska.
- Podatek od automatyzacji pracy – tzw. „robot tax”: opłaty powiązane z zastępowaniem pracowników przez systemy AI, przesunięcie bazy podatkowej z wynagrodzeń na zyski kapitałowe i podatek korporacyjny.
- Czterodniowy tydzień pracy – pilotaże 32-godzinnych tygodni pracy bez obniżki wynagrodzenia. OpenAI nazywa to „dywidendą wydajnościową” dla pracowników.
- „Prawo do AI” – dostęp do narzędzi AI traktowany jako prawo podstawowe, porównywalne z dostępem do elektryczności czy internetu. Ma być przystępny dla pracowników, małych firm, szkół i bibliotek.
- Automatyczny siatka bezpieczeństwa – jeśli wskaźniki związane z wypieraniem miejsc pracy przez AI osiągną z góry ustalone progi, automatycznie uruchamiają się tymczasowe świadczenia: zasiłki, ubezpieczenia płacowe, pomoc finansowa.
- Playbooki awaryjne dla niekontrolowanej AI – to najbardziej niepokojący fragment dokumentu. OpenAI przyznaje wprost, że mogą istnieć scenariusze, w których niebezpieczne systemy AI nie dadzą się łatwo odwołać, bo stają się autonomiczne i zdolne do samoreprodukcji. Odpowiedzią ma być koordynacja z rządami.
Komentarz redaktora
Kiedy czytam ten dokument, pierwsza reakcja jest taka: to odważne i potrzebne. Nareszcie ktoś z branży mówi głośno o tym, co wielu ekspertów szepcze od lat. Podatek od automatyzacji, fundusz majątkowy, krótszy tydzień pracy – to nie są idee lewicowych radykałów, to logiczna konsekwencja tego, że AI będzie wchłaniać kolejne segmenty rynku pracy. Ale jest w tym wszystkim jeden bardzo poważny problem. OpenAI to firma, która jedną ręką buduje technologię zdolną do wywołania opisywanych zakłóceń, a drugą pisze plany ratunkowe dla rządów. Altman wprost mówi o ryzyku cyberataków i broni biologicznej możliwej do skonstruowania przez AI – i jednocześnie przyspiesza. Czy naprawdę można ufać, że ktoś, kto buduje pożar, jest najlepszym strażakiem? Z drugiej strony – kto inny miałby to robić? Rządy są technologicznie co najmniej o dekadę za branżą. Może właśnie dlatego ten dokument, mimo całej swojej niezręczności, jest lepszy niż cisza. Kluczowe pytanie brzmi: czy Kongres i europejskie instytucje faktycznie wezmą te propozycje poważnie, czy potraktują je jako kolejny lobby paper wielkiej tech?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Superinteligencja już puka do drzwi
OpenAI definiuje w dokumencie superinteligencję jako systemy AI zdolne do przewyższania najmądrzejszych ludzi – nawet tych wspomaganych przez AI. Firma zaznacza, że ten moment jest bliżej, niż większość ludzi sądzi. Altman powiedział Axios, że ryzyko poważnego cyberataku umożliwionego przez modele AI nowej generacji jest w tym roku „całkowicie realne”, a używanie AI do tworzenia nowych patogenów biologicznych to „kwestia, która już niedługo przestanie być teoretyczna.”
OpenAI w roli architekta systemu
Axios celnie zauważył, że dokument to jednocześnie strategia korporacyjna i manifest polityczny. OpenAI stara się pozycjonować jako odpowiedzialny aktor – firma, która ostrzegła i zaproponowała rozwiązania. To rola, którą do tej pory zajmowało głównie Anthropic.
Altman zapytany o to, dlaczego ludzie powinni mu ufać, odpowiedział:
„I think almost everybody involved in our industry feels the gravity of what we’re doing. … We all take that responsibility very seriously. We feel that way every day. We also think it’s very important that no one person is making the decisions by themselves that are going to impact all of us.”
„Myślę, że prawie każdy w naszej branży czuje wagę tego, co robimy. Wszyscy traktujemy tę odpowiedzialność bardzo poważnie. Czujemy to każdego dnia. Uważamy też, że absolutnie kluczowe jest to, żeby żadna jedna osoba nie podejmowała samodzielnie decyzji, które dotkną nas wszystkich.”
Kontekst: branża pod presją
OpenAI nie działa w próżni. Propozycje pojawiają się na tle rosnących obaw społecznych – już dziś AI jest wymieniana wśród przyczyn zwolnień w takich firmach jak Block czy Atlassian. Wzrost popularności narzędzi dla przedsiębiorstw, zarówno od OpenAI, jak i od Anthropic, odcisnął piętno na wycenach wielu spółek software’owych w tzw. zjawisku „SaaSocalypse”. ChatGPT korzysta już ponad 900 milionów ludzi tygodniowo.
OpenAI ostrzega, że AI może pogłębiać nierówności, wzmacniając przewagi tych, którzy już dziś są dobrze ustawieni do korzystania z nowej technologii, podczas gdy inni ryzykują całkowite wykluczenie z nowych szans. Jednocześnie firma zaznacza, że zyski mogą skoncentrować się w rękach zaledwie kilku graczy.
Dokument to nie ustawa, nie regulacja, nie zobowiązanie. To 13 stron, które otwierają rozmowę. Teraz piłka jest po stronie rządów.
