Przez lata ostrzegali przed sztuczną inteligencją w postach, podcastach i na konferencjach. Teraz część z tych, którzy słuchali, zaczęła działać. I to dosłownie. Atak na dom Sama Altmana w San Francisco, strzały do domu radnego w Indianapolis z notatką „no data centers” przy drzwiach, podpalenia samochodów autonomicznych. Coś się zmieniło w tym dyskursie.
Od słów do czynów
20-letni Daniel Alejandro Moreno-Gama rzucił urządzenie zapalające w stronę domu szefa OpenAI, a następnie próbował wyważyć drzwi siedziby firmy krzesłem. Przy sobie miał dokument, w którym pisał o zagrożeniach ze strony AI, wyraźnie wspominał o zamiarze zabicia Altmana i wymienił imiona oraz adresy członków zarządów i dyrektorów generalnych firm AI oraz inwestorów, zgodnie z dokumentami złożonymi przez FBI.
Trzy dni przed atakiem na dom Altmana, w nocy, ktoś oddał strzały do domu radnego z Indianapolis, Rona Gibsona. Przy drzwiach zostawiono kartkę z napisem „no data centers”. W środku spał jego ośmioletni syn.
Moreno-Gama to nie żaden ideologiczny lider. Jego adwokatka powiedziała w sądzie, że klient przechodził kryzys zdrowia psychicznego w trakcie zdarzenia, i oceniła, że postawiono mu zbyt poważne zarzuty jak na to, co de facto było „przestępstwem przeciwko mieniu.” Rodzice chłopaka twierdzą, że nigdy wcześniej nie skrzywdził nikogo i że zaczął mieć problemy ze zdrowiem psychicznym stosunkowo niedawno.
Ruch bezpieczny, ale z pękniętą powłoką
Organizacje takie jak PauseAI czy Stop AI natychmiast odcięły się od napastnika. PauseAI przyznało, że Moreno-Gama był na ich serwerze Discord, ale nie był formalnym członkiem organizacji; serwer jest otwarty dla każdego.
„We exist to give people a peaceful, democratic path to act on concerns about AI, and so this attack is the opposite of everything we stand for” / „Istnieje po to, żeby dać ludziom pokojową, demokratyczną ścieżkę wyrażania obaw wobec AI, więc ten atak jest zaprzeczeniem wszystkiego, za czym stoimy” – powiedział CNN szef PauseAI, Maxime Fournes.
Stop AI ujawniło, że Moreno-Gama pytał wcześniej na ich forum: „Czy zostanę zbanowany za mówienie o przemocy?” Przestał pisać, gdy odpowiedziano mu, że tak. Organizacja dodała przy tym, że jej współzałożyciele zostali usunięci z grupy rok wcześniej po „prowokacyjnych wypowiedziach dotyczących przemocy.”
Mam mieszane uczucia wobec całej tej historii. Z jednej strony rozumiem, skąd bierze się niepokój wobec AI. To nie jest irracjonalny strach, kiedy szefowie firm technologicznych sami mówią, że budują coś potencjalnie niebezpiecznego dla ludzkości, a jednocześnie proszą tylko o „lekką regulację”. Z drugiej jednak strony ekstrapolowanie tego lęku na przemoc fizyczną to przeskok, którego nie można zaakceptować. Pytanie, które naprawdę warto postawić, brzmi: czy środowisko AI safety przez lata budowało narrację apokalipsy tak intensywnie, że część słuchaczy uznała ją za dosłowne wezwanie do działania? I czy sami twórcy tej narracji wzięli kiedykolwiek odpowiedzialność za jej konsekwencje?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
OpenAI skłócone ze sobą
Wewnątrz OpenAI widać napięcie. Chris Lehane, szef działu polityki globalnej firmy, powiedział w wywiadzie, że część krytyki AI „niekoniecznie jest odpowiedzialna” i że „kiedy wrzucasz takie myśli i pomysły w przestrzeń publiczną, mają one konsekwencje.”
Odpowiedział mu kolega z firmy, Jason Wolfe, pracujący nad zagadnieniem alignment. Na platformie X napisał:
„I believe our job should be to earn trust by making the benefits real, being honest about risks and uncertainty, sharing what we learn, measuring real-world impacts, and supporting public oversight and resilience. And while I of course agree that the recent violence is terrible, unjustified, and may have been encouraged by a small number of bad actors, I think it’s bad for the public discourse to lump all AI critics together as 'doomers’ and suggest that it’s inappropriate for them to express their concerns.”
„Uważam, że naszym zadaniem jest budowanie zaufania przez urzeczywistnianie korzyści, szczerość co do ryzyk i niepewności, dzielenie się tym, czego się uczymy, mierzenie rzeczywistych skutków i wspieranie publicznego nadzoru. I choć oczywiście zgadzam się, że niedawna przemoc jest straszna, nieuzasadniona i mogła być podsycana przez nielicznych złych aktorów, myślę, że szkodliwe dla publicznego dyskursu jest wrzucanie wszystkich krytyków AI do jednego worka 'doomerów’ i sugerowanie, że nie powinni wyrażać swoich obaw.”
I like Chris, but I really disagree with the positions presented in this article.
I believe our job in the AI industry isn't just to explain why AI will be good for people. I believe our job should be to earn trust by making the benefits real, being honest about risks and… https://t.co/4UEcVs0nIA
— Jason Wolfe (@w01fe) April 16, 2026
Kto słucha, kto mówi
Rosnąca fala głosów ostrzegających przed AI, obejmująca badaczy, liderów branży i twórców treści, coraz mocniej nagłaśnia najgorsze scenariusze: od masowych zwolnień po egzystencjalne zagrożenia ze strony zaawansowanych systemów.
Dane mówią same za siebie: AI była przywoływana jako przyczyna ponad 55 tysięcy zwolnień w USA w 2025 roku, co stanowi ponad dwunastokrotny wzrost względem liczby sprzed zaledwie dwóch lat. Równocześnie Goldman Sachs prognozuje, że w długiej perspektywie AI może dotknąć od 6 do 7 procent miejsc pracy w Stanach Zjednoczonych.
Doug McAdam, profesor socjologii ze Stanford badający ruchy społeczne i polityczne, zwraca uwagę na szerszy mechanizm:
„(AI) is such a massive, looming issue that people, frankly, don’t understand and are just diffusely afraid of” / „(AI) to tak masywne, nadciągające zagrożenie, że ludzie po prostu go nie rozumieją i odczuwają rozlany strach” – powiedział CNN, dodając, że ruch tego rodzaju ma tendencję do tworzenia radykalnego skrzydła, i że nie jest to nic wyjątkowego.
Radykałowie wzmacniają umiarkowanych
Paradoksalnie, jak zauważył McAdam, gwałtowne wybuchy przemocy historycznie często zwiększają wiarygodność bardziej umiarkowanych skrzydeł ruchów społecznych. Firmy AI będą musiały poważnie przemyśleć strategię odpowiedzi, bo cały ruch zyska na widoczności nawet wtedy, gdy radykalna frakcja jest potępiana.
Warto zauważyć, że debata toczy się na kilku poziomach jednocześnie:
- filozoficznym: czy ostrzeżenia przed AI to odpowiedzialna komunikacja ryzyka, czy budowanie apokaliptycznej narracji dla celów politycznych i finansowych?
- prawnym: czy grupy takie jak PauseAI i Stop AI mogą być pociągnięte do odpowiedzialności za działania swoich byłych członków?
- regulacyjnym: jak rządy powinny reagować na przemoc anty-AI, jednocześnie nie stłumiając uzasadnionej debaty publicznej?
Zegar tyka w obie strony
Widać wyraźne napięcie między obietnicami technologów a codziennością. Altman snuł wizje „universal basic compute” i świata bez konieczności pracy, tymczasem inflacja nie odpuszcza, a pokolenie Z wchodzi na rynek pracy, który Alex Hanna, badacz wpływu AI na społeczeństwo, opisuje jako rozjazd „między zaufaniem konsumentów a ich portfelami i tym, co technolodzy mówią, że przyszłość powinna wyglądać.”
To nie jest wyłącznie problem „doomerów”. To problem całego sektora AI, który przez lata karmił świat wizjami raju, a teraz zaskoczony odkrywa, że część słuchaczy uwierzyła dosłownie w drugą stronę tej samej monety. Przemoc jest nie do zaakceptowania. Ale pytania, które stoją za nią, nie znikną razem z wyrokiem dla Moreno-Gamy.
