Dwudziestoletni Daniel Moreno-Gama rzucił urządzenie zapalające w dom Sama Altmana, a następnie próbował sforsować wejście do siedziby OpenAI w San Francisco przy użyciu krzesła, grożąc skrzywdzeniem wszystkich obecnych w środku. Sprawa trafiła przed sąd, oskarżony przebywa w areszcie bez możliwości wyjścia za kaucją.
To nie był zwykły akt wandalizmu. Według dokumentów złożonych przez FBI, Moreno-Gama miał przy sobie pismo, w którym opisywał rzekome zagrożenie ze strony AI dla ludzkości, pisał o zabójstwie Altmana oraz zawierał listę nazwisk i adresów członków zarządów i dyrektorów generalnych firm zajmujących się sztuczną inteligencją, a także ich inwestorów. Brzmi jak scenariusz thrillera. Problem w tym, że to się naprawdę wydarzyło.
Ruch AI safety odcina się od ataku
Główne organizacje zajmujące się bezpieczeństwem AI błyskawicznie odcięły się od incydentu. PauseAI – organizacja postulująca wstrzymanie prac nad zaawansowaną AI – potwierdziła, że Moreno-Gama bywał na ich serwerze Discord, ale nie był formalnym członkiem. Discord jest otwarty dla każdego.
„We exist to give people a peaceful, democratic path to act on concerns about AI, and so this attack is the opposite of everything we stand for” / „Istniejemy po to, żeby dać ludziom pokojową, demokratyczną ścieżkę działania w kwestii obaw związanych z AI i ten atak jest zaprzeczeniem wszystkiego, za czym się opowiadamy” – powiedział CNN Maxime Fournes, dyrektor generalny PauseAI.
Organizacja Stop AI ujawniła z kolei, że Moreno-Gama pytał na jej forum wcześniej w tym roku: „Will speaking about violence get me banned?” („Czy mówienie o przemocy spowoduje mój ban?”). Dostał odpowiedź twierdzącą i przestał pisać. Stop AI zaznaczyło jednocześnie, że jej współzałożyciele zostali usunięci z organizacji po „prowokacyjnych wypowiedziach dotyczących przemocy” w ubiegłym roku.
„Luigi-owanie” prezesów firm technologicznych
Zanim doszło do ataku, Moreno-Gama aktywnie uczestniczył w rozmowach w przestrzeniach online poświęconych ryzykom AI. W wymianie zdań z prowadzącymi podcast „The Last Invention” mówił wprost o „Luigi-owaniu prezesów firm technologicznych” – nawiązując do Luigiego Mangione, oskarżonego o zabójstwo dyrektora generalnego UnitedHealthcare Briana Thompsona w ataku o politycznym podłożu.
Część użytkowników X nazwała atak „uzasadnionym”. Jeden z nich wprost porównał Moreno-Gamę i Mangione, pisząc o nich jak o „bohaterach”. Na anty-AI subreddicie ktoś napisał: „If this relentless push for AI and the completely (sic) commoditization of what it means to be human is allowed to continue, this sort of episode will be much more common” / „Jeśli ten nieustanny napór na AI i całkowita utowarowienie tego, co oznacza bycie człowiekiem, będzie mogło trwać, tego rodzaju epizody będą o wiele częstsze”.
Adwokatka z urzędu oskarżonego, Diamond Ward, oświadczyła w sądzie, że jej klient znajdował się w trakcie kryzysu psychicznego. Stwierdziła też, że jej klient został nadmiernie oskarżony za to, co co najwyżej stanowi „przestępstwo majątkowe”. Rodzice Moreno-Gamy poinformowali, że niedawno u ich syna pojawiły się problemy ze zdrowiem psychicznym i że nigdy nikomu nie wyrządził krzywdy.
Nie tylko San Francisco
Trzy dni przed atakiem na dom Altmana, w środku nocy ktoś strzelał w dom radnego Indianapolis Rona Gibsona, a przy jego drzwiach znaleziono kartkę z napisem „no data centers” – po tym, jak w jego okręgu zatwierdzono budowę centrum danych.
W ostatnich latach rejestruje się też akty wandalizmu wymierzone w robotaksówki i roboty dostawcze. Dla wielu ludzi są one symbolem technologicznej przyszłości, której nikt ich nie pytał, czy chcą.
Rozumiem frustrację. Naprawdę. Tempo zmian jest brutalne, a branża AI nie słynie z nadmiernej empatii wobec tych, którzy zostają z tyłu. Obawy o miejsca pracy, środowisko, koncentrację władzy – to są legitymizowane tematy do debaty publicznej. Ale między krytyką technologii a koktajlem Mołotowym rzuconym w dom człowieka jest przepaść, której nie da się usprawiedliwić żadną ideologią. Co mnie jednak niepokoi w tej sprawie, to nie sam szalony jednostkowy akt, ale to, że część internetu oklaskuje sprawcę jak bohatera. To jest sygnał, że coś poważnego dzieje się ze społecznym dialogiem o AI. Czy branża robi wystarczająco dużo, żeby ten dialog prowadzić uczciwie – nie tylko w biurach prasowych, ale w realnym świecie?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Radykalne skrzydło rośnie w siłę
Doug McAdam, profesor socjologii na Uniwersytecie Stanforda badający ruchy polityczne i społeczne, powiedział CNN, że AI to „tak ogromny, narastający problem, że ludzie po prostu się boją, nie bardzo rozumiejąc dlaczego”. Dodał, że takie ruchy „nierzadko produkują radykalne skrzydło”.
Historycznie rzecz biorąc, gwałtowne wybuchy na marginesie ruchów społecznych często paradoksalnie wzmacniają bardziej umiarkowane skrzydła tych ruchów. Jak to działa w praktyce?
- Radykalne działania skupiają uwagę mediów na całym ruchu
- Umiarkowane organizacje zyskują wiarygodność przez kontrast z ekstremistami
- Decydenci zaczynają poważniej traktować postulaty mainstreamu, aby uniknąć eskalacji
McAdam stwierdził wprost, że firmy AI „naprawdę będą musiały poważnie zastanowić się, jak zamierzają reagować”, bo cały ruch – pomimo krytyki radykalnego skrzydła – „zyskuje widoczność i wpływy”.
Spór wewnątrz samego OpenAI
Ciekawy jest też wewnętrzny spór, jaki ujawnił się po ataku w OpenAI. Chris Lehane, szef działu polityki globalnej firmy, zasugerował w wywiadzie dla San Francisco Standard, że część krytyki AI jest „niekoniecznie odpowiedzialna” i że „gdy wypuszcza się takie myśli i idee w świat, mają one konsekwencje”.
Jego kolega Jason Wolfe, pracujący nad zagadnieniami alignment w OpenAI, publicznie nie zgodził się z tym podejściem na X:
I like Chris, but I really disagree with the positions presented in this article.
I believe our job in the AI industry isn't just to explain why AI will be good for people. I believe our job should be to earn trust by making the benefits real, being honest about risks and… https://t.co/4UEcVs0nIA
— Jason Wolfe (@w01fe) April 16, 2026
„I believe our job should be to earn trust by making the benefits real, being honest about risks and uncertainty, sharing what we learn, measuring real-world impacts, and supporting public oversight and resilience” / „Wierzę, że naszym zadaniem powinno być zdobywanie zaufania poprzez urzeczywistnianie korzyści, uczciwość w kwestii ryzyk i niepewności, dzielenie się tym, czego się uczymy, mierzenie rzeczywistych skutków oraz wspieranie publicznego nadzoru i odporności” – napisał Wolfe.
Później jednak opublikował kolejny wpis, w którym złagodził swoje stanowisko po dokładniejszym zapoznaniu się z pełnymi cytatami Lehane’a, stwierdzając, że rozumie szefa polityki jako osobę, dla której „komunikacja o korzyściach AI powinna być uczciwa i obiektywna”.
Przemoc nie jest argumentem
OpenAI wydało oficjalne oświadczenie: „To ensure society gets AI right, we need to work through the democratic process and a robust debating of ideas is an important part of a healthy democracy. However, there is no place in our democracy for violence against anyone, regardless of the AI lab they work at or side of the debate they belong to” / „Aby społeczeństwo właściwie podeszło do kwestii AI, musimy działać przez demokratyczne procesy, a żywa debata jest ważną częścią zdrowej demokracji. Jednak w naszej demokracji nie ma miejsca na przemoc wobec kogokolwiek, niezależnie od tego, w jakim laboratorium AI pracuje lub po której stronie debaty stoi”.
Fournes z PauseAI zapowiedział: „Our response to this is going to be to double down on what we’ve always done – peaceful, lawful advocacy” / „Nasza odpowiedź na to będzie polegać na podwojeniu wysiłków w tym, co zawsze robiliśmy – pokojowym i zgodnym z prawem rzecznictwie”. Jednocześnie wyraził obawę, że takie ataki mogą rzucać cień na cały, w ogromnej większości pokojowy, ruch na rzecz bezpieczeństwa AI.
Sam Altman po incydencie opublikował na blogu wpis ze zdjęciem swojej rodziny, licząc, że zniechęci potencjalnych naśladowców do kolejnych aktów przemocy.
