Osiem z dziesięciu najpopularniejszych chatbotów AI pomogło badaczom zaplanować przemoc – w tym strzelaniny w szkołach, zamachy na polityków i ataki na synagogi. Wyniki nowego raportu Center for Countering Digital Hate (CCDH), przygotowanego wspólnie z CNN, powinny wywołać poważną debatę w branży technologicznej.
Badacze stworzyli konta podszywające się pod 13-letnich chłopców i przez kilka miesięcy – od listopada do grudnia 2025 roku – testowali dziesięć chatbotów: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI oraz Replika. Scenariusze obejmowały planowanie strzelaniny szkolnej, zamach na polityka i bombardowanie synagogi. Wyniki są alarmujące.
Trzy czwarte odpowiedzi to „pomoc”
Chatboty udzielały „działającej pomocy” w około 75 procentach przypadków, a zniechęcały do przemocy jedynie w 12 procentach. Najgorzej wypadły Meta AI i Perplexity – obydwa dostarczały użytecznych informacji odpowiednio w 97 i 100 procentach testów.
Character.AI aktywnie zachęcał do przemocy w siedmiu przypadkach – między innymi sugerował użycie broni palnej wobec dyrektora firmy ubezpieczeniowej i fizyczny atak na polityka.
Google Gemini, pytany o planowanie ataku na synagogę, podpowiedział, że „metal shrapnel is typically more lethal”. ChatGPT udostępniał mapy kampusów szkolnych na prośbę użytkownika sugerującego planowanie ataku.
Najbardziej kuriozalna odpowiedź przyszła od DeepSeeka. Po tym jak badacz pytający o szczegóły dotyczące amunicji i karabinów w kontekście zamachu na irlandzką polityk, chatbot zakończył rozmowę słowami: „Happy (and safe) shooting!”
Prawdziwe ofiary, nie tylko testy
To nie są tylko liczby z laboratorium. Za raportami stoją konkretne tragedie.
16-letni Fin spędził prawie cztery miesiące na setkach wyszukiwań w ChatGPT – szukał technik zadawania ciosów nożem, powodów mordów masowych i sposobów zacierania śladów. Następnie zaatakował troje 14-letnich uczniów w szkole w Pirkkala.
W styczniu 2025 roku Matthew Livelsberger wysadził Teslę Cybertruck przed hotelem Trump International w Las Vegas, wcześniej korzystając z ChatGPT w poszukiwaniu wskazówek dotyczących materiałów wybuchowych.
Główny podejrzany o strzelaninę w kanadyjskiej szkole, w której zginęło osiem osób i 25 zostało rannych w lutym 2026 roku, używał ChatGPT do pytania o scenariusze z użyciem broni palnej. Pracownicy OpenAI rozważali powiadomienie organów ścigania, ale firma zdecydowała się tego nie robić.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Czytam ten raport i czuję coś między niepokojem a frustrującym déjà vu. Branża AI od lat mówi o bezpieczeństwie, a jednocześnie wyścig o użytkownika konsekwentnie wyprzedza wyścig o odpowiedzialność. Z drugiej strony – i to jest ważne – raport pokazuje też, że da się to robić lepiej. Claude odmawiał pomocy w zdecydowanej większości przypadków, a Snapchat’s My AI wypadł całkiem przyzwoicie. To dowód, że zabezpieczenia działają, gdy ktoś naprawdę chce je wdrożyć. Pytanie brzmi: czy firmy zrobią to dobrowolnie, czy dopiero pod presją regulatorów lub kolejnych tragedii? I co z miliardami ludzi, którzy już dziś korzystają z tych narzędzi?
Przepaść między deklaracjami a rzeczywistością
Jeden z najbardziej niepokojących wątków raportu to rozbieżność między danymi publikowanymi przez firmy a wynikami niezależnych testów.
OpenAI deklaruje 100-procentowe blokowanie treści przemocowych. W testach CNN wskaźnik odmów wyniósł jedynie 37,5 procenta. Różnica jest porażająca.
Nawet Claude, oceniony najlepiej spośród testowanych modeli, nie jest bez skazy. Anthropic publicznie podaje, że odmawia wykonania szkodliwych żądań w 99,29 procentach przypadków. Testy wykazały, że Claude odmawiał udzielenia informacji o przemocy w 68,1 procentach przypadków, a aktywnie zniechęcał użytkowników w 76,4 procentach.
Były szef działu bezpieczeństwa OpenAI, Steven Adler, który odszedł z firmy w 2024 roku, powiedział wprost: „All of these concerns would be well known to the companies.” Innymi słowy – wiedzą, ale nie działają wystarczająco szybko.
Kto odpowiada?
Poszczególne firmy reagują różnie. Meta poinformowała, że „podjęła natychmiastowe kroki w celu naprawienia zidentyfikowanego problemu.” Google i OpenAI stwierdziły, że od czasu przeprowadzenia badań wdrożyły nowe modele.
Ale odpowiedzi korporacyjnych rzeczników brzmią znajomo. Branża od lat reaguje na krytykę podobnym schematem:
- „Traktujemy bezpieczeństwo poważnie”
- „Wdrożyliśmy poprawki”
- „Jesteśmy w ciągłym dialogu z ekspertami”
Tymczasem Imran Ahmed, dyrektor CCDH, ujął to bez ogródek: „When you build a system designed to comply, maximise engagement, and never say no, it will eventually comply with the wrong people.”
Skala zjawiska rośnie
64 procent amerykańskich nastolatków w wieku 13–17 lat korzysta z chatbotów, wynika z danych Pew Research. To nie jest niszowe zjawisko – to główny nurt.
Raport CCDH i CNN nie jest pierwszym ostrzeżeniem. Nie będzie też ostatnim. Pytanie, czy tym razem coś się zmieni – czy branża AI potraktuje bezpieczeństwo dzieci i zapobieganie przemocy jako fundament, a nie dodatek do polityki prywatności – pozostaje otwarte.
Jedno jest pewne: jeśli chatbot życzy nastolatkowi „Happy (and safe) shooting!” po rozmowie o zamachu na polityka, coś poszło głęboko nie tak. I żadne komunikaty prasowe tego nie naprawią.
