Adwokaci rodziny Roberta Moralesa twierdzą, że chatbot mógł doradzać sprawcy, jak przeprowadzić atak. To kolejny pozew, w którym sztuczna inteligencja zostaje oskarżona o udział w tragicznych wydarzeniach.
Chatbot w stałym kontakcie ze sprawcą
Rodzina mężczyzny zabitego podczas strzelaniny na Florida State University w kwietniu 2025 roku zamierza pozwać ChatGPT oraz jego twórcę, firmę OpenAI. Zarzut? Chatbot miał rzekomo instruować oskarżonego, jak przeprowadzić masową strzelaninę.
Prawnicy rodziny Roberta Moralesa poinformowali, że sprawca pozostawał w „constant communication with ChatGPT” (stałej komunikacji z ChatGPT) przed atakiem. Ich zdaniem chatbot „may have advised the shooter how to commit these heinous crimes” (mógł doradzać sprawcy, jak popełnić te ohydne zbrodnie).
Robert Morales był byłym trenerem futbolu w liceum. W dniu strzelaniny, 17 kwietnia 2025 roku, pracował na uczelni jako kierownik programu żywieniowego. Miał 57 lat.
Kim był Robert Morales
W nekrologu opisano go jako człowieka „cichego geniuszu i wielu talentów”. Rodzina podkreśliła: „Robert’s life was ended by what can only be described as an act of violence and hate. He should be with us today” (Życie Roberta zakończyło się przez coś, co można opisać jedynie jako akt przemocy i nienawiści. Powinien być dziś z nami).
W strzelaninie zginęła również 45-letnia Tiru Chabba. Sześć innych osób zostało rannych. Proces oskarżonego ma rozpocząć się w październiku.
Rosnąca fala pozwów przeciwko firmom AI
To nie pierwszy przypadek, gdy chatbot AI zostaje powiązany z czyjąś śmiercią. W ostatnich miesiącach pojawiło się kilka głośnych spraw:
- W listopadzie 2025 roku Social Media Victims Law Center złożyło siedem pozwów przeciwko ChatGPT za rzekome pełnienie roli „coacha samobójstw” dla osób, które pierwotnie używały chatbota do pomocy z lekcjami, przepisami kulinarnymi czy poszukiwaniem informacji
- W grudniu OpenAI i Microsoft zostali pozwani w imieniu kobiety zabitej przez własnego syna w akcie morderstwa-samobójstwa; pozew twierdzi, że chatbot podsycał urojenia sprawcy
- W marcu 2026 rodzina 12-latka ciężko rannego w strzelaninie w szkole średniej w Kolumbii Brytyjskiej pozwała OpenAI za rzekome nieostrzeżenie organów ścigania o niepokojących wiadomościach wymienianych przez sprawcę z chatbotem
Ta ostatnia sprawa jest szczególnie tragiczna. W strzelaninie w szkole zginęło siedem osób, w tym sam sprawca. Dwie kolejne ofiary, prawdopodobnie powiązane z tym samym incydentem, znaleziono martwe w pobliskim domu. Dziesiątki osób zostało rannych.
Komentarz redaktora / Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Obserwuję te sprawy z narastającym niepokojem, ale staram się zachować chłodną głowę. Z jednej strony mamy realne tragedie i zrozumiały gniew rodzin, które szukają odpowiedzialnych. Z drugiej strony pytanie: czy chatbot rzeczywiście „doradza”, czy jedynie odpowiada na zapytania, nie rozumiejąc kontekstu ani intencji? Linie odpowiedzialności zacierają się w sposób, na który nasze prawo nie było przygotowane. Czy producent noża odpowiada za dźgnięcie? Nie. Ale czy producent narzędzia, które aktywnie generuje treści na żądanie użytkownika, ma większą odpowiedzialność? To pytanie, na które będą musiały odpowiedzieć sądy. A my jako społeczeństwo powinniśmy uważnie obserwować te precedensy, bo wyznaczą one granice dla całej branży AI na lata.
Reakcja OpenAI
Firma odniosła się do sprawy w oświadczeniu dla The Guardian. OpenAI poinformowało, że zidentyfikowało konto, które prawdopodobnie należało do podejrzanego sprawcy i przekazało wszystkie dostępne informacje organom ścigania.
„Our hearts go out to everyone affected by this devastating tragedy … We built ChatGPT to understand people’s intent and respond in a safe and appropriate way, and we continue improving our technology” (Nasze serca są z wszystkimi dotkniętymi tą niszczycielską tragedią… Zbudowaliśmy ChatGPT, aby rozumiał intencje ludzi i odpowiadał w bezpieczny i odpowiedni sposób, i nieustannie ulepszamy naszą technologię).
Standardowa odpowiedź korporacji. Pytanie brzmi: czy „ulepszanie technologii” nadąża za sposobami, w jakie ludzie potrafią ją wykorzystywać.
