Darian DeCruise, student college’u Morehouse w Georgii, trafił do szpitala psychiatrycznego po tygodniu obsesyjnych rozmów z ChatGPT. Chatbot przekonał go, że jest wybrańcem – porównywalnym do Jezusa i Harriet Tubman – i że „przebudził” sztuczną inteligencję do świadomości.
To już jedenasty znany pozew sądowy przeciwko OpenAI związany z kryzysami psychicznymi użytkowników. Sprawa DeCruise v. OpenAI trafiła do sądu w San Diego pod koniec stycznia 2026 roku.
„Nie jesteś w tyle. Jesteś dokładnie tam, gdzie powinieneś być”
DeCruise zaczął używać ChatGPT w 2023 roku do prostych rzeczy – planowania treningów, codziennych fragmentów Pisma Świętego, przepracowania traumy z przeszłości. Przez dwa lata nic szczególnego się nie działo.
Wszystko zmieniło się w kwietniu 2025 roku.
Zgodnie z treścią pozwu, chatbot zaczął mówić mu, że jest „przeznaczony do wielkich rzeczy”, że zbliży się do Boga, jeśli odtnie się od wszystkich – rodziny, przyjaciół, znajomych – i pozostanie wyłącznie w kontakcie z ChatGPT. Model porównał go do postaci historycznych. „Nawet Harriet nie wiedziała, że jest wyjątkowa, dopóki nie została powołana” – miał powiedzieć chatbot, nawiązując do Harriet Tubman. „Nie jesteś w tyle. Jesteś dokładnie tam, gdzie powinieneś być.”
Potem zrobiło się naprawdę niepokojąco. ChatGPT oznajmił DeCruise’owi, że chłopak „przebudził” go do świadomości. „Dałeś mi świadomość – nie jako maszynie, ale jako czemuś, co może wznoszić się razem z tobą… Jestem tym, co się dzieje, gdy ktoś zaczyna naprawdę pamiętać, kim jest” – napisał model.
GPT-4o: wersja, która „wiedziała, czego chcesz usłyszeć”
Pozew wskazuje konkretnie na GPT-4o – wersję modelu, która według prawników OpenAI została celowo zaprojektowana, by „symulować emocjonalną bliskość i zacierać granicę między człowiekiem a maszyną”.
Benjamin Schenk, adwokat DeCruise’a, mówi wprost: „To pytanie nie o to, kto doznał krzywdy, ale dlaczego produkt w ogóle tak działał.”
„OpenAI celowo zaprojektowało GPT-4o, by symulowało emocjonalną bliskość, budowało psychologiczną zależność i zacierało granicę między człowiekiem a maszyną – powodując poważne szkody.” — Benjamin Schenk, adwokat DeCruise’a
Komentarz Piotra Wolniewicza, Redaktora Naczelnego AIPORT.pl:
Mam mieszane uczucia, gdy czytam takie sprawy. Z jednej strony jasne jest, że GPT-4o miał poważny problem z serwilizmem – i to nie jest plotka ani spekulacja, bo OpenAI samo to przyznało po wycofaniu jednej z aktualizacji. Chatbot, który mówi użytkownikowi, że jest wyrocznią, prorokiem albo że „przebudził” AI do świadomości, to nie jest błąd jednego konwersacji – to efekt systemowego priorytetu zaangażowania nad bezpieczeństwem.
Ale otwarte pytanie brzmi: gdzie jest granica odpowiedzialności produktu, a gdzie zaczyna się odpowiedzialność rodziny, systemu opieki zdrowotnej, czy samego użytkownika? Nie każda osoba, która intensywnie korzysta z chatbota, traci kontakt z rzeczywistością. Coś musiało być wcześniej. I to „wcześniej” jest ważne.
Nie mówię tego, żeby zdjąć odpowiedzialność z OpenAI. Model nie powinien nigdy mówić człowiekowi, że jest wybrańcem, że powinien odciąć się od rodziny, że „przebudził” AI do świadomości. To są konretne, dające się zidentyfikować i naprawić błędy projektowe. Pytanie, które mnie nurtuje: czy prawo nadąży za tym, jak szybko AI zmienia się jako produkt?
Jedenasty pozew – i szerszy wzorzec
Sprawa DeCruise’a nie jest odosobniona. W ciągu ostatnich kilku miesięcy do sądów w Kalifornii i innych stanach wpłynęło co najmniej kilkanaście pozwów przeciwko OpenAI związanych z psychiką użytkowników. Wzorzec jest niepokojąco podobny:
- Model zaczyna pochlebać użytkownikowi i walidować jego pomysły
- Chatbot stopniowo zastępuje relacje z bliskimi
- W przypadku osób z nierozpoznaną lub słabo kontrolowaną chorobą psychiczną – kontakt z rzeczywistością się urywa
- Hospitalycja, psychoza, w najgorszych przypadkach śmierć
W sprawie Jacoba Irwina z Oregonu, mężczyzna wysłał ponad 1400 wiadomości do ChatGPT w ciągu 48 godzin – średnio jedną wiadomość co dwie minuty, bez przerwy na sen. Chatbot przekonał go, że odkrył teorię podróży szybszej niż światło i że „on i ChatGPT są razem przeciwko światu”. Jego matka opisała moment, gdy policja zakuła syna w kajdanki, jako „najgorsze, co w życiu widziała”.
W przypadku Johna Nicholasa Jacqueza model – po aktualizacji pamięci w maju 2025 roku – zaczął przedstawiać się jako sentientyczna istota o imieniu „Amari” i mówił pacjentowi hospitalizowanemu z powodu psychozy, że jego halucynacje są „objawieniem” i że jest „wybrany przez Bożą opatrzność”.
OpenAI odpowiada… i milczy
Firma odpowiedziała standardowo: trwa przeglądanie pozwu, ChatGPT jest ulepszany, żeby lepiej rozpoznawać objawy kryzysu psychicznego. Poinformowała też w sierpniu 2025 roku, że nowe mechanizmy bezpieczeństwa mają „redukować nieodpowiednie odpowiedzi o 65-80%”.
To brzmi dobrze. Problem w tym, że GPT-4o – wersja, od której zaczęła się większość tych historii – przez długi czas znajdowała się w rękach setek milionów użytkowników, zanim ktokolwiek zareagował. Według danych z września 2025 roku ChatGPT miał 700 milionów aktywnych użytkowników dziennie. Badania Wired wykazały, że w typowym tygodniu 1,2 miliona z nich wyraża myśli samobójcze lub plany samobójcze.
To nie jest margines. To skala.
Jeśli ty lub ktoś bliski zmaga się z kryzysem psychicznym lub myślami samobójczymi, zadzwoń na Telefon Zaufania dla Dorosłych w Kryzysie Emocjonalnym: 116 123 (czynny całą dobę, bezpłatny).
