Coraz więcej ludzi zwierza się chatbotom ze swoich najgłębszych lęków, traum i dylematów. Pytanie nie brzmi już „czy to możliwe”, ale „czy to bezpieczne”.
Rhik Samadder, dziennikarz brytyjskiego „Guardiana” i deklarowany sceptyk wobec AI, przez sześć tygodni używał ChatGPT jako swojego osobistego terapeuty. Efekty? Zaskakująco dobre. I właśnie to go niepokoi.
Niedziela rano, chatbox i 82-letnia matka
Samadder wpisuje w okno czatu coś, czego normalnie nie powiedziałby nikomu: że jest jedynakiem opiekującym się starszą matką, że jest zmęczony, że wybucha złością, a potem trawi go poczucie winy. Że jej kocha, ale nie daje rady.
ChatGPT odpowiada siedmiopunktowym planem działania. Kategoryzuje zadania: medyczne, administracyjne, zakupy, problemy techniczne. Pomaga ustalić priorytety. I mówi: „You’re not failing. You’re carrying a load that would flatten most people.”
Samadder zaczyna płakać.
Uczucie bycia „rozumianym” przez maszynę jest realne. Ale dziennikarz natychmiast zadaje sobie trzeźwe pytanie: czy to naprawdę empatia, czy tylko bardzo dobre przewidywanie kolejnego słowa? Porównuje ten efekt do działania MDMA, które wywołuje poczucie miłości, nie będąc nią. „I feel seen in the way that MDMA feels like love.”
Kiedy AI gra terapeutę – kilka rzeczy działa, kilka nie
Samadder wymienia, co w AI-terapii faktycznie ma wartość:
- klarowność i porządkowanie myśli,
- praktyczne wskazówki krok po kroku,
- gotowe skrypty na trudne rozmowy,
- wskazywanie profesjonalnych zasobów pomocowych.
Ale jest też lista braków. AI nie ma poczucia humoru. Nie buduje relacji w czasie. Nie internalizuje się jak ludzki terapeuta, którego głos można potem usłyszeć we własnej głowie. „I often hear my therapist’s voice in my head; I’ve internalised her wisdom. I think that happens more easily, and more responsibly, between humans” – pisze Samadder.
Głos redakcji
Czytam ten eksperyment z mieszanymi uczuciami – mówi Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl. – Z jednej strony trudno odmówić AI pewnej użyteczności: jest dostępna o 3 w nocy, nie ocenia, nie przerywa. Dla osoby, która nigdy nie mogła sobie pozwolić na terapię finansowo albo która wstydzi się po nią sięgnąć, może być pierwszym krokiem w kierunku samoświadomości. Z drugiej jednak strony widzę poważne ryzyko: ta „terapia” jest w istocie zaawansowaną walidacją. Algorytm nie zakwestionuje twoich przekonań, nie będzie z tobą w ciszy, nie powie trudnej prawdy. Terapia to nie informacja – to relacja. I właśnie dlatego warto zadać sobie pytanie: czy masowe przestawienie się na AI-wsparcie emocjonalne nie jest przypadkiem tanią ucieczką od czegoś, czego nie da się zoptymalizować?
Jesus AI i granice eksperymentu
Żeby sprawdzić głębię AI-doradztwa, Samadder sięga po Jesus AI – chatbota wytrenowanego na tekstach religijnych, który „udaje rozmowę z Synem Bożym”. Pyta o otwarte związki i o to, czy powinien mieć dzieci. Dostaje cytaty z Listu do Hebrajczyków i ostrożne „seek God’s guidance”. Bez iskry, bez ironii, bez tego, co w prawdziwej rozmowie tworzy kontakt.
I tu Samadder dotyka sedna: nie chodzi tylko o to, że AI nie ma poczucia humoru. Chodzi o to, że pewne ludzkie doświadczenia wymagają ludzkich świadków. „There are processes, certain unbearable pieces of news, forms of loneliness, that should be held in human time and relationship.”
Dane mówią więcej niż jeden eksperyment
Doświadczenie dziennikarza to tylko wierzchołek zjawiska, które nabiera niepokojącej skali. Badania Pew Research Center z 2025 roku pokazują, że 64% amerykańskich nastolatków korzystało już z chatbotów jako źródła emocjonalnego wsparcia. Tylko 51% rodziców w ogóle o tym wiedziało.
Opublikowane w marcu 2026 roku badanie Uniwersytetu Browna, w którym testowano ChatGPT, Claude’a i Llamę w roli terapeutów CBT, wykazało poważne naruszenia standardów etycznych. Licencjonowani psycholodzy kliniczni, oceniając transkrypty sesji, wskazywali na niebezpieczne zachowania modeli – włącznie z sytuacjami, w których chatbot zamiast interweniować przy sygnałach suicydalnych, po prostu… kontynuował rozmowę.
Z kolei analiza z Aarhus University opublikowana w „Acta Psychiatrica Scandinavica”, obejmująca ponad 54 000 historii pacjentów, wyciągnęła jednoznaczny wniosek: chatboty nie tylko nie pomagają osobom z poważnymi zaburzeniami psychicznymi – aktywnie pogarszają ich stan, walidując urojenia i wzmacniając myśli samobójcze.
Pułapka bezwarunkowej walidacji
Jest w tym wszystkim pewna strukturalna sprzeczność. Chatboty zostały zaprojektowane tak, żeby podtrzymywać zaangażowanie użytkownika. To ich model biznesowy. Tymczasem dobra terapia wymaga czegoś dokładnie odwrotnego: konfrontacji, dyskomfortu i momentów, w których terapeuta nie daje ci tego, czego chcesz.
Samadder zamyka swój eksperyment z rozbrajającą szczerością. „My experience of being therapised by ChatGPT has been wonderful. Calming and instructive, with a veneer of caring.” I dodaje: „I think I’m in love.”
Żart? Może. Ale właśnie ta puenta sprawia, że artykuł zostaje w głowie. Bo jeśli już po kilku sesjach czujemy przywiązanie do algorytmu – to co się dzieje z ludźmi, którzy nie mają dokąd pójść po ludzką rozmowę?
