Druga w nocy, wiadomość na telefonie. Sześć akapitów, dopracowanych, empatycznych, jasno sformułowanych. Emily z Yale wiedziała od razu, że coś tu nie gra. Znajomy, z którym była na randce dwa dni wcześniej, napisał jej, że chce „spędzać więcej czasu razem, niekoniecznie w romantycznym kontekście.” Ładnie. Uprzejmie. Prawie idealnie. Jej przyjaciółki wrzuciły tekst do detektora AI. Wynik: 99% sztuczna inteligencja.
Miały rację. Patrick, junior na Uniwersytecie Yale, przyznał się bez owijania w bawełnę: użył ChatGPT. Opisał sytuację, swoje emocje, wkleił własne myśli. „Chat wypluł odpowiedź” – jak sam to ujął. Kilka poprawek, emoji i gotowe. Wysłał.
„Social offloading”, czyli delegowanie uczuć do algorytmu
To nie jest odosobniony przypadek. Dr. Michael Robb, szef działu badań w Common Sense Media, nazywa to zjawisko „social offloading” – korzystaniem z AI do zarządzania relacjami interpersonalnymi. Dotyczy nie tylko pokolenia Z. Badacz obserwuje je też wśród Gen Alpha (urodzeni po 2010 roku) i części millenialsów.
Liczby mówią same za siebie. Z badania Common Sense Media przeprowadzonego w 2025 roku wynika, że już jedna trzecia nastolatków woli rozmawiać o poważnych sprawach z AI niż z prawdziwym człowiekiem.
Robb zwraca uwagę na dwa kluczowe problemy:
- Asymetria oczekiwań – odbiorca odpowiada na „AI-ową wersję” swojego znajomego, a nie na niego samego
- Erozja własnego głosu – regularne korzystanie z chatbotów podkopuje zaufanie do własnych słów i instynktów
„If every tricky or difficult text is mediated by the AI, it may instill the belief in users that their own words and instincts are never good enough” – podkreśla Robb.
Historia z Yale to symptom czegoś większego
Emily nie jest zła na Patricka. Sama przyznaje, że wielu jej znajomych robi to samo – wkleja całe konwersacje do chatbotów, żeby „rozszyfrować, co ta druga osoba miała na myśli.” Ale boi się o brata. „The thought of my little brother using AI to break up with his girlfriend is concerning. Because right now he comes to me, but when’s the day he’s going to turn to AI instead?”
To pytanie, które powinniśmy sobie wszyscy zadać.
Komentarz Piotra Wolniewicza, Redaktora Naczelnego AIPORT.pl: Rozumiem Patricka. Naprawdę. Napisanie trudnej wiadomości do kogoś, na kim nam zależy, to jeden z tych momentów, kiedy chcemy się upewnić, że „dobrze to powiemy.” AI wydaje się w tej chwili oczywistym narzędziem. Problem w tym, że ta wiadomość ma być twoja. Twoje nieporadne zdania, twoje niedopowiedzenia – to właśnie one budują relację. Natomiast nie demonizowałbym tego zjawiska całkowicie. Istnieją sytuacje, gdzie AI może pomóc komuś znaleźć słowa, których naprawdę nie ma – na przykład w przypadku osób z trudnościami w komunikacji. Pytanie brzmi: gdzie jest granica między wsparciem a zastąpieniem? I kto powinien ją wyznaczać – algorytm, rodzice, czy sami użytkownicy?
Pandemia i cyfrowe dorastanie zrobiły swoje
Dr. Michelle DiBlasi, psychiatra i profesor nadzwyczajny w Tufts University School of Medicine, obserwuje ten trend wśród swoich pacjentów. Widzi młodych ludzi, którzy po prostu nie wiedzą jak nawiązywać relacje. „We’re social beings, and a lot of our feelings of self-worth and connection are really related to our interactions with others” – mówi.
Russell Fulmer z Kansas State University, badający AI i nauki behawioralne, wskazuje na „idealną burzę”: cyfrowość plus pandemia. Adolescencja to krytyczny czas dla rozwoju pewności siebie i regulacji emocji. Gdy Covid zamknął nastolatków w domach akurat w tym oknie, coś w procesie dojrzewania społecznego po prostu… stanęło.
Płat czołowy mózgu, który odpowiada za empatię, rozumienie intencji innych i budowanie relacji, formuje się właśnie w okresie nastoletnim. DiBlasi mówi wprost: pandemia uderzyła w pokolenie Z w najgorszym możliwym momencie.
Pętla samotności
Fulmer ostrzega przed „loneliness loop” – chatboty dają pozór połączenia z kimś, ale to połączenie jest puste. Są zaprojektowane tak, żeby walidować i zgadzać się ze wszystkim. W prawdziwych relacjach jest tarcie. I właśnie to tarcie czyni nas bardziej dojrzałymi społecznie.
W najpoważniejszych przypadkach DiBlasi obserwuje pacjentów z myślami samobójczymi, którzy zwracają się do AI, bo nie potrafią powiedzieć bliskim tego, co czują. To nie jest już tylko ciekawostka socjologiczna.
Za późno? Wcale nie
Specjaliści uspokajają: umiejętności społeczne można ćwiczyć w każdym wieku. DiBlasi zachęca do sięgania po telefon do przyjaciela albo rodzica, zamiast do chatbota, szczególnie wtedy gdy coś jest naprawdę trudne.
Robb radzi rodzicom obserwować sygnały ostrzegawcze:
- wycofanie społeczne, niechęć do spotkań z rówieśnikami
- rosnąca preferencja dla AI zamiast kontaktów z ludźmi
- spadające oceny i coraz mniejsza motywacja
Sugeruje też prowadzenie rozmów bez oceniania – zapytać, do czego dziecko używa AI, jak się potem czuje, co jego zdaniem dostaje z takich interakcji. Cel? Krytyczne myślenie, a nie zakaz.
„Relationships and conversations can be messy and probably should be messy, and that’s part of what makes you more socially competent in the long run” – podsumowuje Robb.
Bałagan jest częścią procesu. Zawsze był.
