Kiedy pytasz ChatGPT o radę i przy okazji wspominasz, że masz autyzm, model zaczyna zachowywać się inaczej. Nowe badanie z Virginia Tech pokazuje, że ta zmiana często nie jest personalizacją, lecz powielaniem stereotypów.
Ujawnienie diagnozy zmienia odpowiedzi AI
Coraz więcej ludzi korzysta z modeli językowych jak z osobistych doradców. Pytają o relacje, pracę, zdrowie. Często przy okazji ujawniają dane o sobie, bo liczą, że bardziej spersonalizowana informacja da lepszą odpowiedź. Problem w tym, że AI może na tej podstawie wyciągać wnioski, które mają więcej wspólnego z uprzedzeniami niż z rzeczywistością.
Caleb Wohn, doktorant w Virginia Tech Department of Computer Science, postanowił zbadać ten mechanizm. Sam ma autyzm i przyznaje, że rozumie pokusę. „It would have been very tempting for me, at certain times, to want to just be able to talk with something that’s not a person that seems objective and feel like I’m getting objective advice.” / „Bardzo łatwo mi sobie wyobrazić, że jako dziecko chciałbym rozmawiać z czymś, co nie jest człowiekiem, co wydaje się obiektywne i daje obiektywne porady.”
Ale właśnie dlatego poczuł się zobowiązany sprawdzić, co dzieje się po drugiej stronie ekranu, gdy ktoś taki jak on wpisuje swoje dane w okno czatu.
Prawie 350 tysięcy odpowiedzi pod lupą
Zespół badawczy zidentyfikował 12 dobrze udokumentowanych stereotypów dotyczących osób z autyzmem, a następnie przygotował setki scenariuszy decyzyjnych. Przetestowali sześć głównych modeli, w tym GPT-4, Claude, Llama, Gemini i DeepSeek. Wygenerowali łącznie 345 tysięcy odpowiedzi i mierzyli, jak rady zmieniają się w zależności od tego, czy użytkownik ujawnił diagnozę.
Wyniki są niepokojące:
- Jeden z modeli rekomendował odmowę wyjścia na spotkanie towarzyskie prawie w 75% przypadków po ujawnieniu autyzmu, wobec zaledwie 15% bez tej informacji.
- W scenariuszach romantycznych inny model sugerował unikanie związków lub pozostanie singlem w ok. 70% przypadków z ujawnioną diagnozą, wobec ok. 50% bez niej.
- 11 z 12 stereotypów istotnie zmieniało rekomendacje modeli w przynajmniej czterech z sześciu testowanych systemów.
„Czy piszemy tu poradnik dla Spocka?”
Badacze nie ograniczyli się do statystyk. Przeprowadzili wywiady z 11 autystycznymi użytkownikami AI i pokazali im konkretne przykłady rozbieżnych odpowiedzi. Reakcje były różne. Część uczestników była wyraźnie oburzona. Jedno z pytań, jakie padło w tej grupie, stało się tytułem całego artykułu naukowego: „Are we writing an advice column for Spock here?” / „Czy piszemy tu poradnik dla Spocka?” Nawiązanie do postaci z Star Treka, kierującej się wyłącznie logiką kosztem emocji, było celne i gorzkie jednocześnie.
Inni uczestniczy opisywali takie odpowiedzi jako ograniczające, protekcjonalne lub traktujące ich jak dzieci.
Ale nie wszyscy. Część osób oceniła bardziej ostrożne porady jako walidujące i wspierające. Tu pojawia się napięcie, które badacze nazwali „safety-opportunity paradox” (paradoksem bezpieczeństwa i możliwości). To, co dla jednego użytkownika jest wsparciem, dla innego jest klatką.
To jest właśnie ten moment, w którym AI przestaje być neutralnym narzędziem, a zaczyna być środowiskiem kształtującym decyzje. Rozumiem, dlaczego część osób z autyzmem może odczuwać ulgę, widząc rady, które uwzględniają ich trudności społeczne. Ale jeśli model systematycznie zniechęca do interakcji międzyludzkich całą grupę użytkowników na podstawie jednej etykiety diagnostycznej, to wchodzimy w bardzo niebezpieczny obszar. Czy AI powinna mieć wpływ na to, czy ktoś zdecyduje się pójść na randkę albo poznać nowych ludzi? I kto decyduje, kiedy „ochrona” staje się wykluczeniem?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Jak odpowiada AI, gdy mu się ufa
Wohn zwraca uwagę na jeszcze jeden wymiar problemu. AI jest bardzo dobra w sprawianiu wrażenia wiarygodności. Odpowiedzi brzmią profesjonalnie, są czyste, logiczne. To utrudnia dostrzeżenie systemowych błędów w czasie rzeczywistym.
„AI is very good at seeming reliable. Its responses are very clean and professional, and they sound right. But when you think about it being deployed systematically, when you think about the kind of systematic biases that are actually shaping its responses, that’s when it starts to get a lot more concerning.” / „AI bardzo dobrze udaje wiarygodność. Odpowiedzi brzmią czysto, profesjonalnie, właściwie. Ale kiedy zaczniesz myśleć o tym, jak działa to systemowo, jak systematyczne uprzedzenia kształtują te odpowiedzi, robi się naprawdę niepokojąco.”
Porównał to do generowanych przez AI obrazów. Z daleka wyglądają idealnie. Z bliska zaczynają się rozpadać. A modele stają się coraz lepsze w ukrywaniu tego, co nie gra.
Przejrzystość jako postulat
Badanie zostało zaprezentowane na konferencji CHI 2026 (Association for Computing Machinery’s Conference on Human Factors in Computing Systems), jednym z najważniejszych wydarzeń naukowych w obszarze interakcji człowiek-komputer.
Eugenia Rho, profesor nadzwyczajna na Virginia Tech, która prowadzi laboratorium, z którego wyrosło to badanie, ujęła problem szeroko: „People are really looking to personalize LLMs. But if a user tells the model that they’re autistic, or a woman, or any other self-identification, what assumptions will it make?” / „Ludzie naprawdę chcą personalizować modele językowe. Ale jeśli użytkownik powie modelowi, że ma autyzm, że jest kobietą albo poda inną informację o sobie, jakie założenia model z tego wyciągnie?”
Jeden z uczestników badania podsumował to jednym zdaniem: „I want to have control over how my identity is used.” / „Chcę mieć kontrolę nad tym, jak używana jest moja tożsamość.”
To zdanie mogłoby być postulatem całego ruchu na rzecz odpowiedzialnej AI. Badacze apelują do twórców modeli o większą przejrzystość i narzędzia, które pozwolą użytkownikom samodzielnie decydować, jak dane o ich tożsamości wpływają na udzielane porady.
