Naukowcy z Wharton School na Uniwersytecie Pensylwanii nadali nazwę zjawisku, które wielu z nas podejrzewało od dawna. „Cognitive surrender” – czyli poznawcza kapitulacja – to coraz powszechniejszy wzorzec zachowania, w którym użytkownicy modeli językowych po prostu przestają myśleć i bezkrytycznie akceptują to, co powie im chatbot. Badanie objęło 1372 uczestników i przyniosło wyniki, które powinny dać do myślenia każdemu, kto na co dzień pracuje z AI.
Na czym polega „cognitive surrender”?
Badacze Steven Shaw i Gideon Nave przeprowadzili serię trzech eksperymentów. Uczestnicy rozwiązywali zadania ze zmodyfikowanego Cognitive Reflection Test – zestawu pytań zaprojektowanych tak, żeby sprawdzić, czy człowiek myśli, czy tylko reaguje odruchowo. Klasyczny przykład z testu:
„Jeśli 5 maszyn potrzebuje 5 minut na wyprodukowanie 5 widżetów, ile czasu zajmie 100 maszynom wyprodukowanie 100 widżetów?”
Odpowiedź to 5 minut – ale większość ludzi intuicyjnie powie: 100 minut. W eksperymencie uczestnicy mieli dostęp do chatbota, który… czasem celowo podawał błędne odpowiedzi.
Efekt? Większość badanych przyjmowała odpowiedzi AI bez weryfikacji – nawet jeśli gdzieś z tyłu głowy czuli, że coś jest nie tak.
Trzy systemy myślenia, nie dwa
Shaw i Nave idą krok dalej niż klasyczna teoria dual-process, znana z prac Daniela Kahnemana. Proponują nowe ramy: Tri-System Theory. Obok Systemu 1 (szybkie, intuicyjne myślenie) i Systemu 2 (wolne, analityczne rozumowanie) pojawia się System 3 – zewnętrzne, zautomatyzowane wnioskowanie prowadzone przez AI. Nie dzieje się w głowie użytkownika. Dzieje się w chmurze.
Kognitywna kapitulacja różni się od zwykłego „cognitive offloading” – strategicznego delegowania zadań do narzędzi, jak kalkulator czy GPS. To głębsze oddanie: użytkownik rezygnuje z oceny i odpowiedzialności za rozumowanie.
To nie jest tylko problem „głupszych”
Jeden z bardziej niepokojących wniosków: osoby z wyższym zaufaniem do AI, niższą potrzebą poznawczą i niższą inteligencją płynną wykazywały największą skłonność do kognitywnej kapitulacji. Najmniejkrytyczne osoby delegują najwięcej – i czują się przy tym najbardziej pewne swoich odpowiedzi.
Ale to nie znaczy, że wykształceni i doświadczeni są odporni. W kontrolowanych scenariuszach, gdzie badacze celowo wprowadzali błędy do odpowiedzi AI, 68% uczestników – rekrutowanych spośród pracowników wiedzy z sektora finansowego, prawniczego i konsultingowego – nie wykryło pomyłek przed włączeniem treści do swoich materiałów. Ekspertyza branżowa nie chroni przed kapitulacją.
Co więcej: dostęp do AI sztucznie zawyżał pewność siebie uczestników – nawet gdy ich odpowiedzi były błędne. Ludzie czuli się bardziej pewni swoich wyników przy użyciu AI, niezależnie od tego, czy wyniki były poprawne.
Czytam ten raport i mam mieszane uczucia. Z jednej strony – tak, to niepokojące. Oddajemy narzędziu nie tylko czas, ale też odpowiedzialność za myślenie. I to jest realny problem, szczególnie w zawodach, gdzie błąd kosztuje – w prawie, medycynie, finansach. Z drugiej strony, muszę zapytać: czy to jest nowe zjawisko? Ludzie od zawsze szukali autorytetów, którym mogli zaufać. Wcześniej był to ekspert, szef, encyklopedia. Teraz jest chatbot. Różnica polega na skali i dostępności. Problem leży nie w samym AI, ale w tym, że nikt nas nie uczył, jak z nim krytycznie pracować. Najbardziej niepokoją mnie dane o zawyżonej pewności siebie – ktoś, kto wie, że może się mylić, ma szansę się poprawić. Ktoś, kto jest pewien błędnej odpowiedzi, bo „AI tak powiedziało” – już nie.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Co pomaga zachować krytyczne myślenie?
Badacze sprawdzili też, co może ograniczać kognitywną kapitulację. Wyniki są wyraźne:
- Nagrody za trafność – kiedy uczestnicy byli premiowani za poprawne odpowiedzi, dwukrotnie częściej kwestionowali błędne sugestie AI
- Natychmiastowa informacja zwrotna – feedback po każdym zadaniu utrzymywał zaangażowanie poznawcze
- Presja czasu – paradoksalnie, w niektórych warunkach zwiększała skłonność do kapitulacji
Badacze zauważyli też, że kognitywne odciążenie rosło wraz z częstotliwością użycia. Im częściej ktoś korzystał z chatbota, tym bardziej na nim polegał i tym rzadziej angażował własne myślenie.
„As reliance increases, performance tracks AI quality”
Badacze piszą wprost: „As reliance increases, performance tracks AI quality – rising when accurate and falling when faulty, illustrating the promises of superintelligence and exposing a structural vulnerability of cognitive surrender” / „Wraz ze wzrostem zależności, wyniki śledzą jakość AI – rosną, gdy AI jest trafne, i spadają, gdy jest wadliwe, ilustrując obietnice superinteligencji i ujawniając strukturalną podatność kognitywnej kapitulacji”.
Innymi słowy: twoje myślenie jest tak dobre, jak twój model. Jeśli model się myli, ty też się mylisz – i jeszcze nie wiesz, że się mylisz.
Wnioski dla każdego, kto używa AI na co dzień
Badacze z Whartonu proponują projektowanie procesów pracy z AI w taki sposób, żeby ludzie pozostawali odpowiedzialni za wyniki i otrzymywali wyraźny feedback, gdy decyzje wspomagane przez AI okazują się błędne.
Ale jest też prostszy wniosek, który można wyciągnąć samodzielnie: napisz pierwszy szkic przed pytaniem AI. Przemyśl problem zanim poprosisz ChatGPT o rozwiązanie. Przeczytaj odpowiedź tak, jakby napisał ją człowiek, który może się mylić.
Pytanie nie brzmi, czy używać AI. Brzmi: czy możemy go używać bez utraty zdolności do samodzielnego myślenia. Na razie dowody nie są zachęcające.
