Większość z nas używa AI z prostego powodu: bo działa. Skraca, upraszcza, przyspiesza. Ale co, jeśli właśnie w tym tkwi problem? Naukowcy z Uniwersytetu Toronto opublikowali w lutym komentarz naukowy w piśmie „Communications Psychology”, w którym stawiają niewygodną tezę: AI może odbierać nam coś, czego nie da się łatwo odzyskać.
Czym jest „tarcie” i dlaczego ma znaczenie
Autorzy tekstu zatytułowanego Against Frictionless AI używają pojęcia „friction” (pol. tarcie, opór) w bardzo konkretnym znaczeniu. To wszelki wysiłek, trudność, dyskomfort napotykany podczas realizacji celu. Emily Zohar, doktorantka psychologii eksperymentalnej i główna autorka pracy, wyjaśnia to wprost:
„We define friction as any difficulty encountered during goal pursuit.”
W kontekście pracy chodzi o wysiłek umysłowy, trwanie przy problemie, szukanie rozwiązania przez dłuższy czas. W relacjach międzyludzkich to nieporozumienia, kompromisy, odmienne perspektywy. Psychologia od lat wie, że właśnie takie „pożądane trudności” (desirable difficulties) pogłębiają rozumienie i utrwalają wiedzę w pamięci.
Problem w tym, że AI z definicji projektowana jest tak, żeby to tarcie eliminować.
Od pytania do gotowego produktu w kilka sekund
Zohar precyzuje, czym jest „frictionless AI”: to nadmierne usuwanie wysiłku z procesów poznawczych i społecznych. Piszesz jeden prompt i dostajesz gotowy efekt. Pomijasz wszystkie etapy pośrednie, które napędzają motywację i uczenie się. Liczy się wynik, nie proces.
I tu pojawia się pęknięcie. Bo badania pokazują, że produkty tworzone z pomocą AI są często obiektywnie lepsze. Ale jednocześnie ludzie mają trudność z zapamiętaniem własnej pracy, gdy powstała przy udziale AI. Ufają jej mniej. Oceniają jako mniej kreatywną.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem niepokój badaczy i sam go po części podzielam. Używam AI codziennie i widzę, jak łatwo wpaść w pułapkę delegowania nie tylko zadań, ale też myślenia. Z drugiej strony, narzędzia zawsze zmieniały ludzkie zdolności, nie tylko je zastępowały. Kalkulator nie zabił matematyków, GPS nie pozbawił nas orientacji w terenie. Kluczowe pytanie brzmi: czy AI zastępuje wysiłek, który nas rozwija, czy ten, który po prostu nam przeszkadza? Nie znam odpowiedzi. I chyba jeszcze nikt jej nie zna.
AI a kreatywność, kod i dorastanie
Autorzy wskazują kilka konkretnych obszarów, gdzie zjawisko jest już widoczne:
- Pisanie – coraz więcej osób zleca AI tworzenie e-maili, esejów, raportów. Badania pokazują, że ludzie gorzej pamiętają treści, które współtworzyli z AI.
- Vibe coding – programiści, którzy budują kod przez AI bez rozumienia tego, co powstaje, mogą tracić poczucie sensu z wykonywanej pracy.
- Relacje społeczne – AI jako rozmówca, zawsze zgodny i wspierający, przyzwyczaja do środowiska, które nie istnieje w realnym świecie.
- Nastolatki – to obszar największego niepokoju Zohar. Adolescencja to czas, kiedy uczenie się przez trudność jest fundamentem późniejszego krytycznego myślenia.
Krzesełko czy szlak pieszy?
Zohar ilustruje to porównaniem, które warto zapamiętać: wjazd wyciągiem i podejście na szczyt to dwa sposoby dotarcia w to samo miejsce. Tylko że jeden z nich daje coś więcej niż widok.
Produktywne tarcie leży pośrodku. Nie chodzi o to, żeby utrudniać ludziom życie. Chodzi o zadania, które są wymagające, ale osiągalne. Takie, przy których trzeba się natrudzić, żeby cokolwiek wynieść.
Czy AI może celowo spowalniać?
Tu pojawia się pytanie o projektowanie. Zohar nie wyklucza modelu, w którym AI zamiast dawać odpowiedź, prowadzi użytkownika przez proces dochodzenia do niej. Coś w rodzaju sokratejskiego chatbota, który pyta zamiast odpowiadać.
Problem jest banalny i fundamentalny jednocześnie: nikt tego nie chce. Użytkownicy oczekują wyników. Firmy technologiczne budują modele pod zaangażowanie i retencję, a nie pod długoterminowy rozwój poznawczy. Zohar przyznaje to wprost, ale dodaje, że w dłuższej perspektywie bardziej wymagające AI mogłoby generować więcej interakcji, bo rozwiązanie problemu staje się procesem, a nie zdarzeniem.
Tarcie jako projektowanie, nie kara
Artykuł nie jest manifestem przeciwko AI. To wezwanie do myślenia o tym, co eliminujemy, zanim to zrobimy. Autorzy nie chcą zatrzymać technologii. Chcą, żeby twórcy systemów AI zadawali sobie pytanie: co się dzieje z człowiekiem po drugiej stronie ekranu, gdy wysiłek znika?
To pytanie do tej pory stawiało niewielu. I to jest może największy problem.
