Miliardy dolarów wydane na licencje, piloty i wdrożenia narzędzi AI. Efekty? Rozczarowujące. Według nowego raportu Forrester Research, pracownicy po prostu nie wiedzą, jak używać sztucznej inteligencji – i to nie ich wina.
Wskaźnik AIQ: wyniki, które powinny niepokoić
Forrester mierzy kompetencje pracowników w zakresie AI za pomocą własnego wskaźnika, który analitycy nazwali AIQ (artificial intelligence quotient). Wyniki badań J.P. Gowndera, wiceprezesa i głównego analityka Forrester, są – używając jego własnych słów – „alarming”. Gownder wprost stwierdza, że wyniki powinny być „a wake-up call to the vast majority of employers.”
Przykład, który mówi wszystko: umiejętność prompt engineeringu, absolutnie kluczowa przy korzystaniu z narzędzi pokroju Microsoft 365 Copilot czy Google Workspace, wzrosła wśród pracowników zaledwie o 4 punkty procentowe. Z 22% w 2024 roku do 26% w 2025 roku. Przez cały rok. Cztery punkty.
Kto jest winny? Pracodawcy
Gownder nie owijał w bawełnę: „It’s you — the employer — who hasn’t yet cultivated a learning and engagement environment sufficient to helping employees attain these skills.”
To dość mocne stwierdzenie, ale trudno z nim polemizować. Firmy kupują dostępy do narzędzi AI masowo, zakładając, że technologia jest intuicyjna i pracownicy jakoś sami się jej nauczą. To błędne założenie. I kosztowne.
Konsekwencje są poważne:
- Pracownicy z niskim AIQ w ogóle nie korzystają z narzędzi AI lub używają ich błędnie
- Błędne użycie może prowadzić do spadku, a nie wzrostu produktywności
- Wiele osób nie wie, kiedy i jak kwestionować wyniki generowane przez AI
- Pracownicy nie rozumieją etycznych aspektów korzystania z AI w miejscu pracy
Jak podsumowuje Gownder: „It’s a recipe for them to get frustrated and abandon using the tools altogether in too many cases.”
To nie jest tylko problem szkoleń
To jest dokładnie ten schemat, który obserwuję rozmawiając z polskimi firmami. Kupują Copilota, wdrażają ChatGPT Enterprise, inwestują w narzędzia, a potem są zdziwione, że produktywność nie rośnie. Problem leży głębiej niż brak szkoleń – to kwestia kultury organizacyjnej. Czy firmy naprawdę chcą, żeby pracownicy byli sprawni w AI? Bo sprawny pracownik zadaje trudniejsze pytania, kwestionuje wyniki, wymaga więcej od narzędzi i od menedżerów. Z drugiej strony, niska kompetencja AI w organizacjach to też realne ryzyko: ludzie, którzy nie umieją ocenić jakości odpowiedzi modelu, będą popełniać błędy i do nich nie wracać. Pytanie, które powinni sobie zadać liderzy: czy inwestycja w licencje bez inwestycji w ludzi to strategia, czy tylko wydatek?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Raport Forrester wskazuje, że niska kompetencja AI stała się „a bottleneck that inhibits productivity and return on investment.” To nie jest miękkie ostrzeżenie. To stwierdzenie, że pieniądze wydane na AI po prostu nie przynoszą zwrotu, bo brakuje ogniwa po środku: przeszkolonych, zaangażowanych ludzi.
Zaufanie do liderów też się kruszy
Problem ma dodatkowy wymiar. Badanie platformy Culture Amp pokazało, że 96% liderów na poziomie C-suite oczekuje, że AI zwiększy wyniki ich firm. Jednocześnie 77% pracowników twierdzi, że narzędzia AI faktycznie zwiększyły ich obciążenie pracą, nie zmniejszyły go.
To już nie jest tylko kwestia produktywności. To kwestia zaufania.
Raport serwisu Zety poszedł jeszcze dalej – kiedy menedżerowie zaczęli przekazywać podwładnym pracę wygenerowaną przez AI, wyglądającą profesjonalnie, ale pełną błędów i nieścisłości (badacze ukuli na to termin „workslop”), aż 85% pracowników przyznało, że takie zachowanie podkopało ich zaufanie do kierownictwa.
Co z tego wynika dla firm?
Forrester nie zostawia złudzeń: samo wdrożenie narzędzi to dopiero połowa roboty, a w praktyce często nawet mniej. Bez systematycznego budowania kompetencji pracowników, bez kultury uczenia się i bez jasnych wytycznych dotyczących etycznego używania AI, inwestycje w sztuczną inteligencję mogą przynieść odwrotny skutek do zamierzonego.
Słupek wzrostu znajomości prompt engineeringu o cztery punkty procentowe w ciągu roku nie jest wynikiem, z którego można być dumnym. To sygnał, że coś w tej układance fundamentalnie nie działa.
