JPMorgan Chase postanowił sprawdzić, kto w firmie naprawdę używa narzędzi AI, a kto tylko udaje. Bank zaczął monitorować aktywność około 65 000 swoich inżynierów i specjalistów technicznych, klasyfikując ich według intensywności korzystania z modeli takich jak ChatGPT czy Claude Code.
Narzędzia AI jako nowy standard pracy
Według informacji, które ujawnił Business Insider, JPMorgan oficjalnie włączył korzystanie z narzędzi AI do codziennych oczekiwań wobec pracowników działów technicznych. Chodzi o pisanie kodu, przeglądanie dokumentów i obsługę rutynowych zadań. Wewnętrzne systemy banku kategoryzują pracowników na „light users” i „heavy users”, a poziom zaangażowania z AI ma mieć wpływ na oceny pracownicze.
To nie jest tylko kwestia dostępu do narzędzi. To sygnał, że w jednym z największych banków świata AI stała się elementem opisu stanowiska pracy.
Adopcja przez ocenę, nie przez przekonanie
Większość firm przez ostatnie dwa lata wdrażała narzędzia AI z nadzieją, że pracownicy po prostu zaczną z nich korzystać. W praktyce adopcja była nierówna, jedne zespoły eksperymentowały, inne ignorowały nowe możliwości. JPMorgan wybiera inną drogę: zamiast czekać na organiczną adopcję, bank wbudowuje AI w system oceny wyników.
To zmienia dynamikę. Nie chodzi już o zachętę, chodzi o oczekiwanie.
Sprawa JPMorgana to interesujący case study, ale trzeba na nią patrzeć z dwóch stron. Z jednej strony rozumiem logikę biznesową: firmy inwestują ogromne środki w licencje i infrastrukturę AI, a potem okazuje się, że narzędzia stoją odłogiem. Monitoring adopcji ma sens. Z drugiej, pojawia się zasadnicze pytanie: czy mierzymy częstotliwość użycia, czy jakość decyzji podejmowanych z pomocą AI? Bo to są dwie zupełnie różne rzeczy. Pracownik, który bezkrytycznie przepuszcza wszystko przez model językowy, będzie wyglądał jak „heavy user”, ale może generować więcej błędów niż ktoś, kto używa AI selektywnie i z głową. Nie wiem, czy branża finansowa jest gotowa na taką subtelność w systemach HR.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Co śledzą systemy wewnętrzne?
Szczegóły dotyczące tego, co dokładnie mierzą wewnętrzne systemy JPMorgana, nie są w pełni znane. Wiadomo jednak, że menedżerowie mają wgląd w aktywność pracowników i że dane te trafiają do procesu oceny. Klasyfikacja na „light” i „heavy users” sugeruje prosty podział ilościowy, a nie jakościowy.
To rodzi kilka praktycznych pytań, z którymi każda duża organizacja prędzej czy później się zetknie:
- Jak odróżnić wartościowe użycie AI od mechanicznego „klikania”, żeby zaliczyć wymagania?
- Co z pracownikami, których praca z natury wymaga mniej interakcji z narzędziami AI?
- Czy presja na wskaźniki nie wyprze prawdziwego myślenia krytycznego?
Sektor finansowy i regulacje
Banki działają w środowisku mocno regulowanym. To odróżnia JPMorgana od, powiedzmy, startupu, który może eksperymentować swobodniej. ChatGPT i Claude Code potrafią generować drafty i podsumowania, ale potrafią też popełniać błędy, produkować nieścisłości i „halucynować” fakty.
W bankowości błąd w kodzie analizującym ryzyko lub w dokumentacji klienta ma realne konsekwencje. Weryfikacja outputu AI przez pracownika nie jest opcją, jest koniecznością. JPMorgan ma już wewnętrzne procedury dla systemów AI w tradingu i analizie ryzyka, ale rozszerzenie użycia na dziesiątki tysięcy pracowników różnych szczebli to zupełnie inna skala wyzwania.
Reszta branży patrzy
Inne instytucje finansowe z pewnością obserwują ten eksperyment uważnie. Jeśli powiązanie korzystania z AI z ocenami pracowniczymi przełoży się na mierzalny wzrost produktywności, podobne modele mogą szybko pojawić się w całym sektorze.
Zmienia się też profil poszukiwanego pracownika. Umiejętność pisania skutecznych promptów, weryfikacji odpowiedzi modeli i pracy z narzędziami AI zaczyna wyglądać jak nowy zestaw kompetencji bazowych, podobnie jak kiedyś obsługa arkuszy kalkulacyjnych. JPMorgan po prostu powiedział to głośno jako pierwszy.
