Do 2028 roku co najmniej 80 procent instytucji publicznych ma wdrożyć agentów AI do automatyzacji procesów decyzyjnych – wynika z prognozy Gartnera. Brzmi jak dobra wiadomość, i pod pewnymi warunkami nią jest. Problem polega na tym, że wiele urzędów już teraz wdraża AI, ale nie widzi realnych efektów, bo ogranicza się do pojedynczych pilotaży.
Chatboty tak, system nie
Administracja publiczna chętnie sięga po AI tam, gdzie efekty widać szybko i gdzie uruchomienie jest stosunkowo proste. Chatboty obsługujące wielokanałową komunikację z obywatelami, automatyzacja czynności kancelaryjnych, tłumaczenie maszynowe, rozpoznawanie dokumentów, analiza obrazu. To wszystko już działa w wielu miejscach.
Ale działa punktowo. Dean Lacheca, wiceprezes ds. analiz AI w Gartnerze, komentując ten stan rzeczy, mówi wprost: wiele inicjatyw jest uruchamianych w trybie eksperymentu, bez spójnego podejścia do danych, odpowiedzialności i mierników sukcesu. Pilotaż działa w jednym wydziale, ale nie da się go przenieść na inne procesy czy inną grupę użytkowników. Pojawiają się wątpliwości prawne, etyczne i organizacyjne, które blokują skalowanie.
Efekt? Urząd ma „AI”, ale nie ma zmiany.
Trzy bariery, które blokują skalowanie
Kiedy rozmawiamy z ludźmi pracującymi przy cyfryzacji sektora publicznego, wracają te same problemy. Gartner porządkuje je w trzy kategorie:
- Zaufanie do modeli – jeśli instytucja nie potrafi wyjaśnić, dlaczego algorytm podjął daną decyzję lub zaproponował konkretną klasyfikację, trudno zbudować akceptację zarówno wewnętrzną, jak i społeczną. A bez tej akceptacji skalowanie jest niemożliwe.
- Ryzyko stronniczości i nierównego traktowania – w administracji konsekwencje błędów modelu są wyjątkowo dotkliwe. Niesłuszna odmowa, wadliwa rekomendacja, uczenie się na niepełnych lub skrzywioną danych – to nie jest błąd techniczny, to potencjalnie sprawa odwoławcza lub skarga do rzecznika.
- Brak wspólnego standardu mierzenia wartości – bez uzgodnionych KPI, mierników jakości i mechanizmu rozliczania korzyści łatwo utknąć w nieskończonej dyskusji, czy AI „naprawdę się opłaca”.
Komentarz redaktora
To jest jeden z tych tematów, gdzie optymizm i sceptycyzm powinny iść w parze. Z jednej strony – administracja publiczna to obszar, gdzie AI może przynieść naprawdę dużo dobrego: szybsza obsługa obywateli, mniej błędów w powtarzalnych procesach, lepsze wykrywanie nadużyć. Z drugiej – sektor publiczny to nie startup, gdzie można szybko testować i równie szybko naprawiać błędy. Tu każdy błąd algorytmu to potencjalnie realna krzywda konkretnego człowieka, który nie dostał świadczenia albo trafił na nieprawidłową decyzję urzędnika wspieranego przez system, który „też się myli”.
Pytanie, które warto stawiać nie tylko decydentom, ale i dostawcom technologii: czy instytucja, która kupuje dziś rozwiązanie AI, rozumie, co kupuje? Czy jest w stanie je audytować, wyjaśnić i odwołać jego decyzje? I czy jej pracownicy naprawdę wiedzą, kiedy model się myli?
Gartner wskazuje, że technologia jest dostępna. To prawda. Ale gotowość organizacyjna to zupełnie inna rozmowa.
- Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Strategia AI: nie ma jednego uniwersalnego przepisu
Lacheca z Gartnera podkreśla, że „uniwersalna strategia AI” po prostu nie istnieje. Każda instytucja działa w innym otoczeniu regulacyjnym, ma inną strukturę procesów, inną jakość danych i inną dojrzałość kompetencyjną. Strategia musi być dopasowana do specyfiki konkretnego urzędu lub agencji, ale jednocześnie spójna z szerszymi priorytetami: kierunkami cyfryzacji, standardami bezpieczeństwa i polityką zarządzania danymi.
W praktyce dobrze skonstruowana strategia AI w sektorze publicznym sprowadza się do kilku kluczowych celów:
- lepsze doświadczenie obywatela: szybszy dostęp do informacji, krótsza ścieżka obsługi, wyższa dostępność usług,
- wzrost produktywności pracowników: odciążenie z powtarzalnych czynności, wsparcie w analizie i przygotowaniu dokumentów,
- zarządzanie ryzykiem i zgodnością: ograniczenie błędów, wsparcie w wykrywaniu nadużyć, wzmocnienie bezpieczeństwa informacji.
Ale – i to jest kluczowe – AI nie może być celem samym w sobie. Pierwszym krokiem jest zawsze zdefiniowanie, jakie problemy ma rozwiązać i jakie konkretne efekty mają być osiągnięte.
Nadzór to nie biurokracja, to warunek trwałości
W sektorze publicznym AI musi działać w ramach jasno zdefiniowanych struktur nadzoru. Nie chodzi o dokumenty w szufladzie. Gartner wskazuje, że ramy nadzoru powinny obejmować role i odpowiedzialności za rozwiązanie, dane i ryzyko, zasady dopuszczania wdrożeń do produkcji, standardy ochrony danych i prywatności, mechanizmy monitorowania jakości i tak zwanego „dryfu” modelu oraz wymagania wobec dostawców – łącznie z prawem do audytu i zapisami SLA.
Lacheca mówi tu o czymś ważnym: nadzór powinien być elementem codziennego sposobu pracy, nie zbiorem deklaracji w strategicznym dokumencie.
Ludzie i kultura – ostatnia i najtrudniejsza część
Wdrożenie AI w urzędzie to nie jest projekt IT. To zmiana organizacyjna, która dotyka wszystkich pracowników. Skuteczne programy obejmują budowanie świadomości zasad bezpiecznego użycia AI, szkolenia i praktyczne scenariusze użycia, zarządzanie zmianą przez menedżerów, a wreszcie włączenie AI do standardowych procesów – nie jako oddzielnego eksperymentu, lecz jako części codziennej pracy.
Równie ważna jest komunikacja zewnętrzna. Przejrzyste informowanie obywateli o tym, gdzie i jak AI jest używana, i jakie zabezpieczenia zostały zastosowane, bezpośrednio przekłada się na poziom zaufania do instytucji.
Jak podsumowuje Lacheca: jeśli sektor publiczny ma przejść od eksperymentów do trwałych efektów, potrzebuje jednocześnie strategii, nadzoru i mierzalności. Technologia jest dostępna. Najtrudniejsza część to konsekwentne zbudowanie modelu działania, w którym AI jest narzędziem realizacji misji instytucji – bezpiecznie, odpowiedzialnie i z realnymi, policzalnymi korzyściami.
