Polski rząd ogłosił plany wykorzystania sztucznej inteligencji do wzmocnienia bezpieczeństwa wewnętrznego i sprawniejszego zarządzania kryzysowego. Minister spraw wewnętrznych Marcin Kierwiński poinformował o tym w serwisie X, zapowiadając konkretne zastosowania w policji i straży granicznej.
Specjalny zespół już działa
Tydzień przed tą zapowiedzią wiceminister Czesław Mroczek powołał specjalną grupę roboczą, której zadaniem jest opracowanie zasad wdrożenia AI w służbach podległych MSWiA. Zespół ma działać zgodnie z europejskimi standardami i zadbać o to, by technologia służyła obywatelom bez naruszania ich prywatności. W jego skład weszli funkcjonariusze, urzędnicy oraz naukowcy.
To całkiem rozsądny skład, choć diabeł tkwi w szczegółach: interdyscyplinarne grono to warunek konieczny, ale nie wystarczający.
Co konkretnie ma robić AI?
Ministerstwo wskazało trzy główne obszary zastosowań:
- Policja – analiza dowodów, wykrywanie trendów przestępczych, walka z cyberprzestępczością
- Straż graniczna – przetwarzanie danych biometrycznych i obrazów, automatyczne wykrywanie naruszeń granicy
- System ratunkowy 112 – ocena wiarygodności zgłoszeń oraz wsparcie w zarządzaniu zasobami, w tym przydzielanie miejsc w szpitalach
Kierunek dobry, ale pytania pozostają
To nie jest zaskoczenie. Niemal każdy kraj UE prowadzi podobne prace, a Polska po prostu dołącza do tego trendu. Automatyzacja analizy danych w służbach mundurowych to realna oszczędność czasu i zasobów ludzkich, których wciąż brakuje.
Kierunek jest właściwy i trudno się z nim nie zgodzić. Służby mundurowe są przeciążone, a AI może realnie odciążyć funkcjonariuszy od żmudnej pracy analitycznej. Problem w tym, że takie ogłoszenia mają tendencję do pozostawania na poziomie komunikatów prasowych. Kluczowe pytania brzmią: kto będzie nadzorował działanie algorytmów, szczególnie tych przetwarzających dane biometryczne? Jak będzie wyglądać ścieżka odwoławcza dla obywatela, który padnie ofiarą błędu systemu? I czy „zgodność z europejskimi standardami” to realne zobowiązanie, czy tylko PR-owy dopisek? Czekam na konkrety, bo zapowiedzi brzmiały już nieraz, a systemy wdrażano potem latami.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
AI w numerze 112 to największe ryzyko
Spośród wszystkich zapowiadanych zastosowań to właśnie wdrożenie AI w systemie ratunkowym budzi największe pytania. Ocena „wiarygodności zgłoszeń” przez algorytm brzmi niewinnie, dopóki nie wyobrazimy sobie sytuacji, w której system zakwalifikuje zawał serca jako fałszywy alarm. Przydzielanie miejsc szpitalnych przez AI to z kolei decyzja o życiu i zdrowiu w bardzo dosłownym sensie.
W tym obszarze transparentność działania systemu i jasno zdefiniowana odpowiedzialność prawna są absolutnie kluczowe. Ministerstwo na razie tego nie doprecyzowało.
Polska nie jest pierwsza, ale może być mądrzejsza
Kilka innych krajów europejskich już wdrożyło podobne rozwiązania, z różnym skutkiem. Holandia musiała wycofać algorytm oceny ryzyka socjalnego po interwencji sądowej. Niemcy prowadzą pilotaże policyjnych narzędzi predykcyjnych przy znacznie większej presji prawnej ze strony organizacji ochrony danych.
Polska zaczyna trochę później, co daje nam szansę na uczenie się na cudzych błędach. Czy z niej skorzystamy, pokaże nie komunikat prasowy ministerstwa, ale to, jak faktycznie zostanie zaprojektowany nadzór nad tymi systemami.
