Minister Spraw Wewnętrznych i Administracji Marcin Kierwiński ogłosił 22 kwietnia 2026 roku powołanie specjalnego Zespołu AI w ramach resortu. Sztuczna inteligencja ma wesprzeć Policję, Straż Graniczną oraz system ratunkowy 112 – i to w obszarach, gdzie przez ostatnie dwie dekady dominowały ręczne procesy i przestarzałe oprogramowanie.
Brzmi jak krok w dobrą stronę. Ale diabeł, jak zwykle, tkwi w szczegółach.
Dwadzieścia lat zaległości do nadrobienia
Trudno nie przyznać racji ministrowi, gdy mówi, że służby pracują na systemach sprzed ponad 20 lat. To nie jest zarzut pod adresem konkretnej ekipy – to smutny fakt dotyczący całego systemu, który przez lata nie nadążał za technologią. Teraz MSWiA chce w jednym ruchu nadrobić dwie dekady zaległości.
Nowo powołany Zespół AI będzie organem pomocniczym szefa resortu. Na jego czele stanie Sekretarz lub Podsekretarz Stanu sprawujący nadzór nad Departamentem Teleinformatyki. W skład zespołu wejdą przedstawiciele Komendy Głównej Policji, Komendy Głównej Państwowej Straży Pożarnej, Straży Granicznej, Służby Ochrony Państwa oraz środowisk naukowych. Wszyscy członkowie muszą posiadać odpowiednie poświadczenia bezpieczeństwa.
Co konkretnie ma robić AI w Policji?
Ministerstwo wskazuje trzy główne obszary zastosowań dla algorytmów wspierających pracę funkcjonariuszy:
- Analiza materiałów dowodowych – systemy AI mają przeszukiwać tysiące godzin nagrań i dokumentów w czasie liczonym w sekundach, co może radykalnie przyspieszyć postępowania, szczególnie w sprawach zorganizowanych grup przestępczych
- Wykrywanie wzorców i schematów – algorytmy będą łączyć pozornie niepowiązane fakty i identyfikować powtarzalne metody działania sprawców
- Walka z cyberprzestępczością – automatyczne wykrywanie anomalii w sieci ma zwiększyć skuteczność zwalczania przestępstw cyfrowych
To realne potrzeby. Każdy policjant śledzący wielomiesięczną sprawę wie, ile czasu pochłania ręczne przeszukiwanie materiałów. Jeśli AI faktycznie odciąży funkcjonariuszy od tej żmudnej pracy, zysk operacyjny będzie wymierny.
Granica, biometria i pytania bez odpowiedzi
Straż Graniczna ma otrzymać narzędzia do automatycznej identyfikacji osób w oparciu o biometrię i rozpoznawanie obrazu, a systemy mają w czasie rzeczywistym wykrywać naruszenia granicy. To właśnie ten fragment planu budzi największe emocje – i słusznie.
Modernizacja służb z użyciem AI to konieczność, której nie warto kwestionować. Naprawdę nie warto. Systemy sprzed 20 lat po prostu nie pasują do dzisiejszych zagrożeń – ani do skali danych, które trzeba przetwarzać. Rozumiem entuzjazm resortu i popieram kierunek. Ale właśnie dlatego, że kierunek jest dobry, szczegóły muszą być dopracowane lepiej niż doskonale. Biometria na granicy, ocena wiarygodności dzwoniącego na 112, automatyczne wykrywanie wzorców zachowań – to nie są neutralne narzędzia. Każde z nich niesie ryzyko fałszywych trafień, dyskryminacji algorytmicznej i nieodwracalnych błędów. Ministerstwo zapewnia, że wdrożenie odbędzie się z poszanowaniem praw obywatelskich i zgodnie z europejskimi standardami. Wierzę, że to szczere deklaracje. Pytanie tylko: gdzie są konkretne mechanizmy kontrolne, zasady przechowywania danych biometrycznych i procedury odwoławcze dla osób niesłusznie oznaczonych przez algorytm? Na razie tego nie wiemy. A powinniśmy.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
AI oceni, czy naprawdę potrzebujesz pomocy?
Najbardziej zaskakującym – i jednocześnie najbardziej ryzykownym – elementem całego projektu jest zastosowanie sztucznej inteligencji w systemie powiadamiania ratunkowego 112. Algorytm ma wspierać operatorów w wyznaczaniu odpowiednich służb i rezerwowaniu miejsc w szpitalach. Ale ma też oceniać wiarygodność zgłaszającego.
Na jakiej podstawie? Tonu głosu? Historii połączeń? Lokalizacji telefonu?
Komunikat MSWiA tego nie precyzuje. A jeśli system uzna prawdziwe wezwanie pomocy za fałszywe alarm – konsekwencje mogą być nieodwracalne. To właśnie ten fragment wymaga najbardziej drobiazgowego nadzoru i publicznej debaty, zanim jakikolwiek algorytm trafi do centrali 112.
Nauka w składzie – czy to wystarczy?
Interesującym elementem struktury nowego zespołu jest udział przedstawicieli świata nauki. Resort deklaruje, że polskie służby mają korzystać z dorobku krajowych ekspertów i uczelni. To dobre założenie – pod warunkiem, że głos naukowców będzie brany pod uwagę nie tylko przy projektowaniu systemów, ale również przy ocenie ich skutków społecznych.
Warto też pamiętać o kontekście regulacyjnym. Ministerstwo Cyfryzacji jednoznacznie odrzuciło wcześniejsze postulaty MSWiA o całkowitym wyłączeniu służb spod przepisów unijnego AI Act. Policja, Straż Graniczna i SOP mają podlegać tym regulacjom – i to jest ważna kotwica, która powinna powstrzymywać przed pochopnym wdrażaniem systemów bez odpowiednich mechanizmów nadzoru.
Co dalej?
Zespół ma opracować bezpieczne i przejrzyste zasady korzystania z AI, a zmiany mają być wprowadzane stopniowo. Dobrze. Pośpiech w tej dziedzinie byłby błędem.
Polska modernizuje wreszcie infrastrukturę bezpieczeństwa – i to jest dobra wiadomość. Teraz potrzebujemy tylko tyle, żeby tempo wdrożenia nie prześcignęło tempa myślenia o konsekwencjach.
