Wielka Brytania postawiła na sztuczną inteligencję w policji i nie zamierza udawać, że to tylko eksperyment. Rząd ogłosił inwestycję 115 milionów funtów w nowe centrum Police.AI, które ma odmienić sposób prowadzenia śledztw w całym kraju.
Przez lata wdrożenia AI w brytyjskich służbach były chaotyczne – każda jednostka robiła swoje, pilotaże pozostawały lokalne, a efekty trudno było skalować. Teraz Whitehall zdecydował się to ujednolicić. Police.AI ma działać jako centralny hub, który testuje, certyfikuje i wdraża narzędzia AI do wszystkich sił policyjnych w Anglii i Walii. Planowany start: kwiecień 2026.
Liczby robią wrażenie. National Police Chiefs’ Council szacuje, że szerokie wdrożenie AI może zwolnić nawet 6 milionów godzin pracy policjantów rocznie – co odpowiada mniej więcej 3000 etatów. Godziny te nie miałyby znikać w papierach. Miałyby wracać na ulice.
Co konkretnie trafi do służb?
Zakres technologii jest szeroki. Wśród narzędzi planowanych do wdrożenia:
- transkrypcja i tłumaczenie rozmów w czasie rzeczywistym – pomocne przy przesłuchaniach i zgłoszeniach obywateli
- AI-wspomagana analiza materiałów dowodowych cyfrowych, w tym szyfrowanych urządzeń
- wykrywanie deepfake’ów – coraz pilniejszy problem wobec eksplozji materiałów generowanych przez AI
- analityka predykcyjna w zarządzaniu ryzykiem, między innymi w sprawach przemocy domowej
- live facial recognition (LFR) – rozbudowany pięciokrotnie, z 10 do 50 furgonetek operacyjnych
Część tych rozwiązań już działa. Thames Valley i Hampshire wdrożyły agenta AI o imieniu Bobbi do obsługi zapytań publicznych. Staffordshire Police testuje podobny system Agentforce. Efekt: realne odciążenie dyżurnych.
„Świat zmienia się szybko i policja musi zmieniać się razem z nim”
Tak brzmi oficjalna linia. Alex Murray z NPCC, krajowy koordynator ds. AI w policji, nie ukrywa, że presja jest podwójna: rosnące zapotrzebowanie na usługi policyjne przy jednoczesnym kurczeniu się budżetów i starzeniu się przestępczości cyfrowej.
„Policing faces growing demand, complex digital crime, and sustained financial pressure” – mówi Murray. I dodaje wprost: „The public have told us they would expect the police to use AI, businesses use AI and we know criminals are adopting it as we speak.”
Trudno się z tym nie zgodzić. Przestępcy już używają AI do tworzenia deepfake’ów, do oszustw finansowych, do generowania materiałów CSAM. Policja reaguje z opóźnieniem – co jest zrozumiałe, ale nie może trwać wiecznie.
Pytanie jednak, czy scentralizowanie wszystkiego w jednej strukturze to na pewno dobry pomysł.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl: Rozumiem entuzjazm. AI naprawdę może zmienić efektywność pracy policji – szczególnie przy żmudnej analizie danych, transkrypcji, czy wykrywaniu wzorców w sprawach o nadużycia seksualne. To są zadania, gdzie człowiek się zwyczajnie wypala, a algorytm nie. Ale mam też pytania, na które nie słyszę jeszcze dobrych odpowiedzi. Kto nadzoruje błędy systemu? Wiemy już, że systemy facial recognition wykazują systematycznie wyższe wskaźniki fałszywych trafień w przypadku osób czarnoskórych i azjatyckich – badania National Physical Laboratory to potwierdzają. Czy budowanie na nich ogólnokrajowej infrastruktury bez wcześniejszego rozwiązania tego problemu jest odpowiedzialne? I drugie pytanie: historia wielkich projektów technologicznych w brytyjskim rządzie jest… niezbyt zachęcająca. NLEDS – flagowy system do modernizacji danych policyjnych – był planowany na 2020 rok, wciąż nie działa, a koszty wzrosły o 68% do 1,1 miliarda funtów. Police.AI może być przełomem. Może też stać się kolejną, droższą wersją tego samego problemu.
Biometria pod lupą
Największe kontrowersje budzi facial recognition. Minister ds. bezpieczeństwa Sarah Jones nazwała tę technologię „the biggest breakthrough for catching criminals since DNA matching”. Porównanie mocne, może nawet zbyt mocne.
Bo równocześnie pojawiają się niepokojące dane. Badania przeprowadzone przez National Physical Laboratory wykazały, że retrospektywne narzędzie do rozpoznawania twarzy ma wskaźnik fałszywych trafień na poziomie 0,04% dla osób białych – i odpowiednio 4% oraz 5,5% dla osób azjatyckich i czarnoskórych. Association of Police and Crime Commissioners przyznało oficjalnie, że „technology has been deployed into operational policing without adequate safeguards in place.”
Organizacja Liberty wzywa do wstrzymania wdrożeń do czasu uregulowania tych dysproporcji. Rząd nie reaguje na te apele w tempie, które zadowoliłoby krytyków.
Deepfake’i: nowe pole bitwy
Osobnym wyzwaniem jest fala generowanych przez AI materiałów przestępczych. Rząd szacuje, że w 2025 roku udostępniono nawet 8 milionów deepfake’ów – przy 500 tysiącach w 2023 roku. Wzrost szesnastokrotny w dwa lata.
Sprawa Hugh Nelsona z Bolton, który używał AI do tworzenia materiałów CSAM i został skazany na ponad 20 lat więzienia, stała się symbolem nowego rodzaju przestępczości. Greater Manchester Police przyznało wprost, że śledczy nie mieli wcześniejszego doświadczenia z tego rodzaju narzędziami i dowodami cyfrowymi.
Police.AI ma to zmienić – między innymi przez centralizację wiedzy eksperckiej o nowych zagrożeniach i budowanie wspólnych procedur.
Rejestr publiczny jako odpowiedź na brak zaufania
Jednym z ciekawszych elementów nowej struktury jest zapowiadany publiczny rejestr – policja będzie musiała ujawniać, jakich narzędzi AI używa i jakie kroki podjęła przed ich wdrożeniem. To dobry sygnał. Transparentność nie rozwiązuje problemów technicznych, ale przynajmniej tworzy warunki do ich identyfikacji.
Pytanie, czy dokumenty w rejestrze będą naprawdę czytelne dla przeciętnego obywatela, czy staną się kolejnym zbiorem korporacyjnego żargonu.
Wielka Brytania wchodzi w ten eksperyment z rozmachem. 115 milionów funtów, nowa instytucja, ambicja bycia „global leader in responsible AI-enabled law enforcement.” Zobaczymy, czy wyjdzie im to lepiej niż NLEDS.
