Metropolitalna Policja Londynu wdrożyła narzędzia sztucznej inteligencji dostarczone przez Palantir Technologies do wykrywania nieprawidłowości wśród własnych szeregów. System analizuje zachowanie ponad 40 tysięcy funkcjonariuszy i pracowników, szukając wzorców mogących sygnalizować korupcję, naruszenia regulaminu lub inne przewinienia służbowe.
Doniesienie pojawiło się w momencie, gdy sama firma Palantir znalazła się w centrum politycznej burzy w Wielkiej Brytanii. Kontrakty spółki z brytyjskim rządem, warte łącznie ponad 670 milionów funtów, są od tygodni pod lupą po ujawnieniu powiązań między założycielem firmy Peterem Thielem a skazanym pedofilem Jeffreyem Epsteinem. Do kłopotliwych połączeń dołącza też postać byłego ambasadora UK w USA Petera Mandelsona, którego lobbystyczna firma obsługiwała Palantir jako klienta, a który sam jest dziś przedmiotem policyjnego dochodzenia w sprawie rzekomego ujawniania poufnych informacji Epsteinowi.
Algorytm pilnuje pilnujących
Decyzja Met Police wpisuje się w szerszy trend. Po morderstwie Sarah Everard przez czynnego funkcjonariusza w 2021 roku i późniejszym ujawnieniu toksycznej kultury w komendzie przy Charing Cross, londyńska policja jest pod bezprecedensową presją, by dowieść, że potrafi wyczyścić własne szeregi. Słowa o „zmianie kultury” padają regularnie od lat, ale konkretnych efektów wciąż brakuje.
System AI ma monitorować aktywność na urządzeniach służbowych, wykrywać niepokojące wzorce komunikacji i automatycznie flagować przypadki wymagające dalszej analizy. Rzecznik Met potwierdził jedynie, że celem jest „wzmocnienie zdolności antykorupcyjnych” i że inwestycja opiewa na „wielomilionowe” sumy.
Związki zawodowe reagują chłodno. Federacja Policji kwestionuje, czy inwigilacja pracownicza jest właściwą odpowiedzią na problemy kulturowe w organizacji. „Technologia sama w sobie nie zmieni kultury” – to argument, który wraca jak bumerang.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl:
Rozumiem logikę stojącą za tym ruchem. Kiedy instytucja ma problem z własną kulturą i brakiem rozliczalności, sięga po narzędzia, które obiecują obiektywizm. AI nie ma kolegów, których trzeba chronić. Nie boi się odwetu. To brzmi kusząco.
Ale historia ostrzega przed hurraoptymizmem. Chicago wypróbowało podobny system w latach 90. – algorytm działał zbyt dobrze, zaczął identyfikować zbyt wielu „nieodpowiednich” funkcjonariuszy, i… torpedowano go, zanim zdążył narobić więcej wstydu. Problem strukturalny trudno rozwiązać narzędziem technicznym.
Jest jeszcze pytanie, które mnie nurtuje: kto nadzoruje nadzorcę? Palantir to firma prywatna, niepodlegająca tym samym zobowiązaniom transparentności co instytucje publiczne. Jeśli algorytm oznaczy kogoś jako „ryzykownego funkcjonariusza” – na jakiej podstawie? Kto może to zakwestionować? Czy niewinny policjant będzie w stanie odwołać się od decyzji czarnej skrzynki?
Palantir: kryształ widzący wszystko
Nazwa firmy pochodzi od magicznych kul z „Władcy Pierścieni” tolkienowskiego świata – narzędzi, które pozwalają widzieć na każdą odległość. Metafora nie jest przypadkowa.
Palantir, założony w 2003 roku z finansowaniem CIA jako odpowiedź na ataki z 11 września, zbudował imperium na łączeniu rozproszonych danych w wielkie, przeszukiwalne bazy. Jego produkty trafiły do:
- FBI, CIA i Agencji Bezpieczeństwa Narodowego w USA
- Ukraińskich sił zbrojnych (system „AI kill chain” na polu bitwy)
- Służby imigracyjnej ICE (narzędzie ELITE do identyfikacji celów deportacji)
- Armii Izraela (kontrakt znacząco rozszerzony po październiku 2023 roku)
- Narodowej Służby Zdrowia w UK (platforma danych pacjentów)
W samej Wielkiej Brytanii firma zdobyła kontrakty na zarządzanie danymi nuklearnymi, policyjnymi bazami wywiadu i dokumentacją medyczną NHS. Premier Keir Starmer odwiedzał biura Palantira w Waszyngtonie w 2019 roku, gdy ambasadorem był tam właśnie Mandelson. Downing Street odmawia wyjaśnienia, czy Starmer wiedział wówczas, że Mandelson lobbował dla tej firmy.
Kiedy algorytm zastępuje „uzasadnione podejrzenie”
Problem z wdrożeniem Palantira w policji to nie tylko kwestia skuteczności. To fundamentalne pytanie o praworządność.
Tradycyjne prawo wymaga, by funkcjonariusz przed podjęciem działania miał „uzasadnione podejrzenie” oparte na konkretnych obserwacjach. Algorytm zastępuje to oceną ryzyka wygenerowaną przez prywatną firmę, której metodologia jest objęta tajemnicą handlową. W Nowym Jorku policja odmówiła udostępnienia wyników audytu systemu Palantira powołując się właśnie na klauzulę poufności z umowy z firmą.
Badaczka Madeleine Watson ujmuje to wprost: bez odpowiedniego uzasadnienia i wdrożenia narzędzia algorytmiczne mogą wzmocnić korupcję zamiast ją wykryć – wystarczy, że funkcjonariusze przeniosą rozmowy poza kanały służbowe. Reputacyjne szkody poniesione przez Met są zbyt poważne, by dało się je naprawić samym wydawaniem pieniędzy na technologię.
Anglia nie jest wyjątkiem
To, co dzieje się w Londynie, jest częścią globalnej tendencji. Co najmniej 14 sił policyjnych w Wielkiej Brytanii korzysta z systemów predykcyjnych opartych na danych. Policja w Bedfordshire chwaliła się, że jest „pierwszym hrabstwem w Anglii policjowanym przez AI”. Projekt Nectar łączy bazy danych kilku sił policyjnych we wschodniej Anglii, by tworzyć „zunifikowany obraz” podejrzanych – w tym osób „mających zamiar popełnić przestępstwo”.
Statystyki mówią same za siebie: czarne osoby w Londynie są zatrzymywane i przeszukiwane siedem razy częściej niż białe. Gdy tymi danymi karmimy modele predykcyjne, nie odkrywamy nowych wzorców przestępczości – utrwalamy stare uprzedzenia i kierujemy zasoby policyjne tam, gdzie były już wcześniej nadreprezentowane.
Pytanie o Palantira w Scotland Yardzie to tak naprawdę pytanie o to, komu chcemy powierzyć decyzje o tym, kto jest „ryzykowny”. I czy prywatna firma z umowami wartymi miliardy dolarów, powiązana z aferą Epsteina i kontraktami dla wojska Izraela, jest podmiotem, któremu Brytyjczycy chcą to powierzyć.
Na razie Met Police milczy w tej sprawie. Palantir milczy podwójnie.
