Większość banków płaci OpenAI albo Anthropic za dostęp do sztucznej inteligencji. Revolut poszedł inną drogą i wytrenował własny model. Nazywa się PRAGMA i działa na 40 miliardach zdarzeń finansowych od 25 milionów klientów z 111 krajów. To nie jest chatbot. To silnik decyzyjny, który ocenia, kto próbuje wyłudzić pieniądze, kto jest ryzykownym kredytobiorcą i kto zaraz odejdzie do konkurencji.
Dlaczego ogólne modele AI nie sprawdzają się w bankowości
ChatGPT i inne duże modele językowe uczą się na tekście. Karmisz je internetem i stają się coraz lepsze w przewidywaniu następnych słów. To sprawia, że świetnie piszą maile, streszczają dokumenty i odpowiadają na pytania. Nie sprawdzają się jednak przy wykrywaniu oszustw.
Powód jest prosty: dane finansowe to nie tekst. Zapis aktywności klienta w banku to ciąg ustrukturyzowanych zdarzeń. Opłata za subskrypcję w wysokości 59 zł w środę, przelew 3000 zł w Wigilię, wpływ wynagrodzenia tydzień później. Każde zdarzenie ma typ, kwotę, walutę, znacznik czasu i relację z każdym innym zdarzeniem w historii klienta. Kiedy wrzucasz to do modelu tekstowego, widzi on znaki dolara i cyfry dokładnie tak samo jak litery. Wzorce wskazujące na oszustwo po prostu giną w szumie.
Jest jeszcze kwestia szybkości. Weryfikacja transakcji pod kątem fraudu musi odbyć się w milisekundach, zanim płatność przejdzie. Modele ogólne nie są zbudowane z myślą o tym rodzaju decyzji w czasie rzeczywistym i na dużą skalę.
PRAGMA: jeden model zamiast dziesiątek
PRAGMA odczytuje każde zdarzenie finansowe na trzech poziomach: co się wydarzyło, szczegółowe dane transakcji i kiedy do tego doszło. Model uczy się wzorców z całej historii klienta. Jeśli ktoś doładował konto, zrobił małą płatność kartą, a potem nagle wykonał przelew zagraniczny i zamilkł, to jest wzorzec. PRAGMA uczy się rozpoznawać, co ten wzorzec zwykle poprzedza.
Model wytrenowano na 207 miliardach punktów danych obejmujących 25 miesięcy rzeczywistej aktywności klientów. Dostępny jest w trzech rozmiarach: od lekkiej wersji z 10 milionami parametrów przeznaczonej do kontroli fraudów w czasie rzeczywistym, po wersję z miliardiem parametrów dla decyzji, gdzie liczy się precyzja bardziej niż czas. Wszystkie trzy działają na ponad 200 kartach graficznych NVIDIA H100.
Według Revoluta PRAGMA przewyższa każdy z wcześniej stosowanych systemów dedykowanych osobnym zadaniom. To kluczowa różnica wobec tego, jak AI funkcjonuje w większości instytucji finansowych.
Rewolut idzie w kierunku, który uważam za słuszny strategicznie, ale trzeba zadać kilka trudnych pytań. Budowanie własnego modelu na danych 25 milionów klientów to potężna przewaga konkurencyjna. Nikt nie zreplikuje tego zbioru danych, bo to lata zachowań finansowych realnych ludzi. Z drugiej strony: im więcej wiemy o tym, jak te dane są przetwarzane w systemie, tym mniej wiemy o tym, co dokładnie model na ich podstawie „uznaje” za ryzykowne. Decyzje kredytowe podejmowane przez algorytm, który sam siebie tłumaczy tylko częściowo, to temat, który regulatorzy w Europie będą musieli rozgryźć. Czy klient, któremu PRAGMA odmówi kredytu, dostanie wyjaśnienie zrozumiałe dla człowieka? Mam nadzieję, że tak. Na razie nie wiem.
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Koniec ery oddzielnych modeli dla każdego problemu
Większość instytucji finansowych uruchamia osobny model AI dla każdego problemu: jeden do wykrywania fraudów, drugi do oceny zdolności kredytowej, trzeci do przewidywania, który klient odejdzie, czwarty do rekomendacji produktów. Każdy wymaga własnych danych treningowych, własnego utrzymania i własnego zespołu inżynierów. PRAGMA zastępuje cały ten stos jednym wspólnym fundamentem.
Revolut dostosowuje go do nowego zadania, modyfikując tylko ułamek parametrów, zamiast budować od zera. To skraca cykl wdrożenia i pozwala szybciej reagować na nowe wyzwania.
Wyniki są konkretne: o 20% lepsza detekcja fraudów, a do tego ocena zdolności kredytowej i prognozowanie churnu, wszystko z jednego wstępnie wytrenowanego modelu bazowego.
AIR: asystent dla 13 milionów użytkowników w UK
PRAGMA to silnik działający pod maską. Na jego bazie Revolut zbudował też AIR (AI by Revolut), czyli asystenta finansowego wdrażanego dla klientów w Wielkiej Brytanii.
Julia Ponomareva, szefowa produktów CX i AI w Revolut, powiedziała: „We believe the era of navigating through endless tabs and menus is over” / „Wierzymy, że era nawigowania przez niekończące się zakładki i menu dobiegła końca.”
AIR umożliwia zarządzanie finansami przez rozmowę. W praktyce oznacza to:
- analizę wydatków i podsumowania budżetu,
- śledzenie inwestycji i portfeli,
- zarządzanie subskrypcjami,
- blokowanie zagubionej karty,
- pomoc z budżetem podróży i zakupem eSIM Revolut.
Revolut podkreśla, że AIR nie przechowuje danych u podmiotów trzecich ani nie wykorzystuje ich do trenowania zewnętrznych modeli. Asystent ma dostęp wyłącznie do tych danych, które klient sam widzi w aplikacji.
Dane to nowy rów obronny
Technika zastosowana w PRAGMA nie jest tajemnicą. Architektura modelu jest opublikowana na arXiv i każdy może ją przeczytać. Problem polega na tym, że nikt nie jest w stanie odtworzyć zbioru danych: lata zachowań finansowych 25 milionów użytkowników to coś, czego nie da się zsyntetyzować ani zastąpić.
Mastercard ogłosił w marcu, że buduje własny model generatywny na setkach miliardów anonimizowanych transakcji płatniczych. Plaid wprowadził model transakcyjny do standaryzowania danych o sprzedawcach. Firmy, które od dekad przetwarzają płatności, zaczęły rozumieć, że siedzą na złocie i że to złoto nazywa się danymi.
Revolut, wyceniany obecnie na około 75 miliardów dolarów, traktuje AIR jako dopiero początek szerszej strategii AI. Wewnętrzny dział AI pracuje m.in. nad produktami głosowymi, asystentami osobistymi i agentami sprzedaży.
Świat fintech właśnie przestał zadawać pytanie „czy kupić AI od zewnętrznego dostawcy”. Teraz pyta „jak szybko wybudować własny”. Revolut ma na to odpowiedź. I 40 miliardów zdarzeń, żeby ją udowodnić.
