Mastercard zbudował własny model fundacyjny – i nie jest to kolejny LLM. Firma wytrenowała tzw. LTM (large tabular model), czyli duży model tabelaryczny oparty nie na tekście ani obrazach, lecz na danych transakcyjnych z kart płatniczych.
Czym właściwie jest LTM?
To pytanie warto zadać na wstępie, bo pojęcie to wciąż nie przebije się do mainstreamu tak jak „duży model językowy”. LTM analizuje relacje między polami w wielowymiarowych tabelach danych, co zbliża go bardziej do klasycznego uczenia maszynowego niż do generatywnej sztucznej inteligencji w rozumieniu, które znamy z ChatGPT czy Claude’a. Zamiast przewidywać kolejny token w sekwencji, model uczy się wprost z surowych danych – jakie wzorce są przewidywalne, a jakie stanowią anomalię.
Mastercard wytrenował swój LTM na miliardach transakcji kartowych. Docelowo ma to być skala setek miliardów. Dane wejściowe obejmują zdarzenia płatnicze oraz powiązane informacje: lokalizację sprzedawcy, przepływy autoryzacji, incydenty związane z oszustwami, zwroty środków (chargebacks) oraz aktywność w programach lojalnościowych. Zanim dane trafiły do treningu, usunięto z nich wszelkie dane osobowe – model rozpoznaje wzorce behawioralne, a nie indywidualne tożsamości.
Prywatność w cenie
Wykluczenie danych osobowych to nie tylko kwestia regulacyjna. To świadomy wybór architektoniczny, który zmniejsza ryzyko naruszenia prywatności typowe dla innych zastosowań AI w sektorze finansowym. Mastercard twierdzi, że skala i bogactwo danych behawioralnych rekompensuje brak szczegółowych informacji o konkretnych użytkownikach. Czy to wystarczy? Teoretycznie anonimizacja zawsze coś zabiera – pewne sygnały przydatne do oceny ryzyka znikają razem z danymi identyfikacyjnymi. Firma jednak zakłada, że odpowiednio duże wolumeny danych to nadrabiają.
Infrastrukturę techniczną dostarcza Nvidia (platforma obliczeniowa) oraz Databricks (inżynieria danych i rozwój modelu).
Widzę w tym podejściu sporo sensu, ale też kilka poważnych znaków zapytania. Z jednej strony LTM to całkiem ciekawe odejście od naśladowania generatywnych trendów – Mastercard robi coś, co faktycznie pasuje do jego biznesu, bo płatności to przede wszystkim dane tabelaryczne, a nie tekst. Anonimizacja danych przed treningiem to krok w dobrym kierunku z perspektywy prywatności. Z drugiej strony – model fundacyjny wdrożony na szeroką skalę w infrastrukturze płatniczej to potencjalnie ogromna powierzchnia ryzyka. Jedna poważna wpadka może mieć efekt domina. Pytanie, które sobie zadaję: czy hybrydowe podejście – LTM obok istniejących systemów, nie zamiast nich – wystarczy jako zabezpieczenie? I czy regulatorzy, zwłaszcza w Europie, zaakceptują modele, których działanie jest trudne do wyjaśnienia w kontekście decyzji kredytowych lub detekcji oszustw?
Piotr Wolniewicz, Redaktor Naczelny AIPORT.pl
Gdzie LTM trafia najpierw?
Pierwszym obszarem wdrożenia jest cyberbezpieczeństwo. Mastercard od lat utrzymuje kilka systemów detekcji oszustw bazujących na danych transakcyjnych. Dotychczas wymagały one ręcznego definiowania reguł – co uznaje się za podejrzane zachowanie, jakie progi częstotliwości transakcji powinny wyzwalać alarm, kiedy zakupy w różnych częściach świata w krótkim czasie sygnalizują problem.
Nowy model ma tu konkretną przewagę. Wstępne wyniki wskazują na lepszą skuteczność w określonych przypadkach – szczególnie w kategorii zakupów o wysokiej wartości, ale małej częstotliwości. Tradycyjne systemy często błędnie flagują takie transakcje jako anomalie. LTM ma rzekomo lepiej odróżniać legalne zdarzenia od faktycznych prób oszustwa.
Firma planuje wdrożenia hybrydowe – LTM jako uzupełnienie istniejących procedur, nie ich zastępnik. To rozsądna ostrożność jak na podmiot operujący pod ścisłym nadzorem regulacyjnym.
Co jeszcze znajdzie się w zasięgu LTM?
Mastercard wskazuje na kilka kolejnych zastosowań:
- monitorowanie aktywności w programach lojalnościowych
- zarządzanie portfelem (portfolio management)
- analityka wewnętrzna
We wszystkich tych obszarach dominują duże wolumeny danych ustrukturyzowanych. Dziś firmy często utrzymują wiele wyspecjalizowanych modeli – po jednym na każde zadanie. To oznacza wielokrotne koszty treningu, walidacji i monitorowania. Jeden model fundacyjny, który można dostrajać (fine-tuning) pod różne cele, może uprościć ten obraz i obniżyć koszty operacyjne.
Ryzyka i plany
Szeroko wdrożony model fundacyjny to jednocześnie potencjalny punkt pojedynczej awarii o systemowych konsekwencjach. Mastercard zdaje się to rozumieć – stąd strategia równoległego działania z istniejącymi systemami, przynajmniej na razie.
W planach jest zwiększenie skali danych treningowych, dostęp przez API oraz zestawy SDK dla wewnętrznych zespołów deweloperskich. Firma deklaruje też transparentność i wytłumaczalność modelu (explainability) oraz jego audytowalność – co w kontekście regulacji finansowych nie jest opcją, lecz koniecznością. Każdy system wpływający na decyzje kredytowe lub wyniki detekcji oszustw trafia pod lupę regulatorów.
Warto zachować pewien dystans wobec przedstawianych wyników. Na razie mamy do dyspozycji wyłącznie raporty samego zainteresowanego – brak niezależnych badań potwierdzających skuteczność LTM w warunkach adversarialnych, a długoterminowe koszty utrzymania modelu i zakres jego akceptacji regulacyjnej wciąż pozostają otwartymi kwestiami. Duże modele tabelaryczne mogą okazać się początkiem nowej generacji systemów AI w infrastrukturze bankowej i płatniczej. Ale to wciąż zakład, nie pewnik.
