Narodowy Bank Polski[1] odnotował w 2023 roku ponad 326 tys. oszustw z wykorzystaniem kart płatniczych oraz poleceń przelewu. Łączna wartość tych transakcji wyniosła 327 milionów złotych. Z roku na rok zwiększa się gama zagrożeń, na jakie narażone są banki i ich klienci, a ofiarami oszustów padają zarówno konsumenci, jak i firmy. W tym tunelu jest jednak światełko – to sztuczna inteligencja, która może pomóc instytucjom finansowym w ograniczaniu ryzyka oraz w walce z przestępcami.
W wielu obszarach banki już teraz szeroko wykorzystują algorytmy AI i uczenia maszynowego. Z ich pomocą automatyzują i usprawniają procesy personalizacji ofert, analizy dokumentów, oceny ryzyka kredytowego czy obsługi klienta z użyciem interaktywnych chatbotów. Z badania KPMG wynika, że nawet 76% instytucji finansowych na świecie[2] zamierza wykorzystać rozwiązania bazujące na AI również do wykrywania oszustw i zapobiegania im.
Na skróty:
Ilu przestępców, tyle metod
Form przestępstw, z jakimi mierzą się instytucje finansowe i ich klienci, jest wiele. Kradzież tożsamości i zaciąganie kredytu w imieniu danej osoby, wyłudzanie danych od klientów poprzez phishing, nieautoryzowane użycie kart kredytowych, przejmowanie bankowych rachunków na podstawie wcześniej skradzionych danych czy fałszowanie dokumentów – to tylko niektóre z taktyk, jakie stosują oszuści.
Najczęściej padający ofiarą przywłaszczenia ich środków konsumenci i firmy dowiadują się o kradzieży dopiero po fakcie, gdy pieniądze znikają z ich kont bankowych. Instytucje finansowe nie mają bowiem możliwości weryfikacji każdej pojedynczej transakcji i przelewu środków. Ogromny potencjał w tym obszarze wykazuje jednak generatywna sztuczna inteligencja.
Dzięki zdolności do błyskawicznej analizy ogromnych ilości danych finansowych modele gen AI mogą być wykorzystywane do identyfikowania anomalii w transakcjach płatniczych. Umożliwiają monitoring zachowania klientów w czasie rzeczywistym oraz analizę płatności pod kątem występowania typowych dla danego użytkownika schematów. Rozwiązania gen AI mogą także sprawdzać treść powiadomień i wiadomości wysyłanych „w imieniu banku”, zanim dotrą one do odbiorcy, a także weryfikować prawdziwość użytych dokumentów tożsamości. To wszystko pozwala wykrywać potencjalnie nieuczciwe działania oraz blokować je, zanim dojdzie do kradzieży.
AI samo się nie wyszkoli
Aby sztuczna inteligencja działała precyzyjnie, musi być zasilana ogromną ilością danych. Modele uczenia maszynowego stworzone na podstawie historycznych informacji dotyczących oszustw finansowych mogą z dużą dokładnością przewidywać ponowne ich wystąpienie. Jednak w starciu z próbą prognozy nowych rodzajów zagrożeń poziom ich precyzji może ulec zmniejszeniu. Dlatego ważne jest, aby zbiór danych, na których trenowany jest algorytm AI, był możliwie największy i najbardziej aktualny.
Jeśli brakuje rzeczywistych informacji, dobrym podejściem jest użycie tzw. danych syntetycznych. Są one tworzone za pomocą symulacji komputerowych i pozwalają uzyskać wysokiej jakości zasoby do szkolenia algorytmów AI. Gdy zostaną wykorzystane do uczenia sztucznej inteligencji, możliwe jest uruchamianie milionów potencjalnych scenariuszy przestępstw finansowych, a rozwijany system identyfikacji oszustw staje się bardziej precyzyjny i efektywny.
Symulacje dla bankowości w praktyce
W generowaniu danych syntetycznych dla branży finansowej przydatny jest tzw. model generatywnych sieci przeciwstawnych (Generative Adversarial Networks, GAN). Wykorzystuje on dwie sieci neuronowe: jedna wytwarza dane bazujące na konkretnych wzorcach, a druga porównuje je z danymi rzeczywistymi, szukając zafałszowań. Przypomina to grę „w kotka i myszkę”, w której jedna sieć próbuje przekonać drugą, że tworzone przez nią zasoby są autentyczne. Wygenerowane w ten sposób przez model AI dane są na bieżąco wykorzystywane do jego trenowania i ciągłego doskonalenia.
Drugi sposób tworzenia danych to model bazujący na agentach (Agent Based Model, ABM). W jego ramach uruchamia się wykorzystującą konkretne reguły symulację relacji między określonymi profilami użytkowników. Powstające w trakcie tej interakcji dane są następnie analizowane, a na ich podstawie wyciągane są wnioski i przewidywania na temat konkretnych grup oraz społeczności. Model ABM można wykorzystać na przykład do symulowania rozmowy między klientem a pracownikiem banku i w ten sposób wytrenować AI w zakresie schematów prawidłowego zachowania oraz odstępstw od normy.
AI w finansach to przyszłość, ale nie bez barier
Raport KPMG[3] wskazuje, że w ciągu zaledwie trzech miesięcy 2023 r. odsetek podmiotów z branży finansowej, które wdrożyły rozwiązania gen AI, wzrósł znacząco z 5% w marcu do 49% w czerwcu. Prawie co piąta firma zgłosiła również, że już czerpie korzyści z tej technologii. Tak dynamiczny rozwój nie znaczy jednak, że przedsiębiorstwa finansowe nie dostrzegają wyzwań związanych z gen AI. Prawie siedmiu na dziesięciu respondentów (69%) KPMG jako najważniejszy problem wymienia ochronę prywatności informacji. Ponadto 46% uważa, że transparentność danych jest tematem wymagającym natychmiastowych działań regulacyjnych.
Wykorzystanie danych syntetycznych w podmiotach finansowych to podejście, które stanowi odpowiedź na oba te wyzwania, ponieważ dostarcza modelom AI wysokiej jakości zanonimizowane informacje, na których mogą się szkolić. Analitycy Gartnera szacują, że do końca 2024 roku 60% wszystkich danych treningowych dla sztucznej inteligencji będzie wygenerowanych w sposób syntetyczny[4].
[1] Narodowy Bank Polski: Informacja o transakcjach oszukańczych dokonywanych przy użyciu bezgotówkowych instrumentów płatniczych.
[2] Raport KPMG: The generative AI advantage in financial services.
[3] Raport KPMG: The generative AI advantage in financial services.
[4] Gartner: Gartner Identifies Top Trends Shaping the Future of Data Science and Machine Learning.