Niemal co druga (47%) badana instytucja finansowa w Europie jest na etapie pilotażu lub już wdraża agentową sztuczną inteligencję – wynika z badania Red Hat i FStech. Jednocześnie 36% nie ma obecnie planów jej wprowadzenia. Ten podział nie oznacza braku zainteresowania takimi rozwiązaniami, lecz ostrożne podejście do ich implementacji. Wśród 41% respondentów za kluczowy element strategii AI (ważny dla 32% podmiotów) uznawana jest suwerenność danych, a rozwój agentowych systemów jest ściśle zależny od możliwości zapewnienia kontroli nad nimi i dostosowania się do regulacji branżowych.
Firmy, które już wdrażają agentową AI, wykorzystują ją głównie w obszarach, gdzie najważniejsze jest zachowanie zgodności z przepisami. Najczęściej wskazywane zastosowania to wykrywanie nadużyć (71%), monitorowanie zgodności regulacyjnej (66%) oraz procesy KYC (Know Your Customer) używane w działaniach na rzecz przeciwdziałania praniu pieniędzy (61%). Rozwiązania skierowane bezpośrednio do klientów są wymieniane znacznie rzadziej, co pokazuje, że sztuczna inteligencja w branży finansowej rozwijana jest aktualnie tam, gdzie poziom tolerancji na ryzyko jest najniższy, a nadzór nad mechanizmami technicznymi najwyższy.
Jednocześnie zarządy instytucji finansowych wyraźnie wskazują na regulacyjne i prawne czynniki ryzyka związane z wdrażaniem AI. Najczęściej obawiają się niezgodności z lokalnymi przepisami (72%), wycieków danych (55%) oraz konfliktów regulacyjnych między systemami prawnymi innych państw (51%). To właśnie te aspekty sprawiają, że rozwój agentowych systemów coraz silniej wiąże się z koniecznością kontroli nad danymi i dbałości o architekturę zapewniającą zgodność z wymogami prawnymi.
Ta roztropność w działaniu wpisuje się w szerszą zmianę priorytetów branży. Przez lata dążenie do zapewnienia przewagi konkurencyjnej bazowało na szybkości i ograniczaniu kosztów. Obecnie zdolność do utrzymania nieprzerwanego działania i do reagowania na zakłócenia staje się kwestią nadrzędną. W badaniu Red Hat 34% respondentów wskazuje, że to właśnie zastosowania AI w obszarze odporności operacyjnej i ciągłości biznesowej będą miały największy wpływ na ich przedsiębiorstwa w ciągu najbliższych trzech lat. Temat ten przestaje być zarezerwowany głównie dla działów IT, a staje się czynnikiem bezpośrednio wpływającym na stabilność finansową i zaufanie klientów.
Autonomia wymaga nowego fundamentu
Wzrost znaczenia odporności jest spowodowany rosnącym wykorzystaniem systemów AI i ich zwiększającą się autonomią. Dwa przedsiębiorstwa na pięć (43%) uważają, że w perspektywie trzech lat generatywna sztuczna inteligencja będzie wykorzystywana do usług obejmujących kontakt z klientami, a także w obszarach zaawansowanej analityki danych i wspierania procesów podejmowania decyzji. Coraz częściej modele agentowe będą nie tylko analizować dane, ale inicjować i podejmować działania w sposób zautomatyzowany i w bardzo krótkim czasie. Oznacza to, że pojedyncza błędna decyzja może szybko przełożyć się na istotne konsekwencje operacyjne. Należy także pamiętać, że wyzwania w obszarze sztucznej inteligencji dotyczą nie tylko precyzji modeli, lecz także możliwości wyjaśniania ich zachowań oraz nieprzewidywalnych interakcji pomiędzy różnymi komponentami AI w złożonym środowisku technicznym.
W takiej rzeczywistości tradycyjne podejście do nadzoru nad rozwiązaniami technicznymi przestaje być wystarczające. Kontrola nad AI nie może ograniczać się do okresowych audytów czy raportów przygotowywanych po fakcie. Tymczasem 62% badanych przez Red Hat firm nadal bazuje na manualnej analizie incydentów bezpieczeństwa, a co czwarty podmiot (26%) nie ma wyodrębnionego monitoringu sztucznej inteligencji. Tylko 43% przedsiębiorstw wdrożyło zautomatyzowane procedury reagowania na naruszenia. W nowoczesnym ekosystemie mechanizmy ochronne i weryfikacyjne powinny być wbudowane bezpośrednio w architekturę agentów i zapewniać stały nadzór nad ich funkcjonowaniem. Skalowanie agentowej AI wymaga nowego podejścia do zarządzania, które obejmuje nie tylko pojedyncze modele, lecz także relacje i przepływy danych pomiędzy nimi.
Drugim filarem transformacji wykorzystania agentowej AI jest suwerenność danych, którą 73% respondentów uznaje za element kluczowy lub ważny dla swojej strategii wdrażania sztucznej inteligencji. Co ważne, przedsiębiorstwa coraz rzadziej rozważają w tym kontekście wyłącznie miejsce przechowywania danych, a coraz częściej, gdzie i w jaki sposób są one przetwarzane. Z badania wynika, że 59% instytucji finansowych dąży do ograniczenia zależności od globalnych dostawców chmury, a taki sam odsetek chce zyskać większą kontrolę nad swoją architekturą IT. Co druga badana firma wskazuje wśród celów również zwiększenie zaufania i poziomu przejrzystości, zaś 47% ochronę wrażliwych danych klientów.
Mimo rosnącej świadomości znaczenia suwerenności i odporności, wiele firm znajduje się dopiero na początku tej drogi. Ponad 60% badanych przez Red Hat przedsiębiorstw wciąż nie posiada formalnej strategii w zakresie wzmacniania suwerenności danych. Wśród najczęściej wskazywanych barier wdrożeniowych pojawiają się wysokie koszty (64%) oraz niedobór odpowiednich kompetencji w przedsiębiorstwach (58%). Skalowanie agentowej AI nie jest wyłącznie wyzwaniem technicznym, lecz także inwestycyjnym i organizacyjnym, które wymaga spójnej strategii oraz jasno zdefiniowanego modelu operacyjnego.
W tej sytuacji kluczowe staje się pytanie nie o to, czy wdrażać agentową AI, lecz na jakich zasadach i na bazie jakich modeli technicznych. Połowa badanych instytucji finansowych już wykorzystuje lub wchodzi w okres pilotażu rozwiązań wykorzystujących otwartą sztuczną inteligencję, a kolejne 21% dostrzega ich potencjał. Wskazuje to, że otwarta architektura staje się istotnym elementem strategii suwerenności i kontroli w branży finansowej. Autonomia AI bez odporności i suwerenności może stać się źródłem dodatkowego ryzyka, zamiast przewagi konkurencyjnej. Dlatego instytucje finansowe coraz częściej koncentrują się na budowie spójnej architektury bazującej na rozwiązaniach open source, która zapewnia kontrolę nad danymi, modelami i infrastrukturą w środowiskach hybrydowych oraz wielochmurowych. W erze autonomicznych agentów kluczową strategiczną decyzją nie jest wybór konkretnego modelu, lecz stworzenie stabilnych, przejrzystych i suwerennych fundamentów, które pozwolą tę autonomię bezpiecznie skalować.
***
O badaniu
FStech i Red Hat przeprowadziły ankietę wśród 101 decydentów z sektora usług finansowych w Wielkiej Brytanii i Europie, aby ocenić, w jaki sposób organizacje podchodzą do adopcji AI w obliczu rosnących ograniczeń związanych z suwerennością danych i bezpieczeństwem. W badaniu przeanalizowano postawy i priorytety inwestycyjne w takich obszarach jak oprogramowanie otwarte, gotowość do bezpiecznego i zgodnego z przepisami wdrażania AI oraz ryzyka związane z transgranicznym przepływem danych. Respondenci reprezentowali szeroki przekrój instytucji finansowych, w tym główne banki detaliczne i inwestycyjne, ubezpieczycieli oraz dostawców usług płatniczych. Ta różnorodność zapewnia wyważony obraz tego, w jaki sposób kwestie suwerenności i zarządzania wpływają na strategię AI w całym sektorze finansowym.


