Zostań członkiem

Otrzymuj najlepsze oferty i aktualizacje dotyczące Magazynu LBQ.

― Reklama ―

spot_img

Zdjęcie karty kredytowej w mediach społecznościowych Ryzyko kradzieży tożsamości i naruszenie prywatności

W dobie powszechnej cyfryzacji i dominacji mediów społecznościowych, wiele osób chętnie dzieli się szczegółami ze swojego codziennego życia. Platformy takie jak Facebook, Instagram czy...
Strona głównaRozmaitościTechnologia Data Fabric zrewolucjonizuje sektor finansowy. Banki będą jej potrzebować, żeby nadążyć...

Technologia Data Fabric zrewolucjonizuje sektor finansowy. Banki będą jej potrzebować, żeby nadążyć za bigtechami

Dane są kluczowym elementem prognoz i analiz w sektorze finansowym. Efektywne ich przetwarzanie pozwala m.in. ograniczyć liczbę fraudów, dostosowywać się do wymogów regulacyjnych, optymalizować przepływy pieniężne, pozyskiwać nowych klientów i lepiej odpowiadać na ich rosnące oczekiwania. Jak podkreślają eksperci Goldenore, firmy specjalizującej się w integracji danych, w tej chwili nawet 68 proc. danych gromadzonych przez organizacje nie jest efektywnie wykorzystywanych. W tym celu banki potrzebują rozwiązań technologicznych i nowoczesnych platform, które pozwolą na integrację danych w scentralizowanym środowisku i zapewnią do nich szerszy dostęp przy zachowaniu pełnego bezpieczeństwa. Taką technologią jest Data Fabric – jeden z kluczowych trendów technologicznych na 2023 rok wymienianych przez firmę analityczną Gartner.

 

 

– Cyfryzacja i coraz bardziej wyśrubowane oczekiwania klientów postawiły banki przed wieloma wyzwaniami. Dziś nie wystarczy już efektowna i sprawnie działająca aplikacja mobilna czy dobre oprocentowanie lokat i kredytów. Banki, żeby utrzymać konkurencyjność, muszą stawiać m.in. na prostą i przejrzystą komunikację, która jest spójna we wszystkich kanałach, operational excellence, czyli doskonałość operacyjną, oraz tzw. customer intimacy, co w wolnym tłumaczeniu oznacza zażyłość z klientem. Podobnie jak i inne instytucje działające w branży finansowej banki muszą dopasowywać się do ich oczekiwań, potrzeb i możliwości – mówi agencji Newseria Biznes Bartłomiej Wlazłowski, executive business partner w Goldenore, firmie, która jest polskim integratorem platform danych.

Jak podkreśla, aby odpowiadać na te wyzwania, banki muszą ciągle gromadzić i analizować dane płynące z różnych źródeł publicznych i prywatnych, zarówno od klientów, jak i z rynku. Wolumen i złożoność tych danych są jednak ogromne, dlatego instytucje finansowe mają problem z ich efektywnym przetwarzaniem i wyciąganiem z nich wniosków. Szacuje się, że nawet 68 proc. tych danych nie jest wykorzystywanych.

 Dlatego właśnie banki muszą inwestować w nowoczesne platformy danych i za chwilę to będzie już nie tylko moda czy potrzeba chwili, ale krytyczna konieczność, żeby móc w ogóle konkurować na rynku. Wynika to z faktu, że banki coraz bardziej czują na plecach oddech bigtechów, takich jak Google, Amazon, Facebook czy Apple. One gromadzą, przetwarzają i analizują ogromne ilości danych o swoich klientach i zaczynają coraz śmielej wchodzić na rynek finansowy – mówi Bartłomiej Wlazłowski.

Bardziej efektywny dostęp do danych gromadzonych i przetwarzanych w systemach IT umożliwia Data Fabric, która integruje je w scentralizowanym środowisku. Ta technologia opiera się na założeniu, że wszystkie elementy IT powinny wspierać i ułatwiać obsługę danych. Data Fabric tworzy zestaw narzędzi, które umożliwiają organizacji zarządzanie danymi niezależnie od miejsca, modelu czy formy ich przetwarzania i przechowywania. Ta technologia pozwala też „demokratyzować” dostęp do danych – sprawić, aby były one użyteczne dla jak najszerszej grupy użytkowników biznesowych, przy zachowaniu odpowiedniej polityki dostępu i poufności.

– Liczba i złożoność systemów i aplikacji bankowych kiedyś była znacznie mniejsza, podobnie jak potrzeby analityczne i raportowe. Natomiast w tej chwili stopień skomplikowania środowisk informatycznych w bankach jest tak ogromny, że bez nowoczesnych, niezawodnych i wydajnych rozwiązań IT żaden bank nie może sprawnie działać – podkreśla ekspert.

Data Fabric to w tej chwili jeden z kluczowych trendów technologicznych wymienianych przez firmę analityczną Gartner, która wskazuje, że elastyczność zarządzania danymi stała się priorytetem o znaczeniu krytycznym dla organizacji działających w coraz bardziej zróżnicowanym, rozproszonym i złożonym środowisku. Aby ograniczyć błędy ludzkie i ogólne koszty, liderzy ds. danych i analiz muszą wyjść poza tradycyjne praktyki zarządzania danymi i przejść w kierunku nowoczesnych rozwiązań, takich jak integracja danych z obsługą sztucznej inteligencji. To właśnie umożliwia technologia Data Fabric. Według prognoz Gartnera do 2024 roku już 1/4 firm dostarczających rozwiązania związane z zarządzaniem danymi stworzy kompletny zestaw narzędzi do wykreowania takiej architektury. W tej chwili jest to tylko 5 proc.

 Jedną z podstawowych korzyści płynących z wdrożenia rozwiązań Data Fabric jest m.in. lepsze zarządzanie dostępem i korzystaniem z danych dla szerszego grona użytkowników. To zaś zwiększa efektywność prowadzenia biznesu i produktywność pracowników, pomaga zdobyć nowych klientów, poprawić jakość obsługi i lepiej dostosować się do regulacji branżowych – wylicza Bartłomiej Wlazłowski. – Użytkownicy sami wyszukują dane z katalogu danych wspierani przez AI, co oznacza duże oszczędności czasu w wyszukaniu i modelowaniu danych. To też zmniejsza pracochłonność przygotowywania danych dla użytkowników biznesowych, czyli obniża koszty IT. Automatyczne mechanizmy sprawdzania i poprawy jakości oraz aktualności danych oznaczają z kolei trafniejsze prognozy i poprawne raporty.

Na globalnym rynku są już praktyczne przykłady wdrożenia tej technologii. To m.in. obsługujący ponad 5 mln klientów Danske Bank, największy duński bank i jeden z większych w Europie Północnej, który za pomocą IBM Watson Knowledge Catalog wdrożył spójną strategię tzw. Data Governance w celu ulepszenia strategii zarządzania danymi w organizacji.

– Efektem tego wdrożenia jest dostępność wysokiej jakości danych dla analityków w celu tworzenia jeszcze bardziej trafnych i stabilnych modeli analitycznych. Dane są bowiem kluczowym elementem modeli i prognoz w sektorze finansowym – mówi ekspert Goldenore.

Kolejnym przykładem wdrożenia rozwiązań Data Fabric jest też Banco Macro – drugi co do wielkości prywatny bank w Argentynie oraz szósty pod względem depozytów i kredytów. Bank poszukiwał nowych metod na zwiększenie efektywności kampanii marketingowych, optymalizację zarządzania przepływami pieniężnymi w oddziałach i bankomatach oraz zapobieganie liczbie i skali oszustw. We współpracy z IBM wdrożył nową platformę do zarządzania modelami uczenia maszynowego, a pierwszymi obszarami były znalezienie i priorytetyzacja najbardziej akceptowalnych ofert (NBO – Next Best Offer) oraz wykrywania ryzyka fraudów na podstawie zachowań.

 Dzięki efektywnemu zarządzaniu cyklem życia modeli, poprawie ich efektywności i ułatwieniem dostępu do danych Banco Macro uzyskał trzykrotny wzrost akceptacji ofert, a klienci zidentyfikowani przez ulepszone modele byli o 25 proc. bardziej skłonni do przyjęcia oferty. Bank wykrył też kilka dodatkowych przypadków scenariuszy zachowań ryzykownych oraz znacząco zredukował poziom rezerw z tytułu zobowiązań – mówi Bartłomiej Wlazłowski.