Polska bankowość należy do najbardziej innowacyjnych na świecie. Przelewy realizowane są znacznie szybciej niż np. w Stanach Zjednoczonych czy Francji, a wyniki stress testów dowodzą, że również pod względem bezpieczeństwa nie mamy powodów do narzekania. Jest jednak poważna rysa na tym – wydawałoby się – nieskazitelnym wizerunku: polskie instytucje finansowe w większości nie znają odbiorców swoich usług. Podobnie sprawy mają się na bardziej rozwiniętych rynkach niż nasz. Według Capgemini tylko 37 proc. klientów banków uważa, że te instytucje dobrze rozpoznają ich potrzeby.
Pewnego razu Adam podjął z banku większą sumę pieniędzy. Minęło zaledwie kilka chwil a w jego skrzynce mailowej wylądowała oferta kredytu. Niemal natychmiast Adam dostał też w tej sprawie od swojego banku SMS-a. Niepotrzebnie. Gdyby bowiem bank znał prawdziwy powód podjęcia większej sumy pieniędzy z konta, wiedziałby, że Adam wyjeżdża na wakacje i wcale nie potrzebuje dodatkowego finansowania. Za to chętnie skorzystałby z dobrego ubezpieczenia turystycznego. Tym samym bank stracił okazję do monetyzacji swoich dodatkowych usług.
To przykład z życia wzięty, ilustrujący etap rozwoju w jakim znajduje się dzisiaj większość polskich banków. Mimo że dane o zainteresowaniach klientów są dziś na wyciągnięcie ręki, a pozyskać je można w ramach obowiązującego prawa i to bez pomocy agencji detektywistycznej. Wystarczy zainwestować w analitykę Big Data.
Wiedza o zarządzaniu danymi i ich monetyzacja jest dziś motorem napędowym rozwoju firm. Z badania przeprowadzonego przez Regalix wynika, że przychody firm, które zdecydowały się na wykorzystanie takiej analityki w działaniach marketingowych wzrosły nawet o ponad 50 proc.
Banki stawiają na Big Data
W rozwiniętych krajach banki rozpoczęły już cyfrową rewolucję. Coraz więcej firm z tego sektora modernizuje infrastrukturę informatyczną, by skutecznie łączyć i analizować dane ze wszystkich przydatnych źródeł. Obranie kierunku na zaawansowaną analitykę cyfrowych informacji to przemyślana strategia rozwoju, która ma swoje uzasadnienie w licznych prognozach i statystykach.
Zdaniem ekspertów, jest to największy krok w historii rozwoju systemu bankowego od czasu wprowadzenia bankowości elektronicznej. Nie chodzi tutaj tylko o rosnącą liczbę danych online, która sięga już 10 zettabajtów. U zarania globalnej sieci, treści w niej publikowane, generowane były przede wszystkim przez wydawców serwisów internetowych. Dziś tworzą je również użytkownicy.
Z raportu „Data Never Sleeps 4.0” wynika, że w ciągu jednej minuty publikują oni 400 godzin materiałów wideo w serwisie YouTube i dzielą się ponad 216 tys. zdjęć na Facebooku. Na serwerach firmy Dropbox w ciągu 60 sekund ląduje ponad 833 tys. nowych plików. Dla banków takie dane to skarbnica wiedzy o klientach. Kluczowa jest ich analiza, to właśnie dzięki niej można lepiej zrozumieć potrzeby klientów i skutecznie kierować do nich przekaz z ofertą. Dane poddane analizie mogą nie tylko przyczynić się do wzrostu sprzedaży produktów finansowych, lecz także przyczynić się do zmiany długofalowej strategii biznesowej.
Bitwa toczy się na dwóch frontach
Według Piotra Prajsnara z Cloud Technologies, firmy data consultingowej i największej w Europie hurtowni danych przetwarzającej informacje o preferencjach i zainteresowaniach internautów, w tej chwili banki zmagają się z przetwarzaniem danych typu first party, czyli tych generowanych wewnętrznie. Stąd inwestycje w infrastrukturę i oprogramowanie, które umożliwiają połączenie w jednym systemie wszystkich przydatnych zbiorów. Analizowanie danych w bankowości ze źródeł zewnętrznych dopiero jednak raczkuje. Zupełnie inaczej niż ma to miejsce np. w branży marketingowej czy e-commerce.
– Dane wewnętrzne banku dostępne w firmowych CRM to m.in. historia klienta, jego aktywność w systemie bankowości elektronicznej, aplikacji mobilnej czy też w innych punktach styku z marką (consumer touch point). Przetwarzanie tak licznych informacji po to, by zyskać lepszy profil klienta i udoskonalić komunikację we wszystkich jej kanałach to niemałe wyzwanie. Kolejnym krokiem jest zasilenie systemu danymi na temat interakcji klienta z marką w serwisach społecznościowych czy też jego aktywności w internecie. Tutaj wewnętrze zbiory cyfrowych informacji przestają wystarczać i trzeba sięgnąć po dane zewnętrzne, czyli 3rd party, które umożliwiają stworzenie 360 stopniowego profilu klienta i pomagają dostosować ofertę do jego aktualnych potrzeb i zainteresowań. W tym celu konieczna jest integracja istniejącego, bankowego systemu komputerowego z platformą DMP (data management platform), która dostarcza i analizuje takie dane w czasie rzeczywistym. To właśnie ubogacenie danych wewnętrznych danymi zewnętrznymi, daje dużo większe możliwości analizy potrzeb klientów i dostarczenia im wysoce spersonalizowanej oferty – tłumaczy Piotr Prajsnar, CEO Cloud Technologies.
Jego zdaniem, bitwa toczy się na dwóch frontach. By nie przegrać z konkurencją, zwiększyć przychody i tworzyć nowe, atrakcyjne usługi banki muszą zadbać o właściwy przepływ danych w ich wewnętrznej infrastrukturze, a następnie wzbogacić systemy informatyczne o dostęp do wielkich, nieustrukturyzowanych zbiorów danych, zwanych inaczej Big Data.
Przykładem skutecznych działań na tym pierwszym froncie może poszczycić się HDFC, jeden z największych banków w Indiach. Korzystając z głębokiej analizy historii interakcji z klientami spersonalizował on komunikację w wybranych kanałach, optymalizując tzw. customer experience. Integracja danych z serwisu internetowego banku z systemem zarządzającym bankomatami pozwoliła m.in. zautomatyzować proces wyboru języka, co doprowadziło do redukcji kosztów operacyjnych i skrócenia czasu korzystania z maszyn o 40 proc.
Zrozumieć klienta
O potrzebie wdrożenia analityki Big Data świadczy chociażby badanie przeprowadzone przez Capgemini. Wynika z niego, że tylko 37% klientów banków uznaje, że dobrze rozpoznają one ich potrzeby. Z tego samego badania wynika również, że zaledwie 37% banków posiada jakiekolwiek doświadczenie w obszarze Big Data. Na pytanie, czy to przypadek, Piotr Prajsnar odpowiada jednoznacznie.
– Nie sposób poznać odpowiednio klienta bez nowoczesnych rozwiązań analitycznych i dopływu aktualnych danych zewnętrznych typu 3rd party. Wyniki badania zaprezentowane przez Capgemini to nie zbieg okoliczności, ale dosadny obraz rzeczywistości, w której firmy pozbawione odpowiednich narzędzi analitycznych nie są w stanie sprostać oczekiwaniom swoich klientów. Problem nie polega na braku chęci czy zaangażowania, lecz na tym, że tych oczekiwań nie znają. Dlatego coraz więcej banków robi porządek z wewnętrznymi danymi i sięga po usługi z kategorii Big Data as a Service, które umożliwiają optymalizację procesów sprzedażowych np. poprzez szczegółową segmentację klientów – przekonuje Prajsnar.
Za sprawą takiej segmentacji Bank of America zmienił sposób postrzegania swoich klientów, co doprowadziło do zastąpienia wysłużonego sloganu marketingowego. Wcześniejszy zachęcał do wykorzystania hipoteki domu w celu sfinansowania edukacji dzieci. Nowy namawia do wzięcia podobnego kredytu, ale już po to, by realizować swoje osobiste pragnienia: „Use the value of your home to do what you always wanted to do”. W efekcie, współczynnik konwersji wzrósł dziesięciokrotnie.
Prześwietlić klienta
Po analitykę Big Data banki sięgają również w celu usprawnienia procesów scoringowych, skracając je dosłownie do kilku minut. Nie tak dawno temu osoby ubiegające się o kredyt musiały przedstawić w placówce banku tony dokumentów. Dzisiaj całym procesem zarządzają skomplikowane algorytmy, które analizują wiele różnych parametrów. Dlatego kluczowe dla banku jest pozyskiwanie danych o swoim kliencie z wielu odmiennych źródeł, co wymaga włączenia do procesów bankowych systemów klasy DMP.
Z możliwości oferowanych przez analitykę Big Data mogą korzystać dziś nie tylko duże banki, lecz również bankowość spółdzielcza. Nowoczesny scroring w Polsce testuje już m.in. Credit Agricole. Dostarczony przez Blue Media system weryfikuje wiarygodność klienta banku na podstawie informacji dostępnych w serwisach społecznościowych oraz danych behawioralnych, czyli analizy zachowań na stronach sprzedażowych, weryfikacyjnych, a nawet sposobu formatowania danych.
– Systemy scoringowe w bankach, które korzystają z zasobów Big Data, dostarczają pogłębioną analizę zdolności kredytowej klientów. Dzieje się tak za sprawą danych pozyskiwanych z różnych źródeł – zapisanych np. w postaci plików cookies – takich jak intencje zakupowe z serwisów e-commerce, czy też profile w mediach społecznościowych. Analiza takiego profilu np. na Facebooku oraz grona znajomych klienta, może pomóc w ocenie jego wiarygodności finansowej i zminimalizować ryzyko związane z udzieleniem pożyczki osobie, która nie będzie miała możliwości jej później spłacić. Jeśli z aktywności internetowej klienta, historii jego decyzji zakupowych czy też podróży zagranicznych wyłania się obraz człowieka, który posiada wystarczające możliwości finansowe, to system wystawiając finalną ocenę bierze te informacje pod uwagę – tłumaczy Maciej Klepacki, ekspert ds. cyfrowej transformacji.
Jego zdaniem banki znajdują się w grupie firm, które jako pierwsze na stałe wdrożą analitykę wielkich, nieustrukturyzowanych zbiorów danych. Za takim scenariuszem przemawiać mają liczne korzyści finansowe oraz walka o rynkową pozycję. Eksperci z firmy Gartner prognozują, że dzięki Big Data do 2020 roku aż 80% procesów biznesowych we wszystkich firmach zostanie zmodernizowanych. – Przemiany, jakie rozpoczęły się za sprawą integracji i analityki dużych zbiorów danych wagą przypominają rewolucję informatyczną, są jednak dużo bardziej dyskretne, a z ich owoców przyjdzie się nam cieszyć dopiero w nachodzących latach – prognozuje Klepacki.