La banca diventa più tecnologica, basata sui dati, ma per vincere la sfida della complessità deve essere centrata sul cliente, perché la fiducia e la trasparenza sono l’anima dell’economia dei dati. La velocità di trasformazione è il fattore critico di cambiamento.
Due sono le spinte: una normativa, l’altra di mercato. Al momento, Intesa Sanpaolo è impegnata nella realizzazione di un sistema Big Data con reportistica aziendale per la banca e per i rapporti con la BCE. Forse, è il più grande progetto di questo tipo in Italia, destinato a fare scuola. L’obiettivo è raccogliere tutti i dati, puliti e certificati, e metterli a disposizione di tutte le line of business per attività di analisi e reporting. Nel progetto, sono coinvolti diversi partner tecnologici per l’infrastruttura data base, lo storage, il framework Hadoop, l’acquisizione del dato, la data quality, la data governance, l’analisi e il reporting.
In questa prima fase, stiamo lavorando sulle attività di reporting per il controllo di gestione a uso della direzione e che sarà fruibile anche a livello di singola filiale. Si tratta di reingegnerizzare i processi per rendere più semplice l’esperienza dei clienti, più snella l’offerta dei servizi, aumentando nel contempo la sicurezza e abbattendo i rischi. Il successo si basa su quattro pilastri: governance, data quality, customer experience e risk management. A fronte di una fase di difficoltà che ha investito tutto il settore finanziario, cambia il modo dell’utente di usufruire i servizi bancari. C’è una complessità nella raccolta delle informazioni che già si configurano come trattamento dei dati e c’è una complessità nella gestione di questi dati che raccontano la storia dei clienti. Nell’attività di erogazione e gestione dei crediti, la componente rischio è la più problematica. L’attribuzione del rating non è più sufficiente. È necessario eseguire correlazioni fra dati interni e informazioni provenienti da fonti esterne specializzate, per generare indicatori sintetici di qualità in logica predittiva. Le regole tecniche da sole non bastano, ci vuole trasparenza dei comportamenti per fare un salto di responsabilità.
Stiamo parlando di coprire le esigenze normative, gestire meglio la propria esposizione al rischio ed essere quindi più preparati a prendere decisioni, reagendo rapidamente. Ma non è solo una questione di velocità, dimensioni e varietà. Si tratta di valore. Non basta quindi avere un “magazzino dei dati” e lasciare a chiunque le chiavi di accesso. Si tratta di rendere usabili i dati corretti nel momento in cui gli utilizzatori ne hanno bisogno. La raccolta dei dati, che è un tema tipico dell’IT, non basta più, bisogna capitalizzare la conoscenza dei dati. Si parte dal controllo e dalla qualità dei dati. In un contesto normativo molto complesso e regolamentato come quello bancario, gli ostacoli di natura tecnologica e analitica non rappresentano l’unica difficoltà.
Gli analytics abilitano la creazione di dati di valore, ma questi devono essere corretti e di qualità. I dati di per sé non sono un asset. L’asset vero è riuscire a utilizzarli. Il tema della data quality in banca è un tema storico. La data quality in ottica Big Data invece è un tema scarsamente esplorato. Per costruire una strategia “data driven” bisogna abbattere le barriere funzionali. Ci deve essere una sola fonte dei dati, una sola “nuvola”, per rendere univoco il dato per ciascun utilizzatore. L’informazione ha valore solo se genera conoscenza, se è condivisa e se è alimentata da tutti gli stakeholder. Forse, il vero “data owner” dei dati è chi sa utilizzarli meglio degli altri ed è responsabile della data quality.
Claudio Sguoto, responsabile data governance di Intesa Sanpaolo