Data quality, CIO sotto pressione

data quality

Quantità o qualità? I dati nelle aziende sono tantissimi, ma sono affidabili? Quasi un progetto su due fallisce per carenza di qualità dei dati. I CIO avvertono la necessità di integrare il data quality nei processi aziendali e di attuare una coerente strategia di data governance

Nelle aziende vengono accumulati numerosi dati, spesso senza che siano sfruttati nel migliore dei modi: nei diversi archivi sono nascoste opportunità che dovrebbero essere esplorate, valorizzandole, attraverso una corretta strategia di investimento. Una visione comune, riduttiva, valuta i dati come strumento per tagliare i costi e per ottimizzare i processi: invece, soprattutto negli ultimi anni, l’analisi dei dati può portare a importanti ritorni economici. Fino a pochi anni fa, i dati erano usati solo come base per soluzioni aziendali di supporto alle varie business operations, utili ai fini decisionali; oggi, invece, nell’era dei Big Data, i vari settori di business si chiedono come utilizzarli al meglio per creare nuovi prodotti e servizi, come collaborare con altre organizzazioni per condividerli e creare nuove iniziative.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La gestione dei dati è un primo, importante, passo nelle iniziative di Big Data o uno dei prerequisiti di ogni progetto analitico. Le aziende si stanno concentrando sui vantaggi ottenibili dall’analisi di enormi moli di dati, ma non possono perdere di vista le complessità associate alla loro acquisizione, alla loro preparazione e alla loro qualità. Infatti, la domanda crescente di analisi su larga scala aumenta la necessità di una corretta governance dei dati e della garanzia di qualità dei dati stessi: è chiaro che i Big Data non esisterebbero senza il data quality. Ed è altrettanto chiaro che per avere dati accurati e utilizzabili nei progetti, il data quality va integrato in ogni fase del ciclo di produzione e distribuzione dei dati: dal momento in cui il dato viene creato, o caricato, poi nei successivi punti di integrazione, scambio o arricchimento, fino al punto immediatamente precedente a dove il dato sarà caricato all’interno dei sistemi di destinazione.

Per Paola Pomi, direttore generale di Sinfo One, la certezza di informazioni è cruciale per prendere decisioni efficaci e quindi per la buona salute delle aziende. «Fare data quality risponde a due esigenze sempre più sentite dalle aziende. La prima è gestire la complessità in costante aumento. I manager devono prendere decisioni intelligenti nel vero senso del termine: “intellegere” o leggere attraverso la complessità. La complessità è data da fattori sia interni – organizzativi, di processo e così via – sia esterni come espansione di mercato, servizi e prodotti diversificati per clienti più esigenti, e altro ancora. Una possibile chiave per leggere in modo diverso gli eventi la si può trovare nell’interpolazione di dati interni con fonti esterne. La seconda è la velocità: non ci si può più permettere di avere il conto economico cinque giorni dopo la fine del mese, o il lusso di ricostruire il dato a mano su Excel. Le informazioni per governare – continua Paola Pomi –  servono in tempo reale, o addirittura, in anticipo! Inoltre i sistemi devono evidenziare solo le anomalie nei dashboard dei manager, con la possibilità di analisi in drill immediata e di condividere osservazioni sul dato con altri. Il primo step dei nostri progetti è quello di condividere con i clienti un concetto fondamentale: la qualità dei dati non può ridursi a un esercizio tecnico, ma deve partire dalle sfide quotidiane del management». Infatti, si stima che quasi un progetto strategico su due fallisca a causa di scarsa qualità dei dati. Se i dati sono imprecisi, lo saranno anche tutte le analisi che seguiranno, in una logica che negli Stati Uniti viene chiamata Garbage in / Garbage out: se in input ho dei dati “spazzatura”, questi vengono elaborati in maniera acritica, ottenendo come risposta risultati “spazzatura”. Fare data quality porta quindi ritorni dell’investimento sia qualitativi sia quantitativi.

Secondo gli esperti di IDC, i dati non saranno mai puliti e corretti al cento per cento. Le organizzazioni hanno bisogno di sapere quanto sono non precisi i loro dati, al fine di regolare il grado di fiducia e di rischio associato con l’utilizzo dei dati. I vendor specializzati possono aiutare non solo negli sforzi di pulizia, ma anche nella misurazione della pulizia stessa. Gli strumenti a disposizione rendono più semplice scoprire se ci sono imprecisioni sui dati, permettendo di esaminarle a fondo con delle preview sui dati, fornendo la possibilità di impostare un processo replicabile per mantenere un elevato livello di qualità, con la possibilità di lavorare dove risiedono i dati, senza la necessità di spostarli: in questo modo le operazioni sono più veloci ed efficienti, e non si mettono a rischio i propri dati sensibili. È molto importante comprendere come il data quality non sia qualcosa che si fa una volta sola, ma è un processo continuo, da integrare negli altri processi aziendali che producono dati. Il data quality non può prescindere dalla data governance, una pratica aziendale che allinei strategia sui dati con le strategie aziendali, orchestrando persone, processi e tecnologie di gestione del dato.

Leggi anche:  AI generativa e sviluppo Java, guida pratica ai concetti fondamentali

Secondo Giancarlo Vercellino, research & consulting manager di IDC Italia, la domanda di soluzioni per il data quality è in crescita: «Le organizzazioni sanno di avere problemi di qualità dei dati, ma non sanno come misurare la pulizia dei dati, e sanno che qualcosa deve essere fatto al fine di prendere migliori decisioni basate sui dati. C’è stata anche una presa di coscienza che il data quality inizia con i master data, domini di dati che includono persone, luoghi e cose di cui le organizzazioni si preoccupano. Il mercato sta rispondendo: stiamo vedendo che le soluzioni domain-specific crescono a un ritmo più veloce rispetto a soluzioni per il data profiling e alle tecnologie match / merge». IDC prevede che i segmenti per il data quality nel mercato dell’integrazione dei dati e del software di accesso avranno un tasso di crescita annuo composto (CAGR) di 7,9% fino al 2019. Il segmento di software di qualità dei dati domain-specific è previsto in crescita, nello stesso periodo (2014-2019), con un CAGR del 9,6%. Il segmento generale del software per il data quality ha un CAGR previsto del 6,2%.

DATA QUALITY INTEGRATI

Quanta importanza danno le aziende ai progetti di data quality? Secondo Brad Hathaway, regional advisory technical manager data management di SAS, di frequente i progetti di data quality sono visti come leve da attivare quando emergono problemi, magari per gestire dati sbagliati o non precisi. «La strategia di data quality – invece – è un processo continuo che coinvolge tutte le funzioni aziendali poiché è fondamentale che la qualità dei dati sia garantita in ogni momento. Pertanto, gli strumenti di data quality – mette in evidenza Brad Hathaway – vanno sfruttati in tutte le fasi del ciclo di produzione e distribuzione dei dati, dall’ingresso del dato in azienda fino alla generazione dell’output». Dello stesso avviso è Andrea Maderna, South Europe general manager di BOARD International SA. Secondo la sua esperienza, ricavata sul campo in numerosi clienti, «un progetto di data quality deve richiedere da un lato la realizzazione di interventi puntuali su modello organizzativo, processi e strumenti, e dall’altro l’evoluzione dell’architettura applicativa con l’obiettivo di garantire la qualità, l’affidabilità e la coerenza interna dei dati attraverso l’introduzione di strumenti come BOARD». Ovviamente, tale attività di data quality permette alle aziende di rilevare le anomalie in essere, introducendo due momenti di controllo: «Controlli ex ante sui sistemi origine del dato (per esempio ERP, legacy, motori di controllo di gestione) e controlli ex post sui sistemi destinatari che permettono poi di rappresentare il dato in modo semplice e immediato ad esempio con uno strumento evoluto di BI come BOARD».

Per avere successo, questi progetti devono essere accompagnati da un’organizzazione chiara, come ci spiega Alberto Scavino, amministratore delegato di Irion che ha realizzato molti progetti di data quality in ambito finance. I punti chiave sono tanti: «Prima di tutto, un quadro organizzativo di ruoli, processi e procedure ben strutturato, con forte commitment del management. Ma non è sufficiente. Parliamo di business data quality con dati qualificati in relazione ai contesti di utilizzo e non di semplici controlli tecnici. Inoltre, il software deve avere un approccio agile a regole (molto sofisticate, flessibili e definibili da utenti business) per acquisizione, trasformazione e controllo dei dati (per controlli andamentali o riconciliazioni contabili-gestionali)». Non solo. «Sono fondamentali sia un laboratorio, per simulare i controlli su dati veri e verificarne correttezza ed efficacia, sia la documentazione completa, automatica e aggiornata delle regole del progetto, anche in linguaggio naturale».

COME VALUTARE I BENEFICI

L’importanza dell’impegno in azienda verso la qualità dei dati è sottolineato anche da Mauro Tuvo, principal consultant information management di System Evolution per il quale è necessario innanzitutto che la qualità dei dati sia un impegno di tutta l’azienda, non solo del comparto IT. «Il principale fattore di successo di un progetto data quality è la partecipazione attiva di rappresentanti di tutte le aree coinvolte nella gestione di quei dati, IT e non» – dice Tuvo. Un altro aspetto da garantire è l’efficienza: «È preferibile concentrare l’attenzione su un ambito informativo e sui suoi processi più significativi, identificandone i dati più rilevanti, concentrando su di essi gli interventi sia di controllo sia di miglioramento. Questo approccio consente di ottenere buoni risultati in tempi e con sforzi sostenibili, lavorando per moduli progettuali all’interno di un piano complessivo» – continua Tuvo. «Ogni modulo si concentra su un ambito specifico e ha l’obiettivo di proteggere prioritariamente i dati più rilevanti per i processi selezionati in base alla loro criticità. È poi necessario che questi progetti vengano condotti secondo un unico standard operativo, che definisce ruoli e responsabilità (data owner, process owner, system owner e così via), tecniche di controllo e miglioramento, Key Quality Indicator, da applicare in tutti gli interventi».

Poter valutare i benefici di questi progetti è importante anche per Riccardo Brandinelli, innovation manager di Altea UP. «Il mercato ci sta dimostrando che stiamo vivendo un’era in cui la crescita tecnologica è più rapida della capacità dell’uomo di generare nuove idee. I progetti di data quality sono la dimostrazione di quanto sia importante definire con chiarezza i benefici attesi con dei chiari KPI di valutazione del risultato, definire l’ambito e la strategia di governo a breve/medio termine nonché la gestione dei processi aziendali approfondendone aspetti tecnologici e operativi». Se valutare i benefici e i KPI è relativamente semplice e oggettivo, la valutazione della qualità dei dati è relativa, definita dalla business unit che utilizza i dati. È quanto ci dice Angelo Cian, responsabile soluzioni di business intelligence di Zucchetti: «Poiché la “qualità” è spesso una valutazione relativa che viene definita da chi deve utilizzare il dato, in Zucchetti ci siamo posti l’obiettivo di generare informazioni mediante un processo guidato dall’utente stesso e, se possibile, confrontando più fonti. In sostanza, se al cliente è chiaro fin dall’inizio quali informazioni sono necessarie per prendere le decisioni migliori in relazione al suo business, allora il progetto di data quality avrà buone probabilità di successo».

I SETTORI PIÙ INTERESSATI

I progetti di data quality sono trasversali a ogni industry. Come conferma Hathaway di SAS, avere a disposizione dati puliti e di qualità va a vantaggio di tutte le tipologie di imprese, indipendentemente dal settore di mercato e dalle dimensioni. Non solo. «Adottare una strategia di data quality si traduce in un ritorno dell’investimento grazie a dati attendibili e privi di errori su cui contare per prendere le decisioni di business». Dello stesso parere è Tuvo di System Evolution: «Operiamo principalmente nel mercato bancario e assicurativo, dove norme e regolamenti sono sempre più stringenti, ma siamo convinti che l’applicazione di un approccio sistemico alla qualità dei dati può produrre benefici anche in altri settori, per esempio le utility, la PA, la Sanità». Sulla stessa lunghezza d’onda Brandinelli di Altea UP che parlando di data quality focalizza l’attenzione al mondo social dove sono presenti informazioni destrutturate e ridondanti. «In questi termini è fuorviante pensare che i temi di data quality siano rilevanti esclusivamente per società che interagiscono con il consumatore finale». Infatti, a un’attenta analisi – continua Brandinelli – «si scopre che queste attività sono fondamentali per tutti i nostri clienti indipendentemente dal mercato in cui operano o dalle dimensioni dell’organizzazione. Nel momento storico in cui ci troviamo a operare, l’unico limite è dato dalla predisposizione delle società a intraprendere un processo di digital transformation in cui il miglioramento delle informazioni è finalizzato alla conoscenza approfondita del proprio target di riferimento».

Secondo Scavino di Irion, i settori più interessati sono «banche, assicurazioni e società finanziarie, soggette alla vigilanza. Anche retail, telco e le energy utilities sono sensibili al tema». Interessante anche l’utilizzo nel risk management, spiegato da Claudio Ruffini, presidente di Augeos: «Sempre più spesso si parla di metodologie per il data quality risk management e ciò testimonia la centralità della qualità dei dati nella moderna governance dei rischi. Diversi sono i framework di riferimento sul data quality, ma di particolare efficacia sembrano i metodi Process Driven che uniscono alle metriche di misurazione della qualità dei dati anche l’analisi dei processi che gestiscono tali dati. Ancora poco si è fatto sull’analisi della catena degli eventi che possono accadere e sull’analisi cause – conseguenze in una risk analysis, utilizzando una Process Asset Event Map. Infatti, è utile correlare gli effetti della scarsa qualità dei dati con i possibili costi o eventi di rischio operativi nei processi correlati costruendo dei veri e propri Key Quality Risk Indicator che possono incidere negativamente sulle performance del processi. Alla base di questi tipi di analisi, vi è una corretta correlazione tra gli obiettivi di qualità dei dati e gli obiettivi dei processi che gestiscono questi dati».

Leggi anche:  Analisi pre-progetto, i successi iniziano sempre con un perché

IL DATA QUALITY IN DUE AZIENDE

Ci spiega Cian di Zucchetti: «Il commercio elettronico è uno dei settori più attivi in questo ambito. Il nostro cliente 7Pixel – che è una società leader nel mercato italiano e tra le principali in quello spagnolo nell’ambito della comparazione prezzi con portali come Trovaprezzi.it e nello shopping online con siti come Shoppydoo.it – ha sviluppato un progetto di data quality integrando diverse soluzioni Zucchetti. Con Infinity CRM è stato ottimizzato l’intero flusso di selezione, acquisizione e monitoraggio dei negozi virtuali affiliati: da un semplice cruscotto è possibile verificare sia la situazione contabile-amministrativa sia le informazioni commerciali relative al singolo “merchant”. L’integrazione con l’ERP Ad Hoc Infinity permette di gestire in maniera meccanizzata la generazione di documenti contabili dei singoli negozi online, mentre Infinity DMS ne rende possibile la condivisione alle differenti funzioni aziendali, facilitando la gestione operativa. Infine grazie a InfoBusiness, la soluzione Zucchetti di business intelligence, 7Pixel ha un valido supporto per il monitoraggio dell’andamento aziendale e per orientare in modo più consapevole le proprie decisioni strategiche». Maderna di BOARD International SA descrive così un progetto di data quality nel settore bancario: «Un nostro cliente strategico del settore bancario ha implementato un progetto completo di controllo di gestione, creando un potente ambiente d’analisi multidimensionale per la valutazione della redditività dei clienti, della strutturazione dei portafogli e dell’andamento delle visite commerciali. Da queste parole si può facilmente intuire come sia fondamentale aumentare accuratezza, attendibilità, completezza, consistenza e coerenza dei dati. L’analisi di dati errati potrebbe portare a decisioni assolutamente negative con potenziali perdite di clienti e opportunità di business».

COME ADOTTARE UNA STRATEGIA DI DATA QUALITY

La complessità di questi progetti è tale che gli strumenti informatici, per quanto sofisticati, non sono sufficienti. Occorrono soprattutto metodologie e capacità di data governance, come ci dice Hathaway di SAS: «Abbiamo notato che i nostri clienti ottengono vantaggi significativi adottando una strategia di data quality che comprende tutto il ciclo di vita del processo: dalla profilazione alla standardizzazione, dal matching al monitoraggio della qualità dei dati. Inoltre, la pulizia dei dati avviene nel luogo in cui si trovano le informazioni, senza necessità di esportazione. Tutto questo si traduce in un alto livello di qualità dei dati per supportare le iniziative di business e le decisioni critiche aziendali». Alcune delle aziende che operano nel settore ci hanno descritto, brevemente, la loro offerta nel data quality, fatta di consulenza, metodologia e servizi di supporto. Spiega Tuvo di System Evolution: «In quest’ambito ci proponiamo come fornitore end-to-end. Negli ultimi cinque anni abbiamo realizzato più di centotrenta progetti di data quality e data governance, abbiamo progettato master plan, redatto policy di data quality, disegnato e implementato impianti di controllo, realizzato interventi per la rimozione strutturale delle cause di non qualità».

Suggerendo nuovi spunti e idee per il controllo dei processi aziendali, Brandinelli di Altea UP ci spiega come la società sia di supporto «nell’armonizzare le complessità tecnologiche, fornendo gli strumenti necessari al mantenimento nel tempo della qualità delle informazioni». E parlando di metodologia, Ruffini di Augeos aggiunge: «Abbiamo sviluppato una metodologia di Data Quality Risk, frutto di un progetto di ricerca fatto in collaborazione con la Bicocca di Milano in grado di calcolare la soglia oltre la quale un Key Quality Risk Indicator può segnalare un problema operativo, partendo proprio dall’analisi degli eventi di rischio operativo». Consulenza e servizi sono i punti chiave del supporto al cliente. Tra gli strumenti, Scavino di Irion cita le soluzioni «IrionDQ, gli RTG Add-On per Data Integration, Business & Control Rules, Metadata Catalog & Lineage, Key Business Indicator» – e conclude: «I nostri servizi danno la copertura completa dei processi di data quality, incluse funzionalità di data governance e di valutazione di Key Quality Indicator con una metodologia proprietaria molto sofisticata».

Leggi anche:  SAS, dati e analytics per abilitare l'innovazione in azienda