La gestione dei dati sarà uno dei pilastri fondamentali per la competitività di tutte le aziende. Produzione, distribuzione, finanza, pubblica amministrazione: nessun comparto è esente dalla gestione dell’enorme patrimonio dei dati a disposizione.
Dati pubblici e privati, dati interni ed esterni, tempo reale e intelligenza artificiale ruotano tutti intorno alla disponibilità dei dati. Gli strumenti e le tecnologie consentono di pensare in grande, ma restano aperti quesiti strategici legati a come sapremo interpretare le esigenze senza limitarle, riuscendo a gestire le tre grandi variabili che caratterizzano il sistema della gestione dei dati: affidabilità, velocità e costi.
Affidabilità – I dati devono essere di qualità a tutti i livelli: sul piano delle singole applicazioni, su quello dell’integrazione applicativa – cioè adatti e pronti a essere utilizzati in processi aziendali complessi – e sul piano della qualità rispetto alle richieste degli utenti di business, che in molti casi sono costretti a utilizzare quantità ingenti del proprio tempo per “prepararli” cioè per metterli in condizione di essere utilizzati al meglio. Per affidabilità, si intende anche il valore intrinseco del dato, la sua “credibilità”, il suo essere vero senza dubbio: un dato può essere di qualità estrema, cioè adatto e pronto a tutte le esigenze, ma potrebbe semplicemente non essere un dato vero, cioè non essere un dato assoluto. Al fine di raggiungere la massima affidabilità, è necessaria la partecipazione degli utenti finali che conoscono come bonificare, arricchire e integrare i dati oltre le normali procedure e saranno sempre più strategici nel progetto dati.
Velocità – Una volta resi affidabili, i dati devono essere disponibili sui tavoli giusti e nel minimo tempo possibile. La velocità nella disponibilità del dato è una caratteristica di cui le aziende non potranno più fare a meno. In questo caso, non si tratta di avere tutto in tempo reale, perché spesso i dati attesi sono dati aggregati, arricchiti, integrati. La soluzione non è “tutto ovunque in tempo reale”, ma si deve tendere a ottenere la massima velocità nella disponibilità globale dei dati. Tutte le unità di business dovranno avere nel minimo tempo possibile i dati già pronti per essere elaborati localmente. Obiettivo dell’IT sarà quello di ottenere questa minimizzazione, concentrandosi sugli aspetti fondamentali e non dovendo limitarsi alla gestione pura. La partecipazione degli utenti finali al raggiungimento di questo obiettivo deve crescere e gli strumenti self-service assolveranno questo scopo.
Costi – Considerate le due variabili precedenti si dovranno, in futuro più che mai, tenere sotto controllo i costi intesi come predicibilità e scalabilità delle soluzioni. Le piattaforme dati sono destinate a crescere senza lasciare nessuna possibilità di prevedere le necessità. E per questo, le proliferazioni e le copie indiscriminate dei dati dovranno essere limitate e contenute. Gli strumenti di lineage – e in generale di data governance – saranno strategici per il contenimento della spesa, insieme ad altri più tradizionali: risorse umane, software, hardware, applicazioni, infrastrutture. Il cloud potrà supportare la velocità ma a discapito dei costi. I modelli di costo subiranno continue modifiche e le aziende dovranno essere pronte a rapidi cambiamenti. Queste tre variabili sono definitivamente ortogonali: quello che da vecchio matematico definirei lo “spazio dei dati del futuro”.
Il comune obiettivo sarà di farle crescere coordinatamente. Il vero vantaggio competitivo sarà appannaggio delle aziende che avranno ottenuto il miglior equilibrio. Premiare la velocità o l’affidabilità – senza tenere conto dei costi di gestione – potrebbe mantenere il sistema sostenibile, ma probabilmente inutile.
Antongiulio Donà, VP Sales Italy di Talend