Le sfide dei Big Data

La crescita del mercato Big Data è stimata a un tasso annuo del 22,6% fino al 2020. Le imprese ne hanno capito le opportunità di investimento, ma devono vincere molte sfide: le dimensioni degli archivi, l’evoluzione tecnologica, i budget, il gap di competenza, la privacy e la sicurezza

Sono trascorsi alcuni anni da quando è stato coniato il termine Big Data. Dalla prima fase sperimentale, dove i progetti sono stati affinati e completati di pari passo alla nascita e allo sviluppo dei primi prodotti, si è passati a un sempre più completo sfruttamento della ricchezza contenuta nelle enormi quantità di dati analizzati. Le aziende hanno compreso le numerose opportunità connesse ai Big Data, e hanno ormai raggiunto la consapevolezza che proprio dai Big Data potrebbe dipendere la loro futura esistenza nel mercato. Le analisi in tempo reale sono una priorità assoluta. I Big Data sempre più spesso vengono utilizzati per migliorare i processi interni e l’assistenza clienti. Governance, qualità e self-service dei dati sono i presupposti per un’impresa data-driven. Ma il rapporto tra IT e Business resta il più grande ostacolo per diventare un’azienda orientata ai dati. Spiega Fabio Rizzotto, senior research and consulting director di IDC Italia: «Le soluzioni di Big Data e di Business Analytics continuano a essere la base per il vantaggio competitivo delle imprese che si trovano nel bel mezzo della Digital Transformation. Per le imprese, questa trasformazione è un’opportunità e una sfida. La promessa di un migliore processo decisionale data-driven e più veloce ha i Big Data al top dell’agenda dei CXO executive. Per i CXO, non solo l’accesso alle informazioni, ma anche la capacità di analizzare e agire su di essi in modo tempestivo crea un vantaggio competitivo sul mercato, consente la gestione sostenibile delle comunità e delle risorse naturali, e promuove la fornitura adeguata di servizi sociali, sanitari ed educativi».

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’onda della digital transformation

Secondo dati IDC, a livello mondiale, il settore dei Big Data, che include infrastrutture, software e servizi, è stimato crescere al CAGR (il tasso annuo) del 22,6% dal 2015 al 2020 e raggiungere 58,9 miliardi di dollari nel 2020, a partire dai 21,3 miliardi di dollari del 2015. In Europa occidentale, nello scorso anno, è stato investito circa il 27% del dato worldwide. In Italia, il valore di mercato per la tecnologia e servizi di Big Data nel 2016 è stato stimato in circa 253 milioni di dollari, e IDC prevede che raggiungerà i 306 milioni di dollari a fine 2017, con una crescita prevista del 21% in un anno. La necessità di supporto per la localizzazione e la lingua, le variazioni economiche all’interno della regione, l’apertura alle nuove tecnologie, l’evoluzione nella sicurezza dei dati e nella legislazione sulla privacy, tutto contribuisce a un diverso ritmo di adozione e diversi livelli di penetrazione nei vari Paesi, soprattutto se confrontati con il più grande e più maturo mercato nordamericano. «Tuttavia – come spiega Rizzotto – il mercato dell’Europa occidentale per Big Data e Analytics (BDA) continua a mostrare una forte crescita, dal momento che le organizzazioni sfruttano il potenziale presente in tutte le forme di dati per ottenere un vantaggio competitivo. L’onda della Digital Transformation, in particolare, sta guidando una più ampia gamma di organizzazioni nell’adottare nuove soluzioni BDA, che le portano a diventare aziende sempre più data-driven. Allo stesso tempo, passando da singole implementazioni a progetti di più ampia diffusione, le aziende stanno cercando di scalare gli sforzi e realizzare tutte le opportunità provenienti dal miglioramento di processi decisionali e processi di business». Secondo le cifre dell’Harvard Business Review, le aziende che negli ultimi anni si sono dotate di strategie data-driven, hanno aumentato del 5% la produttività e incrementato del 6% i profitti.

Secondo i risultati della ricerca dell’Osservatorio Big Data Analytics & Business Intelligence della School Management del Politecnico di Milano il 39% dei CIO italiani vede la Business Intelligence, i Big Data e gli Analytics come priorità di investimento principale nel 2017 per l’innovazione digitale. Il processo di trasformazione delle tradizionali imprese italiane in Big Data Enterprise sembra ancora lungo: soltanto l’8% degli intervistati ha dichiarato di aver raggiunto un buon livello di maturazione, mentre il 26% ha appena iniziato il percorso e il 66% dichiara di trovarsi in una situazione intermedia. Il settore più interessato nel mercato degli Analytics tra le grandi imprese è quello bancario (29%), seguito da manifatturiero (22%), telecomunicazioni e media (14%), pubblica amministrazione e sanità (8%), altri servizi (8%), GDO (7%), utility (6%) e assicurazioni (6%). Prendendo in considerazione la crescita dei singoli settori, crescono di più le assicurazioni (+25%), poi il settore manifatturiero, le banche e le utility, con tassi di crescita compresi fra il 15% e il 25%. Poi vengono i settori dei servizi, le telco e i media, con una crescita compresa fra il 10% e il 15%, e infine PA e sanità, con tassi di crescita più modesti.

Leggi anche:  Qlik, dai dati alle decisioni. L’AI a supporto delle aziende data-driven

Dati, ma quanti sono?

La prima, vera sfida che si deve affrontare è poter gestire la dimensione dei Big Data. La quantità di dati generati oggi è davvero notevole. Gli smartphone, le carte di credito, le carte fedeltà, i sensori montati su mezzi di trasporto pubblici e privati e sugli edifici, i log, le email, i social, le interazioni su web, i dati di localizzazione sono solo alcune delle numerose fonti di creazione di dati, nelle tipologie più diverse: dati transazionali, immagini, testi, video, audio, numeri. Questi dati, se raccolti e collegati tra loro in modo accurato, e poi analizzati e interpretati con modelli di analisi avanzati, possono fornire previsioni attendibili sulle tendenze e sugli avvenimenti futuri. Per ottenere il massimo da questi progetti, le aziende devono esser capaci di esplorare l’intero ecosistema dei Big Data ed essere flessibili, adattandosi rapidamente ai mutamenti continui delle fonti dati e cogliendo opportunità derivanti dall’evoluzione tecnologica, riuscendo a scegliere quelle che sono applicabili alla propria realtà. Infatti, per supportare le strategie di business con le tecnologie BDA è necessario utilizzare competenze e abilità diverse. Innanzitutto, raccogliere e integrare informazioni strutturate e non strutturate, provenienti da fonti interne ed esterne, anche in tempo reale. Poi, estrarre il reale valore contenuto nei dati. Infine, definire a chi rendere disponibili queste analisi, e come distribuirle.

Gli strumenti giusti

Un’altra sfida importante è saper utilizzare gli algoritmi e i modelli giusti, per gestire tutte le diverse variabili in gioco: il progresso tecnologico ha già semplificato la vita ai data analyst, che non molti anni fa avrebbero utilizzato mainframe per le elaborazioni su archivi più piccoli, mentre ora possono usare software più avanzati, su archivi di dimensioni maggiori, con un normale personal computer, risparmiando anche molto tempo. Viste le dimensioni degli archivi da gestire, e la velocità di creazione dei dati, per questi progetti – oltre alle performance – sono richieste soluzioni scalabili in grado di crescere di pari passo con i Big Data, e che abbiano anche flessibilità e facilità di utilizzo elevata. Per Rizzotto, i Big Data continueranno a costringere i fornitori a innovare nei rispettivi segmenti di mercato: infrastrutture, software e servizi. «I fornitori dovrebbero quindi essere pronti a interrompere la loro strategia di prodotto per intraprendere una road map di prodotto “Big Data-friendly.” Ciò significa, per esempio, la fornitura di soluzioni che sono specificamente progettate per i carichi di lavoro dei Big Data. In Europa, il numero crescente di progetti Big Data realizzati nel cloud continua a spingere attuali e nuovi fornitori di prodotti as-a-service (software, piattaforme e infrastrutture) a costruire le proprie offerte che aiutino a ridurre il costo e la complessità della BDA, rispondendo anche alle importanti richieste di protocolli di sicurezza e di standard di conformità che le organizzazioni europee domandano».

Cosa si può fare?

Diversi sono gli obiettivi che le aziende si prefiggono di raggiungere da questi progetti. Secondo una recente survey di Forrester, i casi di utilizzo della data analysis rientrano in questi gruppi: efficienza e rischi operativi, sicurezza e performance applicative, conoscenza e servizio ai clienti. Nel primo ambito, rientrano progetti Big Data che riguardano la riduzione del rischio nelle analisi finanziarie, l’asset management, l’analisi delle frodi. L’efficienza viene ricercata in un miglior controllo dei processi operativi, nella riduzione dei costi delle risorse, nella gestione del personale, nell’ottimizzazione della supply chain, nella manutenzione preventiva. Rientrano in questa categoria anche i progetti per sviluppare nuovi modelli di business, per velocizzare e migliorare le decisioni strategiche, per avere una migliore comprensione del mercato e della sua dimensione, e della concorrenza. Per quanto riguarda la sicurezza e le performance applicative, viene utilizzata la Predictive Analytics e i Big Data applicati all’IT, per prevenire i problemi nell’erogazione dei servizi, per monitorare gli eventi in modo da intervenire in tempo reale, per valutare i livelli prestazionali, evidenziando i colli di bottiglia. Infine, per quanto riguarda la conoscenza e il servizio ai clienti, progetti di Big Data sono utilizzati per una migliore focalizzazione delle strategie di marketing, per lo sviluppo di nuovi prodotti e servizi, di offerte personalizzate, ma anche per l’ottimizzazione della digital experience, per una migliore comprensione del cliente, per migliorare la customer experience, incrementare e fidelizzare la propria clientela, con l’obiettivo ultimo di aumentare vendite e fatturato. Sembra un elenco di campi di applicazione, in realtà ognuno di essi rappresenta una sfida per chi deve sviluppare un progetto Big Data: la difficoltà consiste nel fatto che in questi progetti non si devono generare report sul passato, ma utilizzare approcci predittivi o prescrittivi che, partendo da quanto è presente nei dati, generi insight, cioè valore utile per i processi decisionali.

Leggi anche:  Qlik potenzia Thauma per prendere decisioni in maniera più consapevole

Competenze? Gap da colmare

Secondo Carlo Vercellis, responsabile scientifico dell’Osservatorio Big Data Analytics e Business Intelligence del Politecnico di Milano, governare i Big Data è ormai una priorità non solo per ottimizzare i processi, «ma anche per sviluppare nuovi prodotti e servizi, per cogliere le opportunità derivanti dalla monetizzazione dei dati». Non solo. «In questo senso, dotarsi di nuove competenze di data science e di strutture organizzative innovative rappresenta una sfida non più prorogabile». Tuttavia, come conferma Fabio Rizzotto di IDC Italia, il divario di competenze continua a sfidare le migliori ambizioni degli utenti finali. «I risultati di un’indagine IDC indica un deficit di competenze informatiche critiche, mentre i clienti riferiscono che data scientist, data architect ed esperti in Data Management sono fortemente richiesti, e scarseggiano sul mercato». Già dai prossimi anni, la situazione dovrebbe cambiare con una crescita esponenziale, a conferma degli investimenti crescenti nel segmento Big Data e Business Analytics. Lo sviluppo dei Big Data impatterà sulle aziende di ogni settore e dimensione, ma la sfida non sarà solo tecnologica, riguarderà anche le persone e le competenze necessarie per affrontare il cambiamento. Le aziende hanno bisogno di investire in formazione per ampliare le competenze delle proprie risorse, e di focalizzarsi sul costruire skill adeguati. Inoltre, hanno bisogno di nuovi modelli organizzativi, per sfruttare al meglio queste fonti informative, uniti a nuovi stili di leadership e di talent management. È necessario anche lavorare per sviluppare una nuova cultura decisionale e per sostenere le persone nella comprensione del cambiamento. I Big Data non riducono il contributo umano all’interno dei processi aziendali, anzi rivoluzionano i ruoli aziendali, dai manager ai lavoratori, creandone di nuovi. Per il successo di questi progetti, è fondamentale creare un team di lavoro, con obiettivi e ruoli chiari e condivisi, con competenze diverse e complementari.

Questione di budget

Nell’attuale contesto macroeconomico, in una fase di ripresa ancora contenuta, non tutte le realtà hanno a disposizione budget adeguati per questi progetti. Secondo la già citata indagine dell’Osservatorio del Politecnico, il ruolo delle piccole e medie imprese è ancora marginale nel mercato degli analytics in Italia. Solo in un caso su tre le PMI hanno dedicato parte del Budget ICT 2016 a queste soluzioni, e la propensione di spesa aumenta al crescere delle dimensioni, con le medie imprese che investono di più delle piccole. Sugli investimenti e l’adozione di soluzioni di Big Data Analytics pesa anche la situazione economica attuale. «Nonostante il significativo impatto degli sviluppi tecnologici e di business sul mercato delle infrastrutture Enterprise – mette in evidenza Rizzotto – il contesto macroeconomico ha un forte impatto sui modelli di acquisto. Gli investimenti in infrastrutture high-end sono in genere più influenzati durante i periodi economici difficili. Mentre i dati continuano a crescere, i budget ridotti per le infrastrutture forzano gli end user a esaminare i modi più efficaci per soddisfare le esigenze di storage delle loro organizzazioni. In queste circostanze, i progetti di alto profilo / high-end hanno maggiori probabilità di essere messi in attesa. In questa situazione, i fornitori di BDA continuano ad affrontare la pressione dei prezzi. L’appetito crescente delle imprese nell’abbracciare le emergenti tecnologie software e hardware correlate ai Big Data, soprattutto la parte della comunità open source, viste come una soluzione per mantenere bassi i costi di implementazione, ha coltivato un ricco e diversificato ecosistema di fornitori intorno ai BDA che comprende gli attuali operatori, gli specialisti open source, e le startup. E dal momento che l’innovazione intorno all’open source continua a prosperare, i fornitori convertono o estendono le proprie tecnologie per soddisfare le esigenze di volume, varietà e velocità di Big Data».

Leggi anche:  Chatbot intelligenti in Java, come liberare il pieno potenziale dell’AI generativa

Privacy e mancanza di condivisione

Lo sviluppo dei Big Data pone anche alcuni problemi legati alla privacy. Si devono conciliare gli interessi del mondo delle imprese, che ne vedono le opportunità di cui abbiamo parlato, con la necessità di assicurare adeguate forme di tutela per i consumatori e per i titolari dei dati personali: la complessità è legata al contesto digitale sempre più globale, nel quale i dati non hanno limiti di confine. Non è solo un problema di governance dei dati, ma in Europa è anche un requisito legale, a seguito dell’introduzione del GDPR, il General Data Protection Regulation, del Parlamento Europeo. Un altro aspetto da considerare, è la diffidenza che spesso le aziende mostrano nel condividere i dati. Purtroppo, questa mancanza di collaborazione porta a uno spreco di dati, e spesso all’insuccesso dei progetti stessi. Nel campo della medicina, forse, c’è il maggiore spreco di dati: si stima che, nel 2018, la spesa sanitaria negli Stati Uniti raggiungerà l’importo di 4.400 miliardi di dollari. L’8% di questa cifra, pari a circa 352 milioni, potrebbe essere risparmiato grazie a un controllo degli sprechi, e a una maggiore condivisione di archivi, analisi, gruppi di lavoro.

Storage e sicurezza

I progetti di Big Data costringono a registrare quanti più dati possibili, e a conservarli per lungo tempo, per permetterne un’analisi anche a distanza di tempo, che può far ricavare valore anche in futuro. Il costo delle soluzioni per la memorizzazione delle informazioni si sta rapidamente e drasticamente riducendo, e quindi non costituisce un problema. Tra le architetture utilizzate per supportare l’analisi sui Big Data, sta prendendo piede il “Data Lake”, una piattaforma che semplifica l’archiviazione, la gestione e l’analisi dei dati, strutturati e non strutturati, amplificando le capacità dei Data Warehouse aziendali. I Data Lake garantiscono una facile gestione senza migrazioni di dati e superano il concetto dei data silos, che vengono sostituiti con un unico volume, a elevatissime capacità, sul quale sono possibili esplorazioni flessibili con differenti prospettive: si possono compiere combinazioni illimitate di dati. L’enorme mole di dati, però, pone anche problematiche di sicurezza, anche perché spesso le piattaforme che regolano l’intera filiera sono aperte al cloud. Occorre quindi stabilire delle regole di archiviazione e accesso per garantire i giusti livelli di riservatezza, integrità e autenticità. Si tratta di una sfida particolarmente complessa, perché è necessario definire requisiti di sicurezza specifici per ogni fase del ciclo di vita dei dati, dalla protezione della raccolta dati, seguita da quella dell’accesso ai dati stessi, garantendo l’integrità dei dati sia a riposo sia durante l’analisi. La creazione e l’applicazione di policy per i Big Data diventano più critiche a causa del volume di dati, e del numero di utenti che dovranno accedervi. La grande quantità di dati rende prioritaria anche la necessità di evitarne la perdita.

Come partire?

Come si vede, le problematiche da affrontare nei progetti di Big Data sono tante, e sono complesse sia dal punto di vista tecnologico sia dal punto di vista organizzativo. Ma la rapida e continua crescita del mercato testimonia come le aziende sono in grado di fronteggiarle con successo. L’errore che si può compiere è di concentrarsi soltanto su come creare l’archivio e sulla scelta degli strumenti da utilizzare per analizzare i dati. Invece, per sviluppare un progetto Big Data che abbia successo, bisogna innanzitutto avere obiettivi chiari, un approccio di implementazione rigoroso, un team di progetto dove sono coinvolte anche le persone del business, ma sotto lo stretto controllo dell’IT. Non ultimo, bisogna basare il progetto su una corretta Data Strategy, che comprenda l’aspetto tecnologico, le strategie di governance dei dati, e le regole di gestione delle informazioni. In una prima fase del progetto, devono essere identificati i dati che saranno gestiti, il loro significato e la loro utilità. Devono poi essere definite regole e linee guida per una loro distribuzione efficace, nel rispetto della policy interna e della compliance. Si devono poi valutare gli aspetti di archiviazione, per realizzare un’infrastruttura che garantisca uno storage sicuro, strutturato. Infine, bisogna concentrarsi nella definizione di regole per la ricerca e l’accesso dei dati, e nella componente di integrazione dei dati, necessaria per combinare le informazioni presenti in archivio e permetterne una vista unica.