Guidati dai dati ma con intelligence. L’agilità incrementale delle architetture cloud libera la potenza di AI, ML e advanced analytics. Integrazione dati e automation per massimizzare il valore dei dati e trattarli come una risorsa. Le aziende veramente data-driven mettono al centro dati e capacità di analisi avanzata

Nell’ultimo anno la situazione sanitaria ed economica ha aumentato il gap tra aziende innovative, data-driven oriented, e quelle più tradizionali. Il nostro Paese rincorre a debita distanza le nazioni più avanzate (Stati Uniti, Germania e Regno Unito). Manca ancora una vera cultura dei dati: due terzi dei CEO dichiara di prendere decisioni strategiche basandosi più sul proprio istinto che sull’analisi dei dati aziendali: eppure, diversi studi mostrano i notevoli vantaggi competitivi di questo approccio. Il percorso verso un approccio data-driven richiede uno switch non solo tecnologico, ma anche un cambio culturale. Dopo anni di crescita a doppia cifra, in alcuni casi anche superiore al 20%, la situazione sanitaria ed economica del nostro Paese ha molto rallentato l’investimento delle aziende italiane in analytics. Nel 2020 la spesa delle aziende italiane in infrastrutture, software e servizi è stata di 1,815 miliardi di euro, il 6% in più dell’anno precedente. I settori dove c’è stata la maggior crescita sono stati telco e media (+13%) e assicurazioni (+13%), seguiti da utility (+12%), PA e sanità (+6%), manifatturiero (+6%) e banche (+6%). In calo invece i servizi (-1%) e ancor di più GDO e retail (-8%).

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Questi dati, contenuti nel report del Politecnico di Milano “Analytics divide: un gap che va colmato” dello scorso novembre, mostrano risultati eterogenei, ancora più marcati se si considera il comportamento delle aziende che in questo ambito sono più mature rispetto a quelle in ritardo. Le organizzazioni del primo gruppo, secondo i dati raccolti, hanno proseguito, in alcuni casi accelerando, il percorso virtuoso iniziato negli anni precedenti: decision maker che si affidano sempre più ai dati, e aziende che si mantengono competitive in un mercato che sta diventando data-driven oriented. Le aziende mature stanno affrontando nuove sfide: si diffondono le analisi di testi e immagini, l’automatizzazione di alcuni processi grazie alla Data Science, aumenta l’accesso ai dati all’interno delle organizzazioni. Concentrando l’attenzione solo sulle grandi aziende, il 26% ha progetti operativi in ambito advanced analytics con una forte domanda di competenze di Data Science, mentre un ulteriore 16% è in fase sperimentale, avendo portato avanti più progetti negli ultimi tre anni, coinvolgendo funzioni aziendali diverse. Le aziende con un approccio tradizionale, limitato alle attività classiche di business intelligence, hanno rallentato, posticipato, o addirittura interrotto gli investimenti in atto.

L’emergenza sta accentuando notevolmente alcune tendenze già in atto. Innanzitutto, sta accelerando la transizione da un’intelligenza passiva a un’intelligenza attiva, dove la logica di business è più tempestiva e contestuale nella catena di valore dell’informazione: per rendere possibili decisioni tempestive in condizioni di incertezza sono sempre più diffusi i descriptive analytics in real-time. Non solo. In quest’ultimo anno, la Data Science è stata usata per rendere più efficienti i processi aziendali, a fronte di una riduzione delle risorse a disposizione. Sullo stato di sviluppo e di maturazione di strategie data-driven, circa il 60% delle imprese fatica a raggiungere un pieno allineamento tra IT e business quando si tratta di usare i dati in modo nuovo – come ci spiega Giancarlo Vercellino, associate director Research & Consulting di IDC Italy. «Soltanto il 10% delle imprese ha raggiunto un livello avanzato, impiegando il dato come collante capace di introdurre un nuovo livello di coesione e coerenza tra operazioni e strategia aziendale. Molte aziende che hanno intrapreso i primi passi ostentano un notevole ottimismo. Molto spesso le aziende si ritengono molto più avanti dei loro pari pur non avendo sviluppato una strategia generale». Quanto e dove è diffusa la cultura data-driven nel mondo? Secondo il report “The data-powered enterprise: Why organizations must strengthen their data mastery” di Capgemini Research Institute, dello scorso agosto, la domanda “Decision making in our organization is completely data driven?” ha avuto la più alta percentuale di risposte affermative (77%) negli Stati Uniti. Germania e Regno Unito seguono, poco distanziate, con il 69%, poi l’Australia, con il 61%. Più staccate, Svezia (48%), Francia (46%) e Cina (44%). In Italia solo il 26% delle aziende ha risposto di sì. Lo stesso studio ha evidenziato che il settore più maturo è decisamente il settore banking (65%), seguito da Insurance (55%), telecom con 54%, healthcare e life sciences (53%) e automotive (51%). Fanalini di coda retail e industrial manufacturing, entrambi con il 43%.

I DATI? UN PATRIMONIO

La traduzione letterale di data-driven è “guidato dai dati”. In ogni organizzazione i dati abbondano, e ogni strumento della rivoluzione tecnologica, dai dispositivi hardware ai software gestionali o agli applicativi per l’Industria 4.0, è una preziosa fonte di informazioni. L’azienda che vuole distinguersi come una vera data-driven company deve esserne consapevole, e saper valorizzare il patrimonio che si trova tra le mani: non serve raccogliere più dati possibili, ma bisogna imparare a raccogliere i dati giusti, integrarli e comprenderli, per valorizzare il patrimonio informativo, e costruire una strategia per sfruttarli, avendo chiare le finalità.

Leggi anche:  AI, rischio o opportunità?

È quanto ha fatto, per esempio, il Gruppo Bancario Cooperativo ICCREA, che ha affrontato e vinto la grande sfida di unire 140 banche, ciascuna con le proprie caratteristiche, in un unico gruppo rispettando tempi stringenti (pochi mesi). Per riuscire in questa impresa, e far sì che, da inizio 2019, tutte queste banche si muovessero come un’unica entità, è stato necessario implementare procedure, aggiornare la struttura organizzativa, i processi e gli strumenti tecnologici. Con una grande capacità di visione che ha permesso al gruppo di immaginare sin dall’inizio un percorso graduale di gestione di un enorme patrimonio informativo e della sua comprensione. Un percorso di trasformazione complesso che ha trovato negli analytics di SAS non solo un tool tecnologico ma un approccio metodologico di condivisione delle informazioni che oggi è la base per un processo di evoluzione e miglioramento continuo con un nuovo modo di lavorare, agile, le cui ricadute si fanno sentire, in termini di efficacia e valore, sul processo decisionale di business.

Disporre di un data lake integrato si è rivelato un importante asset anche per Exom Group, organizzazione di ricerca a contratto che conduce studi clinici su farmaci e dispositivi medici per conto di promotori come aziende farmaceutiche, società biotech oppure organizzazioni non-profit come università e società scientifiche. Exom ha una mission dichiarata molto sfidante – innovare i processi di sperimentazione clinica dalla fase I alla fase IV – puntando su analytics, intelligenza artificiale e machine learning per rendere i processi di ricerca, in tutti suoi passaggi, più efficienti, scalabili, veloci. Exom ha sviluppato un progetto tecnologico, chiamato Genius Wizards, che ha permesso di unificare e integrare fonti di dati e database in uso nella organizzazione in un unico data lake. Il team di lavoro oggi ottiene dati in tempo reale da una varietà di fonti (compresi dati dei pazienti), e può utilizzare analisi avanzate per approfondimenti continui e fruibili durante l’intera esecuzione della sperimentazione e per tutto il ciclo di vita dello studio clinico.

DECISIONI INFORMATE? NON SEMPRE

Per essere data-driven non basta ricevere report periodici predefiniti, al contrario si devono fornire ai decisori aziendali strumenti per esplorare in modalità self-service i dati di cui hanno bisogno quando ne hanno bisogno. I dati devono essere corretti, completi e aggiornati frequentemente, in modo che i decision-maker possano orientare la propria strategia proprio in base ai numeri e non a sensazioni soggettive. Detto così sembrerebbe una prassi ovvia e molto diffusa, invece ancora nel 2018 – secondo la ricerca di KPMG “Global CEO Outlook Survey” il 67% dei CEO dichiarava di prendere decisioni strategiche basandosi più sul proprio istinto che sull’analisi dei dati aziendali. Mentre nell’indagine 2020, la preoccupazione dei CEO è tutta focalizzata sulla digitalizzazione per migliorare la resilienza operativa.

Il già citato report di Capgemini Research Institute conferma che c’è ancora tanta strada da fare: nonostante i progressi compiuti nell’utilizzo dei dati, nella maggioranza dei casi (51%), le imprese utilizzano un approccio decisionale reattivo, perché analizzano soltanto serie di dati storici. Nel 23% dei casi, le aziende utilizzano approcci predittivi, che mostrano cosa potrebbe accadere in futuro. E solo nel 18%, utilizzano approcci prescrittivi, ricevendo quindi dai sistemi raccomandazioni su come migliorare i risultati. Nell’8% dei casi, le organizzazioni utilizzano un approccio autonomo o auto-ottimizzante, cioè sistemi e processi che aiutano gli utenti aziendali a prendere decisioni con l’obiettivo di raggiungere un obiettivo prestabilito. In un’azienda data-driven, invece, le analisi non devono essere soltanto rivolte al passato, a statistiche e report consuntivi, ma devono essere orientate ad anticipare i trend di mercato e i comportamenti dei consumatori. Il marketing è stato il primo settore a utilizzare l’approccio data-driven, mettendo a frutto tutti i dati aziendali, spesso sfruttando anche i dati provenienti dai social, per conoscere a fondo e profilare i propri clienti, i potenziali clienti, il mercato. Un progetto in questo campo è quello di Masi Agricola, azienda che fin dal 1772, dalla Valpolicella, produce e distribuisce Amarone e altri vini di pregio. L’azienda ha iniziato un percorso verso un approccio sempre più data-driven, avviando un progetto volto a raccogliere e analizzare i dati a disposizione, integrando anche fonti non tradizionali, per estrarre informazioni su bisogni, esigenze e caratteristiche dei consumatori.

Il progetto – sviluppato con SocialMeter, divisione di big data analysis di Maxfone – ha visto la creazione di Osservatori, punti di monitoraggio, dedicati ai vini più importanti del territorio, come Amarone, Valpolicella e Ripasso, in grado di acquisire, analizzare ed estrarre informazioni sul sentiment, i discorsi e le opinioni sui tre vini, a partire da determinati hashtag e keyword. Le analisi effettuate sulle informazioni raccolte permettono all’azienda di approfondire la conoscenza dei propri clienti, realizzando vere e proprie sentiment analysis, base di partenza per creare cluster specifici di utenti ai quali proporre diversi filoni narrativi sui canali digitali dell’azienda. Utilizzando queste informazioni, Masi Agricola può avvicinarsi alla vera esperienza del consumatore e intraprendere così decisioni strategiche più efficaci, migliorare la strategia comunicativa e le campagne di marketing dell’azienda, in un’ottica di maggior personalizzazione delle comunicazioni. Altro progetto interessante in quest’ambito è quello di ADR Aeroporti di Roma. Per ottimizzare i processi aeroportuali, ADR sapeva che il primo passo consisteva nell’identificazione, nell’analisi e nel capire chi fossero i propri clienti. L’azienda gestisce 21 postazioni automatiche di controllo delle carte d’imbarco, 51 eGate automatizzati per il controllo dei passaporti elettronici, 2.000 postazioni di accesso Wi-Fi e 3.000 beacon Bluetooth che, insieme ad altre tecnologie, permettono ad ADR di generare circa 25 milioni di record di dati al giorno (circa 2 GB).

Da qui la volontà di ADR di utilizzare questi dati per comprendere meglio il comportamento dei passeggeri e prevedere cosa può accadere quando si verifica un imprevisto. Grazie a queste informazioni, che permettono di sapere quando i clienti arrivano per prendere un volo e come si muovono in aeroporto, l’azienda può utilizzare il flusso di passeggeri per applicare la scalabilità al personale addetto alla sicurezza e al controllo passaporti, identificare le aree critiche dell’infrastruttura e offrire il giusto livello di servizio ai clienti. Con l’aiuto dei propri partner, la società ha creato una piattaforma di analisi Big Data, utilizzando Cloudera per il data lake, Talend Big Data per l’ingestion engine e Qlik Sense e Qlik GeoAnalytics per analizzare i dati e visualizzare i punti di geolocalizzazione sulle mappe dell’aeroporto. Un terzo caso interessante è quello di Lenovo, a dimostrazione che questi progetti sono sviluppati nei più svariati settori di mercato. Lenovo ha scelto Talend Big Data per favorire una migliore comprensione dei propri clienti tramite l’acquisizione di set di dati da svariati punti di contatto, incluse terze parti, feed da social network e API. Grazie a Talend Big Data, Lenovo ha costruito una piattaforma cloud ibrida ed elastica per analizzare oltre 22 miliardi di informazioni sui clienti all’anno. LUCI Sky (Lenovo unified customer intelligence) supporta funzioni di business intelligence e analisi operative in tempo reale su una mole di dati annua di oltre 250 terabyte di dati e più di 60 tipi diversi di fonti di dati, acquisiti da tutte le divisioni aziendali di Lenovo: dati transazionali, dati web, sondaggi sul sentiment dei clienti, sessioni via chat/al telefono, dati dai social network. Ogni anno, vengono consegnati 8.300 rapporti a oltre 615 utenti in Lenovo per fornire dashboard in tempo reale, feed di dati API e analisi dei dati.

Leggi anche:  Servizi centralizzati in un’unica piattaforma

MARKETING? NON SOLO

Già oltre dieci anni fa Robert Kaplan, ideatore del Balanced scorecard, tecnica di management che facilita il processo di traduzione della strategia in obiettivi applicabili a livello operativo, così teorizzava: «Non si può gestire quello che non si può misurare». Dalla sola, iniziale osservazione dei clienti, quindi, lo sguardo delle aziende data-driven si è ben presto allargato alla conoscenza profonda di tutti i processi aziendali: saperli misurare, porre domande e ricevere risposte basate sui dati rende il patrimonio degli archivi aziendali parte integrante del processo decisionale, e genera un concreto vantaggio competitivo.

Infatti, secondo lo studio di Capgemini Research Institute, i data master godono di un vantaggio compreso tra il 30% e il 90% per le metriche che misurano aspetti come customer engagement, benefici top-line, efficienza operativa e risparmi in termini di costi. Per esempio, l’aumento delle vendite di nuovi prodotti e servizi dei data master risulta essere del 19% rispetto al 12% dei competitor, con un incremento del 63%. Le aziende più virtuose superano di gran lunga i propri competitor in diversi indicatori finanziari, generando il 70% di entrate in più per dipendente e il 22% di profitti in più. «Nei prossimi 12-24 mesi – spiega Vercellino di IDC Italy – le imprese focalizzeranno una parte importante dei loro investimenti in alcune aree specifiche del customer service, dell’IT, dell’amministrazione finanziaria, delle risorse umane dove sta diventando palese l’opportunità di giustificare i business case attraverso un ampio spettro di metriche, dall’agilità al time-to-market, dall’accuratezza alla produttività, e così via».

Tra le applicazioni in crescita troviamo le analisi dei dati delle transazioni finanziarie che consentono di individuare eventuali frodi; l’analisi di ogni passaggio della supply chain che serve a migliorare il processo produttivo e distributivo; la previsione degli interventi di manutenzione alle macchine sulla base dei dati di misura e di produzione raccolti in tempo reale grazie all’industria 4.0; le valutazioni di performance attuali e potenziali dei dipendenti da parte dei manager delle risorse umane; le analisi dei controller che possono valutare se conviene produrre un nuovo articolo, se un servizio è in attivo, se una business unit è profittevole ed efficiente. «Dove i benefici dei dati e degli algoritmi sono molto specifici – continua Vercellino – e possono essere misurati soltanto in una singola direzione, come in alcune applicazioni legate alla sicurezza oppure al marketing, continueranno a prevalere sperimentazioni più circonstanziate».

Leggi anche:  L'impatto di AI e machine learning sulla business intelligence del futuro

Tra le applicazioni non legate al marketing, interessante quanto sviluppato da Repower, azienda specializzata nella fornitura di energia elettrica, gas naturale, servizi evoluti di efficienza energetica e di soluzioni per mobilità elettrica alle PMI. L’azienda, fin dal 2015, ha avviato un percorso volto a migliorare la propria capacità previsionale e automatizzare alcuni processi decisionali. Con la collaborazione con BID Company, sono stati sviluppati due progetti, uno per la previsione del tasso di abbandono e uno per l’efficientamento dei costi di approvvigionamento di energia a prezzo fisso. Nel primo caso, le analisi consentono di identificare quali consumatori hanno una maggiore probabilità di abbandonare il brand, e quindi i consulenti di Repower possono mettere in atto azioni per prevenire l’abbandono. Il secondo progetto consente all’azienda di gestire in modo ottimale i quantitativi di energia necessari a soddisfare i consumi degli utenti che decidono di aderire a questo tipo di offerta, allineando i volumi per adeguarsi a eventuali scostamenti dei consumi dei clienti rispetto al preventivato, evitando così di incorrere in costi ingenti. Durante lo sviluppo dei progetti è via via migliorata l’interazione dell’utente finale con le dashboard interattive contenenti gli insight decisionali.

CREARE LA GIUSTA CULTURA

Nel processo di transizione in ottica data-driven, non bisogna guardare solo all’aspetto tecnologico, cioè alla capacità di analizzare Big Data, ma serve anche un importante, spesso faticoso, percorso di change management, un effettivo e radicale cambiamento culturale che coinvolge top management e tutti i livelli aziendali, in modo che la cultura del dato diventi centrale e possa costituire un solido pilastro strategico per il business. Ogni progresso tecnologico deve essere incorporato e utilizzato quotidianamente all’interno di tutti i processi aziendali, così che tutti siano consapevoli della trasformazione in atto e delle potenzialità offerte dai nuovi sistemi, e siano motivati a utilizzarli per trarne beneficio. A tutti i livelli dell’azienda deve essere trasmessa l’importanza dell’integrità e della qualità delle informazioni, e bisogna fare in modo che gli strumenti non siano solo in mano all’IT, ma siano utilizzabili, e utilizzati, da tutti i responsabili delle decisioni dell’azienda: in ogni dipartimento devono essere diffuse analisi, risorse e competenze, in modo che tutti possano sfruttare appieno i vantaggi del data driven.

Dopo aver scelto le giuste tecnologie, e provveduto a una adeguata formazione manageriale, si deve costruire un data warehouse a cui collegare le più importanti fonti di dati, e condividerne il più possibile il contenuto tramite dashboard, analisi, report, storyboard, senza tralasciare aspetti come la business intelligence mobile. Inoltre, è fondamentale rendere efficiente la ricerca dei dati, non tralasciare la presentazione delle informazioni e soprattutto curare la qualità dei dati, senza la quale qualunque progetto innovativo rischia di fallire. Non tutte le aziende approcciano questa tematica nello stesso modo. Se guardiamo alle aziende che stanno muovendosi sul terreno di questi sviluppi, in base a quello che è il grado di standardizzazione del data management, la centralizzazione delle piattaforme analitiche, la strutturazione organizzativa del team degli analisti, e l’integrazione delle logiche data-driven nei processi, è possibile osservare quattro cluster specifici di comportamenti – come ci spiega Vercellino di IDC Italy.

«Il primo cluster è rappresentato dalle aziende che sono ancora all’inizio di questi cambiamenti organizzativi e stanno facendo le prime sperimentazioni per migliorare i processi di decision making (un gruppo che chiamiamo “Playground”, rappresentato dal 23% delle imprese). Poi ci sono quelle che stanno centralizzando le piattaforme per la gestione dei dati e standardizzando i processi analitici a supporto del decision maker, distribuendo le competenze analitiche nelle diverse funzioni aziendali (gruppo che abbiamo chiamato “Swarm Flow” e che è composto da circa il 29% delle imprese). Il terzo cluster è composto da quelle aziende che stanno centralizzando e standardizzando allo stesso modo, ma hanno deciso di accorpare tutte le competenze analitiche in una singola funzione (“Mind Core”, circa il 17% delle imprese). Infine, c’è un ultimo gruppo, forse il più avanzato, che usa gli algoritmi non per supportare il decision maker, ma per automatizzare e ottimizzare i processi. In questo gruppo, gli algoritmi cominciano effettivamente a guidare l’azienda come un “deus ex-machina”, soprattutto nell’ambito dell’IT, del front-end e dell’amministrazione finanziaria, e rappresentano circa il 31% dei casi».