Riscuotono molto interesse gli strumenti analitici, basati su modelli statistici in grado di farci comprendere meglio cosa potrebbe succedere, e quali azioni intraprendere. IDC prevede crescite annue in questo mercato intorno al 40%. Le sfide da affrontare per inserirli nelle proprie realtà sono impegnative, ma i benefici sono diversi. Alcuni casi utente dimostrano che in molte aziende l’adozione di predictive analytics è già una realtà
I tool per la advanced e la predictive analysis utilizzano una serie di tecniche (machine learning, regressione, reti neurali, induzione delle regole, clustering) per creare, testare ed eseguire modelli statistici. Sono utilizzati per scoprire le relazioni nascoste nei dati e fare previsioni troppo complesse, per essere estratte utilizzando software di analisi multidimensionale, o query e reporting. I prodotti sul mercato sono molto vari: alcuni includono il proprio linguaggio di programmazione e algoritmi per la creazione di modelli, ma altri prodotti includono motori di scoring e funzionalità di model management che possono eseguire modelli costruiti usando un linguaggio di modellazione proprietario o open source. Secondo le ricerche di IDC, i progetti di big data analytics sono stati da sempre focalizzati su un’analisi descrittiva dei dati. Ancora oggi, c’è una forte richiesta di questi strumenti, che hanno l’obiettivo di analizzare situazioni attuali o passate e possono trovare risposte a domande tipo “cosa è successo”, ma c’è una crescente richiesta di strumenti che rispondono a domande tipo “perché è successo”, “cosa potrebbe succedere adesso” (gli strumenti per la predictive analysis) e di strumenti che raccomandino le azioni da intraprendere (gli strumenti per la prescriptive analysis). Assistiamo così a un forte aumento di acquisti di tool di advanced e predictive analytics, di software cognitive/AI e tool di analytics e performance management che incorporano queste funzionalità. Le stime di IDC mettono in evidenza che il mercato mondiale delle piattaforme software di cognitive e artificial intelligence passerà da 1,6 miliardi di dollari del 2016 a 8,4 miliardi di dollari nel 2021, con un tasso di crescita annuale composto addirittura del 39,7%. Secondo IDC, i fornitori che partecipano a questo mercato dovrebbero considerare di aggiungere una gamma completa di funzionalità quali tecnologie conversazionali, elaborazione del linguaggio naturale, image and video analytics, deep learning, machine learning, generazione di ipotesi, analisi predittiva, e funzionalità per l’analisi real-time delle informazioni non strutturate.
UN’OPPORTUNITÀ REALE
In base alla ricerca condotta da IDC lo scorso anno, che ha coinvolto le aziende italiane, la tematica dei big data e degli analytics è importante per supportare la trasformazione digitale del business. Il 93% delle realtà italiane intervistate dichiara di utilizzare tecniche di descriptive analytics. L’81% dichiara di utilizzare anche tecniche di predictive analytics. E solo il 9,5% delle aziende italiane utilizza tecniche di prescriptive analytics. Il 31% delle aziende dichiara comunque di avere pianificato l’implementazione di tecniche di prescriptive analytics nei prossimi anni. Lo scenario che emerge dai dati di IDC è confermato da Valter Cavallino, senior manager di Kirey Group. «Anche se queste tecnologie sono spesso adottate solo in progetti pilota, per valutarne i potenziali benefici, i clienti di Kirey Group oggi vedono nelle soluzioni di predictive e prescriptive analytics un’opportunità reale in grado di tradursi in un vantaggio rilevante sulla concorrenza». Della stessa opinione Mauro Bertoletti, country manager di BOARD Italia: «In base alla nostra esperienza, le organizzazioni del mercato italiano sono sempre più interessate ai benefici che le ultime generazioni di analitica avanzata possono portare. Ciò vale soprattutto per i tool di predictive analytics, mentre le soluzioni di prescriptive analytics sono ancora percepite in fase di “incubazione” ed elaborazione. Le imprese sono ormai consapevoli delle enormi potenzialità della predictive analytics, soprattutto se il vendor è in grado di declinarle nel contesto reale del business. Prima di implementare soluzioni di analitica prescrittiva vi è in effetti la necessità di superare la discontinuità tra il gruppo di data scientist e il resto dell’impresa, così da avere algoritmi statistici spendibili dai decision-maker aziendali».
FARE LA SCELTA GIUSTA
Per Francesco Stolfo, senior partner di ToolsGroup, «in generale c’è apertura a fare sperimentazione ma non sempre si prendono decisioni in merito all’adozione di questi strumenti, spesso perché manca la volontà di costruire modelli di ROI, la fiducia e soprattutto la volontà dei manager di fare cambiamenti radicali. Noi ci occupiamo di questi temi dal 2007, e abbiamo visto una graduale ma positiva crescita dell’interesse». Di diversa opinione Fabio Ardossi, partner di Data Reply, secondo il quale, le tecniche di analytics sono ancora percepite come lontane dall’utilizzo produttivo e integrato nei processi tradizionali. «Uno dei motivi principali è la diffidenza dei risultati di un sistema “automatizzato e non umano” – perché non si conoscono i motivi che regolano la scelta di una macchina. È una distanza prettamente culturale – dove l’evidenza dei principi che portano a una scelta sono precondizione necessaria per effettuare la scelta stessa. A volte è meglio una risposta parziale, potenzialmente sbagliata e derivante dall’esperienza umana, invece di una risposta matematicamente razionale. Esempi sono i dipartimenti di vendita – spesso abituati a fare le previsioni esclusivamente sulla base della propria esperienza – e quindi allo stesso tempo limitati dalla propria esclusiva esperienza. Come contrapposizione viene assegnata un’aspettativa di perfezione che non potrà essere mai raggiunta. In pratica, o queste metodologie mi danno sempre la risposta esatta oppure tanto vale che faccia come ho sempre fatto. La prescriptive/predictive analytics deve essere usata in modo iterativo: all’inizio sarà di supporto per poi integrarsi alle scelte umane – si tratta sempre di una tecnica di autoapprendimento e quindi i cicli di apprendimento servono per migliorarsi. Come qualsiasi sistema di apprendimento ha bisogno di imparare da ciò che fa correttamente e da ciò che sbaglia – ma a differenza di un essere umano lo fa in un tempo infinitamente più breve».
POTENZA E CONTROLLO
Per Cristina Conti, Global Technology Practice Advanced Analytics and AI manager di SAS, la percezione di questi tool è molto variabile. «Ci sono ambiti aziendali (rischio di credito nelle banche, tariffazione nelle assicurazioni, marketing nelle telco) che hanno sempre fatto uso di predictive analytics. Oggi, il vero cambiamento è dato dal fatto che questo tipo di analytics può essere utilizzato in qualsiasi ambito e dimensione delle aziende, e questo porta da un utilizzo di nicchia a una estensione sul business a 360 gradi. Non tutti ancora si fidano di questi metodi, per paura di non controllarli, ma si stanno facendo grandi passi avanti». Secondo Paolo Perillo, product manager di Holonix, le imprese sanno di dover investire – «ma sono pochi gli “early adopter”, e direi più sul predictive che sul prescriptive. Tuttavia chi ha intrapreso il percorso – sottolinea Perillo – è in grado di comprendere il ROI di queste tecnologie e ha preso un margine di vantaggio competitivo sui concorrenti».
Non solo. Per Luca Stella, product manager Workforce Management di Zucchetti, la domanda di queste soluzioni sta aumentando, soprattutto «negli ambiti della gestione del personale e dell’asset management, per i quali Zucchetti ha approntato soluzioni specifiche». Oggi, le aziende devono saper rispondere in tempo reale a un mercato in forte e continua evoluzione. «Per questo i sistemi predittivi, che possono essere considerati come un’evoluzione dei sistemi di business intelligence, sono strumenti che da qualche tempo, indipendentemente dal settore di appartenenza, suscitano un forte interesse e che possono portare un vantaggio consistente a chi li adotta, specialmente verso i competitor meno reattivi» – spiega Massimo Missaglia, AD di SB Italia. «C’è un’attenzione crescente da parte delle aziende su queste tematiche, ma chi si è mosso già da qualche tempo ha potuto ottenere grandi benefici ed è ormai pronto ad affrontare le nuove sfide del mercato con un approccio moderno».
SFIDE DA AFFRONTARE
Diego Pandolfi, research and consulting manager di IDC Italia ci spiega che tra i principali benefici dichiarati dalle aziende italiane derivanti dalle iniziative di analytics spiccano il miglioramento e l’ottimizzazione dei processi di business e le operations; una migliore conoscenza dei clienti, in termini di comportamenti e aspettative; il miglioramento delle attività di fraud e risk management e la possibilità di implementare maggiori controlli a livello di regulatory compliance. Altre applicazioni più definite di predictive e prescriptive analytics riguardano: «L’ottimizzazione delle strategie di pricing e dei programmi di go-to-market; una migliore conoscenza dei mercati e dei competitor; il miglioramento delle attività di asset management e maintenance; e anche l’ottimizzazione nella gestione delle risorse umane e dei talenti». Per cogliere in pieno le potenzialità degli analytics, e soprattutto delle tecniche di predictive e prescriptive, le aziende devono affrontare diverse sfide. Innanzitutto – continua Diego Pandolfi – si rende necessario far evolvere i propri modelli infrastrutturali e renderli adeguati a supportare l’enorme mole di dati da analizzare e a implementare gli strumenti maggiormente idonei, nella logica del real-time e basandosi anche su dati non strutturati. «Le aziende si stanno orientando sempre più verso l’utilizzo di infrastrutture cloud per supportare gli analytics e le realtà italiane in particolare verso infrastrutture di private cloud. Per un reale impatto positivo sul business, le aziende devono inoltre utilizzare tutto l’ampio spettro degli analytics, soprattutto le tecniche maggiormente avanzate (quali appunto predictive e prescriptive) che includono anche algoritmi di machine learning».
Allo stesso modo – mette in evidenza Diego Pandolfi – sarà necessario adottare un approccio, il più trasparente possibile, per quanto riguarda le normative sulla privacy e sulla security e circa l’utilizzo che si intende fare dei dati, «questo sia per non perdere il controllo su dati critici per il business, sia per non incorrere in problematiche di compliance normativa, soprattutto relativamente all’utilizzo di dati provenienti da terze parti». Per i fornitori tecnologici risulta fondamentale essere in grado di rispondere alle esigenze delle aziende, che richiedono sempre più spesso soluzioni di analytics complesse, via via che acquisiscono la reale consapevolezza dei benefici che queste possono avere per il loro business. «I vendor devono essere quindi preparati a supportare i loro clienti con un ampio portfolio di soluzioni, dalle più semplici a quelle maggiormente avanzate, basate su modelli predittivi e real-time. In conclusione, le tecniche avanzate di analytics sono all’attenzione delle aziende, anche se attualmente le tecniche prescriptive sono poco utilizzate a causa di infrastrutture IT non adeguate e a una poca consapevolezza circa i reali benefici conseguibili. IDC prevede però una pervasiva adozione di queste tecniche di analisi nel prossimo futuro, supportata dalla progressiva evoluzione delle infrastrutture IT aziendali, da una maggiore awareness circa i benefici che questi strumenti possono far conseguire e da un’offerta sempre più completa anche da parte dei vendor».
LA DIMENSIONE NON CONTA?
Queste tecniche portano diversi benefici, ma sono utilizzabili da tutte le aziende? Secondo Nicolò Arpesani, analytics Italy, offering general manager di DXC Technology, l’introduzione di soluzioni di predictive analytics applicate ai dati provenienti dalle “cose” è vista da molte imprese di grandi dimensioni come l’opportunità di supportare meglio le decisioni e come leva per migliorare le proprie performance, accrescere i ricavi e ridurre i costi. «Molte grandi imprese hanno già fatto i primi passi nell’utilizzo di queste soluzioni, ma la maggior parte non ha ancora affrontato questo cambiamento in modo industrializzato. Prevalgono approcci a silos che alcune funzioni aziendali intraprendono in modo autonomo, implementando soluzioni ad hoc che non consentono di massimizzare il valore delle informazioni provenienti da fonti e funzioni diverse e di fare leva su di un’unica soluzione a livello enterprise. Le PMI hanno ancora un basso livello di adozione ma quelle più grandi tra queste, una volta messa a fuoco l’opportunità, decidono più rapidamente dei grandi gruppi». Analizzando i dati sul numero delle startup e PMI innovative, si nota un forte dinamismo. «Nel nostro Paese, secondo un censimento aggiornato al 2017, sono circa 8000, il doppio rispetto al 2015» – fa notare Arpesani. DXC propone una fase di sperimentazione eventualmente ospitata sulla propria Analytics / AI Platform, durante la quale vengono messi a punto anche casi d’uso, architettura/soluzione industriale target e roadmap. A seguire è previsto il deployment del modello industrializzato. E DXC può coinvolgere anche i propri partner esperti di sensori e device.
Ma non è importante la dimensione della aziende quanto il particolare modello di business adottato – come aggiunge Stolfo di ToolsGroup. Per esempio, «aziende con modelli multicanale, dove lo studio del comportamento del cliente è un fattore chiave di successo, sono molto interessate all’adozione di questi strumenti». Dello stesso avviso è Stella di Zucchetti: «Per quanto ci riguarda, non influisce la dimensione dell’azienda, ma la quantità e la variabilità dei dati da utilizzare per generare previsioni. Per esempio, nella gestione dei turni del personale, un software capace di compiere analisi predittive sul fabbisogno di personale può garantire la corretta e omogenea distribuzione dei turni sia per numero di risorse umane necessarie, sia per idoneità rispetto a skills/mansioni previste per l’attività lavorativa». Per Missaglia di SB Italia, non è tanto la dimensione dell’azienda a essere determinante nell’adozione di funzionalità avanzate di analytics, quanto il suo mindset: «Il livello di informatizzazione e di digitalizzazione dei processi di un’azienda sono fondamentali per la diffusione di questi sistemi, ma spesso ci si limita ad analizzare in maniera poco strutturata i soli dati passati, e questo non sempre aiuta a prendere le decisioni migliori. Tra i dati possono nascondersi fenomeni, correlazioni non “visibili a occhio nudo”: in questo senso i modelli predittivi se ben addestrati possono aggiungere un grande valore ai dati e fornire a qualsiasi azienda, anche piccola, informazioni prima sconosciute».
GLI STEP PRINCIPALI
Quali sono gli step principali per una corretta strategia di adozione di questi strumenti? «Prima di tutto – risponde Missaglia – è fondamentale che l’azienda comprenda i benefici economico-organizzativi portati da questi sistemi. In questo senso, affidarsi a un partner qualificato aiuta senz’altro a prendere coscienza di casi concreti già realizzati da altri attori sul mercato e a identificare i propri ambiti di miglioramento». L’azienda deve essere pronta a supportare i team con skill adeguati, e tenere in considerazione che i sistemi predittivi hanno necessità di continuo perfezionamento. «Il suggerimento che possiamo portare dalle nostre esperienze, è quello di identificare all’interno della propria azienda un’area che sia più incline ai cambiamenti, più agile, e che possa in tempi veloci usufruire dei primi vantaggi: un approccio “Quick-win” alimenta poi la diffusione di strumenti e metodi sia nell’area stessa che in aree affini». Per Stolfo di ToolsGroup la strada migliore è quella di definire applicazioni in campi specifici dove poter dimostrare in maniera inequivocabile il vantaggio. «Nel nostro caso, la pianificazione e l’ottimizzazione della supply chain. Abbiamo costruito una best practice che aiuta ad analizzare e dimostrare come l’analisi effettuata con sistemi di autoapprendimento è in grado di rendere gli strumenti di controllo e ottimizzazione più autonomi, capaci di autoregolarsi in maniera più efficace, e di offrire reali vantaggi».
In tutti i casi, il prerequisito necessario è la completa adozione delle tecnologie di BI e Big Data e della relativa cultura aziendale – come mette in evidenza Cavallino di Kirey Group. «Inoltre, bisogna scegliere un obiettivo realistico e ben circoscritto sul quale focalizzare gli sforzi. Segue l’analisi completa delle informazioni su cui si vuole fare previsioni per valutarne la qualità, migliorarle e trasformarle. Infine, è importante prevedere dei passaggi successivi per migliorare il modello e comprendere altre aree di dati aziendali». Secondo Perillo di Holonix il primo passo per adottare la predictive analysis è la connessione delle macchine, la raccolta e l’interpretazione dei dati per trasformarli in informazioni e infine l’identificazione dei pattern specifici. «Il secondo step prevede l’identificazione di algoritmi da applicare ai dati e al dominio, al fine di inferire comportamenti futuri del macchinario. Bisognerà poi individuare le azioni da attuare rispetto alla previsione, e infine sarà essenziale un’integrazione fra le azioni definite, gli altri sistemi aziendali e le operations, per evitare attività inutili e sprechi».
Ma una volta definita la chiave previsionale – sottolinea Stella di Zucchetti – è fondamentale «identificare gli attributi (anche storici) che possono averne condizionato la performance nel tempo, attivando così un sistema autoalimentato e che possa continuare ad autoapprendere migliorando il modello matematico anche in base ai gap tra previsione e consuntivo». Per Cristina Conti di SAS, lo step fondamentale ha a che vedere con la capacità di identificare un processo o un problema di business. «La cosa più importante è capire perché si vuole fare predictive analytics. Si può identificare un problema già noto, magari puntando all’utilizzo di nuovi tipi di dati. Bisogna poi capire come attuare la strategia di implementazione: in-house o tramite appoggio esterno? E naturalmente va selezionata la giusta tecnologia».
DATI, PRODOTTI E SERVIZI
Diversi sono i progetti sviluppati in diversi settori, che sfruttano le soluzioni di analisi predittiva avanzata. Il primo ce lo racconta Alberto Codrino, CEO di PLM Systems, società del Gruppo Altea Federation. «AMS è la società a servizio esclusivo dei clienti TMC (Tissue Machinery Company), realtà imprenditoriale italiana che opera nel settore del confezionamento dei prodotti tissue, fondata nel 2016 con l’obiettivo di seguire il processo di customer satisfaction prima, durante e dopo l’acquisto di macchinari della capogruppo». Un’esigenza nata in casa TMC, a seguito dell’avvento della quarta rivoluzione industriale, sempre più caratterizzata dalla fusione tra informazione digitale, prodotto fisico e servizio, che ha reso particolarmente labile il confine tra il settore manifatturiero e quello dei servizi.
«Sempre nel 2016 – continua Codrino – con l’obiettivo di sviluppare un piano pluriennale di servitization, TMC ha intrapreso un percorso di digital transformation in collaborazione con Altea Federation. Percorso che è poi proseguito quest’anno con il coinvolgimento di PLM Systems, società del Gruppo specializzata in soluzioni di PLM e IoT. Per dare una visione a 360 gradi e in tempo reale sull’operatività delle macchine e degli impianti TMC, è continuata a pieno ritmo l’attività di implementazione di ThingWorx, la piattaforma IoT di PTC, colosso statunitense del mondo software vendor e partner ufficiale di PLM Systems. È stata creata una base dati propedeutica alla formulazione di ipotesi predittive e prescrittive per il funzionamento e la manutenzione dei macchinari, nonché al loro miglioramento qualitativo. Soluzione che oggi viene offerta ai clienti TMC e che coinvolge anche macchinari prodotti da terzi». Cavallino di Kirey Group ci descrive un altro progetto pilota in ambito IoT che sfrutta i dati sulla posizione e la velocità degli autoveicoli per ottenere un modello di previsione delle abitudini di guida dei conducenti, rilevando eventi potenzialmente dannosi. «Il sistema – ci spiega Cavallino – pone le basi informative per l’implementazione di servizi a valore aggiunto che portano vantaggi sia al conducente in termini di customer satisfaction sia al provider, influenzando ad esempio in ambito assicurativo i costi che l’azienda dovrebbe sostenere in caso di incidente o frode».
Stolfo di ToolsGroup dettaglia invece un progetto sviluppato nel settore alimentare: «I nostri strumenti servono non solo a effettuare analisi su variabili e fattori significativi, ma anche a fornire suggerimenti (predictive e prescriptive analytics). Un esempio è lo studio della domanda di Danone per valutare l’impatto delle azioni promo e delle campagne pubblicitarie. Il sistema si è dimostrato estremamente affidabile riducendo l’errore previsionale di oltre il 20% e, grazie a strumenti proattivi in grado di suggerire l’impatto delle diverse azioni, è stato migliorato il vero e proprio contributo alle decisioni offerto dalla macchina». Sviluppato per la ristorazione, il progetto che ci descrive Stella di Zucchetti: «Per una famosa catena di ristorazione abbiamo applicato le funzionalità di predictive analytics di ZScheduling, la soluzione Zucchetti per la gestione dei turni, per pianificare in modo automatico la disponibilità delle risorse umane. È stato anche introdotto il concetto di “settimana mobile” per la turnazione a cavallo delle periodicità per assicurare il rispetto delle condizioni contrattuali come le ore di riposo, l’idoneità all’attività preposta e così via, favorendo in questo modo il clima aziendale e il benessere dei lavoratori».
Cristina Conti di SAS racconta alcune esperienze nella PA: «Nella pubblica amministrazione, utilizziamo i predictive analytics per migliorare i servizi al welfare dei cittadini, integrando insights data-driven con le conoscenze di dominio e il patrimonio informativo dell’azienda. Si rilevano così associazioni nascoste che ci danno informazioni predittive in ottica di spesa attesa o di servizi maggiormente richiesti». Al settore fashion retail, appartiene il progetto raccontato da Bertoletti di BOARD Italia: «Uno dei primi tre gruppi a livello internazionale ha implementato il modello BOARD Enterprise Analytics Modelling (BEAM) nel processo di forecasting, su piattaforma di decision-making BOARD, proprio per superare il divario tra complessità e potenzialità statistiche da un lato, ed esigenze di business dall’altro. Si è potuto affiancare al tradizionale modello previsionale, basato su medie mobili semplici, una modellazione avanzata in grado di eseguire forecast estremamente accurati, sulla base di valutazioni automatiche di ogni serie temporale, senza bisogno di sviluppare fisicamente, testare e selezionare i modelli analitici».
Il progetto di cui parla Perillo di Holonix si focalizza invece sulla manutenzione predittiva: «All’interno del progetto EU Z-Break, il cui obiettivo è lo sviluppo di soluzioni di predictive maintenance applicate a macchine e linee di produzione, abbiamo esteso il nostro prodotto i-Like Machines, dedicato al supporto, monitoraggio e manutenzione di macchine, con l’integrazione di avanzate soluzioni di manutenzione predittiva. I benefici ottenuti grazie a questa soluzione vanno dalla riduzione dei guasti e tempi di downtime, alla geolocalizzazione del parco macchine installato alla schedulazione delle attività di manutenzione».