Business data-driven, dai dati alle decisioni

Data driven business, come fare scelte giuste

La gestione dei dati al centro delle decisioni aziendali, ma molte aziende faticano a completare il percorso di trasformazione. L’intelligenza artificiale rivoluziona l’approccio data-driven. I casi, Decathlon, ABB Robotics, Sigma e Banca Intesa Sanpaolo

Fino a non molti anni fa, le organizzazioni interpretavano i propri dati contenuti nei sistemi transazionali a loro disposizione, spesso organizzati in silos che rendevano impossibili le attività di analisi complesse. La tecnologia, però, negli ultimi anni ha avuto una notevole evoluzione, rivoluzionando di fatto questo settore: sono state profondamente riviste le architetture e le strutture dati, così come le metodologie di gestione e di analisi del dato, adattate all’esigenza delle aziende, orientate al data-driven: i dati devono essere integrati nel ciclo di vita di tutta l’azienda, così da migliorarne l’efficienza e l’efficacia a 360 gradi. Nell’attuale contesto economico, i volumi dei dati all’interno delle organizzazioni crescono davvero in modo esponenziale, e la consapevolezza del valore del dato è universalmente riconosciuta, ma questa ricchezza, spesso, pone un problema: occorre capire quali dati sono davvero necessari, all’interno del mare di dati presenti, e soprattutto se questi sono disponibili. Per questo le aziende continuano ad investire sempre più in soluzioni di analisi e di valorizzazione del dato, ritenendolo un asset essenziale per la propria crescita.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

LE VALUTAZIONI DI IDC

IDC conferma che all’interno delle organizzazioni di tutto il mondo i dati sono considerati una risorsa sempre più preziosa, ed è sempre maggiore il valore attribuito al processo decisionale data-driven. Nelle aziende si stanno diffondendo figure specializzate come i data scientist: sono loro che scelgono i dati da diverse fonti, come ERP, social media, transazioni commerciali, sensori IoT, li raccolgono e li organizzano sulla base degli obiettivi del modello da creare. I dati grezzi vengono poi puliti e trasformati, per permetterne l’analisi: il processo di ispezione, pulizia, trasformazione e modellazione dei dati è finalizzato alla scoperta di informazioni utili per prendere decisioni data-driven. E, in questo contesto, l’arrivo dell’intelligenza artificiale (AI) ha rivoluzionato il campo dell’analisi dei dati, permettendo nuove modalità, maggiore possibilità di automatizzare le azioni e riduzione dei margini di errore, migliorando l’accuratezza e l’efficienza dell’intero processo.

Tutta questa attenzione nell’assegnare valore ai dati e ai vantaggi a valle dell’analisi dei dati (utilizzando qualsiasi metodo disponibile e appropriato per farlo) ha inaugurato un periodo di iniziative formali di valutazione di dati, analytics e strumenti di AI. Questi sforzi si basano su una serie di metodologie, come studi sul ritorno sull’investimento (ROI) e sul total cost of ownership (TCO), valutazioni del valore basate sulla domanda di mercato e quantificazione macroeconomica basata sul tracciamento della digitalizzazione del business. IDC prevede che entro il 2024 nelle grandi organizzazioni tali iniziative di valutazione dei dati diventeranno standard poiché la pressione da parte dei manager per assegnare valore ai nuovi progetti tecnologici si intensificherà nel tentativo di controllare i costi e influenzare le valutazioni aziendali. IDC prevede che, entro il 2025, il 66% delle aziende G2000, cioè le prime 2000 aziende al mondo quotate in Borsa, secondo la classifica Forbes, adotterà l’analisi headless BI (un approccio in cui il livello di visualizzazione dei dati è separato dal livello di elaborazione e analisi) basate sull’AI con funzionalità di chat, domande e risposte, e notifiche proattive, quadruplicando il numero di utenti con accesso a informazioni contestuali. La perenne lamentela da parte dei manager incaricati di guidare il processo decisionale data-driven è che non c’è un’adozione sufficientemente pervasiva di BI e software di analisi in tutta l’organizzazione.

Un’ipotesi passata è stata che ogni utente aziendale dovrebbe essere un analista, o addirittura un data scientist, con accesso all’analisi dei dati fondamentali e al software scientifico. Questa ipotesi ha dimostrato di resistere alle realtà del mercato, soprattutto perché l’analisi dei dati è solo uno dei tanti compiti nel tipico flusso di lavoro degli utenti aziendali. Invece di aspettarci che tutti diventino analisti, IDC prevede che nei prossimi anni si verificherà una rapida espansione nell’adozione delle funzionalità di BI e analisi con l’implementazione su un’architettura headless BI di questa funzionalità. Sebbene l’AI Generativa non sia l’unica tecnologia abilitante per la analisi headless BI, accelererà l’adozione di questo software consentendo agli utenti di interagire con esso utilizzando un’interfaccia in linguaggio naturale. Gli utenti, con il linguaggio naturale, saranno in grado di ottenere assistenza nel loro lavoro quotidiano da motori di analisi e BI abilitati da GenAI in grado di mantenere conversazioni contestualmente rilevanti durante tutto il flusso di lavoro.

COSA CI DOBBIAMO ASPETTARE

Secondo le previsioni di IDC, entro il 2026 ci sarà un’accelerazione significativa sia nel ritmo con cui i fornitori di tecnologia rilasceranno nuovi software di analisi e dati basati sull’intelligenza artificiale, sia nella velocità con cui gli utenti adotteranno tali strumenti. Tuttavia, questo rapido sviluppo tecnologico e la crescente adozione di soluzioni basate sull’AI porteranno a un aumento del bisogno di riqualificazione delle competenze dei lavoratori e della gestione del cambiamento organizzativo. In altre parole, le aziende dovranno investire di più per preparare il loro personale a utilizzare queste nuove tecnologie e per gestire i cambiamenti nei processi di lavoro che ne deriveranno. Di conseguenza, la spesa per formare il personale e adattare l’organizzazione crescerà in modo significativo, arrivando a raddoppiare rispetto ai livelli attuali.

L’AI, in tutte le sue forme, ha accelerato il volano dell’innovazione tra i fornitori di tecnologie di dati e analisi. L’arte del possibile viene testata regolarmente con funzionalità basate sull’intelligenza artificiale per assistere data engineer, data architect, data analyst, data scientist e data consumer. Poiché il ritmo dell’innovazione accelera sotto la pressione della concorrenza e della disponibilità di nuove capacità tecnologiche fondamentali, non è chiaro fino a che punto la maggior parte delle organizzazioni sia in grado di assorbire questo ritmo di innovazione. Gli analisti di IDC mostrano una notevole preoccupazione per la governance e la privacy dei dati, la conformità alle normative e la mancanza di livelli sufficienti di alfabetizzazione interna dei dati. Fino a quando non verranno risolti, si prevede che questi fattori rallenteranno l’adozione delle più recenti funzionalità dei software di analisi dei dati.

Leggi anche:  L'intervento del Ministro Urso a WeChangeIT Forum di Data Manager - VIDEO

Entro il 2027, infine, IDC prevede che i leader dell’Enterprise Intelligence sostituiranno le soluzioni decisionali interne con soluzioni basate su piattaforme commerciali di Decision Intelligence, raddoppiando la velocità decisionale. Il processo decisionale è il processo di utilizzo di tutte le informazioni rilevanti per orientare il decisore verso la selezione di una tra due o più alternative in base alle probabilità di successo e ai vincoli di esecuzione della decisione. Le organizzazioni utilizzano spesso una raccolta di strumenti commerciali e open source per aumentare o automatizzare le decisioni relative ad attività ad alta frequenza e a basso impatto. Una nuova generazione di software di Decision Intelligence, intriso di AI, consentirà alle organizzazioni di progettare, ingegnerizzare e orchestrare decisioni situazionali, offrendo ai dipendenti la capacità di calcolare i probabili risultati della decisione e consentendo la definizione delle priorità delle azioni e il monitoraggio e la valutazione dell’impatto delle decisioni. Che si tratti di monitorare e prevenire le frodi, ottimizzare una catena di fornitura o prevedere e ridurre il tasso di abbandono dei clienti, le organizzazioni leader sfrutteranno le piattaforme commerciali di Decision Intelligence per progettare e ingegnerizzare le proprie decisioni. I casi d’uso sono vari e possono includere la pianificazione dell’inventario, la determinazione dei prezzi, i prestiti, l’allocazione del personale, la raccomandazione di prodotti, l’utilizzo delle risorse, la manutenzione di edifici o macchinari e altre decisioni tra funzioni aziendali e settori.

Le organizzazioni che riusciranno a sfruttare con successo le piattaforme di Decision Intelligence saranno in grado di valutare le decisioni situazionali/operative che prendono e determinare quali investimenti in dati, analisi e intelligenza artificiale devono essere effettuati per migliorare la velocità decisionale. Secondo IDC, il 75% delle organizzazioni prevede che le iniziative di Decision intelligence le aiuteranno a migliorare significativamente gli attributi del processo decisionale (velocità, qualità, coerenza, agilità e governance).

LA CENTRALITÀ DEI DATI

Un’organizzazione data-driven utilizza i dati come motore per la propria crescita, mettendo il dato al centro del proprio business: questo non solo per il decision making ma anche per migliorare i processi, le relazioni interne ed esterne, per poter identificare opportunità di innovazione e di sviluppo di nuovi prodotti, e per migliorare i servizi, che rispondano meglio alle esigenze dei clienti e alle dinamiche del mercato.

Per esempio, i dati relativi ai comportamenti e alle preferenze dei clienti possono essere utilizzati per creare esperienze personalizzate, che aumentano la soddisfazione del cliente, e possono portare anche ad una maggiore fedeltà e ad un conseguente aumento delle vendite. È il caso della multinazionale francese Decathlon, il più grande rivenditore di articoli sportivi al mondo (2080 negozi in 56 paesi), vende i propri prodotti e offre molti prodotti popolari di terzi: è conosciuta per i suoi prodotti relativamente economici ma di qualità, competendo come marchio EDLP (Every day low price). La strategia dei prezzi, tuttavia, è diventata più complessa poiché Decathlon è entrata in diversi mercati in cui i prezzi bassi erano definiti in modo drasticamente diverso. Questa realtà e i cambiamenti nel rapporto con i marchi di terze parti hanno richiesto una revisione della capacità di determinazione dei prezzi. Decathlon aveva bisogno di ridurre la complessità dei prezzi a livello di sistema e trovare un approccio che massimizzasse il margine pur mantenendo la garanzia di prezzo basso di Decathlon. C’era bisogno di una strategia di prezzo innovativa che integrasse le decisioni sui prezzi tra marchi e regioni senza compromettere il marchio. Decathlon ha lanciato il programma Juste Prix, un’iniziativa a livello aziendale per integrare le decisioni sui prezzi e il prezzo in modo più efficiente.

Una parte fondamentale di questa strategia è stata l’implementazione di uno strumento per la determinazione reattiva dei prezzi basata sul valore. Questo sistema consente di apportare aggiustamenti ai prezzi dei prodotti durante l’intero ciclo stagionale, basandosi sul monitoraggio delle vendite storiche, dei dati di mercato e sull’analisi comparativa con i principali concorrenti e il comportamento dei consumatori. Un programma pilota di test iterativi sui prezzi nei negozi di tutta la Francia ha creato un margine del +27,3% e un fatturato del 3,2%. Così il sistema è stato implementato in tutta la rete globale di marchi e negozi Decathlon, e questo ha creato un migliore coordinamento dei prezzi senza forzare la standardizzazione.

In seguito, Decathlon ha deciso di espandere la tecnologia di supporto decisionale data-driven ad altre funzioni: rifornimento, assortimento di prodotti, pianificazione e logistica, e questo ha fatto crescere anche il margine: circa +160 milioni di euro di margine aggiuntivo dalle prime implementazioni della catena di fornitura. Man mano che il sistema apprende e si integra ulteriormente nelle operazioni, l’impatto continuerà a crescere.

TRASFORMAZIONE DATA-DRIVEN

A distanza di quasi tre anni da una precedente survey, Denodo in collaborazione con IKN Italy ha aggiornato i risultati dell’indagine sull’approccio quotidiano delle aziende alla gestione dei dati. Rispetto ai risultati precedenti, l’attuale indagine ha rivelato progressi limitati nell’implementazione della trasformazione data-driven. Le aziende che hanno completato con successo il percorso e dichiarano che i dati rivestono già un ruolo centrale nei loro processi e decisioni sono aumentate solo dal 17% al 20%. Tuttavia, oltre l’80% delle aziende intervistate ha confermato che la trasformazione è parte dei loro piani futuri. Tra queste, il 20% ha già completato il percorso, il 40% è ancora nella fase iniziale e il 25% ha deciso di avviare la trasformazione ma non ha ancora cominciato.

Leggi anche:  INTELCO, la gestione HR diventa data-driven

La survey conferma quindi che la volontà di compiere un percorso verso il data-driven è molto diffusa, e sicuramente in aumento anche nel nostro Paese, ma ci sono difficoltà nell’affrontare il percorso di trasformazione e cambiamento, e nel portarlo a termine senza rallentamenti. Spicca, dalle risposte degli intervistati, la dispersione dei dati e il loro isolamento all’interno delle diverse strutture aziendali (26%), che conferma come non sia semplice accedere ai dati, ma anche come spesso manchi la consapevolezza della loro esistenza. Altro problema, la cultura del possesso dei dati, che rende difficile la loro condivisione all’interno dell’azienda (23%), elemento essenziale per una vera democratizzazione dei dati.

Seguono poi, tutte al 13%, la mancanza, a livello organizzativo, di una struttura deputata alla gestione dei dati, la mancanza di un punto unico di accesso ai dati, la mancanza di un modello unico, che mostri ciò che è disponibile e quale ne sia il significato, la forte dipendenza dall’IT nel momento in cui si ha bisogno dei dati. Negli ultimi 2 anni, si è notata una significativa riduzione nella percentuale di aziende in cui manca una struttura dedicata alla gestione dei dati (dal 21% al 13%): questo è un segnale importante, che può indicare come si stia effettivamente riconoscendo l’importanza di agire a livello organizzativo.

Secondo la ricerca condotta da Denodo e IKN Italy, nella trasformazione digitale, la tecnologia riveste un ruolo cruciale, ma è altrettanto importante considerare gli aspetti culturali e organizzativi. Le aziende riconoscono che i dati diventano davvero strategici solo quando sono facilmente accessibili a chi deve utilizzarli, sempre nel rispetto di una gestione corretta e in conformità con le normative e le policy aziendali. Questo processo di “democratizzazione dei dati” implica che i dati devono essere disponibili a chi ha il diritto di utilizzarli, garantendo che tale diritto sia facilmente esercitabile e rispettato.

Il principale pilastro su cui un’azienda dovrebbe basare la propria trasformazione data-driven è la qualità dei dati (25%), ma questo aspetto è ancora visto come una sfida significativa. Le competenze relative ai dati all’interno dell’azienda sono considerate altrettanto cruciali (20%). Tra le competenze chiave necessarie ci sono: conoscenze statistiche e matematiche per l’analisi dei dati, competenze informatiche per l’uso di software e strumenti di analisi, competenze di business per interpretare i dati e prendere decisioni informate, e competenze di intelligenza artificiale (AI) per ottimizzare l’uso di algoritmi di machine learning e di elaborazione del linguaggio naturale.

La data governance è un altro pilastro importante, anch’esso indicato dal 20% degli intervistati. La qualità dei dati, la formazione e il rispetto delle normative e delle politiche interne sono considerati essenziali, sebbene quest’ultimo aspetto sia in calo rispetto al 59% della survey precedente. Tra i modelli attualmente in uso o previsti per il futuro, l’intelligenza artificiale emerge come il principale, con il 25% delle aziende che prevede di sfruttarla nel proprio percorso di trasformazione. In aggiunta, il 10% degli intervistati prevede di utilizzare il machine learning, confermando che le diverse applicazioni dell’AI sono i principali abilitatori dei nuovi paradigmi di gestione dei dati.

COME AUMENTARE L’EFFICIENZA

Tra i principali fattori che guidano il processo di trasformazione ci sono l’aumento dell’efficienza operativa, il miglioramento dei servizi offerti, l’ottimizzazione dell’esperienza del cliente, la riduzione dei rischi e degli errori, e il perfezionamento del processo di vendita. Per ABB Robotics, leader globale nella fornitura di tecnologia industriale B2B avanzata, la personalizzazione è un vantaggio competitivo cruciale. In passato, la domanda imprevedibile associata a ordini personalizzati rendeva inefficiente la pianificazione delle vendite e delle operazioni. Per evitare rotture di scorte e costosi ritardi nella produzione, ABB era costretta a mantenere elevati livelli di inventario, spesso superiori alla domanda di oltre il 50%, generando così costi aggiuntivi e insoddisfazione dei clienti.

Per affrontare questa sfida, ABB ha implementato un programma pilota di quattro settimane per testare sia l’approccio manuale che i nuovi metodi basati sull’intelligenza artificiale. Questo ha portato a un aumento immediato del 16% nell’accuratezza delle previsioni di vendita, con un’opportunità di risparmio iniziale stimata tra 1,4 e 1,9 milioni di euro. Il nuovo sistema ha migliorato l’efficienza dell’inventario del 34% e aumentato la precisione delle previsioni di vendita del 24%. Inoltre, ha ottimizzato i tempi di consegna, ridotto le esigenze di inventario e allineato i processi, generando efficienze aggiuntive grazie all’autoapprendimento.

Leggi anche:  Internazionalità e innovazione al centro della BU International Institutions & Research di Fincons

COME GESTIRE IL CAMBIAMENTO

Oggi è evidente che siamo in mezzo a una trasformazione digitale che sta convertendo sempre più aspetti della vita quotidiana delle aziende in dati. La crescente quantità di dati (Big Data) deve essere focalizzata e sintetizzata (Small Data) per garantire una governance aziendale efficace, in cui le decisioni siano supportate dai dati. Solo attraverso questa sintesi è possibile ottenere una gestione informata e strategica delle informazioni. Un percorso virtuoso di cambiamento per le imprese inizia con l’individuazione dei processi aziendali, prosegue con l’adozione di un sistema informativo basato su ERP e si conclude con l’integrazione di una data governance supportata da software capaci di trasformare grandi volumi di dati in conoscenza utile per prendere decisioni. Sebbene questo percorso sembri lineare, non è così semplice e veloce da attuare; richiede anche un management “illuminato” che avvii e guidi il processo di cambiamento.

Un esempio di come sia possibile intraprendere questo percorso anche in una PMI arriva dalla società Sigma di Torbole Casaglia in provincia di Brescia, che produce e commercializza macchine e attrezzature per la panificazione, la pasticceria e la pizza come mescolatrici, impastatrici, sfogliatrici. Alla base del successo di Sigma c’è in primis, e non potrebbe essere altrimenti, l’acume manageriale del team dirigenziale, quella lungimiranza che consente di intercettare i bisogni dei clienti e soddisfarli con la progettazione e la distribuzione di prodotti eccellenti. Ma c’è anche l’utilizzo di un ERP implementato in ogni funzione aziendale, dalle vendite agli acquisti, dalla produzione alla logistica, dalle risorse umane alla contabilità. Tutti in azienda usano questo sistema per svolgere le proprie attività, in questo modo l’ERP diventa una straordinaria fabbrica di dati per supportare i processi: quelli di livello tattico e operativo, come pure quelli di livello strategico grazie al precoce impiego di una BI “su misura”.

Lo step finale, avvenuto negli ultimi due anni, è stato quello di cercare e avviare un software innovativo che, utilizzando i dati dell’ERP, fosse in grado di verificare l’efficienza di svolgimento dei processi (tramite un Bilancino ricavato anzitempo dall’operatività) e l’efficacia di allineamento degli obiettivi (tramite una Balanced Scorecard) che si riflette nella competitività di Sigma, definita dal confronto con concorrenti e settore industriale (reso possibile dall’accesso a Open Data, ossia a banche dati esterne e pubbliche).  Questo software di Digital Performance Intelligence è perfettamente integrato con l’ERP, grazie a un add-on, e sfrutta algoritmi “intelligenti” per pianificare e controllare l’andamento aziendale presente e futuro.

SINERGIA TRA IT E BUSINESS

Tornando alla survey condotta da Denodo e IKN Italy, i risultati sulle modalità di gestione dei dati nelle organizzazioni sono particolarmente interessanti. Per il 45% degli intervistati, esiste un team dedicato alla gestione centralizzata di tutti i dati. Al contrario, il 40% degli intervistati segnala che non ci sono regole ben definite e che ogni divisione aziendale gestisce i dati secondo le proprie necessità.

Nel 2021, il 69% delle organizzazioni aveva una predominanza di gestione locale dei dati, il che indica una significativa riduzione in favore di una gestione più centralizzata. Questo cambiamento è rilevante nel contesto di una trasformazione che pone i dati al centro delle attività aziendali. Inoltre, è in leggero aumento la percentuale di organizzazioni, ora al 15%, che hanno implementato regole aziendali ben definite e adottate uniformemente da tutte le divisioni o linee di business. In pratica, le aziende stanno evolvendo verso una gestione dei dati più centralizzata e organizzata, con un miglioramento delle regole e delle pratiche di governance, che sono segnali positivi di un processo in corso di trasformazione e ottimizzazione dei dati aziendali.

Proprio in questo ambito, Banca Intesa Sanpaolo ha sviluppato il progetto Democratic Datalab, un ambiente di sviluppo che rende snelle e collaborative le operazioni tra IT e Business, accelerando il time-to- market dei prodotti digitali e dei servizi necessari alle linee di business. Il progetto Democratic Datalab ha dato inizio a un percorso di trasformazione digitale incentrato sull’open innovation e su un ambiente di lavoro collaborativo, per favorire dialogo, operatività e produttività tra IT e Business. Inoltre, è stata sviluppata una nuova piattaforma tecnologica che, mediante l’utilizzo di sandbox e modelli predittivi, permette di creare soluzioni e servizi digitali, in ambienti di test, già performanti e adatti alla messa in produzione, grazie al lavoro congiunto di team tecnici e di business, in veri e propri gruppi di lavoro chiamati “fusion team”.

Si tratta di una via di mezzo tra il mondo Waterfall e Agile che permette di coinvolgere, fin dalle prime fasi di sviluppo, utenti tecnici e di business per agevolare la contaminazione delle competenze, accelerando così il rilascio dei servizi ma, cosa ancor più importante, assicurando che lo sviluppo dia effettivamente vita a prodotti pronti per la messa in produzione così come servono agli utenti operativi.

La nuova piattaforma ha migliorato significativamente l’efficienza degli stress test richiesti dalla Banca Centrale Europea, riducendo i tempi di esecuzione a un sesto rispetto ai test precedenti. Questo risultato è stato ottenuto grazie alla riscrittura dei modelli matematici di base e all’adozione di una piattaforma di analisi potenziata e accessibile tramite il cloud. Attualmente, Intesa Sanpaolo sta esplorando l’efficacia dell’AI generativa per valutare la conformità delle policy interne alle nuove normative in arrivo e per analizzare come queste nuove regole influenzeranno le policy interne e i processi della banca.