Nell’antico regno si interrogava l’oracolo del datamart con domande precise e problemi ben strutturati, mentre nel nuovo regno della data science si discende nel data lake insieme al filosofo esplorando il senso più recondito che si nasconde dietro l’interrogativo di partenza
Parafrasando quanto Clive Humby, chief data scientist di Starcount, scriveva nel 2006, i dati grezzi esprimono “un valore intrinseco che richiede un adeguato processo di raffinazione, esattamente come il petrolio, per consentire una completa determinazione del loro valore” – affermazione che ha poi trovato un successo globale nella sua forma più semplificata: “Data is the new oil”. Al di là della metafora, tornando forse al concetto originale che intendeva esprimere Humby, i dati non hanno sempre un valore intrinseco predeterminato e uno specifico processo di data analytics rappresenta la condizione necessaria, ma non sufficiente, affinché un dato grezzo possa diventare di valore per l’impresa. Dunque, occorre fin da subito sgomberare il campo dall’equivoco di considerare il dato un valore assoluto in modo troppo ingenuamente dogmatico: i dati possono avere un valore, ma il loro valore non può essere dato per scontato, e comunque è indispensabile procedere a un attento processo di lavorazione per trasformare i dati in informazione e l’informazione in conoscenza di valore.
COMPETENZE E STRUMENTI
L’ecosistema digitale si è sviluppato enormemente negli ultimi anni: da una parte i dati più o meno effimeri prodotti dagli utenti finali attraverso i nuovi dispositivi mobili, dall’altro gli oggetti sempre più connessi e la sensoristica che invade le case, le automobili, le fabbriche, le città e così via, poi i movimenti di “liberazione del dato” che hanno lottato per la condivisione del patrimonio di informazioni della PA, delle fondazioni e del terzo settore, fino a catalizzare la creazione di una cultura open data che ha raggiunto le imprese, senza dimenticare le tecnologie e le informazioni messe a disposizione dai grandi cloud platform provider, dalla comunità di sviluppatori open source, e così via. Uno tsunami di dati e informazioni che si è abbattuto sul mondo delle imprese con risultati a volte frastornanti. Questa la premessa indispensabile per comprendere il carattere paradigmatico del passaggio a cui stiamo assistendo in questi ultimi anni, ovvero, l’avvicendamento tra la nozione di business intelligence e quella di data science, avvicendamento evidenziato dall’andamento dell’Interest over Time di Google Trend, dove osserviamo in modo emblematico la crescita esponenziale della data science e il declino asintotico della business intelligence: attorno al 2016 il volume delle interrogazioni relative alla prima ha definitivamente surclassato la seconda. Così, negli ultimi anni è successo molto spesso che gli esperti di BI venissero convocati dal loro capo per ricevere l’annuncio che il loro titolo aziendale era cambiato e dall’indomani sarebbero stati chiamati data scientist, con alzate di spalle e sguardi dubbiosi nella maggior parte dei casi, perché, come sappiamo bene, non si tratta di un cambiamento di buzzword, ma di una trasformazione decisamente più profonda.
NUOVI DOMINI
Trasformazione che procede in primo luogo a partire dalle competenze, dalle tecnologie e dagli strumenti necessari per fare il lavoro del data scientist, che sono evidentemente diversi da quelli del BI Expert. Basta guardare ad esempio cosa emerge dalle ultime indagini condotte da Kaggle sulla comunità globale dei data scientist: circa il 60-70% impiega linguaggi come R e/o Python, circa il 40-50% impiega metodi come Neural Networks o Random Forests. Non esattamente il comune bagaglio di competenze espresso da un esperto di business intelligence. Nel nuovo dominio della data science si affronta un processo di problem solving completamente diverso da quello gestito attraverso la business intelligence: nell’antico regno si interrogava l’oracolo del datamart con domande precise e problemi ben strutturati, mentre nel nuovo regno della data science si discende nel data lake insieme al filosofo esplorando il senso più recondito che si nasconde dietro l’interrogativo di partenza. Quando si decide di dare seguito all’ambizione di estrarre valore dalle informazioni aziendali, e dunque si incomincia ad approfondire nel merito i prerequisiti e le competenze necessarie per mettere in piedi un processo industriale di data analytics, ecco che gli imprenditori cominciano a rendersi conto perché il cambiamento che stiamo raccontando non è una mera questione di forma, anzi. E così alla fine cominciano a comprendere che un esperto di machine learning è diverso da un esperto di business intelligence, così come un data scientist è un profilo diverso da un data engineer.
EVOLUZIONE DELLE IMPRESE
Questa esplorazione sempre più intelligente di dati e informazioni alla ricerca di quel momento di serendipità che può ripagare di tanti sforzi e investimenti si traduce in aspettative molto concrete da parte degli imprenditori italiani che decidono di investire nella creazione di un team di data science: oltre il 90% delle imprese che investe in tecnologie di machine learning si rivolge in modo inequivocabile al miglioramento dell’automazione industriale e dell’efficienza dei processi di produzione, oppure cerca di accelerare i processi di time-to-market per lo sviluppo di nuovi prodotti e servizi, mentre il 70% cerca di migliorare le relazioni con i clienti. Dalle ultime indagini che IDC ha condotto sul mercato italiano emerge che circa il 16% delle grandi imprese prevede di introdurre tali soluzioni in azienda entro dodici mesi, ma il 20% comunque non prevede un impatto significativo a breve a causa di barriere legate alle competenze disponibili, a problematiche di cambiamento organizzativo, questioni legali oppure modelli di business ancora indefiniti.
Non tutte le imprese italiane sono ancora pronte ad affrontare un cambiamento tecnologico di questo tipo, ma esistono diversi gradi di maturità, sensibilità e cultura organizzativa che possono aiutare ad aprire la strada a un impiego sempre più sofisticato e organico dei data scientist in azienda, a una vera e propria industrializzazione della data science. Se proviamo a immaginare una ideale scala di evoluzione delle imprese rispetto all’adozione degli algoritmi di predictive analytics, osserviamo che soltanto il 9% è giunto a un livello di sofisticazione tale da impiegare le tecnologie per la creazione di processi e valore nel lungo termine, mentre oltre il 40% ancora continua a interrogarsi a livello strategico su quale sia la strada migliore da intraprendere e quale l’approccio migliore da seguire (uno stato di “paralisi a livello strategico”).
NUOVO MIX DI COMPETENZE
L’industrializzazione dei processi di data analytics rappresenta una sfida ancora da vincere per la gran parte delle imprese italiane che intendono creare valore attraverso i dati. Una difficoltà che procede oltre il livello strategico e molto spesso dipende dall’incapacità di cogliere tutte le dimensioni più rilevanti delle diverse forme di “intelligenza” che determinano il successo aziendale, oltre che dall’incapacità di realizzare la corretta combinazione di competenze, sia analitiche che ingegneristiche, necessarie per far funzionare gli algoritmi al di fuori di un laboratorio e dentro una impresa. Questa è sostanzialmente la missione aziendale, o forse più propriamente, la vera e propria sfida, che i nuovi C-level come i chief data officer, i chief analytics officer e i chief innovation officer, stanno portando avanti insieme ai CIO per capire come creare una cultura basata sul dato, come industrializzare i processi analitici, come dare una collocazione organizzativa a tali funzioni, come realizzare una monetizzazione dei dati allineata con le esigenze di remunerazione del capitale investito, perché alla fine si tratta di imparare a impiegare il dato come nuovo fattore produttivo.
Giancarlo Vercellino associate research director di IDC Italia