Data driven enterprise. Le fondamenta dell’impresa guidata dai dati

Tra click stream e digital exhaust, la digital experience di consumatori e cittadini disegnerà la nuova mappa dei bisogni e nuovi modelli di business per le imprese

“Passare al digitale” e diventare una “data-driven enterprise” sono le due principali esigenze di business di cui si sente maggiormente parlare. Nel primo caso, l’agenda è dominata dall’introduzione di canali digitali e dall’Internet of Things (IoT). L’adozione di canali digitali ha visto l’ingresso in azienda di web, mobile commerce e social, alla luce del fatto che sempre più persone preferiscono effettuare transazioni online da desktop e dispositivi mobili, oltre che attraverso le pagine di social network aziendali. Questo sta creando enormi quantità di dati cosiddetti “digital exhaust”, come dire gas di scarico digitali, costituiti per esempio dai dati di click stream nei log dei server web o dai dati non transazionali dei carrelli della spesa spesso memorizzati nei database NoSQL. Il click stream registra tutto ciò su cui clicchiamo con il mouse o col touch sul dispositivo mobile, mettendo i dati in un file di log web. Questo significa che si può tracciare con precisione il percorso di navigazione di ogni visitatore di un sito web. Si può vedere quali pagine sono state viste e in quale sequenza, e molto altro ancora. Come si può immaginare, se ci sono decine di migliaia di visitatori, o anche di più, che stanno navigando su un sito web, non ci vuole molto prima che il volume dei dati di click stream diventi enorme.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Allo stesso modo, il carrello della spesa registra una storia di quello che vi si mette, quello che si tira fuori, ciò che si mette di nuovo, anche prima dell’acquisto effettivo. Ciò significa che si può vedere quali sono i prodotti e i servizi ai quali potrebbero essere interessati i visitatori o i clienti, anche se poi non li acquistano effettivamente. Per quanto riguarda l’Internet of Things, sempre più oggetti dispongono di sensori che emettono dati, come per esempio telefoni cellulari con sensori GPS, orologi, bracciali fitness, automobili, attrezzature industriali, frigoriferi e così via. La lista potrebbe continuare: anche in questo caso, i volumi di dati che vengono generati sono enormi. Tuttavia, le aziende vogliono questi dati, perché, se già si catturano le attività di transazione, questo tipo di dati può dire molto di più di ciò che già si conosce: si possono imparare cose nuove da questi nuovi dati, soprattutto quando si combinano con i dati dei clienti. E questo porta al secondo aspetto: l’impresa guidata dai dati. Ma cosa significa data-driven? Wikipedia lo spiega come “…il progresso in un’attività indotto dai dati, invece che dall’intuito o dall’esperienza personale. Viene spesso etichettato come gergo aziendale per quello che gli scienziati chiamano il processo decisionale basato su prove”.

Leggi anche:  Qlik amplia la capacità dei clienti di scalare l'AI per un impatto con AWS

La lista delle domande

Questo significa che i dati, quando sono analizzati, generano insight basati su prove che consentono alle aziende di vedere nuove opportunità per trasformare i mercati esistenti e quelli nuovi. È per questo che diventare data-driven significa essere guidati da dati e analytics. Ma la domanda chiave è: come si fa a raggiungere questo obiettivo? Che cosa serve per diventare data-driven? Come affrontare il diluvio di dati che caratterizza sempre più le aziende? Quali sono le piattaforme o gli analytics necessari? Devono essere in cloud, on-premise o entrambi? Come si fa a massimizzare il potenziale delle analisi predittive e avanzate? Come affrontare l’IoT? Come si integrano i big data nell’architettura analytics esistente? Come si fa a rimanere agili in un mondo in cui i dati sono sempre più distribuiti e quindi più difficili da accedere? Come si fa a gestire la governance dei dati quando i dati sono sparsi su vari file system come OLTP, database NoSQL, RDBMS analitici o cluster Hadoop? Come si fa a superare il caos potenziale della BI self-service e della preparazione dei dati self-service? Come si fa a sfruttare la shadow IT e trasformarla in scienza dei dati?

Il processo decisionale

Prendere una decisone basata sui dati è una sfida importante e non è difficile esserne sopraffatti. Eppure nel caos è il buon senso che deve prevalere. Non si tratta di sostituire quello che si ha già, ma di estendere gli ambienti analytics esistenti per accogliere nuovi dati e nuovi carichi di lavoro analitici al fine di produrre nuovi insight da aggiungere a quello che già si conosce. In passato, il data warehouse era la piattaforma analitica, ma oggi questa deve essere estesa per comprendere anche:

  • L’analisi in tempo reale di dati in diretta streaming ad alta velocità.
  • Le tecnologie di importazione dati a elevato volume.
  • I nuovi archivi di dati analitici come Hadoop HDFS, Amazon S3 e database grafici NoSQL.
  • Le tecnologie per l’analisi esplorativa scalabile su grandi volumi di dati multi-strutturati interni ed esterni, come per esempio Hadoop e Apache Spark.
  • Gli analytics avanzati, come per esempio il machine learning, l’analisi di testi e l’analytics dei grafi.
  • La gestione dei dati end-to-end, l’ETL scalabile e la governance dei dati.
  • Una combinazione di sviluppo basato sul self-service e sull’IT.
  • L’accesso semplificato a molteplici archivi di dati analitici.

La piattaforma per decidere

Questa nuova “piattaforma analitica estesa” è architettonicamente molto più complessa perché ora comprende tutto quanto appena visto, oltre a un data warehouse. Tuttavia, deve operare in maniera completamente integrata, e per questo serve:

  • Gestire l’importazione scalabile dei dati.
  • Creare un serbatoio di dati organizzato e gestirlo come se fosse centralizzato, anche se può essere distribuito.
  • Automatizzare la catalogazione e la profilazione dei nuovi dati che entrano nel serbatoio.
  • Introdurre la collaborazione nella gestione dei dati per aiutare a classificare i dati nel serbatoio in termini di qualità, sensibilità e valore di business.
  • Essere in grado di raffinare i dati in scala attraverso l’elaborazione ELT, definendo come si vogliono trasformare e integrare i dati indipendentemente da dove si vogliano eseguire tali compiti (per esempio in Hadoop, in tabelle di gestione temporanea del data warehouse, nel cloud, etc.).
  • Incoraggiare l’agilità, attraverso sandbox esplorativi di data science, la preparazione dei dati self-service e l’analisi self-service.
  • Fornire un accesso trasparente ai dati e agli insight, realizzati dai data scientist, indipendentemente dal fatto che i dati siano in un data warehouse, su Hadoop, in un flusso di dati in tempo reale, o in una combinazione di tutti questi. Anche indipendentemente dal fatto che i dati siano on-premise, nel cloud o su entrambi. Questo può essere ottenuto sia tramite SQL sia attraverso la virtualizzazione dati, per creare un layer virtuale “data warehouse logico” in tutti i molteplici archivi di dati analitici sottostanti, indipendentemente dal fatto che siano relazionali o basati su Hadoop.
Leggi anche:  Il potenziale del data marketplace. Come governare la condivisione dei dati

Work in progress

Al momento, siamo a metà del cammino. Per vedere realizzata questa nuova piattaforma di analisi estesa, molte aziende stanno già utilizzando tecnologie come Hadoop e Spark con l’obiettivo di costruire nuove applicazioni analitiche. Tra i fattori critici di successo vi sono l’allineamento del business (per esempio, assicurandosi che i progetti candidati siano in linea con gli obiettivi strategici di business), l’incremento dell’automazione per far sì che non ci sia bisogno di scrivere codice per preparare e analizzare i dati, oppure di un catalogo informazioni per governare quali dati possono essere disponibili per il riutilizzo, o di un manuale di organizzazione per trasformare rapidamente la sistematica raccolta e analisi di dati in nuovi insight.


 

Mike Ferguson

Managing director di Intelligent Business Strategies, come analista e consulente è specializzato in business intelligence ed enterprise business integration. Con oltre trenta anni di esperienza in ambito IT, ha svolto consulenze per importanti aziende su temi quali la business intelligence, l’enterprise architecture, la business process integration, l’application integration e la data integration. Oltre a essere frequentemente speaker in numerosi eventi e seminari in tutto il mondo, è anche autore di svariati articoli tecnici.

Mike Ferguson sarà il chairman della conferenza di Technology Transfer “International Data Management e Analytics Conference” il 23-24 giugno 2016.

Presenterà inoltre i seminari “Big Data e Analytics: dalla strategia all’implementazione” il 6-7 giugno 2016 e “Enterprise Data Governance e Master Data Management” l’8-9 giugno 2016.