A cura di Carles Saragozza, Technical Presales di Terracotta – Software AG
Il termine Big Data è oggi molto in uso sebbene, nella maggior parte dei casi, venga utilizzato nella sua accezione più comune, quella di definire la grande mole di dati che non è più possibile gestire con degli strumenti tradizionali come ad esempio i data base. Tuttavia il termine racchiude in sé un significato molto più articolato che non si limita solo alla quantità ma sottende anche la varietà e la velocità con la quale questi dati vengono generati, immagazzinati e analizzati. Questa estensione della terminologia introduce nuove dimensioni definibili come le tre V dei Big Data: Volume, Velocità e Varietà, alle quali ne va aggiunta una quarta, molto importante, quella del Valore dei dati per il business.
Le aziende oggi, per poter competere in uno scenario caratterizzato dalla crisi economica, devono essere in grado di gestire e analizzare una grande mole di dati, strutturati e non, provenienti da fonti eterogenee; queste informazioni, infatti, costituiscono la base per poter di prendere le decisioni più corrette in termini di business. Per questo motivo un crescente numero di aziende ha deciso di adottare strumenti che consentono di trasformare in conoscenza i propri dati. Anche le aziende italiane non fanno eccezione benché il processo di adozione sia più lento rispetto ad altri paesi europei. Tuttavia in alcuni settori come quello delle banche, dell’industria energetica o delle telecomunicazioni, la percezione che una maggiore competitività sia strettamente legata alla capacità di interpretare i propri dati, è già molto presente. Le tecnologie per la gestione dei Big Data aumentano la competitività offrendo alle aziende opportunità che un tempo sarebbero state inimmaginabili, quali ad esempio la possibilità di costruire un’offerta personalizzata e in tempo reale, analizzare le motivazioni dei propri clienti per poter poi mettere in atto azioni specifiche, aumentare il livello di attenzione e di proattività nella gestione dei reclami, controllare in tempo reale la domanda energetica, migliorare i tempi di accesso ai sistemi informativi.
Bisogna tenere in considerazione che i dati possono presentarsi secondo diverse rappresentazioni, come ad esempio sotto forma di informazioni derivanti da un processo di business, dai data base tradizionali, dai social network, dai dispositivi mobili, audio, video, GPS, dai sensori digitali di posizione, movimento, temperatura e così via. Le applicazioni che analizzano questi dati richiedono che la velocità di lettura, analisi e risposta mediante eventi o alert sia la più rapida e immediata possibile. Queste sono le principali caratteristiche offerte dai Big Data in termini di opportunità business.
Benchè le potenzialità dei Big Data sembrino infinite, la loro utilità in realtà è strettamente dipendente dalla capacità di processare in tempo reale questi grandi volumi di dati. Il McKinsey Global Institute prevede che gli investimenti in questo ambito si moltiplicheranno e che entro il 2018, solo negli Stati Uniti, saranno circa 200.000 le persone che lavoreranno sull’analisi dei dati e quasi 1,5 milioni li utilizzerà per processi decisionali a livello corporate.
L’implementazione di una soluzione per Big Data implica l’integrazione di componenti e architetture diverse. La piattaforma richiede, infatti, moduli per trattare in forma massiva e in modo distribuito grandi flussi di dati di ogni genere. Esistono infrastrutture basate su sistemi di calcolo distribuito in memoria, su cloud e in open source. Gli open source più in uso sono Hadoop, un ambiente di lavoro estremamente diffuso che permette alle applicazioni di elaborare enormi quantità di dati memorizzati e operare in presenza di centinaia di nodi, EHCache che supporta la gestione di terabyte di dati direttamente in memoria, MapReduce, Google File System e alcuni sistemi di database non relazionali, come ad esempio NoSQL o Cassandra, necessari per processare, conservare e gestire la complessità di questi flussi di dati di ogni tipologia. Molti di questi progetti open source vengono utilizzati dai software provider come base per lo sviluppo di soluzioni proprietarie complete per la gestione delle informazioni in ambito enterprise.
Il futuro del Big Data si presenta avvincente, si tratta di un cambiamento radicale, di una nuova realtà che trasforma il mercato generando nuove sfide ma anche molte opportunità per tutte le aziende che sapranno coglierle.