Nate sull’onda della crescita imponente dei dati negli ultimi anni, le applicazioni Big Data sono oggi un mercato in crescita, cui guardano con interesse i principali player IT, sia in ambito software, sia hardware.
L’integrazione e la valorizzazione dei dati esige – però – la creazione di modelli di governance e processi dedicati. Il mercato è spesso caratterizzato da alcune “parole d’ordine” che ne guidano l’evoluzione. Tra quelle che hanno affollato lo spazio ICT troviamo sicuramente “esplosione dei dati e delle informazioni”: non c’è settore che non sia in qualche modo affetto da questo fenomeno. Stiamo parlando di quel settore dell’IT noto come business intelligence (BI), cioè delle soluzioni che aiutano i manager a prendere le decisioni giuste per il business della propria azienda.
BIG DATA, “MA CHI È COSTUI”?
Parafrasando un noto autore italiano, è giusto chiarire subito che cosa si intenda con Big Data. Utilizzando la definizione di IDC (www.idcitalia.com), identifichiamo con Big Data “una nuova generazione di tecnologie e architetture progettate per estrarre valore economico da grandissimi volumi di una grande varietà di dati, abilitando la cattura, la discovery e l’analisi ad alta velocità”. Secondo le stime di IDC, questo mercato raggiungerà – nel 2015 – i 16,9 miliardi di dollari (13,4 miliardi di euro), partendo dai 3,2 miliardi di dollari (2,5 miliardi di euro) del 2010. In termini di crescita annuale composta (CAGR), si tratta di un +40%, cioè circa sette volte il CAGR del mercato ICT nel suo complesso. Qui trovano spazio tutte le soluzioni, dall’hardware (server, sistemi di storage, appliance dedicate alla trasmissione e all’archiviazione di dati…) al software, passando per i servizi.
Che cosa pensano i vendor, considerando che il mercato Big Data è comunque un settore nuovo, che può cambiare o, addirittura, sconvolgere i loro piani? Data Manager si è rivolta ad attori italiani e internazionali, chiedendo loro qual è il loro punto di vista sul fenomeno Big Data. «Probabilmente nell’arco di tre anni tutti trarranno vantaggio competitivo da uno sfruttamento intelligente dei Big Data – è il commento di Luciano Bruno, direttore area soluzioni tecnologiche e servizi di Dedagroup ICT Network (www.dedagroup.it). I primi saranno quei soggetti che usano i dati per fare business e che hanno necessità di prendere decisioni rapidamente, quindi la GDO, le Telco, i media e il finance. Velocità è una delle quattro “V” che caratterizzano i Big Data, insieme a Volume, Varietà e Valore: una “V” che significa “velocità di obsolescenza dell’informazione”, specialmente se si tratta di dati di marketing. Per questo è strategico individuarli, gestirli e analizzarli tempestivamente». Antonio Gentile, SAP business development manager di Fujitsu Technology Solutions (www.fujitsu.com/it/), conferma: «L’informazione è la base su cui poggia il business a qualunque latitudine ed è in grado di condizionare l’andamento sia della grande azienda, sia della piccola e media impresa».
«Prevediamo una crescita dei dati in tutti i settori industriali per effetto di una digitalizzazione sempre più spinta e del loro utilizzo per influenzare le decisioni di business – è il commento di Federico Suria, director sales strategy di EMC Italia (www.italy.emc.com). Il settore pubblico presenta un potenziale ancora più elevato, perché è relativamente arretrato nel viaggio verso la digitalizzazione, in particolare PA e sanità». Cristian Meloni, presales & ps manager di CommVault Italia (www.commvault.it), sostiene invece che «non esiste un’area di mercato o una tipologia di azienda, in cui la crescita delle informazioni da gestire sarà maggiore di altre: il concetto di Big Data deve prima di tutto essere calato all’interno di ogni settore d’industria, secondo le dimensioni dei dati stessi e degli strumenti IT utilizzati». Per Fabio Bucci, product research & development manager di i4C (www.i4canalytics.com) «i settori di mercato nei quali prevediamo la maggiore crescita nei prossimi anni sono quelli che trarranno maggiore beneficio dagli analytics applicati ai Big Data, in particolare il mondo assicurativo, quello energy&utility, quello dell’IT Management e l’area dei social media».
«I settori di mercato, che nei prossimi due o tre anni, registreranno la crescita maggiore saranno quelli dove la disponibilità di grandi volumi di informazioni analizzabili in tempi rapidi rappresenta un fattore critico» spiega Paolo Cattolico, IM marketing manager di HP EMEA (www.hp.com/it). Controbatte Gianluca Colombo, storage specialist di Dell Italia (www.dell.it): «L’impatto più significativo in termini di quantità e dimensione dei dati verrà dal campo del digital imaging. Area affine è la dematerializzazione, che sposta da cartaceo a digitale sempre più documenti e comunicazioni, poi c’è il fenomeno cloud e la BI». Secondo Dario Pardi, vice president EMEA e president di Hitachi Data Systems Italy (www.hds.com/it/) «la crescita esponenziale dei dati è un problema che vale per tutte le grandi e medie organizzazioni, dal mercato finanziario e bancario all’industria elettronica, passando per il settore pubblico e la sanità. Tutte le aziende si ritrovano a gestire enormi quantità di dati, che – se non governati in maniera efficiente e sicura – possono rallentare o paralizzare le attività di business».
«Big Data è un fenomeno che caratterizza l’esplosione dei dati digitali dal punto di vista della quantità, varietà e velocità con cui essi sono prodotti – spiega Luca Venturelli, direttore della divisione Server & Cloud di Microsoft Italia (www.microsoft.com/it-it/) – e anche la nostra stessa vita genera una quantità di dati che rappresentano un’opportunità per comprendere e modellare il mondo che ci circonda».
Per Giuseppe Basso, amministratore di Tecnosteel (www.tecnosteel.info) «si può prevedere che una delle aree di maggior crescita sia quella della pubblica amministrazione, che sta investendo molto nel settore IT. Ci sono già enti che hanno innescato un percorso, soprattutto nella sanità e amministrazione». Vincenzo Aloisio, responsabile analytics di Accenture (www.accenture.com/it), aggiunge: «Prevediamo un’adozione crescente nei settori della finanza e della produzione dell’energia nell’ambito dei processi di risk management. Inoltre, assisteremo a una crescita nel settore della finanza per la gestione delle frodi e nella sicurezza e nel monitoraggio del mercato finanziario (trade surveillance). In ambito marketing e conoscenza del consumatore, prevediamo un primo impatto degli analytics nel settore delle telecomunicazioni e a seguire nel settore finanziario e delle utility».
TREND E SOLUZIONI
Occorre pensare e implementare una strategia e un corretto mix di prodotti e servizi, capaci di soddisfare le esigenze degli utenti di oggi e di quelli futuri. Ma qual è la strada più corretta da seguire in base alle previsioni di mercato e quali sono gli strumenti proposti agli utenti? «Big Data è il vero “disruptive change” di questo decennio. In quanto tale, può rappresentare una grande opportunità per le aziende ma, se non gestito efficacemente, può avere impatti negativi, in termini di business» – come afferma Stefania Di Cristofaro, strategy & market development director di CSC Italia (www.csc.com/it). Non esiste una roadmap d’implementazione di Big Data efficace per tutte le aziende. CSC pone grande attenzione alla fase della Big Data Strategy, proponendo una soluzione consulenziale, finalizzata alla definizione di una strategia chiara e condivisa, in grado di garantire perfetto allineamento tra obiettivi di business, gestione dei dati e requisiti tecnologici. Tale percorso si conclude con un “proof of concept” per testare la bontà del modello scelto, garantendo il raggiungimento di un ROI elevato sia nel breve, sia nel lungo periodo». La risposta al problema (o opportunità) Big Data è il cloud, secondo Francesco Salvini, responsabile soluzioni cloud di TT Tecnosistemi (www.tecnosistemi.com): «Molte medie e grandi imprese, investite dalla proliferazione di mobile device e dalla consumerizzazione dell’IT, devono dotarsi di nuove tecnologie in grado di gestire i Big Data. TT Tecnosistemi, forte dell’esperienza maturata in 28 anni di attività nel settore ICT, ha investito in nuovi team di professionisti focalizzati sullo sviluppo applicativo e sull’erogazione di servizi cloud, che rappresentano una risposta ideale alle esigenze Big Data. L’azienda, “competence center” per le tecnologie storage di ultima generazione e cofondatrice di Assocloud – oltre che primo service provider nazionale di canale – offre soluzioni di tipo privato, ibrido o pubblico, proponendo l’implementazione del cloud in maniera graduale, secondo le necessità e le aspettative dell’interlocutore». Secondo Aloisio di Accenture «le tecnologie Big Data non solo permettono di gestire nuove tipologie di dati non strutturati e abilitare nuove capacità di analisi, ma offrono enormi vantaggi di flessibilità e minor costo per la gestione delle grandi quantità di dati – già oggi – gestite con tecnologie tradizionali. La riduzione del costo complessivo di gestione dei dati e la maggiore flessibilità offerta saranno un acceleratore importante nell’adozione di queste nuove tecnologie nei prossimi due anni». Perciò, Accenture ritiene che «la combinazione delle tecnologie Big Data e il paradigma cloud computing prospettano un futuro nel quale le aziende avranno la possibilità di beneficiare in modo flessibile di tipologie differenti e grandi quantità di informazioni, senza dover affrontare il problema della gestione dell’architettura tecnologica. Nell’immediato, la creazione di architetture ibride “Big Data” e tradizionali interne alle aziende con l’adozione di “Big Data Appliance” già preconfigurati e ottimizzati permetterà di ridistribuire i dati già gestiti per aumentare la tempestività e la flessibilità di accesso alle informazioni a un costo inferiore».
«Prevediamo due trend – continua Cattolico di HP – che riguardano la gestione dell’informazione interna ed esterna all’azienda. Per quella interna, l’interesse risiederà nella capacità di memorizzare l’intero capitale informativo e nel poter reperire le informazioni facilmente. I trend principali saranno quindi legati all’Enterprise Search, all’Automatic Classification, alla Compliance e all’analisi di informazioni audio-video. Per l’informazione esterna, l’interesse sarà invece nell’impiego della Rete come supporto decisionale, tramite un ampio processing di informazioni molto diversificate e quasi in tempo reale (siti Web, documenti online, social media…)». Non solo. «HP ha recentemente ottimizzato le sue soluzioni di Information Optimization, progettate per supportare le aziende, che vogliono capitalizzare l’esplosione di informazioni. HP dispone dell’offerta più completa, con tecnologie in grado di risolvere le criticità che i clienti affrontano con i Big Data, consentendo di gestire, comprendere e agire sul 100% dei dati, grazie alle nuove soluzioni HP Converged Infrastructure, alle tecnologie di Autonomy e Vertica – entrambe società HP – e ai servizi di Data Management di HP». Secondo Basso di Tecnosteel «stanno sorgendo nuovi data center che sfruttano le tecnologie più moderne nei settori del condizionamento, del monitoraggio e controllo costante, della sicurezza fisica e di mantenimento. Tecnosteel offre, col suo marchio Bladeshelter, tutti i prodotti sviluppati per i green data center. Le soluzioni Bladeshelter si diversificano soprattutto per la maggiore sicurezza, fornendo la protezione dei dati e l’operatività continua di tutta la struttura informatica aziendale, garantiscono un elevato risparmio energetico grazie a soluzioni innovative. L’infrastruttura scalabile e l’alta modularità facilitano un’ottimizzazione degli spazi destinati all’IT, permettendo soluzioni su misura e integrabili, dal design elegante, tipicamente made in Italy».
«Il problema cui rispondiamo noi di i4C non è solo quello di raccogliere e gestire i Big Data – è il commento di Bucci – ma soprattutto quello di poterli analizzare con gli advanced analytics, per ottenere le importanti informazioni di business che nascondono. Per farlo, i4C offre un approccio software alla gestione dei Big Data che sfrutta lo storage su hardware distribuito. Grazie alle nostre Advanced Analytic Applications (AAA) è possibile definire oggetti di business su basi di dati distribuite e NoSQL, sfruttando il connettore per Hadoop. I nostri analitici utilizzano modelli distribuiti MapReduce per rendere efficienti analisi su moli di dati altrimenti non utilizzabili».
Colombo di Dell spiega che «lo scenario di forte crescita dei Big Data suggerisce un’attenta pianificazione delle strategie aziendali. La crescita annuale della quantità di dati in gioco è ormai così grande che sbagliare una valutazione può causare pesanti ripercussioni sui bilanci aziendali. Il comparto Big Data crescerà e avrà bisogno di essere ben governato». Questa visione si traduce in un’offerta estesa: «La nostra offerta è strutturata per coprire tutte le necessità dei data center, con server, storage, network, servizi professionali, sicurezza e da sempre pc. Nello storage abbiamo soluzioni come Compellent, EqualLogic, DR4000, DX6000 che costituiscono i mattoni della “fluid data architecture”. Per i server, la serie 12G è stata ingegnerizzata e costruita per abilitare la flessibilità e la virtualizzazione. In ambito networking, gli apparati Force10 consentono di sfruttare al massimo le potenzialità delle interconnessioni garantendo scalabilità e performance».
Secondo Meloni di CommVault «il livello delle informazioni aumenterà dell’80% anno su anno, ci sarà un sensibile incremento della gestione di dati non strutturati, provenienti da desktop e laptop, file audio e video, immagini, database, social media e altre tipologie di dati importanti per le aziende, ma frequentemente gestiti in silos». Per questo: «La suite software Simpana di CommVault offre una strategia di gestione dei dati unificata, che racchiude tutte le operazioni di copia degli stessi in un’unica soluzione in grado di movimentare, indicizzare e conservare i dati in un repository intelligente e virtuale, che offre una base scalabile ed efficiente per e-Discovery, data mining e conservazione. Ciò permette di realizzare la reportistica e l’analisi dei dati partendo dagli indici, in modo da classificarli e implementare policy di archiviazione per il loro tiering, abbassando così il costo dei media e di conseguenza anche il TCO». Aggiunge Bruno di Dedagroup: «Il diluvio di dati – come scriveva The Economist qualche mese fa – è oggi. Il problema di sfruttare le informazioni ai fini del business è vecchio quasi quanto l’ICT, ma oggi abbiamo le tecnologie che ci permettono di affrontare il diluvio e di trarre vantaggio competitivo dalle informazioni in nostro possesso. Il problema dei Big Data sta nel fatto che le informazioni importanti sono tante e sono annegate in un’enorme quantità di dati non rilevanti. Le soluzioni devono aiutare il cliente a identificare le informazioni critiche e a maneggiarle con la massima velocità e precisione. Quindi, business analytics e data warehouse sono le soluzioni principali per questo scopo».
Secondo Suria di EMC «il compito dell’IT sarà quello di rendere i Big Data accessibili in tempo reale a un numero sempre maggiore di utenti e di facilitarne l’utilizzo nelle applicazioni. È quindi necessaria una trasformazione organizzativa e a livello di competenze, che le aziende dovranno intraprendere per poter sfruttare le potenzialità dei Big Data. Le soluzioni che offriamo coprono l’intero ciclo di vita del dato, dalla sua conservazione (storage, backup e archiviazione, core della nostra offerta), passando dalla messa in sicurezza (soluzioni RSA), fino ad arrivare al content management (prodotti della divisione IIG) e alla business analytics (con Greenplum). Quest’ultima soluzione, indicata come la più avanzata nel Magic Quadrant di Gartner sull’offerta Data Warehouse DBMS, consente di rendere accessibili in tempo reale all’interno dell’azienda grandi moli di dati, nell’ordine dei petabyte, strutturati e non strutturati. Offriamo poi servizi di consulenza per supportare i nostri clienti nel definire la loro strategia di gestione e utilizzo dei dati».
Secondo i dati di una recente ricerca di Hitachi Data Systems, commissionata a IDC, la maggiore preoccupazione dei cio è il rapido incremento dei dati. Per Pardi di HDS, «una delle parole d’ordine per il futuro sarà ottimizzazione delle finanze e dei dati. Inoltre, i Big Data, se correttamente gestiti, possono creare un reale valore aggiunto per le aziende, sia in termini economici, sia organizzativi. Le nostre soluzioni File and Content sono utili alla gestione dei contenuti e al cloud storage. Si tratta di HNAS e HCP (Hitachi NAS Platform e Content Platform) che, integrati tra loro, consentono di creare ambienti cloud che ottimizzano e garantiscono l’allocazione automatica dei dati degli utenti. Senza dimenticare la famiglia di prodotti Hitachi Unified Storage (HUS) che consente di avere su un’unica piattaforma sia dati di tipo “blocco”, sia l’accesso ai file della Rete, e anche la gestione degli oggetti (metadati dei file). Queste soluzioni permettono di fare sinergia, di risparmiare sui costi di gestione – grazie a una console unica – e al tempo stesso di ottimizzare lo spazio utilizzato e crescere in termini di dimensioni dei dati secondo le necessità».
Venturelli di Microsoft aggiunge: «Anche le aziende medie e piccole stanno adottando strumenti di vendita e marketing digitale. Grazie alla continua riduzione dei costi dello storage, alla capacità computazionale e al riconoscimento del valore intrinseco di questi dati, le organizzazioni iniziano a sentire l’esigenza di ottenere informazioni da ogni bit di dato a cui hanno accesso con modalità scalabili ed economiche». È per questo che Microsoft ha sviluppato una strategia Big Data, che si concretizza in tre passaggi principali: «Primo. Adottare e rendere la tecnologia Hadoop accessibile alla più ampia platea possibile di professionisti IT e sviluppatori, semplificando l’acquisizione, il deploy e la configurazione e riducendo il tempo necessario per mettere in produzione cluster Hadoop. Secondo. Rendere Hadoop enterprise-ready abilitando il trasferimento di dati tra Hadoop e SQL Server e rendendo disponibile una distribuzione di Hadoop integrabile con le infrastrutture esistenti su Windows e nel cloud Windows Azure. Terzo. Abilitare tutti gli utenti a ottenere informazioni dai Big Data velocemente e ovunque, grazie all’integrazione con gli strumenti Microsoft per la BI».
«La tecnologia è lo strumento con cui le aziende oggi fanno business» – conclude Gentile di Fujitsu. «Il manager ha bisogno di strumenti che gli permettano di prendere decisioni immediate, riducendo al minimo il tempo di estrazione del dato e la presentazione sul cruscotto, grazie ad applicazioni che viaggiano in memoria (in-memory computing)». Per le soluzioni, «la visione di Fujitsu si declina su due livelli distinti: gestione, archiviazione e protezione del dato e sua accelerazione e gestione in contesti real time aziendali o nel campo del calcolo scientifico. Nel primo livello, proponiamo il sistema storage ETERNUS CS800, che mette a disposizione, a costi accessibili, le funzionalità di deduplicazione dei dati. Nel secondo, in partnership con SAP, offriamo le soluzioni SAP BWA e SAP HANA che permettono di realizzare l’analisi dei dati real time, campo in cui Fujitsu si posiziona come assoluto innovatore. Per il calcolo scientifico, invece, Fujitsu propone sia il supercomputer PRIMEHPC FX10, in grado di scalare fino a 23,2 petaflop, sia il server multi-nodo PRIMERGY CX400, una tecnologia che necessita di metà spazio rispetto a un sistema rack standard, offrendo un accesso conveniente ed efficiente in termini energetici e capacità di scale-out intelligenti per deployment come cloud privati, High Performance Computing (HPC) e virtualizzazione su vasta scala».
IN CONCLUSIONE
Quello dei Big Data è un settore che, come abbiamo visto, rappresenta una delle poche aree in crescita vigorosa del mercato IT e, pertanto, deve essere tenuto costantemente sotto osservazione ed essere inserito di diritto nelle strategie di tutte le aziende. Tuttavia, le strade per approcciarlo possono essere diverse e legate a vendor e approcci differenti, dalle tradizionali soluzioni on-premise, standard o open source, al cloud computing. Tutto questo tenendo presente che, parafrasando Aloisio di Accenture: «L’integrazione e la valorizzazione dei dati esige la creazione di modelli di governance e processi dedicati. Le aziende che si muoveranno più rapidamente in questa direzione avranno maggiori possibilità di successo sul mercato, preparandosi nel contempo ad affrontare le evoluzioni future e i modelli innovativi di gestione delle informazioni che si prospettano».