IBM, pensare big con gli analytics

Il percorso di Big Blue verso le nuove frontiere dei big data, che presuppongono sempre più l’uso degli analytics e dei diversi strumenti a corollario come l’ECM, la BI e il forecasting. Dal più grande evento sugli advanced analytics a livello mondiale, un messaggio chiaro: «Senza analytics, i big data sono solo una massa di dati»

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Robert LeBlanc senior vice president of middleware software di IBMLas Vegas – Quando i big data sposano gli analytics, orchestrati da IBM (www.ibm.it), i risultati non mancano. Questo in sintesi il senso dell’edizione 2013 di Information on Demand, la user conference dedicata a tutto ciò che ruota intorno alla gestione e all’analisi dei dati, svoltasi a Las Vegas da 3 al 7 novembre. La kermesse, targata “Think big, deliver big, win big”, ha visto la presenza di oltre 11mila partecipanti, contenuti a stento nell’Event Center del Mandalay Bay durante gli eventi clou. Nel faraonico keynote di apertura, Robert J. LeBlanc, senior vice president of middleware software di IBM, non ha mancato di far notare un aspetto significativo: «Il 35% delle persone presenti oggi partecipano a questo evento per la prima volta, e anche questo è un segno di come i big data stiano trasformando tutti i paradigmi cui eravamo abituati».

 

Il valore dei Big Data

La chiave di questa trasformazione consiste nel trarre valore dai dati, che sono sempre più «come il petrolio greggio», come ha ricordato durante l’evento di apertura Jake Porway, data scientist piuttosto noto negli Stati Uniti. Come per il petrolio, anche i dati devono essere “raffinati”, cioè analizzati. Un messaggio quindi chiarissimo: «Senza analytics, i big data rimangono solo una massa di dati». E LeBlanc ha aggiunto: «I dati non vanno combattuti, ma abbracciati ed esaminati approfonditamente. È tutta una questione di insight. Non a caso, in una recente ricerca, il 75% delle aziende in crescita ha citato il valore derivante dagli analytics come un fattore chiave per il business». Non solo. Durante il keynote, è stato sottolineato che la città di New York ha da poco nominato il chief analytical officer e che molte altre aziende e organizzazioni stanno cominciando a creare la posizione di chief data officer, in un preciso segnale di come la trasformazione indotta dai big data sia ormai inarrestabile e richieda una vera e propria strategia al fine di trarne i massimi vantaggi. L’idea di fondo è che si stia andando verso una nuova era dell’IT, caratterizzata da sistemi in grado di imparare, ragionare, predire e migliorare il processo decisionale grazie all’analisi dei big data.

Leggi anche:  AI generativa e sviluppo Java, guida pratica ai concetti fondamentali

Novità a tutto campo

Ma quali sono gli strumenti ideali per analizzare i big data? La piattaforma di information management di IBM non teme confronti sul mercato, come ha sottolineato con il consueto entusiasmo Steve Mills, senior vice president and group executive software e systems della società, ma «l’evoluzione continua inarrestabile, anche perché noi non abbiamo mai creduto nell’approccio “one size fits all”, cioè nell’applicare una soluzione a tutti i tipi di esigenze, e proprio per questo continuiamo a far crescere il nostro portfolio, sia organicamente con la nostra ricerca e sviluppo sia tramite acquisizioni». E in effetti, gli annunci non hanno deluso i partecipanti all’evento. A iniziare da IBM SmartCloud Analytics-Predictive Insights, un software con capacità di analisi predittiva progettato per permettere di gestire i flussi di dati in maniera automatica: basata sull’infrastruttura SoftLayer, acquisita da IBM nello scorso luglio e sempre più gettonata come base dell’intera offerta cloud della società, la soluzione analizza in tempo reale numerosi terabyte di dati relativi alle operazioni IT, individuando subito quelli che possono determinare problemi nelle performance di rete. Inoltre, la nuova versione di IBM SmartCloud Virtual Storage Center applica allo storage gli analytics e l’apprendimento, per automatizzare le decisioni di storage tiering complesse, quali quelle relative al cloud storage e ai pattern di utilizzo, in modo da adeguare automaticamente le policy. Altre novità hanno riguardato il portfolio BLU Acceleration con nuove tecnologie in-memory, e la gamma InfoSphere, con Data Privacy for Hadoop che aggiunge nuove funzioni di livello enterprise. Infine, IBM ha annunciato il lancio nel 2014 di Watson Developers Cloud, una piattaforma di sviluppo nel cloud per creare app dotate dell’intelligenza di Watson, il supercomputer targato Big Blue che si è segnalato per le sue potentissime capacità di cognitive computing.

Leggi anche:  Analisi pre-progetto, i successi iniziano sempre con un perché

Uno sguardo all’Italia

L’utilizzo di big data e analytics per il business è un tema caldo anche sul nostro mercato, come ha confermato in una conversazione con Data Manager, Raffaele Bella, responsabile dei brand di Information Management e WebSphere di IBM Italia, spiegando come molti clienti ne abbiano perfettamente compreso l’utilità strategica, «visto che l’analisi dei big data va a incidere direttamente su quello che è il loro asset chiave, cioè i dati stessi, permettendo di trarne sempre maggiore valore di business e di realizzare modalità operative sempre più efficienti». All’evento di Las Vegas erano anche presenti alcuni clienti italiani di Big Blue, che hanno presentato interessanti esperienze: è il caso, tra gli altri, di Acea e di Edison. Il primo, gestore delle utilities di Roma, ha realizzato un progetto di “smart grid” basato sulla soluzione Infostream di IBM, che permette di comprendere in tempo reale tutto ciò che avviene sulla rete. Il fornitore di energia Edison ha invece presentato un progetto realizzato con l’integrazione tra IBM DB2 e SAP con cui notoriamente Big Blue ha una partnership stretta e grazie al quale ha ottenuto notevoli vantaggi in termini anche di risparmi nei costi.