Se il big data non basta. Serve velocità “smart”

Sandro Frigerio, ObserverL’in-memory computing, con il trasferimento di grandi quantità di informazioni dai dischi alla memoria RAM, permette di aumentare di centinaia se non migliaia di volte, la velocità di elaborazione di enormi quantitativi di informazioni. Chi lo usa, perché e dove va il mercato?


TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’estinzione dei dinosauri sarebbe avvenuta per la caduta di un meteorite. Secondo altre ipotesi, la causa sarebbe nelle dimensioni di questi lucertoloni troppo lenti nel reagire agli impulsi dell’ambiente. Così, la società dei petabyte potrebbe schiantarsi sotto una quantità di informazioni eccessive per i metodi di elaborazione tradizionali. E’ anche per questo che – a quasi 60 anni dal primo hard disk – uno dei temi caldi sta divenendo l’in-memory computing (IMC): lo spostamento di parti degli archivi dai dischi alla memoria degli host. Un sogno da lungo tempo cullato, che oggi diviene realtà grazie alla riduzione, dell’ordine del 35% l’anno, del costo delle RAM e della diffusione di nuove tecnologie come le memorie flash. Il salto è nella possibilità di coniugare volumi e velocità. Non solo per fare le cose prima, ma anche per fare quelle che altrimenti non sarebbero possibili. La Ferrero di Alba, la multinazionale dolciaria più nota nel mondo, ha avviato un sistema finalizzato al calcolo dei costi e della redditività dei prodotti per ogni singola confezione di Nutella o di Kinder. Immaginate che cosa può voler dire valutare insieme costi di produzione, di confezionamento, spedizione, margini dei distributori, rotazione del magazzino e del negozio, prezzi. «Applicazioni come queste – o come quelle di grandi organizzazioni mondiali di pagamento che comparano i comportamenti dei clienti per scoprire frodi e furti d’identità – coinvolgono centinaia di milioni di informazioni. L’adozione di tecniche come l’in-memory computing vuol dire passare dalle ore o giorni di elaborazione ai secondi e poter fare non solo calcoli ex-post, ma anche previsioni e simulazioni» – dice Massimo Pezzini, vicepresidente e specialista di Gartner per queste tecnologie. Che la tecnologia sia “hot” non c’è dubbio. Gartner traccia ormai una cinquantina di aziende che forniscono soluzioni orientate all’IMC, dai big vendor di sistemi, ai produttori di supercalcolatori come Cray che ha creato lo spin-out “YarcData” (leggetelo alla rovescia) e soluzioni come Urika per scoprire “l’imprevisto, lo sconosciuto, l’inatteso”. Il lancio due anni fa da parte di SAP della architettura HANA ha acceso le polveri anche se, avverte Pezzini – reduce da un workshop organizzato da Gartner a Londra a metà maggio – SAP sta ri-orientando la sua offerta attorno al modello IMC e questo, nelle sue articolazioni nel giro di un paio d’anni sarà uno scenario abbracciato dal 35% delle imprese medie e grandi, e non solo dagli utenti più sofisticati.

Leggi anche:  Breve storia dell’ingegneria dei dati. Linguaggi di programmazione e terreni minati

L’intelligenza dei dati – Accanto ai dati che riempiono i data base gestionali, nuovi tipi di informazioni accrescono la domanda di velocità nei repository aziendali: la web analytics e la gestione documentale. «L’esplosione del big data è associata alla crescita continua dell’informazione non strutturata – dice Danilo Piatti, country manager di Autonomy, in HP Software. Nel panorama di HP, la pur discussa acquisizione di Autonomy ha voluto dire l’apertura di una prateria sconfinata come quella delle nuove tecnologie di dati, basate – spiega Piatti – non più su strutture tabellari, tipiche dei data base relazionali, ma di tipo “index based”. Senza mettere in secondo piano le applicazioni transazionali più “legacy”. A gennaio, HP – che propone configurazioni basate sulla piattaforma server ProLiant – ha annunciato l’apertura di un nuovo centro d’eccellenza per l’IMC, che come primo compito si pone lo sviluppo di applicazioni SAP / HANA e SAP Business Suite, per dare supporto a 40mila clienti potenziali in 60 paesi. Il primo obiettivo è il progetto Kraken, una piattaforma di sviluppo da 8 / 12 terabyte – che corrispondono ai valori limite delle applicazioni di uso pratico oggi in corso di sviluppo, anche se si stanno sperimentando configurazioni anche dieci volte o venti superiori – con una singola immagine, ottimizzata per le applicazioni ERP e CRM di SAP (al SAPPHIRE Now, a maggio, è stato presentato un prototipo con 16 CPU Intel Xeon E7 e 12 TB di memoria).

«Nel settore – dice Pezzini di Gartner – si sta pensando anche a sistemi da 512 TB, ma naturalmente si dovrà fare i conti con i costi e le prestazioni: le memorie Nand flash, per esempio, sono più economiche delle DRAM, ma pur essendo dieci volte più veloci dei dischi, sono dieci volte più lente delle prime». Uno dei problemi resta quello di dare un significato alle informazioni raccolte. Con le acquisizioni di Autonomy e di Vertica (software per l’analytic database management: una piattaforma per la gestione di grandi data warehouse), HP ha fatto rotta per il big data prevedendo investimenti software e marketing stimati per il 2013 in un miliardo di dollari, per l’80% proprio per le due divisioni. «Collezionare enormi quantitativi di dati non è un problema. Il problema è filtrarli in modo utile» – spiega il leader italiano di Autonomy. «Raccogliere da Twitter le citazioni di chi parla di McDonald’s non è difficile. Ma il punto è eliminare le citazioni del tipo “vicino al McDonald’s gira a sinistra”. E per fare questo occorrono software sofisticati. Probabilmente con i dati di Twitter non cambia il profilo di un’azienda, ma l’analisi in tempo reale in un’applicazione CRM basata sull’in-memory può fare la differenza e l’interesse con cui sempre più aziende ci chiedono progetti e valutazioni, in settori assai diversi tra di loro, ne è la conferma». Anche IBM sta dando sostanza all’offerta in-memory, con un approccio a tutto campo, dalle configurazioni specifiche di server ottimizzati per l’IMC, alle soluzioni per data base fino alla previsione di sviluppo di servizi sul cloud, secondo il modello stesso di SAP per HANA. «Stiamo lavorando su progetti di sistemi a grande capacità, dell’ordine dei 100 terabyte di memoria, ma nelle applicazioni di mercato, già i 2-4 tera sono una capacità significativa. Gli 8 terabyte sono una quantità di memoria oggi di tutto rispetto, ma l’aspetto interessante è proprio la disponibilità di un’architettura che offre una rilevante scalabilità» – spiega Alessandro De Bartolo, technical sales manager System & Blade Center a livello europeo di IBM. L’offerta server ruota attorno ai modelli di punta basati sulle CPU Intel Xeon E7 e che, con la serie eX5 arrivano fino a otto processori. Scalabilità di CPU, core, memoria, «ma anche una nuova architettura di gestione dei file» – avverte De Bartolo – sono parte di questa filosofia che permette di arrivare su un sistema x3950 e che può arrivare a 8 CPU e 4 terabyte di memoria RAM e la memoria complessiva può ancora crescere con moduli Nand flash. C’è anche un altro scenario in IBM: l’introduzione delle memoria flash, anche nelle unità a disco. IBM non è stata tra i primi produttori di storage (in questo è stata preceduta da EMC e Hitachi) ad adottare le memorie a semiconduttore, ma con l’acquisizione di Texas Memory System, l’azienda di Armonk ha fatto un sostanziale passo in avanti. Ad aprile, sono arrivati i primi modelli basati sulla tecnologia TMS e nel corso dell’anno è prevista un’espansione della gamma con diverse opzioni tecnologiche, di prezzo e prestazione.

Leggi anche:  Il potenziale del data marketplace. Come governare la condivisione dei dati

«Per molti utenti, l’introduzione di queste tecnologie a livello di data center rappresenta una soluzione comparativamente più economica per il big data rispetto all’in-memory computing, evitando anche i problemi di modifica delle strutture dei data base, poiché i dati in questo caso sono trattati come sulle unità disco convenzionali» – dice Sergio Resch, leader high end storage di IBM Italia. La scommessa dell’in-memory è solo all’inizio, l’interesse con cui altre aziende ancora, come Oracle, EMC, Cisco, Dell, stanno guardando in questa direzione è segnale della portata del cambiamento. Le soluzioni e appliance che i fornitori stanno introducendo per minimizzare l’impatto delle modifiche da parte dell’utente saranno una carta in più per accelerarne l’adozione. Ormai, non si tratta più di un “nice to have”, ma di qualcosa che i CIO aziendali devono almeno inquadrare nel loro periscopio.