Storage. Nuove sfide e nuove soluzioni

Software defined e flash: sono queste le due tendenze chiave del mercato storage, che è sempre più una componente chiave delle infrastrutture IT aziendali, ma che assume nuovi ruoli proprio in ragione dei nuovi paradigmi che ne hanno ampliato il campo di azione

Il fenomeno è ormai noto: esplosione dei dati, strutturati e non strutturati, e corrispondente crescita esponenziale dei volumi di dati da archiviare e soprattutto da gestire. Anche le ragioni di questo fenomeno sono note: proliferazione di dispositivi mobili che generano contenuti sempre nuovi, crescenti esigenze dettate dalla compliance normativa, ovvero backup con requisiti stringenti e metodi di archiviazione sicura, e anche la notevole affermazione dei paradigmi business analytics e big data. Questi sono solo alcuni dei fattori che stanno determinando un mutamento di pelle dello storage, i cui compiti nell’ambito delle infrastrutture di data center sono molto più strategici che nel recente passato. Le risposte dei vendor alle nuove esigenze dettate dall’evoluzione dello scenario sono molteplici, come è giusto che sia in un settore per definizione dinamico come quello IT. Su tutti i nuovi paradigmi che si stanno prepotentemente affermando sul mercato, spicca il software defined storage, cui fa da contraltare la crescente affermazione del flash storage, così come l’affacciarsi deciso dei sistemi convergenti, che suscitano sempre più interesse. Queste spinte innovative vanno a incidere su uno scenario già fortemente influenzato sia dall’esplosione della quantità di dati sia dalla virtualizzazione e dal cloud, con il loro corollario di nuove modalità di fruizione dello storage anche come servizio.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’era dello storage definito dal software

«Nell’era della terza piattaforma, lo storage è sottoposto a numerose sfide che per uno storage di tipo legacy sono difficili da indirizzare in termini di scalabilità, performance, agilità e facilità di utilizzo, soprattutto anche tenendo in considerazione budget sempre più ristretti» – spiega a Data Manager Sergio Patano, IT research & consulting manager di IDC Italia. «Le aziende stanno sempre più adottando una strategia “virtual first” per il deployment di nuove applicazioni su piattaforme virtuali. Ciò è parte integrante della strategia di software defined data center che include la virtualizzazione di server, network e storage. La continua crescita di macchine virtuali, unita all’esplosione dei dati e alla necessità di flessibilità e agilità rende quindi imprescindibile l’adozione di una strategia di software-defined storage (SDS), per traghettare le aziende nel disegno e nella gestione di un data center in grado di supportare le continue esigenze legate al deployment delle soluzioni della terza piattaforma e a un migliore allineamento con le effettive esigenze di business».

Del resto, i vantaggi riguardano molteplici aspetti. «Il SDS – prosegue Patano – consente di portare i servizi di classe enterprise, quali snapshot, clone, storage tiering, data reduction, encryption e replication, su uno o più pool di risorse storage differenti ed eterogenee, che cioè possono essere di tipologie differenti (flash, hard disk tradizionali, cloud) e di vendor differenti, trattandole come se fossero un’unica risorsa, in quanto definita logicamente e slegata dall’hardware». Questo consente alle aziende di incrementare su larga scala l’efficienza dello storage, migliorandone disponibilità, scalabilità e requisiti di resilienza. In aggiunta, il SDS consente un migliore scale-up e scale-down delle risorse storage e permette di implementare – e quindi di far coesistere – generazioni differenti di architetture storage. Anche la costante migrazione tra data center proprietari da e verso il cloud pubblico è facilitata dall’adozione del SDS e consente un migliore e più rapido refresh tecnologico, rendendolo praticamente trasparente all’applicazione».

Scenario di mercato

Non è una sorpresa che le previsioni di mercato confermino l’ottimo momento del software defined storage. Infatti, secondo IDC, la spesa per queste piattaforme, che nel 2014 ha raggiunto un totale mondiale di 391 milioni di euro, di cui otto milioni in Italia, avrà una crescita notevole da qui al 2018, con un CAGR del 17,3% a livello mondiale e un più modesto, ma sempre robusto dati i tempi, 5,4% in Italia. Per quanto invece riguarda il mercato storage nel suo complesso, è sempre IDC, nel suo Worldwide Quarterly Disk Storage Systems Forecast del Q3 2014, a fotografare le grandezze in gioco: la spesa per l’hardware storage ha raggiunto nel 2014 un totale mondiale di 28.984 milioni di euro, in crescita dell’1,4% rispetto al 2013, mentre quest’anno la crescita dovrebbe essere del 7,2%, sempre a livello mondiale. Per l’Italia, a fronte di una spesa hardware di 364 milioni di euro, la crescita nel 2014 è stata un solido 7,7%, ma la previsione è che quest’anno vi sia una lieve contrazione, pari al 3,4%. Passando infine a esaminare i dati di mercato del software per storage, il Worldwide Software Tracker di IDC del primo semestre 2014 indica una spesa totale mondiale 2014 di 11.542 milioni di euro, con una crescita del 2,5% rispetto al 2013 e una previsione di incremento del 6% per quest’anno. Per il mercato italiano del software storage, i valori parlano di una spesa di 195 milioni di euro, con una crescita del 2,6% rispetto al 2013 e una previsione dell’1,7% per il 2015.

Efficienza e performance

Dario Regazzoni, pre-sales manager di EMC Italia, conferma la supremazia del paradigma SDS: «Stiamo entrando in un’era in cui lo storage sarà software-defined, focalizzato sulla tecnologia flash, automatizzato e semplice da gestire. Tutto questo aprirà significative opportunità per le aziende e permetterà il passaggio dell’IT da esigenza di business a funzione strategica. Stiamo assistendo a un’enorme accelerazione dell’interesse delle aziende verso la tecnologia flash sia da parte di chi ha bisogno di supporto per i carichi di lavoro di nuova generazione sia da parte di coloro che sono alle prese con la sfida di accrescere le performance e l’efficienza contro un diluvio di dati in aumento». Anche perché – prosegue Regazzoni – «negli ultimi decenni abbiamo visto crescere in modo esponenziale le performance delle tecnologie che utilizziamo tutti i giorni – nell’ambito professionale e personale – ma le limitazioni “meccaniche” degli hard disk hanno impedito alle prestazioni di archiviazione di avanzare alla stessa velocità, creando un divario crescente tra prestazioni di elaborazione, rete e storage. Ed è in questo contesto che si è inserita la tecnologia flash, non solo migliorando notevolmente i tempi di risposta delle applicazioni, ma anche permettendo alle applicazioni di scalare livelli straordinari di utilizzo dei dati e offrendo l’accesso ai dati senza precedenti». Non è quindi per caso se «siamo convinti che la memoria flash rappresenti una tecnologia particolarmente rivoluzionaria, oltre che un’incredibile opportunità di mercato nel segmento storage». Vi è infatti una continua richiesta di performance dettata dai workload dei data center di nuova generazione, in ambienti fisici e virtuali. «La strategia di EMC – spiega Regazzoni – intende fare sempre più leva sulla tecnologia flash trasversalmente all’infrastruttura storage, proponendo un’offerta in grado di garantire maggiore scelta per i clienti, insieme a elevate performance, scalabilità e integrazione».

Prospettive di crescita

Allarga il discorso Roberto Patano, senior manager systems engineering di NetApp Italia, facendo notare che «il comparto IT italiano sembra trarre beneficio da alcune delle dinamiche che lo stanno attraversando e che daranno nuova linfa agli investimenti. Secondo Assinform, anche se complessivamente vi è una contrazione, si osservano alcune aree di grande vitalità. Nello specifico, per esempio il cloud, mostra un interessante +35,7%. Per quanto riguarda le tecnologie storage, i grandi trend trasversali del mondo IT restano cloud ibrido, big data e software defined data center, ma osserviamo anche l’accelerazione dell’adozione dello storage in cluster, la crescita dell’object storage grazie all’Internet of Things e alle applicazioni che utilizzano grandi quantità di data objects. Infine, si nota un impiego sempre più massiccio anche in modalità ibrida della tecnologia flash». Ribadendo che «NetApp fornisce soluzioni in grado di affrontare tutti questi trend, dando al business le risposte giuste in termini di efficienza, performance e saving, lasciando al cliente la massima scelta nel configurare il modello di cloud (pubblico, privato o ibrido) – Roberto Patano – cita l’esempio recente del Comune di Verona, «che ha rinnovato la propria infrastruttura storage per migliorare la disponibilità dei servizi, la condivisione efficiente delle informazioni e il controllo semplificato degli spazi disco. Attraverso un’architettura basata sulle soluzioni NetApp, il Comune di Verona può gestire in maniera semplificata e a costi contenuti lo storage, condividere con efficienza le risorse e limitare l’uso incontrollato dello spazio».

Cambiamenti in corso

Giacomo Mosca, server & storage sales specialist dell’Enterprise Business Group di Lenovo, rileva che «oggi, il paradigma più evidente a cui assistiamo è la convergenza tra le classiche appliance di storage e le nuove soluzioni software-defined». Ci sono aziende che hanno investito in maniera anche considerevole in infrastrutture di storage, ma ce ne sono anche altre che hanno puntato su sistemi computazionali, quali i server. L’esigenza è quindi quella di ottimizzare l’investimento del passato e decidere come ottimizzare il budget relativo allo storage nel prossimo triennio. «Siamo convinti – spiega Mosca – che in questo lasso di tempo si concluderà, o meglio si evidenzierà maggiormente, il processo di ridistribuzione della gestione dello storage tra sistemi hardware appliance ‘puri’ e sistemi software-defined. Non pensiamo però che una delle due alternative sarà vincente rispetto all’altra, ma che si assisterà allo sviluppo di sistemi ibridi. Già nel breve periodo, le aziende dovranno gestire l’esplosione dei dati e quindi valutare la necessità legata allo storage e alle prestazioni che questo richiederà. È facilmente intuibile che, seguendo la strada del software-defined, le aziende potranno andare a sfruttare i dischi interni dei server esistenti, dotati di capacità di storage interna espandibile e con alti livelli di connettività, proprio perché senza l’appliance, l’utente deve trovare le prestazioni all’interno della propria macchina».

Resiste l’appliance

Passando a enucleare qualche esempio tecnologico, Mosca cita il fatto che «Lenovo ha dato la propria risposta con la linea ThinkServer recentemente annunciata, basata su piattaforma Intel Grantley, che garantisce maggiore spazio su disco ed elevata flessibilità: con i modelli ThinkServer RD550 e RD650, server rack ingegnerizzati al fine di offrire il massimo di performance ed espandibilità in spazi ridotti». Secondo Mosca, resta il fatto che l’appliance di storage non andrà comunque a scomparire, ma si adatterà e interesserà ambiti specifici, ad esempio quello delle SAN (Storage Area Network). «Come Lenovo abbiamo poi reso disponibile per le piccole e medie imprese lo Storage Array Lenovo EMC VNX5150, una soluzione SAN che offre un valore eccezionale a un prezzo conveniente, e che risponde alle esigenze pressanti e ai carichi di lavoro spesso imprevedibili delle medie imprese». Ed è da notare che «i nuovi sistemi software-defined riusciranno a ibridare questi due filoni, per cui già oggi esistono architetture storage che possono comprendere e tenere insieme in modo omogeneo sia appliance SAN tradizionali sia dischi interni al server» – sottolinea Mosca.

Leggi anche:  Akamai implementa l'infrastruttura e i servizi cloud con tecnologia NVIDIA ottimizzata per l'elaborazione video

Le soluzioni cloud

Passando invece all’area cloud, uno dei fenomeni che sta suscitando interesse all’interno delle aziende italiane è sicuramente il private cloud, che mira a mantenere in azienda alcuni dati essenziali. «Nel proporre soluzioni cloud – spiega Giacomo Mosca – notiamo che le aziende vedono ancora come un valore la possibilità di conservare alcuni dati fisicamente al proprio interno, quindi in questo ambito trovano spazio sia i sistemi di private sia quelli di public cloud. In tema di private cloud, uno dei punti di connessione con lo storage sarà la sua gestione all’interno dell’azienda e dell’offerta software-defined, ideale come abbiamo visto per questioni di flessibilità e di “cooperazione”. Uno dei punti centrali rimane il budget disponibile. Insieme alla tecnologia è quello che spesso detterà la scelta della soluzione da adottare. Se un’azienda ha da poco acquistato un server, probabilmente valuterà l’espansione dello storage interno con una gestione software-defined. Lenovo con i propri NAS della linea PX consente una gestione storage di livello enterprise, pur con budget ridotti».

La sicurezza nello storage

Infine, Gastone Nencini, country manager di Trend Micro Italia, sottolinea che «alcune previsioni affermano che la prossima generazione di data center altamente virtualizzati sarà data-centrica, non calcolo-centrica. Gli storage manager dovranno quindi occuparsi della creazione di un’architettura capace di minimizzare, se non azzerare, lo spostamento dei dati tra le applicazioni. Ma, a parte la definizione dei criteri di analisi che consentono di elaborare velocemente i dati per metterli a disposizione quando servono e ogni volta che servono, sarà davvero importante continuare a concentrarsi sulla sicurezza dei dati che si archiviano. Questo perché la minaccia più concreta oggi è la minaccia al dato. Ovviamente, più siamo connessi più aumentano i rischi e le violazioni e i furti di dati sono destinati a diventare sempre più frequenti».

Leggi anche:  Microsoft presenta il futuro: innovazioni tra AI e design

Guardare al cloud

Del resto, al giorno d’oggi, considerato che la maggior parte delle aziende ha affidato i propri dati agli ambienti cloud, la sicurezza deve essere considerata ancor di più un punto fondamentale. È anche per questo che, «per garantire dati sicuri e sempre sotto controllo, vengono in aiuto soluzioni di crittografia come per esempio Trend Micro SecureCloud, che permette una protezione multilivello dei dati residenti all’interno di cloud pubblici, privati o ibridi» – spiega Gastone Nencini. «Trend Micro ha deciso di adottare un approccio che permette agli IT manager di mantenere inalterato il livello di autorità sulle informazioni aziendali senza dover installare infrastrutture di protezione più complesse e articolate. In particolare, con SecureCloud, Trend Micro ha coniugato in unico tool le funzioni per la gestione delle chiavi basate su policy, tecniche crittografiche standard e autenticazione dei virtual server per gestire in totale sicurezza i dati all’interno di contesti cloud pubblici, privati o ibridi. A differenza di altre soluzioni che prevedono la condivisione o la custodia delle chiavi da parte di altri, con Trend Micro gli utenti ottengono la custodia esclusiva delle loro chiavi di cifratura. In questo modo, riconoscendo ai proprietari delle informazioni l’esclusiva capacità di decidere quando e dove utilizzare le chiavi di crittografia, è possibile per l’azienda esercitare il totale controllo sui dati».

Il Business Centric Storage di Fujitsu

Secondo Davide Benelli, business program manager di Fujitsu, negli ultimi anni si registra un interessante cambiamento da parte della domanda che sta lentamente passando da una scelta d’acquisto puramente basata sul rapporto costo/capacità a dinamiche d’acquisto basate sul rapporto costo/performance. «Questo è sintomatico del fatto che si stanno abbandonando architetture a silos per abbracciare, a diverso livello, progetti infrastrutturali di consolidamento e virtualizzazione.  In questo contesto – spiegaBenelli – la componente storage assume un ruolo fondamentale, essendo una voce di spesa importante e dovendo garantire livelli di perfomance in linea con quelli richiesti dal business. Infatti, i sistemi storage devono rispondere a livelli di SLA sempre più elevati, potendo oggi gestire da un’unica interfaccia le policy di sicurezza, le regole di accesso, le logiche di tiering e i processi di recovery dei dati. Infine, un sistema storage in grado di adattarsi a questo nuovo scenario deve permettere di ridurre considerevolmente lo spazio disco necessario, attraverso, per esempio, tecnologie di deduplica». Per mantenere elevati livelli di competitività, è necessario allineare le risorse e le performance dell’ambiente storage alle necessità del business aziendale e non viceversa. Tutto ciò attraverso politiche di gestione automatizzata, il consolidamento dei sistemi target e la riduzione della complessità infrastrutturale dei data center. «È questo l’approccio di Fujitsu, denominato Business Centric Storage». L’offerta Fujitsu, tra le più ampie del mercato, è in grado di aiutare i professionisti dello storage nel difficile compito di supportare il core business aziendale attraverso la leva tecnologica.

Leggi anche:  Sette scanner Epson nei primi dieci posti della classifica DataMaster Lab