Perché lo storage è sempre più importante? Le tecnologie evolvono a velocità sempre maggiori, ma la crescita continua dei dati impone che le soluzioni di storage siano in grado di garantire la sicurezza e la reperibilità immediata delle informazioni necessarie all’operatività di aziende e organizzazioni

Viviamo immersi nei dati: qualsiasi attività compiamo, genera o utilizza dati e informazioni. Questo è vero anche per operazioni a basso valore aggiunto, quali quelle manuali svolte su prodotti semplici e di tutti i giorni. È per questo che l’era che stiamo vivendo può senza dubbio essere definita “l’era dei dati”. Che sia su unità di archiviazione locale (on-premises) oppure, come sempre più spesso avviene, nel cloud, lo storage continua a tenere avvinta l’attenzione degli utenti e, a maggior ragione, dei chief information officer delle aziende. Così, per esempio, l’evoluzione della tecnologia di storage a stato solido, o SSD (Solid State Drive) ha affiancato e – in diversi casi – sostituito gli hard disk magnetici tradizionali, grazie alla compattezza dei dispositivi e all’assenza di parti meccaniche in movimento, che si traduce in maggiore affidabilità ma con costi spesso più elevati. Per avere un punto di vista autorevole sullo stato e sull’evoluzione del mercato storage, ci siamo rivolti a IDC Italy che ha affidato a Sergio Patano, associate research director, il proprio punto di vista.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

STORAGE SOTTO PRESSIONE

«Il dato è al centro dei percorsi di trasformazione digitale – sia per migliorare i rapporti con i propri clienti, dalla customer experience alla loyalty, passando per la creazione di nuovi prodotti e servizi che intercettino nuove ed emergenti richieste – sia per migliorare i processi IT e di business interni alle aziende, velocizzando, per esempio, i processi decisionali basandosi sull’analisi dei dati». L’analisi dei dati è particolarmente importante per le aziende, essendo – la “DataSphere” – in continua e costante espansione. IDC definisce “DataSphere” globale la quantità di dati creati, catturati e replicati in un dato anno nel mondo, che secondo le ultime ricerche di IDC è destinata a passare dai 38 ZB del 2018 ai 175 ZB del 2025 con un tasso di crescita composto pari al 25% circa. «In questo contesto – spiega Patano – le aziende si stanno muovendo su diversi fronti per contenere i costi, migliorare la sicurezza e rimanere compliant con la normativa italiana ed europea (GDPR)». Oltre alla generale crescita dei dati, ci sono i nuovi trend tecnologici che spingono l’evoluzione dello storage verso nuovi traguardi. Infatti, «la necessità di gestire, archiviare e rendere sicuri più dati e la sempre più pervasiva implementazione di workload di nuova generazione (legati a intelligenza artificiale, IoT, Big Data, analytics…) sta mettendo sempre più sotto pressione la componente storage dell’infrastruttura IT aziendale. In una survey condotta da IDC su un campione di circa 100 aziende italiane, il 59 per cento dichiara che ad oggi deve gestire oltre 50 TB di dati (strutturati e non strutturati). Non solo. Entro 12 mesi tale percentuale crescerà fino a superare l’80 per cento».

Secondo IDC, un altro elemento da aggiungere al quadro è il fatto che, a causa della crisi economica – «le aziende hanno rimandato il refresh del parco installato», con impatti negativi – «sulle performance e sui reali TCO dell’infrastruttura storage». Perciò non sorprende che in cima alle priorità di queste aziende ci sia in termini di data center operations, il refresh del parco installato. Più in dettaglio – «le aziende italiane intervistate si pongono come priorità sia la riduzione dei costi sia il miglioramento delle performance dello storage. È per questo che le aziende stanno indirizzando le proprie preferenze verso soluzioni più performanti e resilienti basate su SSD/Flash non solo stand alone ma anche integrate in appliance convergenti o iperconvergenti». Stando a un nuovo approccio alla valutazione dell’economicità delle soluzioni di storage enterprise, che non si basa più sul confronto del costo per GB o TB, ma su una visione più olistica, in grado di prendere in considerazione indicatori IOPS (Input / output operations per second) e quindi le performance effettive, mettendo in chiaro i costi legati alle attività di short stroking e di over-provisioning. In questo modo, i sistemi di storage che integrano al loro interno componenti all-flash stanno attirando non solo l’interesse ma anche gli investimenti delle aziende italiane. Secondo gli ultimi dati IDC – a fronte di un mercato external storage del valore complessivo di 300 milioni di euro nel 2018, con una previsione di crescita del 12,4% nel 2019 – la componente AFA ha raggiunto i 103 milioni di euro nel 2018 e crescerà nel 2019 del 42% circa.

EVOLUZIONE E TENDENZE

Per verificare le ultime tendenze e l’evoluzione delle necessità degli utilizzatori, molti vendor e operatori del mercato svolgono frequenti indagini, più o meno sistematiche e spesso affidate alla forza commerciale, che coinvolgono i clienti. Una necessità comune a tutti gli utenti è sicuramente quella di affrontare in modo puntuale ed efficace le nuove tecnologie che si contendono il mercato ICT in questo periodo e selezionare quelle più interessanti per il loro business. «Oggi cloud, IoT e big data sono le tematiche principali per velocizzare e rendere più agili i processi aziendali e il business, quindi la tipologia di storage più richiesta è sicuramente quella scale-out, in grado di gestire una mole di dati pressoché infinita e soprattutto garantire livelli di servizio e performance adeguate» – spiega Edwin Passarella, manager, technical services, South EMEA & UKI large national accounts di Commvault.

Leggi anche:  Sicurezza e resilienza, pronti al futuro

Ma sono le esigenze dei clienti a guidare l’offerta: «Un tempo si parlava spesso di IOPS, connettività, affidabilità dello storage, mentre oggi i clienti chiedono soluzioni che siano scalabili senza limiti, anche in termini di performance, garantendo l’affidabilità necessaria. Questo richiede soluzioni di tipo scale-out (architetture NAS, in cui si può espandere lo spazio di memorizzazione totale aggiungendo dispositivi indipendenti, ndr) e iperconvergenti, che non solo possano crescere all’infinito, aumentando performance e capacità, ma che possano eventualmente ridursi per adeguarsi all’andamento del business dell’azienda, con quindi le caratteristiche di agilità e flessibilità dei cloud pubblici». Le soluzioni di storage proposte da Lenovo sono state sviluppate con NetApp e oggi – spiega Roberta Marchini, technical sales manager del Data Center Group di Lenovo Italia – l’azienda ha la più completa gamma di prodotti storage. «Questa partnership ci consente di proporre la famiglia di prodotti ThinkSystem serie DM e serie DE, che riunisce soluzioni NetApp e la supply chain di Lenovo, una delle prime cinque (secondo Gartner) tra le aziende globali di tecnologia». Sempre secondo Roberta Marchini, le esigenze di storage delle PMI italiane hanno soprattutto a che fare con l’alta affidabilità e la business continuity. È per questo che le famiglie ThinkSystem Serie DM e Serie DE offrono queste capacità: «DM ha capacità più avanzate o “unified”, come file sharing e servizi di condivisione, mentre DE è pensata per un utilizzo “a blocco”. Inoltre, ancora nelle PMI, una delle esigenze più sentite è mettere a disposizione spazio di archiviazione per server virtualizzati, con una dimensione tipica di 2-3 server che eseguono macchine virtuali con qualche terabyte di storage. Un altro scenario tipico è la richiesta di storage per archiviazione di dati video o dati cosiddetti “freddi” ovvero a cui si accede più raramente».

LE PRIORITÀ DELLO STORAGE

Alberto Alberio, IT director di Holonix, descrivendo le esigenze espresse dalla propria clientela, spiega che lo scenario tecnologico legato all’intelligenza artificiale è in continua crescita e l’IoT, che ne è parte integrante, evolve rapidamente proponendo soluzioni sempre più mature. Ciò avviene in un contesto in cui la crescita del volume di dati prodotti dai dispositivi è esponenziale, e la capacità di estrarre informazioni sarà determinante per le aziende. «Uno dei punti critici sul quale l’IoT avrà un forte impatto è il data storage» – afferma Alberio. «Infatti, i dati provenienti dai sensori necessitano di prestazioni elevate per l’elaborazione e quindi lo storage deve avere a sua volta alte prestazioni, con capacità di gestione di volumi di dati moderati ma con alta disponibilità». Questo rende – continua Alberio – la tecnologia SSD la soluzione più adeguata. Nel caso della post-elaborazione dei dati tramite algoritmi di AI, invece – «i volumi scalano rapidamente oltre i Terabyte, e la priorità dello storage passa alla capacità di immagazzinamento dei dati e alla loro ridondanza rispetto alle prestazioni di input/output». C’è un ultimo aspetto strettamente legato all’IoT: la sicurezza. «I sensori spesso sono per loro natura vulnerabili per cui la sicurezza viene demandata ai canali di comunicazione e ai sistemi di gestione del dato». Questo fa sì che i sistemi di storage, dai singoli device all’infrastruttura – «devono offrire cifratura e accesso sicuro, mantenendo le prestazioni richieste».

Le scelte di tecnologie e di architetture fatte dai clienti finali sono oggi le più varie e dipendono dalle particolari applicazioni, dalle modalità di lavoro, dall’ambito in cui operano le aziende. Così, hard disk tradizionali si contendono gli spazi con i dischi SSD, mentre si affacciano nuove tipologie di approccio, come il software-defined storage. Ci sono quattro trend che si stanno sviluppando in ambito storage, tutti trainati dall’incremento esponenziale del volume di dati e del loro utilizzo in azienda – come spiega Massimiliano Ferrini, head of product business di Fujitsu Italia. Il primo: le aziende chiedono sempre di più di ridurre i tempi di elaborazione e quindi di accesso ai dati per la CPU. Il secondo: l’utilizzo di soluzioni di software-defined storage per gestire grandi quantità di dati, spinte da cloud provider e service provider. Il terzo: l’iperconvergenza, cioè l’unione in un unico dispositivo di capacità di calcolo, networking e storage, rispondendo così all’esigenza di implementare con facilità soluzioni complete. Il quarto e ultimo trend: l’utilizzo dell’intelligenza artificiale in ambito storage». E qual è la risposta di Fujitsu? «Nel primo caso, implementiamo soluzioni storage in ottica flash, con dischi SSD e nuove tecnologie, come SCM (Storage-Class Memory) per consentire appunto una riduzione dei tempi. Nel secondo, si ricorre a soluzioni di software-defined storage per gestire grandi quantità di dati, ottenendo bassi costi ed elevati livelli di affidabilità e performance. Il terzo trend consente di non doversi approvvigionare separatamente dei singoli elementi. Il quarto, infine, consente, grazie all’AI, di ottimizzare i parametri dello storage in funzione dei dati di utilizzo dei dispositivi, permettendo di fruire al meglio delle applicazioni software». In termini di soluzioni, Fujitsu propone il concetto di “famiglia” per l’offerta di soluzioni. «All’interno di una soluzione possiamo integrare e combinare, senza vincoli, diverse tipologie di storage (flash o ibrido)». Infatti, alla base – «ci sono le stesse caratteristiche software gestite dalla stessa console, il che rappresenta un vantaggio sia dal punto di vista economico (scalabilità) che di know-how necessario per la gestione». Fujitsu propone la famiglia ETERNUS, declinata in ETERNUS DX (sistemi ibridi) ed ETERNUS AF (All-Flash).

Leggi anche:  NetApp presenta lo storage dei dati unificato per l'era dell'IA

PRESTAZIONI E SCALABILITÀ

La richiesta di prestazioni in continua crescita da parte dei clienti è confermata anche da Matteo Mascolo, storage solutions leader di IBM Italia. «Oltre a prestazioni e scalabilità sempre crescenti, i clienti chiedono affidabilità, semplicità di gestione e apertura al multicloud ibrido. Per questo, IBM combina il meglio della tecnologia hardware con i data service introdotti dalle soluzioni di software defined storage (Spectrum Family) in grado di estendere facilmente le funzionalità storage anche a sistemi non-IBM e al cloud». Al momento, secondo IBM, la tecnologia più richiesta dal mercato è quella all-flash NVMe (Non-Volatile Memory express) basata su IBM FlashCore Modules, che ha prestazioni elevatissime in un ampio range di workload, latenze consistenti grazie alla compressione/cifratura hardware in-line di ciascun modulo e una endurance fino a 7 volte superiore a quella di memorie flash industriali di tipo standard».

Sulla varietà delle esigenze che si incontrano in termini di storage sul mercato è d’accordo anche Laura Roberto, business developer di Maticmind: «C’è chi cerca semplicità e integrazione con il cloud, trovando nell’iperconvergenza una valida soluzione; chi si innamora di piattaforme all-flash e NVMe native, che consentono un estremo consolidamento del dato; chi ricerca prestazioni sul business-critical e soluzioni di secondary storage per i dati meno pregiati; e chi, invece, un opportuno mix di prestazioni e capacità in un’unica soluzione». Dal punto di vista delle richieste – secondo Bruno Camaggi, vice president & CEO di VM Sistemi – quelle più frequenti riguardano soprattutto – «la possibilità di disporre di funzioni avanzate che consentano di cogliere da subito le sfide del mercato, con progetti che hanno nei dati la loro risorsa primaria. In particolare, abbiamo registrato sul mercato l’esigenza di coniugare l’offerta tecnologica hardware – ricca di funzionalità software che consentano con grande efficienza di traguardare gli obbiettivi aziendali di crescita – con la riduzione dei costi di acquisizione e gestione. In questo ambito, abbiamo realizzato progetti evolutivi, proponendo soluzioni Flash IBM corredate di funzioni quali real time compression e deduplica, presenti nell’offerta IBM Spectrum. A clienti e prospect proponiamo soluzioni storage affidabili, per supportare le operazioni critiche di business, con un’ampia capacità in termini di prestazioni e di espandibilità».

ON-PREMISES VERSUS CLOUD

C’è chi sostiene che lo storage, per sua natura, debba essere di proprietà dell’azienda che lo utilizza. E c’è chi invece sposa completamente la tesi della flessibilità tecnica ed economica del cloud computing. Il confronto tra le due posizioni anima le riunioni e le conferenze con un dibattito molto acceso e a volte conflittuale. Tale diatriba caratterizzerà il mercato storage ancora per diverso tempo, quindi approfittiamo di questa tematica per offrire anche una finestra sul futuro visto dai vendor.

Leggi anche:  Zegna, le radici dell’unicità

Prima di tutto, che cosa chiedono i clienti? «La maggior parte delle richieste è relativa all’implementazione di soluzioni completamente on-premises – risponde Mascolo di IBM – ma sempre più clienti chiedono il livello di supporto del cloud, soprattutto per alcuni scenari specifici quali offload di backup e snapshot, disaster recovery, tiering». Per il futuro – «siamo intenzionati a fornire soluzioni di classe enterprise non solo ai clienti di fascia alta, ma in tutte le aree di mercato. Così negli ultimi dodici mesi, abbiamo annunciato l’integrazione di tecnologia e funzionalità enterprise anche in sistemi mid/entry (come Storwize V5100). Obiettivo primario è quello di supportare la trasformazione digitale delle PMI, puntando su sistemi flash con costi estremamente competitivi». Anche Fujitsu ha svelato recentemente i propri piani relativi alla messa a punto di sistemi di storage ad hoc, basati sulla tecnologia NVMe, a complemento dell’attuale portafoglio ETERNUS.

Per Ferrini di Fujitsu, i futuri sistemi storage ultraveloci – «supporteranno questo protocollo di interfaccia per rendere possibile un accesso massivamente parallelo ai dati a velocità senza precedenti». Sicuramente, il mercato si sta spostando sulle tecnologie cloud-oriented, dove – secondo Passarella di Commvault – «non conta più l’infrastruttura in sé ma il fatto di garantire scalabilità, affidabilità e soprattutto determinati livelli di servizio». Camaggi di VM Sistemi prospetta invece uno scenario più variato: «Il nostro osservatorio sul mercato ci mostra un grande interesse per le soluzioni complete che consentano al cliente, pur mantenendo i propri dati in una soluzione on-premises, di poterli muovere con facilità ed efficacia verso il cloud, per abilitare nuove applicazioni e possibili spostamenti di workload in modalità smart. Si tratta di una richiesta di flessibilità che arriva da tutti i clienti, che non vogliono precludersi nuovi scenari evolutivi».

In ogni caso, l’esplosione dei volumi di dati, il loro valore come risorsa aziendale e la ricerca di sempre maggiore efficienza – conclude Camaggi – «ci inducono a prevedere che i clienti si orienteranno verso soluzioni storage ad alte prestazioni, corredate di funzionalità avanzate che ne consentano un’altissima produttività».

Anche i clienti di Maticmind si stanno orientando verso soluzioni complete, che possano risiedere nei loro siti o sul cloud. Ma per molte applicazioni tradizionali, difficili da far migrare – spiega Laura Roberto – «continuerà la coesistenza tra on-premises e cloud, dove serve maggiore flessibilità o ci sia convenienza economica. Mettere insieme più mondi in maniera agile diventa l’esigenza sempre più comune da gestire». Ma, in prospettiva, si diffonderanno soluzioni di storage software-defined – «in grado di consolidare i dati in maniera efficace per gestire sia soluzioni on premises/ibride, che realtà multicloud». L’avvento dell’NVMe over fabric consentirà il superamento dei possibili colli di bottiglia sulla rete (in particolare Ethernet) – conclude Laura Roberto – «e una decisa accelerazione delle prestazioni per le applicazioni business-critical. L’intelligenza artificiale sarà legata a data hub ad alte prestazioni che espongono svariati protocolli e unificano la gestione da parte di analytics e workload moderni del dato».

Per Marchini di Lenovo il mercato di riferimento è sicuramente quello on-premises, perché i clienti preferiscono ancora avere il dato “in casa”. «Le aziende cominciano però a chiedere la possibilità di fare backup o disaster recovery in cloud, scenari che noi supportiamo con i nostri storage tramite le tecnologie DataFabric e Cloud Volumes». Ma in futuro – «sempre più aziende implementeranno progetti di digital transformation, spingendo una grande crescita di nuova infrastruttura on-premises, che comprende storage in quantità anche piuttosto importanti».

CONCLUSIONI

Pur tra mille sfaccettature, possiamo concludere che l’offerta oggi attiva sul mercato storage è adeguata a soddisfare le esigenze di tutti gli utenti, dalle PMI alle grandi aziende, offrendo soluzioni  in grado di rispondere alle necessità più stringenti di prestazioni e capacità. Resta da vedere come si evolverà e, soprattutto, quanto in fretta la forbice on-premises/cloud, che implica scelte precise in termini di risorse e investimenti.