Nuove soluzioni per nuove esigenze. Le aziende creano più dati, ne eliminano di meno e ne conservano di più. I CIO chiedono affidabilità e apertura al multicloud, ma anche maggiore capacità di memorizzazione, scalabilità e flessibilità di accesso ai dati
Infrastrutture on-prem, in cloud, ibride, ma comunque distribuite: sono queste alcune delle nuove sfide che si trovano a dover affrontare i CIO nella gestione del patrimonio informativo delle loro organizzazioni. Magari affiancati da altri responsabili con importanti e specifiche competenze tecniche, come i chief data scientist o data science manager o altre figure simili, che hanno la responsabilità di scegliere e implementare strumenti, soluzioni, policy ottimali per garantire la sicurezza e, soprattutto, la disponibilità o availability dei dati – quando servono e dove servono – e quindi curando aspetti legati alla gestione e alla facilità di recupero dei dati e delle informazioni. Si tratta di problemi ben noti a chiunque si sia occupato di soluzioni IT e che, tra le altre cose, in termini di ottimizzazione, riguardano anche gli aspetti economici della gestione dei dati e della loro archiviazione.
Un concetto ben noto da sempre agli specialisti di storage – e che oggi ha ripreso prepotentemente la ribalta – è quello di information lifecycle management, acronimo un po’ appannato dal tempo ma che però indica un processo attualissimo: lo spostamento più o meno automatico dei dati su sistemi di storage ottimali per quel particolare tipo di dati. Secondo questo metodo, i dati che vengono caricati, modificati e gestiti più di frequente devono essere memorizzati su piattaforme di storage più veloci e sempre disponibili (quindi più costose), mentre quelli meno importanti o utilizzati con minore frequenza saranno spostati su sistemi di storage più lenti ed economici. Esempi pratici di questo tipo di policy sono lo storage su dischi SSD, velocissimi e costosi, che vengono principalmente utilizzati per i dati “di lavoro” (che alimentano per esempio applicazioni eCommerce, dove è necessario poter accedere alle informazioni in tempo reale) e i dischi standard o i nastri magnetici, destinati a ospitare soprattutto dati di backup o comunque archivi con accessi meno frequenti o saltuari.
SCALABILITÀ E FLESSIBILITÀ
Grazie alla collaborazione di IDC, possiamo tracciare un quadro del mercato dello storage aggiornato a oggi. «I sistemi di storage di livello enterprise si sono evoluti per soddisfare la domanda, in costante crescita, delle aziende e dei service provider di memorizzare più dati» – spiega Diego Pandolfi, research and consulting manager di IDC Italia. «Nel corso del 2020, la pressione è cresciuta in tutto il mondo, sull’onda della pandemia da Covid-19». In ogni caso, lo storage è – e continua a essere – «un elemento centrale e fondante dell’infrastruttura IT delle aziende enterprise sia che venga implementato on oppure off-premises, in ambienti tradizionali non cloud o in infrastrutture cloud pubbliche o private e di recente anche nell’edge». Dal punto di vista del “consumo”, cioè dell’utilizzo da parte degli utenti, lo storage continua a stimolare la domanda sotto forma di sistemi esterni discreti, come appliance iperconvergenti integrate o server-based storage, cioè sistemi di storage integrati a bordo dei server. A questi fattori – continua Pandolfi – si aggiunge l’aumento importante dell’efficienza dello storage attraverso una serie di data service quali il thin provisioning (allocazione di spazio di storage in modo flessibile tra più utenti), la compressione, la deduplicazione, l’erasure coding (un metodo per la protezione dei dati in cui questi vengono spezzati in frammenti, espansi e codificati con pezzi di dati ridondanti, immagazzinati poi in un insieme di siti o media differenti) e le nuove opzioni RAID (Redundant array of independent disks) offerte da alcuni vendor senza aggravio di costi o performance.
Infine, grazie alla rapida adozione e crescita dei servizi basati su cloud pubblico, i sistemi di storage adesso possono essere implementati appunto nel cloud pubblico, utilizzando server general-purpose o hardware custom prodotto essenzialmente da ODM (Original design manufacturer) con software sviluppato dai cloud service provider. Ma il mercato non si ferma qui. «I sistemi di storage possono utilizzare diverse classi di storage o memoria persistente» – spiega Pandolfi. «Da una parte, memorie flash basate su NVMe (Non-volatile memory express), e all’altra estremità dello spettro, tiering basato su cloud». A ciò si aggiungono nuovi protocolli, connettività e accesso in rete. Ed è semplice capire cosa ha tenuto in agitazione il mercato dello storage in modo costante per oltre trent’anni. Investimenti fatti da produttori di dischi, memorie flash e nastri per produrre in massa componenti e piattaforme e l’appetito vorace dei service provider per procurare capacità di storage in grandi volumi hanno fatto scendere i prezzi in modo significativo, facendo in modo che le organizzazioni continuassero a incrementare i dati su cui lavoravano (soluzione più conveniente). Allo stesso tempo – rileva Pandolfi – «l’impiego della tecnologia flash per offrire maggiori prestazioni ha consentito alle organizzazioni di fare ricorso a una combinazione di vari media per realizzare uno storage efficiente e ottimizzato sul lungo termine, sia on-premises che nel cloud, senza la necessità di ricorrere a media offline come i nastri». In conclusione, possiamo dire che – «le aziende stanno creando più dati, ne stanno eliminando di meno e ne stanno conservando di più». Un trend, che, ovviamente, prelude a ulteriori sviluppi in quest’area di mercato, che dovrà garantire maggiori capacità di memorizzazione ma, al tempo stesso, economie di scala e flessibilità di accesso.
Secondo la ricerca di IDC effettuata all’inizio del 2020, il 91% delle grandi aziende sono già attive e si trovano in uno o nell’altro stadio di un percorso di evoluzione in termini di digital transformation, realizzando modelli molto più focalizzati e guidati dai dati. Nel percorso di evoluzione, le aziende stanno implementando numerose applicazioni Next-generation che rendono ancora più stringenti le richieste ai CIO di rispondere a esigenze di agility, performance, availability e gestione dei dati. «Per rispondere a queste richieste, le organizzazioni IT stanno esaminando nuove tecnologie dallo storage a stato solido ai dati distribuiti, alle software-defined infrastructure, architetture scalabili e cloud». Così, in domini infrastrutturali fondamentali per l’IT – come i sistemi di storage e la protezione dei dati – sta accadendo che la maggior parte delle grandi aziende (più del 90%, secondo i dati di IDC) stanno modernizzando le proprie infrastrutture per assicurarsi di poter rispettare i requisiti della strategia di digital transformation.
MERCATO STORAGE ENTERPRISE
Ma, in definitiva, quali sono i principali fattori nell’evoluzione del mercato storage, soprattutto a livello enterprise? Le iniziative di trasformazione digitale sono sostenute dalla necessità delle imprese di ottenere rapidamente insights accurati guidati dai dati, da rendere disponibili ai decisori, supportando nel contempo nuovi modelli di consumo per gli utenti finali. «Molti decisori – spiega Diego Pandolfi di IDC Italy – all’interno delle organizzazioni sono sempre più interessati a utilizzare analytics e data science per ottenere insights dalla enorme varietà e scala dei dati disponibili sia interni che esterni. A causa dell’importanza dei dati nelle iniziative di digital transformation, il successo di queste ultime dipende dalla capacità delle organizzazioni di acquisire, elaborare, “ripulire” e diffondere dati provenienti da sorgenti multiple». Soluzioni di storage in grado di supportare gli obiettivi di business saranno essenziali per il successo delle iniziative di trasformazione digitale, a maggior ragione in quanto i modelli di deployment delle infrastrutture aumentano di complessità, dovendo includere soluzioni cloud, on-prem ed edge.
Esaminiamo le appliance AFA e HCI: queste appliance – secondo IDC – continueranno a costituire segmenti tra loro correlati, che seguiteranno a crescere sul mercato dello storage esterno. La disponibilità sempre più ampia di storage AFA, con un range di prezzi molto ampio, ne favorirà l’adozione anche da parte di organizzazioni di piccole dimensioni, che in precedenza acquistavano array ibridi, mentre – aggiunge Pandolfi – «la disponibilità crescente di array basati su NVMe farà crescere la domanda di workload orientati alle prestazioni». Nel breve termine, il segmento AFA sarà colpito dall’impatto complessivo della pandemia, ma gli analisti prevedono che l’impatto maggiore si farà sentire sul mercato di fascia alta in quanto – precisa Pandolfi – «le organizzazioni tenderanno a congelare o ritardare gli investimenti in progetti capital-intensive, con un forte impiego di nuovi capitali». Tuttavia, entrambi i mercati AFA ed HCL dovrebbero recuperare più velocemente di altri segmenti, e le quote di entrambe le tecnologie sono attese in crescita.
Secondo i dati di IDC, il mercato relativo allo storage esterno è cresciuto leggermente nel 2019 (+1,9% anno su anno). La base installata è perciò cresciuta nella stessa misura. Nondimeno, a causa di fattori macroeconomici e socioeconomici attivi in diversi settori, IDC non segnala crescite nel mercato esterno nel corso del corrente anno 2020. Resta da vedere quale sarà l’impatto del ricorso diffuso al lavoro remoto, soprattutto per le decisioni di acquisto di infrastrutture cloud in contrasto all’on-prem.
«Ci sono spazi di opportunità nel mercato dello storage esterno in aree come l’all-flash array – spiega Pandolfi – dove si prevede una crescita che continuerà fino al 2024. Inoltre, crescerà anche il mercato dell’hardware per appliance iperconvergenti. La riduzione dei costi di queste soluzioni ha fatto sì che nel segmento medio si sia assistito alla scelta di “clustering” di molti prodotti AFA, preferiti a soluzioni high-end. Questo è un trend che ci aspettiamo continui anche nei prossimi anni».
Da ultimo, secondo IDC l’impatto della pandemia dovrebbe essere relativamente breve, tanto che a fine 2020 tutte le regioni saranno in recupero. «Tuttavia – conclude Pandolfi – IDC si aspetta che la maggior parte delle aree economiche non torneranno ai livelli di spesa del 2019 sullo storage per parecchi anni. In particolare, il mercato dello storage esterno – che stava già mostrando segnali di debolezza rispetto all’area AFA che è invece in rapida crescita – continuerà a soffrire a causa del trend di migrazione continua al cloud e della penetrazione delle soluzioni legate alle architetture software-defined, in tutti i segmenti».
CRESCE L’EFFICIENZA DELLE RETI
Un altro fenomeno molto importante che sta condizionando l’andamento del mercato e degli investimenti in soluzioni di storage è sicuramente quello dell’aumento dell’efficienza e della flessibilità delle reti di connessione sia fisse che mobili. Non affrontiamo qui il tema della diffusione di interfacce e reti dedicate allo storage e basate su fibra ottica ad alta velocità, quali Fibre Channel o iSCSI, che riguarda in modo praticamente esclusivo le grandi e grandissime aziende. Dal punto di vista delle reti fisse, la diffusione della fibra ottica anche nei piccoli uffici e nelle abitazioni private, oltre che (ovviamente, la penetrazione in questo caso è molto più bassa) nelle geografie cosiddette “a fallimento di mercato” ha portato la disponibilità di larghezza di banda e throughput disponibili a livelli inimmaginabili solo pochi anni fa. Infatti, per quanto riguarda la fibra ottica, per esempio, si arriva oggi a oltre 1 Gigabyte per secondo, ma studi attualmente in corso hanno permesso di raggiungere circa 200 Tbps, che significa una velocità di un milione di volte superiore, da confrontare con i circa 9 Mbps (massimi di una linea Adsl di un passato non troppo remoto).
È evidente come le applicazioni più importanti – per esempio quelle legate al backup/recovery di interi sistemi informativi (banche o utility dedicate alla fornitura di elettricità, acqua, gas) – abbiano la necessità di disporre di livelli di throughput elevatissimi, dal momento che spostare o semplicemente duplicare i dati archiviati di una banca, da un luogo a un’altra località remota in disaster recovery, in pochi secondi, in caso di necessità, richiede collegamenti ad altissima velocità, affinché gli utenti (soprattutto quelli ad alti volumi di traffico) non si accorgano di alcuna interruzione nel normale standard di servizio.
Il problema si complica quando – situazione ormai pressoché normale – i servizi prendono anche la strada dei nuovi standard di connessione mobile, con il nuovo protocollo 5G. In questo caso, infatti, ai collegamenti fissi tra una base station e la centrale di gestione del traffico cellulare si devono aggiungere i segmenti “aerei” che grazie al nuovo protocollo possono oggi raggiungere un throughput teorico di 10 Gbps (da confrontare con 1 Gbps teorico, che diventano circa 34 Mps reali) delle reti 4G, di quarta generazione.
Le esigenze cambiano anche in termini di tipologia di dati di cui occorre garantire la disponibilità e lo spostamento da un punto all’altro della rete. Mentre anni fa era sufficiente garantire il flusso di traffico soprattutto legato ad audio e messaggi di testo, per cui si parlava di reti 2G a circa 250 Kbps e in seguito, grazie all’avvento dei cellulari con fotocamera integrata si è passati al 3G a 3 Mbps massimi – oggi è già diffuso il già ricordato 4G, capace di un throughput di 100 Mbps. È evidente che la necessità di storage per documenti di testo di pochi Kbyte è molto inferiore a quella di immagini e video che superano facilmente il Mbyte, soprattutto quando si tratta di file multimediali (appunto audio, video, immagini e presentazioni) contenenti informazioni riservate e legate al business o alle transazioni legali di un’azienda.
L’EVOLUZIONE DELLE TECNOLOGIE
Si sono spesi fiumi di parole sul modo in cui le tecnologie originarie di storage del mondo IT, quelle basate sulle proprietà magnetiche di alcuni materiali e sulla possibilità di registrare informazioni anche su media particolarmente “a buon mercato” quali i nastri magnetici siano state affiancate e, in diversi casi, soppiantate dalle nuove tecnologie basate su flash array, memorie a stato solido che offrono diversi vantaggi rispetto alle precedenti. In questo caso, vogliamo solo evidenziare i motivi che stanno orientando la scelta di diversi privati, piccole e medie imprese, ma anche grandi aziende per i dischi a stato solido SSD. A partire dalla velocità di accesso, che passa da 50-120 Mbps dei dischi fissi standard a 200-550 Mbps, per passare all’assenza di parti in movimento, necessarie sia nei dischi fissi tradizionali che nei nastri.
La mancanza di parti in movimento rende difatti i dischi SDD resistenti a urti accidentali e cadute, che possono invece danneggiare gli hard disk standard. Inoltre, dal punto di vista energetico, l’assorbimento di un disco a stato solido si misura in circa 2-3 Watt, contro i 6-7 Watt assorbiti da un disco magnetico: questo offre un altro spunto di discussione. Infatti, il minore assorbimento di corrente si traduce anche in un minore riscaldamento durante l’operatività, il che a sua volta significa che non occorrono particolari sistemi di raffreddamento (tipicamente, ventole), rendendo così gli SDD anche più silenziosi. Di contro, per correttezza, va detto che la tecnologia degli hard disk è ampiamente nota e testata, garantendo sicurezza e durata, ma soprattutto costi più bassi. È probabile che presto le evoluzioni ulteriori della tecnologia correggano anche questo problema. Attualmente, la maggior parte dei dischi a stato solido è installata all’interno dei personal computer o comunque in dispositivi personali, soprattutto a causa dei costi e del fatto che le capacità massime sono ancora a favore dei dischi fissi tradizionali. Ma anche questo sta cambiando, visto che sono molti ormai i produttori che propongono array di dischi ad alte prestazioni per un utilizzo enterprise basati su tecnologia a stato solido.
CONCLUSIONI
La carrellata che abbiamo tracciato in questo articolo, purtroppo parziale e incompleta, ha voluto fornire una panoramica di quello che sta accadendo sul mercato in questo periodo particolare. La necessità di tenere sotto controllo i costi e l’obsolescenza di hardware, software e processi nelle aziende, dalle più piccole alle più grandi, si scontra con quella di rispondere a un mercato che comunque continua a evolversi non solo sotto la spinta inarrestabile dell’innovazione tecnologica ma anche dei regolamenti, delle normative e degli obblighi che impongono revisioni frequenti del modo di operare e delle infrastrutture informatiche. Per fortuna, nuovi paradigmi, come il cloud computing, offrono soprattutto alle PMI – che come sappiamo costituiscono la componente maggioritaria del tessuto economico italiano – strumenti nuovi per risolvere problemi e rispondere a esigenze di business che si sono affacciate sul mercato nell’ultimo decennio.
Oggi, non è più sufficiente pensare e implementare soluzioni in grado di soddisfare le esigenze attuali o dei prossimi due o tre anni, anche se questo è ciò che fanno in molti. Occorre cercare di traguardare il futuro perlomeno di medio termine, cercando di rispondere oggi a esigenze che si realizzeranno in pratica solo tra una decina di anni e oltre. In questo processo, ci possono aiutare le analisi degli esperti, ma anche la lettura attenta di ciò che i vendor e gli operatori più qualificati ci continuano a proporre. In tutto ciò – occorre sottolinearlo – bisogna sempre ricordare che i dati sono il cuore pulsante delle aziende e, su più vasta scala, dell’intera economia. Generare, gestire, mettere al sicuro e, soprattutto, memorizzare in modo efficiente e affidabile il patrimonio sempre più grande di informazioni creato dalle organizzazioni di ogni dimensione e settore rappresenta la chiave per il futuro. Uno storage ben studiato e realizzato è sicuramente parte essenziale del successo di qualsiasi iniziativa che voglia avere prospettive di crescita sostenibili.