Gestito o on premises, basato su infrastrutture convenzionali o di nuova generazione, la “sala macchine” del passato si trasforma in un oggetto sempre meno monolitico, al contrario agile, scalabile, automatizzato. Piccola guida alle nuove fabbriche dei dati
L’iperconvergenza alimentata dal “software defined everything” ha trasformato gli approcci architetturali e di governo delle grandi infrastrutture di calcolo e storage. Al tempo stesso, l’offerta dei cloud provider e degli outsourcer si articola in maniera ancora più complessa, in un orizzonte futuro popolato da modelli di erogazione di servizio completamente ibridi. Al tempo stesso, il data center continua a mantenere la sua decisiva “centralità” nella sua veste di autentica fabbrica e cassaforte dei nostri dati digitali. Siamo entrati ufficialmente nell’era degli zettabyte, miliardi di terabyte come unità di misura dei dati digitali. Nel suo “Global Cloud Index” relativo al quinquennio 2016-2021, Cisco prevede che tra due anni il traffico globale attraverso i data center sarà di 20,6 zettabyte. Di questi, 1,3 zettabyte rappresentano il totale dei dati custoditi nelle unità di storage. Nel 2021, secondo le previsioni, il volume di dati complessivamente generati – anche se non necessariamente memorizzati – dall’insieme dei dispositivi digitali sarà addirittura di 847 zettabyte.
Al di là delle questioni e delle sfide di carattere puramente informatico, in questo speciale dossier di Data Manager il tema del data center assume una importanza particolare, soprattutto dal punto di vista dei consumi energetici, della connettività con reti ad alta capacità e da quello della sicurezza fisica delle infrastrutture in un quadro climatico e conflittuale sempre più complesso. Non a caso, le ultime tendenze vedono una crescente richiesta di location capaci di assicurare un clima più fresco e temperato e un costante approvvigionamento di energia pulita e rinnovabile, tipicamente idroelettrica ed eolica. Si moltiplicano così gli investimenti in strutture localizzate nel nord del mondo. Contemporaneamente, si devono considerare le esigenze di molte aree in via di rapido sviluppo in Africa e Asia, in aree climaticamente difficili, dove la presenza di un data center pubblico può agire da potente volano di creazione e trasformazione di business. Critica è anche la presenza di dorsali in fibra ottica e altre infrastrutture di interconnessione che sono al centro di molti progetti spesso finanziati dal quintetto FAMGA (Facebook, Apple, Microsoft, Google e Amazon), cinque operatori che hanno costruito, sulle proprie necessità di calcolo, un’intera economia aperta basata su servizi di hosting, housing e IaaS estremamente diversificati e accessibili.
TECNOLOGIE IMPATTANTI
Sicurezza fisica e logica, regole strutturali e tecnologie sono altri fattori in costante evoluzione in un mondo dove le vecchie tendenze alla centralizzazione delle risorse in edifici di grandi dimensioni sono sostituite da un crescente interesse nei confronti di data center molto più compatti, addirittura facilmente trasportabili. L’incessante sviluppo di nuove tipologie di supporti di memoria, impatta sull’infinita fame di spazio di archiviazione proponendo soluzioni a capacità sempre maggiore. La moda dei dischi a stato solido, che è subentrata ai tradizionali hard disk, potrebbe per esempio lasciar posto a nuovi supporti magnetici, come nel caso di dischi HAMR (Heat-assisted memory recording), dove il riscaldamento del supporto magnetico permette di “scrivere” i dati a livelli di densità finora impensabili, tanto da render presto disponibili fattori di forma da 20 o 40 Tera per supporto.
Tornando al software, si può immaginare come l’intelligenza artificiale e il machine learning ci aiuteranno ad avere data center ottimizzati dal punto di vista dei consumi energetici e facili da gestire. Su tutte queste questioni, per le aziende e le organizzazioni pubbliche che rappresentano i primi “consumatori finali” delle fabbriche dei dati, dominano però considerazioni più spicciole, a partire dalla scelta tra infrastrutture di calcolo on premises, di proprietà ma in house, o di una informatica sempre più as a Service e in cloud – un trend favorito da livelli di accettazione elevatissimi, anche in comparti di industria un tempo caratterizzati da forte scetticismo. L’evoluzione dei modelli di virtualizzazione software che allontanano sempre di più il livello applicativo dal substrato di ferro, la spinta sempre più forte verso la containerizzazione delle risorse di sistema o l’uso dei microservizi può incidere molto sulle singole scelte. Quali decisioni prendere – e da chi farsi aiutare – nella tradizionale “sala macchine”, per affrontare al meglio il futuro di un data center sempre più virtualizzato, flessibile, automatizzato e soprattutto sostenibile?
EFFICIENZA E SOSTENIBILITÀ
Come sempre, gli esperti di IDC sono stati coinvolti in questa rassegna sui principali trend che contraddistinguono l’evoluzione del moderno data center e, di conseguenza, sulle scelte strategiche che i decisori aziendali sono chiamati a fare. Sergio Patano, associate research director di IDC Italia, è il nostro Virgilio in una selva intricata, se non oscura, di tecnologie, paradigmi architetturali e modelli di uso. Una delle tematiche più sentite in questo periodo di maggiore sensibilità ai problemi del riscaldamento globale è il rapporto tra un business sempre più digitale e l’elettricità consumata per sostenere questa digitalizzazione. In una economia che produce crescenti percentuali di servizi e prodotti basati anche solo in parte sull’elettronica intelligente, l’incidenza dell’ICT sui nostri consumi aumenta di conseguenza. La necessità di assicurare la sostenibilità del business digitale attraverso una forte ottimizzazione delle risorse energetiche impegnate ha anche precise conseguenze sulle stesse tecnologie informatiche e sui modelli attraverso i quali le organizzazioni aziendali e le istituzioni di tutto il mondo sfruttano queste tecnologie. «In nome della resilienza dei servizi che i responsabili IT devono poter erogare – spiega Patano – in questi ultimi anni IDC ha osservato una forte tendenza all’overprovisioning, in altre a parole a “sovradotare” le infrastrutture critiche ospitate all’interno dei data center pubblici e privati. La trasformazione digitale sta del resto pressando molto gli operatori di questi data center, che spesso devono affrontare crescite molto rapide e difficili da prevedere. L’overprovisioning di risorse centralizzate diventa l’unica risposta a questa domanda». Si eccede in pianificazione, insomma, per evitare di farsi prendere di sorpresa dai carichi di lavoro inaspettati, ma così facendo ci si espone al rischio dei costi legati agli investimenti eccessivi e agli sprechi, inevitabili in presenza di sovradimensionamento. «L’avvertenza – ricorda Patano – riguarda soprattutto i consumi energetici. Per questo riteniamo che investire oggi nelle tecnologie e nei servizi che aiutano a migliorare un uso sempre più efficiente ed efficace dell’energia che alimenta i sistemi di calcolo e di condizionamento è il modo migliore, per qualsiasi organizzazione, di venire incontro agli obiettivi, apparentemente in contrasto tra loro, della trasformazione digitale e della sostenibilità».
Le politiche di sostenibilità e corporate responsibility diventano sempre più intrecciate con quelle che riguardano più strettamente le dinamiche che regolano l’adozione delle tecnologie e la gestione del loro ciclo di vita. In questo senso, ricorda l’esperto di IDC, un approccio più olistico alla gestione delle risorse del data center e dei consumi energetici deve includere l’intero spettro di misure che vanno dalla tipologia delle fonti energetiche alle quali attingere a infrastrutture fisiche nativamente in grado di utilizzare in modo efficiente l’energia. «Tra i possibili strumenti che gli IT manager hanno a disposizione c’è anche la volontà di rinunciare del tutto agli asset informatici e alle infrastrutture che non possono essere debitamente efficientate».
DALL’IPER AL MICRO
Fattori come le dimensioni fisiche e i livelli di automazione e virtualizzazione delle risorse obbligano oggi a fare una distinzione sempre più netta tra due classi di data center. Al tradizionale data center aziendale si contrappone una categoria di infrastrutture, quella degli hyperscale data center, che si distingue per la capacità di “scalare” virtualmente a piacere i volumi di carico, sia verso l’alto sia verso il basso. Quest’ultima categoria di super data center è caratterizzata secondo le ricerche di Synergy da un forte fenomeno di concentrazione. Alla fine del 2018, la società di consulenza censiva nel mondo 430 strutture di classe hyperscale, il 40% delle quali nei soli Stati Uniti. Un calcolo che prende in considerazione i data center realizzati dalle 20 principali società fornitrici di servizi di cloud computing e Internet, inclusi i maggiori operatori di servizi IaaS, PaaS e SaaS, search, social networking ed e-commerce. In media, ciascuna di queste venti società oggi gestisce secondo Synergy 22 hyperscale data center, rappresentando un punto di riferimento per tutte le aziende, grandi o piccole, che ricorrono a modalità come la co-location, l’uso di servizi di hosting e housing avanzati e naturalmente di cloud computing di tipo pubblico o ibrido, in congiunzione con risorse proprie “on premises”.
Secondo IDC, il club degli hyperscale data center sarà il vero motore dell’innovazione verso una efficienza operativa sempre maggiore. Anche i data center pubblici – la definizione più corretta è forse “multi-tenant” – di dimensioni più convenzionali continueranno a investire in sostenibilità, anche facendo leva sugli accordi con i propri clienti. Di conseguenza, crescerà anche il mercato delle soluzioni e il numero di acquisizioni o di partnership tra gli operatori dei data center e le aziende capaci di inventare nuovi approcci all’efficientamento e alla resilienza delle risorse di calcolo. Le stesse utility – sottolinea Sergio Patano – saranno coinvolte in iniziative finalizzate ad affiancare i clienti nelle loro strategie per una informatica sostenibile ed efficiente. «Anche qui – continua Patano – deve prevalere un punto di vista olistico all’impiego dell’energia, che abbracci tutti gli uffici, i dispositivi e gli spazi di lavoro fondendoli in un unico grande ambiente dinamicamente gestito». Tra gli effetti, è immaginabile un sempre maggiore investimento in architetture energetiche autonome e su piccola scala, le cosiddette microgrid, “isole infrastrutturali” capaci di affrontare la variabilità dei carichi agendo, se necessario, in connessione intelligente con le reti regionali o nazionali.
Il più importante contraltare alla sostenibilità è sicuramente la semplificazione, o se si vuole, il surplus di intelligenza e automazione che chiunque progetti oggi un data center, per finalità pubbliche o private, deve prendere in seria considerazione. Questo vale per tutti gli scenari di scala, sia che il progetto riguardi un data center di classe hyperscale o comunque ad alta capacità, sia quando si devono concentrare volumi di risorse più limitati, come nel caso dei data center periferici (edge data center) che cominciano a prendere piede nelle architetture IoT multi-sede o molto distribuite. Un altro recente studio “Techscape” di IDC, “Worldwide Smarter data center Technologies, 2019” affronta l’argomento dello smart data center attraverso la disamina delle tecnologie oggi alla base dell’automazione di queste risorse. «I parametri che servono a misurare il livello di intelligenza di una infrastruttura di data center – spiega Patano – si muovono lungo gli assi del miglioramento dell’efficienza operativa, della riduzione dei rischi, dell’accelerazione dei tempi di deployment di nuovi carichi di lavoro e della capacità di monitorare e gestire tutte le operazioni anche remotamente, un presupposto essenziale per il supporto della edge IT». Visibilità e controllo sono un requisito fondamentale per poter far leva su risorse di diversa tipologia – proprietarie, co-locate o semplicemente affittate come servizio da un provider pubblico – e distribuirle in modo uniforme al centro come alla periferia. Per sostenere le iniziative di trasformazione digitale il vecchio concetto di data center monolitico cede il posto a infrastrutture più distribuite, anche se spesso al centro di queste infrastrutture – in funzione della crescente importanza del dato per le decisioni di business – il data center deve subire un adeguato potenziamento in direzione di una maggiore capacità di raccolta, analisi e protezione del dato.
FAR FRONTE ALL’ESPLOSIONE DEI DATI
Assistiamo quindi a un paradosso: «Mentre i data center finiscono spesso per ospitare equipaggiamenti molto avanzati, di ultima generazione, affiancati da personale impegnato in importanti progetti di analisi di informazioni sempre più critiche e bisognose di protezione, l’architettura stessa del data center è di una generazione precedente» – osserva ancora Patano. Un altro cambiamento nel modo di gestire le nostre fabbriche dei dati deriva proprio dalla convergenza tra IT e OT, tra tecnologie informatiche convenzionali e quelle “operative”, l’informatica delle macchine di produzione. I data center smart diventano essi stessi grandi consumatori di dati per poter decidere autonomamente su come utilizzare l’energia, come predisporre i sistemi alle variazioni di capacità, quali servizi e risorse remote attivare. E all’interno dei data center entrano tecnologie tipicamente OT, in particolare la sensoristica destinata a una migliore gestione dei parametri ambientali.
Tutto questo incide sulle organizzazioni IT delle imprese, anch’esse impegnate in una profonda trasformazione, non più preposte al buon funzionamento delle componenti del data center ma sempre più orientate alla dimensione di erogazione di servizi e orchestrazione di risorse distribuite. La gestione delle nuove architetture richiede in parallelo nuove competenze, con una particolare attenzione alle problematiche di sicurezza e gestione del rischio, e una maggiore capacità di adattamento al dinamismo dei carichi di lavoro. «Il cambiamento riguarda anche gli spazi e i layout all’interno del data center» – precisa Patano. «Chi gestisce queste facilities deve far spazio ad applicazioni di AI basate su GPU, su nuove infrastrutture iperconvergenti, tutte destinate a prendere in qualche misura il posto delle vecchie infrastrutture. I nuovi dispositivi richiedono tecnologie di raffreddamento e dispersione del calore, in grado di offrire, tra le altre cose, una maggiore protezione contro i rischi di downtime».
Secondo IDC, le difficoltà non ostacolano la tendenza di molti utilizzatori di servizi di cloud computing, in particolare IaaS, a dotarsi di risorse cloud private. Una indagine globale effettuata sugli utenti IaaS rivela che la semplicità e la flessibilità che il cloud riesce a raggiungere in termini di provisioning piace molto. Il 6% di questi utilizzatori afferma di avere accesso a risorse private in modalità cloud. Nel 27% dei casi, queste nuvole private sono di tipo managed, implementate as a service sulle reti di qualche provider. In un altro terzo dei casi, la virtualizzazione in cloud riguarda infrastrutture hardware di tipo tradizionale. Ma nel 41% dei casi, a conferma delle ottime condizioni di salute di questo nuovo mercato, il cloud privato passa per i nuovi apparati “iperconvergenti”. Se la semplicità del self-service è uno dei plus più interessanti per chi investe in soluzioni hyper-converged (HCI), IDC invita a considerare anche la presenza di funzionalità “cloud-like” direttamente integrate nell’offerta dei principali fornitori di apparati iperconvergenti. «Chi investe in queste soluzioni – sottolinea Patano – ottiene direttamente il supporto alle nuove architetture applicative, spesso attraverso la containerizzazione. E inoltre, può contare su sofisticate console di monitoraggio dell’uso delle risorse convergenti e dei relativi ritorni sugli investimenti».
SARÀ QUELLO GIUSTO?
A fronte del crescente interesse nei confronti di soluzioni HCI, IDC offre una serie di considerazioni rivolte al potenziale acquirente di queste tecnologie, invitando i decisori aziendali a documentarsi il più possibile su questa nuova opportunità. In “Understanding hyperconverged infrastructure and buying the optimal system” la società di ricerche elenca alcuni principi che vale la pena tenere a mente per comprendere meglio la filosofia alla base delle architetture iperconvergenti. Prima di tutto, al contrario di quanto avviene con le architetture standard convenzionali, esistono tante architetture e varianti HCI. Inoltre, ciascun vendor e ciascun prodotto ha i suoi esclusivi punti di forza e le sue debolezze. Non bisogna dimenticare che ogni soluzione HCI di ultima generazione poggia su determinate tecnologie hardware, critiche per una operatività ottimale. E soprattutto che nel mondo del software defined everything, il valore di un sistema HCI è soprattutto legato alla suite di funzionalità software offerte o supportate. Perché un sistema HCI ottimale diventa parte integrante di qualsiasi strategia IT e business concretamente olistica.
Considerazioni che inducono IDC a definire qualche regola di base per l’acquisto consapevole di soluzioni convergenti, che integrano le tradizionali componenti del data center (server e unità di storage) in un unico “pacchetto” che comprenderà potenza computazionale, array e sistemi di interconnessione. I clienti dei vendor di questo mercato – conclude Sergio Patano di IDC – «devono acquisire nuove conoscenze che li portino a capire a fondo la filosofia alla base delle architetture iperconvergenti. In particolare, chi decide in materia di investimenti in IT, deve essere in grado di mettere questa conoscenza in prospettiva, studiando gli aspetti evolutivi delle soluzioni acquistate oggi in quanto gli apparati HCI rappresentano l’hardware del futuro per i data center di nuova generazione». L’impresa nel suo insieme – consiglia ancora l’esperto di IDC – deve sempre valutare diverse offerte HCI, non solo dal punto di vista dei normali parametri che definiscono la capacità di un server o di un array di dischi, ma anche sul piano delle funzionalità aggiuntive – spesso orientate ad aspetti di gestione della scalabilità, o agli ambienti applicativi anch’essi di nuova generazione – che i vendor propongono a completamento delle loro offerte.
«In definitiva – afferma Patano – l’azienda che intraprende un certo percorso deve comprendere fino in fondo il ruolo dell’iperconvergenza nella strategia di modernizzazione del data center e come a sua volta quest’ultimo può diventare il fattore abilitante della trasformazione digitale». Pensando ai parametri che nella prima fase di Internet ci servivano per valutare un investimento in infrastruttura, nel mondo dei sistemi iperconvergenti i punti di attenzione sono molto più complessi e articolati. Le domande da porsi sono molte. L’architettura di riferimento seguita dal vendor è compatibile con l’ambiente in cui i sistemi HCI si troveranno a operare? I vendor selezionati sono più specializzati in certi ambiti verticali, rispetto ai carichi di lavoro che insisteranno sull’infrastruttura? Si possono acquisire sistemi con qualsiasi tipo di hypervisor, o viceversa è più opportuno concentrarsi su offerte che utilizzano hypervisor con cui abbiamo maggiore dimestichezza? In relazione alla scalabilità, è possibile aumentare o diminuire i nodi di una architettura HCI? O addirittura, variare in modo indipendente il numero di nodi di calcolo o di storage? La gestione, soprattutto nelle situazioni in cui il provisioning riguarda i data center core o le soluzioni da attivare nelle sedi distaccate dell’azienda o sull’edge del perimetro IT? Quanto è elevata la fault tolerance? Quali funzionalità di backup e recovery sono previste? Quali aspetti della sicurezza dovranno essere affrontati con soluzioni aggiuntive? Spesso la scelta più corretta è quella che ricade sul sistema di assistenza e consulenza pre e postvendita che il vendor HCI mette a disposizione dei suoi clienti, direttamente o attraverso la relazione con partner specializzati in system integration. Il futuro dei nostri data center non è ancora una commodity.