Di pari passo con la digital transformation, il data center prosegue nella sua evoluzione, spinta da fenomeni quali il software defined, l’iperconvergenza e l’edge computing, ma non perde la sua centralità all’interno della strategia IT complessiva
Da qualche anno, anche il data center ha cambiato volto. Le ragioni sono molteplici: si va dalla spinta determinata dalla trasformazione dell’IT aziendale, che è sempre più visto come abilitatore del business, all’accelerazione dovuta all’affermarsi del cloud, soprattutto nella veste ibrida, passando anche dallo sviluppo dell’iperconvergenza, che pare essere inarrestabile. Anche fenomeni come l’Internet of Things o l’automazione delle operation, così come la consacrazione di tutto ciò che è “software defined” e l’interesse ormai conclamato per le infrastrutture di tipo convergente, rappresentano fattori di trasformazione che stanno sempre più cambiando il modello di data center al quale eravamo abituati, che assume nuove forme e dimensioni, spostandosi anche verso l’edge, cioè verso la periferia, della rete con la proposta di micro data center che cominciano a fare la loro comparsa. Ma, nonostante l’evoluzione incessante in atto che determina più di un cambiamento, rimane salda una certezza di fondo: il ruolo fondamentale, ovvero “centrale”, del data center all’interno della strategia IT complessiva non cambia.
Se il data center è sempre al centro
A dispetto di tutte le trasformazioni, «la centralità del data center non è cambiata e non cambierà nel breve termine» – sintetizza Sergio Patano, senior research and consulting manager di IDC Italia, articolando questa affermazione, spiegando che «sicuramente il fenomeno legato alla trasformazione digitale che ha maggiormente impattato sul data center è stato l’avvento del cloud computing pubblico, che ha portato a una sostanziale modifica nell’approccio delle aziende allo sviluppo del proprio data center». Questo cambiamento di approccio non ha però comportato una riduzione dell’importanza del data center aziendale per lo sviluppo del business. E questo perché «da un lato il cloud pubblico ha permesso a molte aziende, soprattutto a quelle di piccole dimensioni o a quelle per le quali la funzione IT non veniva considerata core, di accedere a soluzioni e servizi a cui prima non potevano accedere per motivi di budget, come si può vedere dai non pochi casi di aziende che grazie al cloud pubblico sono riuscite a mettere in piedi una strategia di back-up e disaster recovery, prima difficilmente ipotizzabile» – spiega Sergio Patano. Ma dall’altro lato, prosegue IDC, «le aziende più strutturate hanno visto nel cloud pubblico, e in particolare nell’hybrid cloud, non solo la possibilità di incrementare la loro scalabilità verso l’alto e verso il basso in modo trasparente e fluido, ma anche l’opportunità di poter tornare a sperimentare “più a cuor leggero”, senza dover affrontare costi iniziali di tipo Capex, che tradizionalmente limitano molto le possibilità di intraprendere nuove iniziative. Il lancio di nuovi servizi appoggiati al cloud ha permesso a molte aziende di decidere se “spegnere” le macchine qualora l’attività non avesse portato i risultati sperati, oppure, nel caso contrario, di mantenerle “vive” nel cloud pubblico o riportarle all’interno del data center off premise in caso di successo dell’iniziativa».
Tra iperconvergenza e “software defined”
La dinamica di oscillazione nell’utilizzo del cloud o del data center è molto diffusa, e IDC non manca di far notare che «recenti studi dimostrano che al raggiungimento di determinati livelli per alcuni KPI, key performance indicator, per esempio nel caso venga raggiunta una massa critica prestabilita nell’utilizzo di un servizio online, rimpatriare i workload può risultare maggiormente vantaggioso in termini di costi, gestione e rispetto delle policy aziendali». Ma questa dinamica è resa possibile anche dal fatto che le tecnologie alla base dei data center continuano nella loro evoluzione, che negli ultimi tempi vede prevalere sempre più fenomeni quali la crescita dei sistemi iperconvergenti e l’utilizzo di paradigmi di tipo “software defined”, che rappresentano il punto focale nello sviluppo evolutivo per trasformare il data center e renderlo ancora più “cloud ready”. Non a caso, le ultime stime di IDC prevedono che gli “hyperconverged system” cresceranno in valore nel periodo 2015-2020 a un tasso di crescita medio annuo (CAGR) molto sostenuto e di poco inferiore al 75 per cento. Non solo: per la “software defined infrastructure” le analisi mettono in evidenza «un crescente interesse e una crescente diffusione in termini di adozione da parte delle aziende, sia come soluzioni stand alone che come soluzioni pre-integrate all’interno di sistemi iperconvergenti» – sottolinea Sergio Patano.
Livelli di maturità differenti
Prima di analizzare più da vicino lo sviluppo dell’iperconvergenza, è il caso di soffermarsi sul mondo software defined, operando una necessaria distinzione per quanto riguarda il livello di maturità delle tre componenti dell’infrastruttura, cioè compute (ovvero il Software Defined Computing), storage (Software Defined Storage) e networking (Software Defined Networking): «Il Software Defined Computing costituisce un mercato ampiamente maturo e ben consolidato all’interno delle realtà aziendali, mentre il Software Defined Storage è in forte crescita, con numerose aziende che vi stanno puntando per far fronte alla crescente mole di dati e alla conseguente necessità di gestirli e di metterli in sicurezza. Il Software Defined Networking invece è ancora un mercato che ha un livello di maturità molto basso. Questo è strettamente collegato all’approccio che molte aziende hanno nei confronti delle evoluzioni tecnologiche di questo mercato. Secondo le più recenti survey condotte in tema di approccio all’innovazione tecnologica in ambito networking, quasi il 60 per cento delle aziende intervistate dichiara di adottare le nuove tecnologie solo quando sono mature e pronte: un paradosso, visto che a quel punto non si tratterà più di soluzioni innovative» – fa notare Patano.
Virtualizzare anche la rete
Ma in cosa consiste esattamente il Software Defined Networking? Concettualmente, è analogo alla virtualizzazione e al Software Defined Data Center, in quanto disaccoppia l’elaborazione del traffico dei dati di rete dalla logica e dalle regole che governano i flussi dei dati di rete stessi. In questo modo, si può avere un controllo di livello superiore sulla gestione dei dati, grazie alla possibilità di applicare differenti regole e funzionalità di routing, comprendendo tra queste facoltà anche la scelta di decidere quale tipo di dati sia da ritenere locale e quale invece debba essere considerato remoto a tutti gli effetti. Va però ribadito che è necessario sgombrare il campo da un equivoco di fondo che tuttora persiste: quello costituito dall’idea che il Software Defined Networking sia valido solo per i data center su larga scala, detti anche “hyperscale”, cioè quelli che forniscono servizi cloud pubblici, privati o ibridi. Perché in realtà il Software Defined Networking è indicato per tutti i livelli di data center, in quanto rende la configurazione, la gestione e il monitoraggio della rete ancora più agevoli, con un impegno inferiore da parte del personale addetto all’IT.
Comprendere i fenomeni
Anche nel caso delle soluzioni “iperconvergenti” si tratta in sostanza di un’ulteriore evoluzione del concetto alla base della virtualizzazione, con l’obiettivo di semplificare la gestione dell’infrastruttura, massimizzando nel contempo l’utilizzo delle risorse hardware. Quella che inizialmente era la semplice implementazione di software di virtualizzazione su risorse hardware indipendenti, come server, storage e networking, allo scopo di utilizzarli al massimo, si è evoluta negli ultimi anni nella disponibilità di infrastrutture convergenti nelle quali hardware di tipo commodity arriva in azienda già integrato, configurato e soprattutto ottimizzato per specifici workload. Il passo ulteriore, rispetto a questo concetto, è quello delle soluzioni iperconvergenti, che vanno ancora oltre, integrando le componenti di compute, storage e networking all’interno di appliance che si possono installare nel giro di poche decine di minuti.
Vantaggi ed esigenze
Più in dettaglio, se le prime soluzioni convergenti univano risorse virtuali all’interno di un’unica unità fisica, i nuovi sistemi iperconvergenti si caratterizzano per la presenza di un hypervisor on top all’intero stack tecnologico integrato sia hardware sia software. Grazie a questo, gli hyperconverged system sono in grado di garantire livelli superiori di flessibilità, gestendo l’intero insieme di unità fisiche costituito da server, storage e networking, come se fosse un sistema virtuale unificato, in grado di assumere diverse configurazioni estremamente flessibili, con minori esigenze di amministrazione. Si tratta di una semplificazione ulteriormente favorita dalla circostanza che i sistemi iperconvergenti si basano su hardware standard x86, con un unico sistema operativo e gestionale richiesto per governare tutte le risorse come se si trattasse di un PC, cioè esattamente quello che serve per configurare le infrastrutture IT in quella maniera agile che oggi è imposta dalla digital transformation. Se quindi i vantaggi delle infrastrutture convergenti nascevano anche dal fatto che permettono di ridurre i costi per il cablaggio, il raffreddamento, l’energia elettrica e gli ingombri, nel caso dei sistemi iperconvergenti questi vantaggi sono ancora più evidenti, data la presenza di un’unica appliance nella quale i livelli server, storage e virtualizzazione vengono raggruppati con un unico insieme scalabile di risorse completamente integrate per una gestione più facile, rapida e conveniente.
Quando l’IT è ibrido
Un altro fenomeno salito recentemente alla ribalta è quello dell’hybrid IT. Secondo IDC non si tratta di un fenomeno passeggero, «ma di un obiettivo a cui le aziende devono puntare nel percorso di trasformazione del proprio data center a supporto della trasformazione digitale». Il perché è presto detto: «CIO e IT manager non distribuiranno più servizi IT da un’unica infrastruttura monolitica, ma da un’infrastruttura ibrida, che sarà in grado di erogare servizi da un pool infrastrutturale grazie all’avvento del software defined e che punterà a disegnare una soluzione “tailor made”, per soddisfare le esigenze del business, non tanto da un punto di vista economico, quanto soprattutto da un punto di vista di reattività al time-to-market» – sottolinea Sergio Patano di IDC Italia, spiegando che «questo consentirà di preservare gli investimenti effettuati in ambienti legacy e in applicazioni non facilmente migrabili verso il cloud, senza però perdere i vantaggi in agilità che le offerte cloud mettono sul mercato». È anche per questo che si prevede un’ulteriore accelerazione nell’adozione del cloud ibrido e del multicloud. IDC prevede che entro il 2018, come a dire da qui a un anno e mezzo, «oltre la metà degli asset IT risiederà al di fuori del data center aziendale». E lo stesso accadrà ai dati, tanto che «entro due o tre anni, le aziende avranno più dati all’esterno che non all’interno del proprio data center, spingendo le aziende a ridisegnare la propria strategia di cloud storage per favorire la migrazione, gestendo correttamente performance, sicurezza e privacy». Seguendo questa tendenza, IDC prevede inoltre che entro pochi anni, «il cloud diventerà anche il meccanismo di delivery per gli analytics, aumentando in modo consistente il consumo dei dati pubblici in cloud, aprendo la strada alla creazione di nuove applicazioni che si basano proprio sull’utilizzo di questi dati».
Verso l’edge computing
La prossima frontiera è sicuramente quella dell’edge computing, sicuramente uno dei fenomeni che sta cominciando ad attirare l’attenzione di molte realtà anche italiane. Come fa notare Sergio Patano di IDC, «tra i driver che stanno portando a sviluppare una strategia edge all’interno delle aziende troviamo quelli legati alla riduzione della latenza per la distribuzione dei contenuti, ovvero la content delivery, per migliorare la customer experience, per esempio nel caso dello streaming video; la possibilità di elaborare nel punto di origine i dati raccolti da sensori Internet of Things, cioè il data processing, per migliorare il time-to-market e la velocità di risposta agli eventi, anche grazie all’implementazione di soluzioni di automazione basate su policy e regole prestabilite; e infine ancora la riduzione della latenza in quanto il traffico dati è mantenuto localmente e consente un maggior controllo sulla trasmissione dei dati, in ottica peering traffic». In effetti, la quantità di dati che si prevede venga generata dall’Internet of Things è quasi inimmaginabile: solo per fare un esempio, secondo recenti previsioni di Gartner, entro il 2020 ci saranno oltre 26 miliardi di dispositivi interconnessi con 215 trilioni di connessioni stabili e 63 milioni di nuove connessioni al secondo. È proprio da qui che nasce l’esigenza di ripensare anche i modelli di gestione dei dati: perché è solo operando a livello periferico, cioè sull’edge della rete, che si possono gestire vaste quantità di dati senza necessariamente passare ogni volta dal cloud. I vantaggi di questo cambio di paradigma non mancano: da una parte, si riduce la richiesta di banda necessaria per raggiungere il cloud o il data center aziendale, dove avverrebbe normalmente l’elaborazione dei dati, e dall’altra parte si può determinare un incremento nei livelli di sicurezza, visto che le infrastrutture possono essere controllabili più agevolmente.
Tra IoT e automazione delle operation
Lo sviluppo atteso nelle applicazioni di tipo Internet of Things riguarda però anche il funzionamento e la gestione del data center stesso, in ottica di crescente automazione delle operation. La tendenza è ormai tracciata: incorporando sempre di più all’interno dei data center le tecnologie smart degli oggetti connessi e intelligenti, oppure quelle dei sensori che comunicano tra loro e con i sistemi IT, i gestori e gli amministratori dei data center saranno sempre più in grado di tracciare al meglio lo stato effettivo dei componenti del data center stesso, valutando con migliore precisione lo stato di salute degli ambienti e avendo la possibilità di gestire gli eventuali interventi con maggiore efficacia. Sviluppando ulteriormente questo approccio, i classici sensori che stimano temperatura, umidità e consumi potranno essere integrati all’interno della stessa rete a fianco degli strumenti di misurazione e controllo, allo scopo di realizzare sistemi di autodiagnosi e di autoriparazione oppure di semplice allerta. Si tratta dell’importante filone della manutenzione predittiva, che se viene applicata alle infrastrutture IT, è senz’altro in grado di assicurare superiori livelli di uptime del data center.