Data center. La consacrazione del mondo software defined

Il data center continua a cambiare volto, spinto da fenomeni quali la crescente definizione via software, l’affermarsi dell’OpenStack, il trionfo del cloud ibrido e l’affacciarsi prepotente dei “container”, oltre alla spinta verso le infrastrutture convergenti

Benvenuti nel mondo software defined. Non più moda passeggera ma realtà, il SDDC, Software Defined Data Center, si avvia a essere il tratto dominante dei data center di oggi. Del resto, poter avere tutte le componenti chiave del data center amministrate direttamente tramite software presenta indubbi vantaggi sotto molti aspetti, primo fra tutti quello di rendere sempre più rapido l’adeguamento alle mutevoli esigenze di business, vero e proprio fattore chiave dell’IT, sempre più governata da logiche on demand.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Il Software Defined Data Center

«Dopo aver avviato processi di consolidamento e di virtualizzazione non solo degli ambienti server ma anche di quelli storage e networking, aver posto in atto modelli, strumenti e processi che abilitino il self service provisioning e il charge back dei costi, oltre a essersi dotati di un layer per la gestione del cloud che abiliti la ‘movimentazione’ dei workload tra differenti tipologie di infrastrutture cloud, il software defined data center (SDDC) è il prossimo step lungo la curva di maturità per la creazione di un cloud privato e che sia in grado di interagire anche con le offerte di cloud pubblico» – spiega a Data Manager Sergio Patano, research and consulting manager di IDC Italia. Ed è sempre IDC a fotografare con alcuni dati significativi il momento di “disruption” che sta vivendo il mondo dei data center: nelle “Predictions” relative all’Europa, rilasciate a metà febbraio 2015, la società di ricerca e consulenza rileva che il 16% delle aziende del Vecchio Continente ha già investito in ambito software defined, facendo intravedere un trend in sicura crescita, secondo cui le architetture ibride di tipo software defined vedranno nel 2015 un’accelerazione nella loro adozione, «unendo cloud pubblici e privati, e offrendo un movimento delle macchine virtuali senza soluzione di continuità all’interno delle risorse». Questo determinerà, sempre secondo le predictions di IDC, «maggiore efficienza e affidabilità delle architetture software defined, dando ai CIO l’opportunità di mantenere, o in qualche caso riguadagnare, il controllo sulla loro IT, e infine permetterà di eliminare la logica a “silos” tuttora presente nelle aziende».

Il software defined data center non è però «solo un prodotto o una soluzione, ma un vero e proprio modello operativo, che consente di ottenere gli effettivi vantaggi per il business promessi dal cloud, e cioè agilità e risparmio nei costi» – fa notare Sergio Patano. Per questo, «il successo dell’implementazione del SDDC implica l’adozione di robusti strumenti per la gestione del data center, non solo IT ma anche fisico, come pure l’implementazione di soluzioni che incrementino l’automazione e l’orchestrazione». Ecco perché i decisori IT guardano a questo nuovo modello operativo, così come al cloud e all’automazione, come a una modalità «per trasformare i modelli operativi rendendoli più efficienti, con l’obiettivo di standardizzare e automatizzare la delivery dei servizi, incrementare l’agilità dell’IT in modo tale che sia sempre più a servizio del business» – conclude Patano.

Percorso di razionalizzazione

In altre parole, con il software defined data center prosegue il percorso di razionalizzazione delle risorse che rappresentano le fondamenta del data center: dopo il consolidamento dei server e la virtualizzazione sempre più spinta, che hanno entrambi apportato benefici notevoli in termini di efficienza, agilità e risparmi nei costi, è ora la volta di questo nuovo modello operativo, che trova nel cloud una sponda molto interessante per la sua messa in atto. In effetti, l’ambiente software defined data center semplifica e accelera notevolmente i processi di provisioning e soprattutto la gestione delle risorse virtualizzate di networking, storage e computing, grazie a procedure di automazione basate su policy. Anche perché è ormai assodato il fatto che per andare incontro alle esigenze reali degli utenti è sempre più indispensabile definire una modalità di fruizione dell’IT che sia davvero aperta e che soprattutto permetta di disaccoppiare il livello applicativo dal livello elaborativo e da quello di connessione, proprio allo scopo di ottenere da una parte un’ulteriore ottimizzazione delle infrastrutture, e dall’altra parte anche una risposta rapida alle specifiche esigenze dettate dagli ambienti cloud ibridi o pubblici. In questo senso, il successo del modello operativo software defined data center trova la sua origine anche nel fatto che buona parte dei suoi componenti sono quelli noti, come macchine virtuali, storage virtualizzato, strumenti di composizione dei servizi e portali di self-service, con la componente di gestione della rete in primo piano nell’ottica del cambiamento.

Fenomeni emergenti

Le altre “predizioni”

Ma l’evoluzione del data center non consiste solo nel software defined data center: per esempio, si parla sempre più di sistemi convergenti, con l’unificazione delle componenti server e storage, e anche di nuovi fabric in grado di ottimizzare ulteriormente la rete di supporto. Qualche cifra può aiutare a comprendere la portata dei nuovi fenomeni: le stime più recenti di IDC, a febbraio 2015, dicono per esempio che già oggi l’11 per cento della spesa in storage riguarda i sistemi convergenti; inoltre, un quarto delle aziende (26%) sta già utilizzando storage di tipo flash o SSD; e infine quasi due aziende su cinque (37%) effettuano il backup sul cloud.

Leggi anche:  Nuove offerte di storage NetApp modernizzano i carichi di lavoro per aziende di tutte le dimensioni

Più in dettaglio, è sempre IDC a definire meglio i fenomeni che caratterizzeranno i data center in questo 2015, nelle dieci “Prediction” rilasciate a metà febbraio per l’area Emea, che costituiscono una lettura interessante per comprendere bene l’evoluzione in atto. Al primo posto, si parla di sistemi storage ibridi contenenti la tecnologia flash, che costituiranno il 40% del fatturato derivante da hardware esterno nel 2015, anche in un contesto di costi per Gigabyte in continua discesa. Non meno interessante è la Prediction numero tre, in base alla quale l’adozione di OpenStack andrà molto oltre la fase attuale che è tuttora appannaggio degli “early adopter”. Come noto, OpenStack è un software open source per realizzare cloud privati e pubblici, che permette di controllare tutte le risorse del data center, da quelle di computing allo storage e al networking. Per IDC, le ragioni di questa rapida crescita di interesse sono l’intenzione di evitare di rimanere legati a un solo vendor e di non incorrere in costi di licenza onerosi, cui si associano adesso una maggiore maturità e stabilità della piattaforma, cui non è estranea l’adesione al progetto di vendor di alto profilo.

L’ora dei container

Di rilievo, anche la Prediction numero quattro sulle nuove tecnologie dei “container”, che secondo IDC cresceranno quest’anno fino a raggiungere una porzione a doppia cifra dei carichi di lavoro “digitali” dell’Infrastructure as a Service. I container sono in sostanza costituiti da processi “leggeri” eseguiti all’interno di un sistema operativo che li ospita: in questo modo, le istanze virtuali possono condividere un unico sistema operativo ospite unitamente alle librerie e ai driver. Il vantaggio dei container è nella loro ridotta dimensione, nella facilità di migrazione e di download, nella rapidità di un loro backup e di ripristino, e infine nel fatto che consumano meno memoria. Per questo, si pongono come uno strato aggiuntivo sopra l’IaaS o le macchine virtuali, anche se prestano il fianco a rendere più complessa la gestione del cloud nel suo insieme.

Il ruolo del Canale

Anche se un po’ laterale rispetto al tema principale di questo dossier, vale ugualmente la pena di soffermarsi sull’ultima delle Prediction di IDC per il 2015 dei data center in Europa, la numero 10, visto che tratta delle terze parti, cioè dei partner, il cui ruolo è destinato a crescere ulteriormente nella trasformazione dei data center. Infatti, la società di ricerca e consulenza predice per quest’anno una maggiore frammentazione del canale operante nell’ambito dei data center, che andrà a polarizzarsi verso i reseller che hanno compiuto con successo la transizione verso il cloud, lasciando invece indietro quegli operatori che non l’hanno ancora completata. Ma soprattutto, nelle previsioni di IDC, la trasformazione del canale sarà guidata da chi si è mosso per primo nei nuovi terreni dell’OpenStack e del software defined data center, e questo comporterà che i vendor IT conducano i loro partner lungo questa trasformazione.

Traffico dati in crescita

Che il cloud – soprattutto nella sua declinazione di cloud ibrido – sia destinato a rinnovati successi nella trasformazione dei data center non è certo una novità, e a delineare i contorni del fenomeno interviene Cisco, che nella quarta edizione dello studio annuale Global Cloud Index (2013-2018), rilasciata nel novembre 2014, prevede una crescita continua e rilevante del traffico, dei carichi di lavoro e dello storage cloud, con il cloud privato significativamente maggiore del cloud pubblico. Secondo lo studio, nel corso dei prossimi cinque anni, il traffico data center triplicherà e il cloud rappresenterà il 76% del traffico data center totale. Più in dettaglio, nei cinque anni dal 2013 al 2018, il traffico data center globale triplicherà con un tasso annuo composto di crescita (CAGR) del 23%, crescendo da 3,1 zettabyte all’anno nel 2013 a 8,6 zettabyte all’anno nel 2018, dove uno zettabyte corrisponde a un trilione di gigabyte. Nella classificazione di Cisco, il traffico data center include quello verso l’utente e quello da data center a data center, oltre al traffico che rimane all’interno del data center stesso.

Maggiore densità e Downsizing

Su un orizzonte temporale ancora più lontano, visto che si arriva fino al 2025, si collocano le previsioni formulate nell’indagine “Data Center 2025: exploring possibilities” (visualizzabile nella sua interezza a questo indirizzo), realizzata da Emerson Network Power. Nella parte relativa a computing e storage, una buona fetta degli oltre 800 manager interpellati ha espresso alcuni spunti interessanti. In primo luogo, le risorse basate sul cloud computing saranno una componente fondamentale della capacità di storage e di computing, consentendo una gestione più flessibile della capacità, in quanto la maggior parte delle interfacce utente di computing saranno distribuite su dispositivi mobili o portatili. D’altra parte non spariranno completamente i sistemi informatici aziendali, che avranno invece a che fare con l’internazionalizzazione di un maggior numero di funzioni di intelligenza artificiale per il processo decisionale e la produttività. Inoltre, i data center si ridurranno di dimensione, rendendo più competitive le risorse di proprietà in relazione al cloud computing. Questo downsizing potrebbe anche favorire una maggior flessibilità di ubicazione dei data center, risparmiando dunque spazio. Ma non solo. I data center aumenteranno la loro densità, ma se si considera che dal 2006 la densità è rimasta stazionaria, il raggiungimento di nuove soglie necessita di un incremento tale che, se si verificasse realmente, potrebbe stravolgere le modalità di configurazione e climatizzazione dei data center. Gli apparecchi potrebbero quindi subire dei cambiamenti, magari andando sempre più verso processori ARM e unità a stato solido, ma la verità è che si tratta per il momento di sole possibilità.

Leggi anche:  Schneider Electric, potenza e sostenibilità per i data center del futuro

Infatti, il settore ha adottato negli ultimi anni molte innovazioni, come voice over IP, UPS efficienti, virtualizzazione, mentre molte altre sono state ignorate, e si sta ancora ragionando sulle difficoltà relative a efficienza, scalabilità e disponibilità.

Il nodo della rete

Nella trasformazione del data center, stanno assumendo un ruolo sempre più di primo piano anche le evoluzioni di un altro elemento fondamentale, quello costituito dall’infrastruttura di rete. Anche nel caso del networking, il movimento verso le modalità software defined sta prendendo piede, per gli indubbi vantaggi che comporta: concettualmente, il software defined networking è analogo alla virtualizzazione e al software defined data center, in quanto disaccoppia l’elaborazione del traffico dei dati di rete dalla logica e dalle regole che controllano i flussi di tali dati. In questo modo, si può avere maggiore controllo sulla gestione dei dati, grazie alla possibilità di applicare differenti regole e funzionalità di routing, tra cui anche la scelta di decidere quale tipo di dati vada ritenuto locale e quale remoto. Ma bisogna sgombrare il campo da un equivoco di fondo, costituito dall’idea che il software defined networking sia valido solo per i data center su larga scala, cioè quelli che forniscono servizi cloud pubblici, privati o ibridi. Ma in realtà il software defined networking è “adatto per tutti i livelli di data center, rendendo la configurazione, la gestione e il monitoraggio ancora più semplici, con un impegno inferiore da parte delle persone IT. Tutto ciò è di maggiore interesse per le aziende più piccole che non possiedono un’infrastruttura IT simile alle organizzazioni di grandi dimensioni» – sottolinea Paolo Lossa, regional manager Italia e Iberia di Brocade.

Verso l’infrastruttura convergente

Non solo: anche se è corretto dire che il software defined networking è stato spesso promosso principalmente sulla base del risparmio nei costi, è anche vero che i vantaggi a lungo termine permettono alle aziende di implementare velocemente cambiamenti di rete, rispondere rapidamente alle esigenze di business più immediate e avviare nuove tecnologie o iniziative di business senza la necessità di rivedere gli acquisti hardware, che se poi dovessero avere luogo, saranno ancora più semplici da implementare. Quindi, il software defined networking non solo è semplice per i costi di oggi, ma anche per le innovazioni di domani. Ma soprattutto il software defined networking apre ulteriormente la strada alla tendenza vincente degli ultimi tempi: quella della convergenza, che vede le componenti chiave del data center, cioè server, storage e networking, allinearsi sempre più alle esigenze delle applicazioni, attraverso un unico punto di gestione e un modello di servizio comune. E solo un’infrastruttura realmente convergente può essere in grado di realizzare tutte le promesse di una nuova IT ancora più al fianco delle esigenze concrete di business.

Leggi anche:  Nuove offerte di storage NetApp modernizzano i carichi di lavoro per aziende di tutte le dimensioni