Cloud computing – Virtualizzazione, la prospettiva cloud

Cloud computing - Virtualizzazione, la prospettiva cloud

Come aiutare le aziende a individuare il percorso più corretto verso la virtualizzazione per tradurre gli investimenti in una opportunità di efficientamento e ottimizzazione del data center e rendere sostenibile nel tempo uno scenario cloud

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La virtualizzazione è un elemento irrinunciabile per la creazione di infrastrutture IT moderne ed efficienti, potenzialmente in grado di ridurre il TCO e aumentare la produttività degli asset complessivi. Purtroppo, non sono ancora del tutto risolti i problemi legati a una ottimizzazione della sua gestione, considerata sempre più complessa. Qual è l’approccio più corretto per procedere a una virtualizzazione delle risorse di data center? Quali sono i vantaggi reali? Quali le prospettive?

 

UNA VISIONE D’INSIEME

«Ciò che appare sempre più evidente è lo stretto legame tra virtualizzazione e cloud – afferma Luca Venturelli, direttore della divisione server & cloud di Microsoft Italia (www.microsoft.com/it-it/). «L’approccio più corretto alla virtualizzazione deve prevedere una metodologia di data center aziendale che miri a un’integrazione di computing, storage e networking in una logica di servizio cloud». Si può partire dalla virtualizzazione della tecnologia di base, prevedendone la gestione e la governance, per poi aggiungere l’automazione e l’accesso ai servizi in modalità self-service, qualificando il tutto come soluzione di cloud, privata o ibrida, basata su Windows Azure. «Il Cloud OS di Microsoft – spiega Venturelli – intende garantire flessibilità rendendo l’infrastruttura elastica e scalabile, dando la possibilità di creare e gestire applicazioni su diverse piattaforme e dispositivi e supportando la produttività degli utenti ovunque e attraverso qualunque dispositivo. Le maggiori criticità sono legate a fattori di scalabilità e affidabilità, requisiti che devono essere però raggiunti a costi di acquisizione e gestione contenuti».

Denis Nalon, business programs manager di Fujitsu Technology Solutions (www.it.fujitsu.com), è convinto che «il percorso di virtualizzazione deve essere fondato su una visione a 360 gradi mirata a individuare le vere esigenze delle singole organizzazioni. Indispensabile è fornire alle aziende modalità di intervento che ne semplifichino l’adozione e implementazione. Soluzioni pre-integrate e pre-testate, per esempio, velocizzano la fase di implementazione e incorporano le best practice maturate in numerosi progetti. Consolidamento, semplificazione, efficienza e produttività a garanzia della business continuity. Tutto questo è quanto può riservare la virtualizzazione che, come ogni altra proposizione tecnologica, deve essere fermamente ancorata a criteri di riduzione e risparmio energetico assimilabili al green computing. Infine – spiega Nalon – «il raggiungimento di un certo livello di automazione e l’adozione di strumenti di orchestrazione possono essere cruciali, in quanto rendono possibile una corretta relazione tra IT e line of business. A nostro avviso – conclude Nalon – tutto ciò permette di porre l’IT come motore di un cambiamento organizzativo invece che essere parte passiva nell’ambito dei cambiamenti in atto».

Anche Andrea Bertoldo, responsabile offerta cloud (direzione marketing) di BT Italia (www.globalservices.bt.com/it/) ritiene che l’approccio più corretto verso la virtualizzazione, e a una sua prospettiva cloud, debba partire da un’analisi dei processi aziendali e delle applicazioni. «Reali benefici – prosegue Bertoldo – si ottengono se si procede attraverso una strategia d’insieme applicabile a tutte le componenti di una infrastruttura ICT poiché un’architettura complessivamente virtualizzata permette maggiore flessibilità e scalabilità e una netta separazione tra chi eroga il servizio e chi, invece, ne beneficia. Occorre, però, fare una considerazione: non tutto è virtualizzabile e non ha senso virtualizzare tutto. Essenziale è comprendere a fondo le esigenze aziendali e come queste possono trarre vantaggio da una migrazione verso ambienti virtualizzati. Vi sono ambiti – ad esempio, alcuni ambienti legacy – in cui l’introduzione della virtualizzazione può portare vantaggi, ma anche una maggiore complessità di gestione. Da un punto di vista generale, oltre a importanti riduzioni dei costi – aggiunge Bertoldo – e alla semplificazione delle attività di gestione, in un contesto economico che vede i responsabili IT disporre di budget spesso in riduzione, i vantaggi più rilevanti si traducono nella possibilità di dotare i dipartimenti IT di soluzioni in grado di velocizzare e potenziare la capacità di allineare i propri servizi ai cambiamenti sempre più rapidi del business, offrendo una adeguata reattività e favorendo, con la propria flessibilità di gestione, un rilevante vantaggio competitivo. Un esempio fra tutti: un importante gruppo italiano operante nel settore degli accessori moda aveva la necessità di introdurre velocemente in azienda una soluzione di gestione dei contenuti su tablet. Ebbene – conclude Bertoldo – poiché i tempi del progetto non consentivano di attivare risorse tradizionali, la soluzione ha previsto l’accesso a una piattaforma di gestione dell’intero parco dispositivi mobili (tablet) completamente in the cloud».

Paolo Delgrosso, infrastructure leader di Cisco Italia (www.cisco.com/it), ribadisce l’importanza di approcciare la virtualizzazione con una logica d’insieme, che deve necessariamente riguardare l’intera infrastruttura tecnologica. Niente di più sbagliato, invece, procedere alla virtualizzazione di una singola componente. «L’evoluzione dell’infrastruttura, infatti, come rivela Gartner – spiega Delgrosso – passa per il fabric computing, ossia la stretta integrazione tra rete convergente e computing, che in Cisco è rappresentata dallo Unified Computing System». Delgrosso afferma, inoltre, che «grazie alla tecnologia di virtualizzazione si è riusciti a ridurre il costo di gestione per macchina di oltre il 50%, mentre il tempo per avere il server disponibile è passato da settimane a 15 minuti. Uno dei punti critici della virtualizzazione è la creazione della rete virtuale all’interno dei server, aggiunge Delgrosso. Ciò richiede una revisione della politica di sicurezza delle architetture e dei servizi di rete, ad esempio i firewall, e la necessità di un amministratore della rete virtuale all’interno dei server. Un secondo punto di attenzione sono le prestazioni di I/O dei server: più macchine virtuali si concentrano su di un server fisico, maggiori sono le interfacce da gestire, è pertanto necessario evolvere l’infrastruttura verso reti convergenti a velocità 10G o loro multipli».

Leggi anche:  Il Cloud Complexity Report 2024 di NetApp rivela la grande importanza dell’AI a livello globale

Per Gabriele Provinciali, senior solution architect di CA Technologies (www.ca.com/it), tuttavia «l’adozione o l’espansione della virtualizzazione, come mero elemento di riduzione costi, non sembra sufficiente a giustificare un investimento in soluzioni tecnologicamente complesse e potenzialmente onerose. Gli interventi devono prevedere un bilanciamento tra fattori quantitativi e qualitativi». Da sottolineare, «come l’implementazione di queste tecnologie – spiega Provinciali – si traduca in un ulteriore vantaggio, che consiste nella possibilità di contabilizzare accuratamente il ciclo di vita della risorsa utilizzata e indirizzandone l’utilizzo alle entità più appropriate. Il cloud computing è il meccanismo di trasformazione aziendale in grado di far transitare le risorse IT da una logica di possesso a una logica di utilizzo, dove ogni risorsa è contraddistinta da un contratto d’uso e da un ciclo di vita. La virtualizzazione, in tal senso – conclude Provinciali – è quindi uno strumento di disaccoppiamento delle risorse dalla loro posizione fisica, e un punto di passaggio obbligato per chi intende preoccuparsi solamente della disponibilità di una risorsa e non della sua manutenzione».

Per Fabrizio Garrone, solutions manager di Dell Italia (www.dell.it), il percorso verso la virtualizzazione implica standardizzazione su tecnologie industry standard, semplificazione – attraverso gestione integrata e unificata di server, storage, networking, servizi e applicazioni – e, infine, automatizzazione delle stesse attraverso un uso più efficace e self service delle risorse IT. «Naturalmente – dice Garrone – più la dimensione dell’infrastruttura tecnologica aziendale è grande, più ogni singolo passo di questo approccio è di fondamentale importanza perché la virtualizzazione porti un reale vantaggio. Molte aziende implementano la virtualizzazione come strategia per ridurre i costi, aumentare la flessibilità, la gestibilità dell’IT e migliorare l’efficienza, spiega Garrone, ma il più delle volte virtualizzano una percentuale relativamente ridotta della propria infrastruttura IT. Le aziende che non estendono la portata della virtualizzazione all’intero centro dati possono perdere l’opportunità di usufruire dei potenziali vantaggi offerti da questa tecnologia. La virtualizzazione consente, infatti, di consolidare su un numero più ridotto di attrezzature fisiche l’esecuzione degli ambienti e applicazioni a supporto dei propri processi di business consentendo di raggiungere un utilizzo più razionale e performante delle proprie attrezzature, bilanciandone il carico e garantendo risparmi significativi nella loro gestione e nei costi di energia. Inoltre, è possibile rendere omogenei architetture e ambienti diversi, unificando le procedure e semplificando l’operatività generale con conseguente riduzione della curva di apprendimento e inserimento delle risorse tecniche. Il parco hardware – dice Garrone – passa così da un insieme di asset disomogenei a pool di risorse, liberamente e dinamicamente assegnabili alle diverse esigenze del business».

Leggi anche:  Viaggio tranquillo verso il cloud. E ritorno

Per Ubaldo Agosti, direttore infrastructure management services di Exprivia (www.exprivia.it), «un progetto di virtualizzazione dovrebbe essere l’occasione per rivedere complessivamente l’impianto infrastrutturale, progettando l’intero ecosistema tecnologico e indirizzando anche nuove soluzioni e funzionalità. Non può pertanto prescindere da un’accurata valutazione delle esigenze complessive, dalla conseguente individuazione del perimetro infrastrutturale coinvolto, dalla definizione puntuale del livello di funzionalità richiesto e dal calcolo complessivo del ROI atteso. I progetti di virtualizzazione devono inoltre rappresentare l’occasione per la ridefinizione e il consolidamento di nuovi approcci metodologici e la diffusione di una nuova cultura nella gestione delle infrastrutture IT. La riflessione di Agosti è che «superata la prima fase di consolidamento tecnologico, la virtualizzazione stia rapidamente ampliando il suo ambito d’azione, proponendo nuove modalità di gestione delle attrezzature». E’ pertanto fondamentale approcciare il tema da un punto di vista più strategico che tecnologico, mettendo in campo una complessiva strategia di ottimizzazione delle risorse, di revisione delle funzionalità e dei livelli di servizio. «Da un punto di vista più tecnologico – dice Agosti – particolare attenzione deve essere riposta nella corretta gestione del sistema virtuale, tramite procedure e policy di controllo. Il rischio più grande, riducendosi i tempi di delivery di un nuovo server a pochi minuti, sta – infatti – nell’esplosione di server incontrollata e nel rapido esaurimento delle risorse fisiche. Risulta quindi indispensabile – avverte Agosti – dotarsi di strumenti di gestione, controllo e automazione al fine di far convivere flessibilità e corretto utilizzo delle risorse».

Stessa logica condivisa da Fabio Alghisi, Italy sales manager di Veeam Software (www.veeam.com/it). «Sono dell’opinione – spiega Alghisi – che sia estremamente importante predisporre un accurato piano di virtualizzazione. Se una realtà piccola può affrontare la migrazione al virtuale in modo abbastanza veloce, affidandosi a partner e tecnologie rodate, per realtà più grandi è opportuno che tale migrazione avvenga in modo graduale. Sicuramente occorre un’accurata valutazione del rapporto costi/benefici, afferma Alghisi. Per quanto la scelta della virtualizzazione possa portare a una migliore gestione delle proprie infrastrutture, non è, infatti, automatico che questa costi meno. Non di minor conto è la valutazione sul dimensionamento iniziale e sulla flessibilità necessaria per gestire con il dovuto anticipo eventuali ridimensionamenti futuri».

Per Gastone Nencini, senior technical manager di Trend Micro (www.trendmicro.it), il punto di maggiore criticità è rappresentato dalla sicurezza. «Trend Micro risponde a questa sfida con la soluzione Deep Security, in grado di monitorare tutto il cluster, grazie a moduli di firewalling e lost intrusion prevention. È infatti possibile – dice Nencini – gestire fino a 3 volte il numero di macchine virtuali sullo stesso server fisico rispetto al numero di VDI ospitati utilizzando soluzioni tradizionali e abbattere in misura rilevante i costi di gestione e manutenzione grazie anche al sistema di virtual patching».

Luca Zerminiani, systems engineer manager di VMware Italia (www.vmware.com/it), ritiene fondamentale avere in dotazione strumenti di monitoraggio virtualization-aware, in quanto permettono uno sfruttamento ottimale delle risorse condivise e una corretta pianificazione dei trend di crescita, massimizzando le performance ed evitando sprechi e inefficienze. Un punto, quest’ultimo, su cui concorda Dell. «In assenza di strumenti di gestione centralizzati – afferma Garrone – la messa in opera e la gestione di una soluzione multi-fornitore può risultare particolarmente complessa. Per risolvere questo problema, le aziende possono adottare un approccio aperto, in grado di offrire funzionalità di gestione unificate e consolidate con l’installazione e la configurazione di hypervisor di più fornitori».

Per Provinciali di CA «un punto critico emerso con clienti che hanno implementato la virtualizzazione da lungo tempo risiede nel fenomeno del Virtual Sprawling. La disseminazione incontrollata di istanze virtuali che sfuggono alle regole di conformità prestabilite. Il maggior danno può essere individuato proprio nella violazione dei criteri di conformità a normative aziendali o nazionali».

Marco Ciceri, branch manager di OVH (www.ovh.it) è dell’idea che la virtualizzazione offra alle imprese l’opportunità di condividere e ottimizzare le risorse informatiche dei data center di loro proprietà. «Allo stesso tempo, la virtualizzazione dona grande flessibilità, perché permette di utilizzare tutto il potenziale delle macchine, di crearne nuove in caso di imprevisti o di picchi di attività, e di eliminarle quando i bisogni diminuiscono. Si tratta – continua Ciceri – di creare i presupposti per la creazione di una piattaforma cloud ready consentendo alle aziende di approfittare pienamente dei vantaggi della virtualizzazione. Esternalizzando le infrastrutture, i clienti non si preoccupano più di acquistare o manutenere il materiale informatico. Si riducono così in modo drastico i costi interni di elettricità, sicurezza e gestione. Al contrario, con le infrastrutture interne, il costo di acquisto del materiale è redditizio dopo alcuni anni, quando le macchine sono obsolete».

Leggi anche:  VMware accelera l'innovazione data-driven con nuove funzionalità avanzate di data services per VMware Cloud Foundation

 

CLOUD BENEFIT

Quale ordine di risparmio di costi può consentire la virtualizzazione? E’ possibile fare degli esempi concreti? «In prima analisi – dice Luca Venturelli (Microsoft) – virtualizzare significa utilizzare al meglio i server, con un aumento delle performance valutabile tra il 15% e il 70% e un risparmio quattro volte superiore alla originaria configurazione».

Per Luca Zerminiani (VMware) i vantaggi nell’adozione di tecnologie di virtualizzazione sono indubbi: «Abbattimento dei costi hardware, miglioramento del TCO e della gestione dei processi, riduzione dei consumi energetici e dei costi operativi. Tra i numerosi casi di successo, Zerminiani cita Mediaset, passata a otto server fisici dagli iniziali 230 e ora in grado di approvvigionare un server in meno di 10 minuti, a fronte delle 4/5 settimane che occorrevano prima. Un altro caso è quello di Radici, che ha virtualizzato il 90% dei servizi erogati e abbattuto il consumo di energia (dal 90% al 38% di assorbimento per l’UPS), liberato spazio fisico nella sala server e liberato risorse nell’area ICT».

Denis Nalon (Fujitsu) ricorda invece il caso di Gilmar, importante gruppo italiano dell’abbigliamento giovane di alta gamma. «In Gilmar, grazie all’implementazione di 31 server virtuali su quattro server fisici, è stato possibile ridurre i costi legati al consumo elettrico di circa 10mila euro all’anno, già dopo un anno dall’inizio del progetto».

«Le best practice – afferma Andrea Bertoldo (BT) – evidenziano come gli investimenti possano tradursi in una riduzione fino al 40% del TCO». Nello specifico, Bertoldo cita un esempio che riguarda un’azienda italiana operante nel settore manifatturiero (produzione di cellulosa) in cui il consolidamento, la convergenza e la virtualizzazione di tutte le risorse IT (network, servizi di data center, sistemi, dispositivi di rete…) ha portato a una riduzione delle risorse utilizzate e della complessità di circa il 32%.

«Nel caso di Principe Group – racconta invece Garrone (Dell) – la virtualizzazione sia dell’ambiente server, sia dell’ambiente storage ha portato all’utilizzo di soli tre server fisici (con un rapporto di 6:1), e a una conseguente riduzione dei consumi energetici di oltre il 50%, riducendo il TCO di oltre il 10%. Altrettanto positivi i risultati di quanto realizzato presso il Policlinico San Marco, dove si sono raggiunti buoni livelli di consolidamento, con un’occupazione inferiore di spazio (elevata densità), riduzione del 10% dei consumi energetici e un incremento generale delle prestazioni. In termini di storage, la virtualizzazione ha poi consentito un aumento di produttività fino all’80%, e una drastica riduzione di downtime e ritardi nell’accesso alle informazioni».

Stessi riscontri positivi per Exprivia. Ubaldo Agosti ricorda come «la virtualizzazione renda più efficiente il numero di server – ottimizzandone l’utilizzo sino a circa un 60%-70% – e migliori nello stesso tempo la gestione degli spazi del data center. «Tutto questo – dice Agosti – comporta una riduzione dei costi energetici, una riduzione dei costi di manutenzione e una riduzione sensibile nei costi di gestione garantendo una rapida compensazione dell’investimento. Ma i veri risparmi – conclude Agosti – si ottengono a livello di rapidità nella risposta ai bisogni del business, consentendo all’IT di rispondere in maniera rapida, flessibile e ottimizzata alle sue esigenze».

Per Fabio Alghisi (Veeam Software), a parte gli immediati risparmi in termini di spazio storage e risorse, «l’utilizzo di tool specifici per gli ambienti virtuali può aiutare ad aumentare tali risparmi e a ridurre sensibilmente – o quantomeno a sfruttare al meglio – i costi legati alla virtualizzazione stessa».