Flessibilità, scalabilità, costi sotto controllo, automazione, conformità con le nuove architetture applicative e Big Data. Dalle risorse fisiche a quelle logiche, la virtualizzazione nelle sue varie declinazioni è il primo ingrediente per le infrastrutture del business digitale

Container, microservizi, serverless, DevOps. L’onda lunga della virtualizzazione ha creato nuovi concetti e nuovi approcci alla definizione e soprattutto al disegno e all’allestimento (provisioning) di una risorsa informatica, all’architettura e all’esecuzione del software. Che cosa è la virtualizzazione e come funziona? La virtualizzazione delle risorse IT coinvolge hardware, software, memoria, dati e componenti di rete. Una nuova filosofia che condivide – con l’innovazione che ha caratterizzato gli ultimi dieci anni – un ulteriore, progressivo allontanarsi dall’originale substrato hardware, e induce ormai a parlare di “virtualizzazione” dell’intero data center, aperto a forme di semplificazione, automazione e intelligenza ormai attivate direttamente dagli algoritmi cognitivi, capaci di plasmare le risorse di elaborazione e i consumi energetici in funzione della dinamicità dei carichi di lavoro o delle necessità di comunicazione.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Alla luce di questa trasformazione, le imprese possono conservare l’architettura di data center esistente per costruire un digital business efficiente, o devono necessariamente adeguare le loro infrastrutture, anche attraverso opportune misure di riorganizzazione e re-skilling? Come dominare concetti come virtual machine e hypervisor, adottando gli stessi modelli di provisioning e servizio che dominano nella relazione tra le aziende e i grandi operatori del cloud computing pubblico? Quali sono gli ambiti di applicazione e le opportunità da cogliere per le aziende? Grazie al coinvolgimento degli analisti di IDC e delle aziende vendor, in questo servizio Data Manager  affronta ancora una volta il mondo della virtualizzazione, per cercare di valutare lo stato dell’arte della “nuova” informatica nelle grandi organizzazioni pubbliche e private come nel contesto dell’azienda medio-piccola.

PERCORSO OBBLIGATO

A Sergio Patano, associate research director di IDC Italia, abbiamo chiesto di aiutarci a definire meglio l’universo del discorso, partendo da una valutazione dell’importanza del fenomeno “software defined” come fattore abilitante nella trasformazione digitale del business. «Nella vision di IDC, il percorso evolutivo che le aziende devono effettuare, per sfruttare al massimo i vantaggi che il cloud promette, passa inesorabilmente dall’adozione di soluzioni software-defined e convergenti o iperconvergenti» – spiega Patano, riferendosi alle infrastrutture basate sui diversi gradi di virtualizzazione, incluse la famiglia di dispositivi detti appunto “iperconvergenti” che oggi rappresentano lo stadio di convergenza più avanzato tra risorse di calcolo, storage e connettività. Il primo step che le aziende devono percorrere per trasformare la propria infrastruttura è quello dell’adozione di soluzioni di virtualizzazione ormai tradizionali, portando avanti processi di consolidamento delle loro risorse fisiche. «Questo step seppur con qualche ritardo in termini temporali rispetto ai paesi tecnologicamente più maturi è stato già portato a termine dalla maggior parte delle aziende italiane» – spiega l’esperto di IDC.

Il secondo step è l’adozione di soluzioni di automazione nella gestione delle risorse virtualizzate, una misura che può avere un duplice obiettivo: il primo è ridurre il numero di errori legati ad attività manuali, il secondo, molto più importante, di liberare risorse IT da dedicare ad attività a maggior valore aggiunto. Fulcro di questo percorso, come accennato, è l’adozione di sistemi convergenti o iperconvergenti (hyperconvergent infrastructure) e soluzioni di software defined infrastructure (SDI).  A valle di questo step – che spesso ne è una naturale conseguenza – è il passaggio alla definizione di un vero e proprio cloud privato, che consente di accedere alle risorse IT virtualizzate con dinamiche e procedure di provisioning (per esempio, la definizione di una macchina virtuale, il numero di processori, la memoria assegnata), simili a quelle che caratterizzano le interfacce dei cloud provider pubblici. «In altre parole, SDI e HCI abilitano la corretta attribuzione dei costi (chargeback) per il consumo dei servizi ICT aziendali e la possibilità di implementare soluzioni di self-service provisioning, elementi fondamentali per lo sviluppo di soluzioni cloud» – sottolinea Patano. Ultimo step di questo tracciato del data center è la creazione di ambienti multicloud e a tendere di cloud ibrido, attraverso i quali poter cogliere il massimo in termini di risparmio, efficientamento, elasticità e time-to-market dalle offerte di cloud pubblico.

INFORMATICA ELASTICA

«Tale percorso evolutivo – ricorda ancora Patano – non deve essere considerato esclusivo appannaggio dei cosiddetti hyperscaler del cloud pubblico, le varie Amazon, Google e i grandi cloud service provider globali locali, ma un passaggio obbligatorio per tutte le realtà che vogliono adeguare le proprie infrastrutture tecnologie». Questo – aggiunge l’analista – vale anche per le aziende italiane che stanno puntando molto su un approccio software-defined nella conduzione della propria infrastruttura sia pensando alla massima ottimizzazione delle componenti infrastrutturali a livello di server, storage e networking, sia adottando direttamente soluzioni convergenti/iperconvergenti.

Leggi anche:  Medallia lancia quattro innovazioni rivoluzionarie nel campo dell'AI

Le aziende si rivolgono a una nuova generazione di schemi di virtualizzazione per costruire una informatica flessibile, scalabile e cloud-ready.  Non solo: l’adozione di soluzioni software defined consente un migliore utilizzo delle componenti hardware evitando alle aziende di dover sovradimensionare la propria infrastruttura IT per rispondere alle esigenze computazionali, di archiviazione o di networking. «Proprio per questo motivo, in cima alle ragioni di adozione di soluzioni software defined troviamo la riduzione della spesa in apparati hardware» – fa notare Patano. «Ulteriore motivazione che spinge le aziende verso tali soluzioni, è la possibilità di un miglior monitoraggio delle risorse e di conseguenza una valutazione dell’effettivo loro utilizzo da parte di ciascun utente». Ciò abilita CIO e responsabili IT ad applicare le già citate formule di chargeback verso le linee di business, consentendo una condivisione dei costi ma soprattutto una miglior comprensione dell’importanza dell’IT nella catena del business.

In quanto elemento costituente di soluzioni convergenti, è facile comprendere come alcuni dei vantaggi che le aziende sperano di ottenere, con l’adozione di un approccio software defined dell’infrastruttura, coincidano con gli obiettivi fissati dai fornitori di dispositivi e soluzioni HCI: un mercato relativamente recente ma già popolato di nomi di aziende specializzate e da diversi big dell’informatica convenzionale che con l’iperconvergenza stanno espandendo la propria offerta. Accanto ai vantaggi di flessibilità e ottimizzazione che sono stati già messi in evidenza – secondo un panel di aziende italiane recentemente intervistate da IDC – l’iperconvergenza mette le aziende nella condizione di migliorare le performance delle applicazioni, velocizzare il provisioning dell’infrastruttura, migliorare il backup/recovery e ridurre i costi del data center e dell’infrastruttura periferica necessaria a coprire le esigenze di filiali e uffici distaccati. Inoltre, l’HCI incide in modo significativo anche sulla produttività del dipartimento IT perché centralizzando in un unico “dashboard” la gestione di ogni tipologia di risorsa, semplifica le attività di monitoraggio e controllo e soprattutto di provisioning verso chi effettua una richiesta di attivazione di una risorsa virtuale.

TUTTI NEL CLOUD IBRIDO

Gli ambienti multicloud e hybrid cloud stanno gradualmente diventando l’architettura de facto nei data center. «Le aziende – esorta Patano – devono adottare le migliori pratiche previste per l’architettura cloud ibrida, sfruttando le innovazioni software incentrate sul cloud come i microservizi, la containerizzazione e la gestione dei container tramite piattaforme come Kubernetes». Innanzitutto, le migliori soluzioni di infrastruttura iperconvergente devono mettere a disposizione una solida piattaforma che può essere utilizzata per implementare un cloud privato all’interno del data center. In secondo luogo, il sistema di governo dell’HCI dovrebbe prevedere opportune estensioni software intelligenti in grado di integrare in un unico data center virtuale il core e l’edge dell’infrastruttura insieme alle risorse cloud sia pubbliche sia private. «Ciò consentirà un’esperienza cloud ibrida coerente, che consente alle aziende di gestire centralmente il cloud ibrido e migrare facilmente dati e applicazioni tra vari cloud» – conclude Patano. Un altro uso del cloud ibrido è la gestione dei picchi nell’uso delle applicazioni, spostando automaticamente i carichi di lavoro tra i cloud (in genere da un cloud privato a un cloud pubblico). Diversi fornitori di soluzioni iperconvergenti offrono il proprio software di gestione del cloud ibrido, sforzandosi di fornire servizi dati comuni, funzionalità basate su API, portali o cataloghi self-service e così via, rendendo le applicazioni indipendenti dalla tipologia di risorsa cloud assegnata.

Tutti questi vantaggi sono alla base della forte crescita evidenziata dalle ricerche IDC del mercato delle soluzioni convergenti, in Italia come a livello globale. Secondo le ultime stime relative al mercato dei Converged Systems, la spesa nazionale per tali prodotti è destinata a superare nel 2019 i 180 milioni di euro crescendo rispetto al 2018 del 25% circa. Una forte crescita, pari a poco meno del 20%, è prevista anche per il 2020, portando il valore complessivo oltre i 220 milioni di euro. A trascinare sono soprattutto i sistemi iperconvergenti, che con un valore nel 2019 di circa 75 milioni di euro faranno registrare un aumento rispetto all’anno precedente del 75% fino a raggiungere i 115 milioni stimati per il 2020 (+46,2%). La prima domanda formulata ai provider tecnologici che hanno partecipato all’indagine di Data Manager riguarda le diverse accezioni della virtualizzazione e i progetti più significativi attualmente in corso. Quali sono i vantaggi misurati in casa del cliente? Versatilità e scalabilità sono secondo Manuel Larsen, IT developer di Holonix le virtù più apprezzate da chi sceglie di separare gli strati fisici dell’infrastruttura da quelli logici. «Si ha la possibilità di creare ed eliminare ambienti virtuali in maniera rapida e senza impatto negativo» – spiega Larsen. E per questo motivo, la principale applicazione oggi riguarda il mondo dei microservizi, container virtuali che comunicano l’uno con l’altro». Un’azienda in forte espansione gode quindi dell’opportunità di aumentare funzionalità e numero di clienti senza intaccare l’affidabilità e la continuità delle sue applicazioni.

Leggi anche:  È il dato di valore che porta al successo della pianificazione e controllo

OLTRE LA VIRTUAL MACHINE

Esiste anche la possibilità di partire da una forma di virtualizzazione più elementare, quella che consente di organizzare l’infrastruttura fisica in unità più piccole, le Virtual Machine – come ricorda Riccardo Romani, sales consulting leader Iberia, France e Italy di Oracle, uno dei protagonisti dell’offerta di soluzioni per l’iperconvergenza. «I progetti sono misurati in base al total cost of ownership su un arco temporale di 3-5 anni, ma questo tipo di virtualizzazione non sempre fornisce un bilancio positivo perché costringe chi lo adotta a scendere a compromessi in termini di sicurezza, prestazioni e costi indiretti» – avverte Romani, sottintendendo che oggi – per un insieme di ragioni che includono la necessità di affrontare in modo ancora più integrato problematiche sensibili come la cybersecurity – conviene pianificare fin dall’inizio obiettivi all’insegna di una virtualizzazione il più possibile avanzata.

C’è poi chi fa notare che i concetti di base della cosiddetta “astrazione” dal mondo fisico riguardano anche gli approcci applicativi, considerando che dati, processi e servizi possono vivere su risorse virtuali molto distribuite. Gabriele Obino, regional director Italy, Turkey and Greece di Denodo, si sofferma – per esempio – sull’opportunità di adottare la virtualizzazione anche nelle proprie strategie di gestione e governo del patrimonio informativo aziendale. In che modo? «La virtualizzazione dei dati è il fulcro dell’innovativa offerta di Denodo, un approccio fondamentale per la realizzazione di un’infrastruttura concepita in senso moderno». Tutte le organizzazioni – secondo Obino – si trovano ad affrontare la stessa sfida quando, rispondendo alla chiamata del business digitale, puntano a diventare data-driven. Il problema più diffuso riguarda il modo di risolvere la frammentazione a livello di informazioni e metadati: frammentazione che limita l’agilità e la velocità di innovazione e di adattamento al cambiamento. «In uno scenario tipico, i dati si trovano in diversi silos, interni o esterni all’azienda, e spesso rappresentati con differenti tecnologie. Lo stesso accade con i metadati». Con i suoi “data model” virtuali, Denodo Data Virtualization rende “logica”, efficace, semplice, rapida ed economicamente sostenibile l’integrazione e la gestione dei dati, risolvendo il problema dell’unificazione dei silos informativi. «I data warehouse e i loro successori, i data lake, si semplificano, i data mart diventano coerenti senza più necessità di replicare i dati e questo con tutti i tipi di risorse».

Proseguendo sul fronte applicativo, quali sono quelle che permettono di sfruttare meglio le caratteristiche architetturali dell’infrastruttura software defined? Il primo candidato naturale – osserva Manuel Larsen di Holonix – è la nuova famiglia di applicazioni autenticamente “cloud based”. «L’astrazione dal mondo fisico permette, per esempio, di avere lo stesso server virtuale dislocato in più server fisici anche molto distanti tra loro». All’altro estremo – risponde Riccardo Romani di Oracle – si trovano le applicazioni di database. Le componenti di presentazione dell’interfaccia e quelle business logic delle applicazioni possono essere virtualizzate facilmente. «Lo stesso non si può sempre dire del database, che contiene il reale valore che le aziende creano e custodiscono. Qui, non si possono accettare compromessi in termini di sicurezza e prestazioni. Il mercato, piuttosto, è orientato verso soluzioni come il Database as a Service».

UN’EREDITÀ DA RISCRIVERE

L’IT developer di Holonix si dice infine scettico sulla possibilità di trasferire in un’ottica architetturale radicalmente diversa le applicazioni e i servizi legacy che per molte aziende rappresentano pur sempre un asset fondamentale. Bisogna adottare strategie diverse, dalla dualità alla riscrittura. «Le vecchie applicazioni monolitiche fanno molta fatica ad adattarsi a questi nuovi concetti» – afferma Larsen. Solitamente, è necessaria una completa revisione dell’infrastruttura sia software che hardware per permettere di migrare da vecchi sistemi. Sta poi a chi sviluppa le nuove tecnologie mantenere intatte le funzionalità». Chi dunque oggi è maggiormente interessato a fenomeni come l’iperconvergenza, con quali finalità e motivazioni? Riccardo Romani di Oracle riprende il discorso della problematica dell’aggiornamento delle applicazioni di database per sottolineare che molte aziende sono proprio alla ricerca di ambienti che finalmente riescano a virtualizzare le basi dati senza costose penalizzazioni. «Oracle ha sviluppato un’architettura basata su container che riesce a condividere un’unica piattaforma iperconvergente tra molti database, senza ricadute sulle prestazioni, mantenendo l’isolamento necessario alla sicurezza e semplificando la gestione». Questa architettura, denominata Multitenant, accoppiata alla piattaforma iperconvergente Exadata, è la scelta di numerosi clienti italiani per implementare il paradigma del DBaaS (Database as a service), superando i limiti della virtualizzazione tradizionale basata su insiemi di singole macchine virtuali grazie a una infrastruttura avanzata, che oltretutto consente di ridurre drasticamente i tempi di attivazione dei servizi.

Leggi anche:  La GenAI sta già rivoluzionando il mondo della sicurezza fisica

Christian Turcati, presales systems engineer manager di Nutanix Italia, riassume in modo efficace i motivi dell’attuale successo dell’iperconvergenza. «Tutti i dipartimenti IT che guardano al public cloud con interesse – perché aspirano a una maggiore flessibilità e agilità ma, allo stesso tempo, non vogliono perdere il controllo e la sicurezza a cui sono abituati – possono trovare la giusta risposta nell’iperconvergenza». È possibile – secondo Turcati – far evolvere il proprio data center in un vero private cloud grazie alle soluzioni per il software defined datacenter. «Rendere invisibili il data center e il cloud, rendendo visibili le applicazioni e le persone è la missione di Nutanix».

A “SCUOLA” COL CONTAINER

Uno degli aspetti più temuti, per chi vuole imboccare la strada del cambiamento, è la competenza necessaria per affrontare paradigmi tanto nuovi. Nelle organizzazioni più piccole – che in molti casi hanno faticato a governare le prime fasi dell’automazione del business – è un problema che spinge a rivolgersi all’esterno, alla ricerca di consulenti e sviluppatori preparati con cui stabilire un rapporto di partnership. «Uno sviluppatore deve per forza rivedere le sue nozioni di architettura software e provare con mano a utilizzare questi strumenti» – ammette Manuel Larsen di Holonix. Docker, per esempio, è un buon punto di partenza». E al tempo stesso, il management dovrà invece scontrarsi con freni quali la reticenza ad avere i propri dati su cloud, ripensando come tali informazioni possono e devono essere scambiate tra partner e clienti. In pratica – «occorre entrare nell’ottica che le informazioni, i dati virtuali, sono diventate la nuova moneta».

Tuttavia, quando in un processo di trasformazione è necessario farsi affiancare da esperti – avverte Christian Turcati di Nutanix Italia – è importante scegliere un partner che abbia realmente compreso le esigenze delle aziende e che sia in grado di offrire soluzioni e servizi nell’ottica della semplificazione. Grazie all’iperconvergenza e ai servizi di virtualizzazione nativi e integrati di Nutanix è possibile evolvere al virtual data center, o a una Infrastructure as Code, elemento fondante del cloud computing, con la configurazione dell’infrastruttura come se fosse software di programmazione. Le applicazioni stesse creano e orchestrano l’infrastruttura. «Con l’automazione e l’orchestrazione one-click di Nutanix – spiega Turcati – è possibile semplificare l’introduzione dell’hybrid-cloud o del multicloud». I servizi di governance offerti consentono inoltre di tenere sotto controllo consumi, costi e sicurezza degli ambienti ibridi, trovando il giusto equilibrio tra on-premise e public cloud.

Anche quando si parla di strumenti innovativi di valorizzazione del dato – come la piattaforma di virtualizzazione Denodo – la mancanza di competenze è un problema che può essere superato se al fianco delle aziende ci sono partner qualificati. L’azienda iberico-americana, che un anno fa ha aperto una sede anche in Italia, vanta una esperienza ventennale nel mercato della data virtualization. «La nostra soluzione – rivendica con forza Gabriele Obino – è la più matura, avanzata e testata nei più grandi scenari di implementazione al mondo». Se è vero che ultimamente altri vendor generalisti hanno iniziato a introdurre funzionalità di virtualizzazione, il focus e la specializzazione di Denodo colloca le sue soluzioni su un gradino più elevato, che rende irreversibile la trasformazione verso il business data driven.