Si consolida la proposta IT as a Service di nuova generazione applicata all’Hybrid Cloud Infrastructure. L’iperconvergenza fa da ponte verso il cloud, mentre la semplificazione aiuta le imprese a muovere il dato, migliorando la gestione delle risorse e il controllo dei costi
Fornire al cliente un ambiente virtualizzato chiavi in mano, senza richiedere particolari conoscenze tecniche né un impegno a livello di configurazione. È l’iperconvergenza, infrastruttura IT incentrata su un’architettura software in cui convergono risorse di calcolo, memorizzazione, networking e virtualizzazione. Ed è l’approccio adottato da Maticmind, system integrator presente su tutto il territorio nazionale, attivo negli ambiti Data Center & Cloud, Collaboration, Security, Application e Networking.
«La costruzione di un cloud ibrido semplice e gestibile con una componente di private cloud per la massima flessibilità è un tema sul tavolo di lavoro di molti nostri clienti» – ci spiega Laura Roberto, business developer di Maticmind. «Un impegno iniziato parecchi anni fa grazie alla collaborazione con VMware, la prima azienda a introdurre le tecnologie per la virtualizzazione dei server, estesa in seguito a tutto il datacenter, con quello che oggi si definisce software-defined data center». Software defined, dunque. Ma potremmo dire virtualizzazione, hybrid IT, cloud ibrido. Modelli di tecnologia legati a doppio filo al concetto di data center di nuova generazione, costruito sulla convergenza delle risorse IT – rete, calcolo e storage – e capace di guidare le operazioni IT verso l’ottimizzazione e la scalabilità nell’allocazione delle risorse, mantenendo sotto controllo il budget IT.
Dalla frammentazione alla convergenza
«Il SD storage ha dato l’avvio alla virtualizzazione completa del data center, permettendo non solo di astrarci dalle risorse fisiche hardware e concentrarci sul software e gli applicativi, ma soprattutto di rendere più agevoli gli spostamenti dei workload e le attività di manutenzione. Semplificandone al massimo la complessità» – afferma Laura Roberto. La semplificazione è il mantra della strategia cloud. «Le location del dato si moltiplicano. Oggi è un cloud provider pubblico scelto dal cliente. Domani potrebbero emergere delle esigenze di tipo edge. Potremmo avere bisogno di capacità computazionale vicina al punto in cui il dato viene generato. Pensiamo per esempio all’IoT o allo sfruttamento dell’AI. Il proliferare delle locations esige semplicità, che noi definiamo Hyper-Converged Infrastructure, ovvero un SDDC su cluster di server, una soluzione capace di scalare con una granularità maggiore rispetto agli storage array tradizionali, dotata di un’unica interfaccia da cui gestire, amministrare, approvvigionare e orchestrare l’intero data center». Non più una frammentazione in silos di computing, hypervisor, storage e network, magari con reti fiber channel complesse da gestire, ma – «oggi, tutti questi elementi convergono in un’architettura con un’unica interfaccia di accesso, che permette al cliente di occuparsi dei propri applicativi e di quello che il Business richiede».
Semplicità, visibilità e automazione
Non solo. «L’iperconvergenza fa da ponte verso il cloud e le altre locations, mentre la semplificazione ci aiuta a muovere il dato, rendendo più agevole controllare chi gestisce cosa senza perdere di vista il controllo dei costi» – continua Laura Roberto. Una sfida aperta, quando si parla di gestione efficiente del cloud, ibrido, ma non solo. «I cloud provider pubblici sono così semplici da utilizzare che il rischio per il cliente finale di spendere più di quanto messo a budget è molto elevato. L’iperconvergenza può aiutare a comparare tra loro i cloud pubblici, permettendo lo spostamento agile del dato dov’ è più efficace ed efficiente posizionarlo. Al limite, qualora lo si ritenga utile, riportandolo a casa. Aspetto molto importante da considerare questo dell’exit strategy dal cloud» – conferma Laura Roberto. L’accesso all’infrastruttura da un unico punto consente inoltre un miglior controllo sulle risorse. Sono gli stessi vendor a mettere a disposizione strumenti in grado d’interfacciarsi con gli hypervisor, per analizzare la gestione delle risorse fisiche da parte dei workload. Verificando – per esempio – la corretta configurazione delle VM, oppure l’opportunità di spostare altrove talune risorse in vista di un ulteriore consolidamento della parte di installato. «Molti clienti allocano troppe risorse. Si eccede nel sovradimensionamento per non rischiare di trovarsi a corto di capacità, con il risultato che nel corso degli anni si accumulano macchine virtuali, spesso supercarrozzate, mentre altri host rimangono poco utilizzati» – sottolinea Laura Roberto.
A livello architetturale, un unico punto di accesso all’infrastruttura abilita la semplicità. «Non più complessi piani di migrazione da un’infrastruttura all’altra, come con una soluzione a tre livelli» – osserva la business developer di Maticmind. «La disponibilità di soluzioni in grado di approvvigionare sia il cloud pubblico che quello privato del cliente agevola ulteriormente la migrazione». Un’unica interfaccia consente inoltre la massima visibilità nel cloud. «Per il cliente, è molto importante conoscere i propri applicativi, anzitutto perché la migrazione su cloud pubblici rende a volte necessaria la loro revisione. E questo ha un costo». L’altro presupposto fondamentale è la capacità di automatizzare in maniera flessibile le componenti del data center a seconda delle reali necessità del momento. «L’obiettivo è di andare sempre di più verso un data center approvvigionato e testato in maniera automatica. Senza la necessità di configurare i singoli pezzi dell’architettura».
L’iperconvergenza come opportunità
La rapida evoluzione della tecnologia rende necessari refresh tecnologici periodici dei sistemi IT. «In fase di revisione dell’infrastruttura IT, l’azienda valuta sicuramente l’iperconvergenza. Lasciando da parte le startup, che hanno prospettive e visibilità diverse, per le aziende più organizzate il datacenter in casa rimane nella maggioranza dei casi la realtà di partenza» – spiega Roberto. «Tuttavia, l’iperconvergenza può accelerare il passaggio al cloud. Anche se non sempre i clienti sono in grado di prevedere quel che rimarrà nel loro data center, partire con un progetto iperconvergente è un buon modo per disporre di una soluzione completa anche per chi magari è meno strutturato, perché, nel momento in cui ci sarà bisogno di scalare, basterà aggiungere un semplice nodo e in un paio d’ore l’ampliamento sarà portato a termine senza alcun impatto sulle attività di servizio». Un altro vantaggio della semplificazione è la maggiore facilità di effettuare l’upgrade dei software.
«Ogni volta che come system integrator siamo chiamati ad aggiornare uno o più software – per esempio il firmware dello storage – dobbiamo verificare il complesso incastro di “compatibility matrix”, prima di effettuare l’upgrade» – conferma Laura Roberto. «Avere un unico stack software consente di semplificare anche questo aspetto. Una volta modernizzato il data center on premise, ragionare sul come agganciarsi ai cloud pubblici diventa molto più agevole». In questa fase, anche l’interlocutore principale non è più soltanto l’IT. «La virtualizzazione ha portato un cambiamento da questo punto di vista» – ci dice Roberto. «L’IT riveste ancora oggi un ruolo preminente. Tuttavia, le estensioni infrastrutturali devono essere progettate pensando alle reali necessità degli applicativi. Per utilizzare soluzioni innovative in grado di efficientare il dato, la messa a terra del progetto passa da un confronto puntuale con il team di sviluppo applicativo. Come iperconverge l’infrastruttura, così devono iperconvergere i team di lavoro. Soluzioni integrate come queste richiedono una visione quanto più possibile ampia, non si può lavorare a silos. Quindi, è preferibile interfacciarsi con entrambi i team infrastrutturali e applicativi. Noi di Maticmind lo stiamo già facendo».