Cloud sano in Rete sana…

L’efficacia del cloud è proporzionale alla qualità del network. Ecco le 10 motivazioni

Il cloud si sta affermando prepotentemente all’interno di tutte le infrastrutture IT aziendali, a partire dalle PMI fino alle grandi multinazionali. In un periodo in cui le leve maggiori di business sono l’ottimizzazione dei servizi e dei costi, il cloud è la risposta a numerose e complesse altre soluzioni IT. Ciena Corporation analizza come l’evoluzione del cloud impatti sulle architetture di rete e come tutti i nuovi fenomeni connessi alla “nuvola” richiedano reti sempre più aggiornate, scalabili ed efficienti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

1) Il carico di lavoro del cloud evolverà al cambiare delle applicazioni

Oggi si eseguono applicazioni SaaS o infrastrutturali che risiedono nel cloud del provider, spesso chiusi dietro architetture semi-proprietarie. E’ la più tipica e comune prima implementazione della maggior parte dei reparti IT. Anche il passo successivo è prevedibile – una svolta verso una architettura più aperta con norme in vigore per la gestione di API e altri tool. Attraverso questo passaggio, si sblocca la possibilità di associare i data center privati a data center cloud ​​multipli,  consentendo la mobilità di un maggior carico di lavoro e la possibilità di distribuire applicazioni completamente nuove che richiedono una rete migliore per funzionare efficacemente.

 2) Il Management richiede elementi di misurazione delle performance del cloud

Non appena le implementazioni del cloud passano dalla fase di prova a quella di piena produzione, il management chiederà di vedere i benefici tangibili dell’utilizzo del cloud. Il modo in cui si progetta la rete può fornire una garanzia di successo. Una rete efficiente è la leva strategica per ottenere i benefici forniti del cloud come riduzione dei costi, accelerazione dei tempi di implementazione e nuove funzionalità. In breve, il cloud è tanto efficace quanto lo è la propria rete.

3) Lo storage cloud rappresenterà una vasta percentuale dei dati aziendali

Oggi le realtà aziendali utilizzano, generalmente, un’infrastruttura cloud per il backup dei dati attraverso l’utilizzo di data center cloud su reti IP a bassa velocità, trasmettendo i dati in modo asincrono rispetto ai permessi di rete. In genere questa tipologia di utilizzo si adatta alle piccole imprese con livelli di storage piuttosto bassi. Nel prossimo futuro anche le imprese più grandi vorranno approfittare del vantaggio economico reso possibile dal cloud per lo storage di grandi quantità di dati e informazioni. Emergerà, quindi, l’esigenza di una rete in grado di rispondere in modo dinamico ai terabyte in movimento quando il dato ha bisogno di muoversi, senza colli di bottiglia, buchi di sicurezza o pacchetti scartati. Niente più invio di dischi rigidi tramite FedEx al data center cloud quindi.

Leggi anche:  Seeweb con Proxmox per vincere la sfida della virtualizzazione con l’hypervisor

4) Una rete più efficiente è cruciale per la connessione dei data center

Le organizzazioni IT sono altamente motivate ​​a incrementare l’efficienza – in primo luogo attraverso il consolidamento dei data center e poi attraverso la virtualizzazione. Il passo successivo è quello di utilizzare i servizi cloud che possono offrire alle imprese un risparmio fino al 25% sulle spese relative all’infrastruttura, ai servizi IT o all’intero parco hardware e software. A sua volta, la rete è anche un fattore chiave per i fornitori di servizi cloud per utilizzare più data center come un pool condiviso di data center virtuali, che potrebbe consentire una riduzione del 35% per cento del totale delle risorse dei data center cloud. La rete è l’ingrediente fondamentale che lega tutto insieme, che serve come un backplane tra i data center per una fornitura flessibile di applicazioni e servizi.

5) Anche le reti inter-data-center stanno diventano virtuali

Un rete virtualizzata ripartisce risorse in molti modi diversi, a esempio, i circuiti virtuali (EVPLs), lunghezze d’onda virtuali (Optical Transport Network – OTN), switch virtuali (VSIs) e le reti virtuali (VPNs, Optical Virtual Private Network – OVPNs). La virtualizzazione della rete fornisce efficienza, come per esempio il coordinamento della larghezza di banda e della topologia sul bisogno specifico dell’applicazione in un dato momento. Questo elimina la necessità di misurare tutte le facility di interconnessione nella rete di data center per una potenza di picco che viene utilizzata raramente, il che riduce i costi perché elimina il bisogno di attuare investimenti non strettamente necessari sull’apparato di rete.

6) SDN è la chiave per una maggiore flessibilità e minori costi

Leggi anche:  OpenText abilita il multi-cloud con Cloud Editions 24.4

L’orchestrazione del carico di lavoro tra data center cloud e tra imprese e data center cloud, sarà guidato da strumenti software basati su criteri di automazione. Modifiche ad-hoc relative ai vari parametri di performance quali la scalabilità della larghezza di banda saranno ottenute attraverso interfacce software di alto livello integrate  nei pannelli di controllo della rete e non più tramite  un operatore che utilizza un’interfaccia di comando per la gestione dell’infrastruttura. Questa performance-on-demand sarà attivata a livello di applicazione, garantendo che gli adeguamenti alla rete e al cloud soddisfino i requisiti di business.

7) La rete cloud ha bisogno di una scalabilità dinamica

Il flusso nord-sud è l’andamento tipico del mondo user-to-machine attraverso un’architettura IP a più livelli di rete. Ciò riflette un modello client / server e si esercita nel cloud per applicazioni di tipo SaaS in cui l’applicazione è semplicemente traslata da data center in-house a data center cloud. I flussi di traffico est-ovest, invece, caratterizzano gli ambienti machine-to-machine e sempre più tra data center. Tale traffico ha requisiti di qualità di servizio sempre più severi. Nel prossimo futuro, i carichi di lavoro di dati est-ovest aumenteranno esponenzialmente, fenomeno dovuto in particolare alle nuove applicazioni quali sincronizzazione di storage, virtualizzazione dello storage tra data center e migrazione di macchine virtuali. Ciò significa che la rete cloud deve essere progettata per supportare prestazioni in grado di soddisfare la variazione del flusso di traffico e i crescenti livelli di intensità del futuro.

8) La rete deve poter spostare una grande quantità di dati in un breve lasso di tempo

C’è bisogno di un’architettura di rete flatter Layer 0/1/2 tra data center che offra una migliore scalabilità, latenza e prestazioni deterministiche. Con questa tipologia di infrastruttura, la rete non creerà colli di bottiglia e offrirà il più basso costo per bit trasmesso.

Leggi anche:  Nasce Aruba Cloud Server, per costruire infrastrutture flessibili per ogni grado di complessità

9) Piano B sempre pronto

Sia che si utilizzi il cloud come un back up per operazioni on-premise o come principale risorsa IT, è necessario essere preparati all’accadere delle peggiori delle ipotesi, come una calamità naturale o picchi inattesi di traffico. L’azienda o il vostro provider cloud potrebbe trovarsi nella situazione di dover spostare centinaia di macchine virtuali e/o archivi dati dall’attuale data center a un data center cloud – potenzialmente accanto a quelli di molte altre imprese. Per spostare questa mole di dati in tempo utile per evitare o recuperare un disastro, senza danneggiare il business, si ha bisogno di una rete che possa rapidamente aggiungere e ripristinare le funzionalità ai data center preposti per attività di Business Continuity e Disaster Recovery.

10) Un’ architettura di data center virtuali significa risparmio di costi ed efficienza operativa

“Data Center senza muri” descrive una architettura che crea un multi-data center, un ambiente cloud ibrido in grado di funzionare come un insieme di data center virtuali da un pool di risorse comuni per affrontare la domanda di un’ingente mole di carichi di lavoro e offrire un workflow senza interruzioni. Le imprese desiderano accedere alle risorse cloud, sempre e ovunque. I service provider vogliono offrire servizi cloud differenziati per prestazioni offerte, accesso a reti programmabili ed economie di scala che fanno leva sulle prestazioni dei loro data center. In questo modo i provider cloud saranno in grado di gestire tutte le più disparate richieste e i failover semplicemente allocando i carichi di lavoro in maniera più efficiente attraverso data center multipli. La rete backbone cloud rappresenta, quindi, il collegamento fondamentale per assicurare scalabilità a costi contenuti, sicurezza e servizi on-demand che rendano possibile il data center virtuale.