Il grande interesse che si è creato intorno alle architetture e tecnologie cloud sta facendo riflettere rispetto alle logiche e ai processi aziendali che gravitano intorno all’IT, ormai pervasivo e determinante per qualsiasi modello di business
Il driver, motore di spinta principale, è certamente il raggiungimento dell’obiettivo di una migliore efficienza sui costi che è oggi vitale, sia per stare su un mercato altamente concorrenziale – e globalizzato – sia per assorbire al meglio i riflessi purtroppo ancora recessivi di un ecosistema economico ancora in affanno.
Gli sforzi al momento paiono essersi concentrati più sui piani alti (applicazioni/servizi/virtual machine/HW) che sui piani bassi (rete), ma alcune novità architetturali in ambito network, unite a un approccio
di virtualizzazione a 360 gradi, sembrerebbe stiano modificando questo approccio, anche se il cammino appare appena iniziato.
Già quest’anno si è cominciato a parlare molto di due specifici argomenti: SDN e NFV che sono nuovi modelli che alcuni chiamano rivoluzionari perché promettono in qualche modo ciò che è successo recentemente nel mondo dei server, ovvero la virtualizzazione, questa volta della rete.
Il fatto che non siamo più “all’accademia”, ma all’interno di un iter che sa di “business”, lo dimostra il fatto che sono state avviate due organizzazioni internazionali che ne potranno guidare sviluppo e standardizzazione: la ONF (Open Networking Foundation) e l’ETSI NFV ISG (Industry Specification Group).
Ma cosa sono SDN e NFV?
SDN (acronimo di Software Defined Networking) è di fatto la promessa di un nuovo modo di gestire la rete, introducendo il concetto di virtualizzazione – oramai maturo in ambiente informatico – nella rete, ovvero proponendo un’architettura tale da separare la tematica del controllo rispetto a quelle delle funzionalità, aumentando flessibilità.
NFV (acronimo di Network Function Virtualization) è lo svilluppo di opportune tecnologie atte a virtualizzare le funzioni dei nodi di rete in modo che possano essere collegati insieme per creare servizi di comunicazione; un paradigma, o meglio un “ecosistema”, che aiuterebbe ad “avvicinare” la rete alle applicazioni, tanto che alcuni dicono che potrebbe rappresentare uno dei cambiamenti più significativi degli ultimi venti anni per l’industria delle telecomunicazioni.
Spesso quando si parla di SDN, si pensa a OpenFlow che è un protocollo di comunicazione che consente di gestire via software il cammino che i pacchetti di rete debbono fare attraverso gli apparati di rete, switch e router. In pratica, un modo più ottimizzato delle attuali access control list o protocolli di rete. Openflow, per questo, è corretto inserirlo nell’alveo del paradigma SDN, ma non è un suo sinonimo perché altre tecniche potranno essere sviluppate nel contesto.
La gestione dello standard Openflow – che venne alla luce nel febbraio del 2011 – è mantenuto dalla ONF (Open Networking Foundation) che ha comunque il compito più ampio di “coltivare” SDN. Il pregio di Openflow è quello di aver “scardinato” una situazione di mercato degli apparati di rete privi fino a oggi di un’interfaccia aperta alle modalità prima citate, realizzando quindi di fatto un mondo di dispositivi di rete “chiusi”. Il fatto incontestabile che questo mondo stia cambiando lo dimostrano le tante offerte di mercato e gli annunci dei vari produttori di apparati in tema di utilizzo del protocollo OpenFlow o di utilizzo di caratteristiche SDN in generale.
Similmente, anche su NFV l’interesse è notevole, per esempio basta citare quanto disse pochi mesi fa HP, prevedendo con l’implementazione di NFV di piccole dimensioni una potenziale riduzione dei costi del 18%, fino ad arrivare anche a un 24% in caso di distribuzioni più ampie.
SDN e NFV si possono considerare come “parenti stretti” e favoriscono la riduzione dei costi, la flessibilità, la rapidità nel time-to-market, le personalizzazioni e le differenzazioni (quality of services) rispetto alle offerte sul mercato e – “last but absolutely not least” – rappresentano il tentativo di ristabilire gli equilibri tra le telco e gli over-the-top (OTT), in un mondo digitale che ha favorito nettamente questi ultimi.
Sarà vera gloria?
Ai posteri l’ardua sentenza – direbbe il poeta – ma, nell’attesa, proviamo a riflettere sull’oggi con l’aiuto di alcuni operatori di mercato. Quale ruolo dovrà avere la rete per l’evoluzione del cloud? Quanto spazio di crescita potremmo immaginare? E in quali ambiti?
Iniziamo da Nicola Uva, strategy & marketing director di ADP Italia. «Se intendiamo la rete quale strumento per connettersi e stare in network, il freno più rilevante al suo sviluppo è dato dalla disponibilità della banda larga. Oggi, in rete vengono scambiati moltissimi dati e informazioni, il cui numero è destinato ad aumentare in maniera esponenziale nel tempo proprio grazie all’uso del cloud». Un altro importante fattore per la sua diffusione è relativo agli strumenti necessari per utilizzare il cloud. «Quando si parla di uso della nuvola – continua Nicola Uva – generalmente si pensa a una serie di documenti, immagini e dati che vengono trasferiti e archiviati da qualche parte nella rete. Ma affinché essi siano immediatamente usufruibili, ovunque una persona si trovi, è necessario che l’utente possa utilizzare anche gli strumenti per poter gestire quei dati. L’evoluzione del cloud si muoverà verso una confluenza non solo degli strumenti di office automation (Word, Power Point etc.), ma anche di quelli più evoluti come i sistemi informativi, di cui l’utente deve poter disporre anche in cloud. Per quanto concerne lo spazio di crescita, credo che sia certamente enorme e riguarda vari ambiti. Il trend che io vedo profilarsi nel futuro è dato dallo sviluppo e quindi dalla presenza dei sistemi applicativi su cloud. In questo modo, non si avrà più la necessità di installarli sui propri pc poiché tutto ciò che serve per essere produttivi è sulla nuvola. Il problema semmai sarà proprio dato dal funzionamento della rete: nel momento in cui sposto tutto su cloud, la disponibilità della rete diventa un elemento fondamentale. Viceversa, la ricaduta in termini di produttività per le aziende, e quindi di costi, diventerebbe molto alta».
Per Andrea Bertoldo, responsabile offerta servizi cloud di BT Global Services Europa, la rete rappresenta il primo fattore abilitante dei servizi cloud. «Non sarebbe possibile garantire livelli di servizio compatibili con le performance di business senza la disponibilità e il controllo della rete. Non solo, oggi la “convergenza” tra Rete e IT è ormai in atto e i trend tecnologici configurano uno scenario in cui tutta l’infrastruttura “fisica”, sia di rete che IT, è disaccoppiata da quella “logica” e, di conseguenza, dalla gestione. Tutto questo è possibile grazie alla velocità con cui evolvono le tecnologie di virtualizzazione e automazione che dal “computing” si stanno estendendo a tutte le componenti dell’infrastruttura (storage, rete locale e geografica). Questo processo richiederà di rivedere e aggiornare le modalità con cui le architetture di rete e IT sono progettate e implementate per sfruttare appieno i vantaggi delle nuove tecnologie. Il nuovo paradigma è quello del “Software Define Network/ Data center” (SDN/SDDC) ossia la possibilità di configurare i servizi utilizzando risorse “logiche” indipendenti dalle infrastrutture fisiche sottostanti e dalla loro localizzazione geografica. I benefici della convergenza si misureranno sempre più su parametri di performance in passato irraggiungibili e ne beneficeranno sia gli utenti finali (in termini di velocità, scalabilità, portabilità dei servizi) sia i provider (in termini di tempi di delivery, competenze necessarie, produttività). Il nuovo ecosistema convergente che si sta delineando aprirà nuove opportunità e nuovi scenari di utilizzo dei servizi. Nuovi attori si stanno affacciando sul mercato per aggregare più servizi (applicativi, di sicurezza, di gestione) e per svilupparne di nuovi, tutti erogati sfruttando l’utility model che permette, tracciando l’effettivo utilizzo dei servizi da parte degli utenti finali, di ottimizzare i costi operativi ICT. Pertanto è fondamentale poter disporre di piattaforme TLC e IT integrate e convergenti a disposizione degli Independent Software Vendors (ISV) per l’erogazione di servizi secondo l’utility model».
Resilienza e Integrazione
Bernardo Marzucchi, CTO di Clouditalia afferma che la rete avrà necessariamente un ruolo fondamentale nel percorso di crescita del cloud. In particolare, la sua riflessione è la seguente: «L’era di Internet ha consentito di sviluppare il modello dell’accesso e subito dopo il web 2.0 ha esteso quello della condivisione. Il cloud è la naturale evoluzione di un percorso tecnologico e sociale che si caratterizza in un nuovo modello di business “esperienziale” focalizzato sull’utilizzo delle risorse. La rete del futuro sarà caratterizzata dallo stesso paradigma con cui oggi i più diffusi servizi IaaS sono offerti in modalità pay per use. In maniera del tutto analoga, il cloud sarà una rete virtualizzata il cui controllo migrerà sempre di più verso una logica guidata dalle applicazioni. Il modello SDN apre la strada a questi nuovi scenari, ipotizzando un futuro in cui saranno le stesse applicazioni a fruire di “risorse di rete” come layer astratto.
Il cloud richiede elevati livelli di servizi per condivisione e collaborazione. Se la rete è capillare, allora si sviluppa. Oltre ai paradigmi tipici del cloud, rimane evidente che uno dei nodi da sciogliere è quello dell’accesso su cui sicuramente è atteso il maggior sviluppo. Sebbene il modello del cloud ruoti intorno al concetto di “risorsa”, l’elemento caratterizzante verso il cliente rimane quello del servizio e in particolare la disponibilità di applicazioni che spazieranno in tutti i settori. La rete sarà sempre di più l’elemento che garantirà la fruibilità delle applicazioni SaaS tramite banda larga, elevati standard di sicurezza, capacità adattive nel rispetto della qualità del servizio e soprattutto resilienza».
Per Federico Michele Facca, smart infrastructures area head di CREATE-NET, la qualità del servizio è un tema sempre più importante per il cloud e dichiara che la qualità del servizio (QoS) non dipende solo dalla capacità dei server nel data center, ma anche e soprattutto dalla capacità della rete di supportare il provisioning del servizio. «L’utilizzo di tecniche software-defined networking (SDN) all’interno del data center ha un ruolo fondamentale. In questo ambito, CREATE-NET ricerca, sviluppa e fornisce servizi su tecnologie open source, come OpenStack e OpenDayLight, per fornire un’integrazione, sempre più importante, tra cloud e Rete e per aprire nuovi orizzonti per le applicazioni in cloud. In particolare, stiamo lavorando alla possibilità di controllare la quality of service (QoS) per i singoli utenti dei servizi cloud tramite la combinazione di cloud e SDN. Noi chiamiamo questo approccio Application-defined networking: un’estensione del concetto di programmabilità delle reti, dal livello dell’infrastruttura a quello dell’applicazione, che permette di potenziare l’integrazione tra applicazioni e rete per fornire una migliore QoS agli utenti finali. Tramite queste tecniche, per esempio, è facile controllare la banda in uscita dal data center assegnata agli utenti in base al loro profilo. Utenti “premium” avranno maggiore banda a disposizione, mentre utenti “freemium” avranno una banda limitata a disposizione. Noi crediamo che soluzioni come queste, che non richiedono l’intervento sull’infrastruttura di rete degli operatori, siano il futuro per i servizi in cloud».
Le trasformazioni della rete
L’opinione di Federico Descalzo, responsabile della PU smart networks & products di Italtel è che l’applicazione del paradigma cloud alle reti introduce un modello dinamico con risorse virtuali interconnesse e abilitate. «All’occorrenza, per servire la molteplicità delle applicazioni presenti in funzione delle richieste di traffico, semplificazione, automazione e virtualizzazione sono gli elementi che guideranno le trasformazioni della rete» prosegue il suo pensiero. «In particolare, la virtualizzazione delle funzioni di rete e la loro migrazione a funzioni software, portate sopra infrastrutture IT standard, è già possibile e in prospettiva verrà applicata in tutti i segmenti di rete. Nel framework di virtualizzazione esiste, accanto a un’architettura “central cloud” anche una di tipo distribuito “edge cloud”, dove i dati memorizzati rappresentano una copia mirror di quelli residenti nei centri di core network. Il paradigma del cloud passa da una logica classica su tre pillar (computing, networking e storage) a una a quattro pillar che include anche le computing resources che agiranno da “acceleratori” delle CPU secondo l’occorrenza. L’uso di acceleratori hardware è uno dei trend più innovativi nell’ambito della virtualizzazione delle funzioni di rete. Sono infatti la promessa di rendere realizzabili a costi competitivi, e senza perdere i vantaggi derivanti dalle tecnologie quali NFV e SDN, servizi che in passato richiedevano investimenti continui. Nella vision di Italtel, le architetture cloud applicate alla rete beneficeranno dell’approccio distribuito affiancato al più tradizionale “central cloud”, con una struttura di rete a virtualizzazione completa, in grado di abilitare il ciclo di controllo continuo con SDN e NFV e il tipo di computing più idoneo in funzione del servizio richiesto».
Secondo Antonio Baldassarra, CEO di Seeweb, occorre avere ben chiari i ruoli che la rete avrà nei diversi scenari. Cloud pubblico, ibrido, privato. «Seeweb ha il proprio focus sui primi due e quindi la rete viene percepita sia da noi, sia dai nostri clienti come una aggregato fortemente eterogeneo che però deve cooperare al meglio. Da un lato il nostro design delle nostre reti, dei nostri sistemi di interconnessione geografica tra i datacenter e gli operatori, dall’altro le infrastrutture di rete del cliente stesso e, non per ultima, l’interconnessione del cliente con il “cloud”, tipicamente attraverso reti degli operatori telco, sempre più spesso la rete pubblica Internet. L’obiettivo di tutti è avere: flessibilità, configurabilità, livello di servizio e integrazioni con i meccanismi di orchestrazione propri del paradigma del cloud computing. Il valore percepito è strettamente collegato proprio a questo aspetto e alla possibilità di “vedere” l’intera filiera di rete con lo stesso modo semplice, flessibile, configurabile e scalabile che i clienti hanno imparato ad apprezzare con le nostre soluzioni di cloud computing IaaS. In realtà, questo è il fenomeno che stiamo osservando sia da parte dei vendor di hardware e software sia da parte delle telco: il paradigma SDN risponde alla perfezione alla sfida, lasciando a ognuno degli attori dell’offerta interessanti spazi di business e consegnando al cliente maggior controllo ed efficientamento delle infrastrutture sempre più spesso realizzate con un mix di risorse interne ed esterne, pubbliche e private, IaaS e SaaS».
Infine Luca Beltramino, managing director di TelecityGroup Italia ci ricorda che mobility e big data raddoppiano di due anni in due anni. E per questo il cloud e la rete sono essenziali. «I data center devono assecondare questo cambiamento puntando su flessibilità, performance, efficienza e sicurezza, risparmio energetico e orientamento all’as-a-Service. I data center commerciali si trasformeranno da hub per la connettività a cloud hub ospitando un ecosistema di servizi multivendor, accessibili per il cliente da un’unica struttura. La chiave di volta sarà gestire tutto questo che viene oggi governato attraverso connettività fisica (linee punto-punto) con sistemi di Sotware-defined networking (SDN), che permetteranno in tempo reale la creazione di link di connettività tra l’operatore di cloud e l’utilizzatore.Inoltre, i data center devono essere facilitatori di interconnessione e scambio di servizi cloud, in tutti i comparti, PMI incluse, con un approccio di Software-defined networking a vantaggio della gestione del data center per cui il provisioning delle risorse (IaaS, PaaS, SaaS) è accelerato attraverso procedure di automazione e governo del portale. All’inizio, il nostro target principale erano telco e Isp, che hanno attirato nei nostri data center neutrali carrier di telecomunicazioni in 12 paesi europei, ASP e soggetti che necessitavano di traffico dati e voce. Con l’avvento del cloud e dell’SDN, saranno sempre più coinvolti system integrator, finance, digital media e internet services».
Una nuova rivoluzione
Il primo meccanismo di virtualizzazione – ovvero di un software in grado di interfacciarsi tra un hardware e macchine virtuali a esso correlate – si può dire sia stato concepito da un software residente su un IBM/360, quasi cinquanta anni fa, nel lontano 1965. Sarà un caso che nel 1965 nacque il primo personal computer della storia, la mitica “perottina” Olivetti, la P101? Sarà anche un caso che sempre nel 1965, grazie al finanziamento ARPA, Larry Roberts e Thomas Marill crearono la prima connessione a pacchetto in rete geografica – e quindi primigenio di Internet – collegando un computer al MIT con un altro a Santa Monica attraverso una linea telefonica dedicata con accoppiatori acustici? Negli ultimi anni, la virtualizzazione ha compiuto passi da gigante in tema di CPU, storage, applicazioni e tutto sta diventando etereo nel cloud, nelle “nuvole”. Metaforicamente parlando, pareva che solo alcuni aquiloni, ben collegati al suolo da robusti cavi controllati da mani esperte, fossero l’unica materia concreta che navigasse tra le “nuvole”, mantenendo rotte non sempre lineari a causa della loro mutevolezza. Questi aquiloni, cioè allegoricamente la rete – grazie alle promesse di nuove tecnologie di virtualizzazione sviluppate su di essa – parrebbe quasi che si stiano atomizzando, diventando sinapsi gassose tra le “nuvole” stesse. Nel 2015, cinquanta anni dopo la genesi della virtualizzazione, del pc, di Internet, assisteremo a una nuova rivoluzione che ci cambierà ancor di più la nostra vita?
I quattro principi di CTERA
CTERA suggerisce alcuni “principi guida” che possono aiutare l’implementazione di storage e servizi dati nell’era del cloud.
Primo
Il cloud è ovunque, anche l’accesso ai dati deve esserlo – Quando si considera il profilo complessivo dell’utilizzo del cloud, esiste ancora un workload significativo affidato ai file server, ai backup endpoint, ai VDI e alle applicazioni di salvataggio che non possono essere gestite in modo appropriato dalle soluzioni sync & share.
Secondo
Scegliere il cloud più adatto – Le soluzioni che vincolano i clienti all’interno di backend di cloud storage fissi limitano per definizione la capacità di controllare e ottimizzare gli investimenti effettuati a favore del cloud. Una vera soluzione cloud di livello enterprise dovrebbe permettere ai clienti di scegliere la giusta infrastruttura, sia essa virtuale o privata, in base a criteri di prestazioni, costo e privacy.
Terzo
Tenersi ben strette le chiavi– Nel caso di dati altamente sensibili, CTERA consiglia di scegliere una soluzione che permetta di controllare la policy del firewall, sia all’interno del proprio datacenter che in un cloud privato virtuale, e di crittografare tutti i dati sensibili memorizzati o in transito.
Quarto
Il cloud storage dovrebbe seguire i principi del cloud – CTERA suggerisce di scegliere la giusta soluzione che fornisca almeno due livelli (tier) di gestione multi-tenant al di sopra degli strumenti di self-provisioning per gli utenti finali.
Tra i clienti CTERA più noti in Italia si segnalano i provider Wind, Fastweb e Telecom Italia.
Per maggiori informazioni è possibile visitare www.ctera.com o seguire @CTERA su Twitter.