In questo dossier speciale Data Manager propone una guida al cloud computing per imprenditori, responsabili informativi e in generale tutti gli utenti finali di servizi informatici interessati a una questione che negli ultimi 18 mesi ha dominato non solo le cronache specializzate, ma anche molti progetti di aziende grandi e piccole.
Una guida in sei capitoli che parte dalle definizioni e affronta via via le problematiche della sicurezza, delle applicazioni più in sintonia con la filosofia del cloud, gli aspetti più propriamente infrastrutturali delle cloud private, i vantaggi e gli svantaggi di questo approccio e infine qualche valutazione sullo stato di avanzamento del cloud computing nelle aziende private.
Una piccola summa di nozioni e suggerimenti che cerca di dare un contributo proprio sul piano dell’acculturamento, dove, secondo analisti e imprenditori, stiamo scontando un forte ritardo rispetto a diverse nazioni europee
Buona lettura.
Con tutto il clamore costruito nell’ultimo anno intorno al cloud computing stupiscono le molte perplessità che ancora permangono in merito a una corretta definizione di questa nuova modalità di erogazione e consumo di informatica.
Tra le tante in circolazione c’è quella proposta dal National Institute of Standards americano, secondo cui il cloud computing è un modello che abilita l’accessibilità, attraverso la rete e in modo conveniente e on-demand, a un insieme condiviso di risorse di calcolo configurabili (reti, server, spazio di archiviazione, applicazioni e servizi). Tali risorse possono essere impostate ed erogate con uno sforzo gestionale o un’interazione con i service provider limitati al minimo indispensabile. Il cloud computing serve quindi a promuovere la piena disponibilità delle risorse appena citate e si articola attraverso cinque caratteristiche fondamentali e tre modelli di servizio. Più, se si vuole, una serie di modalità di deployment o attivazione del servizio presso la clientela.
I modelli di servizio
Le cinque proprietà che rendono l’informatica autenticamente “cloud” sono:
– una modalità di accesso on-demand e self service;
– l’interfacciabilità via Web a larga banda;
– la riconfigurabilità delle risorse condivise;
– una rapida elasticità nel passaggio da una grande a una piccola disponibilità di servizio e viceversa;
– un uso perfettamente misurabile delle risorse, con una conseguente linearità dei costi sostenuti dagli utenti.
Sui tre modelli di servizio c’è una certa chiarezza tra gli addetti ai lavori, ma vale la pena ribadirli: i “gusti” fondamentali dell’informatica nelle nuvole sono il Software-as-a-Service, la Infrastructure-as-a-Service e la Platform-as-a-Service. Per quanto riguarda le modalità di attivazione CA Technologies considera non tre ma quattro alternative possibili: il private cloud, quando la virtualizzazione viene messa in atto all’interno dei confini determinati dai firewall aziendali e i dati; il public cloud, quando l’utente accede a dati e risorse esterni a questo perimetro; e infine due modalità miste che sono costituite dalla community cloud (una federazione di risorse contribuite da entità diverse, ma sempre dentro ai confini delimitati collettivamente dai rispettivi firewall), e la nuvola “ibrida”, che unisce le caratteristiche del cloud privato e di quello esterno o pubblico.
Punto di arrivo e ripartenza di un complesso percorso iniziato diversi anni fa con i primi concetti di “hardware substraction level” e materializzatosi più recentemente con i principali ambienti di virtualizzazione proposti da aziende come VMware, il cloud computing è, come il client/server in passato, il tema dominante dell’informatica di classe enterprise e sta già avendo vaste ricadute nello spazio consumer. Svincolando gli aspetti fisici da quelli applicativi, il cloud computing – immerso nel corretto contesto analitico che permetta di misurare in modo accurato costi e benefici legati ai processi da virtualizzare – è in grado di agire in direzione di un sostanziale contenimento dei costi fissi delle risorse di calcolo, aumentando l’efficienza, la scalabilità, la flessibilità e i tempi di risposta di un’infrastruttura.
Un altro punto di vista è quello distillato dai ricercatori di Gartner, secondo i quali il cloud computing è un vero e proprio “stile”, un modo di fare informatica in cui le capacità rese possibili dal calcolo vengono erogate in misura realmente scalabile, sotto forma di servizi ai quali uno o più utenti esterni possono accedere attraverso le connessioni e le interfacce di Internet.
Scalabilità. L’utilizzatore deve poter aumentare o diminuire a piacimento la disponibilità della risorsa. I servizi disponibili devono essere “esposti” attraverso le interfacce standard di Internet e facendo leva sulle economie di scala per garantire una linearità di prezzo, che deve a sua volta essere una funzione diretta del servizio. Nel cloud computing non sono ammessi gradini o soglie di ingresso rappresentati da costi di attivazione. Se non ci sono utilizzatori di un determinato servizio, il costo dev’essere pari a zero. Risulta evidente in questo requisito una delle conseguenze più visibili del cloud computing, anche sul piano per così dire culturale: il radicale spostamento da un’informatica come voce di costo, come mobilitazione di capitali, a una tecnologia concepita come semplice costo operativo, lineare, senza sorprese nascoste. Nel gergo dei chief financial officer, l’informatica che si evolve da “Capex” a “Opex” in un’ottica autenticamente on demand.
Dinamicità e velocità. Queste due prerogative caratterizzano in modo marcato la possibilità di gestire e usufruire del provisioning. La velocità con cui possiamo oggi configurare una risorsa sul cloud non è un semplice artifizio teorico, uno scenario fruibile, ma una realtà molto concreta. I servizi cloud di Amazon Ec2 (Elastic Compute Cloud) permettono di configurare una macchina virtuale attraverso una semplice interfaccia Web. Nel giro di pochi minuti è possibile disporre di risorse di calcolo, networking, storage perfettamente funzionanti.
Entrando in modo più specifico nella realtà concreta della nuvola tecnologica per chi dovrà utilizzarla in pratica, si scopre in effetti un ulteriore livello di dettaglio e diversificazione. Il cloud computing si estende da un aspetto puramente infrastrutturale, di pura virtualizzazione di una risorsa di calcolo complessa, fino ai singoli processi passando per la disponibilità virtuale di intere piattaforme di sviluppo e application serving. In una direzione verticale la granularità del mercato degli utilizzatori va dalle grandi organizzazioni aziendali al singolo consumatore. La prima importante classificazione riguarda i tre sottogruppi che abbracciano le infrastrutture, le piattaforme applicative e il software, tutte e tre erogabili come si è detto “as-a-service”, sottoforma di servizio perfettamente scalabile e misurabile. Esattamente come avviene per l’energia elettrica o per il carburante che alimenta un motore.
Il dossier
Con questo dossier speciale Data Manager cerca di fare il punto sul cloud computing articolato in una serie di aspetti ritenuti fondamentali. La sicurezza come fattore imprescindibile (ma forse non per questo facile da affrontare) in progetti che mettono veramente a dura prova la capacità di controllo da parte degli utilizzatori finali. Le applicazioni che le infrastrutture e i servizi cloud servono per abilitare. Le esigenze in termini di risorse di rete e hardware. E infine il rapporto costi e benefici di una soluzione di estrema virtualizzazione. Chiuderemo con i dati relativi allo scenario italiano, appoggiandoci sui risultati delle ricerche svolte in questo campo dagli analisti di Nextvalue, di cui Data Manager è media partner.
La sicurezza nel cloud
Per ciascuna delle modalità di cloud cui si accennava nel precedente capitolo (private, public, community cloud e ibrida), uno degli elementi critici, un aspetto che sottende l’intero percorso di adozione di una soluzione cloud, è ancora una volta la sicurezza. In questo ambito la sicurezza logica e fisica di una infrastruttura diventa un argomento forse più complesso della sicurezza in ambiti informatici più convenzionali. Le tradizionali distinzioni tra sicurezza logica e sicurezza fisica non reggono a una filosofia architetturale in cui potenti forze centrifughe astraggono dal substrato fisico le percezioni logiche dell’informatica. Sul versante più infrastrutturale del cloud computing, una “macchina” è prima di tutto un’entità logica, virtuale.
Tra fattori discriminanti, in grado di condizionare la scelta dei chief information officer, è proprio la natura esterna dei dati su cui si basano i servizi di public cloud. Sono a tutti gli effetti dati gestiti dal fornitore del servizio, che non vengono controllati o misurati direttamente dal cliente. Nei casi in cui sicurezza e criticità sono priorità assolute, la scelta della cloud privata è quasi irrinunciabile, anche se questo comporta per l’azienda che ne adotta i benefici uno sforzo adeguato in termini di acquisizione di competenze, planning e gestione. La percezione, confortata anche dalle ultime ricerche Gartner, è tuttavia che almeno in questa prima ondata di adozione del paradigma del cloud computing, le grandi aziende si focalizzeranno proprio sul deployment privato, preferito anche per questioni legate alla normativa e alla sicurezza.
Che quest’ultima sia un elemento ancora più critico lo dimostrano pareri come quello recentemente espresso da Neil Fisher, che in Unisys riveste il ruolo di vice president per le soluzioni di sicurezza. Fisher sostiene che proprio in un contesto di risorse logiche svincolate dal substrato fisico, si fanno potenzialmente più pericolosi gli effetti degli attacchi inscenati dagli hacker che in futuro potrebbero configurarsi come vere e proprie azioni di “cyber guerra” mosse contro le infrastrutture cloud di aziende e istituzioni pubbliche.
Da un punto di vista implementativo, secondo molti provider di soluzioni e appliance di sicurezza per architetture “convenzionali”, la problematica fondamentale è il cosiddetto consolidamento e la gestione centralizzata di una infrastruttura che oltre a farsi più complessa diventa anche più dispersa, priva di confini fisici chiaramente delimitati. Secondo le definizioni fornite da un esperto della sicurezza Microsoft, occorre tra l’altro distinguere tra due concetti solo apparentemente sovrapponibili: “cloud security” e “sicurezza nel cloud”. Con “cloud security” si intende la sicurezza fornita dalle piattaforme per il cloud mentre con “sicurezza nel cloud” si copre uno spettro molto più vasto che comprende anche le singole applicazioni che vengono sviluppate ed eseguite sul cloud. E un ulteriore livello di complessità viene introdotto quando si deve distinguere tra la sicurezza (o l’insicurezza) di identità, dati e applicativi. Piuttosto che generare timori e meccanismi di rifiuto, sottolinea ancora Microsoft, la presa di coscienza di questi problemi deve semplicemente corrispondere all’adozione di un approccio alla sicurezza commisurato al nuovo modello di It che il cloud computing propone ai suoi utilizzatori, con procedure di risk assessment e di intervento adeguate, basate per esempio su una rivisitazione e un’estensione in chiave cloud della filosofia del “trustworthy computing” (con la corretta e trasparente definizione dei rapporti con i fornitori e la certificazione delle soluzioni).
Sulla scorta di queste differenze, si tratta essenzialmente di ridefinire gli obiettivi e adeguare i piani di implementazione.
A questo primo fondamentale aspetto della sicurezza nel cloud, si affianca una complessa problematica normativa e di giurisdizione legale, naturale conseguenza di un contesto in cui i dati che rappresentano il patrimonio informativo su cui lavora un’azienda, possono risiedere, geograficamente parlando, in confini giuridici molto diversi. A tale proposito ecco il parere che l’avvocato Massimo Pappalardo, socio dello Studio La Scala e specializzato nel tema della Intellectual property e Information technology ha voluto esprimere a Data Manager in ordine a questioni come la privacy, la tutela dei dati personali e la giurisdizione in caso di violazioni.
Come osservato anche dal Presidente dell’Autorità Garante della privacy in occasione della presentazione della sua relazione annuale, il cloud computing è una di quelle innovazioni che impongono una riflessione critica circa l’adeguatezza delle regole codificate rispetto a nuove dinamiche relazionali. La Commissione europea è al lavoro per ridefinire i principi che dovranno bilanciare due esigenze contrapposte, entrambe meritevoli della massima attenzione: da un lato, la tutela del diritto alla privacy, e, dall’altro, l’esigenza di adeguare le regole esistenti a nuovi modelli di condivisione e di gestione dei dati, il cui sviluppo ha di fatto scardinato la capacità di tenuta dell’impianto normativo esistente.
La struttura del cloud computing appare difficilmente conciliabile con un diritto internazionale fondato sul principio di territorialità: la nuvola è costituita, infatti, da una rete di data center che potrebbero essere localizzati in svariati Paesi anche extraeuropei.
Tale circostanza pone due interrogativi di fondo: qual è il diritto applicabile e quale la giurisdizione competente? E, assumendo l’applicabilità della legge italiana, quali adempimenti dovrebbe porre in essere una società che affidi i propri dati a una “nuvola” costituita da data center localizzati in Paesi extra Ue?
La risposta al primo quesito presenta non poche incertezze, attesa l’applicabilità in base alla Dir. 95/46/CE del principio dello stabilimento del titolare, il cui adattamento alla struttura della “nuvola” non è certo immediato. In attesa di un intervento legislativo, che possa meglio chiarire tale aspetto centrale, appare indispensabile un’accorta individuazione dell’operatore al quale i propri dati saranno affidati, anche attraverso una valutazione del grado di trasparenza e di sicurezza garantito dalle policy aziendali del partner prescelto. Sarà, altresì, importante una chiara mappatura della rete di data center ove i dati della società cliente potrebbero essere stoccati; e ciò anche al fine di consentire al titolare di porre in essere gli adempimenti necessari per assicurare una piena compliance ai trasferimenti di dati verso Paesi extra Ue.
Quali applicazioni sul cloud
Dopo aver affrontato i nodi della difficoltà definitoria di una materia così complessa e il fondamentale aspetto della sua messa in sicurezza e dei caveat di natura giuridica, è giunto il momento di entrare in una chiave più operativa, chiedendosi quale possa essere il ruolo dei servizi e delle architetture di cloud computing nelle aziende e per quali applicazioni un approccio cloud possa effettivamente essere proposto come vantaggiosa alternativa a soluzioni di tipo più convenzionale.
Una ricerca pubblicata nei mesi scorsi da CA Technologies, che ha interrogato sul cloud computing e sulla virtualizzazione un significativo campione di Cio italiani, rivela innanzitutto che esiste tuttora un certo livello di incertezza tra questi due concetti. Se è vero che la virtualizzazione è un passo fondamentale verso il cloud computing, è anche vero che questa condizione necessaria non è di per sé sufficiente a promuovere a “nuvola” un ambiente virtualizzato (ricordiamo i requisiti di flessibilità e linearità delle risorse impegnate).
La virtualizzazione è il processo con cui un ambiente software viene disaccoppiato (astratto) dalle specifiche risorse fisiche su cui risiede. In questo modo è possibile spostare agevolmente l’intero ambiente virtuale (macchina virtuale) da un server fisico a un altro, garantendo la continuità del servizio erogato a prescindere dall’hardware fisico sottostante. Il cloud computing è un’ulteriore evoluzione di questo processo in almeno due direzioni. La prima è l’estensione di cosa si virtualizza: non si è più vincolati esclusivamente all’ambiente e quindi alle macchine virtuali, ma si opera con qualsiasi risorsa It. La seconda dimensione di estensione è quella legata alla scalabilità e al concetto di libero consumo (metering).
Entrambe le soluzioni si possono ricondurre a un discorso di centralizzazione delle risorse ed entrambe comportano un evidente risparmio in termini di licensing (software) e risorse hardware. L’evidente differenza sta nel fatto che la gestione di un ambiente virtuale è comunque a carico dell’end-user/partner che opera in tale ambiente, mentre nel caso di soluzioni on the cloud tutta la gestione è demandata al provider, nel caso di public cloud, o all’azienda che decide di implementare le tecnologie atte alla trasformazione in ottica cloud privata delle proprie infrastrutture di data center.
La virtualizzazione sta cambiando la gestione delle infrastrutture It portando nelle aziende numerosi vantaggi come la direzione centralizzata e semplificata, il risparmio di energia e la riduzione del Tco. Nella lista delle dieci tecnologie chiave del 2010, secondo gli analisti di Gartner, il cloud computing è al primo posto seguito dalla virtualizzazione, nel nuovo uso “virtualization for availability” dei sistemi.
La possibilità di gestire l’infrastruttura in modalità cloud consente a sua volta al personale It di una organizzazione di focalizzarsi maggiormente sul suo ruolo strategico, spostando logiche di immobilizzazione in conto capitale (Capex) su un piano di spesa operativa (Opex) meglio controllabile e soprattutto meno vincolante. Il cloud computing non è tuttavia vantaggioso per tutti i settori e gli ambiti It.
Per esempio, se mancano i presupposti per una standardizzazione, come spesso avviene per i mondi Erp, il cloud non è fruttuoso per i cloud provider, e non lo è per gli utenti, che devono allinearsi a una rigidità di utilizzo non sempre compatibile col servizio al business.
Grazie all’offerta di soluzioni cloud computing disponibili oggi sul mercato anche le piccole e medie imprese possono disporre di una tecnologia semplice, accessibile, a costi contenuti, usufruendo delle medesime opportunità che una volta erano fruibili solo dalle grandi imprese. La disponibilità di servizi cloud computing ha infatti accresciuto la possibilità per le aziende, anche le più piccole, di adottare soluzioni tecnologiche flessibili che offrano efficienza e risparmio, per una crescita nel tempo.
Le applicazioni da cui si può partire sono quelle di classica produttività personale dei propri dipendenti (e-mail, fogli elettronici, …) a basso costo in modalità cloud e prive di dati sensibili. Ma la vera ricchezza del cloud risiede nelle applicazioni portals e mobile. Vi è la necessità di avere una sempre più ampia e tempestiva facilità di accesso a tutte le informazioni di business rilevanti; in questo senso le offerte che combinano cloud e mobilità possono essere estremamente interessanti: è sufficiente un indirizzo http o https sicuro per interfacciarsi e avere informazioni di rimando sul proprio device mobile in formato Web o sms, in qualsiasi ambito.
Il cloud computing partito dalle applicazioni di personal office, si è poi esteso in quelle di Crm e marketing abbracciando ora l’intero mondo del software aziendale con le offerte di Erp in modalità SaaS. Un settore particolarmente interessante è quello della supply chain, i sistemi di warehouse management, in quei contesti caratterizzati da elevata dinamicità, budget contenuto per investimenti o limitato presidio e supporto del dipartimento It aziendale, dove la flessibilità data da un’applicazione “a servizio” fornirebbe un vantaggio competitivo o l’opportunità per proporre nuovi servizi a valore aggiunto ai propri clienti.
I servizi software più immediatamente fruibili in logica di virtualizzazione sono anche quelli pertinenti alle funzioni di marketing e vendite, amministrazione e controllo, posta elettronica e collaboration.
Un altro ambito in cui la filosofia della nuvola diventa praticamente una soluzione obbligata sul lungo termine è quello delle architetture per il disaster recovery, con ambienti paralleli spesso speculari a quelli di produzione che entrano in funzione solo quando è richiesto. Già oggi con soluzioni di tipo cloud un’azienda può adempiere alle normative che impongono ambienti di disaster recovery senza sostenere investimenti gravosi. Oppure pensiamo alle infrastrutture che devono gestire applicazioni di tipo B2B e B2C, che per loro natura possono presentare picchi di domanda (stagionali o per iniziative promozionali).
Il cloud computing trova infine applicazione in tutti gli ambiti che possono essere resi più efficienti e sicuramente per tutte le applicazioni che richiedono forti investimenti.
Questa modalità consente alle aziende di ridurre gli investimenti iniziali e i costi normalmente associati alla creazione di un’infrastruttura It. Affidandosi alle applicazioni “nella nuvola” si può beneficiare dei costi minori legati alle economie di scala raggiungibili dai provider e si possono concentrare gli investimenti solo sulle risorse che vengono effettivamente utilizzate, attraverso il modello pay-per-use.
Quali i vantaggi e per chi
Alcuni dei vantaggi del cloud computing sono apparsi evidenti nel precedente capitolo dedicato alle applicazioni. Quello probabilmente più vistoso e motivante è la possibilità di agganciare la spesa informatica all’andamento degli affari. Il modello in questo senso è di grande interesse per le Pmi, ma comincia a essere interessante anche per le grandi aziende, magari quando l’obiettivo è avviare servizi o prodotti molto innovativi e dalle prospettive incerte, che con approcci più convenzionali rischiano di esporre al rischio del ritorno negativo ingenti risorse economiche.
I servizi cloud permettono di introdurre nuove tecnologie e infrastrutture in modo graduale e abbattono le barriere all’investimento. Inoltre, essendo flessibili, consentono alle aziende che imboccano questa strada di disporre di risorse Ict alla ripartenza del business dopo il superamento dei momenti di crisi.
Diverse aziende interpretano in questo modo il cloud computing come una strategia di evoluzione a lungo termine, con tutte le criticità del caso sotto il profilo della sicurezza, della compliance e del rispetto delle policy.
Un altro punto a favore è la flessibilità, che ancora una volta riguarda tutte le tipologie di utilizzatori, ma beneficia in modo particolare le aziende medio-grandi che devono gestire data center di una certa complessità. Dal punto di vista teorico ogni cliente dotato di grosse disponibilità di data center potrebbe trasformare la propria infrastruttura in un’architettura di tipo cloud, incrementando il grado di flessibilità della propria tecnologia. Tutte le aziende che hanno progettato i propri sistemi It seguendo una logica orientata all’architettura Soa e ai Web service sono nelle condizioni di poter rendere l’infrastruttura sempre più flessibile e lavorare nell’ottica di creazione di un “private” cloud iniziale, per spostarsi gradualmente al “public” cloud in uno step successivo.
Al di là dell’evidente risparmio in termini di risorse (hw e sw), l’utilizzo delle soluzioni on the cloud, se effettivamente erogate in modalità XaaS, non richiede alcun impegno a lungo termine da parte dell’utilizzatore, sia esso un utente finale o un partner.
In un contesto economico come quello attuale, caratterizzato da una generale incertezza e imprevedibilità, grazie al cloud è possibile gestire in maniera elastica e con la massima flessibilità le proporzioni del proprio business. In termini economici, i vantaggi riguardano tipicamente la riduzione dei costi, variabili in base al singolo business case, e la flessibilità, che permette di investire solo sull’effettivo utilizzo del servizio e non sulla preventiva acquisizione di un bene. Questo comporta uno spostamento da Capex (spese per il capitale) a Opex (spese per la gestione), e soprattutto la variabilizzazione del costo in funzione del reale valore per il business, associandolo alla produttività.
Il cloud computing è un modello innovativo di erogazione di un servizio perché permette di pagare a consumo (pay-per-use): come evidenziato in precedenza, questa opportunità è in grado di accelerare in modo significativo il lancio delle nuove iniziative e il time-to-market dei servizi, snellendo tutte le procedure decisionali e di allocazione del budget.
In uno scenario attuale in cui le parole d’ordine che vanno per la maggiore sono “cost saving” e “Roi”, quella dell’external cloud può essere una strategia vincente sia per le aziende che per i provider di servizi. Con ricadute che non riguardano semplicemente la struttura e l’entità dei costi, ma i progressi sul terreno dell’efficienza interna. Sicuramente uno dei plus di questo approccio è ottenere processi aziendali più efficaci, semplificati e scalabili.
Il ruolo abilitante del cloud computing è particolarmente significativo per le realtà aziendali di dimensioni più modeste, che già in passato hanno saputo trovare su Internet sbocchi del tutto inattesi. Ora la rete non si limita a fungere da marketplace, da canale di comunicazione e scambio con clienti che sarebbe stato molto oneroso raggiungere nel mondo fisico. C’è, in altre parole, un marcato vantaggio di natura tecnologica. Grazie all’offerta di soluzioni cloud computing disponibili oggi sul mercato, anche le piccole e medie imprese possono disporre di una tecnologia semplice, accessibile, a costi contenuti, usufruendo delle medesime opportunità che una volta erano fruibili solo dalle grandi aziende. La disponibilità di servizi cloud computing ha infatti accresciuto la possibilità per le società, anche le più piccole, di adottare soluzioni flessibili che offrano efficienza e risparmio, molto aperte a futuri percorsi di crescita senza essere troppo vincolanti nelle fasi iniziali.
Per offrire un punto di vista direttamente riferibile al lato domanda, riportiamo alcuni dei risultati del sondaggio Nextvalue 2010 sul cloud computing nelle imprese italiane (nell’ultimo capitolo di questo dossier), alla voce “Principali ragioni nell’adozione di cloud computing nel prossimo anno”: riduzione dei costi dell’infrastruttura hardware (62%), scalabilità della domanda (73%), riduzione personale It e costi amministrativi (44%), eliminazione problematiche non inerenti al business (35%), accesso a skill che non si ha intenzione di sviluppare in casa (25%).
Ma veniamo ai risvolti negativi, ai caveat e agli ostacoli sulla strada che porta alla nuvola. In una sua nota per Data Manager, Alfredo Gatti, che con la sua Nextvalue ha istituito un efficace osservatorio del fenomeno cloud in Italia, ha citato come prima barriera da superare la carenza di cultura aziendale che, secondo Gatti, maschera con un eufemismo quella che molto spesso è una reale mancanza di esperienza o un eccessivo grado di prudenza nel fare il primo passo quando manchino, nel mondo contiguo alle imprese che prendono in considerazione certi cambiamenti, casi di successo verificabili.
Un’altra perplessità emerge in relazione alla difficoltà nel negoziare nuovi contratti Sla e un presunto ostacolo all’integrazione dei servizi applicativi con quanto già esiste.
Su un piano paradossalmente più secondario – stando almeno alle dichiarazioni raccolte da Nextvalue – si colloca quella che di primo acchito potrebbe sembrare una tematica molto sentita: l’obiezione in tema sicurezza e privacy.
È vero che le considerazioni in materia devono essere alla base di ogni seria valutazione, soprattutto quando gli operatori di dimensioni medio-grandi devono decidere se optare per percorsi di private o public cloud. Ma va anche detto che davanti a un problema così importante il mercato è in grado di suggerire soluzioni tecnologiche e procedurali molto convincenti.
Gatti sottolinea infine l’aspetto dello scontro tra vecchi e nuovi modi di fare informatica, citando l’opinione di chi ritiene che il mondo idilliaco delle rendite di posizione dei fornitori di Ict stia per finire e che l’ecosistema precedente stia per essere spazzato via per effetto dei nuovi modelli e delle nuove pratiche. Il consulente non ritiene che sia questo il risultato che dobbiamo attenderci. «Sicuramente vi è ancora una forte impreparazione al cloud computing da parte del sistema d’offerta, soprattutto da parte degli intermediari che lo considerano un forte rischio, ma occorre anche tener conto che nuovi soggetti e servizi nascono e si innestano tra i precedenti, in questo caso molto rapidamente». Il cloud computing non è vantaggioso per tutti i settori e gli ambiti It. Per esempio, se mancano i presupposti per una standardizzazione, come spesso avviene per i mondi Erp, il cloud non è fruttuoso per i cloud provider, e non lo è per gli utenti, che devono allinearsi a una rigidità di utilizzo non sempre compatibile col servizio al business. Non sarà quindi un lento processo di cannibalizzazione, ma di iniziale complementarietà e successivo cambiamento e – si spera – crescita.
I cinque step per un’infrastruttura adatta
Tutto lascia intuire che in una fase iniziale, anche in attesa del consolidamento degli standard e degli sforzi mirati alla interoperabilità dei servizi, molti potenziali utenti del cloud computing tra le imprese di una certa dimensione si concentreranno sui progetti di cloud privata, specie nelle situazioni in cui finiscano per prevalere esigenze di privacy e controllo su dati sensibili e applicazioni mission critical.
Anche in geografie più mature come gli Stati Uniti, del resto, gli analisti notano che l’interesse nei confronti del cloud in outsourcing è più forte nelle realtà molto piccole, dove sono invece predominanti gli interessi nei confronti di tecnologie e piattaforme già pronte da usare con investimenti molto mirati.
Questo non significa che i responsabili di sistemi informativi più attenti siano del tutto immuni dalla tentazione del cloud, magari con l’idea di verificare se davvero tutte queste promesse in termini di risparmio ed efficientazione siano reali. Come la Service-oriented architecture, il cloud computing non è un prodotto confezionato, ma una visione complessiva che può richiedere notevoli sforzi implementativi. Quali sono i requisiti in termini infrastrutturali? Quali le condizioni al contorno e quali i percorsi da seguire verso le nuvole “private”?
Come già sottolineato, per il cloud computing non è un semplice esercizio di implementazione di un modello architetturale preciso. Richiede, come ogni innovazione che riguarda in fin dei conti una trasformazione procedurale, un forte coordinamento e la collaborazione tra tutte le persone coinvolte, obiettivo che in seno a molte organizzazioni può diventare l’ostacolo più serio da superare. L’organizzazione deve essere pronta e disponibile a modificare il proprio atteggiamento nei confronti delle applicazioni utilizzate e sui metodi di distribuzione delle stesse. Anche l’allocamento delle risorse e dei budget deve cambiare di conseguenza. I responsabili di progetto devono adattare i loro algoritmi di strutturazione dei costi in funzione di un’informatica per una volta svincolata dalla sua fisicità. L’It deve essere vista in ottica di servizio, non di macchina, di potenza di calcolo, di spazio di archiviazione.
Anche per questo motivo tutti i manuali consigliano di partire, quando possibile, dal basso, cercando di spostare in ottica cloud le applicazioni che non sono direttamente critiche per il business svolto. Lo scopo primario di questo modo di procedere incrementale dev’essere quello del recupero delle risorse attualmente non impegnate, la validazione dei risparmi ottenibili in confronto a soluzioni tradizionali e una prima comprensione del futuro sforzo della gestione della performance di una infrastruttura virtualizzata.
Il primo passo consiste in genere nello stabilire quale tecnologia sarà alla base delle nuova infrastruttura applicativa on demand. Nella maggior parte dei casi è inutile imbarcarsi in un progetto cloud di una certa ambizione se prima non si è già partiti in forze su un percorso di virtualizzazione dei server e delle applicazioni eseguite dalle macchine virtuali, per cui è ragionevole aspettarsi che la tecnologia prescelta sarà, in ottica di continuità, proprio quella che ha animato la prima fase di virtualizzazione. Per automatizzare processi come il provisioning e la gestione delle risorse (un tratto distintivo di un’infrastruttura cloud), dovranno inevitabilmente essere messi in atto dei cambiamenti a livello delle architetture di rete. Per esempio la capacità di avviare le applicazioni dalla rete e automatizzare tutte le procedure di configurazione e indirizzamento è fondamentale.
Il secondo passo consiste quindi nel determinare quale infrastruttura di delivery serve per astrarre il livello di quella applicativa. Le capacità on demand di un’infrastruttura cloud devono essere progettate per fare sostanzialmente due cose: assicurare la scalabilità ed efficientare l’uso delle risorse. La prima caratteristica richiede quindi l’implementazione di un sistema di bilanciamento dei carichi e dell’erogazione dei servizi applicativi.
La terza fase richiede la predisposizione di tutti gli accorgimenti a livello di networking. L’hardware che sottende all’infrastruttura di rete interna deve per esempio essere configurato correttamente in funzione dell’applicazione realizzata. Operazione che può essere relativamente semplice quando l’applicazione da virtualizzare è singola, ma che deve tener conto del traguardo finale: una rete in cui le applicazioni virtuali siano effettivamente in grado di migrare da una risorsa hardware all’altra senza che questa migrazione si lasci dietro scie visibili e tempi di attesa percepibili dagli utenti o peggio ancora richieda un intervento manuale da parte di un amministratore di sistema. In pratica la rete deve diventare un’infrastruttura capace di sopportare senza sforzi schemi di traffico continuamente mutevoli e non prevedibili a priori: una differenza radicale rispetto al passato.
A valle di questa preparazione, il quarto passo richiede, per le procedure gestionali classiche, la massima visibilità dei flussi in corso e un forte grado di automazione. L’infrastruttura on demand e i suoi sistemi gestionali devono conoscere in ogni istante i codici in esecuzione, i nodi in cui questa esecuzione è in corso e l’istante in cui verificare la disponibilità delle risorse ed eventualmente effettuare un riassegnamento delle stesse. Importante è stabilire quali parametri vitali rilevare e come effettuare la raccolta dei dati, da quale driver, agente software o sistema gestionale evoluto estrarre questi dati. Disporre delle informazioni giuste nel momento e nel punto giusto è fondamentale in una architettura che, attraverso l’automazione dei processi decisionali, deve ovviare alle rigidità delle architetture convenzionali.
Il quinto passo, quello conclusivo, richiede una definitiva integrazione, una vera e propria orchestrazione di tutti i pezzi e gli automatismi che sono stati messi in piedi nelle fasi precedenti. L’integrazione o piena automazione di tutte le componenti dell’infrastruttura virtuale – reti, storage e applicazioni – è l’ingrediente che abilita un’infrastruttura virtuale a funzionare in modalità on demand. Senza questo ingrediente, molti dei benefici teorici del cloud computing rischiano di essere vanificati. Proprio su questo punto, sull’orchestrazione, si stanno concentrando gli sforzi dei fornitori di tecnologie, che in questi ultimi 12 mesi hanno accelerato – facendo leva sullo sviluppo di soluzioni in house o su acquisizioni mirate – la corsa verso l’offerta di piattaforme gestionali finalizzate esplicitamente alla realizzazione di cloud private. Questo non significa che le aziende impegnate in progetti cloud non debbano ricorrere allo sviluppo o alla implementazione di tecnologie in proprio, o con l’aiuto delle società di consulenza. La recente proliferazione di progetti anche open source (OpenStack per esempio), conferma la tendenza a una rapida maturazione di un mercato di “cassette degli attrezzi” specificatamente rivolto ai potenziali utenti delle cloud private, là dove l’adozione di servizi e applicazioni su nuvole pubbliche può invece comportare, magari in chiave più evoluta, meccanismi tradizionali di selezione di provider di risorse di banda verso Internet.
Il cloud computing in Italia
È stato presentato a inizio luglio il quaderno numero quattro di Nextvalue “It Ideas”, con i risultati dell’indagine che la società di consulenza milanese ha condotto a cavallo tra 2009 e 2010, un anno dopo una prima inchiesta tra i Cio italiani in materia di cloud computing. La ricerca Nextvalue è in questo momento una delle fonti più accreditate per misurare il livello di percezione e impegno in campo cloud dell’informatica aziendale italiana e l’edizione di quest’anno del survey aggiunge un ulteriore motivo di interesse in più: un tentativo di confronto tra la situazione italiana (con interessanti appendici a carattere regionale) e il resto del contesto europeo.
Il principale obiettivo di questa inchiesta svolta su un campione di cento grandi aziende (fatturati superiori ai 100 milioni di euro) è l’analisi del trend di sviluppo del cloud computing, mettendo a confronto i risultati emersi un anno fa con quelli raccolti nel 2010 e offrendo, come si è detto, una chiave di lettura nel contesto internazionale. La peculiarità e l’utilità di questo studio sono evidenti, se si pensa che di solito le analisi effettuate da consulenti internazionali sono solite partire dai consuntivi globali per andare in rare occasioni nello spaccato delle diverse nazioni.
Partiamo innanzitutto dalla composizione del panel dei Cio interrogati, che privilegia per un 32% la categoria “industria”, al 19% il commercio e la Gdo, e al 16% le utilities. Tutti i principali comparti merceologici sono rappresentati, inclusa la Pubblica amministrazione locale e la sanità (13% nel complesso). La prima parte del survey va a esplorare il livello di attrazione che le nuove tecnologie rivestono per i Cio, chiamati a indicare il grado di strategicità ai fini di un utilizzo nelle rispettive aziende. L’istogramma delle tecnologie più gettonate vede al primo posto il Web 2.0, con il 44% di importanza strategica media. Segue al secondo posto (42%) la virtualizzazione, il presupposto tecnologico del cloud. L’esplicita menzione del cloud computing è al terzo posto, molto vicina, con il 41% dei consensi. Interessante notare il distacco di queste prime tre priorità con voci come sicurezza e content management rispettivamente al 29 e al 24%. Il cloud computing conquista invece la terza piazza e rispetto alle posizioni di un anno fa sembra essere entrato maggiormente “nelle corde” dei Cio intervistati, che lo considerano come un trend a sé stante, non più come una forma estremizzata di virtualizzazione, ma lo associano sempre più frequentemente alle definizioni maggiormente diffuse, ovvero al connubio tra infrastrutture, software e piattaforme as-a-service.
Molto eloquente è in questo senso l’istogramma di quelle che secondo i Cio sono le definizioni più appropriate di cloud computing e il confronto delle due votazioni espresse un anno fa e oggi. Se il 56% dei responsabili dell’informatica aziendale nel 2009 affermava che cloud significa virtualizzazione dei server, quest’anno la risposta riguarda solo il 38% degli intervistati. Se davvero la barriera culturale è un ostacolo importante all’adozione di soluzioni cloud, si può affermare che negli ultimi 12 mesi è stato fatto un importante passo avanti, la “modalità” cloud viene percepita come qualcosa di separato dalla “tecnologia” virtualizzazione. Comunque sia, la virtualizzazione mantiene il primo posto con il suo potere “definitorio”, anche se subito dopo segue la nozione formalmente più corretta di cloud computing come “X-as-a-Service”. Il 35% dei Cio ritiene che questa, il trio di acronimi IaaS, Saas e Paas, sia la definizione più adeguata (lo scorso anno solo il 15% di loro dava questa risposta). Il resto preferisce soffermarsi su uno dei tre aspetti, facendo coincidere quindi cloud con IaaS (9%), con PaaS (3%) o con SaaS (3%). Curiosamente, il 10% dei Cio (contro il 6% del 2009) identifica la nuvola nella virtualizzazione dello storage e il 3% in quella del desktop.
A una generale crescita di consapevolezza nella preparazione dei Cio, non segue purtroppo un analogo impegno sul versante dell’adozione all’interno delle rispettive aziende. Le risposte alla domanda sui progetti eventualmente messi in piedi o da realizzare nei prossimi 12 mesi, sono secondo il survey Nextvalue piuttosto deludenti. Soltanto il 16% delle aziende si dice già impegnato o in procinto di sviluppare progetti cloud, una percentuale sconcertante se si pensa che alla stessa domanda lo scorso anno aveva risposto affermativamente il 34% dei Cio. La percentuale di chi risponde di aver già sviluppato un progetto in questa direzione cala dall’11% del 2009 all’attuale 7%. I progetti che il 23% delle aziende prevedeva di realizzare nel 2009, scendono a un livello di intenzionalità di appena il 9%. Raggiunge l’inquietante percentuale dell’84% il novero di chi afferma seccamente di non avere in cantiere o nel cassetto alcun progetto (era il 66% nel 2009). È uno spaccato alquanto contraddittorio perché se è comprensibile una scarsa propensione all’investimento in cambi di rotta in una fase congiunturale così delicata, l’attuale disinteresse nei confronti del cloud computing potrebbe dimostrare che la natura più economica del suo messaggio, quella che promette contenimento e governance dei costi, non viene adeguatamente presa in considerazione. O forse non viene proprio considerata attendibile.
L’ottimismo torna a farsi sentire quando i Cio valutano la possibile evoluzione di questo concetto in azienda. Nel 2009 a questo proposito 53 interrogati su cento affermavano che il cloud non avrà particolare diffusione. Oggi gli scettici a oltranza sono solo 16 su cento. Per il 27% la nuvola avrà uno sviluppo diffuso per la gestione delle applicazioni aziendali e per il 31% nella gestione applicativa in specifiche aree. Quali? Alla domanda relativa alla percezione su quali potrebbero essere le specializzazioni di eventuali servizi SaaS, il 54% risponde Business intelligence, il 36% Business process management, il 22% Unified communication, il 17% l’Erp e a pari merito il Crm. Forte, infine, continua a essere la percezione del ruolo del Cio come principale sponsor dell’adozione del cloud. Nel 77% dei casi, il Cio è considerato come il vero “motore immobile”, contro un modesto 7% attribuito alla funzione di driver della direzione generale.
Come specificato all’inizio, uno degli aspetti più stimolanti dell’edizione 2010 dello studio Nextvalue sul cloud computing è legato al confronto con una analoga inchiesta svolta a livello europeo da CioNet (in UK, Benelux, Francia e Spagna). Da questo confronto emerge come al solito una certa distanza con la nostra situazione. Le tecnologie strategiche diventano Bi e Performance management (68% delle risposte), Unified communication (51%) Mobile cloud (38%), Virtualizzazione (30%). L’82% dei Cio europei riconosce nell’X-as-a-Service la corretta definizione di cloud computing e i livelli attuali di adozione riflettono questa maggiore presa di coscienza culturale. La percentuale di chi afferma di non avere progetti in questa direzione scende al 39%, mentre il 29% dice di aver già sviluppato e il 32% di avere in previsione lo sviluppo di soluzioni.