Virtual machine Real future?

Virtual machine Real future?Secondo gli analisti di Gartner, entro il 2015, il 75% dei server fisici sarà virtualizzato. La gestione di una struttura virtualizzata sempre più estesa e il controllo del ciclo di vita delle VM sarà un tema caldo nel prossimo futuro, soprattutto per le potenziali ripercussioni sulla sicurezza dell’infrastruttura IT

 

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

 

Una virtual machine (VM) non è una bottiglia di vino buono che invecchiando migliora. Anzi, qualche volta non si trasforma neppure in aceto, buono almeno per condirci l’insalata. Una VM dormiente che nessuno spegne, consuma risorse rallentando sistemi e reti. E rappresenta un potenziale pericolo, un buco affatto virtuale nelle maglie di sicurezza dell’organizzazione. In alcune organizzazioni questo fenomeno assume dimensioni patologiche con l’acquisto e la proliferazione di VM e servizi connessi, senza alcuna pianificazione né autorizzazione preventiva da parte dell’IT. La flessibilità dei sistemi virtualizzati richiede un livello di sicurezza specifico. Le VM si approntano con estrema facilità, la stessa che riscontra l’amministratore quando decide di spostarle da una piattaforma o un ambiente all’altro. Pertanto, ogni VM deve essere messa in sicurezza. Gestire al meglio un ambiente virtuale significa esercitare un controllo efficace sull’infrastruttura. Le piattaforme di gestione degli hypervisor – pur assolvendo ad alcune funzioni necessarie – poco o nulla aggiungono alla capacità dell’organizzazione di rafforzare la governance necessaria a ridurre il proliferare di VM inutili o sovradimensionate. Allo stesso modo, soluzioni specifiche per individuare le VM inattive non sono di grande aiuto per automatizzare i processi di disattivazione e riutilizzo dei sistemi. Servono policy in grado di formalizzare le modalità di gestione delle VM, dalla pianificazione al monitoraggio del loro ciclo di vita, capaci di mettere l’amministratore in condizioni di verificare periodicamente la corrispondenza tra il comportamento preventivato e quello effettivo.

IL CICLO DI VITA DELLE VM

Ogni fase nel ciclo di vita di una VM (configurazione, spostamento, disattivazione, riciclo…) può e deve essere gestita al meglio, soprattutto per le implicazioni sulla sicurezza, che qui ci interessa approfondire maggiormente. Pur ammettendo che qualunque tassonomia tende sempre a ridurre la complessità dell’oggetto di studio, fare il dettaglio (building/provisioning, monitoraggio e audit) – come tra poco faremo – ci aiuterà a focalizzare sia le connessioni tra le diverse fasi, sia la correlazione tra efficienza gestionale e livello complessivo di sicurezza. Per assemblare (building) una VM servono competenze e risorse. Fornire la VM più adatta a una specifica esigenza, significa configurarla in modo che risponda al meglio alle sollecitazioni richieste, disponendo di un set di risorse adatte (hardware, piattaforme di virtualizzazione diverse, licenze) tra le quali scegliere. Banalmente, un’applicazione mission critical richiede risorse computazionali maggiori rispetto a una VM di test. Per determinate esigenze, potrebbe rendersi necessario l’utilizzo di CPU a basso consumo di risorse computazionali – oppure – potrebbe essere necessaria la virtualizzazione dell’applicativo utilizzato da una specifica funzione (marketing, HR…). Ora non tutto si presta a essere virtualizzato. Esistono però metodologie collaudate che permettono di valutare che cosa è preferibile mantenere su server fisici. Detto questo, essere in grado di decidere in anticipo che cosa virtualizzare aiuta anche nella pianificazione della sicurezza. Tra le componenti necessarie alla virtualizzazione, la gestione delle licenze non è da trascurare. Nel caso di utilizzo di software non licenziato, è qui che si annidano i pericoli maggiori per la sicurezza connessi al software non licenziato che ci preme sottolineare e che vanno ben oltre il problema delle sanzioni. Dovrebbe essere chiaro che un sistema operativo illegale sarà più esposto ai pericoli che derivano dalla mancanza di supporto e aggiornamento. Meno diffusa è invece la consapevolezza che il software  scaricato illegalmente può veicolare malware pericoloso. La VM prima di essere sigillata, prima cioè di essere classificata idonea per passare in produzione, deve soddisfare una serie di standard quantitativi, poco o per nulla negoziabili. In altri termini, l’architettura della VM deve poggiare su una immagine collaudata equipaggiata con tutti gli aggiornamenti necessari in relazione al livello di qualità richiesto da un determinato job. Questo non implica la corsa parossistica all’installazione dell’ultima versione disponibile dell’aggiornamento di questo o quell’altro software, quanto – piuttosto – la ragionevole certezza che la piattaforma di virtualizzazione sia sempre in condizione di accedere alle componenti più adatte per soddisfare una richiesta specifica. Anche se la tecnologia consente di aggiornare direttamente il client, anche virtuale, l’onere degli aggiornamenti non è da sottovalutare. Va da sé che il repository di VM pronte per l’uso vada adeguatamente protetto. Anzitutto per mettere al riparo l’organizzazione dai pericoli che possono derivare dalla facilità con cui si fa provisioning (il processo di reperimento e allocazione della VM più adatta) – oggi – particolarmente semplice e rapido.

Leggi anche:  Scoperte nuove vulnerabilità nei veicoli Tesla e nei principali browser

MIGLIORARE L’EFFICIENZA

Efficienza nella gestione delle risorse e sicurezza sono strettamente connesse. Così anche nel campo della virtualizzazione un buon punto di partenza è quello di imparare a fare di più con meno. Anche perché riuscire a ridurre il consumo di risorse è più comodo che trovarsi – dopo – a cercare di mettere una pezza a una serie di situazioni d’inefficienza. La gestione ottimale delle risorse passa attraverso tre fasi, riduzione, riutilizzo e riciclo. Quando si parla di riduzione delle VM attive, il primo trade-off è di conciliare l’esigenza di chi richiede una VM – per il quale dovrebbe essere semplice averla a disposizione in tempi brevi – con la legittima aspettativa da parte dell’IT di voler prendere in considerazione solo le richieste giustificate da reali esigenze lavorative. Il richiedente si aspetta una valutazione corretta della richiesta. L’IT – d’altra parte – persegue quella autonomia gestionale che la presenza di policy condivise dovrebbe garantire, sia per rendere sempre più efficiente l’evasione delle domande, sia nei casi in cui si sia costretti a declinare le richieste, per evitare qualsiasi spiacevole strascico. In molti casi – però – le cose vanno in modo diverso. L’organizzazione, per limitare la proliferazione di installazioni, decide di affidare all’amministratore il compito di tenere traccia di tutto quello che di virtuale viene installato. In genere, l’IT è già oberato da mille altre attività e l’aggiunta di carichi di lavoro supplementari difficilmente viene accolta positivamente. Inoltre, spesso l’amministratore può contare solo sulle proprie forze, in modo manuale o quando va bene con tool di fortuna. Accade – infatti – che prima ancora che il processo abbia inizio non siano stati fissati dei paletti precisi circa le risorse da impiegare su ogni singola VM installata. In questo modo, l’IT subisce la mancanza di chiarezza con inefficienze che vanno dallo spreco di tempo ed energie, a malumori assortiti con lo spiacevole corollario – nei casi più gravi – di conflitti da risolvere, che travalicano la stessa competenza dell’IT. L’inefficienza di questo processo contribuisce a innescare il fenomeno della proliferazione di installazioni. La soluzione? Policy appropriate che a priori fissino delle regole che prevengano il sorgere di questi conflitti e soluzioni capaci di supportare meccanismi di approvazione automatica delle richieste, riducendo al minimo i problemi connessi alla gestione delle eventuali controversie. In sintesi – come suggerisce Gianandrea Daverio, responsabile competence center security di Xenesys (www.xenesys.it) – «occorre regolamentare il processo di autorizzazione propedeutico al rilascio di un nuovo sistema, le politiche da adottare per la sua configurazione e nell’utilizzo di risorse hardware, software, di rete e connettività».  

RIUTILIZZO DELLE VM

Uno dei punti di forza del paradigma della virtualizzazione è il miglioramento dell’efficienza grazie all’impiego intensivo delle risorse. Di conseguenza, il livello di riutilizzo di una risorsa incide profondamente sull’efficienza globale dell’infrastruttura virtuale. Tuttavia, il problema del riutilizzo è che esso avviene soprattutto in modo manuale. In molti casi, l’utilizzo di VM dovrebbe essere limitato nel tempo perché circoscritto è il compito da svolgere: data mining, calcolo, attività negli ambienti di test e sviluppo. In realtà, una percentuale non trascurabile di VM rimane attiva ben oltre il limite prestabilito. Le stesse considerazioni valgono per gli archivi di VM sigillate, un’area che tende a crescere in maniera incontrollata e a consumare risorse ingiustificate (tra le altre cpu, storage e memoria) se non adeguatamente monitorata. Anche in questo caso, la presenza di policy che fissano i criteri per archiviare le VM contribuisce a ottimizzare le risorse disponibili. Tuttavia, l’identificazione e la raccolta di risorse inutilizzate richiedono cospicui investimenti di risorse. Ciò rende di fatto raro – se non addirittura assente – il riciclo. La conseguenza è che un numero non irrilevante di VM tende a rimanere a lungo una risorsa nascosta e sottoutilizzata all’interno dell’organizzazione. È difficile che si tenga traccia delle VM implementate e – anche quando l’organizzazione utilizza tool ad hoc – la difficoltà è di distinguere le VM attive dalle altre. Anche perché non è un’attività supportata da un elevato grado di automazione, con la parte interessata che deve acconsentire allo smantellamento della VM per dare avvio al recupero. Poiché non esiste un criterio sempre valido per identificare quando la VM serve ancora al suo scopo, l’ideale è predisporre un sistema di monitoraggio delle VM in produzione in grado di quantificare l’utilizzo delle risorse impiegate sia dal punto di vista tecnico, sia in relazione all’ambiente di utilizzo. Solo in questo modo – una volta individuate le VM sottoutilizzate – è possibile intervenire. Un sistema con queste caratteristiche, infatti, consente di accertare la non vulnerabilità della VM e di intervenire qualora si riscontri l’esposizione a una minaccia di sicurezza. La capacità di tenere traccia di ogni azione compiuta con una VM, in modo da mantenere una serie di informazioni utili per il controllo (audit), introduce il problema di chi deve amministrare la struttura virtuale, con quali privilegi e in che rapporto rispetto all’amministratore dei sistemi fisici. La gestione dell’account privilegiato apre – in altre parole – una serie di questioni che è preferibile affrontare tempestivamente. Secondo Marco Pacchiardo, BT Advise security practice italian leader (www.globalservices.bt.com/it), per quanto riguarda le utenze amministrative, il modo migliore per avere una granularità più efficiente in termini di sicurezza è di avere amministratori distinti per i sistemi fisici e per quelli virtualizzati. «Il sistema di logging invece – spiega Pacchiardo – deve essere centralizzato, per poter valutare sia gli eventi a livello di server di virtualizzazione, sia quelli delle VM. E questo consente di mettere in atto tecniche di log correlation per meglio identificare bassi livelli di sicurezza e azioni non permesse». Inoltre, dato il forte incremento delle attività di governance, risk and compliance (GRC), diventa sempre più probabile dover provare a terzi in che modo è stata utilizzata la VM. «La complessità delle farm virtualizzate e il rischio che un errore umano possa comprometterne l’integrità e la disponibilità sono rischi da tenere in considerazione» – avverte Gianandrea Daverio di Xenesys. A maggior ragione – continua Daverio – in contesti complessi in cui il rischio di errore umano è elevato – ed elevato rischia di essere l’impatto – è necessario prevedere un processo di audit continuativo. Ciò consente da una parte di tracciare tutti gli interventi di modifica delle configurazioni apportate all’infrastruttura – per capire chi ha fatto che cosa e per quali ragioni – e dall’altra, in una logica di security lifecycle management, di monitorare il livello di esposizione al rischio a fronte del mutare delle condizioni».

Leggi anche:  La protezione dei dati nell’era del multirischio

VERSO L’AUTOMAZIONE

L’efficiente implementazione e automazione di tutte queste attività innalza i margini di ritorno sugli investimenti (ROI). Il recupero di risorse derivanti dal riciclo e dal ricondizionamento si traduce in risparmi – già nel breve periodo – ancora più consistenti se l’ottimizzazione origina da ambienti in cui l’utilizzo della virtualizzazione è particolarmente intensivo (ricerca e sviluppo, test). Efficienza e automazione dei processi – però – apportano vantaggi soprattutto per quanto riguarda la sicurezza, riducendo il rischio dovuto a errori imputabili alle persone. «Succede che un progetto impeccabile sulla carta, si dimostri imperfetto in fase di implementazione, perché allo staff sono richiesti skill non consolidati o semplicemente perché vengono richiesti processi manuali lunghi e complessi (si pensi a troubleshooting, porting e scripting), potenzialmente forieri di errori, tanto più critici quando il tema è la sicurezza» – fa notare David Gubiani, technical manager di Check Point Software Technologies Italia (www.checkpoint.com). «Con processi automatizzati e controlli a più livelli, l’elemento di rischio legato al fattore umano si riduce sensibilmente». L’unica condizione è che la sicurezza sia pianificata sin dal principio del progetto. Definita la struttura generale, l’architettura di sicurezza deve essere realizzata di conseguenza, senza stravolgimenti. Secondo Marco Pacchiardo di BT, gli standard comunemente accettati sono sufficienti anche per la gestione di sistemi virtualizzati. «L’unico accorgimento – osserva Pacchiardo – è quello di suddividere responsabilità e permessi in accordo con i differenti livelli di gestione tra server e sistemi virtualizzati». Approccio questo, condiviso anche da David Gubiani di Check Point Software Technologies Italia, che sottolinea l’unicità dell’architettura Check Point, sia per l’ambiente fisico sia per quello virtuale. «L’uniformità consente agli amministratori di avere il pieno controllo dell’infrastruttura riducendo, sia in fase di progettazione, sia di esercizio, il rischio di errori umani. In più – spiega Gubiani – raccogliendo sotto un unico cappello tutta l’infrastruttura, gli amministratori sono abilitati al controllo completo di risorse e sistemi indipendentemente dalla loro natura, semplificando e rendendo più efficace la gestione». L’integrazione tra l’ambiente fisico e quello virtuale non deve – però – compromettere l’efficacia delle misure di sicurezza, ma deve garantire gli stessi standard di sicurezza delle soluzioni tradizionali. «L’approccio alla sicurezza dell’ambiente virtuale – infatti – deve essere non solo integrato con il resto della infrastruttura fisica del data center, ma nei limiti del possibile deve essere il medesimo» – afferma Vincenzo Costantino, VAR e channel manager Italy di Symantec (www.symantec.com/it). «Questo non significa creare un nuovo silos all’interno del data center, ma semplicemente estendere la tecnologia presente e le procedure già in essere anche all’ambiente virtuale. Tutti gli aspetti tipici della sicurezza che sono stati affrontati nel corso degli ultimi anni per il mondo fisico devono integrare anche l’ambiente virtuale che a pieno titolo ormai ospita ambienti in produzione e business critical. Symantec da diversi anni ha adottato questo approccio – prosegue Costantino – estendendo di fatto l’integrazione di tutte le soluzioni di sicurezza, protezione del dato e backup anche al mondo virtuale senza alcun cambiamento organizzativo. E’ un approccio particolarmente vantaggioso non solo per la sicurezza e per una corretta gestione dell’ambiente, ma permette anche un notevole risparmio evitando di acquisire nuova tecnologia e nuovi skills in azienda. La tecnologia di Symantec, inoltre, permette di indirizzare eventuali nuove minacce del virtuale in modo integrato e di ridurre i rischi di vulnerabilità creati in modo anche involontario dal fattore umano e quelli intrinseci della nuova tecnologia come i canali di comunicazione». Per Gastone Nencini, senior technical manager di Trend Micro Southern Europe (www.trendmicro.it) solo una sicurezza integrata e trasversale alle piattaforme consente di affrontare le nuove esigenze di gestione e protezione. «La soluzione Deep Security di Trend Micro – continua Nencini – attraverso moduli integrati, permette di personalizzare e semplificare la sicurezza in base a qualsiasi combinazione di protezione agentless e agent-based, compresi antimalware, web reputation, firewall stateful bidirezionale, rilevamento e prevenzione delle intrusioni, controllo dell’integrità e ispezione dei registri, senza la necessità continua di configurazioni, aggiornamenti e patch degli agenti». Per affrontare le nuove sfide, secondo Nencini, è necessario adottare un nuovo standard di “virtual datacenter security” in grado di unire tecnologia di protezione dalle minacce comprovata e architettura innovativa per la sicurezza agentless nei datacenter virtualizzati e nel cloud. «Questa protezione può essere fornita solo attraverso una piattaforma di sicurezza unificata, che abiliti contemporaneamente il deployment agentless e agent-based per proteggere server fisici, virtuali, cloud pubblici, privati e ibridi e ambienti VDI». Consapevolezza dei nuovi rischi, partnership tra fornitore e cliente, propensione al cambiamento e corporate governance sono secondo Sergio Lazzaroni, responsabile ICT di Italtel (www.italtel.com/it), le componenti chiave di questa sfida. «I fattori di successo passano attraverso un diverso ruolo dei fornitori e dei clienti che dovranno affrontare in modo organico e complementare, sin dalle prime fasi di selezione di nuovi prodotti o soluzioni, oltre agli aspetti tecnologici anche quelli procedurali e formativi del personale». Non solo. «Tecnologia e fattore umano – osserva Lazzaroni – rivestono un ruolo determinante nel progettare e gestire infrastrutture virtuali sicure. I player di mercato devono rendere disponibili tecnologie di base e metodologie di progetto capaci di realizzare non solo server, ma interi ecosistemi virtuali sicuri. Il fattore chiave sarà proteggere adeguatamente tutti i layer interessati, dalla rete alle applicazioni. Tecnologie e metodologie quali “Statefull firewall”, “Role hardening”, “Hypervisor integrity check”, “Registry inspection” dovranno diventare parte integrante delle soluzioni sul mercato. Circa il fattore umano, chiave di successo sarà la capacità di trasformare l’interpretazione del ruolo d’amministratore dei sistemi attraverso la piena conoscenza dei nuovi rischi, con l’accesso ad ambienti integrati sviluppati con tecnologie semplici da usare e la messa a disposizione di rigorose procedure aziendali capaci di proteggerlo da eventuali errori. In questi ambiti Italtel, grazie alle profonde esperienze maturate e alle consolidate partnership, è in grado di proporre un’offerta completa per la fornitura e messa in esercizio di prodotti e soluzioni e di governare la “trasformazione” del personale IT interessato al cambiamento». 

Leggi anche:  Check Point ridefinisce la sicurezza informatica e presenta la serie Quantum Force Gateway

PIU’ ATTENZIONE AL DETTAGLIO

Secondo gli analisti di Gartner, entro il 2015, il 75% dei server fisici sarà virtualizzato. La gestione di un parco macchine sempre più esteso continuerà a essere una questione centrale soprattutto per le potenziali ripercussioni sulla sicurezza dell’infrastruttura IT. Una maggiore efficienza nella gestione del ciclo di vita dei sistemi virtualizzati ha ricadute positive sia sul ROI, sia sulla sicurezza. Tuttavia, se l’infrastruttura virtuale non viene utilizzata in modo efficiente – e soprattutto se per negligenza o incompetenza la sicurezza viene messa a repentaglio – una larga parte del cost-saving preventivato può essere vanificata. La parola d’ordine è “attenzione al dettaglio”. L’applicazione delle linee guida più efficaci sull’operatività quotidiana e sull’automazione sempre più spinta delle procedure sono gli imperativi cui devono attenersi le aziende per prevenire i problemi e cogliere appieno le opportunità offerte dalla virtualizzazione in tutti gli ambiti di applicazione.