Symantec: virtualizzazione e cloud computing rendono più complessa la Disaster Recovery

Una ricerca di Symantec rivela il divario tra le aspettative di downtime e la realtà

Symantec ha annunciato i risultati globali del sesto studio annuale Symantec Disaster Recovery Study da cui emerge la crescente sfida di gestire risorse disparate virtuali, fisiche e cloud, dovuta alla maggiore complessità che incontrano le aziende nel proteggere e recuperare i dati e le applicazioni mission critical. Inoltre, lo studio mette in luce come i sistemi virtuali non vengano protetti in maniera adeguata.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Lo studio evidenzia che quasi la metà – il 44% – dei dati presenti sui sistemi virtuali non viene sottoposto a regolare backup e solo un intervistato su cinque usa tecnologie di replication e failover per proteggere gli ambienti virtuali. Gli intervistati hanno inoltre indicato che il 60% dei server virtuali non è incluso nel proprio attuale piano di Disaster Recovery (DR). Un incremento significativo rispetto al 45% rilevato nello stesso studio condotto nel 2009.

Strumenti, sicurezza e controllo inadeguati

L’utilizzo di molteplici strumenti per gestire e proteggere le applicazioni e i dati in ambienti virtuali è causa di maggiori difficoltà per i responsabili dei data center. In particolare, quasi sei intervistati su dieci (il 58%) ha dichiarato che l’aver riscontrato problemi nella protezioni di applicazioni mission-critical, in ambienti fisici e virtuali, rappresenta una grande sfida per la propria azienda.

Riguardo al cloud computing, gli intervistati hanno dichiarato che circa il 50% delle applicazioni mission-critical della propria azienda gira sulla nuvola. Per due terzi dei rispondenti (il 66%), la sicurezza è la maggiore causa di preoccupazione quando si collocano le applicazioni nella nuvola. In ogni caso, per il 55% la sfida più grande che si presenta con il cloud computing e lo storage è la capacità di controllare i failover e di rendere le risorse altamente disponibili.

Leggi anche:  Cloud First: guida strategica per il futuro digitale delle aziende

Risorse e storage limitati ostacolano il backup

Secondo gli intervistati, l’82% dei backup viene eseguito solo una volta a settimana se non meno frequentemente. Risorse limitate, carenza di capacità storage e utilizzo insufficiente di soluzioni di protezione più avanzate ed efficienti sono elementi che frenano il rapido sviluppo degli ambienti virtuali. In particolare:

• Il 59% degli intervistati ha individuato nella carenza di risorse (personale, budget e spazio) la sfida maggiore quando si effettua il backup delle macchine virtuali.

• Gli intervistati hanno dichiarato che la mancanza di backup(per il 57%) e storage (per il 60%) primari è di ostacolo nella protezione dei dati mission critical.

• Il 50% degli intervistati utilizza metodi avanzati (clientless) per ridurre l’impatto dei backup sulle macchine virtuali.

Il gap di downtime e recovery

Lo studio mostra come il tempo necessario per eseguire una recovery dopo un’interruzione di servizio dura il doppio del tempo rispetto alle aspettative degli intervistati. Alla domanda cosa potrebbe accadere se un disastro colpisse la loro azienda e distruggesse il data center principale, gli intervistati hanno risposto che:

• Si aspettavano che i downtime causati da un’interruzione di servizio ammontassero a due ore, prima di poter riprendere le normali attività.

• Un miglioramento, rispetto al 2009, quando le aspettative venivano stimate intorno alle quattro ore.

• In media, i downtime reali dovuti ad un’interruzione di servizio negli ultimi dodici mesi erano di cinque ore, più del doppio rispetto alle aspettative di due ore.

• Negli ultimi 12 mesi, le aziende hanno subito in media quattro incidenti con conseguenti interruzioni di servizio.

Cause più frequenti di downtime

Alla domanda sulle cause più frequenti che hanno portato a downtime negli ultimi cinque anni, gli intervistati hanno risposto dichiarando che le interruzioni di servizio erano dovute principalmente ad upgrade del sistema, interruzioni di corrente, guasti e cyber attacchi. Nello specifico:

Leggi anche:  Il cloud di Aruba qualificato al livello 3 (QC3) da ACN per trattare i dati strategici della PA

• Nel 72% dei casi l’upgrade di sistema ha causato una perdita di tempo pari a 50,9 ore.

• Il 70% si è trovato ad affrontare problemi dovuti ad interruzioni di corrente e guasti, con una perdita di tempo pari a 11,3 ore.

• Il 63% ha subito un cyber attacco negli ultimi 12 mesi, che ha causato una perdita di tempo pari a 52,7 ore.

Lo studio ha inoltre evidenziato una discrepanza tra le aziende che hanno subito interruzioni di corrente e guasti e quelle che hanno fatto la stima dell’impatto delle interruzioni di corrente e dei guasti: sorprendentemente, solo il 26% delle aziende intervistate hanno condotto delle valutazioni sull’impatto di una interruzione di corrente e di un guasto.

“Se da una parte le aziende stanno adottando nuove tecnologie, quali la virtualizzazione e il cloud computing, per ridurre i costi e potenziare il disaster recovery, dall’altra stanno anche aumentando la complessità del proprio ambiente e lasciano le applicazioni mission critical e i dati senza alcuna protezione,” ha dichiarato Dan Lamorena, director, Storage and Availability Management Group, Symantec.

“Ci aspettiamo di assistere ad un maggiore utilizzo di questi strumenti da parte delle aziende per offrire una soluzione olistica con un set di policy conforme su tutti gli ambienti. I responsabili dei data center dovrebbero semplificare e standardizzare, in modo da potersi concentrare su quelle procedure fondamentali che permettono di ridurre i downtime.”

Trattare tutti gli ambienti allo stesso modo: assicurarsi che i dati e le applicazioni mission critical vengano trattati allo stesso modo nei vari ambienti (virtuale, cloud, fisico) all’interno delle valutazioni e dei piani di DR.

Utilizzare strumenti integrati: l’utilizzo di un minor numero di strumenti per gestire gli ambienti fisici, virtuali e cloud, potrà aiutare le aziende ad ottimizzare i tempi, i costi di formazione e a favorire l’automatizzazione dei processi.

Leggi anche:  Akamai svela le previsioni sul Cloud Computing per il 2025

Semplificare i processi di protezione dei dati: utilizzare metodi di backup a basso impatto e la deduplica per assicurare il backup dei dati mission critical in ambienti virtuali ed una efficiente replica dei dati fuori dal datacenter.

Pianificare e automatizzare per ridurre i dowtime: dare priorità alle attività pianificate e agli strumenti che automatizzano e migliorano le performance dei processi che minimizzano i tempi morti durante gli upgrade di sistema.

Individuare in anticipo le problematiche: implementare soluzioni che individuino le problematiche, per ridurre i downtime e fare una recovery più rapida per restare in linea con le aspettative.

Non prendere scorciatoie: le aziende dovrebbero utilizzare tecnologie e processi che le proteggano in caso di interruzione di servizio e non prendere scorciatoie che possano avere conseguenze disastrose.