Manlio De Benedetto, Director Systems Engineering di Cohesity, analizza come fare un esercizio sul TCO della resilienza sia il giusto approccio per iniziare a ripensare alle capacità tecniche, alla sicurezza, alla conformità e aiutare un’azienda a ottimizzare gli investimenti in tecnologica, a ottenere maggiori risultati e a fornire maggiore protezione per il patrimonio informatico
Molti dei responsabili IT si ritrovano spesso coinvolti in attività a protezione dell’azienda piuttosto che essere focalizzati nel renderla più efficiente. Tra le principali preoccupazioni figurano la costante minaccia di attacchi informatici, i vincoli di conformità e tutela dei dati, la necessità di garantire gli aggiornamenti software, una sicurezza efficace degli utenti finali e la garanzia imperante che ogni divisione disponga degli strumenti necessari per essere più produttivi. Rallentamenti e interruzioni rappresentano il nemico da combattere.
Un approccio frammentario alla tecnologia non è congeniale
Questa situazione è dovuta a un approccio disomogeneo alla manutenzione dei sistemi tecnologici e alla protezione delle stesse risorse. Il tipico ciclo di investimenti prevede un ingente apporto di capitale ogni cinque anni per acquistare una nuova soluzione intelligente che aggiunga funzionalità e capacità: un’implementazione di cloud pubblico durante questa fase, per esempio, una soluzione di cloud privato o un sistema di protezione dei dati rinnovato o ancora, altri nuovi componenti indispensabili.
Ma non deve essere necessariamente così. Anche in un momento in cui i budget sono ridotti, come sottolinea Gartner in un recente rapporto, esiste un’opzione migliore che richiede una visione più olistica del patrimonio tecnologico e delle esigenze dell’azienda e un ripensare al modo in cui vengono gestite le spese di approvvigionamento, di capitale e operative.
Il TCO della resilienza
Il modo per iniziare a pensare alle capacità tecniche, alla sicurezza, alla conformità e a tutto il resto è quello di fare un esercizio sul TCO della resilienza.
Questo potrebbe far emergere che i petabyte di dati non strutturati, archiviati per scopi di protezione dei dati o di conformità, possono essere ridotti a pochi terabyte o che il supporto di memorizzazione magnetico può essere convertito in un archivio digitale. Si può dunque scoprire che, così facendo, si possono ridurre i costi di hardware, spazio di archiviazione ed energia utilizzata e che, forse per la prima volta, questi dati possono essere resi immediatamente disponibili e completamente protetti.
Questo esercizio di resilienza potrebbe anche rivelare che se da un lato il servizio di backup e ripristino in uso è in grado di eseguire un restore completo in pochi minuti, in conformità con gli obiettivi aziendali definiti, dall’altro, la decisione di effettuare un ripristino potrebbe richiedere molte ore e portare a discussioni e disaccordi sull’effettuare o meno tale operazione. Questo, tenendo conto che nelle preziose ore di inattività i clienti non vengono serviti, i dipendenti non possono lavorare, le notizie si diffondono e la reputazione viene danneggiata. Nell’attuale scenario, con così tante aziende che operano in un ambiente simile a una commodity, i tempi di inattività potrebbero essere il fattore scatenante che induce un cliente a rivolgersi altrove.
Un altro aspetto che l’esercizio potrebbe evidenziare è il costo totale della fornitura di misure di sicurezza dei dati per le piattaforme ospitate, della gestione dei privilegi di accesso al cloud, ai sistemi on-premise e a qualsiasi altro sistema utilizzato, e dell’implementazione del backup e del ripristino in un patrimonio disomogeneo costituito da più componenti, forse anche duplicati, e di alcune aree che potrebbero non essere affatto protette. Ad aggiungersi a tutti questi elementi di costo bisogna considerare quello dell’assicurazione informatica – oltre alla comprensione di ciò che questa assicurazione copre o meno -, il costo per il ripristino manuale e degli sforzi non automatizzati per la durata del ripristino e per il periodo immediatamente successivo (catch-up to live), nonché la consapevolezza dell’impossibilità di attribuire un valore finanziario al danno reputazionale.
Simbiosi
La visione olistica offerta da questo esercizio di TCO della resilienza permette all’azienda di pensare in modo diverso. Invece di distinguere la sicurezza dalle applicazioni e dai servizi, questi elementi vengono considerati collegati, addirittura simbiotici. Allo stesso modo, è necessario prendere in considerazione la conformità, la protezione dei dati e la necessità di mantenere gli archivi di dati, le necessità di elaborazione quotidiane, il backup e il ripristino come parti costitutive necessarie e ugualmente importanti, che possono essere gestite centralmente piuttosto che singolarmente.
Investire per risparmiare
In base alla nostra esperienza, un esercizio di TCO sulla resilienza rivela che un approccio moderno alla sicurezza e alla gestione dei dati, che combina l’uso dell’IA e delle misure di rilevamento delle minacce con il Machine Learning, è più efficiente e più efficace del patching di sistemi separati. È in grado di individuare comportamenti anomali, è scalabile ed estensibile, in modo che le nuove funzionalità vengano aggiunte man mano che si rendono disponibili e incorporate nei normali costi operativi, anziché dover attendere un cospicuo adeguamento di capitale.
L’aspetto interessante di questo approccio è che può offrire il meglio di sé in un momento in cui i budget sono ridotti. Spesso, l’identificazione delle lacune, delle spese duplicate, quelle eccessive e quelle insufficienti, può aiutare un’azienda a ottimizzare gli investimenti in tecnologica, a ottenere maggiori risultati e a fornire maggiore protezione e resilienza per il patrimonio informatico.