di Alessandro Di Giacomo, business program manager – business practice data center di Fujitsu Technology Solutions
La soddisfazione del cliente passa inevitabilmente attraverso la capacità di analisi dei processi per mezzo di assessment specifici, la possibilità di fornire da portfolio le tecnologie adeguate oltre che l’abilità di portare avanti progetti complessi.
“Prevenire è meglio che curare” era lo slogan di una celebre pubblicità di un dentifricio andata in onda nel corso degli anni ottanta. Per chi ne ha memoria, l’immagine del dentista con gli occhiali che raccomandava una corretta igiene orale contro i più costosi rimedi medici era di sicuro impatto.
In un momento in cui il data center – per filosofia o anche solo per comodità – viene paragonato ad un ecosistema, le singole applicazioni ad individui e i dati alle cellule che li costituiscono, risulta naturale e conveniente ricorrere alle buone pratiche di “prevenzione” nell’affrontare i problemi legati alla crescita dei dati e alla loro messa sotto protezione.
Da anni, gli analisti pongono la loro attenzione alla crescita dei dati e alle ripercussioni che questa ha sulla spesa in infrastrutture It e conseguentemente sulle ricadute in termini di business per le aziende. Questo fattore ha spinto gli stessi analisti a qualificare i Cio in base al loro approccio a tal riguardo. La crescita dei dati, se vissuta unicamente come un fastidio, non può che portare ad investimenti che alla lunga frenano il dinamismo aziendale anziché stimolarlo. Se, al contrario, viene dato il giusto peso ai dati e al valore delle informazioni ad essi legate, risulta più facile far evolvere il data center adattandolo alle esigenze di business.
Molti responsabili It si trovano ad affrontare questo dilemma e, come sempre, la risposta migliore è scegliere un partner in grado di indirizzare le necessità, unendo capacità progettuali a innovazioni tecnologiche e abilità di execution.
Da qualche anno, nel campo della data protection, il ricorso a tecnologie di deduplicazione ha permesso di riconsiderare le architetture di backup & recovery al fine di ottenere finestre di backup sorprendentemente contenute e restore puntuali eccellenti. Se a questo si aggiunge la possibilità di abbandonare tecnologie ritenute, a torto o a ragione, obsolete come le librerie a nastro, si compone un quadro assolutamente positivo.
Purtroppo l’esperienza sul campo e il costante contatto con aziende di tutte le dimensioni e tipologie, ci porta a disegnare talvolta un realtà un po’ diversa.. Sempre più frequentemente, si viene a conoscenza di aziende che stanno riconsiderando – a distanza di 3 o 4 anni – le scelte fatte in termini di deduplicazione dei dati. E’ stato così, per esempio, per diverse aziende di telecomunicazioni operanti a livello europeo.
Le appliance di deduplicazione, per il modo in cui vengono alcune volte proposte al mercato, sono semplicemente dei target di backup in sostituzione di apparati preesistenti; non entrano quindi nel merito di come i dati vengono sottoposti a protezione o di come sia possibile ottimizzare il processo di generazione degli stessi.
Di conseguenza, si corre il rischio di cercare la soluzione nella tecnologia anziché nell’analisi delle specificità dell’ambiente in cui esse vengono integrate, mantenendo così, ad esempio, le modalità di backup invariate, con l’obiettivo di ottenere benefici immediati. Benefici, va detto, veri ma che rischiano di esaurirsi nel medio termine o addirittura nel breve (9 – 12 mesi) in alcuni casi.
Questo è quello che si può chiamare “il paradosso della dediplica”. La deduplicazione presa in sé ha – per riproporre la similitudine precedentemente fatto in campo medico – l’effetto di un analgesico o di un antipiretico. Allontana il dolore o abbassa la febbre, ma nulla dice del motivo per il quale si hanno i disturbi.
Volendo usare un’altra metafora, l’adozione delle sole appliance di deduplicazione come unico rimedio può avere un effetto “dopante” sul backup & restore. La ricerca delle “grandi prestazioni” ha generato un mercato di specialisti il cui il principale – l’unico, direi – obiettivo è fornire risposte immediate, nascondendo i problemi reali e i potenziali rischi.
Quando l’utilizzo della deduplicazione non avviene all’interno di un progetto che consideri prima il modo in cui dati vengono sottoposti a backup, uno dei riflessi può essere ad esempio il sovraccarico della rete e dei sistemi di backup nel momento della copia a nastro, se questa è prevista, sia essa LAN o SAN. In alcuni casi il carico può aumentare anche del 50%.
Altre volte non ci si cura che le basse performance di scrittura derivano da un non corretto tuning del software di backup. In questo caso il vantaggio della deduplicazione ha un respiro ancora più breve.
Qui può tornare in aiuto un approccio più ragionato e strutturato. La deduplicazione dei dati è un ottimo strumento se entra a far parte di un processo che consideri i dati dalla loro origine alla loro messa in sicurezza fino alla loro cancellazione. La deduplicazione dei dati, se il problema sono i colli di bottiglia della rete, può ad esempio essere portata a livello dei server e dei client di backup. La deduplicazione dei dati è fondamentale in scenari di disaster recovery.
Ancora una volta, può valere il consiglio di lavorare con partner che siano in grado e interessati ad indirizzare in tempi brevi le necessità di protezione dei dati senza l’urgenza di legare la risposta ad un prodotto scelto a priori. Molto del raggiungimento del giusto grado di soddisfazione del cliente passa infatti attraverso la capacità di analisi dei processi per mezzo di assessment specifici, la possibilità di fornire da portfolio le tecnologie (o “blend di tecnologie”) adeguate oltre che l’abilità di portare avanti progetti complessi.