Dopo Londra, Spagna, Germania, Francia, il leader nella virtualizzazione dei dati consolida la sua posizione in Europa, con l’apertura della sede di Milano. A livello globale, i risultati parlano di una crescita costante negli ultimi cinque anni. Il ruolo della virtualizzazione per essere veramente data-driven
Una crescita esponenziale quella che sta vivendo Denodo. L’azienda, che la scorsa estate ha aperto una sede anche in Italia, è leader da quindici anni nel mercato della data virtualization. Gli ultimi dati parlano di un +60% nei profitti anno su anno e referenze in aumento (siamo a oltre 500) a livello globale, da parte di clienti che esprimono sempre soddisfazione per le soluzioni del gruppo. Gabriele Obino, country manager Italy di Denodo, definisce l’azienda come una «data virtualization company al cento per cento» – ed è da qui che deriva il grosso del successo ottenuto già in pochi mesi dal lancio della country italiana. «Dietro l’evoluzione della società dell’informazione c’è l’immensa produzione di dati che abbiamo oggi. Vari step ci hanno fatto raggiungere una vera e propria maturità del dato, ossia la comprensione delle potenzialità che ci sono dietro questi contenuti digitali di cui un soggetto è in possesso. Assistiamo a una crescita verticale di piattaforme di virtualizzazione per vari motivi. In primo luogo, la necessità di semplificazione: servizi e soluzioni di vario tipo quasi mai comunicano tra di loro, restituendo un panorama che è stracarico di bit, senza che questi possano mettersi in semplice contatto. Quindi la razionalizzazione del dato, un valore più specifico e un isolamento rispetto alla mole di scarti che produciamo ogni giorno. Poi l’ottimizzazione dei costi, da parte di chi gestisce tali contesti, il reparto IT. A legare questi concetti c’è il tema del “real-time”, cioè dell’opportunità di manipolare le informazioni quando servono, dove servono, senza attese».
A quanto pare, siamo ricchi di soluzioni e piattaforme capaci di fare tanto, in termini di funzionalità, ma che restano complesse. L’unico elemento in grado di creare semplificazione è la virtualizzazione. «E non si tratta solo di parole – prosegue Obino – il nostro modo di lavorare è concreto: mostriamo ai clienti, fattivamente, i vantaggi di adottare le soluzioni nel loro ambiente nativo. Solo così possono rendersi conto dello switch che è dietro l’angolo, che va oltre i sillogismi di marketing. Da qui, si comprende anche il beneficio del ROI, ancora più evidente se si applica la data virtualization a vari ambiti di business, oltre a quelli per i quali si sente immediata esigenza».
COSTRUIRE UN’INFRASTRUTTURA MODERNA
Se un trend del genere sta interessando, molto più che in passato, l’Italia, proprio per via della dirompente digitalizzazione della produttività, all’estero la data virtualization è più che consolidata. Ne abbiamo discusso con Ángel Viña, CEO & founder di Denodo: «La virtualizzazione dei dati è il fulcro della nostra tecnologia, l’approccio fondamentale per costruire un’infrastruttura moderna. Tutte le organizzazioni si trovano ad affrontare la stessa sfida quando cercano di essere data-driven: si chiedono come poter affrontare la frammentazione che subiscono a livello di informazioni e metadati. Si tratta del fattore numero uno che limita la loro capacità di essere agili nell’adattarsi alle nuove sfide aziendali. In uno scenario tipico, i dati si trovano in diversi silos, con tecnologie situate in livelli differenti, alcuni interni all’azienda, alcune repository esterne o sul cloud. Lo stesso accade con i metadati. Denodo Data Virtualization rende “logica” l’integrazione e la gestione dei dati, risolvendo il problema dell’unificazione dei silos informativi. I data warehouse si semplificano, i data mart diventano logici senza replica dei dati e così con tutti i tipi di risorse.
Ma, confrontando altri metodi di integrazione dei dati, cosa rende l’approccio di Denodo così speciale? Ancora il CEO: «Soprattutto la capacità di unificare i data silos senza spostare i contenuti dalle loro fonti e senza creare nuove repliche fisiche. Questo approccio ha enormi vantaggi. Innanzitutto semplifica il problema dell’accesso, che è dove lo sforzo dei reparti IT guarda maggiormente negli ultimi tempi. Poi riduce i costi dell’avere più sistemi fisici, ridondanze di quelli già esistenti. In terzo luogo, quando si crea uno strato di metadati unificato tra più risorse, la virtualizzazione permette di essere del tutto attrezzati per iniziare a svolgere le funzioni di gestione centralizzata, dal rilevamento dei dati alla comprensione delle gerarchie di discendenza, dalla catalogazione delle fonti all’applicazione delle policy di sicurezza. Il quarto e ultimo punto consiste nel creare un livello di astrazione tra applicazioni (consumatori di dati) e fonti (risorse di dati), che realizza indipendenza e facilita iniziative di modernizzazione e strategie di migrazione sul cloud».
Analisti come Gartner, Forrester e IDC prevedono una grande crescita nella virtualizzazione dei dati. Gli ultimi numeri stimano un CAGR del 40% per i prossimi tre anni, 10 volte quello delle soluzioni tradizionali di gestione come ETL. Lo scorso novembre, Gartner ha pubblicato una guida al mercato della virtualizzazione, affermando che la percentuale di aziende che utilizzerà la tecnologia passerà dal 35% al 60% in tre anni. Anche Forrester Research sostiene da tempo la virtualization, in particolare nei report Big Data Fabric. In tutti questi casi, Denodo appare come leader nel segmento, sopra gli altri vendor. «Siamo cresciuti costantemente negli ultimi cinque anni e continueremo a farlo – afferma Ángel Viña – e ci aspettiamo che il ruolo della virtualizzazione si espanda nella governance, nei cataloghi e in altre funzioni gestionali. Il nostro primo cliente in Italia è stato un primario gruppo bancario, uno dei più sofisticati utenti nel mercato italiano. Continuiamo i nostri sforzi qui come nel resto del mondo, con la fiducia di poterci confermare ulteriormente nel corso dei prossimi mesi».
CAMBIAMENTO DI PARADIGMA
È Alberto Pan, executive VP & CTO di Denodo, a spiegarci in che modo l’azienda rappresenta anche un abilitatore di tecnologia, per esempio nei riguardi del GDPR. «Stiamo assistendo a un cambiamento di paradigma nelle architetture per l’analisi e l’integrazione dei dati. Il punto è che quelli rilevanti per le analisi sono troppo grandi e sin troppo distribuiti per essere centralizzati in un singolo sistema, come poteva essere in passato. Ed è per questo che il mondo tecnico si interroga sul passaggio dai data warehouse fisici a un’architettura “logica”, in cui le analisi vengono eseguite in una pluralità di sistemi, come uno o più data warehouse, data lakes, NoSQL, database cloud. In queste strutture logiche, la virtualizzazione dei dati fornisce una sequenza unificata tra i livelli sottostanti, per consentire sia una più profonda gestione dei metadati che l’interrogazione integrata. In tal modo la data virtualization restituisce un punto di accesso singolo e unico per stabilire e applicare le politiche di sicurezza e governance dei sistemi».
Ma da dove è nata Denodo, cioè quali fattori chiave ha inteso come cavalcabili per costruire un’esperienza cliente diversa e ottimizzata? Lo sottolinea Pan: «Era il 2005 quando la gestione dei dati ha iniziato a porsi come dirompente e a mostrarci le possibilità del passaggio alla trasformazione digitale per le imprese e le persone. Nel nostro caso, sono emerse come sostanziali le tendenze dei big data e del cloud, che abbiamo percepito sin da subito come fattori scatenanti di innovazione, verso un’adozione molto più ampia. Visto che gli Stati Uniti sono di solito i primi ad adottare nuove tecnologie, in quel momento la tendenza era molto più evidente che in Europa, così abbiamo deciso di spostare la nostra sede nella Silicon Valley. Tuttavia, al giorno d’oggi il mercato europeo ha recuperato terreno e sta crescendo fortemente. Attualmente abbiamo uffici a Londra, Spagna, Germania, Francia e ora in Italia, ma guardiamo a tutto il territorio EMEA.
Ci sono nuovi trend che Denodo vede nel segmento della data virtualization. Gran parte di questi poggiano su vettori come l’intelligenza artificiale e il machine learning. Il motivo? «Scienziati e ricercatori a lavoro sui dati continuano a spendere circa l’80% del loro tempo per attività di rilevamento e integrazione, uno spreco anche in termini di costi, risorse e capacità di risposta sul breve periodo. Metodi flessibili, come la virtualizzazione, possono alleviare notevolmente simili problemi. L’apprendimento automatico è, in quanto a possibilità di adozione su larga scala, sempre più protagonista delle piattaforme di automatizzazione, almeno in alcune fasi del lavoro di integrazione. Siamo concentrati sulla virtualizzazione dei dati proprio perché riteniamo che svolga un ruolo molto importante nelle principali operazioni di gestione odierna: dai big data al cloud e allo sviluppo di API. Denodo è sul mercato da più di quindici anni; ciò significa che il nostro prodotto è il più maturo e avanzato, testato in molti dei più grandi scenari di sperimentazione al mondo. Sebbene i venditori generici abbiano recentemente iniziato a introdurre funzionalità di virtualizzazione nelle loro offerte, noi siamo già a un punto successivo, dal quale non si può più tornare».