Certo, capacità elaborativa ne abbiamo già molta, ma le cose cambiano in fretta. Quando si parla di big data, e lo si fa sempre più spesso, si parla di tante cose diverse; alcuni di queste sono strutturati, altri no. Ma questo poco importa. Quello che importa è che continuano a crescere incessantemente e in essi sono raccolte informazioni preziose per il business. Informazioni tanto più preziose quanto più velocemente si riescono a reperire. E per farlo occorre poter accedere alle informazioni il più velocemente possibile, oltre ad avere la capacità di elaborarle in brevi tempi. Pensate quali velocità si potrebbero raggiungere se i dati potessero essere tutti in memoria veloce accessibile direttamente dal processore.
E’ questa l’idea che ha spinto Intel a creare questa nuova famiglia di processori, come ha spiegato il direttore generale Intel Italia, Carmine Stragapede, durante la presentazione della stessa. “Trasformare attraverso analisi avanzate” è la priorità delle aziende e di conseguenza l’analisi dei dati diventa la priorità del CIO. Si stima infatti che la richiesta di computing in memoria crescerà di circa 6 volte entro il 2018. I tre settori che probabilmente verranno maggiormente coinvolti per le loro peculiarità saranno il retail, la sanità e l’industria. Sfruttare la potenza delle analisi significa infatti capire i comportamenti dei consumatori, favorire la sicurezza e la gestione del rischio e aumentare l’efficienza operazionale. L’In-Memory Computing, ovvero la possibilità di avere i dati in memoria, aiuta sicuramente a prendere decisioni in tempo reale, a sperimentare nuove esperienze e avere molti più utilizzatori in contemporanea. I requisiti delle analisi avanzate sono infatti massime prestazioni, grandi capacità di memoria, adattabilità dei processi mission critical e ampio supporto all’ecosistema.
E’ stato quindi Andrea Toigo, enterprise technology specialist, a dare i numeri necessari a capire le migliori performance della nuova versione rispetto alla precedente. Prestazioni per elaborazioni dati più veloci di circa due volte. Supporto di una quantità di memoria pari al triplo per permettere analisi in tempo reale. Quadruplicato l’I/O per tempi di risposta e scalabilità. Sono stati infine progettati per un uptime del 99,999% grazie alla tecnologia Intel Run Sure Technology. Se si considera che il rapporto tra la velocità di accesso ai dati di un database in memoria è circa 148 volte più veloce dello stesso, si riesce a capire come si arrivi a risultati che misurano fino all’80% del miglioramento delle prestazione e di un altro 80% di riduzione del CTO. La trasformazione del business richiede, d’altra parte, alte capacità di calcolo e costi bassi. Altro risultato fortemente significativo dichiarato è il raggiungimento di 20 nuovi record mondiali in prestazioni mission critical.
A seguire tre testimonial. Mauro Bacchiocchi, head of Sales Cloud&Ott Services di Telecom Italia ha illustrato i benefici per il business di Telecom Italia Digital Solutions: architetture virtuali più performanti e stabili; riduzione dei problemi legati al cloud adoption; incremento di prestazioni a parità di investimenti; proposizione commerciale migliore a parità di prezzo; ottimizzazione e consolidamento dell’infrastruttura per ridurre i costi e liberare risorse per nuovi investimenti; migliore affidabilità grazie a features di livello enterprise; flessibilità dell’infrastruttura attraverso la virtualizzazione; alta scalabilità dello IaaS per venire incontro alle esigenze di Business; integrità dei dati e dei sistemi per un periodo più lungo; supporto di un ampio ecosistema software grazie all’utilizzo di tecnologia open; aderenza e compatibilità agli standard di mercato per un più celere time to market.
A confermare quindi con esperienze su campo i valori dichiarati da Intel sono intervenuti Luigi Bellani di TI.IT – Infrastructure Architecture & Engineering, gruppo Telecom Italia e Morgan Travi, responsabile Infrastrutture IT, UnipolSai.