In generale, in tempi recenti, l’infrastruttura IT ha vissuto l’introduzione di nuove architetture di riferimento da parte dei grandi operatori Internet, che consentono di fornire servizi con tempi di risposta rapidi e livelli di servizio eccellenti. «Queste nuove architetture – spiega Massimo Messina, head of Group ICT di UniCredit oltre ad avere una scalabilità orizzontale, hanno un effetto notevole di riduzione costi». Superati i dualismi tra cloud pubblico, privato o ibrido, oggi la vera sfida è di adattare il parco applicativo a queste nuove architetture: «Una trasformazione – mette in evidenza Messina – che diventa più fattibile grazie alla conteinerizzazione modulare come quella offerta da Docker. Un altro trend riconoscibile è quello verso il Software Defined Everything, che modificherà ulteriormente le installazioni on premises, permettendo flessibilità, segregazione e automatismi di provisioning come mai prima».
Il cambiamento in banca
«È difficile fare un elenco delle tecnologie-guida, perché sono molte e si influenzano continuamente e reciprocamente» – spiega Messina. «Volendo citare quelle che in questo momento sembrano core, partirei dal Docker, con la sua possibilità di isolare in ambienti componibili le applicazioni e le infrastrutture e di “portarle” dinamicamente su data center diversi e/o cloud diversi. In questo modo si abilita la scalabilità orizzontale attraverso nuovi concetti di orchestrazione che gestiscono un numero elevato di piccoli server attivati e/o disattivati in base alle necessità del carico, il cosiddetto elastic computing. Questa infrastruttura – continua Messina – oltre a essere molto efficiente, in quanto la capacity si adatta al carico di lavoro, è anche per natura molto resiliente alla perdita di singoli componenti della soluzione, che sono replicati n-volte e sostituibili in automatico».
Un ecosistema aperto
A partire dall’elastic computing si snoda anche il tema delle architetture a microservizi, che ne sfruttano al massimo le già citate caratteristiche di scalabilità e resilienza per «smontare – come dice Messina – «le applicazioni in piccole parti cooperanti e poco dipendenti una dall’altra, con un inserimento in piccoli contenitori per l’esecuzione parallela e in portabilità». Ma non solo. «I Big Data continuano ad avere un ruolo primario sia per la nuova centralità che il dato ha assunto sia per le potenzialità in abbinamento al Machine Learning, potenzialità ancora più spinte se integrate con i sistemi transazionali». Altra componente irrinunciabile è l’apertura agli ecosistemi esterni, «per consolidare nuove forme di collaborazione tecnologica tra attori che insistono sulla stessa filiera di business». E da qui –continua Messina – il focus sulle Open API. In ultimo, un ruolo di rilievo spetta al Blockchain, tecnologia dalle numerose applicabilità, che a parere di Messina «vedrà un crescente utilizzo negli ambiti che necessitano di un ledger distribuito, aperto all’esterno dell’azienda, certificato e sicuro o di eliminare gli attori di intermediazione».
Applicazioni o componenti?
I confini tra hardware e software lasciano intravedere una “terra di mezzo”. Secondo Messina, «assisteremo sicuramente a una specializzazione dei componenti “hardware” verso soluzioni che virtualizzeranno i componenti così come li conosciamo oggi. Ci divideremo quindi tra appliance “out of the box”, per compiere attività specializzate e ad alte prestazioni, e componenti che saranno completamente definibili via software, fino a poter montare tutto il necessario in un ambiente applicativo in modalità virtuale. In altre parole, avremo dei “Virtual Data Center” segregati, che collaboreranno con altri ambienti simili per fornire tutti i servizi aziendali». In questo senso – conclude Messina – si potrà parlare di iperconvergenza o virtualizzazione da parte di più vendor, ma saremo testimoni senza dubbio anche di una forte spinta verso il Software Defined Everything e della nascita di nuovi apparati/appliance specializzati per attività dedicate».