Ormai indiscutibile piattaforma di innovazione, velocità e competitività, la “nuvola” rappresenta una scelta sempre più prioritaria e sicura, ma che necessita di solide motivazioni di business e di una minuziosa governance. Con la partecipazione di Angelini Holding, ARIA Spa, Aruba Cloud, Autostrade per l’Italia, ATV, Banca IFIS, Bitdefender Italia, Gruppo HERA
Dalla scalabilità all’espansione, verso la specializzazione, il cloud agisce come catalizzatore e piattaforma della trasformazione digitale. Ormai giunto a un grado elevato di maturazione, il cloud continua a porre questioni di governance, sicurezza, controllo dei costi, performance, sovranità, interoperabilità, sviluppo software nativo, modernizzazione di applicativi legacy, sostenibilità energetica e ambientale. Tra ambienti ibridi e multicloud, con il crescente interesse per l’AI cloud-native, l’edge e le applicazioni real-time, il cloud continua a evolversi per supportare nuovi scenari di utilizzo in tutti i settori, spesso passando attraverso l’adozione di tecnologie e servizi di nuova generazione messi a disposizione dagli hyperscaler e implementati nei cloud privati che poggiano su data center sempre più automatizzati.
Oggi, il paradigma del cloud ingloba completamente ambiti come la virtualizzazione, il provisioning di risorse e applicazioni, i tool di sviluppo, le piattaforme di database e tutte le grandi famiglie di applicativi – pensiamo solo agli ambienti ERP o CRM – che fin dalle classiche architetture client/server hanno caratterizzato le prime fasi della digitalizzazione del business. Mentre su un orizzonte più immediato si fanno pressanti gli imperativi di ulteriore espansione e potenziamento richieste per workload come il data analytics, il knowledge management e l’intelligenza artificiale generativa.
L’obiettivo della nostra discussione è analizzare le strategie cloud delle aziende con una particolare attenzione alle politiche di implementazione ibride, allo sviluppo nativo, la modernizzazione del legacy e la sicurezza. Oltre alle priorità di ordine più tecnologico e alle scelte fatte nel mix di approccio pubblico e private cloud, vengono prese in primaria considerazione le misure di carattere organizzativo che le aziende adottano in percorsi di modernizzazione che coinvolgono anche i loro dipartimenti IT, attraverso una varietà di ruoli specializzati che oggi finiscono spesso per affiancare e supportare il mestiere del CEO. L’altro aspetto fondamentale è la questione delle competenze necessarie per rispondere alla continua evoluzione delle tecnologie, particolarmente a livello di architetture e sviluppo applicativo. Naturalmente, anche i temi della sicurezza, della compliance normativa e della sostenibilità energetica rientrano nel dibattito. La tavola rotonda di Data Manager Events si articola in due parti: la prima, dedicata al racconto delle strategie cloud aziendali e delle progettualità in corso, ai piani di evoluzione futura (specie in direzione Big Data e Generative AI) e le modalità di esecuzione adottate dai responsabili dei servizi IT e dei loro più stretti collaboratori, sempre in un’ottica di pieno coordinamento con le figure apicali del business.
La seconda parte si concentra sulla questione della governance e delle problematiche che il passaggio a una ormai consolidata e matura fase di trasformazione dalle infrastrutture del passato al cloud può comportare sul piano delle competenze da mettere in campo, dei cambiamenti anche culturali che riguardano il lavoro individuale e collaborativo, della sicurezza, della compliance e, più recentemente, della sostenibilità energetica e ambientale. Su tutto, domina la questione dei costi dell’informatica in cloud, della loro misurazione e della loro gestione. Un controllo che secondo tutti i relatori richiede un approccio anche finanziario ai tradizionali concetti di “operations” e una ridefinizione dell’idea di “centro di costo” e della responsabilità, individuale e di gruppi, degli utenti. La conseguenza di queste priorità è la nascita di una nuova classe di metodologie di FinOps, oggi coadiuvate a loro volta da software e piattaforme informatiche specializzate alle quali dovrà necessariamente dare un contributo l’automazione e l’intelligenza artificiale.
SUPERFICIE DI DIFESA ESTESA
Il format di Data Manager Events si rinnova, facendo precedere l’avvio della discussione vera e propria da una serie di brevi “keynote” delle aziende sponsor, che da sempre partecipano in veste di ambasciatrici del variegato mondo dell’offerta di tecnologie, soluzioni e servizi. Per Stefano Maranzana, sales engineer di Bitdefender Italia, è l’opportunità per presentare un nome ormai iconico nel settore della sicurezza informatica, mettendo in luce il percorso intrapreso per adattarsi alla nuova mentalità del cloud e alle sue specifiche esigenze in ambito cybersecurity. Fondato in Romania quasi un quarto di secolo fa, Bitdefender ha sempre privilegiato una forte specializzazione nella protezione degli endpoint, consolidando la sua reputazione come leader nel settore.
Il problema degli attacchi ai dispositivi utilizzati non è certo diminuito con l’adozione del cloud. Al contrario, la superficie di esposizione al rischio aumenta, per i singoli utenti, considerando la crescente difficoltà nel porre precisi confini alle attività svolte in un ambiente controllato come potrebbe essere l’ufficio e gli spazi “domestici” in cui le persone si trovano a dover svolgere attività di telelavoro e di svago, spesso passando con disinvoltura da una sfera all’altra.

Tutto questo – ricorda Maranzana – si traduce in un volume di 30 miliardi di query giornaliere provenienti da centinaia di milioni di sensori in tutto il mondo e destinate ai quattro centri globali in Europa, Asia e Americhe in cui si articola attualmente la capacità di threat intelligence dell’azienda, forte di una squadra diffusa di oltre 300 ricercatori di sicurezza, e dove il 50% dei dipendenti è coinvolto nella ricerca e sviluppo di soluzioni di sicurezza, tecnologie emergenti, ricerca IoT e machine learning. Questo formidabile team e la rete di “sensori” indaga su possibili sintomi di attacco, classificando ogni minuto oltre 400 minacce concrete. È su questa capacità di intelligence che Bitdefender basa le sue soluzioni di protezione, che tra l’altro comprendono oltre 30 “decryptor” forniti gratuitamente per sbloccare i dati congelati dal ransomware.
«Il nostro know-how si deve adattare alla natura del cloud – spiega Maranzana – e l’obiettivo di Bitdefender è interfacciarsi con un mondo che per definizione non si può proteggere in modo altrettanto circoscritto». Nasce da qui la spinta in direzione della cosiddetta Extended Detection & Response (XDR) che si avvale di strumenti sempre più sofisticati per l’individuazione di attacchi e comportamenti che esulano dal perimetro del singolo end-point e a volte dal controllo del singolo utente. «Oggi si parla molto di AI – continua il sales engineer – ma Bitdefender applica gli algoritmi di machine learning almeno dal 2008, quando aveva sviluppato un sistema di reti generative antagoniste per studiare e simulare il malware in chiave preventiva».
Quello di Aruba è il punto di vista di un’azienda tecnologica italiana di lunga tradizione nel mercato dell’hosting e della co-location proiettato in un contesto globale condizionato da due spinte contrastanti: il predominio di hyperscaler che forniscono servizi di public cloud su larghissima scala partendo però da giurisdizioni extra-europee, e un quadro di riferimento dove pesa molto una visione geografica di sovranità italiana ed europea dei dati. «Aruba Cloud è punto di riferimento per le soluzioni cloud, non soltanto nel nostro territorio» – ricorda il field CTO Luca Spagnoli. «Siamo attori importanti anche in Europa, dove anzi siamo molto attivi, come dimostra il recente annuncio su SECA “Sovereign European Cloud API” come nuovo standard di settore best-in-class: una specifica API avanzata per la gestione dell’infrastruttura cloud.
La nostra a tutti gli effetti è una missione: abilitare un cloud flessibile, in cui il cliente può scegliere con molta libertà le varie forme di cloud senza limiti o vincoli a costi certi e trasparenti». La base di partenza di un’offerta che comprende un po’ tutti i “gusti”, dal cloud privato fino al pubblico e all’ibrido, è una rete di data center di proprietà ai massimi livelli di certificazione (Tier 4), integrata da accordi con altri analoghi operatori europei. Aruba Cloud cura anche una articolata offerta di interconnessione che soddisfa la crescente esigenza di applicazioni multicloud. «Ovviamente – prosegue Spagnoli – mettiamo a disposizione team italiani, altamente qualificati, pronti a supportare i clienti nella creazione di soluzioni modulari e personalizzate. In particolare, prestiamo grande attenzione alla protezione dei dati, un aspetto fondamentale che si traduce in soluzioni concrete di disaster recovery, backup e altre misure di sicurezza essenziali».

LA RIDUZIONE DELLA COMPLESSITÀ
La riduzione della complessità – sottolinea Spagnoli – è forse il vantaggio più importante e ricercato dai clienti di Aruba. L’azienda non si distingue solo per l’offerta di servizi gestiti da tecnici altamente certificati, ma anche per un’ampia competenza trasversale. Questo aspetto viene incontro alle esigenze delle aziende di dimensioni più ridotte, spesso penalizzate da lacune interne in materia ad esempio di compliance. Proprio la complessità normativa, infatti, può rappresentare un ostacolo, costringendo molte realtà a optare per strategie cloud solo parziali. Inoltre «i clienti non cercano solo prezzi competitivi, ma soprattutto trasparenza: costi chiari, senza sorprese o variazioni impreviste». Una questione che emerge quotidianamente nelle conversazioni con la clientela, spesso preoccupata dalle difficoltà nel formulare previsioni di budget affidabili. A questo Aruba Cloud risponde applicando una rigida norma di trasparenza alla contrattualistica, sia che questa riguardi servizi di natura più infrastrutturale, sia per la parte riguardante l’accompagnamento del cliente nelle fasi di adozione e migrazione al cloud.
Essere un cloud di prossimità significa anche partecipare con il cliente alla definizione delle proprie strategie, venendo incontro alla necessità di ibridazione e fluidità, senza calare dall’alto una tecnologia che deve rappresentare libertà e sovranità, non sudditanza. Fin dall’inizio della tavola rotonda, emerge con chiarezza un elemento costante nel dibattito sui motivi e le modalità di adozione del cloud: il legame stretto tra questa scelta tecnologica e il fattore tempo, o meglio, la sua crescente scarsità. Per Andrea Bonetti, IT enterprise architect della multiutility Gruppo Hera, il tempo è la vera forma di risparmio cui si punta quando si progetta e si adotta una infrastruttura in cloud. «Dinamicità e flessibilità sono le prime motivazioni» – afferma Bonetti. Da molto tempo Gruppo Hera ha pienamente adottato un approccio ad ampio spettro al cloud. Il primo obiettivo perseguito è stato la data platform: «In un momento in cui tutti i grandi applicativi ERP, CRM, ecc… vengono erogati in SaaS, uguali per tutti, il loro utilizzo diventa una semplice commodity, non crea valore distintivo dell’azienda. Il vero valore resta nel dato, che deve fluire su piattaforme diverse da quelle gestionali, con caratteristiche tecniche diverse, e oggi focalizzato soprattutto su due target di riferimento: le forme di AI più tradizionale, il machine learning, e l’altro molto intensivo, sul piano delle risorse consumate, della nuova frontiera dell’AI generativa». In Hera, il passaggio dai tradizionali approcci di analytics alla cloudizzazione dei data lake e alla gestione dei Data Product ha significato la nascita di nuovi modelli di democratizzazione e fruizione del dato.
Questo però non esclude un legame, sia culturale che operativo, con un gestionale che nel frattempo è andato anch’esso trasformandosi. Non a caso, tra gli esempi di nuove importanti progettualità di Hera, Bonetti include la reingegnerizzazione del sistema ERP tramite l’offerta in cloud del fornitore SAP, che dispone fra l’altro di una piattaforma specifica per il settore delle utility. Per chi sviluppa queste piattaforme proprietarie – ricorda Bonetti – il SaaS è sicuramente un grande vantaggio per le economie di scala che consente, ma anche lato utente le opportunità sono tante, soprattutto in termini di maggiore facilità nel seguire l’evoluzione tecnologica sempre più veloce, senza preoccuparsi di aggiornamenti e accumulo di debito tecnico. «Allo stesso tempo però stiamo sfruttando le opportunità dello IaaS (Infrastructure as a Service) per potere fare i “nostri” sistemi in cloud, sviluppando in casa in ottica full Open Source. «Lavorando con macchine virtuali e storage dal costo di provisioning estremamente ridotto le opportunità di risparmio sono importanti. È vero che l’accesso ai numerosi (e comodi) servizi accessori dei PaaS (Platform-as-a-Service) può fare lievitare la spesa, e c’è chi agita lo spauracchio del lock-in, ma personalmente non considero il lock-in un ostacolo significativo, nel senso che è una realtà con cui ci confrontiamo da sempre: la chiave sta nel costruire una relazione collaborativa con il fornitore, basata sulla crescita reciproca, e nell’adottare le giuste strategie di negoziazione».

CI VUOLE SELF CONTROL
La vera sfida – conclude Bonetti – anticipando con un rapido flash quella che sarà la seconda parte della discussione, è il cambiamento radicale indotto da tecnologie cloud che trasformano i “vecchi” mestieri del tecnologo “sistemista”, richiedendo invece una pluralità di competenze diverse: solution e security architect, esperti di networking e integrazioni, di metodologia FinOps, di contratti cloud degni dei più smaliziati uffici legali… «perché il modo in cui disegni la tua soluzione cloud influisce moltissimo dal punto di vista delle performance e dei costi, ma anche del controllo e del service management. E il tradizionale monitoraggio “solo” umano non è più sufficiente: il futuro sarà sempre più dominato da “sistemi che controllano altri sistemi”, garantendo automazione, efficienza e sicurezza».
Con una rete stradale di tremila chilometri, Autostrade per l’Italia si affida a un’ampia infrastruttura tecnologica distribuita lungo tutto il territorio nazionale per garantire efficienza tecnologica e controllo operativo, oltreché a un approccio completamente rinnovato – come racconta il CTO Francesco Fiaschi. A partire dal 2020, il gruppo ha intrapreso una svolta decisiva verso una profonda digitalizzazione dei servizi. Questo impegno si è concretizzato nel piano di trasformazione digitale da 120 milioni di euro per il triennio 2021-2023, con l’obiettivo di sviluppare soluzioni IT avanzate a supporto dei nuovi processi digitali. Insieme al piano, troviamo il programma di ammodernamento tecnologico mirato a rinnovare i pilastri dell’architettura infrastrutturale.
«La tecnologia viene utilizzata come leva per la trasformazione di processi e infrastrutture che abbandonano il mainframe, il batch, lo sviluppo del codice tradizionale, e fanno partire lo sviluppo “agile” al posto del cosiddetto “Waterfall”. In questo triennio, abbiamo contato fino a quaranta stanze di sviluppo contemporaneamente attive con la produzione di sessanta nuovi prodotti IT». Il punto che Fiaschi intende sottolineare rappresenta anche un monito per le strategie cloud di tutte le aziende.
«Adottiamo il cloud, ma prima di tutto identifichiamo perché e come portare avanti la trasformazione. La trasformazione diventa strategica perché il cloud viene visto come abilitatore della velocità di esecuzione di sourcing delle componenti lavorative. E naturalmente, anche come innovatore degli strumenti grazie ai quali siamo stati in grado di costruire un’architettura più moderna, disegnata sulla carta nel 2020 come architettura orientata ai micro-servizi e all’uso di API nella progettazione di soluzioni e interfacce». Il “casello di partenza” cloud in Autostrade, è una partnership con un service provider che diventa un vero e proprio compagno di viaggio. La prima tappa del percorso è la liberazione del dato dai suoi antichi silos dipartimentali, centralizzandoli in un unico cloud data lake su cui l’azienda può costruire i suoi report e prendere le decisioni. «Il mainframe del passato viene fisicamente distrutto, tutto diventa cloud-first» – spiega Fiaschi. «In questo contesto, le piattaforme diventano strumenti di aggregazione e sviluppo. Nel cloud, abbiamo scelto soluzioni per il workforce management, i workflow, la collaborazione, e abbiamo evoluto e migrato il nostro ERP, rendendolo più agile e integrato».

FILOSOFIA FINOPS
A quasi tre anni dalla conclusione di quel primo piano di trasformazione, il livello di intensità del gioco – aggiunge Fiaschi – non smette di crescere. Tra i temi affrontati insieme al suo team, c’è la questione della cybersecurity, per la quale abbiamo realizzato il passaggio da ISO 27001 a ISO 27017 e ISO 27018. Occorre inoltre un ripensamento critico della trasformazione e modernizzazione delle architetture periferiche, sempre nella misura del possibile, perché un modello cloud-first rende complicato pensare di far migrare interamente aspetti critici come le funzioni di comando e controllo di un tunnel autostradale.
Poi c’è l’adozione della filosofia FinOps per puntare a rendere davvero concreta l’equivalenza “pago quello che consumo”, o il ribilanciamento dei carichi di lavoro in un approccio multisourcing che impone costantemente scelte e compromessi. «Se devo definire una strategia IaaS, utilizzando solo le forme più standard delle architetture, il mio codice diventa più portabile, ma a scapito di una ridotta velocità e dei servizi innovativi a maggior valore aggiunto. Ci deve essere sempre un compromesso tra innovazione e praticabilità di una exit strategy» – afferma Fiaschi.
Il ribilanciamento e la trasformazione dei carichi di lavoro devono infine scendere a patto con la continuità del business. Il data center visto in ottica di piena ibridizzazione è una struttura molto complessa. Autostrade per l’Italia, per esempio, sceglie di mantenere all’interno funzioni come il controllo dei tunnel e dei flussi di videosorveglianza perché esistono tipi di elaborazione che devono necessariamente restare “at the edge” e attestarsi sul data center fisico. L’obiettivo di questo remix – secondo Fiaschi – vedrà il 40% dei carichi on-prem e il resto in cloud, ma si deve tener presente che anche all’interno del data center la virtualizzazione delle architetture raggiunge livelli molto elevati anche per favorire una più semplice rilocabilità e osservabilità complessiva dei carichi di lavoro ibridi (cloud-onprem).
Di fronte a una strategia cloud-first di portata così ampia, l’esperienza di Luca Caremoli, CIO di ATV, potrebbe sembrare una sorta di “contronarrazione” in difesa dell’informatica tradizionale. Ma a pensarci bene, il messaggio di Caremoli si allinea perfettamente con quello di Fiaschi, quando quest’ultimo sottolinea l’importanza di effettuare un’analisi approfondita delle motivazioni prima di prendere qualsiasi decisione in ambito tecnologico. Se consideriamo il cloud computing come un’inevitabile necessità, allora significa non comprendere che la tecnologia, in realtà, deve sempre rispondere a domande specifiche e ben definite. Queste domande, il CIO di ATV se le è fatte e continua a farsele, insieme ai suoi referenti nel top management dell’azienda, analizzando il proprio business e quello del suo settore superspecializzato: la produzione di valvole ad altissime prestazioni utilizzate per gli impianti di estrazione petrolifera sui fondali marini. E se sul piano informatico la risposta non coincide esattamente con il “cloud-first”, non per questo dev’essere considerata meno efficace e innovativa.
ATV è il classico esempio di azienda manifatturiera nel comparto delle PMI italiane. «Il nostro fatturato annuo è dell’ordine dell’investimento di Autostrade nel cloud» – spiega Caremoli. «Produciamo componenti che rientrano appieno nei perimetri della normativa NIS2 e la scelta di essere molto prudenti in materia di cloud non è dettata dalla sfiducia verso questo mondo, ma dalla preoccupazione verso alcuni punti». Tra questi – prosegue Caremoli – c’è per esempio il fatto che, come del resto traspare dal racconto di Gruppo Hera, i grandi progetti sul cloud riguardano attività nuove o radicalmente trasformate, mentre in aziende come ATV, l’attenzione si concentra su prodotti molto consolidati, che hanno bisogno di grande continuità. «ATV non può permettersi di disporre di tutte le figure necessarie all’interno del proprio team informatico. Oggi, siamo dieci persone ed eravamo cinque solo un anno fa. La voglia e la capacità di investire nelle persone ci sono. Ma il team deve concentrarsi sullo sviluppo interno, che è notevole».

La produzione ATV utilizza decine di robot industriali che devono essere programmati e monitorati continuamente. I prodotti vengono testati in apposite “buche” sommerse dove si effettua il collaudo di valvole che una volta impiantate a duemila metri di profondità devono funzionare per un quarto di secolo senza la possibilità di effettuare ispezioni. Un investimento in infrastrutture o servizi cloud è un’ipotesi che ATV non smette di valutare. Teniamo presente che il quartier generale di Colico è stato raggiunto solo negli ultimi due anni da connessioni in fibra a larga banda. «Prima, la connessione wireless offriva solo venti o trenta megabit e tempi di latenza molto elevati» – spiega il CIO di ATV.
Escludendo per ora un approccio cloud-first, quali servizi si potrebbero prendere in considerazione per un passaggio alla nuvola? Caremoli cita per esempio le soluzioni di back-up e disaster recovery, che del resto sono già oggetto di valutazione. Il lunghissimo processo produttivo di valvole che nelle parole del CIO vengono «ricamate», aggiungendo strati di materiale in grado di resistere all’azione corrosiva del greggio, genera una enorme quantità di dati che devono essere minuziosamente tracciati per individuare eventuali problemi di fabbricazione.
BUSINESS-FIRST
Tuttavia, come ribadisce Caremoli, se il volume di informazione è notevole se confrontato con le dimensioni dell’azienda, ATV non è pressata dalle stesse problematiche di accesso e democratizzazione del dato che induce aziende come Hera e Autostrade per l’Italia ad adottare strategie dati su cloud. Ma deve per forza, dare la priorità a com’è fatto il suo business. In questi anni, il conflitto in Ucraina – aggiunge il CIO di ATV – ha provocato cambiamenti significativi nel settore petrolifero, che per ATV si sono tradotti in un’opportunità di crescita, con un aumento della produzione e nuove assunzioni. «Ma non avendo la necessità di gestire milioni di bollette come Hera, verrebbe meno anche l’aspetto della flessibilità delle infrastrutture virtuali. In compenso, abbiamo ragionato sulla possibilità di esternalizzare parte delle nostre attività di supercalcolo, anche se al momento tutto rimane on-prem».
Una cosa accomuna i progetti di cui si è discusso finora: il bisogno di sicurezza. Stefano Maranzana di Bitdefender interviene affermando che se il mercato continua a chiedere soluzioni di protezione di base dell’endpoint, nella tradizionale forma antimalware, i clienti oggi chiedono anche di estendere analoghi livelli di sicurezza ai servizi forniti via cloud. Come faccio però ad assicurarmi che il mio dato sia protetto e che la compliance sia garantita, anche nell’insieme dei servizi ibridi che Hera e Autostrade hanno descritto? «La risposta si chiama risk management, ed entra a far parte di un processo evolutivo della console di gestione degli endpoint» – spiega Maranzana.
«Bitdefender analizza i dispositivi on-prem e quelli implementati sui vari cloud provider, stilando un rapporto di valutazione del rischio che aiuta a individuare i potenziali di rischio, addirittura fornendo precise istruzioni su come coprire le eventuali mancanze e rientrare nei limiti fissati da normative come NIS2 e DORA nel settore finanziario». Per evidenti ragioni che hanno molto a che fare con la sicurezza, la sovranità e il trust, il settore bancario non può essere definito un early adopter delle tecnologie cloud, specie a livello infrastrutturale.
«Al di là di fattori esogeni e improvvisi di cambiamento, come la pandemia – spiega Luca Piezzo, head of Cloud Center of Excellence di Banca Ifis – in passato le banche si sono concentrate sull’ottimizzazione della mobilità dei loro flussi di lavoro e sulla loro standardizzazione, adottando framework di sviluppo più moderni. Oggi, non è tanto una questione di “perché”, ma di “come”: il cloud è ormai dato per scontato nel settore. Può offrire la capacità di mantenere alta la competitività, generare domanda e rispondere alla sfida delle challenger bank e delle fintech, che alzano costantemente l’asticella».
Insieme ai “perché” e ai “come”, osserva Piezzo, c’è anche il “quando”. Intercettare i tempi giusti in funzione dei cicli di vita dell’hardware, è ancora un criterio molto importante per una istituzione finanziaria, e non va assolutamente abbandonato. «Soprattutto – sottolinea Piezzo – abbiamo iniziato a prendere decisioni sul cloud con la piena consapevolezza dei presidi necessari. Siamo partiti dalla governance, istituendo il CCoE (Cloud Center of Excellence) di cui sono responsabile, proprio con l’obiettivo di introdurre le tecnologie in maniera controllata e strategica».

UNA SCELTA DI FUTURO
L’accesso alle tecnologie innovative del cloud, diventa così un fattore determinante nello sviluppo di una banca che vuole andare verso il futuro e su questo – ribadisce Piezzo – Ifis è molto attiva. L’istituto in cui opera Piezzo fa parte del settore della cosiddetta specialty finance, offrendo soluzioni di credito dedicate alle piccole imprese e operando in ambiti specifici, come la gestione dei crediti deteriorati. «Questo ci pone di fronte a sfide importanti in termini di digitalizzazione e awareness da parte della clientela. Tuttavia, operiamo in un settore altamente regolamentato e dobbiamo necessariamente predisporre e comunicare le nostre “exit strategy” agli organi di vigilanza» – spiega Piezzo, riferendosi a temi critici come la migrazione da e verso il cloud, la gestione del cambiamento tra diversi provider in un ambiente multicloud e le soluzioni di disaster recovery, aspetti ricorrenti in tutti gli interventi della tavola rotonda. A questo proposito, Piezzo di Banca Ifis, come Bonetti di Hera, sembra voler ridimensionare l’impatto dell’effetto lock-in, normalmente inserito tra i fattori di rischio di una strategia multi-cloud, specialmente se riferito ai contratti con gli hyperscaler americani. «Non bisogna necessariamente vedere questi operatori come una minaccia» – osserva il responsabile del Cloud Excellence Center.
«In una strategia ben pianificata, il rischio di rimanere vincolati a un provider troppo dominante può essere gestito, bilanciando i vantaggi in termini di affidabilità e capacità di innovazione». Nel settore privato, il cloud è sinonimo di competitività, innovazione e slancio verso il futuro. Nel settore pubblico, e in particolare nella Pubblica Amministrazione, questa tecnologia viene invece considerata da sempre leva essenziale per colmare il divario digitale e rendere la digitalizzazione pervasiva e accessibile. Non si tratta solo di ottimizzare l’uso delle risorse hardware e software o di semplificare i processi interni: il vero protagonista è il cittadino, che si aspetta servizi efficienti, rapidi e interfacce intuitive, all’altezza delle aspettative sia dei nativi digitali sia degli utenti abituati a sistemi più tradizionali.
Giuseppe Ceglie, dirigente della struttura Piattaforme Applicative di ARIA Spa, porta al tavolo un esempio di eccellenza. Grazie all’ambiziosa strategia multicloud, l’insourcer informatico di Regione Lombardia ha realizzato la migrazione e il consolidamento di 20mila server, permettendo alla quasi totalità degli ospedali pubblici lombardi di trasferire la loro infrastruttura IT su un’unica piattaforma, con la conseguente dismissione dei data center locali. Aria nasce nel 2019 dalla convergenza di diverse società dedicate a specifici ambiti operativi, tra cui la storica Lombardia Informatica, dalla quale proviene lo stesso Ceglie.
«Siamo stati tra i primi utilizzatori delle soluzioni cloud dell’epoca, partendo dall’individuazione delle criticità che avevamo allora e che riguardavano i processi di procurement di infrastruttura» – ricorda il dirigente delle Piattaforme Applicative. L’ovvio riferimento è alla particolare situazione di una azienda pubblica che dovendo rispettare le procedure e soprattutto le tempistiche del Codice degli appalti nelle gare per l’acquisto di infrastrutture, quasi invariabilmente rischiava di trovarsi con prodotti “nuovi” ma già obsoleti. «Avevamo limiti di scalabilità rispetto alla crescente domanda di servizi» – spiega Ceglie. «Gestivamo circa cinquemila istanze, tra macchine virtuali e fisiche, distribuite su quattro data center, con un’infrastruttura estremamente eterogenea. Inoltre, esisteva un vincolo strutturale alla scalabilità dei data center on premises che gestivamo, rendendo necessario un ripensamento del modello IT».

OLTRE LE ASPETTATIVE
Sulla base di queste esigenze la neonata azienda sviluppa una strategia che poneva obiettivi e vincoli importanti, primo tra tutti chiudere tre data center su quattro contribuendo così in maniera significativa alla missione di consolidamento di 11mila “CED” censiti a livello nazionale dalla Agenzia Digitale, duemila dei quali lombardi. L’altro obiettivo era raggiungere un buon livello di razionalizzazione delle piattaforme applicative per puntare, come terzo traguardo a una maggiore capacità di erogazione e scalabilità dei servizi. «Da questo siamo partiti – continua Ceglie – con un bando che viene ricordato, per quell’anno, come la gara più importante in Europa sia per volume economico che per quantità di dati da consolidare. A sei anni di distanza, possiamo dire di aver completato con successo questo ambizioso processo, superando persino molti degli obiettivi inizialmente prefissati».
Nel 2019, Aria Spa prevedeva di migrare il 70% dei propri workload interni, con l’obiettivo di condividere la piattaforma multicloud ibrida IAAS con altri enti pubblici. L’adesione degli altri Enti era su base volontaria e inizialmente si stimava un numero ridotto di adesioni. Con il successo delle prime adesioni, il modello di consolidamento delle infrastrutture degli altri Enti è diventato pervasivo, consentendo di dismettere diverse centinaia di server obsoleti dei vari Enti. «La realtà attuale – spiega Ceglie – è che il 95% dei nostri carichi di lavoro è stato migrato su un’infrastruttura multicloud ibrida. L’aspetto più significativo riguarda proprio gli enti pubblici: l’esperienza si è rivelata così efficace che il progetto ha assunto una portata pervasiva, consolidando circa cinquanta CED di Enti Sanitari pubblici regionali. Siamo passati da cinquemila a 20mila server, ma con una drastica riduzione dell’infrastruttura fisica locale e la dismissione di migliaia di server periferici».
Ceglie riconosce che in quegli anni il modello cloud si stava diffondendo e inizialmente si è dovuto superare molto scetticismo non solo in ambito interno. La soluzione è stata quella di non partire dalla tecnologia, bensì impostando la strategia sul tema della razionalizzazione dell’infrastruttura e sui vantaggi dell’adozione del “paradigma cloud”, in termini di flessibilità, scalabilità, modello dei costi pay per use. Un ruolo determinante all’interno di questa strategia è stato svolto dall’affidabilità delle infrastrutture che offrivano i principali attori sul mercato cloud, accresciuto successivamente con l’apertura di nuovi data center nella Regione Lombardia determinando la riduzione delle latenze trasmissive e quindi agevolando il piano di adozione dei servizi in cloud. «L’unico data center on premises inizialmente previsto dal nostro piano, per via di un piano di razionalizzazione dei nostri edifici, è successivamente confluito nelle infrastrutture del Polo Strategico Nazionale, il progetto di cloud sicuro destinato a tutte le pubbliche amministrazioni italiane».
Il testimone della conversazione ritorna al settore industriale privato con un gruppo, Angelini Industries, molto eterogeneo. L’azienda con quartier generale a Roma gestisce attività in campo enologico, cosmetico, persino dell’automazione (nel ramo degli impianti per la produzione di cellulosa). Ma il “cliente” più grande per Danilo Luzi, head of IT Infrastructure & Architecture della holding finanziaria a cui fa capo l’informatica, è il comparto farmaceutico del gruppo. «Parliamo di un contesto estremamente dinamico – spiega Luzi – dove produzione e ricerca sono centrali». Nel portafoglio Pharma, l’IT di Angelini gestisce ogni anno oltre ottanta progetti, coinvolgendo cinquemila utenti distribuiti in oltre 37 sedi di 21 paesi. Uno scenario completamente diverso da quelli analizzati finora. «Già nel 2022 – continua Luzi – questa complessità ci ha spinto a riconoscere che un data center fisico, per quanto replicato per il disaster recovery, non era più sostenibile. Si perdeva troppo tempo nell’acquisto di hardware che, dopo appena due settimane, risultava già obsoleto o superfluo».
EVOLUZIONE CONTINUA
Arriva così il momento in cui l’IT di Angelini muove con decisione verso il modello cloud ibrido, mantenendo un data center che viene però ampiamente rinnovato. «Oggi abbiamo un ambiente stabile che gestisce la produzione di Angelini attraverso macchine che vengono convalidate in base alle direttive GAMP» – spiega Luzi. Le Good Automated Manufacturing Practice (GAMP) sono linee guida di riferimento a livello globale, sviluppate da un sottocomitato dell’ISPE (International Society for Pharmaceutical Engineering), per garantire qualità e conformità nei sistemi automatizzati dell’industria farmaceutica. Un settore tra i più regolamentati al mondo, almeno alla pari – se non più – di quello finanziario, sebbene con differenze sostanziali nella natura e nell’intensità delle normative.

«Cambiare la configurazione di un server critico – aggiunge Luzi – in modo non “compliant” può portare a gravi conseguenze, fino alla revoca dell’autorizzazione a produrre. Per cui un data center fisico non può subire mutamenti troppo drastici e frequenti e deve essere progettato in una ottica di grande ridondanza per la continuità del servizio». Insieme alla velocità di setup, il cloud ha portato diversi benefici, tra cui una grande flessibilità della piattaforma dati, soggetta a volumi molto importanti e a loro volta variabili. «Il cloud – prosegue Luzi – è stato un grande abilitatore, è diventato una sorta di nuovo standard che ha reso possibile un’informatica ricca di progetti innovativi, per esempio un avanzato digital twin di quella che è la torre di controllo dell’IT dove è possibile testare e validare processi e modelli. Un livello di innovazione all’altezza delle aspettative di un gruppo in cui, sul piano organizzativo, l’IT dipende dal chief innovation officer, Stefano Brandinali, per una strategia cloud che Luzi vede ancora in forte evoluzione anche se su una base già molto matura.
«I nostri obiettivi sono per definizione un bersaglio mobile: non possiamo fermarci a una vera e propria maturità». Luca Spagnoli di Aruba concorda su questo concetto di maturità continua: «In questa discussione vediamo rappresentate sia realtà che migrano il 95% dei loro progetti in cloud sia aziende altamente specializzate e di dimensioni più contenute che, pertanto, esprimono esigenze e gradi di maturità diversi. Dopo un periodo di corsa generalizzata verso il cloud, è arrivato il momento di riflettere. Si cominciano a intravedere davvero gli aspetti vantaggiosi e quelli più sfidanti. Il cloud è un modello che deve essere posizionato correttamente». Per questo Aruba Cloud cerca di rispettare questa diversità, proponendo anche formule intermedie come il private cloud su una infrastruttura pubblica, «una sorta di “off-prem” – spiega Spagnoli – che delega al CSP alcuni aspetti del governo infrastrutturale, lasciando al cliente una ownership totale dei dati e delle applicazioni». L’esigenza di controllo e sovranità è più sentita nei nuovi progetti basati sulla GenAI. «Con la disponibilità di questi servizi – continua Spagnoli – stiamo assistendo alla nascita di una nuova forma di “informatica-ombra”, una shadow AI, in cui i dipendenti, all’interno del perimetro aziendale, generano report accedendo all’AI tramite utenze completamente libere e senza alcun controllo». Un cloud provider all’altezza dei tempi può rispondere a situazioni come questa offrendo i necessari “guard rail” per creare istanze sicure e governabili di Large Language Models, costruendo così un perimetro di “private AI” che permetta sperimentazioni libere, senza che i requisiti computazionali diventino un ostacolo. L’idea, in pratica, è essere una valida alternativa in una realtà che di alternative ha sempre più bisogno.
Assumendo che il concetto di maturità nel cloud si sposta continuamente in avanti e che anzi – come sottolinea Luca Piezzo di Banca IFIS – tutta la tecnologia alla base del cloud e il modo di metterla al servizio del business o delle organizzazioni pubbliche deve essere studiata e capita, proprio attraverso la creazione di centri di eccellenza interna verso cui trasferire, rinnovando e rendendo ancora più a tutto tondo l’antico mestiere del sistemista – la vera sfida futura rimane la governance di un’informatica abilitante ma difficile da tracciare.
Nemico dei confini, il cloud richiede un approccio diverso da quello che finora abbiamo applicato al data center fisico, a ogni livello: dalla definizione delle architetture, allo sviluppo applicativo, dal calcolo preciso delle voci di costo, alla titolarità di una infrastruttura, di un servizio, di un singolo account, fino al fondamentale tema della sicurezza. Un intreccio di complessità, non più isolate, che – come ricorda Andrea Bonetti di Hera – avrà sempre più bisogno di «sistemi che governano i sistemi». Queste conversazioni servono anche a tracciare del cloud una prima, approssimativa cartografia, da cui si possono forse ricavare, se non delle leggi, almeno delle best practice.
Foto di Gabriele Sandrini
Point of view
Intervista a Luca Spagnoli, field CTO di Aruba: Cloud ad ampio spettro
Intervista a Stefano Maranzana, senior field sales engineer di Bitdefender per l’Italia: Cloud a gravità zero