Mentre l’intelligenza artificiale continua a evolvere, i data center devono adattarsi per supportare la crescente domanda di potenza computazionale, bilanciando il consumo energetico con soluzioni di efficienza avanzata e il ricorso massivo alle energie rinnovabili

La sfida dell’intelligenza artificiale si sta combattendo su diversi livelli. Quello dei ritorni in termini di revenue e crescita aziendale è ancora molto incerto, come pure il terreno – spinosissimo – dell’impatto sull’occupazione umana. Che misura ha la prima di queste due incertezze? Secondo alcune stime per le Big Five tecnologiche globali (Alphabet, Amazon, Apple, Meta e Microsoft) la spesa in conto capitale destinata all’AI ammonterà nel 2024 a 400 miliardi di dollari. Lo scorso luglio, The Economist in un suo polemico articolo osserva che finora l’impatto dell’intelligenza artificiale sull’economia delle imprese è stato nullo. Pochi mesi dopo, a settembre, IDC – che come di consueto fornisce assicura un autorevole supporto conoscitivo ai dossier di Data Manager – pubblica lo studio “The Global Impact of Artificial Intelligence on the Economy and Jobs”. In questo report, si afferma che la spesa delle imprese per adottare l’intelligenza artificiale, utilizzarla per snellire e ottimizzare processi aziendali esistenti e per fornire prodotti e servizi migliori ad altre imprese e ai consumatori, avrà un impatto economico globale cumulativo di quasi 20 trilioni di dollari fino al 2030. Gli analisti IDC sono meno scettici rispetto alle valutazioni del settimanale inglese e si sbilanciano in una stima secondo la quale l’AI inciderà in quello stesso anno per il 3,5% del PIL globale.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Di conseguenza, stando ai dati del report, l’AI influenzerà posti di lavoro in ogni regione del mondo, incidendo in ambiti come l’operatività dei contact center, la traduzione, la contabilità, l’ispezione dei macchinari. Uno degli autori dell’indagine, Lapo Fioretti, senior research analyst, Emerging Technologies and Macroeconomics di IDC, a proposito del cospicuo interesse che il tema dell’intelligenza artificiale ha destato negli ultimi dodici mesi afferma: «Nel 2024, l’intelligenza artificiale è entrata in una fase di sviluppo e implementazione accelerati, definita da un’integrazione diffusa che ha portato a un’impennata degli investimenti aziendali con l’obiettivo di ottimizzare in modo significativo i costi operativi e le tempistiche».

Sempre nel 2030 – prosegue lo studio – ogni dollaro speso in soluzioni e servizi di intelligenza artificiale legati alle imprese genererà 4,60 dollari nell’economia globale, in termini di effetti indiretti e indotti. E per quanto riguarda il livelli di occupazione? L’AI finirà per avere sui lavoratori della conoscenza lo stesso impatto trasformativo che l’automazione della fabbrica ha avuto su cosiddetti blue collar? Stando a un altro recente studio di IDC, pubblicato all’inizio dell’anno e intitolato Future of Work Employees, entro i prossimi due anni “alcuni” (48% degli intervistati) o “la maggior parte” (15%) degli aspetti del proprio lavoro saranno automatizzati grazie all’intelligenza artificiale e ad altre tecnologie. Solo una minoranza (3%) dei dipendenti teme invece una completa automatizzazione delle proprie mansioni da parte dell’AI.

L’AI AL LAVORO

Sull’altro piatto della bilancia, IDC rileva che se alcuni lavori saranno influenzati negativamente dalla proliferazione dell’intelligenza artificiale, nuove posizioni, come gli specialisti di etica dell’intelligenza artificiale e gli ingegneri di intelligenza artificiale, emergeranno come ruoli dedicati all’interno delle organizzazioni globali. Più in generale, la ricerca afferma che il livello di intensità del “tocco umano”, combinata con il fattore “ripetitività delle attività” che caratterizza il lavoro sono le due leve che le aziende applicheranno alle loro organizzazioni per distinguere i ruoli che sono soggetti a una sostituzione completa da parte dell’AI e dell’automazione, rispetto a quelli in cui il ruolo della tecnologia sarà diverso: affiancare il lavoratore umano per amplificare o “aumentare” le loro capacità. Secondo uno dei CEO intervistati nella survey, la formula efficace per definire il potenziale rischio cui saranno esposte le nostre job description è la seguente: “Non sarà l’intelligenza artificiale a rimpiazzarti, ma qualcuno che sa come utilizzarla meglio di te”. In definitiva, l’AI oggi equivale alla capacità – 40 anni fa – per il lavoratore di concetto di utilizzare strumenti come il word processor. Nell’ufficio, siamo passati in definitiva dal “pc-skill” al “prompt-skill”, mentre nel back-office i fondamenti algoritmici, matematici, statistici e ingegneristici dell’intelligenza “di sintesi” – nella definizione che molti preferiscono all’aggettivo “artificiale” – prendono il posto di capacità di progettazione, sistemistica e sviluppo software più orientate alle esigenze infrastrutturali e architetturali dell’AI, sia nella sua accezione più analitica, sia in quella semantico-cognitiva degli ormai imperanti large language models.

Al momento, forse la questione più concreta da affrontare è riferita alla potenza computazionale e ai suoi costi al tempo stesso energetici e ambientali. L’esplosione dei consumi ha portato l’insieme dei data center attivi in Irlanda ha portato a bruciare più elettricità del totale delle abitazioni della nazione “verde” per eccellenza. Ma le stime sono ovunque estremamente significative. Nel suo annuale rapporto di sostenibilità pubblicato a maggio, Microsoft ha dichiarato di aver dovuto incrementare le emissioni del 29% a partire dal 2020, proprio per le necessità di infrastrutture dedicate al supporto dei carichi di lavoro dell’AI e alla loro ottimizzazione. “Le infrastrutture e l’energia elettrica utilizzate da queste tecnologie rappresentano la vera sfida di un settore tecnologico impegnato a centrare importanti obiettivi di sostenibilità” – si legge nel report. Quotidiani come il Washington Post ipotizzano che nelle aree della nazione interessate ad attirare le nuove infrastrutture, come tutta la parte settentrionale della Virginia (per la sua prossimità alla capitale federale) le fabbriche dei dati arriveranno nel 2030 a consumare volumi record di energia (l’equivalente, nel caso della Virginia) di 6 milioni di abitazioni residenziali. Goldman Sachs, proiettando le stime a livello nazionale, parla di un consumo complessivo, sempre nel 2030, pari all’8% di tutta l’elettricità generata negli USA. Nel 2022 la percentuale era del 3%.

ENERGIA PER LE FABBRICHE DEI DATI

Che cosa significa tutto questo per il mondo delle tecnologie e dei servizi che orbita intorno alle cosiddette “fabbriche dei dati”? L’intero settore deve affrontare il problema combinato dell’efficienza energetica e della riduzione del footprint di carbonio, offrendo al tempo stesso alle imprese e agli individui che di intelligenza artificiale hanno crescente bisogno un valido percorso di aumento della potenza di calcolo e della sua flessibilità. In molti casi, una variabile addizionale del problema è dato dalla presenza di infrastrutture legacy che devono essere rivedute e potenziate.

Le risposte che cerchiamo provengono anch’esse da più fronti. L’automazione e la virtualizzazione serviranno a garantire l’efficienza necessaria a ottimizzare l’energia spesa e ridurre sprechi e tempi morti, assicurando tra l’altro un capillare accesso ai servizi a tutti coloro che decidono di fare a meno di hardware in co-location o di data center di proprietà. Ma ci sono anche aspetti di natura infrastrutturale più complessiva, che riguardano le fonti energetiche utilizzate; la densità della potenza computazionale erogata in funzione dello spazio fisico occupato; l’uso all’interno del data center di sistemi iperconvergenti sempre più compatti al posto delle componenti discrete; le tecnologie di raffreddamento che rendono possibile il lavoro di data center ad altissima densità; gli accorgimenti che facilitano la cattura e il riuso delle energie dissipate e del surplus di quelle generate per alimentare le risorse utilizzate dall’AI e dalla business intelligence. In questo dossier, cerchiamo di fare il punto sulle ultime novità e tendenze in tutti questi ambiti per capire a che punto siamo nella battaglia per un’informatica sempre più vitale per il business e per la vita quotidiana, e al tempo stesso sostenibile per un ambiente e soprattutto un clima in profonda crisi. Ma torniamo agli analisti di IDC, per qualche informazione su scala globale, soprattutto in termini di potenza elettrica assorbita nel dinamico settore dei data center e del cloud pubblico, un mercato che sta diventando sempre più vitale per il business globale.

Leggi anche:  Montenegro, svolta digitale

Mentre le imprese perseguono la trasformazione digitale e investono nell’intelligenza artificiale per creare valore, IDC prevede che la domanda di servizi aumenterà in modo sostanziale, posizionando l’intero business obiettivo primario per la crescita e gli investimenti. Secondo IDC, la capacità globale in megawatt dei data center IT installati aumenterà dal 2023 al 2028 con un tasso di crescita annuale composto (CAGR) del 12,6%. La spesa per i data center crescerà dal 2023 al 2028 con un CAGR del 21,65%, trainata dalla costruzione di nuove strutture per supportare la trasformazione digitale e l’intelligenza artificiale e dai costi correnti per sostenere la crescita. Costruire data center è un investimento notevole. Il costo per costruire un data center varia da 6 milioni di dollari a 14 milioni di dollari per megawatt (esclusa l’infrastruttura IT) a seconda della posizione e dell’aumento dei prezzi. Con tale crescita e costi, è facile capire perché gli investimenti nella costruzione di data center ricevano così tanta attenzione. Tuttavia, la durata media della vita di un data center va dai 15 ai 20 anni e la crescita edilizia a cui assistiamo creerà un panorama tentacolare di strutture ad alta intensità energetica che richiedono pari attenzione.

Gli stessi fattori di business che agiscono sull’aumento di capacità dei data center – trasformazione digitale e intelligenza artificiale – sono i fattori trainanti della crescita del consumo di elettricità dei data center. L’intelligenza artificiale è un acceleratore particolare dato l’elevato consumo energetico delle GPU e il maggiore impiego che viene fatto di queste architetture nella fase di addestramento e ottimizzazione dei modelli. Questo consumo di elettricità in costante aumento pone sfide significative in termini di sostenibilità e gestione dei costi poiché i data center si sforzano di bilanciare la necessità di una maggiore potenza di calcolo con l’imperativo di ridurre al minimo l’impatto ambientale e gestire i crescenti costi energetici. IDC calcola che il consumo energetico mondiale dei data center dal 2023 al 2028 aumenterà con un CAGR del 19,5%. La domanda di nuove attrezzature e di elettricità supera l’offerta e si prevede che la concorrenza che ne deriverà aumenterà oltre i normali tassi di inflazione.

OBIETTIVI CONTRASTANTI

Le aziende stanno dando priorità agli obiettivi apparentemente contrastanti della digitalizzazione e delle iniziative ESG (ambiente, impatto sociale e governance) per promuovere il valore aziendale, ponendo la sostenibilità come una priorità assoluta per il mercato dei data center. Per rimanere competitive, le aziende devono investire nella capacità dei data center ad alta intensità energetica per creare valore aziendale attraverso strumenti come l’AI generativa e allo stesso tempo contribuire agli obiettivi di sostenibilità ambientale per allinearsi alle aspettative di clienti, dipendenti e investitori. Scegliere dove e quando collocare i crescenti carichi di lavoro dell’AI può contribuire molto a ridurre al minimo il loro impatto ambientale.

Occorre prendere in considerazione fattori come l’accesso alle energie rinnovabili, la composizione del mix di fonti che alimentano la rete di alimentazione elettrica – sia essa pubblica o di proprietà – l’efficienza complessiva dei data center e la prossimità ai futuri utenti e ai loro dati quando si pianifica la creazione di uno spazio attrezzato destinato ad accogliere le macchine fisiche di un ambiente multi-cloud ibrido per l’intelligenza artificiale generativa. I data center sostenibili richiedono un approccio su più fronti, con una attenzione alle scelte in materia di edificazione o espansione di data center a basse emissioni di CO2; un maggiore utilizzo di fonti energetiche a basse o nulle emissioni di gas serra; la gestione intelligente dell’alimentazione e del raffreddamento; e l’uso di infrastrutture hardware efficienti dal punto di vista energetico, come puntano a essere le architetture iperconvergenti.

Sono tutti accorgimenti messi in campo dai firmatari del recente Climate Neutral Data Center Pact europeo, uno degli esempi di tentativo virtuoso in una Europa che punta alla climate neutrality generale entro il 2050. Il patto, cui aderiscono anche alcuni operatori di cloud pubblico in Italia, stipula obiettivi rigorosi per le prestazioni ambientali e gli obiettivi di sostenibilità in cinque aree chiave che riguardano l’efficienza energetica, l’uso di energia verde, l’uso dell’acqua, il riciclaggio e il riutilizzo del calore di scarto. “Il raggiungimento collettivo di questi obiettivi garantirà che i data center siano climaticamente neutri entro il 2030” – si legge nella documentazione del CNDCP.

Per comprendere meglio l’impatto dell’aumento dei costi dell’elettricità sulle operazioni del data center, IDC ha condotto una simulazione dello scenario per un data center con 1 MW di carico IT nel 2023, funzionante al 50% della capacità e con un’efficacia di utilizzo dell’energia (PUE) di 1,5. Lo studio ha esaminato tre scenari di crescita dei prezzi dell’energia utilizzando i prezzi dell’energia e i tassi di crescita per Stati Uniti, Germania e Giappone. In tutti e tre gli scenari, la crescita percentuale della spesa elettrica supera in tutti i casi un CAGR del 15%, con la maggior parte degli scenari che mostrano una crescita superiore al 20%. Lo studio mostra inoltre che un ulteriore 10% di efficienza energetica può offrire notevoli risparmi agli operatori dei data center.

«Esistono numerose opzioni per aumentare l’efficienza dei data center, che vanno da soluzioni tecnologiche come la migliore efficienza dei chip, il raffreddamento a liquido, il ripensamento della progettazione dei data center e dei metodi di distribuzione dell’energia» – spiega Sean Graham, direttore della ricerca, Cloud to Edge Data center Trends di IDC. «Ma fornire soluzioni efficienti dal punto di vista energetico è solo una parte dell’equazione per soddisfare le esigenze dei clienti. I fornitori di data center, compresi i servizi cloud e di colocation, dovrebbero continuare a dare priorità agli investimenti nelle fonti di energia rinnovabile. Investire nelle energie rinnovabili significa contribuire ad aumentare l’offerta complessiva, aiutando i propri clienti a raggiungere i propri obiettivi di sostenibilità”.

SCEGLIERE LE FONTI

L’energia eolica e solare, in particolare, offrono vantaggi ambientali significativi garantendo costi energetici minimi, il cosiddetto fattore LCOE (costo dell’energia livellato), che riflette il costo attuale netto medio dell’elettricità prodotta durante la vita di un generatore. Inoltre, collocando le strutture vicino alla fonte di generazione di energia rinnovabile, i fornitori possono ridurre sia i costi di costruzione che le perdite di energia associate alla distribuzione, migliorando l’efficienza e la sostenibilità complessive e migliorando anche la resilienza e eliminando i problemi di affidabilità di una rete.

Se il costo dell’energia e la scelte delle sue sorgenti rappresenta forse l’aspetto prioritario nel campo dei servizi richiesti da un settore del cloud pubblico sempre più in crescita, un altro aspetto riguarda la densità che il data center deve raggiungere in termini di capacità elaborativa come funzione della superficie complessiva. Il fattore densità aggiunge alla problematica energetica una seconda dimensione fisica che ha i suoi costi e le sue complessità: la produzione di calore.

Una parte importante nella creazione di data center di nuova generazione consiste quindi nel preparare le strutture esistenti e quelle ancora da costruire per una elaborazione molto più concentrata rispetto al passato. Insieme alla densità c’è un problema di efficienza complessiva che richiede approcci molto più integrati soprattutto in quella che può essere considerata l’altra metà del cielo del data center: le risorse aziendali private, che molto più del patrimonio applicativo, sono caratterizzate da una forte presenza di infrastrutture legacy. Come si è già detto, il modo per sciogliere il nodo dell’ammodernamento delle infrastrutture hardware – oggi – passa sostanzialmente per due strade: l’iperconvergenza, ossia l’uso di nodi di elaborazione che concentrano aspetti computazionali e di rete, e l’automazione, intesa come capacità di allocare le risorse di un data center in modo flessibile e parametrizzato (software defined data center) e frapporre tra “ferro” e livelli applicativi uno strato di astrazione sempre più complesso e in grado di gestire in autonomia l’equilibrio tra risorse di calcolo e memoria da un lato e carichi di lavoro dall’altro. Un’automazione che tra l’altro fa sempre più leva sull’intelligenza artificiale per decidere.

Leggi anche:  I limiti dell’intelligenza artificiale

Ma torniamo alla questione della densità, un traguardo raggiungibile anche in una logica di aggiornamento e trasformazione del data center legacy, ma solo dopo un’attenta valutazione di alcuni requisiti che sono alla base di un hardware che non può funzionare al meglio senza la garanzia di vedere adeguatamente dissipato il calore prodotto.

CALCOLO A FREDDO

La valutazione completa dell’infrastruttura da cui si parte è fondamentale prima di installare hardware ad alta densità. Bisogna quindi controllare che i sistemi di alimentazione e raffreddamento siano in grado di supportare una maggiore densità e domanda. Sarà necessario aggiornare l’infrastruttura di raffreddamento per gestire i carichi termici più elevati associati all’alta densità. Sono attualmente disponibili varie opzioni per supportare questo aggiornamento: raffreddamento diretto a chip, raffreddamento per immersione e raffreddamento attivo installato sul pannello posteriore degli armadi rack. Il raffreddamento diretto a chip è un metodo pensate per raffreddare CPU e GPU. Funziona trasferendo direttamente il calore generato dai singoli chip a un sistema di raffreddamento liquido o con un refrigerante che entra direttamente in contatto con la superficie del chip. Ciò porta a un efficiente trasferimento e dissipazione del calore, poiché il mezzo di raffreddamento assorbe e disperde rapidamente il calore. Il raffreddamento per immersione è un processo in cui i componenti vengono immersi in un liquido refrigerante non conduttivo, come olio minerale o fluidi a base di fluorocarburi. Questo refrigerante assorbe rapidamente il calore dai componenti immersi, mantenendoli a una temperatura operativa che contribuisce a ridurre il consumo di energia e aumentare l’efficienza complessiva, perché elimina la necessità di sistemi più tradizionali di raffreddamento a ventilazione elettrica. Il raffreddamento attivo dello sportello posteriore può abbassare in modo efficiente la temperatura delle apparecchiature informatiche. Implica l’installazione di un’unità di ventilazione sullo sportello posteriore dei rack. La ventola aspira l’aria fresca dall’esterno e la dirige nell’armadio attraverso una serpentina di raffreddamento. L’aria passa attraverso l’apparecchiatura, assorbendo calore, quindi spinge attraverso la parte anteriore dell’armadio. Questa tecnica di raffreddamento impedisce la miscelazione di aria calda e fredda introducendo aria fresca dalla parte posteriore, ottimizzando l’efficienza di raffreddamento e riducendo il consumo di energia.

Saranno inoltre necessarie modifiche per consentire un maggiore consumo energetico a livello di rack e singolo server, oltre alle valutazioni strutturali per confermare che la capacità di carico esistente della risorsa possa supportare i carichi delle nuove apparecchiature con un ingombro ridotto. Qualora si renda necessario adottare una tecnologia di raffreddamento supplementare tra quelle indicate, è fondamentale verificarne la compatibilità sia con l’hardware già installato sia con quello previsto per il futuro. Eventuali non compatibilità possono richiedere successive modifiche e porre un limite ai livelli di integrazione che vogliamo raggiungere, influendo così sugli obiettivi di trasformazione su cui si è investito. Insieme alla compatibilità, si devono considerare la scalabilità e la sostenibilità a lungo termine delle soluzioni adottate. La nuova tecnologia di raffreddamento può supportare i futuri piani di crescita ed espansione? Per rispondere a questa domanda in modo affermativo, è essenziale disporre di una soluzione in grado di soddisfare le crescenti richieste di elaborazione man mano che l’azienda si evolve e le esigenze cambiano. I nuovi sistemi di raffreddamento possono offrire una maggiore efficienza energetica rispetto ai metodi tradizionali. Occorre quindi calcolare l’efficienza energetica di varie soluzioni di raffreddamento e considerare il potenziale risparmio sul total cost of ownership ottenuto dal minor consumo energetico e trovare il giusto equilibrio tra questo risparmio e le prestazioni complessive del sistema di assorbimento del calore. L’altro punto fondamentale, una volta scelta e messa in atto una soluzione, è considerare i requisiti a livello di manutenzione e disponibilità di servizi di supporto e pronto intervento. Il buon funzionamento del raffreddamento oggi ha la stessa importanza dell’assistenza hardware in un ambiente di calcolo ad alta densità.

SOLUZIONI IPERCONVERGENTI

Insieme alla virtualizzazione e alla automazione, l’iperconvergenza è una delle possibili risposte al problema dell’efficienza nel trasformare il consumo energetico in potenza di calcolo. Un principio che vale per gli operatori del cloud pubblico come per i proprietari di infrastrutture private. Ma che cos’è un’infrastruttura iperconvergente? È un’infrastruttura IT software defined che consente di astrarre le risorse di elaborazione, archiviazione, RAM e rete dall’hardware sul quale sono basate queste funzioni, e che possono a questo punto essere gestite in modo unificato. Invece di utilizzare server e SAN (Storage Area Network) tradizionali per rendere disponibili le risorse, l’iperconvergenza prevede l’utilizzo di nodi, unità hardware controllate dal sistema chiamato hypervisor, che astrae le sue risorse di elaborazione, RAM, archiviazione e connettività, le aggrega e le rende disponibili in pool. Ciò consente di gestire comodamente le risorse da un’unica interfaccia utente, risparmiando tempo, ottimizzando i costi e aumentando notevolmente la scalabilità del sistema, che avviene semplicemente aggiungendo un nuovo nodo a quelli già esistenti.

L’infrastruttura iperconvergente garantisce alle aziende altissime prestazioni, forte resilienza ai guasti, semplificazione delle operazioni di gestione e riduzione della complessità e dei costi di manutenzione. Sempre più aziende hanno quindi iniziato ad adottare questo tipo di approccio, sostituendo le vecchie infrastrutture tradizionali o la convergenza realizzata semplicemente integrando dispositivi di tipo diverso. Oggi, l’iperconvergenza può passare, a seconda del fornitore selezionato, per l’installazione di vere e proprie appliance hardware che l’hypervisor coordina come singoli nodi di un sistema molto più complesso sul piano logico, o tramite hypervisor in grado di utilizzare hardware standard. I vantaggi sono: compatibilità, minori risorse utilizzate per la gestione, continuità e gestione unificata. Tutte le parti di un’infrastruttura iperconvergente, sia hardware che software, sono appositamente costruite per funzionare senza problemi tra loro. Ciò consente di superare i tipici problemi di compatibilità delle strutture tradizionali. Le infrastrutture tradizionali richiedono più tempo e risorse per essere gestite. Le infrastrutture iperconvergenti sono invece più facili da gestire e mantenere.

Le moderne tecnologie di iperconvergenza assicurano la continuità operativa anche in caso di manutenzione, espansione o malfunzionamento di un nodo. Ciò è reso possibile dalla ridistribuzione automatica del carico di lavoro e delle macchine virtuali tra le risorse rimanenti, cosa non possibile utilizzando un’infrastruttura tradizionale basata su hardware. La gestione di un data center iperconvergente si può basare su un’unica console centralizzata da cui vengono controllate tutte le risorse. La gestione delle vecchie strutture IT, richiede un approccio più granulare che implica a un certo punto un intervento diretto su ciascun componente.

Grazie a questa integrazione le infrastrutture di nuova generazione si dimostrano così la soluzione ai problemi di provisioning e performance tipici del data center legacy. La grande flessibilità che caratterizza queste strutture le rende un valido strumento per le aziende di ogni settore, sempre più costrette a confrontarsi con un mercato in rapida evoluzione, specie quando occorre alimentare carichi di lavoro impegnativi nel campo dell’analisi e dell’intelligenza artificiale.

Dal punto di vista del management aziendale, si percepiscono analoghi vantaggi in termini di elevata scalabilità, che può venire incontro alla grande variabilità dei carichi e delle necessità di servizio che oggi caratterizza il business digitale. L’iperconvergenza, ancora più che in passato, consente di immaginare la presenza di un unico fornitore infrastrutturale e avere un solo soggetto a cui rivolgersi, semplificando notevolmente la gestione delle operazioni di manutenzione nonché la risoluzione di eventuali problemi di compatibilità e integrazione vissuti all’interno di situazioni legacy.

Leggi anche:  HPE lancia il nuovo server HPE ProLiant DL145 Gen 11 per siti edge e carichi di lavoro complessi

L’intero processo di gestione e provisioning risulta più semplice da gestire perché tutte le risorse di elaborazione, memoria di lavoro, mass storage e networking vengono monitorate da un unico punto, indipendentemente dalla loro posizione fisica. L’automazione ha un ruolo importante nella capacità, da parte dell’infrastruttura stessa, di rilevare malfunzionamenti, attivando autonomamente eventuali interventi di supporto tecnico. Nel deployment di software, piattaforme e applicazioni l’iperconvergenza riduce i tempi di esecuzione e il coinvolgimento di personale IT, che può essere più facilmente remotizzato o sostituito da servizi di gestione esterna: questo consente di concentrare le risorse interne all’impresa su compiti di più alto livello, in particolare sul fronte dello sviluppo. E infine, l’iperconvergenza oltre a dare flessibilità, riesce ad assicurare meglio la continuità e la resilienza del business, anche in caso di eventi catastrofici, venendo incontro tra l’altro alle necessità di compliance previste dalle nuove normative NIS2.

LE RISPOSTE DELL’AUTOMAZIONE

L’automazione del data center, come suggerisce il nome, è il processo alla base di una gestione dei flussi di lavoro del data center senza interazione umana o amministrazione. L’automazione del data center non riguarda un singolo compito o processo in una singola fase. Può essere eseguita in molte direzioni diverse: server, storage, networking e altre attività di gestione possono essere automatizzate in misura diversa a seconda delle necessità. Se l’obiettivo è gestire l’intera operatività del data center con l’automazione, saranno necessari diversi framework operativi basati su varie attività.

L’aumento esponenziale del volume di dati è uno dei fattori che agiscono sul passaggio da una gestione convenzionale all’automazione. A fronte degli elevati volumi di dati, all’intensità e alla variabilità dei carichi di lavoro, non è più possibile raggiungere determinati livelli di efficienza e velocità facendo leva solo sul fattore umano. Eventi come la pandemia, si sono aggiunti alle questioni di carattere energetico e ambientale, spingendo a modalità di lavoro remoto e decentralizzato che mal si conciliano con i normali approcci amministrativi. L’automazione infatti, non riguarda solo le strutture degli operatori della colocation e del cloud pubblico: l’azienda privata e pubblica può trarre enormi benefici dall’ammodernamento dei suoi data center perché l’automazione può alleggerire in modo molto significativo il tempo e il costo di una amministrazione delegata a risorse interne generalmente limitate, costrette a svolgere incarichi di vario tipo. Chi ha la responsabilità di un data center, potrà ridurre i tempi di interazione, liberando capacità da dedicare a problematiche non infrastrutturali.

Ma quali sono i fondamenti pratici di un buon progetto di automazione del data center? Nel disegnare la scelte del corretto strumento deve a grandi linee rispettare alcune best practice empiriche: utilizzare le API per connettere rapidamente applicazioni diverse; monitorare e gestire i processi centralmente; gestire i carichi di lavoro con l’automazione “event based”; gestione automatizzata delle compliance; e infine, la scelta dello strumento di automazione più adeguato alle proprie esigenze di provisioning. L’approccio delle interfacce funzionali programmabili (API) è essenziali per integrare rapidamente applicazioni e sistemi diversi. Facilitano la comunicazione tra sistemi software e consentono di cooperare senza troppi problemi di intermediazione. Sfruttando le API, si può semplificare l’integrazione di strumenti di automazione con i sistemi esistenti, riducendo costi e complessità, con un ritorno più rapido e sensibile di un investimento in automazione.

L’implementazione dell’automazione su più sistemi è possibile, ma la gestione delle operazioni del data center da un pannello di controllo centralizzato offre vantaggi significativi. Una vista centralizzata semplifica l’identificazione dei problemi, la gestione dei processi e il processo decisionale, rendendo ancora più efficiente l’infrastruttura.

L’automazione basata sugli eventi è una strategia potente per la gestione dei carichi di lavoro nei data center. Consente di preimpostare regole da attivare in caso di eventi o condizioni specifici, in modo da reagire prontamente a cambiamenti improvvisi, senza impegnare troppo tempo in analisi e scelte successive. Questo approccio migliora significativamente la reattività e l’efficienza delle operazioni del data center, garantendo prestazioni ottimali anche a fronte di fluttuazioni e incidenti e adattandosi meglio alle esigenze operative. Come nel caso degli incidenti, è consigliabile automatizzare il più possibile i controlli riferiti alla conformità rispetto a normative e standard. Con l’automazione non solo si risparmia tempo, ma si riducono in modo significativo sia gli errori che verifiche condotte manualmente possono introdurre nel ciclo di controllo, sia le violazioni di carattere volontario.

I tool utilizzati per automatizzare la gestione delle configurazioni e del provisioning di risorse incidono positivamente sulla produttività eliminando sforzi manuali e soprattutto errori. Uno strumento affidabile è in grado di applicare in modo programmato nuove configurazioni e modifiche su tutte le piattaforme in esecuzione nel data center. Ogni strumento ha caratteristiche e scenari applicativi distinti e la scelta della soluzione adeguata dipende sempre da una accurata valutazione dell’ambiente e delle proprie esigenze gestionali. Il mercato offre una gamma molto variegata di strumenti di automazione che possono essere classificati in diversi tipi in base alle loro funzionalità. Esistono strumenti altamente specializzati, progettati per singole attività all’interno del data center, e altri che permettono un’automazione più ampia e multifunzionale.

TOOLBOX OPEN SOURCE

In conclusione, ecco alcuni esempi di piattaforme e strumenti open source specializzati, che si inseriscono in un mercato oggi ricco di soluzioni, progettate per coprire tutte le principali aree operative del data center: allocazione e orchestrazione delle risorse, gestione dei costi e ottimizzazione dei consumi, backup, disaster recovery, migrazione di dati e applicazioni da e verso il cloud, attivazione dei servizi, identità, sicurezza e compliance, classificazione, monitoraggio e osservabilità.

OpenStack è forse il framework aperto più celebre per la creazione di cloud pubblici e privati. Controlla grandi pool di risorse di elaborazione, archiviazione e rete in tutto un data center, gestiti tramite una dashboard o tramite l’API OpenStack. OpenStack è in pratica un sistema operativo che aiuta a creare un’infrastruttura cloud o a gestire le risorse locali come se fossero in cloud. Basandosi proprio sull’autonomia nella creazione, disattivazione e gestione di server virtuali e altre infrastrutture virtualizzate. Ansible è lo strumento open source per il provisioning del software e la gestione della configurazione. Oggi, molte organizzazioni utilizzano Ansible per eliminare la complessità dai loro ambienti e accelerare le iniziative DevSecOps. Inoltre, a differenza di altre piattaforme di automazione, Ansible è basato su un potente framework agentless, cioè senza installazione di agenti, quindi è comodo da utilizzare in quasi tutti gli ambienti di rete.

Nell’ambito della virtualizzazione della rete, AmpCon è la piattaforma che automatizza la distribuzione, la configurazione e gestione del ciclo di vita dei “software switch” che utilizzano il sistema operativo PicOS, sviluppato, insieme ad AmpCon, dalla californiana Pica8. Fornisce un’interfaccia utente Web ed è distribuito come appliance software che viene eseguita in una virtual machine sul data center o in cloud. AmpCo supporta la distribuzione remota e la scalabilità di migliaia di unità virtuali di switching. Infine, c’è Puppet, che è sia un framework sia un linguaggio, utilizzato dai professionisti della “system operation” per definire operazioni come la distribuzione del software e le verifiche di compliance, consentendo così l’automazione di queste attività tramite script appositamente creati. Disponibile sia in versione open source, sia in edizione proprietaria “enterprise”, Puppet crea le definizioni e il flusso di lavoro che vengono implementati dal framework, offrendo un linguaggio comune e la piena compatibilità su un’ampia gamma di dispositivi. Molte organizzazioni dotate di data center utilizzano Puppet per automatizzare processi complessi che coinvolgono diverse componenti hardware e software.