Il doppio ruolo dell’intelligenza artificiale nell’affrontare i temi di sostenibilità. Come bilanciare innovazione ed efficienza energetica, evitando che i costi compromettano i benefici
Ormai più che pervasiva in processi e decisioni aziendali, l’AI sta diventando uno strumento potente anche per risolvere problemi complessi, molti di questi legati al tema della sostenibilità. Di contro, l’AI è energivora e lo sarà sempre di più. Soprattutto i processi di addestramento dei modelli richiedono enormi quantità di potenza di calcolo, dunque di energia.
L’AI rappresenta quindi sia un’opportunità che una sfida per la sostenibilità. Diversi sono i domini dove l’AI può indirizzare problemi a elevata complessità. Per esempio, spiccano: Digital twins, genoma umano e ricerche mediche avanzate, generazione energia (REN, CCS, H2…), Job scheduling problem, quantitative trading, real-time fraud detection e così via.
Ottimizzare il consumo energetico è il principale obiettivo per rendere l’AI sostenibile, intervenendo su più dimensioni. Da un lato, la crescente complessità degli algoritmi richiede un equilibrio tra prestazioni avanzate e sostenibilità, poiché la loro formulazione e implementazione risultano sempre più onerose. Parallelamente, l’ingegneria dei sistemi, sia hardware che software, punta a soluzioni sempre più efficienti e sofisticate, capaci di ridurre gli sprechi senza compromettere le capacità computazionali.
Anche i componenti HPC giocano un ruolo centrale, poiché, oltre alle alte prestazioni, devono garantire tecnologie a elevata capacità di calcolo e bassa latenza. Infine, il sourcing energetico diventa una sfida fondamentale: la crescente domanda impone la necessità di un approvvigionamento stabile e continuo.
Per ogni dimensione è possibile elencare alcune principali direzioni di sviluppo e intervento. Per la struttura degli algoritmi si cita spesso l’ottimizzazione del training emulando l’apprendimento biologico. Con riferimento alla dimensione Engineering le leve sono su hardware e software (no ridondanze, prioritizzazione cloud, ottimizzazione storage, server-less computing…) e sistemi a supporto (Cooling system efficienti, riduzione materie prime per componenti a pari performance, utilizzo di materiali innovativi e/o riciclati, anche secondari ad alta efficienza).
Una dimensione certamente rilevante è quella dei componenti HPC considerando l’uso, per esempio, di: 1) GPU per l’elaborazione in parallelo di matrici e vettori; 2) TPU per accelerare calcoli tensoriali, alta capacità di computazione e bassa latenza; 3) QPU (Quantum, Annealer e Gate-Based) per la computazione ad altissima densità; 4) FPGA per la riconfigurabilità e il calcolo parallelo; 5) ASIC per applicazioni specifiche, con migliori prestazioni, minore consumo energetico e maggiore compattezza.
Infine, l’ambito di Sourcing energetico dove considerare l’acquisto di energia (PPE, spesso da Nucleare), l’acquisto di carbon credit (RECs), la produzione in loco con mix di REN (PV, wind), nucleare (SMR/ AMR o Gen III/III+) ed energy storage (batterie).
Il “margine di sostenibilità” può essere definito come la differenza tra i benefici ambientali e sociali derivanti dall’adozione di una soluzione avanzata di AI e i costi associati. Se non si ottimizzano le dimensioni precedenti, il costo della sostenibilità può ridurre progressivamente il valore generato, portando a un margine negativo, soprattutto in mancanza di un ecosistema efficiente.
Se non si adottano misure di ottimizzazione fin dall’inizio, l’investimento necessario per rendere l’AI sostenibile aumenterà in modo esponenziale col passare del tempo, perdendo in competitività. Le aziende possono agire direttamente sull’efficientamento dei propri algoritmi, mentre per gli aspetti legati ai data center possono agire in autonomia se hanno proprie installazioni oppure fare leva su vendor che investono in strutture moderne ed efficienti.
A cura di PwC