I nuovi chip sono la risposta di Big G alla strategia di business di AWS
Durante l’edizione 2024 di Cloud Next, Google ha annunciato un nuovo processore Axion. Si tratta della prima CPU basata su Arm di Google creata appositamente per i data center, progettata utilizzando la CPU Neoverse V2 di Arm. Secondo Big G, Axion offre prestazioni migliori del 30% rispetto ai suoi strumenti generici più veloci basati su Arm nel cloud e del 50% migliori rispetto alle più recenti e comparabili VM basate su x86. L’azienda sottolinea inoltre che è il 60% più efficiente dal punto di vista energetico rispetto alle stesse VM basate su x86. Google sta già utilizzando Axion in servizi come BigTable e Google Earth Engine, e in futuro lo espanderà ulteriormente. Il rilascio di Axion potrebbe portare Google in concorrenza con Amazon, che ha guidato il campo delle CPU basate su Arm per data center. Il business cloud dell’azienda, Amazon Web Services (AWS), ha rilasciato il processore Graviton nel 2018, con una seconda e terza iterazione nei due anni successivi. Nvidia intanto ha lanciato la sua prima CPU basata su Arm per data center nel 2021 denominata Grace, seguita da nomi nuovi nel campo, come Ampere.
Google sviluppa i propri processori ormai da diversi anni, ma questi si erano finora concentrati sui prodotti di consumo. Il primo Tensor su Arm è approdato sugli smartphone Pixel 6 e 6 Pro, rilasciati alla fine del 2021. I successivi telefoni Pixel sono stati tutti alimentati da versioni aggiornate di Tensor. In precedenza Google aveva sviluppato la “Tensor Processing Unit” (TPU) per i suoi data center. L’azienda ha iniziato a utilizzarli internamente nel 2015, e annunciati pubblicamente nel 2016 con una disponibilità solo nel 2018. I processori basati su Arm rappresentano spesso un’opzione più economica e più efficiente dal punto di vista energetico. L’annuncio di Google è arrivato subito dopo che il CEO di Arms, Rene Haas, ha lanciato un avvertimento sull’utilizzo energetico dei modelli di intelligenza artificiale. Ha definito modelli come ChatGPT “insaziabili” per quanto riguarda il loro bisogno di elettricità. “Più informazioni raccolgono, più sono intelligenti, ma più informazioni raccolgono per diventare più intelligenti, maggiore è la potenza necessaria” ha affermato Haas. Entro la fine del decennio, i data center AI potrebbero consumare dal 20% al 25% del fabbisogno energetico degli Stati Uniti mentre oggi siamo circa al 4%.