ARM presenta i nuovi chip di elaborazione IA edge

Microsoft sta realizzando chip personalizzati per il cloud

Novità concrete che portano ARM a fare un salto in avanti fondamentale in quanto a computing basato su intelligenza artificiale

Arm sta raddoppiando la sua offerta in hardware AI, un mercato che dovrebbe valere 1,15 miliardi di dollari entro il 2023. Di recente, ha annunciato due nuovi processori compatibili: ARM Cortex-M55 ed Ethos-U55, un’unità di elaborazione neurale (NPU), progettata per dispositivi Internet of Things (IoT).

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La società sostiene che i due chip, che dovrebbero arrivare sul mercato all’inizio del 2021, forniranno insieme un aumento fino a 480 volte delle prestazioni di apprendimento automatico in determinati scenari. «L’elaborazione [machine learning] su dispositivi endpoint a bassa potenza è fondamentale per realizzare il pieno potenziale dell’IA per l’IoT» afferma ARM – «Ed è necessaria una vasta gamma di funzionalità hardware avanzate per consentire innovazione e scalabilità».

ARM: futuro roseo per l’intelligenza artificiale

Andando più nel dettaglio, il Cortex-M55, il più recente membro del portafoglio di processori ARM Cortex-M, offre fino a 15 volte un aumento delle prestazioni IA rispetto alle precedenti generazioni, nonché istruzioni personalizzate e opzioni di configurazione. Come l’Ethos-U55, è disponibile in un progetto di riferimento – Corstone-300 – fornito con un numero di sottosistemi protetti e un kit di strumenti con cui costruire sistemi embedded sicuri. Il Cortex-M55 ha anche la particolarità di essere il primo SoC basato sulla tecnologia ARM’s Helium, un’estensione dell’architettura ARMv8.1-M che è ottimizzata per funzionalità a bassa potenza e aggiunge oltre 150 nuove istruzioni scalari e vettoriali.

Helium consente un calcolo efficiente a 8, 16 e 32 bit, gli ultimi due dei quali sono ampiamente utilizzati nelle tradizionali applicazioni di elaborazione del segnale audio. Per quanto riguarda il formato a 8 bit, è comune nell’elaborazione dell’apprendimento automatico come il calcolo della rete neurale e l’elaborazione delle immagini, che integra tipi di dati tra cui single-precision float (32-bit) e half-precision float (16-bit).

Leggi anche:  Nella sanità UE persi ogni anno 5 milioni di giorni di lavoro