HPE accelera l’addestramento dell’AI con una nuova soluzione in collaborazione con NVIDIA

Medallia lancia quattro innovazioni rivoluzionarie nel campo dell'AI

Una nuova soluzione HPE, dedicata a centri di ricerca e grandi imprese per accelerare l’AI generativa, integra software, hardware, reti e servizi di AI/ML considerata leader in questo settore

Hewlett Packard Enterprise ha annunciato una soluzione di supercomputing per l’intelligenza artificiale generativa progettata per grandi imprese, istituti di ricerca e organizzazioni governative per accelerare la formazione e la messa a punto dei modelli di intelligenza artificiale (AI) utilizzando set di dati privati. Questa soluzione comprende una suite software che consente ai clienti di addestrare e mettere a punto modelli e sviluppare applicazioni AI. La soluzione include anche supercomputer raffreddati a liquido, elaborazione accelerata, reti, storage e servizi per aiutare le organizzazioni a sbloccare il valore dell’intelligenza artificiale più rapidamente.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

“Le aziende e i centri di ricerca leader a livello mondiale stanno addestrando e mettendo a punto modelli di intelligenza artificiale per promuovere l’innovazione e rivoluzionare la ricerca, ma per farlo in modo efficace ed efficiente, hanno bisogno di soluzioni mirate”, ha affermato Justin Hotard, executive vice president e general manager, HPC, AI & Labs di Hewlett Packard Enterprise. “Per supportare l’intelligenza artificiale generativa, le organizzazioni devono sfruttare soluzioni sostenibili e capaci di assicurare le prestazioni e le dimensioni di un supercomputer dedicato per supportare l’addestramento dei modelli di AI. Siamo entusiasti di espandere la nostra collaborazione con NVIDIA per offrire una soluzione “AI-native” chiavi in mano che aiuterà i nostri clienti ad accelerare in modo significativo la fase di addestramento  e i risultati dei modelli AI”.

Gli strumenti software per creare applicazioni di intelligenza artificiale, personalizzare modelli predefiniti e sviluppare e modificare codice sono componenti chiave di questa soluzione di supercalcolo per l’intelligenza artificiale generativa. Il software è integrato con la tecnologia di supercalcolo HPE Cray, basata sulla stessa potente architettura utilizzata nel supercomputer più veloce del mondo, e sfrutta i superchip NVIDIA Grace Hopper GH200. Così, questa soluzione offre alle organizzazioni la scalabilità e le prestazioni senza precedenti richieste per i grandi carichi di lavoro di intelligenza artificiale, come il training degli LLM (Large Language Model) e dei DLRM (Deep Learning Recommendation Model). Utilizzando HPE Machine Learning Development Environment su questo sistema, il modello open source da 70 miliardi di parametri “Llama2” è stato messo a punto in meno di 3 minuti per un immediato e più veloce time to market per i clienti. Le funzionalità avanzate di supercalcolo di HPE, supportate dalle tecnologie NVIDIA, migliorano le performance del sistema di circa 2-3 volte rispetto al passato

Leggi anche:  La gestione delle HR nell’era della digitalizzazione dei processi

“L’intelligenza artificiale generativa sta trasformando ogni attività industriale e scientifica”, ha affermato Ian Buck, vice president Hyperscale e HPC di NVIDIA. “La collaborazione di NVIDIA con HPE su questa soluzione chiavi in mano di addestramento e simulazione di modelli di IA, basata sui superchip NVIDIA GH200 Grace Hopper, fornirà ai clienti prestazioni capaci di far fare passi da gigante alle loro iniziative di intelligenza artificiale generativa”.

Una potente soluzione AI integrata

La nuova soluzione di supercalcolo per l’intelligenza artificiale generativa rappresenta un’offerta AI-native, integrata e appositamente creata che include le seguenti tecnologie e servizi in modalità “end-to-end”:

  • Software di accelerazione AI/ML – Una suite di tre strumenti software aiuterà i clienti ad addestrare e ottimizzare i modelli di intelligenza artificiale e a creare le proprie applicazioni AI.
    • HPE Machine Learning Development Environment è una piattaforma software di machine learning (ML) che consente ai clienti di sviluppare e distribuire modelli di intelligenza artificiale più rapidamente integrandosi con i framework di ML più diffusi e semplificando la preparazione dei dati.
    • NVIDIA AI Enterprise apre le porte verso un’intelligenza artificiale all’avanguardia con sicurezza, stabilità, gestibilità e supporto. Offre framework estesi, modelli preaddestrati e strumenti che semplificano lo sviluppo e l’implementazione dell’IA di produzione.
    • La suite HPE Cray Programming Environment offre ai programmatori un set completo di strumenti per lo sviluppo, il porting, il debug e il perfezionamento del codice.
  • Progettata per la scalabilità – basata su HPE Cray EX2500, un sistema di classe exascale e dotata dei superchip Grace Hopper NVIDIA GH200 leader del settore, la soluzione è scalabile fino a migliaia di unità di elaborazione grafica (GPU) con la possibilità di dedicare l’intera capacità dei nodi a supporto di un singolo carico di lavoro AI per un time-to-value più rapido. Il sistema è il primo a offrire la configurazione quad NVIDIA Grace Hopper GH200 Superchip.
  • Un network per l’AI in real time – HPE Slingshot Interconnect offre un open network ad alte prestazioni basato su Ethernet e progettato per supportare workload di classe exascale. Basato sulla tecnologia HPE Cray, questo network personalizzabile potenzia le prestazioni dell’intero sistema consentendo una velocità di networking estremamente elevata.
  • Chiavi in mano – La soluzione è completata da HPE Complete Care Services, che mette a disposizione specialisti per la configurazione, l’installazione e l’assistenza per l’intero ciclo di vita, così da semplificare l’adozione dell’AI.
Leggi anche:  Lenovo sostiene lo sviluppo dell’Hybrid AI per soddisfare i workload più intensi

Il futuro del supercalcolo e dell’intelligenza artificiale sarà più sostenibile

Entro il 2028, si stima che la crescita dei carichi di lavoro dell’intelligenza artificiale richiederà circa 20 gigawatt di potenza all’interno dei data center. I clienti richiederanno soluzioni che offrano un nuovo livello di efficienza energetica per ridurre la loro impronta di carbonio.

L’efficienza energetica è un fattore centrale per HPE che sviluppa soluzioni con funzionalità di raffreddamento a liquido in grado di garantire un miglioramento delle prestazioni fino al 20% per kilowatt rispetto alle soluzioni raffreddate ad aria e consumare il 15% in meno di energia.

Oggi sono firmati HPE la maggior parte dei 10 supercomputer più efficienti al mondo, anche grazie all’utilizzo del raffreddamento diretto a liquido (DLC), presente nella soluzione di supercalcolo per l’intelligenza artificiale generativa per raffreddare in modo efficiente i sistemi riducendo al tempo stesso il consumo energetico per le applicazioni ad alta intensità di calcolo.

HPE è in una posizione unica per aiutare le organizzazioni a sfruttare le tecnologie computazionali più potenti per portare avanti i propri obiettivi di intelligenza artificiale, contribuendo al contempo a ridurre il consumo di energia.