Le GPU alla base della nuova più grande rete neurale artificiale al mondo

L’apprendimento automatico accelerato da GPU può vantare migliori capacità di riconoscimento di oggetti, parole, audio, immagini e video

NVIDIA annuncia di aver collaborato con un team di ricerca della Stanford University per creare la più grande rete neurale al mondo, che è stata realizzata per simulare come la mente umana impara. Questa rete è 6,5 volte maggiore di quella precedente che deteneva il record e che era stata sviluppata da Google nel 2012.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Le reti neurali simulate a computer sono capaci di imparare come fa la mente umana, incluso il riconoscimento degli oggetti, delle persone, delle voci e dei suoni.

Creare reti neurali su larga scala è molto dispendioso in termini di risorse computazionali. Per esempio, Google ha utilizzato server basati su circa 1.000 CPU o 16.000 core CPU per sviluppare la sua rete neurale, che aveva imparato a riconoscere i gatti in una serie di video di YouTube. La rete comprendeva 1,7 miliardi di parametri e la rappresentazione virtuale delle connessioni tra neuroni.

Al contrario, il team di Stanford, guidato da Andrew NG, direttore dell’Artificial Intelligence Lab dell’Università, ha creato una rete della stessa entità con solo tre server, utilizzando le GPU NVIDIA per processare più velocemente la gran mole di dati generati dalla rete. Con 16 server accelerati da GPU NVIDIA, il team ha dato vita una rete neurale con 11,2 miliardi di parametri, ossia 6,5 volte maggiore di quella annunciata da Google nel 2012.

Tanto più grande e potente è la rete neurale, quanto più accurato è, ad esempio, il riconoscimento di oggetti, consentendo ai computer di avvicinarsi di più al modello della mente umana. Un documento relativo alla ricerca di Stanford è stato pubblicato ieri in occasione dell’International Conference on Machine Learning.

Leggi anche:  Equinix espande l’impiego di energia rinnovabile in mercati ad alto impatto

“Offrendo livelli decisamente superiori rispetto alle prestazioni delle CPU, gli acceleratori GPU portano alle masse i modelli di rete neurale su larga scala.”, ha dichiarato Sumit Gupta, general manager of the Tesla Accelerated Computing Business Unit di NVIDIA. “Qualsiasi ricercatore o azienda può ora utilizzare le ‘macchine’ per risolvere tutti i problemi di vita reale con solo pochi server accelerati da GPU.”

Gli acceleratori GPU al cuore dell’Apprendimento Automatico

L’apprendimento automatico, una branca in forte espansione nell’ambito dell’Intelligenza Artificiale (AI), si occupa di far agire i computer senza essere stati esplicitamente programmati. Nel decennio passato, questa scienza ci ha consentito di arrivare alle “self-driving car”, a una ricerca web efficiente e a una comprensione più approfondita del genoma umano. Molti ricercatori credono sia il miglior modo per fare progressi verso l’AI di livello umano.

Una delle Aziende che utilizzano le GPU in quest’area è Nuance, Azienda leader nello sviluppo del software di riconoscimento vocale. Nuance “allena” i suoi modelli di rete neurale per riconoscere diverse parole, utilizzando migliaia di ore di audio. Una volta che i modelli sono stati “allenati”, possono riconoscere il modello delle parole parlate unendole a quelle imparate in precedenza.

“Le GPU stanno significativamente velocizzando il training su grandi quantità di dati, consentendoci di esplorare rapidamente algoritmi e tecniche per l’apprendimento”, ha affermato Vlad Sejnoha, chief technology officer di Nuance. “I modelli che ne risultano migliorano l’accuratezza di tutte le tecnologie di Nuance nell’ambito dei mercati dell’healthcare, dell’enterprise e del mobile-consumer”.

NVIDIA esporrà in occasione dell’International Supercomputing Conference (ISC) 2013 a Lipsia, in Germania, questa settimana, dal 16 al 20 Giugno, presso lo stand #220.

Leggi anche:  Xiaomi si tuffa nel mercato dell'auto e sfida Tesla