L’obiettivo è agevolare il lavoro degli sviluppatori con il rilascio di applicativi di intelligenza artificiale
Il machine learning e l’IA generativa sono solo due delle tipologie di utilizzo di grandi mole di dati a fine applicativi. Aumentare la capacità di calcolo permette di raggiungere miglioramenti che possono sembrare modesti nell’accuratezza dei modelli di analisi ma che in realtà si traducono in miliardi in termini di profitti. Per ottenere modelli migliori c’è bisogno di infrastrutture dedicate, che possano costantemente addestrare, valutare, iterare e riaddestrare gli algoritmi, così da sviluppare risultati e modelli performanti e precisi. In tale scenario, il GPU computing è un fenomeno in rapida crescita e innovazione, che sta trasformando il mondo della scienza, dell’ingegneria, dell’informatica e oltre. Inizialmente progettate per accelerare la grafica e l’elaborazione delle immagini, si è scoperto che le GPU possono migliorare le prestazioni anche di altre applicazioni; per esempio nella ricerca scientifica, un ambito in cui le GPU possono essere utilizzate per simulare fenomeni fisici complessi, e nell’intelligenza artificiale, campo in cui le GPU possono addestrare ed eseguire modelli di apprendimento profondo che richiedono operazioni matematiche con grandi quantità di dati.
Semplificare il rilascio di progetti IA
Un valore aggiuntivo nell’uso del cosiddetto GPU Computing è la sua integrazione con piattaforme terze, come Kubernetes. Oggi è possibile offrire i servizi di GPU Computing integrati con la principale piattaforma open-source per la gestione dei carichi di lavoro e servizi containerizzati che, in maniera simile alle virtual machine, presentano però un modello di isolamento più leggero e condividono il sistema operativo tra le applicazioni. Ed è su questa tipologia di offerta che si affaccia Seeweb. Come spiega l’azienda: “Il cloud ha permesso di facilitare in modo particolare la realizzazione di progetti che richiedono particolare potenza di calcolo ed esecuzione di task paralleli massivi e lo ha fatto permettendo di eliminare, nelle aziende e nel mondo della ricerca, problemi di gestione, aggiornamento e bilanciamento delle infrastrutture. Il concetto di containerizzazione e l’integrazione con Kubernetes aggiungono un ulteriore tassello, agevolando ancora di più il deploy e il rilascio di applicativi di intelligenza artificiale. Tutto questo per noi è sempre abbinato a una particolare possibilità di configurare l’infrastruttura in modo estremamente customizzato”.
Binomio di valore
Proprio la leggerezza di Kubernetes consente di facilitarne la portabilità tra differenti cloud e differenti distribuzioni. Di per sé, i container permettono di creare e distribuire applicazioni in modalità agile, aiutando i progetti di sviluppo, test e rilascio, con frequenza e agilità. La compatibilità con i vari sistemi operativi è massima, anche per garantire un isolamento delle risorse. L’obiettivo di Kubernetes è quello di rendere più semplice lo sviluppo e il deploy di applicativi, anche in ambito di Intelligenza Artificiale e machine learning, trend trainanti l’innovazione moderna. In particolare, la sua piattaforma è integrabile con ecosistema servizi cloud e Seeweb può offrirla sfruttando tutte le tipologie di infrastruttura private e public cloud. Si parla allora di Kubernetes as a Service integrato nei servizi di Cloud Server GPU, un binomio unico per adoperare i server cloud con le GPU dentro il cluster Kubernetes, così che le aziende possano utilizzare le macchine GPU containerizzate. Di fatto, con Kubernetes, il calcolo IA e l’apprendimento automatico accelerano e permettono di agevolare lo sviluppatore, riducendo il go-to-market.
Oggi, i servizi Cloud GPU di Seeweb danno l’opportunità all’azienda cliente di selezionare il numero di schede grafiche da associare alla singola istanza cloud GPU. Per ogni Cloud Server, quindi, è possibile scegliere fino a cinque schede grafiche, con una versatilità e potenza estrema, grazie all’uso di schede grafiche Nvidia Quadro RTX A6000, A30, L4 e A100.