A cura di Patrick Smith, CTO EMEA, Pure Storage
Non si può negare che l’intelligenza artificiale (AI) sia una delle aree di innovazione e investimento tecnologico più ampie e in maggior crescita degli ultimi anni. Considerate le numerose applicazioni pratiche di questa tecnologia, non sorprende che la AI stia supportando use cases tradizionali che vanno dalla sanità alle biotecnologie, dalla fabbricazione di chip e semiconduttori all’industria automobilistica, ai servizi finanziari e molto altro ancora.
Anche se i tool di AI generativa come ChatGPT sono venuti in auge negli ultimi mesi, in realtà la AI esiste già da diversi anni. Tuttavia, la facile accessibilità dell’ultima ondata di tool di AI generativa sta creando una quantità di dati prodotti dalle macchine in volumi ben superiori rispetto al passato, con la conseguente crescita senza precedenti dei dati non strutturati a livello mondiale. A tal proposito, IDC prevede che entro il 2025 la quantità totale di dati digitali creati in tutto il mondo arriverà a 175 zettabyte (rispetto ai circa 40 zettabyte del 2019): una stima che può essere reputata prudente, considerando l’impulso nei dati generati dalla AI a cui stiamo assistendo oggi.
Con un meccanismo simile a quello del ciclo perpetuo, superiori volumi di dati e accelerazione della AI significano una maggiore opportunità per le aziende di trasformare queste informazioni in intelligence pratica per innovare più velocemente rispetto ai concorrenti, aumentare la customer satisfaction, razionalizzare le operations e in ultima analisi accrescere il proprio successo. Tuttavia, proprio come raffiniamo il petrolio per trasformarlo in prodotti utili come i carburanti e la plastica, anche i dati devono essere raffinati e trasformati prima di poter fornire un valore. Ed è qui che entra in gioco la data analytics, sempre più spesso basata sulla AI.
Il segreto dei progetti AI di successo
Per poter utilizzare la AI e la data analytics basata sulla AI, le aziende hanno bisogno di disporre di un’infrastruttura di data storage flessibile, affidabile, performante e, forse l’aspetto più importante, anche sostenibile.
- Le prestazioni sono essenziali perché la AI movimenta senza sosta enormi quantità di dati verso le GPU. Più velocemente lo si può fare, più rapidi e precisi saranno i risultati che ne usciranno. Le risorse per la AI (GPU, data scientist) sono costose e ricercate, per cui lasciarle ferme in attesa di poter accedere ai dati può incrementare decisamente le spese. Oltre a trasmettere i dati verso le GPU è importante anche accelerare i workflow di preparazione e selezione dei dati aiutando a raccoglierli ed elaborarli a monte.
- La flessibilità serve perché la AI è probabilmente l’area tecnologica in più rapida evoluzione – tool, tecniche, data set e casistiche di utilizzo evolvono ogni singolo giorno. Di conseguenza è essenziale investire in scelte tecnologiche e infrastrutturali che permettano alle aziende di adattarsi rapidamente ai cambiamenti.
- Affidabilità di livello enterprise e i conseguenti controlli sono elementi importanti come non mai per le aziende dotate di ambienti AI, la cui natura è mission-critical e le cui interruzioni operative possono provocare costi esorbitanti. Per questo disponibilità e affidabilità sono fattori chiave. Non solo: i progetti AI sono spesso estesi e fortemente automatizzati, per cui è essenziale disporre di controlli intorno alle quote, alla sicurezza e alla facilità di gestione.
- Ultima, ma non meno importante, è una delle preoccupazioni più urgenti del pianeta: la sostenibilità.
Perché le aziende devono coniugare la AI con la sostenibilità?
Le stime attuali dicono che i datacenter assorbono tra l’1% e il 4% del consumo energetico globale. In alcuni Paesi l’espansione dei datacenter è stata addirittura fermata per mancanza di approvvigionamenti elettrici adeguati. La AI non è certo destinata a scomparire, e anzi potrà essere uno strumento decisamente positivo per l’umanità aiutandoci ad automatizzare attività ripetitive, curare le malattie in modo più efficace e comprendere meglio il nostro pianeta attraverso le dinamiche del meteo e del clima. Tuttavia, da un punto di vista ambientale, la AI non fa che aumentare le preoccupazioni legate ai consumi di energia e alle emissioni di CO2. A fronte di questa immensa sfida e opportunità, creare un’infrastruttura tecnologica efficiente e sostenibile per la AI è importante per poter mitigare il riscaldamento globale e l’impatto più nocivo del cambiamento climatico.
Come poter capitalizzare la AI in modo sostenibile?
Con l’aumentare dei volumi di dati e con l’innalzamento delle prestazioni richiesto dalla AI, il tema della sostenibilità diviene prioritario. Al crescere di tali requisiti aumentano anche i costi di alimentazione, di raffreddamento e dello spazio occupato dalle apparecchiature. Nell’attuale contesto di incremento dei costi dell’energia non si tratta solamente di una questione ambientale, ma anche operativa e finanziaria.
Per fortuna alcune aziende stanno progettando e creando prodotti e servizi che permettono ai clienti di abbattere drasticamente le rispettive impronte ambientali. Per esempio, le soluzioni storage all-flash sono decisamente più efficienti rispetto alle loro controparti basate su hard disk rotanti (HDD). In alcuni casi le soluzioni all-flash possono aiutare a risparmiare fino all’80% sui consumi diretti dei sistemi dati rispetto ai prodotti concorrenti. Cosa ancora più interessante, lo storage basato su flash è molto più adatto al funzionamento dei progetti AI.
Questo accade perché la chiave dei risultati è il collegamento dei modelli AI (o delle applicazioni basate su AI) ai dati. Per poterlo fare con successo occorrono enormi quantità di dati; questi dati non possono essere ‘freddi’ e devono comunque essere facilmente accessibili attraverso qualsiasi silo o applicazione. Ciò non è possibile quando si utilizza semplicemente storage basato su HDD: la soluzione che occorre è all-flash.
Per rafforzare ulteriormente l’adozione di scelte tecnologiche sostenibili è opportuno considerare se la vostra azienda disponga di un sustainability officer, una figura responsabile dell’impatto complessivo dell’impresa in termini di CO2. Coinvolgete questi stakeholder all’inizio del processo per assicurarvi di non trascurare alcun elemento nel vostro percorso verso una AI sostenibile.
Qual è l’aspetto del successo?
Molte aziende stanno già applicando queste best practice per avviare i propri percorsi AI. Meta, per esempio, voleva aiutare i suoi ricercatori a creare nuovi modelli di AI capaci di apprendere da trilioni di esempi, funzionare con centinaia di lingue differenti, analizzare trasparentemente testi, immagini e video tutti insieme, sviluppare nuovi tool per la realtà aumentata e molto altro ancora. Per questo la società ha deciso di creare il proprio AI Research SuperCluster (RSC) con l’intenzione di farlo diventare il supercomputer per AI più veloce del mondo.
Meta ha scelto Pure Storage dal momento che aveva bisogno di un partner che fosse in grado di fornire capacità storage robuste e scalabili per il progetto RSC. Con i sistemi Pure Storage FlashArray e FlashBlade, RSC dispone di livelli ineguagliati di prestazioni per analizzare rapidamente dati strutturati e non strutturati sfruttando le basi di prestazioni, affidabilità, flessibilità e sostenibilità che caratterizzano Pure Storage. RSC apre la strada alla realizzazione delle tecnologie per la prossima piattaforma informatica di Meta, il metaverso, nella quale le applicazioni e i prodotti basati su AI rivestiranno un ruolo importante.
Ecco come poter replicare questo successo
Per prepararsi a un mondo nel quale volumi sempre crescenti di dati non strutturati saranno oggetto di un aumentato ricorso all’analytics basata su AI, le aziende avranno bisogno di volumi colossali di storage che offra rapidità di accesso ed efficienza in termini di sostenibilità.
Le aziende dovrebbero rivolgersi a vendor la cui roadmap conduca a capacità storage flash ad alta densità in grado di gestire workload che vadano da quelli maggiormente affamati di prestazioni fino a quelli che, pur essendo attualmente categorizzati come secondari, sono in realtà destinati ad accrescere di importanza col diffondersi dell’elaborazione costante dell’AI. Le aziende dovrebbero inoltre valutare le opzioni di acquisto proposte dai vendor al fine di ottenere aggiornamenti trasparenti di capacità e tecnologia negli anni a venire.
Infine, le aziende dovrebbero rivolgersi ai provider di storage all-flash capaci di dimostrare parametri ESG verificati da terze parti, affinché i progetti AI possano essere eseguiti senza né danneggiare l’ambiente né sacrificare la redditività del business.