Nutanix: i principali trend tecnologici nell’era dell’intelligenza artificiale

La prima Carta dei Principi in Italia per un uso consapevole dei sistemi di AI in ambito forense

Il futuro dell’IA sarà segnato dal raggiungimento di importanti traguardi che porteranno a profondi cambiamenti nel settore e a viaggi interstellari

L’intelligenza artificiale (IA) si è rivelata una grande novità che sta portando a benefici concreti con un impatto reale sul business delle aziende, diventando un carico di lavoro principale nelle operations IT. Gli osservatori del mercato sono concordi nell’affermare che l’intelligenza artificiale rivoluzionerà il modo in cui le aziende raggiungono i propri obiettivi aziendali, la domanda è in che modo avverrà effettivamente questa trasformazione.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Secondo il report Nutanix State of Enterprise AI Report 2023, l’intelligenza artificiale sta avendo un notevole impatto sulle strategie e sulle risorse IT.  Secondo il report, che include le risposte di oltre 650 responsabili IT, DevOps ed Platform Engineering, per il 90% degli intervistati la sicurezza e l’affidabilità dell’intelligenza artificiale sono tra le principali preoccupazioni e in molti stanno pianificando di migliorare le funzionalità di protezione e ripristino dei dati. Il report illustra inoltre come l’intelligenza artificiale non sia limitata a un unico luogo, l’83% degli intervistati, ad esempio, prevede di incrementare i propri investimenti nell’edge IA. Inoltre, in molti pensano che l’infrastruttura IT attuale non sia progettata per l’intelligenza artificiale, con il 91% degli intervistati che ritiene sia giunto il momento di modernizzarsi.

“Le applicazioni e i servizi basati sull’intelligenza artificiale sono pensati per le architetture multicloud ibride”, ha dichiarato Induprakas Keri, Senior Vice President and General Manager of hybrid multicloud di Nutanix. “Le fasi del flusso di lavoro dell’IA avverranno in diversi ambienti infrastrutturali: l’addestramento all’interno del cloud, il perfezionamento e il training nei principali data center e l’inferenza nell’edge. Il conseguimento di un’infrastruttura coesa e scalabile in grado di coprire l’intero workflow dell’IA sarà la chiave per il successo”.

Leggi anche:  Riva Acciaio digitalizza il ciclo passivo grazie alla partnership tra Esker Italia ed Elmec

Di seguito i principali trend individuati da Nutanix nell’ambito dell’intelligenza artificiale che influenzeranno l’anno appena iniziato.

L’intelligenza artificiale sarà trasformativa

Non serve avere una sfera di cristallo per prevederlo. Ma per cogliere davvero la portata dell’imminente cambiamento bisogna andare oltre concetti astratti come “rivoluzionario” o “trasformativo” e visualizzare realmente i risultati finali di una tecnologia che migliora costantemente se stessa attraverso il machine learning. Può sembrare un’ovvietà dire che l’intelligenza artificiale trasformerà le cose, ciò che potrebbe risultare meno scontato è che probabilmente l’IA verrà utilizzata per compiere viaggi interstellari.

La gestione dei modelli sarà fondamentale

Man mano che i modelli di intelligenza artificiale prolifereranno e si evolveranno, le aziende dovranno assicurarsi che siano aggiornati, sicuri e che funzionino in modo ottimale. Serve una gestione efficace dei modelli per garantire che i sistemi di intelligenza artificiale siano affidabili e in grado di adattarsi ai cambiamenti del settore.

Le aziende si affideranno sempre più al cloud ibrido

L’intelligenza artificiale è il caso d’uso “definitivo” del cloud ibrido. Si utilizzano i dati pubblici per creare un modello di base ma ciò non è sufficiente per un’azienda. È necessario perfezionare e ampliare un modello di base per renderlo adatto al proprio business, e questo può essere fatto solo nel proprio data center, perché nel momento in cui lo si fa con l’infrastruttura as-a-service, si perde il controllo dei propri dati. Inoltre, tutte le inferenze avvengono nell’edge.

Tornerà l’algebra lineare

È tempo di rispolverare i libri di testo perché il delicato argomento dell’algebra lineare sarà fondamentale per far progredire le applicazioni dell’intelligenza artificiale, così come l’elaborazione del linguaggio naturale e la visione artificiale. Molte operazioni di IA, come ad esempio le trasformazioni, le rotazioni e il ridimensionamento, sono operazioni di algebra lineare. Si è scoperto che numerose operazioni di intelligenza artificiale implicano la moltiplicazione di matrici e vettori: ad esempio le parole possono essere rappresentate come vettori e le immagini come matrici di pixel. Una buona conoscenza dell’algebra lineare aiuterà a comprendere i modelli che tracciano il modo in cui i cambiamenti influiscono sull’output, per eseguire il debug e migliorare i modelli di intelligenza artificiale, e questo è fondamentale per analizzare e dare significato ai massicci e complessi set di dati utilizzati nelle applicazioni di intelligenza artificiale.

Leggi anche:  I software di Assortment Optimization sono amici dell’ambiente

Le GPU verranno detronizzate

Le unità di elaborazione grafica (GPU) hanno regnato sovrane nel mondo del calcolo ad alte prestazioni che alimenta i sistemi di intelligenza artificiale, in particolare per attività che richiedono elaborazione parallela, come il rendering video e il deep learning. Tuttavia, altre tecnologie sono pronte a sfidare le GPU poiché i ricercatori stanno facendo grandi passi avanti nell’utilizzo di Tensor Processing Unit (TPU), Field-Programmable Gate Array (FPGA) e persino di unità di elaborazione centrale (CPU) per scopi generici. Le GPU dunque non regneranno sovrane per sempre, il software aiuterà i sistemi IT a scegliere le risorse di elaborazione maggiormente disponibili ed efficienti.

L’infrastruttura “scale-out” sarà essenziale

A differenza dell’architettura “scale-up”, in cui l’espansione è verticale e implica l’aggiunta di più potenza su una macchina esistente (ad esempio più CPU), l’infrastruttura “scale-out” è orizzontale e prevede l’aggiunta di più macchine o nodi a una rete per aumentare la capacità. Trattandosi di un’app cloud ibrida – e poiché i modelli devono attraversare l’intero percorso dall’edge al data center, al cloud pubblico – è assolutamente necessario farlo con un’infrastruttura scalabile.