Infinidat introduce la Reference Architecture per i workflow basati su Retrieval-Augmented Generation

Infinidat introduce la Reference Architecture per i workflow basati su Retrieval-Augmented Generation
Eric Herzog, CMO di Infinidat

Una componente chiave per migliorare la precisione dell’intelligenza artificiale per le aziende

Infinidat, azienda leader in soluzioni storage di livello enterprise, presenta l’architettura di distribuzione per i workflow RAG (Retrieval-Augmented Generation), che consente alle aziende di sfruttare appieno l’Intelligenza Artificiale Generativa (GenAI). Questo approccio migliora notevolmente la precisione e la pertinenza dei modelli di Intelligenza Artificiale, utilizzando dati aggiornati e privati provenienti da più fonti aziendali, inclusi dati strutturati e non strutturati, come database prodotti dalle piattaforme Infinidat già esistenti.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Grazie all’architettura RAG di Infinidat, le aziende possono utilizzare i sistemi di storage InfiniBox e InfiniBox SSA come base per ottimizzare l’output dei modelli di Intelligenza Artificiale senza necessità di acquistare attrezzature specializzate. Infinidat offre, inoltre, la flessibilità di impiegare il RAG in un ambiente multi-cloud ibrido grazie a InfuzeOS Cloud Edition, rendendo l’infrastruttura di storage un asset strategico per sfruttare il valore delle applicazioni GenAI.

“Infinidat avrà un ruolo fondamentale nelle implementazioni RAG, sfruttando i dati presenti sui sistemi di storage enterprise InfiniBox, che sono ideali per i workload AI basati sul recupero di dati”, ha dichiarato Eric Herzog, CMO di Infinidat. “I database vettoriali, essenziali per aumentare la precisione dei modelli di Intelligenza Artificiale Generativa, funzionano estremamente bene nell’ambiente di storage Infinidat. I nostri clienti possono implementare RAG sulla loro infrastruttura di storage esistente, sfruttando le elevate performance del sistema InfiniBox, la più bassa latenza del settore e l’esclusiva tecnologia Neural Cache, per risposte rapide e accurate ai workload GenAI”.

RAG arricchisce i modelli AI con dati rilevanti e privati recuperati dai database vettoriali di un’azienda. Database vettoriali forniti da vendor come Oracle, PostgreSQL, MongoDB e DataStax Enterprise vengono utilizzati nel processo di inferenza AI successivo all’addestramento. All’interno di un framework GenAI, RAG consente alle aziende di auto-generare risposte più accurate, informate e affidabili alle query degli utenti. Questo permette ai modelli di apprendimento AI, come Large Language Model (LLM) o Small Language Model (SLM), di far riferimento a informazioni e conoscenze che vanno oltre i dati su cui sono stati addestrati. Non solo personalizza i modelli generali con le informazioni più aggiornate dell’azienda, ma elimina anche la necessità di riaddestrare continuamente tali modelli AI, che richiedono molte risorse.

Leggi anche:  L'85% dei Decision Maker esprime un forte interesse per soluzioni di IA sul posto di lavoro ma l'82% i non è preparato alla sua integrazione

“Infinidat si sta affermando in qualità di facilitatore dell’inferenza RAG nello spazio GenAI”, ha dichiarato Marc Staimer, Presidente di Dragon Slayer Consulting. “RAG rappresenta un’area ad alto valore propositivo per un provider di soluzioni di storage enterprise, che offre prestazioni elevate, disponibilità garantita al 100%, scalabilità e cyber resilience, facilmente applicabili all’inferenza RAG LLM. Poiché l’inferenza RAG fa parte di quasi tutti i progetti AI aziendali, l’opportunità per Infinidat di espandere il proprio impatto nel mercato enterprise con la sua architettura di riferimento RAG altamente mirata è significativa.”

“Infinidat unisce storage enterprise e Intelligenza Artificiale Generativa in modo importante, fornendo un’architettura RAG che aumenterà la precisione dell’AI. Infatti, applicare questa architettura dove vengono effettivamente archiviati i dati dell’azienda ha perfettamente senso. Questo è un ottimo esempio di come Infinidat stia proiettando lo storage enterprise verso un futuro potenziato dall’AI,” ha affermato Stan Wysocki, Presidente di Mark III Systems.

Ottimizzare l’AI nell’Infrastruttura di Storage enterprise

I risultati non accurati o fuorvianti di un modello GenAI, noti come “allucinazioni AI”, sono un problema comune che ha rallentato l’adozione di tale tecnologia all’interno delle aziende. Una “allucinazione AI” può presentare informazioni inesatte come “fatti”, citare dati inesistenti o fornire attribuzioni false – tutti problemi che danneggiano la reputazione dell’Intelligenza Artificiale e richiedono un continuo perfezionamento delle query. Focalizzarsi sui modelli AI senza una strategia RAG tende a fare affidamento su grandi quantità di dati pubblici, sottoutilizzando i dati proprietari dell’azienda.

Per affrontare questa sfida, Infinidat mette a disposizione la propria architettura per consentire alle aziende di perfezionare continuamente una pipeline RAG con nuovi dati, riducendo il rischio di allucinazioni AI. Migliorando l’accuratezza delle informazioni fornite dai modelli AI, Infinidat contribuisce a realizzare le promesse dell’Intelligenza Artificiale Generativa per le aziende. La soluzione di Infinidat può includere un numero qualsiasi di piattaforme InfiniBox e consente l’estendibilità a soluzioni di storage di terze parti tramite protocolli basati su file, come NFS.

Leggi anche:  TeamSystem: pronti 250 milioni di euro di investimenti sull’Intelligenza Artificiale

Inoltre, per semplificare e accelerare l’implementazione di RAG per le aziende, Infinidat consente l’integrazione con le soluzioni fornite dai cloud provider, grazie alla pluripremiata InfuzeOS Cloud Edition per AWS e Azure, permettendo a RAG di funzionare in una configurazione di cloud ibrido. La combinazione di modelli AI e RAG è una componente chiave per definire il futuro dell’Intelligenza Artificiale Generativa.