Un progetto avanzato vince la sfida dello storage al Supercomputing 2010
Nell’ambito della conferenza sul Supercomputing, IBM ha presentato i dettagli di una nuova concezione di architettura di storage, che convertirà terabyte di informazioni pure in elementi di conoscenza utilizzabili, a una velocità doppia rispetto a quanto possibile attualmente.
Ideale per le applicazioni di cloud computing e i carichi di lavoro ad alta intensità di dati, come media digitali, data mining e analitica finanziaria, questa nuova architettura eliminerà ore di calcoli complessi, senza richiedere pesanti investimenti in infrastruttura.
Gestire applicazioni di business analytics su insiemi di dati estremamente grandi sta diventando sempre più importante, tuttavia esiste un limite alla capacità delle organizzazioni di aumentare le dimensioni delle proprie strutture di storage.
Proprio per questo le aziende cercano nuovi modi per sfruttare i grandi dati archiviati e necessitano di soluzioni alternative, come il cloud computing, per gestire con flessibilità i carichi di lavoro attraverso il provisioning rapido delle risorse di sistema, per tipologie diverse di carichi di lavoro.
Creata presso il centro di Ricerca di Almaden, la nuova architettura General Parallel File System-Shared Nothing Cluster (GPFS-SNC) è progettata per fornire una disponibilità più elevata, grazie a tecnologie di clustering avanzate, gestione dinamica del file system e tecniche di replica dei dati avanzate.
Grazie al fatto che non si condivide nulla (“sharing nothing”), è possibile raggiungere nuovi livelli di disponibilità, prestazioni e scalabilità. GPFS-SNC è un’architettura di calcolo distribuito, in cui ogni nodo è autosufficiente; i task vengono poi suddivisi tra questi computer indipendenti e nessuno è al servizio dell’altro.
L’attuale offerta GPFS di IBM è la tecnologia centrale per le soluzioni IBM High Performance Computing Systems, Information Archive, Scale-Out NAS (SONAS) e Smart Business Compute Cloud. Queste innovazioni consentono l’espansione futura di tali offerte, per continuare ad affrontare i problemi complessi legati alla crescita esponenziale del volume dei dati.
Ad esempio, le grandi istituzioni finanziarie eseguono algoritmi complessi per analizzare il rischio, sulla base di petabyte di dati. Con miliardi di file sparsi tra diverse piattaforme di calcolo e archiviati in varie parti del mondo, questi calcoli “mission-critical”, per via della loro complessità, richiedono risorse IT e costi significativi.
Grazie alla concezione GPFS-SNC, l’esecuzione di questo complesso carico di lavoro di analitica potrebbe diventare molto più efficiente, perché sono previsti file system e namespace comuni tra piattaforme di calcolo disparate, snellendo così il processo e riducendo lo spazio su disco.