Sfruttare i Big Data per migliorare la nostra vita. Parola di Intel

La capacità di analizzare e interpretare i big data offre la possibilità concreta di trasformare la società favorendo nuove scoperte scientifiche, nuovi modelli di business e nuove esperienze per i consumatori. Eppure, solo una piccola percentuale di organizzazioni e aziende è oggi in grado di ricavare informazioni significative da tutti questi dati, perché le tecnologie, le tecniche e le competenze ad ora disponibili sono troppo rigide per la tipologia di dati che si analizza o troppo costose da implementare. La distribuzione Intel per il software Apache Hadoop si basa sul silicio per offrire prestazioni e sicurezza all’avanguardia che consentano di utilizzare in modo più efficace i Big data

Per assicurare a più organizzazioni e persone la possibilità di utilizzare i cosiddetti “big data”, le notevoli quantità di dati generati – raccolti e archiviati ogni giorno – Intel ha annunciato la disponibilità del software Intel Distribution for Apache Hadoop (Intel Distribution). L’offerta software che include Intel manager for Apache Hadoop parte dal silicio per offrire prestazioni e sicurezza all’avanguardia.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

La capacità di analizzare e interpretare i big data offre la possibilità concreta di trasformare la società favorendo nuove scoperte scientifiche, nuovi modelli di business e nuove esperienze per i consumatori. Eppure, solo una piccola percentuale di organizzazioni e aziende è oggi in grado di ricavare informazioni significative da tutti questi dati, perché le tecnologie, le tecniche e le competenze ad ora disponibili sono troppo rigide per la tipologia di dati che si analizza o troppo costose da implementare.

Hadoop è un framework open source per l’archiviazione e l’elaborazione di notevoli volumi di dati diversificati su server cluster scalabili, ritenuto ultimamente come piattaforma di riferimento per la gestione dei Big data. Con ancora più informazioni generate da miliardi di sensori e sistemi intelligenti previsti nel prossimo futuro, il framework è indispensabile che rimanga aperto e scalabile, oltre a rispondere ai requisiti elevati di prestazioni, sicurezza e gestione di fascia enterprise.

Leggi anche:  Brother trionfa agli "iF DESIGN AWARD 2024"

“Persone e macchine producono informazioni preziose che potrebbero arricchire la nostra vita in molti modi, dalla massima accuratezza nelle previsioni di condizioni meteorologiche critiche alla pianificazione di cure personalizzate per le patologie terminali”, ha commentato Boyd Davis, Vice President e General Manager della Datacenter Software Division di Intel. “Intel è impegnata a contribuire con i miglioramenti – atti a utilizzare tutta la potenza di calcolo – a disposizione della comunità open source per fornire al settore una base più solida da cui partire per oltrepassare i limiti dell’innovazione e realizzare le opportunità di trasformazione offerte dai big data.”

Prestazioni e sicurezza: la differenza Intel

Intel offre una piattaforma aperta e innovativa basata su Apache Hadoop, in grado di tenere il passo con la rapida evoluzione dell’analisi dei big data. Intel Distribution è la prima soluzione a fornire una crittografia completa con il supporto di Intel AES New Instructions (Intel AES-NI) nei processori Intel Xeon. Incorporando il supporto per la crittografia basato sul silicio del Distributed File System Hadoop, le organizzazioni possono ora analizzare con maggiore sicurezza i loro set di dati senza comprometterne le prestazioni.

Le ottimizzazioni apportate per le tecnologie di rete e di I/O nella piattaforma del processore Intel Xeon consentono inoltre di raggiungere nuovi livelli di prestazioni analitiche. L’analisi di un terabyte di dati, che in precedenza richiedeva più di quattro ore di elaborazione, può ora essere svolta in sette minuti (secondo test Intel), grazie alla combinazione della capacità di calcolo dell’hardware Intel e di Intel Distribution. Considerando che nel mondo vengono generati 1.000 terabyte o un petabyte di dati ogni 11 secondi, ovvero l’equivalente di 13 anni di video HD, la potenza della tecnologia Intel apre le porte a possibilità ancora più sorprendenti.

Leggi anche:  Labelling Lifecycle Management

Ad esempio, in un ambiente ospedaliero l’intelligenza derivante da questi dati potrebbe contribuire a migliorare l’assistenza ai pazienti, consentendo agli operatori di eseguire diagnosi più rapide e accurate e a stabilire l’efficacia dei farmaci, le interazioni tra medicine, i consigli sui dosaggi e i possibili effetti collaterali tramite l’analisi di milioni di cartelle cliniche elettroniche, dati della sanità pubblica e quelli provenienti delle richieste di rimborso. Esistono delle linee guida molto rigorose per proteggere le informazioni sulla salute e sui pagamenti, imponendo la massima sicurezza e privacy durante l’esecuzione di analisi.

L’aggiunta di Intel Manager for Apache Hadoop semplifica l’installazione, la configurazione e il monitoraggio del cluster per gli amministratori di sistema che desiderano distribuire nuove applicazioni. Utilizzando Intel Active Tuner for Hadoop Software è possibile configurare automaticamente le prestazioni ottimali, senza basarsi su congetture. Finora, era necessario conoscere nello specifico in che modo ogni applicazione utilizzava le risorse, oltre ai benchmark di prestazioni e configurazione di Hadoop.

Intel collabora con partner strategici per integrare questo software in diverse piattaforme e soluzioni di nuova generazione, e per favorirne la distribuzione in ambienti cloud pubblici e privati. Intel Distribution è disponibile negli Stati Uniti e in Cina ed è supportata da 1degreenorth, AMAX, Cisco, Colfax Corporation, Cray, Datameer, Dell, En Pointe, Flytxt, Hadapt, HStreaming, Infosys, LucidWorks, MarkLogic, NextBio, Pentaho, Persistent Systems, RainStor, Red Hat, Revolution Analytics, SAP, SAS, Savvis, a CenturyLink company, Silicon Mechanics, SoftNet Solutions, Super Micro Computer, Tableau Software, Teradata, T-Systems, Wipro and Zettaset.

Un approccio completo ai big data

Il nuovo software amplia la vasta gamma di prodotti Intel per data center, networking, storage e sistemi intelligenti. Intelligent Systems Framework, una serie di sistemi interoperabili introdotti di recente e progettati per favorire la connettività, la gestione e la sicurezza tra dispositivi intelligenti in modo uniforme e scalabile, definisce le basi per consentire la raccolta, l’analisi e la distribuzione di informazioni preziose per l’analisi end-to-end, dal dispositivo al data center.

Leggi anche:  Lenovo presenta ThinkPad P1 Gen 7, workstation mobile AI-ready

Intel continua inoltre a investire in ricerca e capitali per l’ulteriore sviluppo dell’ecosistema dei big data. Intel Labs svolge un ruolo di primo piano nella ricerca analitica avanzata, con lo sviluppo tra l’altro diIntel Graph Builder for Apache Hadoop software, una libreria per comporre grandi set di dati in grafici in modo da visualizzarne le relazioni. Essoè ottimizzato per Intel Distribution for Apache Hadoop per contribuire a ridurre i tempi di sviluppo eliminando la necessità di sviluppare grandi quantità di codice personalizzato. Nel frattempo, Intel Capital ha effettuato ingenti investimenti in tecnologie dirompenti per l’analisi dei big data, ad esempio nella società 10gen di MongoDB e nel fornitore di soluzioni per l’analisi di grandi volumi di dati Guavus Analytics.