Arriva il fog computing

fog computing

Di pari passo con l’emergere dell’Internet of Things, aumenta il consenso verso il fog computing: non un’alternativa al cloud, ma un paradigma tecnologico complementare che spinge l’acceleratore sulla decentralizzazione. Qualcuno ci scommette già

Da tempo, il cloud non è più un oggetto misterioso e vede schierata un’offerta quanto mai variegata, che ultimamente fa del cloud ibrido il vero campione di incassi. Ma è noto che per la sua stessa natura, l’IT non sta mai ferma e sforna in continuazione nuovi paradigmi, sicuramente benvenuti quando contribuiscono a facilitare il lavoro di chi si occupa di IT in azienda. Sono invece un po’ meno graditi quando non mantengono le promesse iniziali, configurandosi in quello che anni fa si sarebbe chiamato “vaporware”. Assodato che il cloud continua a mantenere le promesse iniziali e a riscuotere crescenti successi, è però necessario dare uno sguardo alle nuove tendenze in atto nel sempre più vasto mondo della “nuvola”. Una delle quali si sta affacciando alla ribalta proprio negli ultimi tempi, sotto la forma del “fog computing” o “edge computing”, che indica un paradigma di computing che estende i servizi cloud verso la periferia (cioè l’edge) della rete, per avvicinare il più possibile tali servizi agli utenti finali. Proprio la caratteristica della decentralizzazione, verso l’edge (letteralmente il margine) dell’intero sistema, costituisce l’elemento chiave del fog computing, tanto che alcuni suggeriscono di chiamarlo direttamente “edge computing”. Ma forse è da preferire la dizione attuale, visto che mantiene la metafora meteorologica inaugurata dal cloud computing.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

ACCORCIARE LE DISTANZE

Al di là della terminologia da preferire, rimane il fatto che il fog nasce in risposta al fatto che talvolta, per alcuni tipi di applicazioni, le risorse nel cloud si possono rivelare troppo distanti dalla fonte dei dati da gestire. Da qui l’analogia meteo: così come la “nuvola” si trova generalmente in alto nel cielo, in un luogo piuttosto lontano e poco definito, la “nebbia” staziona invece più vicina al terreno, ovvero agli utenti finali.

È anche per questo che il fog computing è indicato anche come il paradigma di elezione per l’Internet of Things, che vede sempre più oggetti interconnessi alla rete delle reti, ognuno col proprio indirizzo IP per scambiare dati da elaborare e analizzare. Ma, oltre che per l’IoT, riportare l’elaborazione più vicina alla fonte dei dati può rivelarsi di utilità nel caso delle smart grid, dove si possono realizzare contatti M2M (machine-to-machine) più rapidi, o anche per le stesse smart city, per portare le decisioni sempre più vicine al luogo di cattura dei dati. In sintesi, si tratta di quello che Hadoop o le analisi in-memory consentono già di fare con i big data, ma il fog computing promette di farlo su una scala più vasta, con il vantaggio di limitare la dipendenza da reti a elevate prestazioni, talvolta non sempre disponibili.

LA SPINTA VERSO IL FOG

Ma ormai sembra proprio che il vero motore del fog computing sia destinato a essere l’IoT, che da più parti viene indicato come la “next big thing” dell’informatica, con previsioni di crescita di tutto rispetto: se Cisco ha da tempo reso noto che entro il 2020 vi saranno oltre 50 miliardi di dispositivi connessi alla rete delle reti, gli analisti di IDC hanno stimato che, sempre nel 2020, il valore totale del fatturato dovuto all’IoT supererà i sette trilioni di dollari, toccando per l’esattezza quota 7,1 trilioni. Che il tema sia caldo, lo si capisce anche dai recenti movimenti nelle acquisizioni: se poco più di un anno fa il colosso dello sviluppo prodotto PTC aveva acquistato ThingWorx, Samsung ha recentemente speso 200 milioni di dollari in smarthings, e Amazon ha puntato un miliardo di dollari su Twitch.

Leggi anche:  Google Cloud presenta Agentspace e NotebookLM Plus per scalare l’AI e rendere accessibile l’expertise aziendale

Ma – e qui sta il dato più interessante – una recentissima previsione di IDC stima che entro il 2018 il 40% dei dati creati dall’IoT saranno memorizzati, elaborati, analizzati e gestiti, vicino all’edge della rete, quando non direttamente all’edge, dando così concretezza alle promesse del fog computing. Più in dettaglio, nelle previsioni di IDC, la scelta di dove elaborare i dati generati dai sensori in ottica IoT, cioè se la gestione debba avvenire presso il data center aziendale (dopo opportuno viaggio nelle reti) o nelle vicinanze dell’edge (o sull’edge stesso), sarà basata sui livelli di servizio e sul tipo di dati. Ma non solo: sempre secondo la previsione di IDC, «la quantità di contenuti che verrà generata sull’edge dell’infrastruttura di rete richiederà che la richiesta di elaborazione di business o di informazione venga portata presso i dati, invece di operare in maniera tradizionale, cioè portando i dati verso il data center aziendale». Questa crescita dell’elaborazione dei dati IoT nell’edge della rete favorirà – secondo gli analisti di IDC – «l’innovazione nell’ambito degli analytics, dei sistemi e della gestione dei servizi, permettendo ad agili società di tipo startup di offrire prodotti di livello», prevendendo anche che «si renderà necessario un nuovo modello di tipo DevOps di innovazione continua di business, di test di sviluppo, di integrazione e di delivery, per essere poi adottato dal vasto numero di sistemi intelligenti sull’edge della rete».

LE PROSPETTIVE DELL’IOT

Insomma, per veder prosperare il fog computing sembra proprio che non si possa fare a meno di avere un’Internet of Things in buona salute. E qui le conferme non mancano: l’esempio più recente è dato da una ricerca di Accenture, dal titolo “Winning with the Industrial Internet of Things” e presentata a fine gennaio scorso sul prestigioso palcoscenico del World Economic Forum di Davos in Svizzera. La previsione della società di consulenza direzionale è che, entro il 2030, l’Industrial Internet of Things potrebbe avere un impatto sulla produzione a livello mondiale di quasi 15 trilioni di dollari (per l’esattezza 14,2 trilioni). Ma, e qui entra prepotentemente in gioco anche il fog computing, perché ciò avvenga è necessario che le aziende adottino su larga scala tutte le nuove tecnologie digitali. L’indagine di Accenture dettaglia come gli Stati Uniti, investendo il 50% in più nelle tecnologie IoT, potrebbero avere più di 7 trilioni di dollari in aggiunta al proprio prodotto interno, con un appetitoso incremento del 2,3% in più rispetto al dato di crescita atteso normalmente.

CAMBIO DI PARADIGMA

Lo studio Accenture prende in esame un po’ tutti i paesi, rivelando per esempio come la Cina sia tra quelli che potrebbe avere maggiori vantaggi rispetto ad altri colossi come la Russia, l’India o il Brasile, e riservando all’Italia una posizione di retrovia, indicando per noi un aumento aggiuntivo di produttività dell’1,1%, quantificabile in circa 200 miliardi di dollari in più (per l’esattezza il dato è di 197 miliardi di dollari). La ricerca, che ha coinvolto più di 1.400 top manager in tutto il mondo, più della metà dei quali CEO, ha anche messo in evidenza come siano solo sette su cento le aziende che hanno già previsto una strategia completa per l’Internet of Things, stanziando i relativi investimenti, mentre tre imprese su quattro (precisamente il 73%) non ha ancora adottato piani concreti. Anche per questo, ha sottolineato al riguardo Paul Daugherty, chief technology officer di Accenture, «l’Industrial Internet of Things è oggi una realtà e può aiutare a migliorare la produttività e a ridurre i costi. Ma il suo pieno potenziale economico sarà raggiunto solo se le aziende saranno capaci di andare oltre l’uso della tecnologia digitale al solo fine di migliorare l’efficienza, e riconosceranno il valore che i dati hanno nel creare nuovi mercati e flussi di ricavi».

UN PERCORSO DI SVILUPPO

Che sia necessario un percorso di sviluppo è stato rilevato anche nel corso della seconda edizione dell’Internet of Things World Forum, evento promosso da Cisco e sponsorizzato da aziende del calibro di IBM, Rockwell Automation, Schneider Electric, VMware e Zebra Technologies. Durante l’evento, tenutosi a metà ottobre 2014 a Chicago, sono state presentate una serie di iniziative volte a favorire l’evoluzione delle tecnologie, dell’ecosistema industriale e delle competenze, per trasformare l’Internet of Things in una opportunità impiegata su larga scala da enti e aziende di tutto il mondo. Tra le iniziative, va menzionato l’IoT Reference Model, un framework di settore ideato per spiegare le opportunità dell’IoT e avere un linguaggio comune che consenta di collaborare in modo efficiente. Questo framework a sette livelli intende educare i CIO, le persone che operano nei reparti IT e gli sviluppatori su come implementare progetti IoT e accelerarne l’adozione. Il modello offre una terminologia comune, offre un modo chiaro per gestire i flussi di informazioni e per elaborarle, e rappresenta un passo importante verso la creazione di un settore IoT “unificato”. Inoltre, offre suggerimenti pratici per risolvere questioni di scalabilità, interoperabilità, agilità, compatibilità con i sistemi legacy che molte aziende si trovano ad affrontare nell’implementazione di sistemi IoT. Vero obiettivo dell’iniziativa è quello di definire un open system per l’Internet of Things, cui più aziende possano contribuire con diversi elementi, come primo passo per l’interoperabilità dei prodotti IoT offerti dai vari vendor. Il modello è stato creato nell’ultimo anno dai 28 membri del gruppo di lavoro Architecture, Management and Analytics dell’Internet of Things World Forum, di cui fanno parte numerosi colossi mondiali di vari settori, tra i quali, solo per citarne alcuni, vi sono: Intel, GE, SAP, Oracle e Cisco.

PRIME SOLUZIONI

Proprio quest’ultima, alla quale si deve la prima definizione di “fog computing”, e che al momento è tra i vendor più attivi nei piani di sviluppo di soluzioni specifiche, ha delineato nell’evento di Chicago di metà ottobre l’espansione della sua strategia fog computing, presentando la fase due della sua piattaforma IOx per l’implementazione di soluzioni Internet of Things su scala industriale. Cardini di questo sviluppo sono un ecosistema di partner in crescita, il rafforzamento del supporto alle piattaforme IoT e un nuovo modulo di IOx Application Management. IOx è un elemento fondamentale della strategia Cisco per il fog computing, in quanto consente ad applicazioni software e a sistemi operativi di terze parti, come per esempio Linux, di agire direttamente sulle piattaforme di networking IoT Cisco: si tratta di un fattore critico per le soluzioni IoT, nel quale le applicazioni, lo storage e le funzioni di computing devono essere collocate il più vicino possibile ai sensori e ai diversi device.

Leggi anche:  OVHcloud potenzia la sua offerta nell’ambito dell’Intelligenza Artificiale

LA PROMESSA DEL FOG COMPUTING

Agendo a livello periferico, cioè sull’edge della rete, si possono gestire vaste quantità di dati senza necessariamente passare ogni volta dal cloud, con due innegabili vantaggi: da una parte, si riduce la richiesta di banda necessaria per raggiungere la nuvola o il data center aziendale, e dall’altra si può ipotizzare un aumento nel livello di sicurezza, in quanto le infrastrutture possono rivelarsi maggiormente controllabili. Uno degli esempi più citati in ambito Internet of Things è quello dei propulsori degli aerei, che solo nell’arco di una mezz’ora di operatività creano oltre 10 terabyte di dati relativi al proprio funzionamento. Trasmettere questi dati lungo il cloud può rivelarsi problematico, sia in termini di banda sia in termini di latenza: ecco perché in base al paradigma del fog computing, buona parte dell’elaborazione di questi dati potrebbe avvenire in ambito locale, senza necessità di trasmettere quantità così rilevanti verso il cloud o verso il data center aziendale.

INTEGRARE L’IT NELL’EDGE

È quindi evidente che la promessa chiave del fog computing consiste anche nel portare più capacità elaborativa sui dispositivi stessi oppure nei gateway locali, riservando al cloud solo i dati di rilevanza più generale. Ma per arrivare a questo, va tenuto presente un elemento cruciale: «L’integrazione delle funzioni IT nelle tecnologie operative (OT, operation technologies), pur riconoscendo che questi due ambiti racchiudono aspetti molto differenti, in ordine a esigenze, tecnologie, protocolli, skill, ecosistemi dei vendor, e tolleranza agli errori e al downtime» – avverte IDC (in “IDC Link” del 25 ottobre 2014, a cura di Eric Owen e John Gole, dedicato a un’analisi approfondita dell’Internet of Things World Forum 2014). In questo senso, «unire i due ambiti costituisce una sfida non indifferente, in quanto il modello di riferimento dell’Internet of Things comprende un layer di arbitrato che tiene separati l’IT e l’OT per tenere conto delle loro peculiarità, e li unisce per permettere di comunicare tra loro quando necessario. Ma comprende anche approcci concettuali per raccogliere i dati dai sensori sulle tecnologie operative situate nell’edge, e nel contempo filtrare e campionare i dati dall’edge per riversarli nei sistemi IT e rendere possibile l’analisi e il decision making» – prosegue IDC.

Leggi anche:  A ciascuno il suo cloud

UN ESEMPIO CONCRETO

La necessità di un approccio diverso al cloud, consistente appunto nel nuovo paradigma decentralizzato tipico del fog computing, è ben riassunta dal caso della società mineraria Rio Tinto, le cui esigenze IT per le operazioni in Australia sono state illustrate all’evento Internet of Things World Forum 2014 da John McGagh, head of innovation della società. «Quello che spicca nel caso di Rio Tinto è la differenza nei volumi di dati tra le tecnologie operative locali e l’IT remoto» – spiega IDC, sempre nel suo report sull’evento di Chicago poco sopra menzionato, specificando che «le miniere della società sono situate in luoghi dove le connessioni sono limitate, ma i veicoli e i macchinari che vengono impiegati hanno numerosi sensori, di velocità, GPS, diagnostica radar e altro, che generano notevoli quantità di dati, pari a quasi 5 TB complessivi ogni giorno. Non essendo possibile riversare tutti questi dati in un data center remoto, è necessario effettuare sul posto una buona fetta dell’elaborazione. Analogamente, la maggior parte di queste elaborazioni deve essere eseguita con il minimo della latenza ai fini delle esigenze locali, per esempio in ordine alla necessità di guidare i veicoli in maniera sicura in un ambiente minerario di estrazione che cambia in continuazione: il cloud serve per pochissimi di questi dati, ed è per questo che un modello centralizzato basato sulla nuvola non è adeguato per alcune delle funzioni di Rio Tinto». La conclusione appare evidente. Come spiega IDC, «certamente ci sarà sempre bisogno del cloud computing, soprattutto per l’analytics dei big data, ma la maggior parte del decision making relativo alle tecnologie operative richiede la presenza di capacità elaborative locali», proprio quelle che vengono provvidenzialmente fornite nel paradigma del fog computing.