L’edge computing è la risposta al fabbisogno di intelligenza “di prossimità” per gli end user di un sistema informatico distribuito. Tendenze, business case, sicurezza e rapporti con i cloud service provider e con gli operatori di hosting e colocation di nuova generazione

Si parla di edge computing come dell’evoluzione più recente del modello di calcolo distribuito, una modalità che avvicina il più possibile le risorse di calcolo, di archiviazione e di banda alle sorgenti dei dati. Queste sorgenti possono essere di tipologie le più svariate. Generano dati i sistemi informativi utilizzati nelle filiali remote delle grandi aziende, sui punti vendita delle grandi catene commerciali, negli uffici locali delle pubbliche amministrazioni, dei sistemi previdenziali, delle aziende sanitarie locali. Ma anche i dispositivi tascabili e wearable, gli smartphone, i beacon. E naturalmente, la sensoristica tipica delle applicazioni IoT, che oltre a generare informazioni può avere esigenze computazionali real-time molto impegnative. La prossimità agli utenti finali, interni alle organizzazioni o esterni nel caso delle applicazioni B2B, è proprio il tratto distintivo, il plus che giustifica l’investimento sull’edge ogni volta che si hanno particolari obiettivi di efficienza e puntualità nel fornire i risultati di un lavoro di elaborazione. Efficienza e puntualità che potrebbero essere compromesse quando si sceglie di rimanere su modelli centralizzati, dove la periferia intorno al data center esiste, ma è sostanzialmente “stupida”. Per quanto potente e dotato di risorse di banda, il data center dei modelli più tradizionali potrebbe soffrire di problemi di latenza, o di disponibilità, intollerabile per determinati processi dell’azienda “data driven”.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Un termine come informatica distribuita si è affermato ormai da parecchi decenni e ha sempre visto un approccio basato su una molteplicità di risorse di calcolo e storage non necessariamente situati in uno stesso spazio ben definito, ma che vengono di fatto gestiti come sistemi unici molto complessi, tesi a raggiungere obiettivi computazionali comuni. I server possono risiedere nello stesso data center, o in uno stesso edificio, collegati tra loro da un sistema di rete locale. Uno o più di questi nodi possono essere dislocati in punti geografici molto distanti, organizzati in un’unica rete detta appunto “geografica”. Il fatto di comportarsi di fatto come una sola grande risorsa di calcolo, ammette la possibilità di intervenire sulla topologia dei sistemi distribuiti, o di potenziare solo una delle sue componenti in uno specifico ufficio, dispiegando le tecnologie opportune, fino ad allestire veri e propri edge data center locali.

LONTANI DAL CORE

Con l’avvento del cloud computing, i vecchi standard di rete locale e geografica hanno lasciato il posto a connessioni ispirate a una unica famiglia di protocolli IP. Sempre più spesso sentiamo quindi fare la distinzione tra “core”, centralità del sistema cloud e di periferia – “edge” del cloud – intendendo in questo modo che i server, i router, i sensori o magari interi data center locali, periferici, sono collegati al nostro sistema distribuito con una connessione Internet (cloud), funzionando a tutti gli effetti come naturale estensione di una unica rete aziendale. A caratterizzare ulteriormente la definizione di edge troviamo quattro concetti: 1) la topologia che definisce l’intera infrastruttura di calcolo distribuito e individua in tal modo gli apparati e le risorse che appartengono al bordo, al contorno della topologia; 2) i data center core, centralizzati: tutte le facility destinate a supportare nel loro complesso tutte le necessità operative delle organizzazioni: 3) i data center sull’edge: l’insieme delle risorse di calcolo e processamento fisicamente remote rispetto al core, e in grado di gestire senza impegnare risorse centrali (alle quali restano comunque connesse) in modo indipendente; 4) i dispositivi sull’edge: tutto ciò che rende l’edge e la sua intelligenza ricettivo e utilizzabile.

In questo dossier, cercheremo di capire il modo migliore per definire la propria “edge topology”; quali sono i principali business case di una strategia di edge computing ben strutturata; come si evolve l’offerta a livello di hardware e infrastrutture fisiche, tradizionali o iperconvergenti, che vengono incontro a questo nuovo bisogno di “dualità topologica”; quali sono le considerazioni da fare a livello di sicurezza e compliance. Un’attenzione particolare è rivolta anche ai provider di servizi cloud e soluzioni di hosting e colocation di nuova generazione, anche loro chiamati a presidiare le necessità dei clienti nelle rispettive “periferie”. Come sempre, ricercatori e consulenti di IDC Italia ci affiancano nell’inquadrare un discorso abbastanza semplice dal punto di vista concettuale (sostenere la richiesta di potenza di elaborazione a bassa latenza delle applicazioni fisicamente distanti da data center che rappresentano il core di una infrastruttura distribuita), ma complesso da definire da un punto di vista di provisioning. Non dobbiamo dimenticare che l’edge computing è un campo di applicazione relativamente nuovo, che come avviene più genericamente per il cloud computing può essere articolato in ottica pubblica oltre che privata. E questo come si vedrà influisce sulle strategie di rete di telco operator e Internet provider.

«Negli ultimi anni – osserva Daniela Rao, senior research and consulting director di IDC Italia – il termine edge computing si è fatto strada nel vocabolario di CIO italiani. Delocalizzare le capacità di elaborazione dei dati ai margini della rete data la proliferazione di device, individui e sensori sul territorio sta diventando inevitabile sia per sfruttare al meglio (riducendo in modo considerevole i tempi di latenza) le informazioni provenienti dai siti/sedi periferiche sia per compiere un importante passo in avanti nel ridisegno dei processi e nell’ottimizzazione della logistica necessari a migliorare la competitività e a personalizzare la customer experience di clienti sempre più iperconnessi ed esigenti».

LA SPERIMENTAZIONE IN ITALIA

Tuttavia, l’edge computing non è un prodotto “plug in”, ma una soluzione tecnologica che a seconda delle funzioni (del tipo di dati e info che deve raccogliere ed elaborare) e della localizzazione può assumere forme e dimensioni diverse, e ovviamente comportare percorsi di integrazione molto diversi e talvolta complessi. Secondo Daniela Rao di IDC Italia, la sperimentazione di diverse tecniche e metodologie di analisi dei dati continuerà – almeno per i prossimi due anni – a caratterizzare l’approccio delle aziende italiane all’edge computing. Queste soluzioni intermedie, nate in un clima ancora sperimentale, sono probabilmente destinate a evolvere verso soluzioni più mature e idonee a favorire l’analisi e l’elaborazione di molti dati all’edge.

Leggi anche:  JAKALA libera il tempo dei dipendenti HR

Con le soluzioni di edge computing, grazie alla capacità di elaborazione dei dati e carichi di calcolo più vicino ai dispositivi e ai sensori che li producono, le imprese che hanno asset e infrastrutture distribuite sul territorio avranno la concreta possibilità di abbattere i tempi di latenza della trasmissione delle informazioni, favorendo così il servizio all’utente e la rapidità dei processi di back-end, grazie a risorse core alleggerite dal peso di workload riferibili a dispositivi e utenti periferici e dirottati verso specifiche risorse perimetrali. «L’implementazione dell’edge è destinata a modificare l’architettura IT, ha impatti sui flussi di lavoro e i processi, sull’approccio alla progettazione delle applicazioni e sui processi per incorporare analytics, AI e sicurezza» – spiega Daniela Rao. Allo stesso tempo, gli attuali data center dovranno evolvere, affrontando nuove sfide sul fronte della sicurezza logica e fisica, dell’automazione e della flessibilità, ossia della capacità di adattarsi al contesto in cui operano infrastrutture che restano distribuite e interconnesse, anche quando la loro topologia sarà organizzata in modo diverso.

A Sergio Patano, che in IDC Italia riveste il ruolo di associate research director, abbiamo chiesto che tipo di evoluzioni sono immaginabili a livello di definizione e governo delle nuove infrastrutture di calcolo. «Ci troviamo di fronte a un periodo caratterizzato da svolte epocali, in cui non solo l’evoluzione tecnologica sta rivoluzionando il modo di fare e di fruire l’IT, ma anche la situazione sanitaria e di conseguenza quella economica stanno rivoluzionando completamente il lavoro e le relazioni personali e di business» – risponde Patano. È inevitabile che tutto questo abbia un impatto anche sul ruolo che l’IT ha nelle aziende. «Da un punto di vista tecnologico, se da un lato il pendolo dell’IT – che all’incirca ogni 20 anni oscilla tra modello centralizzato e modello periferico – stava già spostando il proprio baricentro verso l’edge, dall’altro il lockdown ha impresso a questo movimento una notevole accelerazione, soprattutto in virtù dell’aumento delle ore di smart/home working. Da un punto di vista di ruoli, le survey ci confermano una crescita dell’importanza a livello esecutivo di CIO/IT durante il periodo di lockdown».

INVESTIMENTI PER METÀ SULL’EDGE

In questo contesto, si sono rivoluzionate anche le priorità di investimento IT delle aziende italiane, che hanno spostato i propri budget verso l’adozione o il potenziamento di soluzioni di sicurezza e di collaborazione e verso l’adozione più massiva del cloud computing come modello di delivery a scapito di quegli investimenti che non erano ritenuti necessari a supportare il mantenimento della produttività aziendale. «L’infrastruttura aziendale – afferma Patano – ha subito un forte “scossone” rispetto al percorso evolutivo che stava affrontando, andando a confermare alcune delle previsioni che IDC aveva fatto riguardo l’infrastruttura IT». In base alle analisi IDC, entro il 2023 la metà delle nuove infrastrutture IT verranno implementate all’edge invece che nei data center core, a fronte del fatto che – attualmente – delle nuove infrastrutture implementate, quelle all’edge rappresentano solo il 10%.

Non solo. Entro il 2023, il 70% delle aziende eseguirà differenti processi di dati a livello di IoT edge, e il 75% dell’infrastruttura verrà consumata e gestita tramite un modello as a Service. «Lo sviluppo all’edge sarà insomma guidato dalla consapevolezza che alcune sfide che la situazione attuale pone di fronte alle aziende, semplicemente, non possono essere superate solo ed esclusivamente con l’infrastruttura core» – spiega Patano che pensa in particolare a tutte le applicazioni che dipendono molto dai tempi di risposta delle risorse di calcolo; ai progetti a elevata scalabilità; alle risorse che oggi possono disporre solo di una connettività limitata. Ma anche ad aspetti come la sicurezza e la conformità normativa e l’onnipresente priorità dei costi da tenere a bada. «Siamo in un contesto in cui molte applicazioni sono estremamente sensibili alla latenza: la latenza, infatti, in molti use case è inaccettabile» – sottolinea ancora Patano. «Vengono in mente esempi come i veicoli a guida autonoma, che richiedono risposte praticamente in tempo reale. Oppure, negli impianti di fabbricazione intelligente, dove l’AI viene utilizzata per migliorare la qualità o il rendimento della produzione».

Per quanto riguarda la scalabilità, i dati prodotti dalle iniziative IoT possono sopraffare l’infrastruttura di base. Man mano che le applicazioni sfruttano l’accesso più rapido (5G), possono emergere potenziali colli di bottiglia. «In molti casi – avverte Patano – ci troviamo nella condizione in cui le risorse dispongono di una connettività limitata. I dispositivi IoT o altri device connessi possono essere mobili in natura e avere una banda limitata, come per esempio le attrezzature minerarie o i container». Un problema che le aziende devono costantemente affrontare, a prescindere dal contesto economico in cui ci troviamo, è la gestione dei costi. All’aumentare della quantità di dati generati in località remote, aumentano anche i costi associati alla loro trasmissione. L’analisi “in loco” di dati contribuirebbe a un netto miglioramento della spesa.

LE 4 REGOLE DELL’EDGE

Anche la sicurezza e la conformità normativa sono uno dei problemi che l’edge punta a risolvere o almeno mitigare. In molti contesti, infatti, ci possono essere restrizioni alla localizzazione geografica dei dati (sovranità). L’infrastruttura cloud o data center potrebbe trovarsi al di fuori della giurisdizione locale. Mantenere i dati là dove vengono creati oltre a ridurre i costi legati alla connettività e ai problemi di latenza potrebbe aiutare a rispondere al problema normativo. Per questi motivi, aumentano dal 28% al 34% le aziende che dichiarano che nel corso dei prossimi anni passeranno a raccogliere e ad analizzare tutti i dati IoT direttamente sull’edge.

Leggi anche:  Cogliere le opportunità offerte dall'AI generativa grazie alle workstation Lenovo AI e l’Accelerated Computing di NVIDIA

«Attualmente, esistono ancora alcune sfide che le aziende devono affrontare e superare nella gestione dei dati in periferia» – ribadisce Patano. «Tra queste, una delle principali riguarda forse paradossalmente, la quantità dei dati che alimentano i sistemi di Big Data & Analytics. Infatti, un’azienda italiana su tre, dichiara di non avere a disposizione volumi di dati di sufficiente qualità per potere ricevere analisi accurate che gli consentano di prendere decisioni informate e automatizzate. Una quota di aziende ancora maggiore lamenta invece l’impossibilità di implementare modelli di intelligenza artificiale e machine learning efficaci, proprio a causa di end point eterogenei difficili da gestire. Inoltre oltre il 20% di aziende dichiara di non avere figure professionali con competenze adeguate (data scientist) per poter far fruttare al meglio i dati IoT/edge».

Da un punto di vista più infrastrutturale, le sfide che le aziende devono affrontare nell’implementazione di una edge infrastructure riguardano: l’architettura infrastrutturale, la gestione delle risorse e delle applicazioni, la gestione e la governance dei dati e infine la sicurezza infrastrutturale. Per quanto riguarda l’architettura, l’edge deve essere considerato come un’estensione logica dell’infrastruttura core dell’azienda. In conclusione, le buone regole di una infrastruttura edge robusta si possono – secondo Patano – delineare in questo modo. Prima regola. Una infrastruttura edge deve essere use-case centrica, studiata, per esempio, per raccogliere i dati da sensori e dispositivi IoT in un impianto industriale. Seconda regola. Deve funzionare come piattaforma di hosting delle applicazioni su cui facilitare la convergenza tra IT e OT grazie all’implementazione di virtualizzazione e container che permetta di ricreare un’infrastruttura simile al core. Terza regola. Deve essere progettata per raggiungere gli obiettivi di SLA, tenendo conto della scalabilità e dell’elasticità in fase di design dell’infrastruttura in modo che le risorse di elaborazione (e quindi le applicazioni) possano essere aggiunte o rimosse in futuro, se necessario. Quarta regola. La localizzazione fisica del device influenza la tipologia di form factor da utilizzare, il tipo di connettività, le caratteristiche di sicurezza hardware, e il tipo di risorse che possono essere inserite a causa di possibili limitazioni legate all’alimentazione e al raffreddamento. Non a caso, in diverse situazioni di edge, trovano un impiego ottimale soluzioni di calcolo iperconvergenti, facilmente dimensionabili, scalabili e gestibili in una ottica unificata di “micro data center”.

L’evoluzione del mercato delle soluzioni e dei servizi per l’edge computing dipenderà da molti fattori. Attualmente, la vera incognita riguarda il mondo della domanda, con tutte le perplessità che possono riguardare i vari “use case” e come questi come andranno a imporsi all’attenzione degli utenti. Un secondo elemento riguarda le politiche infrastrutturali delle aziende di dimensioni medio-grandi, quelle insomma che stanno affrontando problematiche afferenti ai data center di proprietà e al private/hybrid cloud. Infine, un terzo ambito da tenere d’occhio abbraccia le politiche di rete e di concezione/erogazione dei servizi degli operatori di telecomunicazione, forse le sole figure che storicamente hanno avuto a che fare con concetti di edge e periferia della rete. Insieme alle telco, possiamo annoverare, nel mondo dell’offerta esterno alle aziende, i service provider di Internet e le società di servizi di hosting, tutte figure istituzionali che dovranno adattarsi alle future esigenze di un mercato ancora in via di definizione, in un contesto tra l’altro di crescente attenzione agli investimenti in materia di accesso mobile 5G, una modalità che può sicuramente dare una grossa mano alle applicazioni edge grazie alla maggiore capacità di trasporto e alla bassa latenza della risposta di rete.

UNA VARIETÀ DI CASI D’USO

Tra gli esempi applicativi potenzialmente più “affamati” di capacità non centralizzate di calcolo e di immagazzinamento dati non c’è solo l’Internet delle Cose, per la quale già in passato era stato coniato il sinonimo di “fog computing” (una definizione solo in parte sovrapponibile alla moderna accezione di edge computing, perché la “nebbia” computazionale riguardava in particolare le applicazioni in cui l’intelligenza risiedeva direttamente a bordo dei dispositivi interconnessi).

A livello enterprise, in particolare in ambito produttivo, una periferia intelligente può servire a ridurre in modo sostanziale il traffico verso Internet dei dati utilizzati per la manutenzione predittiva, e più in generale per trasferire tutta la parte di workload delle tecnologie operative (OT) verso piattaforme di calcolo configurate come un cloud locale, mantenendo tutta la affidabilità di una implementazione on premises. In campo retail, l’edge computing può essere uno strumento fondamentale per ridurre le latenze che oggi possono rallentare l’interattività e la varietà dell’esperienza sia sul punto vendita sia online, per esempio, attraverso l’impiego di tecniche di realtà aumentata e virtuale direttamente integrate nei siti Web. Per le utility e il settore energetico, l’obiettivo è ridurre il grado di dipendenza da una generica connettività Internet nelle applicazioni di IoT. Ma si possono immaginare tante situazioni che non dipendono necessariamente dalla produzione di grandi volumi di dati o dall’interconnessione con dispositivi autonomi più o meno intelligenti, come i sensori. Anche una normale strategia di virtualizzazione del desktop in aziende con molte postazioni di lavoro distribuite in diverse sedi può beneficiare della maggiore reattività di una risorsa locale, non centralizzata nel cloud. Stesso discorso nell’informatica per gli ospedali e la sanità, dove diventa prioritaria la possibilità di gestire le informazioni sui pazienti in modo sicuro e controllato.

A metà strada tra applicazione B2B e mercato SoHo o al consumo, potremmo classificare l’insieme dei servizi associati all’uso di veicoli autonomi, includendo tra questi le possibili future flotte di droni a guida autonoma. Utilizzare normali accessi wireless o la futura generazione 5G ma riportare poi sui data center core o sulla stessa Internet i flussi che viaggiano da e verso questi veicoli potrebbe dar luogo a tempi di risposta incompatibili con la necessaria rapidità nel prendere la giusta decisione, o semplicemente per veicolare flussi multimediali (sul traffico, sugli incidenti, sull’ambiente, sulla sicurezza di un impianto e così via) verso un utente interessante. Anche la realtà consumer è piena di esempi in cui la prossimità della risorsa di calcolo comporta un aumento di performance o la riduzione di costi e colli di bottiglia. Le piattaforme di gioco multiplayer e tutta l’industria del cloud gaming potrebbero offrire esperienze sempre più immersive e real-time, come del resto tutto il segmento della realtà virtuale e aumentata e le sue applicazioni desktop e soprattutto smartphone in campo educativo, turistico, civico. Poi c’è la telemedicina e la telediagnostica, soprattutto se basate su dispositivi domestici o addirittura indossati dal paziente. E infine, le content delivery network, che del resto fanno da tempo uso di risorse intermedie tra utente e core della rete.

Leggi anche:  Lenovo presenta con NVIDIA soluzioni di Hybrid AI per portare la potenza dell’AI generativa a ogni azienda e nel cloud

LE OPPORTUNITÀ PER GLI OPERATORI

Secondo la società di consulenza britannica STL Partners (stlpartners.com), esistono diverse strade per l’attivazione di una strategia di edge computing vincente da parte di telco e operatori infrastrutturati, che potranno così diversificare la propria offerta, rafforzare la marginalità, contribuire alla nascita di nuovi servizi e al miglioramento di quelli già erogati. STL Partners propone cinque possibili modelli di business per il cosiddetto “multi-access edge computing”, l’edge computing da proporre alle aziende medio-piccole e al mondo B2C.

Edge hosting dedicato: l’operatore gestisce e mette a disposizione risorse di calcolo e archiviazione localizzate in periferia in data center pre-installati e collegati all’infrastruttura di telecomunicazione. Il cliente e l’eventuale partner utilizzano queste risorse per eseguire il suo software, per esempio, una rete di content delivery (CDN) o uno stack cloud distribuito “on top” con le risorse hardware che l’operatore ha abilitato a livello periferico.

IaaS/PaaS/NaaS periferico: in questo modello di business, l’operatore diventa in pratica un cloud provider che offre ai suoi clienti capacità di calcolo e archiviazione distribuite, una piattaforma per lo sviluppo applicativo implementato sull’edge della sua infrastruttura e dei suoi servizi di rete, insieme a API e funzioni di rete virtuali, il tutto in modalità as a Service gestibile dai clienti attraverso un portale cloud come interfaccia utente.

System integration: in questo caso, l’operatore estende un servizio di integrazione preesistente, offrendo soluzioni di edge computing chiavi-in-mano a una clientela tipicamente enterprise con specifici requisiti soddisfatti da una offerta di tipo multi-access edge computing (MEC).

Soluzioni B2B2X: l’operatore offre soluzioni edge direttamente al cliente aziendale. Come avviene di solito in una soluzione B2B, il servizio può essere finalizzato a obiettivi interni al cliente, per potenziare o migliorare determinati processi o può essere la base di un servizio rivolto dal cliente alla propria clientela finale. In genere, queste soluzioni possono essere facilmente standardizzate e richiedono meno impegno progettuale e meno configurazione rispetto a un progetto di system integration.

Applicazioni end to end per il mondo consumer: in quest’ultima modalità, l’operatore interagisce direttamente con il consumatore in veste di service provider digitale di applicazioni essenzialmente consumer. Un servizio di mobile edge computing (MEC) di questa tipologia fa leva sui vantaggi dell’edge computing – bassa latenza, throughput elevato, dipendenza dal contesto – per aprire le porte su applicazioni innovative, che facciano per esempio uso di realtà virtuale in contesti come la cronaca sportiva e tanto altro ancora.

LA PERIFERIA È IL MIO MESTIERE

La stessa società di consulenza britannica ha messo a punto l’Edge Ecosystem Tool, un interessante catalogo interattivo del mercato dell’edge computing. Moltissimi sarebbero i casi degni di essere menzionati e studiati, ma per ragioni di spazio ci limiteremo a qualche esempio. Con il suo software di cloud virtualization, la newyorkese Mutable ha l’obiettivo di “costruire l’infrastruttura del public edge” facendo leva sulle risorse di calcolo sottoutilizzate degli operatori. I carichi di lavoro del cliente vengono assegnati sulla base dei requisiti di latenza e rendimento. MobiledgeX, fondata da Deutsche Telekom in California, si propone come servizio PaaS avanzato proprio per venire incontro alle esigenze di sviluppo applicativo sull’edge di operatori e clienti. Anche Affirmed Network si propone con le sue soluzioni alle telco e ai cloud provider per consentire ai rispettivi clienti di ospitare localmente le proprie applicazioni. Recentemente, Affirmed Network (fondata nel 2010) è stata acquisita da Microsoft.

Edge Gravity è la giovane startup di Ericsson costituita per sviluppare soluzioni per la delivery di contenuti e app mobili in ambiente edge. Hangar è un’azienda americana fondata nel 2016 per offrire un servizio di robotica (volante) as a Service. Anche in questo caso bisogna far leva su risorse periferiche per consentire l’uso di droni che non vengono controllati direttamente da terra, ma sono in grado di volare autonomamente, inviando i dati raccolti per analisi in tempo praticamente reale, in situazioni come la cantieristica, l’agricoltura, la protezione civile. Nata l’anno scorso e focalizzata sul mondo dell’IoT industriale, ONCITE fornisce una appliance pensata per le applicazioni edge delle medie imprese di produzione industriale. Infine, un’altra giovane esperienza (2018) questa volta olandese: EdgeInfra si propone di realizzare micro-data center neutri e servizi di co-location sull’edge “ultra locale” dell’infrastruttura di rete e mobilità europea.

Come si vede, un mercato già ricco di idee di business, popolato da grossi nomi e piccole realtà. Riusciranno tutti insieme a concretizzare il sogno di una periferia di rete che non si limiti a fungere da interfaccia con un core sempre più potente e complesso, e per questo poco adatto alle esigenze locali del business e del consumo digitale?