Edge computing: cosa si intende? L’elaborazione affidabile delle reti che sta creando nuovo sviluppo nel canale IT


L'edge computing non è più un tema da IT solo "industriale": oggi è un modello architetturale di elaborazione decentrata che va affermandosi in tutti gli ambiti applicativi. E che apre molte opportunità.

Autore: Redazione ChannelCity

L'edge computing è uno degli argomenti più gettonati per chi si occupa di IT. Dopo che per anni il mantra del mercato ha puntato sul cloud computing e quindi sull'elaborazione concentrata nella "nuvola", ora la spinta va in senso opposto e le aziende devono affrettarsi a comprendere cosa significhi concretamente parlare di edge computing e, soprattutto, come affrontare la realizzazione di nuove architetture di elaborazione decentralizzata.

In realtà la contrapposizione tra edge computing e cloud computing è più teorica che reale, dato che i due approcci non sono contrastanti ma complementari. E certamente sono destinati a convivere. Per capire meglio perché e con quali benefici, vale la pena fare un passo indietro: come si è giunti al concetto di edge computing?

Edge computing: dal centro del cloud alla “periferia”( edge) dell’infrastruttura IT

La promessa del cloud computing è semplificare la vita delle imprese concentrando le risorse IT in ambienti centralizzati, che spaziano dai data center multi-tenant dei grandi cloud provider (nel modello classico del cloud pubblico) a quelli gestiti direttamente dalle imprese utenti (il cloud privato), passando per le soluzioni "miste" del cloud ibrido. Per molte applicazioni questa centralizzazione ha vantaggi concreti in termini di scalabilità e gestione dell'IT, il che spiega il grande successo del modello cloud in sé.

La centralizzazione, però, non è sempre la soluzione ideale. Per dialogare genericamente con il cloud o con un data center aziendale - ossia per usare i suoi servizi e per trasferire dati da e verso la "nuvola" - bisogna avere un collegamento stabile e performante verso di esso. In molti casi questo requisito, che può apparire banale, non è affatto scontato. In vari ambienti IT un collegamento stabile verso la rete aziendale o il cloud non è garantito. Oppure, anche se c'è, ha prestazioni variabili che potrebbero non essere sempre adeguate.

airport architecture blur 442600
Il concetto base di edge computing nasce da questa constatazione ed è, se ridotto alla sua essenza, semplice: quando non è possibile, o comunque opportuno, affidarsi alle risorse IT centralizzate in un proprio data center o nel cloud, la soluzione è spostare risorse di elaborazione alla periferia della rete, vicino ai loro utenti. Questa descrizione di massima si applica a molti possibili scenari, anche se spesso si è associato il concetto di edge computing alle applicazioni in stile Internet of Things.

Ma c'è molto più dell'IoT, perché il raggio d'azione dell'edge computing si è progressivamente ampliato. Oggi vi rientrano applicazioni decisamente più vicine alla quotidianità dell'IT aziendale e persino del mondo consumer. Il motivo è legato a ciò che gli anglosassoni amano chiamare "resilience" e che, in campo IT, per noi italiani si comprende al meglio - più che con la traduzione letterale di resilienza - come una combinazione di resistenza e flessibilità.

Edge computing: una questione di affidabilità

Per le infrastrutture IT la resilienza sta, in estrema sintesi, nella capacità di adattarsi dinamicamente ai carichi di lavoro richiesti e di garantire, in tutto questo, sempre la massima affidabilità operativa. In quest'ottica adottare soluzioni di edge computing non serve solo a risolvere il problema della possibile mancanza di un collegamento verso i data center e il cloud. L'edge computing rende un ambiente IT genericamente più affidabile e performante, garantendo che possa funzionare sempre in maniera adeguata indipendentemente dal collegamento verso altre risorse esterne.

Ad esempio, tutto il mondo Industry 4.0 sta prendendo la strada dell'edge computing. Negli ambienti Internet of Things industriali i macchinari avranno sempre più sensori a bordo, in grado di rilevare grandi quantità di dati legati al loro stato di operatività e ai processi produttivi che gestiscono. Delocalizzare risorse di computing direttamente all'interno degli impianti industriali, con vari gradi di decentralizzazione dell'elaborazione, comporta molti vantaggi: intervenire immediatamente in caso di emergenza, modificare in tempo reale il funzionamento dei sistemi, applicare funzioni di manutenzione predittiva, e molto altro ancora.

pale eoliche green.jpeg
Al di fuori del mondo IoT, i modelli di edge computing si possono applicare ad esempio alla (apparentemente) semplice gestione dell'IT nelle varie sedi decentrate di una grande azienda. Collocando in una sede le risorse di elaborazione necessarie al suo funzionamento, si garantisce la sede stessa possa sempre operare senza problemi e con il massimo delle prestazioni, per come sono "viste" dagli utenti interni. Al contrario, le architetture IT tradizionali in cui le sedi decentrate dipendono dal (o dai) data center aziendali sono più vulnerabili: basta un qualche problema sulla rete (dai link che cadono agli attacchi informatici) per metterne in crisi l'operatività.

Architetture di edge computing sono implementate anche da chi basa il proprio business, del tutto o in parte, sulla distribuzione di contenuti. In queste applicazioni è cruciale che i contenuti siano fruibili dagli utenti senza interruzioni o attese eccessive nel download, pena una esperienza d'uso deludente. Questo è possibile solo se i contenuti sono geograficamente vicini ai loro fruitori e accessibili attraverso connessioni a banda larga. È impossibile che ciò accada con una architettura centralizzata: i contenuti - e di conseguenza le risorse di computing che li gestiscono - devono essere delocalizzati in nodi periferici di una rete più ampia.

Insomma, quella che va verso l’edge computing è una tendenza consolidata e forte. E che apre indubbiamente molte opportunità anche per il canale. Prediamo ad esempio anche il solo comparto delle soluzioni Internet of Things, che secondo IDC nel giro di due anni muoverà qualcosa come 1.300 miliardi di dollari: l’edge computing ne sarà una parte fondamentale e mette in gioco le competenze di molti tipi di operatori, tra cui integratori, Managed Service Provider, fornitori di soluzioni SaaS e di altri servizi in hosting (e non solo).

pannello.jpeg
Queste realtà possono fornire alle aziende le competenze e i servizi loro necessari per l'implementazione di soluzioni di edge computing e per il monitoraggio e la gestione dell'infrastruttura distribuita che ne deriva, "sparsa" tra on-premise, cloud ed edge. L'edge computing non apre quindi opportunità solo a breve termine per il design e il deployment dei nuovi sistemi, ma anche nel lungo periodo per tutta la parte di controllo e management.

Edge computing: un modello performante

È importante comprendere che l'edge computing non è una soluzione tecnologica a un problema specifico. È un vero e proprio modello architetturale che viene man mano adottato in molti scenari applicativi analoghi a quelli descritti. In prospettiva il loro numero non può che aumentare, perché molte evoluzioni tecnologiche e di business evidenti oggi sul mercato possono essere supportate solo da ambienti di edge computing.

Pensiamo ad esempio all'intelligenza artificiale: sempre più funzioni saranno automatizzate affidandole ad algoritmi di machine learning, ma questi possono prendere decisioni efficaci solo se agiscono velocemente e usando i dati generati proprio là dove gli algoritmi stessi devono operare. Di conseguenza, molti ambienti di machine learning saranno decentralizzati, con una buona dose di risorse IT delocalizzate in periferia, là dove servono. Anche gli Smart Building richiedono approcci di edge computing, perché non è pensabile che il funzionamento e i tempi di reazione di un sistema di gestione di edificio siano del tutto dipendenti dal collegamento a un ambiente cloud e, anche dando questo collegamento per scontato, dalla sua latenza. Lo stesso vale per un mercato simile e in forte crescita: quello delle soluzioni di Smart Home.

codice.jpeg
Ecco quindi che edge computing e cloud computing non si escludono a vicenda. Andiamo verso una coesistenza dei due approcci, con alcune funzioni e applicazioni che saranno ancora appannaggio del cloud perché per loro non è un problema che la "nuvola" non risponda o lo faccia lentamente. Altre funzioni - sempre di più, con tutta probabilità - saranno invece affidate ad architetture di edge computing, a garanzia della loro affidabilità e delle loro performance.

Edge computing: come si fa

Non esiste "la" soluzione di edge computing: ogni caso applicativo ha esigenze sue specifiche che dipendono dal livello di decentralizzazione dell'elaborazione, dai dispositivi in gioco, dalla potenza di calcolo richiesta, dalla quantità di dati da gestire e da altri parametri più o meno tecnici. Volendo fare una classificazione di massima, il livello più semplice di edge computing si basa su singoli dispositivi che controllano un ambiente limitato, come una fabbrica o un edificio. Discendenti dei tradizionali gateway industriali, questi dispositivi hanno potenze elaborative anche elevate ma sono di installazione e gestione tutto sommato semplici.

Salendo in complessità troviamo i cosiddetti micro data center, ossia sistemi con uno o più rack standard che si possono acquistare già pre-configurati con tutti i componenti necessari (armadi, server, storage, networking...). Anche qui c'è il grande vantaggio della semplicità: i data center pre-configurati sono studiati - di solito dal partner tecnologico dell'azienda utente - in funzione delle esigenze dello specifico scenario d'uso, a chi li acquista resta solo il compito di collegarli alle reti dati e di alimentazione.

verticale architettura.jpeg
I micro data center spesso non sono poi tanto "micro". Raggiungono configurazioni con una decina di rack che possono supportare applicazioni impegnative come la distribuzione in streaming di contenuti multimediali per una area geografica estesa oppure l'elaborazione dati per una sede aziendale decentrata ma comunque importante. Oltre questa soglia si preferisce parlare di data center regionali, che hanno un numero di rack superiore alla decina e possono di conseguenza avere configurazioni anche molto più complesse. Per le aziende utenti è sempre possibile, comunque, realizzare data center del genere attraverso offerte configurate da terze parti.

Edge computing: i requisiti nascosti

Quando si tratta di data center è normale pensare in primo luogo ai componenti di elaborazione, storage e networking. Quando però si tratta di edge computing va prestata altrettanta attenzione ad alcuni elementi che spesso le aziende utenti considerano meno: alimentazione, condizionamento, management. Questo principalmente per due ragioni: senza affidabilità degli ambienti di edge computing non si può certo parlare in generale di resilienza dell'IT, la gestione di una architettura decentrata è più complessa rispetto a quella di un singolo data center.

Il primo aspetto è più legato al "ferro" delle soluzioni di edge computing. Che si tratti di singoli dispositivi o di micro data center, gli ambienti di elaborazione decentrata devono in ogni caso essere integrati con sistemi di gestione e protezione dell'alimentazione che siano dimensionati in base alle specifiche esigenze. Lo stesso vale per la parte del condizionamento ambientale. Questo tra l'altro richiede una accurata opera preventiva di analisi dei requisiti dell'ambiente di edge computing che si sta creando, analisi che porta alla definizione della soluzione finale e delle sue varie configurazioni.

L'aspetto del monitoraggio è legato allo stato software ma, ovviamente, si interseca con gli elementi di protezione dell'alimentazione e di condizionamento. L'ideale è avere a disposizione una piattaforma di management che dia una visione unitaria e integrata di tutta l'architettura decentrata, mostrando lo stato di funzionamento dei vari nodi. Questo è vero per qualsiasi ambiente IT ma lo è ancora di più in ambito edge computing, perché molto spesso gli ambienti periferici non hanno personale IT in loco che possa controllare il corretto funzionamento dei sistemi ed intervenire in caso di necessità. Diventa quindi indispensabile spostare questa "intelligenza" lato software.

Scarica i White Paper


Implementazione di Micro Data Center in applicazioni Edge

download

Scarica i White Paper


Tecnologia delle batterie per sistemi UPS monofase: confronto tra VRLA e ioni di litio

download

Edge Computing e infrastruttura IT

download