Introdotto da Cisco nel 2014, il concetto di Fog Computing venne ideato come alternativa, o meglio come estensione e completamento, del modello cloud a supporto di applicazioni IoT soggette a precisi vincoli di qualità del servizio, in particolare a livelli minimi di latenza. Per comprendere appieno l’utilità e l’impatto del Fog Computing bisogna partire dal cloud e riconoscere - in primis - quanto esso abbia rivoluzionato i processi di elaborazione, archiviazione e distribuzione dei dati svincolandoli dalle infrastrutture fisiche degli utenti. Il modello cloud è (e resta) un abilitatore fondamentale di trasformazione digitale, un’architettura ideale per l’archiviazione e l’analisi approfondita dei dati, ma meno per la gestione di ampi volumi in tempo reale, poiché ciò rischia di generare tempi d’attesa non compatibili con i requisiti di certe applicazioni critiche. Tutto ciò è fortemente accentuato dalla sempre maggiore pervasività di sensori e dispositivi IoT in svariati contesti - dalle industrie agli appartamenti, dalla logistica alle smart city -, la cui conseguenza è un aumento esponenziale e continuo del volume di dati che vanno trasmessi e gestiti in tempo reale, cioè con una latenza il più possibile prossima allo zero.

 

Fog Computing, di cosa si tratta

Più che una definizione, è utile comprendere il concetto sottostante il Fog Computing: in tal senso, l’idea del cloud vicino a terra, ai vari dispositivi, ai sensori e agli attuatori è piuttosto eloquente; la stessa metafora della nebbia (fog) è calzante, perché identifica un accumulo di particelle d’acqua sensibilmente più vicino a terra rispetto alle nuvole (cloud).

Tecnicamente, Fog Computing è un’architettura di rete distribuita, basata su tre livelli e finalizzata ad instaurare una perfetta sinergia tra le sorgenti di dati (IoT) e il Cloud. Al livello base, noto come Edge-Layer, appartengono tutti i dispositivi IoT, i sensori, i device e gli attuatori, mentre il Fog-Layer, che è quello in cui si concentrano gli aspetti innovativi, ospita quelli che vengono definiti mini data center decentralizzati (nodi), che ricevono i dati dal livello Edge e si occupano di effettuare una pre-elaborazione e gestione dei dati in tempo reale, trasmettendo in cloud quelli destinati a un’elaborazione più approfondita o all’archiviazione. Scopo dell’architettura è evidente: collocare la gestione dei dati all’Edge della rete, cioè il più vicino possibile a dove vengono originati (IoT), così da ridurre le distanze, migliorare l’efficienza e, soprattutto, le prestazioni in termini di latenza. Il paradigma è simile ma non uguale a quello dell’Edge Computing: anch’esso rappresenta un’architettura di rete distribuita ma nella quale l’elaborazione viene effettuata direttamente dai dispositivi smart dotati di appositi sistemi embedded.

 

Il Fog Computing nel new normal: dall’Industry 4.0 alle auto connesse

La stragrande maggioranza dei paradigmi smart con cui abbiamo e avremo a che fare è fondata sul ruolo cardine dell’IoT. O meglio, è fondata sui dati, che vengono generati e trasmessi da sensori e device appartenenti al macrocosmo dell’IoT: li si trova negli appartamenti, grazie alla popolarità delle soluzioni di smart home, nelle smart factory, laddove rappresentano il perno del modello 4.0, nelle smart city, negli ambienti lavorativi, nelle soluzioni logistiche avanzate e in un’infinità di altre fattispecie “connesse”. Comuni a tutti questi scenari – e a molti altri - sono proprio il monitoraggio in tempo reale e la reazione istantanea al verificarsi di determinate condizioni, fattori che rendono e renderanno sempre più indicato e diffuso il modello di Fog Computing.

Oggi, Fog Computing è principalmente associato alle smart factory e alle loro articolate reti di sensori e attuatori industriali (IIoT, Industrial Internet of Things) che di fatto abilitano il modello 4.0 permettendo all’azienda di gestire in tempo reale gli asset e la sicurezza, ma anche di abilitare fattispecie avanzate come la manutenzione predittiva. Non siamo peraltro lontani, grazie anche all’avvento del 5G, alle connected car che possono scambiare dati con altri veicoli (V2V) e con le infrastrutture stradali (V2I) per supportare scenari di guida autonoma, e sono già attive architetture di smart grid che abilitano un sistema di generazione distribuita dell’energia e si basano sull’elaborazione dei dati IoT per il monitoraggio e la auto-regolazione dei componenti dell’impianto. Nelle realtà aziendali, poi, Fog Computing potrebbe garantire performance elevate a sistemi di facility management e videosorveglianza con centinaia di videocamere da monitorare e gestire contemporaneamente, garantendo tempi di reazione fulminei di fronte a tentativi di intrusione e contestuale trasferimento di dati in cloud per condurre indagini più approfondite.

New call-to-action