Edge computing
La delega di sempre più funzioni ai “margini” della rete, per esempio ai router casalinghi o agli smartphone, consente di superare il concetto di cloud. E mette al sicuro la privacy.
L’elaborazione e il consumo dei dati “ai bordi” della rete, dove questi vengono prodotti, anziché nei nodi più centrali, è – secondo Tom Leighton, fondatore di Akamai e vincitore del Marconi Prize 2018 – la chiave del futuro tecnologico. Questo vale non solo per l’analisi dei big data o per la gestione dei download e degli streaming, per installare un aggiornamento di Windows o per guardare Netflix. Ma riguarda, anche, un cambiamento di paradigma che tocca la privacy di tutti. «Il cloud non è più sufficiente», dice Leighton, «perché il cuore della rete è troppo lontano da dove si trovano fisicamente gli utenti e non riesce a gestire tutte le richieste. Inoltre, sono sempre più evidenti i problemi normativi rispetto al “dove” risiedano fisicamente i dati, oppure i rischi di sicurezza nel caso uno dei centri nevralgici di internet venga assediato da un’alluvione di richieste in contemporanea allo scopo di mandarlo in tilt». La risposta a questa serie di problematiche è l’edge
computing, cioè far svolgere l’elaborazione dei dati alle estremità della rete. Nei server locali, magari quelli contenuti nella centralina telefonica di quartiere o nell’armadio per la connettività sotto casa. Ma anche nei router casalinghi, all’interno dei nostri smartphone, tablet e personal computer. Persino negli apparecchi dell’internet delle cose, dai termostati intelligenti ai sensori delle auto elettriche.La prima intuizione che ha portato alla nascita dell’edge computing risale ormai a vent’anni fa: il cloud era ancora nella sua infanzia, ma c’era già chi aveva capito che sarebbe stata una rivoluzione con un doppio tallone d’Achille: la latenza (distanza degli utenti dalla nuvola) e il rischio sovraccarico (un unico erogatore di servizi per tantissimi utenti). Ma perché distribuire contenuti sempre uguali da un’unica centrale? Meglio, per esempio, bilanciare la distribuzione dell’ultimo aggiornamento di Windows o macOS, sostanzialmente uguale per tutti gli utenti del pianeta, replicandolo in centri di calcolo più piccoli ed economici posizionati alla periferia di internet, in maniera tale che siano geograficamente più vicini agli utilizzatori finali. Lo stesso principio si applica anche per i servizi di streaming come Netflix. Insieme a latenza e prossimità, c’è anche la componente della sicurezza. Il tipo di attacchi più popolari in rete negli ultimi anni è stato quello dei “denial of service” distribuiti (D-Dos). L’idea è rubare l’accesso a centinaia di migliaia di pc e oggetti connessi e fare in modo che rivolgano contemporaneamente richieste allo stesso server, sovraccaricandolo. Una risposta a questo tipo di problema è la capacità di replicare in centri di calcolo locali le stesse funzioni del sito centrale, rendendo così impossibile saturarlo. Negli ultimi due anni l’edge computing si è spostato ancora più in là, ed è entrato nelle nostre case, nelle nostre borse e nelle nostre tasche, sugli apparecchi degli utenti. Questo per due motivi. Il primo è per evitare di sovraccaricare con troppi dati i nodi centrali: le informazioni rilevanti vengono selezionate con sistemi di intelligenza artificiale che inviano al centro solo i dati necessari. I big data diventano un po’ meno big e il traffico di dati inutili diminuisce. Il secondo invece ha a che fare con la privacy. Addestrare un sistema di intelligenza artificiale a riconoscere i volti, per esempio, richiede molta potenza di calcolo e un’enorme base dati. Per questo l’attività di addestramento viene svolta sui cluster di server di Google o di Apple. Ma poi, una volta che il sistema di machine
learning è addestrato, la singola istanza della rete neurale non richiede molta potenza di calcolo, è sufficiente il nostro telefonino. E siccome l’analisi avviene in locale, anche la privacy viene rispettata.