Cos’è l’edge computing? Ecco perché il vantaggio è importante e dove è diretto

  • Oct 21, 2023

Alcune centinaia di piccoli server, sparsi in tutto il Paese e collegati tramite cavo in fibra ottica, dovrebbero teoricamente essere in grado di fornire ai clienti lo stesso valore di un data center su vasta scala. Solo perché si può fare qualcosa, però, non dovrebbe?

Frecce luminose che si spostano in avanti verso le schermate blu.
metamorworks/Shutterstock

Ai margini di qualsiasi rete, ci sono opportunità per posizionare server, processori e array di archiviazione dati il ​​più vicino possibile a coloro che possono utilizzarli al meglio. Dove è possibile ridurre la distanza, essendo la velocità degli elettroni essenzialmente costante, si minimizza la latenza. Una rete progettata per essere utilizzata ai margini sfrutta questa distanza minima per accelerare il servizio e generare valore.

In una moderna rete di comunicazione progettata per l’uso ai margini, ad esempio, una rete wireless 5G — ci sono due possibili strategie in atto:

  • I flussi di dati, audio e video possono essere ricevuti più velocemente e con meno pause (preferibilmente nessuna) quando i server sono separati dai loro utenti da un minimo di punti di instradamento intermedi o "salti". Reti di distribuzione dei contenuti (CDN) di fornitori come Akamai, Cloudflare e NTT Communications e sono costruite attorno a questo strategia.
  • Le richieste possono essere accelerate quando i loro processori sono posizionati più vicino al luogo in cui vengono raccolti i dati. Ciò è particolarmente vero per le applicazioni legate alla logistica e alla produzione su larga scala, nonché per il Internet delle cose (IoT) dove i sensori o i dispositivi di raccolta dati sono numerosi e altamente distribuiti.

A seconda dell'applicazione, quando vengono utilizzate una o entrambe le strategie edge, questi server potrebbero effettivamente finire su un'estremità o sull'altra della rete. Poiché Internet non è strutturata come la vecchia rete telefonica, "più vicino" in termini di comodità di instradamento non è necessariamente più vicino in termini di distanza geografica. E a seconda di quanti diversi tipi di fornitori di servizi con cui la tua organizzazione ha stipulato un contratto: fornitori di applicazioni cloud pubbliche (Saas), fornitori di piattaforme di app (PaaS), fornitori di infrastrutture affittate (IaaS), reti per la distribuzione di contenuti: potrebbero esserci più tratti del patrimonio IT che competono per essere "all'avanguardia" in qualsiasi momento.

All'interno di un armadio per micro data center Schneider Electric

Scott Fulton

L'attuale topologia delle reti aziendali

Sono tre i luoghi in cui la maggior parte delle aziende tende a distribuire e gestire le proprie applicazioni e servizi:

  • In sede, dove i data center ospitano più rack di server, dove sono dotati delle risorse necessarie per alimentarli e raffreddarli e dove esiste una connettività dedicata alle risorse esterne
  • Strutture di colocation, in cui le apparecchiature del cliente sono ospitate in un edificio completamente gestito in cui alimentazione, raffreddamento e connettività vengono forniti come servizi
  • Fornitori di servizi cloud, dove l'infrastruttura del cliente può essere virtualizzata in una certa misura e vengono forniti servizi e applicazioni una base per utilizzo, consentendo di contabilizzare le operazioni come spese operative piuttosto che come spese in conto capitale

Gli architetti dell'edge computing cercherebbero di aggiungere il loro design come quarta categoria a questo elenco: quella che sfrutta la portabilità di dispositivi più piccoli, strutture containerizzate con server più piccoli e modulari, per ridurre le distanze tra il punto di elaborazione e il punto di consumo delle funzionalità il network. Se i loro piani vanno a buon fine, cercano di realizzare quanto segue:

Benefici potenziali

  • Latenza minima. Il problema con i servizi di cloud computing oggi è che sono lenti, soprattutto per i carichi di lavoro abilitati all’intelligenza artificiale. Ciò essenzialmente squalifica il cloud per un uso serio in applicazioni deterministiche, come previsioni in tempo reale sui mercati dei titoli, pilotaggio di veicoli autonomi e traffico di trasporti instradamento. I processori dislocati in piccoli data center più vicini al luogo in cui verranno utilizzati i loro processi potrebbero aprire nuovi mercati per i servizi informatici che i fornitori di servizi cloud fino ad ora non sono stati in grado di affrontare. In uno scenario IoT, in cui i cluster di dispositivi autonomi di raccolta dati sono ampiamente distribuiti, con processori più vicini sottogruppi o cluster di tali dispositivi potrebbero migliorare notevolmente i tempi di elaborazione, rendendo fattibili analisi in tempo reale su un piano molto più granulare livello.
  • Manutenzione semplificata. Per un'azienda che non ha molti problemi a inviare una flotta di camion o veicoli per la manutenzione sul campo, micro data center (μDC) sono progettati per la massima accessibilità, modularità e un ragionevole grado di portabilità. Sono involucri compatti, alcuni abbastanza piccoli da stare nel retro di un camioncino supportare server appena sufficienti per ospitare funzioni critiche in termini di tempo, che possono essere implementate più vicino i loro utenti. In teoria, per un edificio che attualmente ospita, alimenta e raffredda le risorse del data center nel seminterrato, sostituire l'intera operazione con tre o quattro µDC da qualche parte nel parcheggio potrebbe effettivamente essere un'impresa miglioramento.
  • Raffreddamento più economico. Per i complessi di data center di grandi dimensioni, il costo mensile dell'elettricità utilizzata per il raffreddamento può facilmente superare il costo dell'elettricità utilizzata nell'elaborazione. Il rapporto tra i due si chiama efficacia nell’utilizzo dell’energia (PUE). A volte, questa è stata la misura di base dell'efficienza del data center (anche se negli ultimi anni i sondaggi hanno dimostrato che meno operatori IT sanno cosa significa effettivamente questo rapporto). In teoria, potrebbe costare meno a un'azienda raffreddare e condizionare diversi spazi di data center più piccoli rispetto a uno grande. Inoltre, a causa delle peculiari modalità con cui alcune aree del servizio elettrico gestiscono la fatturazione, il costo per kilowatt potrebbe diminuire su tutta la linea per gli stessi rack di server ospitati in diverse piccole strutture anziché in una grande. Un libro bianco del 2017 pubblicato da Schneider Electric [PDF] ha valutato tutti i costi maggiori e minori associati alla costruzione di data center tradizionali e micro. Mentre un’impresa potrebbe sostenere poco meno di 7 milioni di dollari in spese di capitale per la costruzione di un impianto tradizionale da 1 MW, spenderebbe poco più di 4 milioni di dollari per realizzare 200 impianti da 5 KW.
  • Coscienza climatica. C’è sempre stato un certo fascino ecologico nell’idea di distribuire la potenza di calcolo ai clienti in un’area geografica più ampia, invece di centralizzando quel potere in strutture gigantesche e su vasta scalae fare affidamento su collegamenti in fibra ottica a larghezza di banda elevata per la connettività. Il marketing iniziale dell’edge computing si basa sull’impressione di buon senso degli ascoltatori secondo cui le strutture più piccole consumano meno energia, anche collettivamente. Ma la giuria non è ancora riuscita a stabilire se ciò sia effettivamente vero. Uno studio del 2018 condotto da ricercatori dell'Università Tecnica di Kosice, in Slovacchia [PDF], utilizzando implementazioni di edge computing simulate in uno scenario IoT, hanno concluso che l'energia l'efficacia del vantaggio dipende quasi interamente dall'accuratezza e dall'efficienza dei calcoli condotto lì. Hanno scoperto che il sovraccarico sostenuto da calcoli inefficienti sarebbe in realtà amplificato da una cattiva programmazione.

Se tutto ciò sembra un sistema troppo complesso per essere fattibile, tieni presente che nella sua forma attuale, il modello di cloud computing pubblico potrebbe non essere sostenibile a lungo termine. Questo modello consentirebbe agli abbonati di continuare a spingere applicazioni, flussi di dati e flussi di contenuti attraverso canali collegati con l’iperscala complessi le cui aree di servizio comprendono interi stati, province e paesi: un sistema che i fornitori di servizi vocali wireless non oseranno mai avere tentata.

Potenziali insidie

Tuttavia, un mondo informatico interamente rifatto secondo il modello dell’edge computing è altrettanto fantastico – e remoto – quanto un mondo dei trasporti che si è completamente svezzato dai combustibili petroliferi. Nel breve termine, il modello di edge computing si trova ad affrontare alcuni ostacoli significativi, molti dei quali non saranno del tutto facili da superare:

  • Disponibilità remota dell'energia trifase. I server in grado di fornire servizi remoti simili al cloud ai clienti commerciali, indipendentemente da dove si trovino, necessitano di processori ad alta potenza e dati in memoria, per consentire il multi-tenancy. Probabilmente, senza eccezioni, richiederanno l'accesso a elettricità trifase ad alta tensione. Altrimenti sarebbe estremamente difficile impossibile da raggiungere in località rurali relativamente remote. (La normale corrente CA da 120 V è monofase.) Le stazioni base Telco non hanno mai richiesto questo livello di potenza fino ad ora, e se non sono mai destinati ad essere sfruttati per uso commerciale multi-tenant, quindi potrebbero non aver mai bisogno di alimentazione trifase. L’unico motivo per adeguare il sistema energetico sarebbe se l’edge computing fosse praticabile. Ma per applicazioni Internet delle cose ampiamente distribuite come Sperimentazioni del Mississippi sui cardiofrequenzimetri remoti, la mancanza di infrastrutture elettriche sufficienti potrebbe finire per dividere ancora una volta gli “abbienti” da quelli “non abbienti”.
  • Suddividere i server in porzioni virtuali protette. Affinché la transizione al 5G sia accessibile, le società di telecomunicazioni devono trarre ulteriori entrate dall’edge computing. Ciò che ha portato all’idea di legare l’evoluzione dell’edge computing al 5G è stata l’idea che le funzioni commerciali e operative potessero coesistere sugli stessi server – un concetto introdotto da Ufficio centrale riprogettato come datacenter (CORD) (originariamente "Re-imagined"), una delle quali è ora considerato un facilitatore chiave del 5G Wireless. Il problema è che potrebbe anche non esserlo legale affinché le operazioni fondamentali della rete di telecomunicazioni coesistano con le funzioni dei clienti sugli stessi sistemi – le risposte dipendono se il legislatore sono in grado di comprendere la nuova definizione di “sistemi”. Fino a quel giorno (se mai arriverà), sarà adottato il 3GPP (l’organizzazione industriale che regola gli standard 5G). un concetto chiamato slicing della rete, che è un modo per suddividere i server della rete di telecomunicazioni in server virtuali a un livello molto basso, con una separazione molto maggiore rispetto a un tipico ambiente di virtualizzazione da, ad esempio, VMware. In teoria, una porzione di rete rivolta al cliente potrebbe essere implementata ai margini delle reti di telecomunicazioni, servendo un numero limitato di clienti. Tuttavia, alcune aziende più grandi preferiscono farsi carico delle proprie porzioni di rete, anche se ciò significa dispiegarli nelle proprie strutture – spostando il vantaggio nelle loro premesse – piuttosto che investire in un nuovo sistema la cui proposta di valore si basa in gran parte sulla speranza.
  • Società di telecomunicazioni che difendono i loro territori d'origine dalle evasioni locali. Se la rete di accesso radio 5G (RAN) e i cavi in ​​fibra ottica ad essa collegati devono essere sfruttati a fini commerciali servizi clienti, deve essere predisposto un qualche tipo di gateway per dirottare il traffico dei clienti privati ​​dalle telecomunicazioni traffico. L'architettura per tale gateway esiste già [PDF], ed è stato formalmente adottato dal 3GPP. È chiamato evasione locale, e fa anche parte della dichiarazione ufficiale dell'organismo di standardizzazione ETSI edge computing multiaccesso (MEC). Quindi tecnicamente il problema è stato risolto. Il problema è che alcune società di telecomunicazioni potrebbero avere interesse a impedire la deviazione del traffico dei clienti dal percorso che normalmente seguirebbe: nei propri data center. L'attuale topologia della rete Internet prevede tre livelli: i fornitori di servizi di livello 1 sono in peering solo tra loro, mentre gli ISP di livello 2 sono generalmente rivolti al cliente. Il terzo livello consente ISP regionali più piccoli a livello più locale. L’edge computing su scala globale potrebbe diventare il catalizzatore di servizi in stile cloud pubblico, offerti dagli ISP a livello locale, magari attraverso una sorta di “catena di negozi”. Ma questo presuppone che le società di telecomunicazioni, che gestiscono il livello 2, sono disposte a lasciare che il traffico di rete in entrata venga suddiviso in un terzo livello, consentendo la concorrenza in un mercato che potrebbero facilmente rivendicare per se stesse.

Se la posizione, la posizione, la posizione tornano ad avere importanza per l'azienda, allora l'intero mercato informatico aziendale potrà essere ribaltato. La natura iperscalabile, centralizzata e assetata di energia dei data center cloud potrebbe finire per funzionare contro di loro, poiché sono più piccoli, più agili e modelli operativi più convenienti spuntano – come denti di leone, se tutto va come previsto – in luoghi più ampiamente distribuiti.

"Credo che l'interesse per le implementazioni edge", ha osservato Kurt Marko, titolare della società di analisi tecnologica Marko Insights, in una nota a ZDNet, "sia principalmente guidato dalla necessità di elaborare enormi quantità di dati generati da dispositivi, sensori e utenti "intelligenti", in particolare mobili/wireless utenti. In effetti, la velocità dei dati e il throughput delle reti 5G, insieme al crescente utilizzo dei dati da parte dei clienti, richiederanno che le stazioni base mobili diventino mini data center”.

Cosa significa "edge computing"?

In qualsiasi rete di telecomunicazioni, l'edge è la portata più lontana delle sue strutture e dei suoi servizi verso i suoi clienti. Nel contesto di calcolo perimetrale, l'edge è la posizione del pianeta in cui i server possono fornire funzionalità ai clienti nel modo più rapido.

Come i CDN hanno tracciato la strada

Diagramma della relazione tra data center e dispositivi Internet of Things, come illustrato dall'Industrial Internet Consortium.

Per quanto riguarda Internet, il calcolo o l'elaborazione è condotta da server, componenti solitamente rappresentati da una forma (ad esempio una nuvola) vicino al centro o al punto focale di un diagramma di rete. I dati vengono raccolti dai dispositivi ai bordi di questo diagramma e spostati verso il centro per l'elaborazione. I dati elaborati, come il petrolio di una raffineria, vengono pompati nuovamente verso l'edge per la consegna. I CDN accelerano questo processo fungendo da "stazioni di rifornimento" per gli utenti nelle loro vicinanze. Il tipico ciclo di vita del prodotto per i servizi di rete prevede questo processo di "andata e ritorno", in cui i dati vengono effettivamente estratti, spediti, perfezionati e nuovamente spediti. E, come in ogni processo che coinvolge la logistica, il trasporto richiede tempo.

Un accurato posizionamento figurativo dei server CDN nel processo di consegna dei dati.

Comunicazioni NTT

È importante sottolineare che il fatto che la CDN risieda sempre al centro del diagramma dipende da quale diagramma stai guardando. Se il provider CDN lo ha disegnato, potrebbe esserci una grande nuvola "CDN" al centro, con le reti aziendali lungo i bordi di un lato e le apparecchiature utente lungo gli altri bordi. Un’eccezione viene da NTT, il cui diagramma semplificato ma più accurato sopra mostra i server CDN che si inseriscono tra il punto di accesso ai dati e gli utenti. Dal punto di vista dei produttori di dati o contenuti, in contrapposizione agli agenti di consegna, i CDN risiedono verso la fine della catena di fornitura, il penultimo passaggio dei dati prima che l'utente li riceva Esso.

Nel corso dell’ultimo decennio, i principali fornitori di CDN hanno iniziato a introdurre servizi informatici che risiedono nel punto di consegna. Immagina se una stazione di rifornimento potesse essere la propria raffineria e avrai un'idea. La proposta di valore per questo servizio dipende dal fatto che i CDN non vengano percepiti al centro, ma al margine. Consente ad alcuni dati di aggirare la necessità di trasporto, semplicemente per essere elaborati e trasportati indietro.

La tendenza al decentramento

Se le CDN non avevano ancora dimostrato l’efficacia dell’edge computing come servizio, ne avevano almeno dimostrato il valore come servizio. business: le aziende pagheranno dei premi per far sì che alcuni dati vengano elaborati prima che raggiungano il centro, o "core", della rete.

"Abbiamo attraversato un periodo piuttosto lungo di centralizzazione", ha spiegato Matt Baker, vicepresidente senior per la strategia e la pianificazione di Dell Technologies, durante una conferenza stampa lo scorso febbraio. "E mentre il mondo cerca di offrire sempre più esperienze digitali in tempo reale attraverso la trasformazione digitale iniziative, la capacità di mantenere quell'approccio altamente centralizzato all'IT sta iniziando a fratturarsi parecchio."

L’edge computing è stato pubblicizzato come uno dei nuovi mercati redditizi resi possibili dalla tecnologia wireless 5G. Affinché la transizione globale dal 4G al 5G sia economicamente fattibile per molte aziende di telecomunicazioni, la nuova generazione deve aprire nuovi canali di guadagno sfruttabili. Il 5G richiede una vasta e nuova rete di connessioni in fibra ottica (ironicamente) cablate per fornire ai trasmettitori e alle stazioni base l’accesso istantaneo ai dati digitali (il backhaul). Di conseguenza, si presenta l’opportunità per una nuova classe di fornitori di servizi informatici di implementare più µDC adiacente alle torri della rete di accesso radio (RAN), magari accanto o condividendo lo stesso edificio con la base delle telecomunicazioni stazioni. Questi data center potrebbero offrire collettivamente servizi di cloud computing a clienti selezionati a tariffe competitive con funzionalità paragonabili a quelle dei provider di cloud iperscalabile come Amazon, Microsoft Azure e Google Cloud Piattaforma.

Idealmente, forse dopo circa un decennio di evoluzione, l’edge computing offrirebbe servizi veloci ai clienti fino alle stazioni base wireless più vicine. Avremmo bisogno di enormi tubi in fibra ottica per fornire il backhaul necessario, ma le entrate derivanti dai servizi di edge computing potrebbero plausibilmente finanziarne la costruzione, consentendogli di ripagarsi da solo.

Obiettivi del livello di servizio

In ultima analisi (se, in effetti, qualsiasi analisi è mai stata definitiva), il successo o il fallimento dei data center ai margini della rete sarà determinato dalla loro capacità di soddisfare obiettivi di livello di servizio (SLO). Queste sono le aspettative dei clienti che pagano per i servizi, come codificate nei loro contratti di servizio. Gli ingegneri dispongono di metriche che utilizzano per registrare e analizzare le prestazioni dei componenti di rete. I clienti tendono ad evitare tali parametri, scegliendo invece di favorire le prestazioni osservabili delle loro applicazioni. Se un'implementazione edge non è notevolmente più veloce di una distribuzione su vasta scala, allora l'edge come concetto potrebbe morire nella sua infanzia.

"Che cosa ci importa? È il tempo di risposta delle applicazioni", ha spiegato Tom Gillis, vicepresidente senior di VMware per il networking e la sicurezza, durante una recente conferenza aziendale. "Se riusciamo a caratterizzare il modo in cui risponde l'applicazione e osservare il funzionamento dei singoli componenti per fornire quella risposta all'applicazione, possiamo effettivamente iniziare a creare quell'autoguarigione infrastruttura."

La riduzione della latenza e il miglioramento della velocità di elaborazione (con server più recenti dedicati a molte meno attività in termini quantitativi) dovrebbero giocare a vantaggio degli SLO. Alcuni hanno anche sottolineato come l'ampia distribuzione delle risorse su un territorio contribuisca al servizio ridondanza e persino continuità aziendale – che, almeno fino alla pandemia, erano percepiti come eventi di uno o due giorni, seguiti da periodi di recupero.

Ma ci saranno fattori di equilibrio, il più importante dei quali avrà a che fare con la manutenzione e il mantenimento. Una tipica struttura di data center di livello 2 può essere mantenuta, in circostanze di emergenza (come una pandemia), da un minimo di due persone in sede, con personale di supporto fuori sede. Nel frattempo, un µDC è progettato per funzionare senza essere costantemente rifornito di personale. Le sue funzioni di monitoraggio integrate inviano continuamente dati di telemetria a un hub centrale, che teoricamente potrebbe trovarsi nel cloud pubblico. Finché un µDC rispetta i propri SLO, non è necessario che sia assistito personalmente.

È qui che la fattibilità del modello di edge computing deve ancora essere testata a fondo. In un tipico contratto con un fornitore di data center, uno SLO viene spesso misurato in base alla rapidità con cui il personale del fornitore riesce a risolvere un problema in sospeso. In genere i tempi di risoluzione possono rimanere bassi quando il personale non deve raggiungere i punti problematici tramite camion. Se un modello di distribuzione edge deve essere competitivo con un modello di distribuzione in colocation, è meglio che le sue capacità di riparazione automatizzata siano straordinariamente buone.

La rete a livelli

Fornitori di archiviazione dati, applicazioni native del cloud ospiti, Internet delle cose fornitori di servizi (IoT), produttori di server, fondi comuni di investimento immobiliare (REIT), e i produttori di contenitori per server preassemblati, stanno tutti aprendo percorsi rapidi tra i loro clienti e ciò che promette, per ciascuno di loro, di essere all'avanguardia.

Ciò che tutti cercano realmente è il vantaggio competitivo. L’idea di un vantaggio dà nuova speranza alle prospettive di servizio premium - una ragione solida e giustificabile per cui alcune classi di servizio impongono tariffe più elevate rispetto ad altre. Se l'hai letto o sentito altrove il bordo potrebbe eventualmente inglobare l'intera nuvola, ora potresti capire che in realtà non avrebbe molto senso. Se tutto fosse premium, niente sarebbe premium.

"Apparentemente l'edge computing sarà la soluzione tecnologica perfetta e i venture capitalist affermano che sarà un mercato tecnologico multimiliardario" ha sottolineato Kevin Brown, CTO e vicepresidente senior per l'innovazione del fornitore di apparecchiature per servizi di data center e produttore di chassis per micro data center, Schneider Elettrico. "Nessuno sa veramente di cosa si tratta."

Kevin Brown di Schneider Electric: "Nessuno sa veramente di cosa si tratta."

Brown ha riconosciuto che l’edge computing può attribuire la sua storia ai pionieristici CDN, come Akamai. Tuttavia, ha continuato, "ci sono tutti questi diversi livelli: HPE ha la sua versione, Cisco ha la sua.... Non riuscivamo a dare un senso a nulla di tutto ciò. La nostra visione del bordo è in realtà molto semplificata. In futuro ci saranno tre tipi di data center nel mondo, di cui dovrai davvero preoccuparti."

L'immagine che Brown ha disegnato durante un evento stampa presso la sede dell'azienda nel Massachusetts a febbraio 2019, è una visione riemergente di un Internet a tre livelli ed è condivisa da un numero crescente di tecnologie aziende. Nel tradizionale modello a due livelli, i nodi di livello 1 sono limitati al peering con altri nodi di livello 1, mentre i nodi di livello 2 gestiscono la distribuzione dei dati a livello regionale. Fin dall'inizio di Internet, è stata designata la categoria Tier-3, ovvero l'accesso a un livello molto più locale. (Confronta questo con lo schema della rete di accesso radio cellulare, la cui distribuzione del traffico è a livello singolo.)

"Il primo punto che ci si connette alla rete è quello che consideriamo il confine locale", ha spiegato Brown. Mappato sulla tecnologia odierna, ha continuato, potresti trovare una delle strutture di edge computing di oggi in qualsiasi server inserito in un rack improvvisato in un armadio di cablaggio.

"Per i nostri scopi", ha continuato, "pensiamo che sia lì che si svolge l'azione".

"Il vantaggio, per anni, sono stati gli hotel di livello 1 come Equinix e CoreSite. Fondamentalmente sovrapponevano una rete collegandola a un'altra, e questo era considerato un vantaggio", ha spiegato Wen Temitim, CTO di fornitore di servizi di infrastruttura edge StackPath. "Ma quello che stiamo vedendo, con tutti i diversi cambiamenti nell'utilizzo basati sul comportamento dei consumatori, e con... Il COVID-19 e il lavoro da casa rappresentano un aspetto nuovo e più profondo che sta diventando sempre più rilevante nel settore dei servizi fornitori."

Individuazione del bordo su una mappa

L'edge computing è uno sforzo da portare qualità del servizio (QoS) tornare alla discussione sull'architettura e sui servizi dei data center, poiché le aziende decidono non solo chi fornirà i propri servizi, ma anche dove.

Il "margine tecnologico operativo"

Il produttore di apparecchiature per data center HPE, uno dei principali investitori nell’edge computing, ritiene che il prossimo passo da gigante nell’infrastruttura operativa sarà coordinato e guidato da personale e appaltatori che potrebbero non avere molti investimenti personali o formazione in hardware e infrastrutture: persone che, fino ad ora, sono state in gran parte incaricate di manutenzione, manutenzione e software supporto. La sua azienda definisce la competenza per questa classe di personale tecnologia operativa (OT). A differenza di coloro che percepiscono la convergenza dell’IT e delle operazioni l'una o l'altra forma di "DevOps", HPE percepisce tre classi di clienti dell’edge computing. Non solo ciascuna di queste classi, a suo avviso, manterrà la propria piattaforma di edge computing, ma lo farà anche la geografia di queste piattaforme separato gli uni dagli altri, non convergono, come illustrato in questo diagramma HPE.

Per gentile concessione di HPE

In questo caso esistono tre classi distinte di clienti, a ciascuna delle quali HPE ha suddiviso il proprio segmento dell’edge in generale. La classe OT qui si riferisce ai clienti che hanno maggiori probabilità di assegnare manager all’edge computing che hanno meno esperienza diretta con l'IT, soprattutto perché i loro prodotti principali non sono l'informazione o la comunicazione si. A quella classe viene assegnato un "vantaggio OT". Quando un'impresa effettua investimenti diretti nell'informazione in misura maggiore rispetto a un settore, o ne è largamente dipendente considerando le informazioni come una componente della propria attività, HPE le attribuisce un "vantaggio IT". Nel mezzo, per quelle aziende che sono geograficamente disperso e dipendente dalla logistica (dove l'informazione ha una componente più logica) e quindi dall'Internet delle cose, HPE gli conferisce un "IoT bordo."

La rete tripartita di Dell

Per gentile concessione di Dell Technologies

Nel 2017, Dell Technologies ha offerto per prima la sua topologia a tre livelli per il mercato informatico in generale, dividendolo in “core”, “cloud” ed “edge”. Come indica questa diapositiva di una delle prime presentazioni Dell, questa divisione sembrava radicalmente semplice, almeno all'inizio: le risorse IT di qualsiasi cliente potevano essere suddivise, rispettivamente, in 1) ciò che possiede e mantiene con i propri personale; 2) cosa delega a un fornitore di servizi e lo incarica di mantenerlo; e 3) ciò che distribuisce sul campo oltre le sue strutture domestiche, per essere gestito da professionisti operativi (che possono o meno essere esternalizzati).

In una presentazione di novembre 2018 per la Embedded Linux Conference Europe della Linux Foundation, il CTO per IoT e Edge Computing Jason Shepherd ha presentato questo semplice caso: si progettano dispositivi ed elettrodomestici per l’IoT, sarà tecnologicamente impossibile centralizzare la loro gestione, anche coinvolgendo il pubblico nuvola.

"Mia moglie ed io abbiamo tre gatti", ha detto Shepherd al suo pubblico. "Abbiamo ottenuto maggiori capacità di archiviazione sui nostri telefoni, così abbiamo potuto inviare video di gatti avanti e indietro.

Video della Fondazione Linux

"I video sui gatti spiegano la necessità dell'edge computing", ha continuato. "Se pubblico uno dei miei video online e inizia a ricevere visualizzazioni, devo memorizzarlo nella cache su più server, nel cloud. Se diventa virale, allora devo spostare quel contenuto il più vicino possibile agli abbonati a cui posso farlo. Come azienda di telecomunicazioni, o come Netflix o altro, il massimo che riesco ad ottenere è al limite del cloud, alla base delle mie torri cellulari, questi punti chiave su Internet. Questo è il concetto di MEC, Multi-access Edge Computing: avvicinare i contenuti agli abbonati. Bene, se ho miliardi di chiamate per gatti connesse là fuori, ho completamente ribaltato il paradigma, e invece di cose che cercano di abbattere, ho tutti questi dispositivi che cercano di spingere verso l'alto. Ciò ti costringe a spingere il calcolo ancora più in basso."

L’emergente “edge cloud”

Dalla prima mondiale di Il gattino spaventato di Shepherd, il concetto di limite di Dell si è in qualche modo irrigidito, da un assemblaggio sfumato di strati a un'etica di decentralizzazione più basilare.

"Per noi l'edge non è necessariamente definito da un luogo specifico o da una tecnologia specifica", ha affermato Matt Baker di Dell lo scorso febbraio. "Invece, si tratta di una complicazione per l'attuale implementazione dell'IT, perché stiamo decentralizzando sempre più il nostro IT ambienti, stiamo scoprendo che stiamo mettendo le soluzioni di infrastruttura IT, software, ecc., in condizioni sempre più limitate ambienti. Un data center è un ambiente in gran parte privo di vincoli; lo costruisci secondo le specifiche che preferisci, puoi raffreddarlo adeguatamente, c'è molto spazio. Ma poiché inseriamo sempre più tecnologia nel mondo che ci circonda, per facilitarne la diffusione queste esperienze digitali in tempo reale, ci troviamo in luoghi che in qualche modo sono messi alla prova."

Le reti dei campus, ha affermato Baker, includono apparecchiature che tendono ad essere polverose e sporche, oltre ad avere una connettività a bassa larghezza di banda. Gli ambienti delle telecomunicazioni spesso includono rack di profondità molto ridotta che richiedono una popolazione di processori ad altissima densità. E nelle località più lontane sulla mappa, c'è carenza di manodopera IT qualificata, "il che esercita una maggiore pressione sulla capacità di gestire ambienti altamente distribuiti in modo autonomo e senza personale [maniera]."

Ciononostante, spetta a un numero crescente di clienti elaborare i dati più vicino al punto in cui vengono valutati o creati per la prima volta, ha affermato. Ciò colloca la posizione del "margine", intorno al 2020, in qualunque punto della mappa in cui troverai i dati, in mancanza di una descrizione migliore, che prende fuoco.

Temitim di StackPath ritiene che questo punto sia un concetto emergente chiamato the nuvola di bordo — effettivamente una raccolta virtuale di più implementazioni edge in un'unica piattaforma. Questa piattaforma verrebbe inizialmente commercializzata ai distributori di video multicanale (MVPD, solitamente via cavo aziende ma anche alcune società di telecomunicazioni) che desiderano possedere le proprie reti di distribuzione e ridurre i costi nel lungo periodo termine. Ma come fonte di entrate aggiuntiva, questi fornitori potrebbero quindi offrire servizi simili al cloud pubblico, come applicazioni SaaS o persino hosting di server virtuali, per conto di clienti commerciali.

Un mercato “edge cloud” di questo tipo potrebbe competere direttamente con i data center Tier-2 e Tier-3 di medie dimensioni del mondo. Dato che gli operatori di tali strutture sono tipicamente clienti premium delle rispettive regioni, società di telecomunicazioni, queste potrebbero percepire l’edge cloud come una minaccia competitiva ai propri piani per il 5G Senza fili. Si tratta davvero, come ha affermato un fornitore di infrastrutture edge, di un "accaparramento fisico di terreni". E la presa è davvero appena iniziata.

Scopri di più: dalla rete interattiva CBS

  • Come l'edge computing può rinnovare e rivitalizzare il settore immobiliare commerciale di Larry Dignan, Tra le linee
  • È una corsa al limite e la fine del cloud computing come lo conosciamo di Scott M. Fulton, III, Scala
  • Rendere l’edge computing un investimento chiave per il 2020 da Forrester Research

Altrove

  • Il data center che è un tavolino da caffè di Scott M. Fulton, III, Conoscenza del data center
  • Dell si unisce ad AT&T per spostare i data center Edge ovunque dovrebbero essere di Scott M. Fulton, III, Conoscenza del data center
  • Sfide e soluzioni nell'edge computing: il futuro di Pam Baker, Linux.com