Was ist Edge-Computing? Hier erfahren Sie, warum die Kante wichtig ist und wohin sie führt

  • Oct 21, 2023

Ein paar hundert kleine Server, die über das ganze Land verteilt und über Glasfaserkabel verbunden sind, sollten theoretisch in der Lage sein, den Kunden den gleichen Mehrwert zu bieten wie ein Hyperscale-Rechenzentrum. Nur weil etwas getan werden kann, sollte es das tun?

Helle Pfeile bewegen sich vorwärts in Richtung blauer Bildschirme.
Metamorworks/Shutterstock

Am Rande eines jeden Netzwerks gibt es Möglichkeiten, Server, Prozessoren und Datenspeicher-Arrays so nah wie möglich an denen zu positionieren, die sie optimal nutzen können. Wenn Sie den Abstand verringern können, da die Geschwindigkeit der Elektronen im Wesentlichen konstant bleibt, minimieren Sie die Latenz. Ein Netzwerk, das für den Einsatz am Netzwerkrand konzipiert ist, nutzt diese minimale Entfernung, um den Service zu beschleunigen und Mehrwert zu schaffen.

In einem modernen Kommunikationsnetzwerk, das für den Einsatz am Rande konzipiert ist – zum Beispiel ein 5G-Funknetzwerk — Es gibt zwei mögliche Strategien:

  • Datenströme, Audio- und Videodaten können schneller und mit weniger Pausen (vorzugsweise gar keinen) empfangen werden, wenn die Server von ihren Benutzern mindestens 100 m voneinander entfernt sind Zwischen-Routing-Punkte oder „Hops“. Content Delivery Networks (CDN) von Anbietern wie Akamai, Cloudflare und NTT Communications sind darauf aufgebaut Strategie.
  • Bewerbungen können beschleunigt werden, wenn ihre Prozessoren näher am Ort der Datenerfassung stationiert sind. Dies gilt insbesondere für Anwendungen in der Logistik und Großserienfertigung sowie für die Internet der Dinge (IoT) wo Sensoren oder Datenerfassungsgeräte zahlreich und weit verteilt sind.

Abhängig von der Anwendung und wenn eine oder beide Edge-Strategien eingesetzt werden, können diese Server tatsächlich am einen oder anderen Ende des Netzwerks landen. Da das Internet nicht wie das alte Telefonnetz aufgebaut ist, bedeutet „näher“ in Bezug auf die Routing-Zweckmäßigkeit nicht unbedingt eine geringere geografische Entfernung. Und je nachdem, mit wie vielen verschiedenen Arten von Dienstleistern Ihr Unternehmen Verträge abgeschlossen hat – Anbieter öffentlicher Cloud-Anwendungen (SaaS), Anbieter von Apps-Plattformen (PaaS), geleaste Infrastrukturanbieter (IaaS), Content-Delivery-Netzwerke – es kann sein, dass mehrere IT-Bereiche gleichzeitig darum wetteifern, „der Vorsprung“ zu sein.

In einem Mikro-Rechenzentrumsschrank von Schneider Electric

Scott Fulton

Die aktuelle Topologie von Unternehmensnetzwerken

Es gibt drei Orte, an denen die meisten Unternehmen ihre eigenen Anwendungen und Dienste bereitstellen und verwalten:

  • Auf dem Gelände, wo Rechenzentren mehrere Server-Racks beherbergen, wo sie mit den für ihre Stromversorgung und Kühlung erforderlichen Ressourcen ausgestattet sind und wo dedizierte Konnektivität zu externen Ressourcen besteht
  • Colocation-Einrichtungen, bei dem Kundengeräte in einem vollständig verwalteten Gebäude untergebracht sind, in dem Strom, Kühlung und Konnektivität als Dienstleistungen bereitgestellt werden
  • Anbieter von Cloud-Diensten, wo die Kundeninfrastruktur bis zu einem gewissen Grad virtualisiert werden kann und Dienste und Anwendungen bereitgestellt werden eine nutzungsbezogene Basis, die es ermöglicht, Vorgänge als Betriebsausgaben und nicht als Kapitalaufwendungen zu verbuchen

Die Architekten des Edge Computing möchten ihr Design als vierte Kategorie zu dieser Liste hinzufügen: eines, das die Portabilität kleinerer, Containerisierte Einrichtungen mit kleineren, modulareren Servern, um die Entfernungen zwischen dem Verarbeitungspunkt und dem Verbrauchspunkt der Funktionalität zu verringern das Netzwerk. Wenn ihre Pläne aufgehen, wollen sie Folgendes erreichen:

Mögliche Vorteile

  • Minimale Latenz. Das Problem bei Cloud-Computing-Diensten besteht heute darin, dass sie langsam sind, insbesondere bei Workloads mit künstlicher Intelligenz. Dies disqualifiziert die Cloud im Wesentlichen für den ernsthaften Einsatz in deterministischen Anwendungen, wie z Echtzeitprognosen für Wertpapiermärkte, autonome Fahrzeugsteuerung und Transportverkehr Routenführung. Prozessoren, die in kleinen Rechenzentren näher am Einsatzort ihrer Prozesse stationiert sind, könnten neue Märkte für Computerdienste eröffnen, die Cloud-Anbieter bisher nicht bedienen konnten. In einem IoT-Szenario, in dem Cluster eigenständiger Datenerfassungsgeräte weit verteilt sind und die Prozessoren näher beieinander liegen Untergruppen oder Cluster dieser Appliances könnten die Verarbeitungszeit erheblich verbessern und Echtzeitanalysen auf einer viel detaillierteren Ebene ermöglichen Ebene.
  • Vereinfachte Wartung. Für ein Unternehmen, das keine großen Probleme damit hat, eine Flotte von Lastkraftwagen oder Wartungsfahrzeugen zu den Außendienststandorten zu schicken, Mikro-Rechenzentren (µDC) sind auf maximale Zugänglichkeit, Modularität und ein angemessenes Maß an Portabilität ausgelegt. Es handelt sich um kompakte Gehäuse, von denen einige so klein sind, dass sie in die Ladefläche eines Pickups passen Unterstützen Sie gerade genug Server zum Hosten zeitkritischer Funktionen, die näher an der Umgebung bereitgestellt werden können ihre Benutzer. Es ist denkbar, dass bei einem Gebäude, in dessen Keller derzeit die Rechenzentrumsressourcen untergebracht, mit Strom versorgt und gekühlt werden, Das Ersetzen des gesamten Vorgangs durch drei oder vier µDCs irgendwo auf dem Parkplatz könnte tatsächlich ein Problem sein Verbesserung.
  • Günstigere Kühlung. Bei großen Rechenzentrumskomplexen können die monatlichen Stromkosten für die Kühlung leicht die Stromkosten für die Verarbeitung übersteigen. Das Verhältnis zwischen beiden nennt man Effektivität des Stromverbrauchs (PUE). Zeitweise war dies das Basismaß für die Effizienz von Rechenzentren (obwohl Umfragen in den letzten Jahren gezeigt haben, dass weniger IT-Betreiber wissen, was dieses Verhältnis tatsächlich bedeutet). Theoretisch kann es einem Unternehmen weniger kosten, mehrere kleinere Rechenzentrumsräume zu kühlen und zu konditionieren als einen großen. Aufgrund der besonderen Art und Weise, wie einige Stromversorgungsgebiete die Abrechnung handhaben, Die Kosten pro Kilowatt könnten sinken auf der ganzen Linie für die gleichen Server-Racks, die in mehreren kleinen Einrichtungen statt in einer großen untergebracht sind. Ein von Schneider Electric veröffentlichtes Whitepaper aus dem Jahr 2017 [PDF] bewertete alle größeren und kleineren Kosten, die mit dem Bau traditioneller und Mikro-Rechenzentren verbunden sind. Während einem Unternehmen für den Bau einer herkömmlichen 1-MW-Anlage knapp 7 Millionen US-Dollar an Kapitalkosten entstehen könnten, würde es etwas mehr als 4 Millionen US-Dollar für die Errichtung von 200 5-KW-Anlagen ausgeben.
  • Klimagewissen. Die Idee, Rechenleistung an Kunden über ein größeres geografisches Gebiet zu verteilen, hatte schon immer einen gewissen ökologischen Reiz Zentralisierung dieser Macht in gigantischen Großanlagenund verlassen sich bei der Konnektivität auf Glasfaserverbindungen mit hoher Bandbreite. Die frühe Vermarktung von Edge Computing stützte sich auf den gesunden Menschenverstand der Zuhörer, dass kleinere Einrichtungen sogar insgesamt weniger Strom verbrauchen. Aber die Jury ist sich immer noch nicht sicher, ob das tatsächlich stimmt. Eine Studie aus dem Jahr 2018 von Forschern der Technischen Universität Kosice, Slowakei [PDF] kam mithilfe simulierter Edge-Computing-Bereitstellungen in einem IoT-Szenario zu dem Schluss, dass die Energie Die Effektivität von Edge hängt fast ausschließlich von der Genauigkeit und Effizienz der Berechnungen ab dort durchgeführt. Sie stellten fest, dass der durch ineffiziente Berechnungen verursachte Mehraufwand durch schlechte Programmierung sogar noch vergrößert würde.

Auch wenn sich das alles nach einem zu komplexen System anhört, um realisierbar zu sein, bedenken Sie, dass das öffentliche Cloud-Computing-Modell in seiner jetzigen Form auf lange Sicht möglicherweise nicht nachhaltig ist. Dieses Modell würde dazu führen, dass Abonnenten weiterhin Anwendungen, Datenströme und Inhaltsströme über mit Hyperscale verbundene Pipes pushen Komplexe, deren Versorgungsgebiete ganze Bundesstaaten, Provinzen und Länder umfassen – ein System, das Mobilfunkanbieter niemals wagen würden versucht.

Möglichen Gefahren

Dennoch ist eine Computerwelt, die im Edge-Computing-Modell völlig neu gestaltet wurde, ungefähr so ​​fantastisch – und so fern – wie eine Transportwelt, die sich vollständig von Erdölkraftstoffen entwöhnt hat. Kurzfristig steht das Edge-Computing-Modell vor einigen erheblichen Hindernissen, von denen einige nicht ganz einfach zu überwinden sein werden:

  • Fernverfügbarkeit von Drehstrom. Server, die kommerziellen Kunden Cloud-ähnliche Remote-Dienste bereitstellen können, unabhängig davon, wo sie sich befinden, benötigen Hochleistungsprozessoren und In-Memory-Daten, um Mandantenfähigkeit zu ermöglichen. Wahrscheinlich benötigen sie ausnahmslos Zugriff darauf Dreiphasen-Hochspannungsstrom. Das ist extrem schwierig, wenn nicht unmöglich, in relativ abgelegenen, ländlichen Gebieten zu erreichen. (Normaler 120-V-Wechselstrom ist einphasig.) Telekommunikations-Basisstationen haben bisher noch nie eine solche Leistung benötigt, und wenn Sie sind niemals für die gewerbliche Nutzung mit mehreren Mietern gedacht und benötigen daher möglicherweise sowieso nie dreiphasigen Strom. Der einzige Grund für eine Nachrüstung des Energiesystems wäre, wenn Edge Computing realisierbar ist. Aber für weit verbreitete Internet-of-Things-Anwendungen wie z Mississippis Versuche mit ferngesteuerten Herzmonitoren, könnte ein Mangel an ausreichender Energieinfrastruktur dazu führen, dass die „Besitzenden“ von den „Besitzlosen“ erneut gespalten werden.
  • Aufteilen von Servern in geschützte virtuelle Slices. Damit der Übergang zu 5G erschwinglich wird, müssen Telekommunikationsunternehmen zusätzliche Einnahmen aus Edge Computing erzielen. Der Grund für die Idee, die Entwicklung des Edge Computing mit 5G zu verknüpfen, war die Vorstellung, dass kommerzielle und betriebliche Funktionen auf denselben Servern nebeneinander existieren könnten – ein Konzept, das von eingeführt wurde Zentrale als Rechenzentrum umgestaltet (CORD) (ursprünglich „Re-imagined“), eine Form davon ist gilt heute als wichtiger Vermittler von 5G Wireless. Das Problem ist, dass es vielleicht gar nicht so ist legal Damit für das Telekommunikationsnetz grundlegende Vorgänge gemeinsam mit Kundenfunktionen auf denselben Systemen ausgeführt werden können, hängen die Antworten davon ab, ob der Gesetzgeber dies tut sind in der Lage, die neue Definition von „Systemen“ zu ergründen. Bis zu diesem Tag (falls es jemals so weit sein sollte) hat sich 3GPP (die Branchenorganisation, die die 5G-Standards regelt) durchgesetzt ein Konzept namens Netzwerk-SlicingDies ist eine Möglichkeit, Telekommunikationsnetzwerkserver auf sehr niedriger Ebene in virtuelle Server zu zerlegen, mit viel größerer Trennung als in einer typischen Virtualisierungsumgebung beispielsweise von VMware. Denkbar wäre, dass am Rande der Telekommunikationsnetzwerke ein kundenseitiger Netzwerkabschnitt bereitgestellt wird, der eine begrenzte Anzahl von Kunden bedient. Einige größere Unternehmen würden jedoch lieber die Verantwortung für ihre eigenen Netzwerk-Slices übernehmen, auch wenn das bedeutet, sie in ihren eigenen Einrichtungen einzusetzen – den Edge auf ihr Gelände verlegen – als in ein neues System zu investieren, dessen Wertversprechen weitgehend auf Hoffnung basiert.
  • Telekommunikationsunternehmen verteidigen ihre Heimatgebiete vor lokalen Ausbrüchen. Wenn das 5G Radio Access Network (RAN) und die damit verbundenen Glasfaserkabel kommerziell genutzt werden sollen Für den Kundenservice muss eine Art Gateway vorhanden sein, um den privaten Kundenverkehr von der Telekommunikation abzuzweigen Verkehr. Die Architektur für ein solches Gateway existiert bereits [PDF] und wurde offiziell von 3GPP übernommen. Es heißt lokaler Ausbruch, und es ist auch Teil der offiziellen Erklärung des ETSI-Standardisierungsgremiums Multi-Access-Edge-Computing (MEC). Technisch gesehen ist dieses Problem also gelöst. Das Problem ist, dass bestimmte Telekommunikationsunternehmen möglicherweise ein Interesse daran haben, die Umleitung des Kundenverkehrs weg von der normalen Richtung zu verhindern: in ihre eigenen Rechenzentren. Die heutige Internet-Netzwerktopologie besteht aus drei Ebenen: Dienstanbieter der Ebene 1 kommunizieren nur miteinander, während ISPs der Ebene 2 in der Regel kundenorientiert sind. Die dritte Ebene ermöglicht kleinere, regionale ISPs auf einer lokaleren Ebene. Edge Computing auf globaler Ebene könnte zum Katalysator für öffentliche Cloud-Dienste werden, die von ISPs auf lokaler Ebene angeboten werden, vielleicht über eine Art „Filialisten“. Aber das setzt voraus Telekommunikationsunternehmen, die Tier-2 verwalten, sind bereit, den eingehenden Netzwerkverkehr einfach auf eine dritte Ebene aufzuteilen und so den Wettbewerb in einem Markt zu ermöglichen, den sie sehr leicht für sich beanspruchen könnten.

Wenn Standort, Standort, Standort für das Unternehmen wieder von Bedeutung sind, kann der gesamte Enterprise-Computing-Markt auf den Kopf gestellt werden. Der hyperskalierte, zentralisierte und stromhungrige Charakter von Cloud-Rechenzentren könnte ihnen letztendlich entgegenwirken, da kleinere, flexiblere, An weiter verteilten Standorten entstehen kostengünstigere Betriebsmodelle – wie Löwenzahn, wenn alles wie geplant verläuft.

„Ich glaube, dass das Interesse an Edge-Implementierungen groß ist“, bemerkte Kurt Marko, Chef des Technologieanalyseunternehmens Marko Insights, in einer Mitteilung an ZDNet Dies ist in erster Linie auf die Notwendigkeit zurückzuführen, riesige Datenmengen zu verarbeiten, die von „intelligenten“ Geräten, Sensoren und Benutzern – insbesondere mobilen/drahtlosen – generiert werden Benutzer. Tatsächlich werden die Datenraten und der Durchsatz von 5G-Netzen zusammen mit der steigenden Datennutzung der Kunden erfordern, dass mobile Basisstationen zu Mini-Rechenzentren werden.“

Was bedeutet „Edge Computing“?

In jedem Telekommunikationsnetz ist der Rand die weiteste Reichweite seiner Einrichtungen und Dienste zu seinen Kunden. Im Zusammenhang mit Edge-ComputingDer Edge ist der Ort auf der Welt, an dem Server den Kunden am sinnvollsten Funktionen bereitstellen können.

Wie CDNs den Weg ebneten

Diagramm der Beziehung zwischen Rechenzentren und Internet-of-Things-Geräten, dargestellt vom Industrial Internet Consortium.

Im Internet erfolgt die Berechnung oder Verarbeitung durch Server – Komponenten, die normalerweise durch eine Form (z. B. eine Wolke) in der Nähe der Mitte oder des Brennpunkts eines Netzwerkdiagramms dargestellt werden. Daten werden von Geräten an den Rändern dieses Diagramms gesammelt und zur Verarbeitung in die Mitte gezogen. Verarbeitete Daten werden, wie etwa Öl aus einer Raffinerie, zur Auslieferung zurück zum Rand gepumpt. CDNs beschleunigen diesen Prozess, indem sie als „Tankstellen“ für Benutzer in ihrer Nähe fungieren. Der typische Produktlebenszyklus für Netzwerkdienste umfasst diesen „Round-Trip“-Prozess, bei dem Daten effektiv abgebaut, versendet, verfeinert und erneut versendet werden. Und wie jeder logistische Prozess braucht auch der Transport Zeit.

Eine genaue bildliche Platzierung von CDN-Servern im Datenbereitstellungsprozess.

NTT-Kommunikation

Wichtig: Ob sich das CDN immer in der Mitte des Diagramms befindet, hängt davon ab, wessen Diagramm Sie betrachten. Wenn der CDN-Anbieter es entworfen hat, befindet sich in der Mitte möglicherweise eine große „CDN“-Wolke mit Unternehmensnetzwerken an den Rändern einer Seite und Benutzergeräten an den anderen Rändern. Eine Ausnahme bildet NTT, dessen vereinfachtes, aber genaueres Diagramm oben zeigt, wie CDN-Server sich zwischen dem Datenzugriffspunkt und den Benutzern einschleusen. Aus der Sicht der Produzenten von Daten oder Inhalten, im Gegensatz zu den Zustellern, CDNs befinden sich am Ende der Lieferkette – dem vorletzten Schritt für Daten, bevor der Benutzer sie erhält Es.

Im Laufe des letzten Jahrzehnts haben große CDN-Anbieter damit begonnen, Computerdienste einzuführen, die sich am Lieferort befinden. Stellen Sie sich vor, eine Tankstelle könnte eine eigene Raffinerie sein, und Sie bekommen die Idee. Das Wertversprechen dieses Dienstes hängt davon ab, dass CDNs nicht im Zentrum, sondern am Rand wahrgenommen werden. Es ermöglicht, dass einige Daten nicht transportiert werden müssen, sondern nur verarbeitet und zurücktransportiert werden.

Der Trend zur Dezentralisierung

Wenn CDNs die Wirksamkeit von Edge Computing als Dienst noch nicht bewiesen haben, haben sie zumindest den Wert davon als Dienst bewiesen Geschäft: Unternehmen zahlen Prämien dafür, dass einige Daten verarbeitet werden, bevor sie das Zentrum oder den „Kern“ des Netzwerks erreichen.

„Wir befinden uns schon seit einer ziemlich langen Phase der Zentralisierung“, erklärte Matt Baker, Senior Vice President für Strategie und Planung bei Dell Technologies, während einer Pressekonferenz im vergangenen Februar. „Und da die Welt durch ihre digitale Transformation danach strebt, zunehmend digitale Erlebnisse in Echtzeit bereitzustellen Initiativen beginnt die Fähigkeit, an diesem stark zentralisierten IT-Ansatz festzuhalten, ziemlich zu bröckeln.“

Edge Computing wird als einer der lukrativen neuen Märkte angepriesen, die durch die 5G-Wireless-Technologie möglich werden. Damit der globale Übergang von 4G zu 5G für viele Telekommunikationsunternehmen wirtschaftlich machbar ist, muss die neue Generation neue, erschlossene Umsatzkanäle erschließen. 5G erfordert ein riesiges, neues Netzwerk aus (ironischerweise) kabelgebundenen Glasfaserverbindungen, um Sendern und Basisstationen sofortigen Zugriff auf digitale Daten zu ermöglichen (die Backhaul). Dadurch ergibt sich für eine neue Klasse von Computerdienstleistern die Möglichkeit, mehrere µDCs einzusetzen angrenzend an Radio Access Network (RAN)-Türme, möglicherweise neben oder im selben Gebäude wie die Telekommunikationsbasis Stationen. Diese Rechenzentren könnten gemeinsam ausgewählten Kunden Cloud-Computing-Dienste zu wettbewerbsfähigen Preisen anbieten mit Hyperscale-Cloud-Anbietern wie Amazon, Microsoft Azure und Google Cloud und vergleichbare Funktionen Plattform.

Im Idealfall, vielleicht nach etwa einem Jahrzehnt der Entwicklung, würde Edge Computing schnelle Dienste zu den Kunden bringen, die so nah an ihren nächsten Mobilfunkbasisstationen liegen. Wir bräuchten riesige Glasfaserleitungen, um den notwendigen Backhaul zu liefern, aber die Einnahmen aus Edge-Computing-Diensten könnten ihren Bau möglicherweise finanzieren und ihn so amortisieren.

Service-Level-Ziele

Letztendlich wird der Erfolg oder Misserfolg von Rechenzentren an den Netzwerkrändern von ihrer Fähigkeit bestimmt, diese Anforderungen zu erfüllen (sofern überhaupt eine Analyse jemals endgültig war). Service-Level-Ziele (SLO). Dies sind die Erwartungen der Kunden, die für Dienstleistungen bezahlen, wie in ihren Dienstleistungsverträgen festgeschrieben. Ingenieure verfügen über Metriken, mit denen sie die Leistung von Netzwerkkomponenten aufzeichnen und analysieren können. Kunden neigen dazu, diese Kennzahlen zu meiden und bevorzugen stattdessen die beobachtbare Leistung ihrer Anwendungen. Wenn eine Edge-Bereitstellung nicht spürbar schneller ist als eine Hyperscale-Bereitstellung, steckt das Edge-Konzept möglicherweise noch in den Kinderschuhen.

„Was liegt uns am Herzen? Es geht um die Reaktionszeit der Anwendung“, erklärte Tom Gillis, Senior Vice President für Netzwerk und Sicherheit bei VMware, kürzlich auf einer Unternehmenskonferenz. „Wenn wir charakterisieren können, wie die Anwendung reagiert, und uns die Funktionsweise der einzelnen Komponenten ansehen können Um diese Anwendungsantwort zu liefern, können wir tatsächlich damit beginnen, diese Selbstheilung zu erzeugen Infrastruktur.“

Die Reduzierung der Latenz und die Verbesserung der Verarbeitungsgeschwindigkeit (wobei neuere Server quantitativ weit weniger Aufgaben übernehmen) sollten dazu beitragen spielen zum Vorteil der SLOs eine Rolle. Einige haben auch darauf hingewiesen, wie die breite Verteilung der Ressourcen über ein Gebiet zum Service beiträgt Entlassungen und sogar Geschäftskontinuität – die zumindest bis zur Pandemie als ein- oder zweitägige Ereignisse wahrgenommen wurden, gefolgt von Erholungsphasen.

Aber es wird ausgleichende Faktoren geben, von denen der wichtigste mit der Wartung und Instandhaltung zu tun hat. Eine typische Tier-2-Rechenzentrumsanlage kann im Notfall (z. B. bei einer Pandemie) von nur zwei Personen vor Ort und Supportpersonal außerhalb des Standorts gewartet werden. Mittlerweile ist ein µDC darauf ausgelegt, ohne ständige Personalbesetzung zu funktionieren. Seine integrierten Überwachungsfunktionen senden kontinuierlich Telemetriedaten an einen zentralen Hub, der sich theoretisch in der öffentlichen Cloud befinden könnte. Solange ein µDC seine SLOs einhält, muss er nicht persönlich betreut werden.

Hier muss die Realisierbarkeit des Edge-Computing-Modells noch gründlich getestet werden. Bei einem typischen Vertrag mit einem Rechenzentrumsanbieter wird ein SLO häufig daran gemessen, wie schnell das Personal des Anbieters ein offenes Problem lösen kann. In der Regel können die Lösungszeiten kurz bleiben, wenn das Personal die Problemstellen nicht mit dem LKW erreichen muss. Wenn ein Edge-Bereitstellungsmodell mit einem Colocation-Bereitstellungsmodell konkurrenzfähig sein soll, müssen seine automatisierten Behebungsfunktionen besser überragend gut sein.

Das abgestufte Netzwerk

Datenspeicheranbieter, Cloud-native Anwendungen Gastgeber, Internet der Dinge (IoT)-Dienstleister, Serverhersteller, Immobilien-Investmentfonds (REIT), und Hersteller von vormontierten Serverschränken ebnen alle schnelle Wege zwischen ihren Kunden und dem, was für jeden von ihnen den Vorsprung verspricht.

Was sie alle wirklich suchen, ist ein Wettbewerbsvorteil. Die Idee einer Kante weckt neue Hoffnung auf die Aussichten Premium-Service – ein stichhaltiger, gerechtfertigter Grund dafür, dass bestimmte Dienstleistungsklassen höhere Tarife verlangen als andere. Wenn Sie das anderswo gelesen oder gehört haben Der Rand könnte schließlich die gesamte Wolke verschlingen, vielleicht verstehen Sie jetzt, dass das eigentlich keinen Sinn ergeben würde. Wenn alles Premium wäre, wäre nichts Premium.

„Edge Computing wird offenbar die perfekte Technologielösung sein, und Risikokapitalgeber sagen, dass es ein milliardenschwerer Technologiemarkt sein wird.“ bemerkte Kevin Brown, CTO und Senior Vice President für Innovation beim Anbieter von Serviceausrüstung für Rechenzentren und Hersteller von Gehäusen für Mikro-Rechenzentren, Schneider Elektrisch. „Niemand weiß eigentlich, was es ist.“

Kevin Brown von Schneider Electric: „Niemand weiß eigentlich, was es ist.“

Brown räumte ein, dass Edge Computing seine Geschichte möglicherweise auf die bahnbrechenden CDNs wie Akamai zurückführt. Dennoch fuhr er fort: „Es gibt all diese verschiedenen Schichten – HPE hat ihre eigene Version, Cisco hat ihre eigene.“. Wir konnten das alles nicht verstehen. Unsere Sicht auf die Kante ist eigentlich eine sehr vereinfachte Sichtweise. In Zukunft wird es weltweit drei Arten von Rechenzentren geben, um die man sich wirklich Sorgen machen muss.“

Das Bild zeichnete Brown während einer Presseveranstaltung im Hauptsitz des Unternehmens in Massachusetts im Februar 2019 ist eine wieder aufkommende Sicht auf ein dreistufiges Internet und wird von einer wachsenden Zahl von Technologien geteilt Firmen. Im traditionellen zweistufigen Modell sind Tier-1-Knoten auf das Peering mit anderen Tier-1-Knoten beschränkt, während Tier-2-Knoten die Datenverteilung auf regionaler Ebene übernehmen. Seit den Anfängen des Internets gibt es die Bezeichnung Tier-3 – für den Zugriff auf einer viel lokaleren Ebene. (Vergleichen Sie dies mit dem zellularen Radio Access Network-Schema, dessen Verkehrsverteilung einstufig ist.)

„Der erste Punkt, den Sie mit dem Netzwerk verbinden, ist eigentlich das, was wir als lokalen Rand bezeichnen“, erklärte Brown. Auf die heutige Technologie übertragen, fuhr er fort, könnte man in jedem Server, der in einem provisorischen Rack in einem Verteilerschrank untergebracht ist, eine der heutigen Edge-Computing-Einrichtungen finden.

„Für unsere Zwecke“, fuhr er fort, „denken wir, dass dort die Aktion stattfindet.“

„Jahrelang waren die Tier-1-Carrier-Hotels wie Equinix und CoreSite im Vorteil. Sie würden im Grunde genommen ein Netzwerk schichten, das mit einem anderen verbunden wäre, und das wurde als Edge betrachtet“, erklärte Wen Temitim, CTO von Edge-Infrastrukturdienstleister StackPath. „Aber was wir sehen, mit all den unterschiedlichen Nutzungsänderungen, die auf dem Verbraucherverhalten basieren, und mit COVID-19 und die Arbeit von zu Hause aus sind ein neuer und tiefergehender Vorteil, der im Servicebereich immer wichtiger wird Anbieter.“

Lokalisierung der Kante auf einer Karte

Edge Computing ist eine Anstrengung Dienstqualität (QoS) zurück in die Diskussion über die Architektur und Dienste von Rechenzentren, da Unternehmen nicht nur entscheiden, wer ihre Dienste bereitstellt, sondern auch wo.

Der „operative Technologievorsprung“

Der Hersteller von Rechenzentrumsausrüstung HPE – ein wichtiger Investor in Edge Computing – glaubt, dass der nächste große Sprung in der Betriebsinfrastruktur von Mitarbeitern und Auftragnehmern koordiniert und geleitet wird die möglicherweise, wenn überhaupt, nicht über viel persönliche Investition oder Ausbildung in Hardware und Infrastruktur verfügen – Menschen, die bisher hauptsächlich mit Wartung, Instandhaltung und Software betraut waren Unterstützung. Ihr Unternehmen nennt den Zuständigkeitsbereich für diese Personalklasse Betriebstechnik (OT). Im Gegensatz zu denen, die das Gefühl haben, dass IT und Betrieb zusammenwachsen die eine oder andere Form von „DevOps“, HPE unterscheidet drei Klassen von Edge-Computing-Kunden. Seiner Ansicht nach wird nicht nur jede dieser Klassen ihre eigene Edge-Computing-Plattform unterhalten, sondern auch die Geographie dieser Plattformen separate voneinander abweichen und nicht konvergieren, wie dieses HPE-Diagramm zeigt.

Mit freundlicher Genehmigung von HPE

Hier gibt es drei verschiedene Kundenklassen, denen HPE jeweils ein eigenes Edge-Segment zugeteilt hat. Die OT-Klasse bezieht sich hier auf Kunden, die eher Manager mit weniger Ressourcen für Edge Computing beauftragen direkte Erfahrung mit IT, vor allem weil ihre Hauptprodukte nicht Information oder Kommunikation sind selbst. Dieser Klasse wird ein „OT-Vorteil“ zugeteilt. Wenn ein Unternehmen stärker direkt in Informationen investiert als eine Branche oder weitgehend abhängig ist Da HPE Informationen als Bestandteil seines Geschäfts betrachtet, schreibt es ihm einen „IT-Vorsprung“ zu. Dazwischen für die Unternehmen, die geografisch verteilt sind verstreut und abhängig von der Logistik (wo die Informationen eine logischere Komponente haben) und damit dem Internet der Dinge, verleiht HPE ihm ein „IoT“. Rand."

Das dreigliedrige Netzwerk von Dell

Mit freundlicher Genehmigung von Dell Technologies

Im Jahr 2017 Dell Technologies bot erstmals seine dreistufige Topologie an für den gesamten Computing-Markt und unterteilt ihn in „Core“, „Cloud“ und „Edge“. Wie diese Folie aus einer frühen Dell-Präsentation zeigt, ist diese Abteilung schien zumindest zunächst radikal einfach: Die IT-Ressourcen eines Kunden könnten aufgeteilt werden in 1) das, was er besitzt und zusammen mit seinen eigenen verwaltet Personal; 2) was es an einen Dienstleister delegiert und mit der Wartung beauftragt; und 3) das, was es außerhalb seiner Heimatanlagen im Außendienst verteilt, muss von Betriebsfachleuten gewartet werden (die möglicherweise ausgelagert sind oder nicht).

In eine Präsentation vom November 2018 Für die Embedded Linux Conference Europe der Linux Foundation brachte Jason Shepherd, CTO für IoT und Edge Computing, diesen einfachen Fall auf den Punkt: So viele vernetzten sich Obwohl Geräte und Geräte für das IoT geplant werden, wird es technologisch unmöglich sein, ihre Verwaltung zu zentralisieren, auch wenn wir die Öffentlichkeit einbeziehen Wolke.

„Meine Frau und ich haben drei Katzen“, sagte Shepherd seinem Publikum. „Wir haben größere Speicherkapazitäten auf unseren Handys bekommen, sodass wir Katzenvideos hin und her schicken konnten.

Video der Linux Foundation

„Katzenvideos erklären die Notwendigkeit von Edge Computing“, fuhr er fort. „Wenn ich eines meiner Videos online poste und es anfängt, Zugriffe zu bekommen, muss ich es auf mehreren Servern zwischenspeichern, weit zurück in der Cloud. Wenn es viral geht, muss ich den Inhalt so nah an die Abonnenten bringen, dass ich ihn erreichen kann. Als Telekommunikationsunternehmen, als Netflix oder was auch immer, ich komme am nächsten an den Cloud-Rand – am Fuße meiner Mobilfunkmasten, diesen Schlüsselpunkten im Internet. Dies ist das Konzept von MEC, Multi-Access Edge Computing – Inhalte näher an Abonnenten zu bringen. Nun, wenn ich da draußen Milliarden von vernetzten Katzenrufern habe, habe ich das Paradigma komplett umgedreht, und statt Dinge, die versuchen, nach unten zu ziehen, habe ich all diese Geräte, die versuchen, nach oben zu drücken. Dadurch muss man die Rechenleistung noch weiter nach unten schieben.“

Die aufkommende „Edge Cloud“

Seit der Weltpremiere von Shepherds Angstkätzchen hat sich Dells Konzept der Kante etwas verhärtet, von einer nuancierten Anordnung von Schichten hin zu einer eher grundlegenden Dezentralisierungsethik.

„Wir glauben, dass der Vorsprung nicht unbedingt durch einen bestimmten Ort oder eine bestimmte Technologie definiert wird“, sagte Matt Baker von Dell im vergangenen Februar. „Stattdessen stellt es eine Komplikation für den bestehenden IT-Einsatz dar, da wir unsere IT zunehmend dezentralisieren.“ In vielen Umgebungen stellen wir fest, dass wir IT-Infrastrukturlösungen, Software usw. immer stärker einschränken Umgebungen. Ein Rechenzentrum ist eine weitgehend uneingeschränkte Umgebung; Man baut es nach den Spezifikationen, die man möchte, man kann es ausreichend kühlen, es gibt jede Menge Platz. Aber da wir immer mehr Technologie in die Welt um uns herum bringen, um die Bereitstellung von zu erleichtern Bei diesen digitalen Echtzeiterlebnissen befinden wir uns an Orten, die in irgendeiner Weise herausgefordert sind.

Campus-Netzwerke, so Baker, umfassen neben der Konnektivität mit geringer Bandbreite auch Geräte, die dazu neigen, staubig und schmutzig zu sein. Telekommunikationsumgebungen umfassen häufig Racks mit sehr geringer Tiefe, die eine sehr hohe Prozessordichte erfordern. Und an den entlegensten Orten auf der Karte mangelt es an qualifizierten IT-Arbeitskräften, „was den Druck auf die Fähigkeit erhöht, stark verteilte Umgebungen mannlos und unbemannt zu verwalten [Benehmen]."

Dennoch sei es für eine wachsende Zahl von Kunden Pflicht, Daten näher an dem Punkt zu verarbeiten, an dem sie erstmals bewertet oder erstellt werden, argumentierte er. Damit wird der Standort „der Rand“ um das Jahr 2020 herum an dem Punkt auf der Karte platziert, an dem Daten mangels einer besseren Beschreibung in Flammen aufgehen.

Temitim von StackPath glaubt, dass es sich bei diesem Punkt um ein aufkommendes Konzept namens handelt Randwolke – praktisch eine virtuelle Sammlung mehrerer Edge-Bereitstellungen auf einer einzigen Plattform. Diese Plattform würde zunächst an Mehrkanal-Videoverteiler (MVPDs, in der Regel etablierte Kabelanbieter) vermarktet Unternehmen, aber auch einige Telekommunikationsunternehmen, die ihre eigenen Vertriebsnetze besitzen und langfristig Kosten senken möchten Begriff. Aber als zusätzliche Einnahmequelle könnten diese Anbieter dann im Auftrag kommerzieller Kunden Public-Cloud-ähnliche Dienste wie SaaS-Anwendungen oder sogar virtuelles Server-Hosting anbieten.

Ein solcher „Edge-Cloud“-Markt könnte direkt mit den mittelgroßen Tier-2- und Tier-3-Rechenzentren der Welt konkurrieren. Da es sich bei den Betreibern dieser Anlagen in der Regel um Premiumkunden ihrer jeweiligen Region handelt, Telekommunikationsunternehmen könnten die Edge-Cloud als Wettbewerbsbedrohung für ihre eigenen Pläne für 5G wahrnehmen Kabellos. Es handelt sich tatsächlich, wie es ein Anbieter von Edge-Infrastruktur ausdrückte, um einen „physischen Landraub“. Und das Greifen hat wirklich gerade erst begonnen.

Erfahren Sie mehr – vom CBS Interactive Network

  • Wie Edge Computing Gewerbeimmobilien neu gestalten und neu beleben kann von Larry Dignan, Zwischen den Zeilen
  • Es ist ein Wettlauf zum Rand und das Ende des Cloud Computing, wie wir es kennen von Scott M. Fulton, III, Skala
  • Machen Sie Edge Computing zu einer wichtigen Investition für 2020 von Forrester Research

Anderswo

  • Das Rechenzentrum, das ein Couchtisch ist von Scott M. Fulton, III, Wissen über Rechenzentren
  • Dell schließt sich AT&T an, um Edge-Rechenzentren dorthin zu verlegen, wo sie sein sollten von Scott M. Fulton, III, Wissen über Rechenzentren
  • Herausforderungen und Lösungen im Edge Computing: Die Zukunft von Pam Baker, Linux.com