Zweckmäßig gebaut: 5G und die Maschinen, die den Vorsprung verschieben würden

  • Sep 05, 2023

Wo die Realität der Aufrechterhaltung eines Netzwerks mit mehreren Terabit pro Sekunde eine neue Herangehensweise an das Problem der Orchestrierung von Netzwerkdiensten erfordert. Werden wir, wenn wir fertig sind, noch die Server haben, wie wir sie kennen? Und wo wird eigentlich der Rand sein?

Video: 5G-Funknetze: Was Sie wissen müssen

Hervorgehoben

  • Ist Windows 10 zu beliebt für sein eigenes Wohl?
  • 5 Wege, den besten Ort für den Berufseinstieg zu finden
  • So wird generative KI die Gig Economy zum Besseren verändern
  • 3 Gründe, warum ich dieses 300-Dollar-Android dem Pixel 6a von Google vorziehe

5G-Wireless Dabei geht es nicht wirklich darum, dass die Downlink-Geschwindigkeit schneller wird oder die Frequenzen vielfältiger und verteilter werden. Hierbei handelt es sich um Phänomene, die durch die tatsächliche Technologie hervorgerufen werden, die ihre Existenz überhaupt erst inspiriert hat – eine Entwicklung, die zu diesem Zeitpunkt möglicherweise nicht realisierbar war 4G wurde konzipiert

. Es gibt nichts an 4G, was seine Fähigkeit zur Beschleunigung beeinträchtigt hätte, nicht einmal das Millimeterwellensystem, mit dem Gigabit-Internetdienste in dicht besiedelten Innenstädten verfügbar gemacht würden.

Muss lesen: Teil eins: Der größte Wandel: 5G und der Wettlauf um die Zukunft | Teil zwei: Verkabelung für WLAN: 5G und der Turm in Ihrem Garten | Teil drei: Backhand Slice: 5G und die Überraschung für die Wireless Cloud am Edge | Teil vier: Over the Edge: 5G und das Internet ganz unterschiedlicher Dinge

Drahtlose Sendereinrichtungen (WTF) sind zu kostspielig in der Wartung und laufen zu heiß. 5G verwandelte sich von einem Wunschtraum in eine dringende Notwendigkeit, indem vorgeschlagen wurde, die von Basisstationen betriebene Software zu verlagern Cloud-Rechenzentren. Dadurch würden Hochgeschwindigkeitsprozessoren in den Basisstationen und Antennen überflüssig und die Kühlkosten drastisch gesenkt. Für viele Telekommunikationsunternehmen auf der ganzen Welt könnte es ihre Netzwerke wieder profitabel machen.

Die Virtualisierung des Evolved Packet Core (EPC) drahtloser Netzwerke findet bereits mit 4G LTE statt. Es gibt keinen einheitlichen Weg, dies zu erreichen – tatsächlich ist EPC ein wettbewerbsintensiver Markt mit einer Vielzahl von Anbietern. Als nächstes würde 5G die Virtualisierung des hinzufügen Funkzugangsnetzwerk (RAN). Open-Source-Anbieter sind weiterhin sehr beharrlich darauf bedacht, einen und nur einen Weg zu ermöglichen, dies zu erreichen. Aber bei Konsortien, Koalitionen und Zusammenschlüssen von Anbietern, die gemeinsam einen Markt teilen, ging es nie um Offenheit. Wie 5G diesen Virtualisierungsmodus umsetzen wird, bleibt also bis heute weitgehend nur eine Idee.

Der Weg nach Nova Gra

In der vorherigen Ausgabe von Skala, sprangen wir über den Rand unserer letzten Karte und fanden uns in einer völlig anderen Welt wieder.

Dort stellten wir Ihnen Dr. Andreas Müller vor, Leiter Kommunikation und Netzwerktechnik der Bosch GmbH und Vorsitzender der 5G Alliance for Connected Industries and Automation (5G-ACIA). Wie Sie sich vielleicht erinnern, führte Dr. Mueller die Teilnehmer des jüngsten Brooklyn 5G-Gipfels in die radikale Idee ein, dass Netzwerkfunktionen Virtualisierung (NFV) für Die Kundenseite von 5G-Netzen kann so partitioniert oder „sliced“ werden, dass einzelne Kundenanwendungen ihre eigene vollständige virtuelle Funktion erhalten Netzwerke. Wir haben schon einmal von „vertikalem Slicing“ (kundengesteuerter Netzwerksegmentierung) gehört, obwohl dieser Fortschritt in der Technik auch Deep Slicing genannt wird.

Dr. Mueller wurde direkt von einem Ingenieur gefragt Sprint, Glaubt er, dass 3GPP – der Verband kommerzieller Mobilfunkakteure – die Branchenanforderungen für das von Bosch geforderte Maß an Netzwerk-Slicing vollständig spezifiziert hat? „Nun, die Antwort ist nein“, antwortete er.

„Daran arbeiten wir. Es gibt eine Initiative, nicht nur von Bosch, sondern auch von anderen Akteuren, um sicherzustellen, dass industrielle Anwendungsfallanforderungen in 3GPP berücksichtigt werden. Während wir hier sitzen, laufen in SA1 [3GPPs Arbeitsgruppe „Dienste“] und SA2 [seiner Architekturgruppe] Diskussionen darüber, was wir dafür wirklich benötigen. Aber ich würde nicht so weit gehen und behaupten, dass bereits alles aufgeschrieben und spezifiziert ist. Denn auch wir lernen noch. Ich meine, es ist die Lernphase, die wir wahrscheinlich alle brauchen. Daher muss die ITC-Branche den Bereich verstehen und wissen, was tatsächlich erforderlich ist. und wir müssen auch die Fähigkeiten verstehen und so weiter. Und wir müssen auch eine gemeinsame Sprache finden.“

Lesen Sie auch: Wie sich 5G auf die Zukunft der Landwirtschaft und die digitale Transformation von John Deere auswirken wird

Es ist nicht so, dass die Suche nach einer gemeinsamen Sprache unter Rechenzentrums- und Telekommunikationsfachleuten nicht bereits begonnen hätte.

Ildiko Vancsa ist technische Leiterin des Ökosystems bei der OpenStack Foundation. Wie Sie sich erinnern, ist OpenStack eine Hybrid-Cloud-Plattform, die ursprünglich für Unternehmen entwickelt wurde Sie können ihre eigenen Dienste so bereitstellen, wie sie es auf einer öffentlichen Cloud-Plattform tun würden, jedoch auf einer herstellerneutralen Plattform Stapel. Es waren Telekommunikationsunternehmen wie AT&T, das sich 2012 an die OpenStack-Community wandte, erinnerte sie uns mit der Bitte, an der Entwicklung dieser Plattform mitzuwirken. Die darauf folgenden Bemühungen brachten die relevanten Parteien zusammen Gründung des Kooperationsgremiums OPNFVDies ermöglicht es Serveranbietern wie Cisco, Dell und IBM, gemeinsam auf das gemeinsame Ziel hinzuarbeiten, Netzwerkfunktionen auf Carrier-Niveau auf alltäglichen x86-Servern zu virtualisieren.

„Wir hatten immer mehr Telekommunikationsunternehmen, die auftauchten“, sagte Vancsa ZDNet-Skala, „und sagen: ‚Ja, diese ganze Sache mit der Cloud-Technologie sieht wirklich toll aus, und wir denken, dass wir das auch für unsere Dienste und den Betrieb nutzen könnten VNFs an der Spitze.' Für unsere Community war es eine kleine Herausforderung, allein aus der reinen Perspektive der verschiedenen Vokabulare, die Unternehmensdaten enthalten Center-Leute und Telekommunikationsleute nutzen, und wir kommen mit den Anforderungen und den Gründen, warum Telekommunikationsleute es tun, auf den gleichen Stand Sich mehr um Dinge zu kümmern, um die sich Rechenzentrumsleute weniger kümmern, wie etwa all diese Five-9s und die komplexeren Herausforderungen und Anforderungen in der Networking-Raum.“

Es gibt einen Präzedenzfall für die Lösung genau dieses Problems Brooklyn 5G-Gipfel Die Leute suchten nach einer Lösung. Tatsächlich könnten einige der Organisationen, die sowohl zur OpenStack Foundation als auch zu 3GPP gehören, von denselben Personen vertreten werden. Aber trotz all der verschiedenen Masken und Persönlichkeiten, die Ingenieure in beiden Branchen heutzutage mit sich herumtragen, ist es immer noch vorstellbar, dass Kommunikationslücken bestehen bleiben. Vancsa sagte, sie glaube, dass die Erfahrung ihres Teams bei der Schließung dieser Lücken dazu beitrage, die notwendigen Definitionen für Edge Computing besser voranzutreiben.

Aber wie der bahnbrechende SDN-Architekt Tom Nadeau jetzt mit Linux-Distributor Red Hat, sagte uns bei Waypoint 3, sei er der Meinung, dass es nicht die Aufgabe eines Industriekonsortiums sein sollte, zu versuchen, zu standardisieren – um die Definitionen und Spezifikationen jeder Technologie zu versiegeln und anzubringen, die von einer Open Source gefälscht wird Gemeinschaft. Was würde 3GPP mit anderen Worten bewirken, wenn die OpenStack- und OPNFV-Leute eine eigene branchenweite Lösung entwickeln würden, wenn sie nachträglich Deep Slicing neu definieren würden?

Lesen Sie auch: 5G-Mobilfunknetze: Ein Spickzettel (TechRepublic)

„Übermäßig pedantisch und vorschreibend in Bezug auf die Architekturen zu sein, die diese Organisationen vorantreiben – das sind sie.“ „Wir werden schnell immer weniger relevant“, sagte uns Nadeau und bezog sich dabei auf die Assoziationsklasse, zu der 3GPP gehört gehört. „Ich habe im letzten Jahr mit verschiedenen Betreibern gesprochen und sie haben unterschiedliche Ansichten darüber, was sie tun wollen. Sie verstehen zunehmend, dass sie nicht nur unter Kostendruck stehen, sondern auch herausfinden müssen, wie sie innovativ sein können. Weil die übertriebenen Typen essen ihr Mittagessen.

Rückfluss

Wenn es eine künstlich geschaffene Kraft gibt, die empfindlicher auf Stimmungsschwankungen reagiert als die Mode, dann ist es die Wirtschaft. Die Bedingungen, die zu katastrophalen technologischen Veränderungen geführt haben, sind selbst launische Dinge mit begrenzter Lebensdauer.

Von den vier Kräften, die Das erklärten die Analysten von Gartner im Jahr 2012 Während sich die moderne Welt verändert – soziale, mobile, Cloud- und Informationswelt –, scheint sich keines davon in einem annähernd stabilen Zustand zu befinden. Vor zwei Jahren wurde die Der Markt für Mobilgeräte steckte fest, und muss noch entkommen. Der Stagnation des Social-Media-Wachstums hat zu einer Zunahme von Fragen und Debatten über seinen schwindenden Einfluss auf die Gesellschaft geführt und darüber, ob sich die Vielzahl polarisierter Quellen inmitten des Lärms und der Verschwendung lediglich gegenseitig aufheben.

Viele große Unternehmen haben bereits begonnen ziehen ihre digitalen Assets aus der öffentlichen Cloud zurück, da ihre Kampagnen zum Aufbau von Big-Data-Systemen auf virtuellen Plattformen direkt mit Break-Even-Punkten und Gesamtbetriebskosten kollidieren. Und Informationen selbst sind in den USA und mehreren anderen Ländern bereits zu einer Waffe geworden, deren Hauptopfer die Gesundheit und das Wohlergehen der Demokratie ist.

Wenn diese vier Kräfte wirklich für eine Verschwörung zur Herbeiführung einer technologischen Renaissance im Jahr 2012 verantwortlich waren, dann sind wir es nach derselben Logik sollten im Jahr 2018 zumindest eine technologische Rezession erleben, und diese Kräfte sollten aufgespürt, verhaftet und wegen Vernachlässigung angeklagt werden Pflicht.

Lesen Sie auch: Einführung von 5G: Die ersten drei Branchen, die an vorderster Front stehen werden (TechRepublic)

Der Fehler liegt hier in der Wahrnehmung. Anstelle von vier Kräften an sich, die als eigenständige Agenten agieren, sind diese von Gartner isolierten Elemente tatsächlich Nebenprodukte einer einzigen größere Kraft am Werk: die globalen Bemühungen um Konnektivität und der Treibstoff unseres metaphorischen „Union Strategic Pathway“ Lokomotive. Diese Nebenprodukte sind eigentlich Ressourcen – die Amortisation für eine erfolgreiche Konnektivitätsbemühung. Stellen Sie sich diese Ressourcen wie Waren in einem riesigen, globalen Rechenzentrum vor. Was sich ändert, ist nicht die Gesundheit dieser Waren an sich, sondern wie sie zusammen konfiguriert werden. Unternehmen, Organisationen und Industrien verändern ihre Ausrichtung.

Die Entscheidung der Telekommunikationsunternehmen der Welt Die Basisbandfunktionalität und Funkzugangsnetzwerkkerne ihrer Basisstationen in die Cloud zu verlagern, ist eine Verlagerung der Wetten. Sie versuchten es auf eine Art und Weise, mit zunächst gemischten Ergebnissen, die später nachließen. 5G ist eine Neuausrichtung ihrer Geschäftsinteressen. Es ist nicht so, dass Mobilität ein Ideal ist beschloss plötzlich, sich selbst auszuschalten. Das wichtigste mobile Element in einem mobilen Technologierahmen ist nicht das Gerät, sondern der Kunde.

„Selbst dann müssen wir einen Drilldown durchführen, um zu erklären, was ein Kundenservice ist?“ bemerkte Igal Elbaz, Vizepräsident für Ökosystem und Innovation bei AT&T. „Sprechen wir über einen Unified-Communications-Dienst? Oder eine AR-Plattform (Augmented Reality), die es mir ermöglicht, am Rande zu rendern? Oder reden wir über den Zugriff auf einen Benutzer, der es mir ermöglicht, Datendienste zu erhalten? Sie verstehen, das sind unterschiedliche Fragen für unterschiedliche Dienste.

„Wir denken über Investitionen am Rande nach“, fuhr Elbaz fort, „weil die Konvergenz von Berechnung und Netzwerk wichtig ist.“ um einige der Anwendungsfälle und Geschäftsmodelle freizusetzen, über die die Leute sprechen – AR, Inhaltsverteilung, autonom Autos. Einige der Merkmale von 5G hängen mit Network Slicing zusammen, das es uns ermöglicht, bestimmte Kunden einer anderen Klasse auf eine bestimmte Art und Weise zu bedienen – bestimmte Richtlinien auf bestimmte Kunden anzuwenden. Aber wie, wo ist der Service und wie definiert man einen Service – ich möchte sicherstellen, dass wir da korrekt sind.“

Das Wort, das in Elbaz' Kommentar hier hervorsticht, ist Klasse. Seine Anwendungsfälle für Network Slicing betreffen Kategorien von Anwendungen, nicht die spezifischen Instanzen von Anwendungen, die für die ausschließliche Nutzung durch einen bestimmten Kunden abgeschottet sind – wie es Müller von Bosch tun würde bevorzugen. AT&T weiß, dass seinen Cloud-Rechenzentren, wann und ob sie online gehen, zunächst die Schlagkraft fehlt, um mit Amazon AWS, Microsoft Azure usw. zu konkurrieren Google Cloud. Daher muss das Unternehmen diese ersten Jahre damit verbringen, bestimmte Kundenklassen aus der öffentlichen Cloud zu entfernen – Klassen, die möglicherweise eine niedrige Latenz wünschen, schnelles Rendering, einfacher Zugriff oder alles andere, was einem Netzbetreiber aufgrund des Betriebs von Diensten am Rande einen strategischen Vorteil verschaffen kann. Hinter der Behauptung von AT&T, dass die Frage, was in Scheiben geschnitten werden kann, bereits entschieden sei, steckt offensichtlich ein Marketinggrund sowie ein Sicherheitsgrund.

Die Art von exklusivem, maßgeschneidertem Service, den Mueller beschreibt, wäre möglicherweise nur dann realisierbar, wenn sich die Bosches der Welt zusammenschließen würden, vielleicht um ihre Kaufkraft zu bündeln. Andererseits, so sagte er auf dem Brooklyn 5G Summit, könne man Kunden auf der Ebene von Bosch nicht in Klassen einteilen. Sie alle haben sehr spezielle Anwendungsfallanforderungen und möchten lieber ausschließlich oder gar nicht behandelt werden. Bosch erwägt aktiv, wieder ein eigenes Rechenzentrum zu besitzen und zu betreiben, wenn das IT-Personal dadurch eine detaillierte Kontrolle über die Betriebskonfigurationen des Unternehmens haben kann.

Lesen Sie auch: 5G könnte die Kluft zwischen Besitzenden und Besitzlosen vergrößern (CNET)

„Wir haben sehr hohe Anforderungen an die Latenz und an die Zuverlässigkeit“, sagte Mueller, „und wir brauchen auch so etwas wie Deep Slicing.“ Der Slice endet nicht an einer Kommunikationsschnittstelle; Wir müssen auch das Betriebssystem, die Planung des Betriebssystems und möglicherweise alles unter der Anwendung berücksichtigen. Auch das ist aus unserer Sicht etwas, worüber wir weiter diskutieren müssen. Natürlich geht es auch um das Preismodell. In der Fertigungsindustrie besteht die Bereitschaft, für 5G und alles, was hier auf uns zukommt, etwas mehr zu bezahlen, aber das bedeutet nicht, dass es keine Grenzen gibt. Es muss attraktiv sein, und es muss ein einfaches Preismodell sein.“

Rache des harten Kerns

In den letzten Jahren haben wir mehrmals gesehen, dass die für einen Trend verantwortliche Marktmacht später für die Umkehr dieses Trends verantwortlich ist. Die Entscheidungen der Unternehmen, ihre digitalen Assets aus der öffentlichen Cloud zurückzuziehen, basieren auf derselben Logik, die sie ursprünglich in die Cloud geschickt hat. Die einer Technologie zugrunde liegenden Ressourcen sind fließende Dinge. Sie verschieben und verteilen sich neu. Die öffentliche Cloud schien einst der perfekte Ort für den Aufbau eines Datensees zu sein. Nicht jetzt – vor allem, da die lokale Speicherung in großen Mengen billiger und mit der Festkörperspeicherung auch schneller geworden ist. Die Fluidität der Ressourcen verändert die Art und Weise, wie sich derselbe Trend auswirkt, und kehrt in diesem Fall den Fluss um.

Als Facebook das startete Öffnen Sie das Compute-ProjektDamals war man davon ausgegangen, dass kostengünstige, möglicherweise nicht ganz zuverlässige x86-Server verfügbar waren könnte die gleichen Aufgaben in einem Hyperscale-Rechenzentrum ausführen wie eine geringere Anzahl teurerer Premium-Server. Wenn Facebook die Spezifikationen dieser Server veröffentlichen und genügend potenzielle Käufer auf den Zug locken könnte, dann wären es ihre Das kollektive Einkaufsvolumen könnte Hersteller dazu veranlassen, diese Server in großen Mengen zu bauen und sie dann für ein Minimum zu verkaufen Markups. Aber Mittlerweile kommt es zur HyperkonvergenzDadurch verändert sich die Rolle von Servern von der Bereitstellung von Rechenleistung in festgelegten Mengen hin zur Bereitstellung lebenswichtiger Ressourcen in fließenden Mengen.

Obwohl die Telekommunikationsbranche nicht gerade Nachforschungen anstellt Hyperkonvergenz Per se erlaubt es sich, die Untersuchung der Identität und der Rolle der Kernkomponente des modernen Rechenzentrums, des Servers, erneut zu eröffnen. Konkret: Wenn die Infrastruktur, die sowohl kunden- als auch netzwerkorientierte Funktionen unterstützt, ohnehin virtualisiert ist, könnte dann ein einfacherer Server speziell für NFV entwickelt werden?

Lesen Sie auch: Wer ist am besten für 5G bereit? China, nicht die USA, ist führend (CNET)

„Jeder hat gesagt: Wenn man eine Cloud hat, muss man alles auf Servern laufen lassen.“ Ja, okay, ich stimme dem zu“, bemerkte Nick Cadwgan, Nokias Direktor für IP-Mobilfunknetzwerke. „Aber hmmm, was passiert, wenn die Bandbreite exponentiell wächst, oder die Latenz, oder Latenz und Bandbreite, oder wir lokale Kommunikation wollen?“ Wir bei Nokia sagten: „Schauen wir uns die User-Plane-Funktion an.“ Was ist das für eine Funktion?' Diese Funktion ist nun im Grunde eine Datenweiterleitungsfunktion. Da es sich bei der Steuerungsebene um Rechen-/Speicher-/Verarbeitungsebene handelt, ist sie für den Einsatz auf einer Rechenplattform konzipiert. Aber der interessante Punkt kommt nun zur Benutzerebene. Was ist die optimale Plattform oder Technologie für die Benutzerebene?“

Eine der wichtigsten Funktionen und Vorteile von Software definiertes Netzwerken ist die Trennung der Kontrollebene (Verkehr im Zusammenhang mit der Steuerung des Netzwerks selbst) von der Benutzerebene (Verkehr im Zusammenhang mit der Anwendung). Jeder läuft auf seinem eigenen Netzwerkpfad, und dieser Pfad kann unabhängig vom anderen geändert und umgeleitet werden. Die Virtualisierung von Netzwerkfunktionen ist eine höhere Form von SDN. Es erkennt eine vollständige Servicekette oder ein Verkehrsflussmuster. Während sich SDN auf die Konfiguration der Plattform bezieht, auf der sich das softwarebasierte Netzwerk befindet, kommt bei NFV das Konzept eines Dienstes hinzu Komponente, die sich in diesem Netzwerk befindet, mit einem expliziten Eingangs- und Ausgangspunkt und einem Muster durch die adressierbaren Punkte darin Komponente. Stellen Sie sich NFV als einen elektrischen Legostein vor, der in die SDN-Basisplattform eingesteckt werden kann, und Sie werden die Grundidee verstehen.

Cadwgan von Nokia schlägt hier vor, dass eine NFV-Komponente nicht unbedingt Software sein muss. Obwohl dies oberflächlich betrachtet lächerlich erscheinen mag, schlägt er eine Art hardwaredefinierte, softwaredefinierte Komponente vor. Warum? Weil sich die Regeln ändern und sich die Fluidität der beteiligten Ressourcen verschiebt.

Leitfaden für Führungskräfte

Was ist 5G? Alles, was Sie über die neue drahtlose Revolution wissen müssen

Es handelt sich um ein Kapitalverbesserungsprojekt von der Größe des gesamten Planeten, bei dem eine in diesem Jahrhundert geschaffene drahtlose Architektur durch eine andere ersetzt wird, die darauf abzielt, den Energieverbrauch und die Wartungskosten zu senken.

Lies jetzt

Cadwgan erinnerte uns daran, dass Nokia nun ein eigenständiger Chiphersteller ist, nachdem es seine veröffentlicht hat FP4-Netzwerkprozessor mit 2,4 Terabit pro Sekunde vor einem Jahr. Während dieser Chip in erster Linie für den Betrieb in Router-Appliances wie diesem konzipiert ist 7750 SR-s, sagte er, es gebe zahlreiche Präzedenzfälle für die Vorstellung, dass Software durch Hardware unterstellt werden könne.

„Wir begehen hier keine Wolkenhäresie“, bemerkte er. „Wir folgen tatsächlich einem Trend bei Rechenzentren. Sie verfügen bereits über funktionsspezifisches Silizium. Sie verfügen über allgemeine Prozessoren, aber raten Sie mal: Für bestimmte Funktionen verfügen sie über Dinge wie Grafikbeschleuniger, bei denen es sich um funktionsspezifische Siliziumelemente handelt, die eine bestimmte Aufgabe erfüllen. Wir sagen nur: Hmm, das ist gut. Die Bandbreite steigt, die Latenz [sinkt]. „Es wird einen Punkt geben, an dem funktionsspezifisches Silizium auf der Benutzerebene Sinn macht.“

Lesen Sie auch: Warum Estland sich mitten in einem 5G-Wettrüsten befindet

Ebenso wie die steigenden Kosten für die Wartung einer Datenbank in der öffentlichen Cloud einen Break-Even-Punkt haben, an dem das, was Sie dem Cloud-Anbieter zahlen, dem entspricht, was Sie selbst zahlen Laut Cadwgan gibt es hier einen ähnlichen Break-Even-Punkt, den man für die lokale Speicherung der Daten aufgewendet hätte: Beim Betrieb eines Edge-Cloud-Rechenzentrums, bei dem die hohen Kosten anfallen Da die Arbeitslast vollständig über eine softwarebasierte Infrastruktur abgewickelt wird, werden die steigenden Kosten im Vergleich zur Verwendung speziell entwickelter Infrastruktur zwangsläufig die Gewinnschwelle überschreiten Silizium. Mit diesem Dilemma waren wir bisher noch nicht oft konfrontiert, aber 5G könnte uns dazu bringen, es schon bald zu entdecken.

Was dies bedeuten kann, ist, ob wir letztendlich den benutzerseitigen Rand vom kundenseitigen Rand trennen als AT&T würde es vorziehenOder man konvergiert beides, wie die OPNFV-Ingenieure vorschlagen, die Plattform, von der wir derzeit erwarten, dass sie einen Durchsatz von Hunderten von Terabit pro Sekunde bewältigen kann, wird dieser Aufgabe nicht gewachsen sein. Die netzwerkseitigen Funktionen dürften höchstwahrscheinlich einen ultrahohen Durchsatz erfordern. Aber selbst wenn ein Bruchteil dieses Durchsatzes für Kundenfunktionen aufgewendet würde, könnte die Geschwindigkeitssteigerung zu einem Ergebnis führen Edge-Cloud-Netzwerk ein Wertversprechen, das die öffentlichen Cloud-Dienste mit ihren x86-Serverplattformen nicht bieten können übereinstimmen.

„Es ist nicht für alles“, warnte Cadwgan. „Was man eigentlich braucht, ist ein Hybrid.“ Es gibt einige Dienste und Anwendungen – oder ich wage es zu sagen, es gibt einige Dienste und Anwendungen, die es sind in bestimmten Kernstücken, weil wir den Kern aufteilen können – diese werden am besten von der virtualisierten Benutzerebene bedient Funktionen. Übrigens können wir diese Funktionen durch die Trennung von Steuerungs- und Benutzerebene dort ablegen, wo Sie sie möchten – zentralisiert, verteilt. Es wird andere Dienste und Anwendungen oder Kernbereiche, die diese Dienste und Anwendungen tragen, geben, die möglicherweise besser sind Geeignet für physische Benutzerebenenfunktionen, die überall dort platziert werden können, wo Sie sie benötigen, zentral oder verteilt oder am Rande Wolke. Was wir sagen ist, dass man bei allem über eine Sache hinaus denken muss. „Man muss sich die Dienste und Anwendungen ansehen, ihre Eigenschaften und wie man sie im Netzwerk optimal unterstützt?“

Da wir bisher „den Rand“ definiert haben, sind wir davon ausgegangen, dass dies der Standort ist, der sich am besten für die Ausführung einer Anwendung mit minimaler Latenz eignet. In dem Netzwerk, das sich Nick Cadwgan vorstellt, gibt es möglicherweise keine diskrete Kante – zumindest nicht geografisch und vielleicht auch nicht physisch. NFVs erstellen und erstellen möglicherweise dynamische Abschnitte der 5G-Netzwerkinfrastruktur aus Pools sowohl physischer als auch virtueller Ressourcen.

Lesen Sie auch: Stachelrochen-Spionage: 5G schützt Sie vor Überwachung

Das ist der große Unterschied zwischen den 5G-Visionen: Die eine beschreibt eine physische Grenze zwischen Benutzer- und Netzwerkfunktionen und platziert verwaltbare Netzwerkabschnitte an diskreten physischen Standorten. Das andere ist hybridisiert, vollständig verteilt und ohne klare Grenzen, eher wie ein Container-Rechenzentrum mit Mikrodiensten. Die Tatsache, dass beide Ergebnisse gleichermaßen möglich sind, spricht Bände darüber, wie viel weiter wir von der Zeit bis zur endgültigen Erklärung von 5G als vollständigem Design in 19 Monaten entfernt sind.

Zentraler Geheimdienst

Wir könnten es den „Elefant im Raum“ nennen, wenn es nicht so offensichtlich wäre, dass niemand es sieht, eher wie eine Mücke oder ein ineffizienter Kopf Zustand: Wenn die Mandantenfähigkeit auf einer Cloud-Rechenzentrumsplattform aufrechterhalten werden könnte – mit anderen Worten, wenn Sie einen Netzwerkabschnitt haben könnten, in dem a Wenn eine ganze Klasse von Kunden getrennt vom Netzwerkkern ansässig wäre – dann könnte Boschs Konzept des Deep Slicing theoretisch ausschlaggebend sein Tiefer. Es war die Frage, die im Auditorium des Brooklyn 5G Summit gestellt wurde, ein wenig hin und her geworfen, aber unbeantwortet blieb: Solange es für ein Cloud-Rechenzentrum möglich ist, die zu absorbieren Wenn Sie die Funktionalität eines IoT-Geräts verbessern und die Branche der eingebetteten Geräte zu einem Relikt der Geschichte machen, warum nicht dieselbe Technologie auch in die Lage versetzen, die Funktionalität der Benutzerausrüstung zu übernehmen? (UE)?

Der Begriff „UE“ bezieht sich übrigens auf Ihr Smartphone.

In einer solchen Umgebung würde sich ein Mobiltelefon eher wie ein verhalten virtueller Desktop (VDI) mit Funkzugang als Bindeglied zum Rechenzentrum. Das Gerät müsste lediglich ein Rendering der Anwendung präsentieren, die der Benutzer ausführen würde, aber diese Anwendung würde auf dem Server und nicht auf dem Telefon ausgeführt. Ein solches System könnte den Funkverkehr erhöhen, aber für Telekommunikationsunternehmen, die ohnehin nach Gigabyte abrechnen, dürfte das kein Problem sein.

Lesen Sie auch: Samsung und KDDI schließen 5G-Test im Baseballstadion ab

Ein Smartphone-Ökosystem ohne die Produktion von Premium-Geräten durch Apple oder Samsung ist kaum vorstellbar. Aber vielleicht müssen wir das nicht: Ein virtuelles Smartphone könnte die nächste Generation des Feature-Phones sein und so genannten „Value-Class“-Kunden eine kostengünstigere Option bieten. Diese Kosten könnten den Tiefststand erreichen, wenn die Geräteklasse in sehr großen Mengen produziert werden könnte, für sehr große Märkte, die sich nach einem Hochlauf bis zum heutigen Jahrhundert sehnen.

Bei unserem letzten Halt auf dieser Achterbahnfahrt stellen wir Ihnen eine dieser Nationen vor – einen Ort, der dafür bekannt ist sein technologisches Potenzial, dessen Infrastruktur es jedoch bisher bis zur wirtschaftlichen Belastung belastete Zusammenbruch. Dies ist ein Ort, an dem ein virtuelles Smartphone der Katalysator sein könnte, der den Rest von 5G möglich macht. Bleiben Sie bis dahin treu.

  • Was ist 5G? Alles, was Sie über die neue drahtlose Revolution wissen müssen von Scott M. Fulton, III, ZDNet
  • Was ist SDN? Wie softwaredefinierte Netzwerke alles veränderten von Scott M. Fulton, III, ZDNet
  • 5G wird NBN ergänzen, nicht ersetzen: Nokia von Corinne Reichert, ZDNet

Anderswo

  • AT&T setzt auf Virtualisierung von Netzwerkfunktionen und veröffentlicht möglicherweise seine NFV-Plattform als Open Source von Scott M. Fulton, III, Der neue Stapel
  • Cisco: Bevor NFV die Netzwerke virtualisiert, ist eine bessere Telemetrie erforderlich von Scott M. Fulton, III, Der neue Stapel
  • Wie Nokia Cloud Packet Core Netzbetreibern und 5G zugute kommt [Podcast] von Dan Meyer, RCR Wireless

„Wasserspeier“, die auf der Karte von Septentrionalis erscheinen, wurden von Katerina Fulton erstellt.