Die Nachfrage nach Serverkomponenten-Upgrades wird eine Nische bleiben

  • Sep 24, 2023

„Hyperscale“-Unternehmen wie Facebook, Google und Microsoft verlangen möglicherweise disaggregierte Server, um davon zu profitieren Skaleneffekte, aber der breitere Unternehmensmarkt wird bei einer Aktualisierung weiterhin auf integrierte Server setzen fällig.

Unternehmen, die nach Servern fragen, die es ihnen ermöglichen würden, bestimmte Komponenten zu ersetzen, ohne die gesamte Hardware zu aktualisieren, erhöhen ihr Angebot Nachfrage, aber sie bleiben die Minderheit in einem Unternehmensmarkt, der immer noch nach integrierten Produkten mit optimierten Funktionen sucht Handhabbarkeit.
Laut Rajnish Arora, stellvertretender Vizepräsident für Domänenforschung für Enterprise Computing bei IDC Asia-Pacific, ist der Einsatz modularer Server die durch Komponenten wie CPUs, Speicher, Festplatten oder Netzwerkkarten aufgerüstet werden kann, gibt es in vielfältiger Weise bereits seit der Mainframe-Ära.
Der Einsatz solcher Server ist in der Regel auf Web-2.0-Dienstleister wie Facebook, Amazon, Microsoft, Yahoo usw., die die Hardware bereitstellen, um ihre „Hyperscale“-Rechenzentren, Arora, aufzubauen hinzugefügt.


Errol Rasit, Forschungsdirektor bei Gartner, definierte „Hyperscale“-Unternehmen als Unternehmen mit mehr als 100.000 Servern in ihren Rechenzentren. Bei einer solchen Größenordnung in Bezug auf die Anzahl der bereitgestellten Server und der Tatsache, dass die meisten oder alle von ihnen dieselben Funktionen ausführen, ist dies wirtschaftlich sinnvoller einfach die CPU oder den Arbeitsspeicher oder die Festplatte nach den Bedürfnissen des Unternehmens auszutauschen, anstatt die Hardware ständig komplett zu erneuern, meint er sagte.

Lagerung

Der Austausch von Komponenten kann für „Hyperscale“-Unternehmen sinnvoll sein, die meisten Unternehmen bevorzugen jedoch immer noch ein Upgrade auf integrierte Server.

Der Ruf nach disaggregierten Servern wurde laut a kürzlich erneut von Facebook laut Bericht von EE Times. Frank Frankovsky, Vorsitzender der Open Compute Foundation und Vizepräsident für Hardware-Design und Lieferkette bei Facebook, sagte, dass diese Server in diesem Fall aktualisierte CPUs aufnehmen müssen kommen jedes Jahr auf den Markt, ohne dass Speicher-, Netzwerk- und I/O-Chips ausgetauscht werden müssen, die möglicherweise nur alle fünf Jahre ausgetauscht werden müssen.
Er wies darauf hin, dass einige Unternehmen zwar 64-Bit-ARM-Server-System-on-Chips (SoCs) planen, um Strom für große Rechenzentren zu sparen, Diese Geräte verfügen immer noch über vorhandene Chips und Roadmaps, die sich auf hochintegrierte Teile konzentrieren, die er nicht in den SoCs haben möchte.
„Ich kann nicht sagen, dass irgendjemand gekommen ist, um es zu sagen Wir bauen es genau so, wie Sie es sich wünschen. „Wenn sie diese Auflösungsbotschaft hören, können sie anfangen, ihre Richtung zu ändern“, sagte Frankovsky.
Breiterer Unternehmensmarkt nicht angelockt
Arora sagte jedoch, dass die Kosten für die Aufrüstung der einzelnen Server-Subsysteme ausnahmslos viel ausmachen höher als die Kosten für den Kauf eines komplett neuen Systems mit viel höherer Leistung und Spezifikationen für am meisten.
„Obwohl Kunden seit Jahren die Möglichkeit haben, x86-Serversysteme zu aktualisieren, zeigen Untersuchungen von IDC, dass nur sehr wenige Systeme 18 bis 24 Monate nach dem Erstkauf aktualisiert werden“, bemerkte er.
Beispielsweise werden 4/8-Socket-Server in der Regel zur Hälfte bestückt gekauft, mit der Absicht, bei steigender Arbeitslast mehr Rechenkapazität hinzuzufügen. Im Allgemeinen entscheiden sich Benutzer jedoch für den Kauf neuer 4/8-Sockel-Server, die in allen Bereichen eine deutlich bessere Leistung bieten Leistung, als zusätzliche CPUs, Speicher und Festplatten zu kaufen, um vorhandene Fähigkeiten zu erweitern sagte der Analyst.
Er fügte hinzu, dass sich die zusätzliche Rechenkapazität durch ein schrittweises Upgrade möglicherweise nicht unbedingt mit anderen Subsystemkomponenten ergänzen lässt, um eine ausgewogene und optimierte Systemleistung zu bieten.
Rasit stimmte zu und sagte, dass die unmittelbare Nutzernische für disaggregierte Server weiterhin große Web 2.0-Unternehmen wie Google bleiben werden und Facebook, Institutionen und Forschungszentren für Hochleistungsrechnen, Anbieter von Online-Inhalten und Online-Spiele Betreiber.
„Diese Nische liegt weiterhin sehr am Rande der gesamten Unternehmens-IT-Branche“, erklärte er.
Die Anbieter unterscheiden sich in der Herangehensweise
Dell hat bereits Maßnahmen zur Aufteilung seiner Serverprodukte ergriffen, da Kunden Netzwerk- und Speicherfunktionen unabhängig von einem Server-Upgrade aufrüsten können.
Phil Davis, Vizepräsident der Enterprise Solutions Group Commercial Business bei Dell in der Region Asien-Pazifik und Japan, sagte gegenüber ZDNet, dass dies für Unternehmen gilt Bei Anwendungen, deren Leistung auf ein bestimmtes Subsystem wie CPU oder Speicher ausgerichtet ist, können Komponenten-Upgrades „sehr attraktiv“ sein Möglichkeit". Dies liegt daran, dass es einen Weg bietet, das spezifische Subsystem so nah wie möglich an der technischen Umstellung zu aktualisieren, sagte er.
Er sagte, dass die Unternehmen, die am meisten von solchen Upgrade-Modellen profitieren, diejenigen mit Hyperscale-Rechenzentren sind, da sie einen besseren Return on Investment (ROI) erzielen können als mit einer umfassenden Aktualisierung.
„Das Ziel jeder Lösung, die Dell auf den Markt bringt, besteht letztlich darin, ein überzeugendes Kundenproblem zu lösen.“ [Aus diesem Grund] untersuchen die Architekturteams von Dell Disaggregationsoptionen über die hinaus, die wir heute versenden„, sagte Davis.
IBM glaubt jedoch an Unternehmen, die Original Design Manufacturers (ODMs) bauen oder mit der Produktion beauftragen Kostengünstige, abgespeckte Systeme auf Komponentenebene müssen die Aufrüstung der Komponentenhersteller unterstützen Roadmap. „Nicht jede Komponente kann im Laufe der Roadmap ausgetauscht und ersetzt werden“, sagte Cheah Saw Pheng, Country Manager für die Systemtechnologiegruppe bei IBM Singapur.
„Obwohl in diesem Segment Wachstum zu verzeichnen ist, beschränkt es sich nur auf einige wenige wichtige globale Web 2.0- und Social-Unternehmen. „Ihre Nachfrage hat in den letzten Jahren zugenommen, konzentriert sich jedoch hauptsächlich auf die Länder oder Regionen, in denen sich ihre Rechenzentren befinden“, fügte Cheah hinzu.
Dies sind einige Gründe, warum sich Big Blue bei einer solchen Fertigung auf Komponentenebene nicht auf maßgeschneiderte Systeme konzentriert. Stattdessen konzentriert man sich darauf Bereitstellung integrierter SystemeDamit können Kunden ihre Umgebungen zu geringeren Verwaltungskosten verwalten, da die Komponentenkosten nur ein Faktor in der Gesamtbetriebskosten-Perspektive (TCO) sind, sagte der Geschäftsführer.

Hewlett-Packard (HP) bekräftigte die Notwendigkeit, sicherzustellen, dass bei der Aufrüstung von Server-CPUs auch andere Aspekte berücksichtigt werden müssen Komponenten wie Speicher, Netzwerk und I/O-Chips können mit den schnelleren und leistungsstärkeren Chips mithalten und diese ergänzen Prozessoren.

„Andernfalls können diese Komponenten zu Engpässen werden und die gesamte Rechenleistung der Server beeinträchtigen“, sagte Sreenivas Narayanan, General Manager und Er ist Direktor für Industriestandardserver bei der HP Enterprise Group in Südostasien und fügt hinzu, dass die überwiegende Mehrheit seiner Kunden mit den Produkten des Unternehmens zufrieden sei Ansatz.

Um Unternehmen dazu zu bringen, mehr Rechenleistung auf kleinerer Fläche unterzubringen, sagte Narayanan HPs Projekt Moonshot– ein mehrjähriger, mehrstufiger Ansatz zur Unterstützung von Kunden bei neuen Web-, Cloud- und groß angelegten Umgebungen – trug im vergangenen Juni seine ersten Früchte. Das erste System mit dem Codenamen „Gemini“ verfüge über Gehäuse, die Tausende von Servern pro Rack unterstützen könnten, die Verwaltungs-, Netzwerk-, Speicher-, Netzkabel- und Lüfterkomponenten gemeinsam nutzen, fügte er hinzu.