Wie Microsoft Azure in eine „KI-Cloud“ verwandeln will

  • Sep 05, 2023

Microsoft macht Fortschritte, um externen Azure-Entwicklern FPGA-Verarbeitungsleistung für datenintensive Aufgaben wie Deep Neural Networking-Aufgaben zur Verfügung zu stellen.

Microsoft verwendet seit einigen Jahren feldprogrammierbare Gate-Arrays (FPGAs), um die Leistung und Effizienz von Bing und Azure zu verbessern.

Aber nächstes Jahr plant Microsoft, diese Art von FPGA-Verarbeitungsleistung Entwicklern zur Verfügung zu stellen, die dazu in der Lage sind damit sie ihre eigenen Aufgaben ausführen können, einschließlich intensiver Aufgaben mit künstlicher Intelligenz wie Deep-Neuronal-Networking (DNN).

Auf seiner Build-Entwicklerkonferenz in diesem Frühjahr erläuterte Mark Russinovich, CTO von Azure, Microsofts umfassende Pläne für die Umsetzung „Hardware-Microservices“ über die Azure-Cloud. Russinovich sagte den Teilnehmern, dass, sobald Microsoft einige anhaltende Sicherheits- und andere Probleme gelöst habe, „wir eine unserer Meinung nach vollständig konfigurierbare Cloud haben werden.“

„Dies ist der Kern einer KI-Cloud“, sagte Russinovich, und „ein wichtiger Schritt zur Demokratisierung der KI mit der Leistungsfähigkeit von FPGA.“ (Eine gute Zusammenfassung von Russinovichs Ausführungen finden Sie hier TheNewStack-Artikel.)

FPGAs sind Chips, die nach ihrer Herstellung individuell konfiguriert werden können. Microsoft-Forscher haben im FPGA-Bereich gearbeitet seit mehr als einem Jahrzehnt.

In jüngerer Zeit hat Microsoft allen seinen Azure-Servern in seinen eigenen Rechenzentren FPGAs hinzugefügt und außerdem FPGAs in einigen der Maschinen implementiert, die als Teil davon die Indexierungsserver von Bing betreiben Projekt Katapult Bemühungen. Der Azure Accelerated Networking-Dienst von Microsoft, das allgemein für Windows und in der Vorschau für Linux verfügbar ist, nutzt im Verborgenen auch FPGAs.

Im Mai sagte Russinovich, Microsoft habe keinen festen Zeitplan, wann das Unternehmen bereit sein könnte, Kunden außerhalb des Unternehmens Hardware-Microservices und FPGA-Cloud-Verarbeitungsleistung anzubieten. Aber diese Woche, Microsoft-Vertreter sagten, das Ziel dafür sei irgendwann im Jahr 2018.

Die Hardware-Microservices von Microsoft basieren auf Intel FPGAs. (Intel kaufte 2015 den FPGA-Hersteller Altera.) Diese Chips, gekoppelt mit Das Microsoft-Framework bietet Fortschritte in Bezug auf Geschwindigkeit, Effizienz und Latenz, die sich besonders für Big-Data-Workloads eignen.

Bildnachweis: Microsoft

Microsoft arbeitet auch speziell an dem DNN-Artikel via ein Projekt mit dem Codenamen „Brainwave“. Microsoft demonstrierte BrainWave öffentlich auf der Ignite 2016-Konferenz des Unternehmens, als Microsoft damit eine umfangreiche Sprachübersetzungsdemonstration auf FPGAs durchführte.

Siehe auch

Kein Hype, nur Fakt: Künstliche Intelligenz in einfachen Geschäftsbegriffen

KI ist zu einem der großen, bedeutungslosen Schlagworte unserer Zeit geworden. In diesem Video erklärt der Chief Data Scientist von Dun and Bradstreet KI in klaren Geschäftsbegriffen.

Lies jetzt

Microsoft-Mitarbeiter planten, Brainwave kürzlich auf der Unternehmenskonferenz zu besprechen Faculty Research Summit in Redmond, der ganz der KI gewidmet war, aber wenn man sich die aktualisierte Tagesordnung ansieht, sieht es so aus, als ob Verweise auf Brainwave entfernt wurden.

Laut einer Microsoft-Präsentation zu seinen konfigurierbaren Cloud-Plänen aus dem Jahr 2016 ist BrainWave eine Deep-Learning-Plattform, die auf FPGA-basierten Hardware-Microservices läuft. In dieser Präsentation wird „Hardware Acceleration as a Service“ für Rechenzentren oder das Internet erwähnt. BrainWave verteilt neuronale Netzwerkmodelle auf so viele FPGAs wie nötig.

Microsoft ist nicht das einzige Unternehmen, das in seinen Cloud-Rechenzentren auf FPGAs setzt; Sowohl Amazon als auch Google verwenden maßgeschneidertes Silizium für KI-Aufgaben.

Amazon bietet bereits eine FPGA EC2 F1-Instanz zur Programmierung von Xilinx-FPGAs an und stellt ein Hardware-Entwicklungskit für FPGA bereit. Google hat daran gearbeitet, Deep-Learning-Modelle zu trainieren TensorFlow, seine Softwarebibliothek für maschinelles Lernen, und hat seine eigene Basis erstellt Tensor-Verarbeitungseinheit Silizium.