Jensen Huang, CEO von Nvidia, kündigt die Verfügbarkeit von „Hopper“-GPUs und einen Cloud-Dienst für große KI-Sprachmodelle an

  • Sep 05, 2023

Nvidias GTC-Keynote beinhaltete auch eine Diskussion über neue Computerplattformen für das Gesundheitswesen, die Robotik, die industrielle Automatisierung und Automobilanwendungen sowie mehrere gehostete Dienste.

jensen-huang-gtc-2022-crop-for-twitter

Nvidias Mitbegründer und CEO Jensen Huang eröffnete die Herbst-GTC-Konferenz des Unternehmens mit der Ankündigung, dass die neue „Hopper“-GPU des Unternehmens nächsten Monat allgemein in Systemen von Dell und anderen erhältlich sein wird. In der Keynote wurden auch Computer für das Gesundheitswesen, die Robotik, die industrielle Automatisierung und den Automobilbereich vorgestellt sowie mehrere Cloud-Dienste, darunter ein von Nvidia gehosteter Cloud-Dienst für Deep-Learning-Sprachmodelle wie z GPT-3.

Nvidia

Jensen Huang, CEO von Nvidia, eröffnete am Dienstag die GTC-Herbstkonferenz des Unternehmens mit der Ankündigung der Grafikprozessoreinheit „Hopper“ des Unternehmens (GPU) befindet sich in der Massenproduktion und wird als nächstes in Systemen von Partnern wie Dell, Hewlett Packard und Cisco Systems ausgeliefert Monat. Nvidia-Systeme mit der GPU werden im ersten Quartal nächsten Jahres verfügbar sein, kündigte Huang an.

Der Hopper-Chip, auch bekannt als „H100“, ist auf Aufgaben für das Rechenzentrum ausgerichtet, wie z künstliche Intelligenz. Nvidia sagt, dass der H100 die Kosten für die Bereitstellung von KI-Programmen „dramatisch“ senken kann. Beispielsweise kann die Arbeit von 320 der vorherigen Spitzen-GPU, der A100, mit nur 64 H100 erledigt werden Chips, die nur ein Fünftel der Anzahl von Servercomputern benötigen und den Energieverbrauch um das 3,5-fache senken würden mal.

Hopper war der Erste im März enthüllt von Nvidia. Das Unternehmen zeigte einige Benchmark-Ergebnisse für den Chip diesen Monat in der MLPerf-Suite maschineller Lernaufgaben.

Auch: NVIDIA stellt Hopper vor, seine neue Hardwarearchitektur zur Umwandlung von Rechenzentren in KI-Fabriken

Neben der Verfügbarkeit von Hopper erörterte Huang ein neues „As-a-Service“-Cloud-Angebot, Nvidia NeMo LLM, das „große Sprachmodelle“ ermöglichen soll Kunden können sehr große Modelle zur Verarbeitung natürlicher Sprache wie GPT-3 von OpenAI und Megatron-Turing NLG 530B, das Sprachmodell, problemlos implementieren Nvidia wurde mit Microsoft entwickelt.

Auch: Neural Magics Sparsity, Nvidias Hopper und Alibabas Netzwerk gehören zu den Spitzenreitern in den neuesten MLPerf-KI-Benchmarks

Der NeMo-Dienst ist ab nächsten Monat im „Early Access“-Modus verfügbar, stellt GPT-3 und andere Modelle in vorab trainierter Form bereit und kann von einem Entwickler mithilfe einer Methode optimiert werden, die Nvidia „schnelles Lernen,“ das Nvidia aus einer Technik übernommen hat, die Wissenschaftler bei Google entwickelt haben letztes Jahr eingeführt.

Eine Version von NeMo wird speziell für biomedizinische Anwendungen großer Sprachmodelle wie der Arzneimittelforschung gehostet, der NVIDIA BioNeMo Service.

Laut Nvidia kann die Hopper-GPU die für die Ausführung großer KI-Aufgaben erforderlichen Computerknoten im Vergleich zur Vorgänger-GPU für Rechenzentren, der A100, um vier Fünftel reduzieren.

Nvidia

Während einer Pressekonferenz zu der Ankündigung ZDNet fragte Nvidias Leiter für beschleunigtes Computing, Ian Buck, welche Schutzmaßnahmen das Unternehmen einführen wird, um den Missbrauch großer Sprachmodelle zu verhindern in der Literatur zur KI-Ethik gut dokumentiert.

„Ja, gute Frage, dieser Dienst wird ab nächsten Monat in EA [Early Access] aufgenommen und ist direkt verfügbar Unternehmen und wir tun dies tatsächlich, um mit verschiedenen Unternehmen zusammenzuarbeiten, um ihre Arbeitsabläufe zu entwickeln. sagte Buck.

Buck hinzugefügt,

Sie werden natürlich alles in Zusammenarbeit mit Nvidia tun, und jeder Benutzer wird den Zugriff darauf beantragen Daher werden wir im Vergleich zu einem generischen, offenen Angebot ein wenig mehr darüber verstehen, was sie tun Weg. Auch hier versuchen wir, uns darauf zu konzentrieren, Unternehmen große Sprachmodelle zur Verfügung zu stellen, und das ist die Markteinführung unserer Kunden.

ZDNet Anschließend wurde Buck darauf hingewiesen, dass Missbräuche in der Literatur zu großen Sprachmodellen in den Trainingsdaten verankerte Vorurteile und nicht unbedingt eine böswillige Verwendung beinhalten.

„Behaupten Sie, dass es bei einem eingeschränkten Zugang zu Unternehmenspartnern nicht zu solchen dokumentierten Missbräuchen wie Voreingenommenheit in den Schulungsmaterialien und dem Ausgabeprodukt kommt?“ Fragte ZDNet.

Buck antwortete:

Ja. Ich meine, Kunden werden ihre eigenen Datensätze in die Domänenschulung einbringen, also müssen sie sicherlich einen Teil dieser Verantwortung tragen, und wir alle als Gemeinschaft müssen Verantwortung tragen. Dieses Zeug wurde im Internet trainiert. Es muss verstanden und auf das ausgelegt werden, was es heute für domänenspezifische Lösungen ist. Das Problem ist etwas eingeschränkter, da wir versuchen, einen einzelnen Dienst für einen bestimmten Anwendungsfall bereitzustellen. Diese Voreingenommenheit wird bestehen bleiben. Menschen haben eine Voreingenommenheit, und leider wurde diese natürlich durch den Input von Menschen trainiert.

Die Präsentation umfasste auch eine Vielzahl dedizierter Computerplattformen für zahlreiche Branchen, darunter das Gesundheitswesen, und für OmniVerse, Nvidias Softwareplattform für das Metaverse.

Zu den Plattformen gehören IGX für Gesundheitsanwendungen, IGX für Fabriken, eine neue Version von OVX-Computersystemen speziell für die OmniVerse-Entwicklung und eine neue Version von Nvidias DRIVE-Rechnerplattform für Autos namens DRIVE Thor, die die Hopper-GPU mit Nvidias kommender CPU „Grace“ kombinieren wird.

Auch: Nvidia stellt Megatron-Turing-Skalierungsanspruch klar

Künstliche Intelligenz

7 erweiterte ChatGPT-Tipps zum Schreiben von Eingabeaufforderungen, die Sie kennen müssen
Die 10 besten ChatGPT-Plugins des Jahres 2023 (und wie Sie das Beste daraus machen)
Ich habe viele KI-Tools für die Arbeit getestet. Das sind bisher meine 5 Favoriten
Mensch oder Bot? Dieses Turing-Testspiel stellt Ihre KI-Erkennungsfähigkeiten auf die Probe
  • 7 erweiterte ChatGPT-Tipps zum Schreiben von Eingabeaufforderungen, die Sie kennen müssen
  • Die 10 besten ChatGPT-Plugins des Jahres 2023 (und wie Sie das Beste daraus machen)
  • Ich habe viele KI-Tools für die Arbeit getestet. Das sind bisher meine 5 Favoriten
  • Mensch oder Bot? Dieses Turing-Testspiel stellt Ihre KI-Erkennungsfähigkeiten auf die Probe