So trägt die neueste Chip-Innovation von Intel dazu bei, die US-Atomwaffenvorräte zu sichern

  • Sep 03, 2023

Das Los Alamos National Laboratory benötigt sowohl Rechenleistung als auch Speicher mit hoher Bandbreite, um die hochauflösenden physikalischen Simulationen durchzuführen, die den Zustand von Atomsprengköpfen bewerten.

Atomsprengköpfe vor einem Dämmerungshimmel
Getty Images

Die Vereinigten Staaten besitzen Tausende von Atomsprengköpfen im Atomwaffenlager des Verteidigungsministeriums. Die Größe der Lagerbestände ist im letzten halben Jahrhundert dramatisch zurückgegangen, aber sie bleibt erhalten Der Bestand an Sprengköpfen, die größtenteils in den 1950er und 1960er Jahren hergestellt wurden, ist kompliziert Arbeit.

„Mit unserem Vorrat wird er nicht jünger“, sagt Jim Lujan, Programmdirektor für HPC-Plattformen am Los Alamos National Lab (LANL), gegenüber ZDNET. Wenn die Sprengköpfe älter werden, sei die LANL dafür verantwortlich, zu bewerten, wie sich der Alterungsprozess auf ihre Sicherheit oder Leistung auswirken könnte.

Innovation

  • Ich habe Apple Vision Pro ausprobiert und es übertrifft meine Erwartungen bei weitem
  • Dieser winzige Satellitenkommunikator ist vollgepackt mit Funktionen und sorgt für Sicherheit
  • So verwenden Sie ChatGPT: Alles, was Sie wissen müssen
  • Das sind meine 5 Lieblings-KI-Tools für die Arbeit

Natürlich kann man Atomsprengköpfe nicht direkt testen – zumindest nicht im Rahmen des Vertrags über das umfassende Verbot von Nuklearversuchen von 1996. Um seine Mission zu erfüllen, nutzt das Labor in Los Alamos Modellierung und 3D-Simulationen. Mit den modernsten Hochleistungs-Computing-Tools können das Labor und seine Partner produzieren hochpräzise physikalische Simulationen und können ihre Simulationen anhand realer und historischer Ergebnisse validieren Phänomene.

Um dies zu erreichen, nutzt die Regierung seit den 1990er Jahren fortschrittliche Simulationen und Computer. Die Herausforderung bestehe jedoch darin, dass „diese Probleme immer größer werden“, sagt Lujan, „und sie mehr Zeit in Anspruch nehmen …“ Einige dieser physikalischen Simulationen, die wir durchführen, können von Anfang bis Ende mehr als sechs bis acht Monate dauern. Wenn man sich ein Problem anschaut und sechs bis acht Monate lang keine Antwort darauf hat, fällt es einem etwas schwer zu sagen: „Okay, ups, ich habe es hier nicht ganz richtig verstanden.“ Ich muss es anpassen.''

Warum werden diese Probleme immer größer und dauern länger? Ein Teil der Herausforderung ergibt sich aus der Tatsache, dass die Rechenkapazitäten einfach wirklich gut geworden sind weisen darauf hin, dass CPUs die Geschwindigkeit übertroffen haben, mit der sie Daten zur Durchführung von Berechnungen ein- und auslagern können Operationen. Typischerweise sind Computersysteme für den Zugriff auf diese Datensätze auf DDR-Speicher angewiesen, der sich komplett außerhalb des Chips befindet, was zu einem Engpass führt.

High-Fidelity-Simulationen, wie sie beispielsweise zur Beurteilung des Zustands des Atomlagers verwendet werden, nutzen riesige Datensätze. Aber der Versuch, eine leistungsstarke CPU für die Ausführung von Workloads zu verwenden, die riesige Datenmengen nutzen, ist ein bisschen so, als würde man einen Sportwagen zum Erledigen von Besorgungen nutzen.

„Das ist so, als würde man sagen, dass man ein Auto hat, das in zwei Sekunden von null auf 100 beschleunigt, aber wenn es nicht alle Lebensmittel fasst, wie effektiv ist das Auto dann, oder?“ Lujan sagt. „Sie haben vielleicht einen großartigen Rennmotor, aber wenn Sie diese Geschwindigkeit nicht effektiv für eine breite Palette von Anwendungen bereitstellen können, wird es zu einer Herausforderung.“

Die CPU der Xeon Max-Serie

Intel

Um dieses Problem anzugehen, ist LANL im Anfangsstadium der Nutzung der neuen Max-Xeon-CPU-Max-Serie von Intel (Codename Sapphire Rapids HBM) – die ersten x86-basierten Prozessoren mit High Bandwidth Memory (HBM) auf dem Markt Chip.

Intel bringt diese Woche fünf verschiedene SKUS des Chips auf den Markt, mit Kernzahlen zwischen 32 und 56. Mit 64 GB integriertem Speicher mit hoher Bandbreite bieten die Xeon Max-CPUs genügend Speicherkapazität für die meisten gängigen HPC-Workloads – ohne DDR-Speicher zu nutzen.

Neben der Simulation der Physik von Atomsprengköpfen eignen sich die Max-CPUs auch für eine Vielzahl anderer HPC-Workloads, die auf riesigen Datensätzen basieren. Das könnte die Entdeckung von Arzneimitteln oder die Genomik im Bereich der Biowissenschaften oder die Klimamodellierung sein. Mittlerweile beginnen immer mehr KI-Modelle wie Chat GPT, riesige Datensätze zu nutzen.

„Wir sind bestrebt, diese erhöhte Speicherbandbreite in der Nähe des Prozessors zu haben, weil sie einen großen Unterschied machen wird“, sagt Lujan. „Wir jagen nicht nur der Geschwindigkeit hinterher. Wir versuchen, Wirksamkeit und Problemlösung zu erreichen.“

Laut Lujan konnte das LANL bisher etwa eine 4- bis 5-fache Leistungssteigerung bei Anwendungen verzeichnen, die die maximale CPU nutzen – ohne dass Änderungen an den Anwendungen vorgenommen werden mussten.

Ein großes Verkaufsargument des Max-Portfolios von Intel ist die Möglichkeit, oneAPI zu nutzen – ein gemeinsames, offenes, auf Standards basierendes Programmiermodell.

„Entwickler können alle Codes, die sie heute auf Xeon haben, nutzen und sie ohne wirkliche Codeänderungen auf den Xeon Max übertragen“, sagt Intel VP Jeff McVeigh gegenüber ZDNET.

Um oneAPI auf die Probe zu stellen, versuchte das LANL, eine Anwendung mit Binärcode zu nehmen und auf die zu portieren Xeon Max-Prozessor – sie konnten ihn ohne Änderungen mit einer bescheidenen Leistung ausführen Verbesserung.

„Die Dinge laufen also schneller, was großartig ist“, sagt Lujan. „Aber der Aufwand, um diese Leistungsverbesserung zu erkennen, ist sehr gering. Wir könnten zu anderen Architekturen wechseln, die uns in mancher Hinsicht bescheidenere Verbesserungen bringen könnten. Aber wenn wir Hunderttausende Codezeilen neu schreiben müssen, um diese Leistung zu erreichen, sind damit Kosten verbunden.“