Hier ziet u hoe de nieuwste chipinnovatie van Intel helpt de Amerikaanse nucleaire voorraad veilig te stellen

  • Sep 03, 2023

Het Los Alamos National Laboratory heeft zowel rekenkracht als geheugen met hoge bandbreedte nodig om de natuurkundige simulaties met hoge betrouwbaarheid uit te voeren die de toestand van kernkoppen beoordelen.

kernkoppen tegen een schemerige hemel
Getty-afbeeldingen

De Verenigde Staten bezitten duizenden kernkoppen in de kernwapenvoorraad van het Ministerie van Defensie. De omvang van de voorraad is de afgelopen halve eeuw dramatisch afgenomen, maar de omvang ervan is nog steeds in stand bestaande voorraad – bestaande uit kernkoppen die voornamelijk in de jaren vijftig en zestig zijn geproduceerd – is een ingewikkelde functie.

"Met onze voorraad wordt het er niet jonger op", vertelt Jim Lujan, programmadirecteur van HPC-platforms bij Los Alamos National Lab (LANL), aan ZDNET. Naarmate de kernkoppen ouder worden, zegt hij, heeft de LANL de verantwoordelijkheid om te beoordelen hoe het verouderingsproces hun veiligheid of prestaties kan beïnvloeden.

Innovatie

  • Ik heb Apple Vision Pro geprobeerd en het is veel beter dan ik had verwacht
  • Deze kleine satellietcommunicator zit boordevol functies en gemoedsrust
  • ChatGPT gebruiken: alles wat u moet weten
  • Dit zijn mijn 5 favoriete AI-tools voor op het werk

Natuurlijk kun je kernkoppen niet precies testen – althans niet onder het Alomvattend Kernstopverdrag van 1996. Om zijn missie te vervullen, maakt het Los Alamos-lab gebruik van modellering en 3D-simulaties. Met de meest geavanceerde computerhulpmiddelen met hoge prestaties kunnen het laboratorium en zijn partners produceren natuurkundige simulaties met hoge betrouwbaarheid, en ze kunnen hun simulaties valideren aan de hand van reële en historische gegevens fenomenen.

De overheid gebruikt hiervoor sinds de jaren negentig geavanceerde simulaties en computers. De uitdaging is echter dat “deze problemen steeds groter worden”, zegt Lujan, “en dat ze meer tijd vergen… Sommige van deze natuurkundige simulaties die we van begin tot eind uitvoeren, kunnen zes tot acht maanden duren. Als je naar een probleem kijkt en je hebt de komende zes tot acht maanden geen antwoord, dan wordt het een beetje moeilijk om te zeggen: 'Oké, oeps, ik heb het hier niet helemaal goed begrepen. Ik moet het gaan aanpassen. ''

Waarom worden deze problemen groter en duren ze langer? Een deel van de uitdaging komt voort uit het feit dat de computercapaciteiten simpelweg heel goed zijn geworden wijst erop dat CPU's het tempo hebben overtroffen waarmee ze gegevens in en uit kunnen verplaatsen om rekenkundige handelingen uit te voeren activiteiten. Doorgaans vertrouwen computersystemen op DDR-geheugen, dat geheel buiten de chip ligt, om toegang te krijgen tot die datasets, waardoor een knelpunt ontstaat.

High-fidelity-simulaties, zoals degene die worden gebruikt om de toestand van de nucleaire voorraad te beoordelen, maken gebruik van enorme datasets. Maar proberen een krachtige CPU te gebruiken om workloads uit te voeren die gebruik maken van enorme datasets, lijkt een beetje op het gebruik van een sportwagen om je boodschappen te doen.

"Het is net zoiets als zeggen dat je een auto hebt die in twee seconden van 0 naar 100 kan rijden, maar als hij niet alle boodschappen kan bevatten, hoe effectief is die auto dan, toch?" zegt Lujan. "Je hebt misschien een geweldige racemotor, maar als je die snelheid niet effectief kunt leveren voor een breed scala aan toepassingen, wordt het een uitdaging."

De Xeon Max-serie CPU

Intel

Om dat probleem aan te pakken, bevindt LANL zich in de beginfase van het benutten van Intel's nieuwe Max Xeon CPU Max-serie (codenaam Sapphire Rapids HBM) - de eerste x86-gebaseerde processors met geheugen met hoge bandbreedte (HBM) op de chip.

Intel introduceert deze week vijf verschillende SKUS van de chip, met core-aantallen variërend van 32 tot 56. Met 64 GB intern geheugen met hoge bandbreedte bieden de Xeon Max CPU's voldoende geheugencapaciteit voor de meest voorkomende HPC-workloads - zonder gebruik te maken van DDR-geheugen.

Naast het simuleren van de fysica van kernkoppen, zijn de Max CPU's zeer geschikt voor een breed scala aan andere HPC-workloads die afhankelijk zijn van enorme datasets. Dat zou de ontdekking van geneesmiddelen of genomica in de levenswetenschappen kunnen zijn, of klimaatmodellering. Ondertussen begint een groeiend aantal AI-modellen, zoals Chat GPT, gebruik te maken van enorme datasets.

"We willen deze grotere geheugenbandbreedte graag dicht bij de processor hebben, omdat dit een groot verschil gaat maken", zegt Lujan. ‘We jagen niet alleen op de snelheid. We proberen doeltreffendheid en probleemoplossing te bereiken."

Tot nu toe, zegt Lujan, heeft het LANL een prestatieverbetering van ongeveer 4x tot 5x gezien bij applicaties die gebruik maakten van de Max CPU - zonder dat er aanpassingen aan de applicaties hoefden te worden gedaan.

Een groot verkoopargument van Intel's Max-portfolio is de mogelijkheid om gebruik te maken van oneAPI - een gemeenschappelijk, open, op standaarden gebaseerd programmeermodel.

"Ontwikkelaars kunnen alle codes die ze vandaag de dag op Xeon hebben, gebruiken en deze zonder enige codewijziging naar de Xeon Max brengen", zegt Intel VP Jeff McVeigh tegen ZDNET.

Om oneAPI op de proef te stellen, probeerde de LANL een applicatie met binaire code te porten naar de Xeon Max-processor - ze konden het zonder enige wijzigingen uitvoeren met bescheiden prestaties verbetering.

"Dus de dingen gaan sneller, wat geweldig is", zegt Lujan. "Maar de mate van inspanning waarmee we die prestatieverbetering kunnen onderkennen, is zeer minimaal. We zouden naar andere architecturen kunnen gaan die ons in sommige opzichten meer bescheiden verbeteringen zouden kunnen opleveren. Maar als we honderdduizenden regels code moeten herschrijven om die prestaties te bereiken, zijn daar kosten aan verbonden."