Her er hvordan Intels seneste chipinnovation hjælper med at sikre det amerikanske atomlager

  • Sep 03, 2023

Los Alamos National Laboratory har brug for både computerkraft og hukommelse med høj båndbredde til at køre high-fidelity fysik-simuleringer, der vurderer tilstanden af ​​nukleare sprænghoveder.

atomsprænghoveder mod en skumringshimmel
Getty billeder

USA's besidder tusindvis af atomsprænghoveder i forsvarsministeriets atomvåbenlager. Størrelsen af ​​lagrene er faldet dramatisk i løbet af det sidste halve århundrede, men opretholdelse af eksisterende lager - bestående af sprænghoveder, hovedsagelig produceret i 1950'erne og 1960'erne - er en kompliceret job.

"Med vores lager bliver det ikke yngre," siger Jim Lujan, programdirektør for HPC-platforme ved Los Alamos National Lab (LANL), til ZDNET. Efterhånden som sprænghovederne bliver ældre, siger han, har LANL ansvaret for at vurdere, hvordan ældningsprocessen kan påvirke deres sikkerhed eller ydeevne.

Innovation

  • Jeg prøvede Apple Vision Pro, og det er langt foran, hvad jeg havde forventet
  • Denne lille satellitkommunikator er fyldt med funktioner og ro i sindet
  • Sådan bruger du ChatGPT: Alt hvad du behøver at vide
  • Dette er mine 5 foretrukne AI-værktøjer til arbejde

Selvfølgelig kan du ikke ligefrem teste atomsprænghoveder - i det mindste ikke under traktaten om forbud mod atomprøvesprængninger fra 1996. For at opfylde sin mission bruger Los Alamos-laboratoriet modellering og 3D-simuleringer. Med de mest avancerede højtydende computerværktøjer kan laboratoriet og dets partnere producere high-fidelity fysik simuleringer, og de kan validere deres simuleringer mod reelle og historiske fænomener.

Regeringen har brugt avancerede simuleringer og computere til at opnå dette siden 1990'erne. Udfordringen har imidlertid været, at "disse problemer bliver større og større," siger Lujan, "og de tager mere tid... Nogle af disse fysiksimuleringer, som vi laver, for at gå fra start til slut, kan tage op til seks til otte måneder. Hvis du ser på et problem, og du ikke kommer til at have et svar i seks til otte måneder, gør det det lidt svært at sige: 'OK, ups, jeg forstod det ikke helt her. Jeg er nødt til at gå og justere det."

Hvorfor bliver disse problemer større og tager længere tid? En del af udfordringen stammer fra det faktum, at computeregenskaberne simpelthen er blevet rigtig gode - til påpege, at CPU'er har overgået det tempo, hvormed de kan flytte data ind og ud for at udføre aritmetik operationer. Typisk er computersystemer afhængige af DDR-hukommelse, som helt er off-chip, for at få adgang til disse datasæt - hvilket skaber en flaskehals.

High-fidelity-simuleringer, såsom dem, der bruges til at vurdere tilstanden af ​​det nukleare lager, bruger massive datasæt. Men at prøve at bruge en kraftfuld CPU til at køre arbejdsbelastninger, der udnytter massive datasæt, er lidt ligesom at bruge en sportsvogn til at udføre dine ærinder.

"Det er lidt ligesom at sige, at du har en bil, der kan gå fra nul til 100 på to sekunder, men hvis den ikke kan rumme alle dagligvarer, hvor effektiv er den bil, ikke?" siger Lujan. "Du har måske en fantastisk racermotor, men hvis du ikke kan levere den hastighed effektivt til et bredt sæt af applikationer, gør det det udfordrende."

Xeon Max Series CPU

Intel

For at løse dette problem er LANL i de tidlige stadier af at udnytte Intels nye Max Xeon CPU Max-serie (kodenavnet Sapphire Rapids HBM) -- de første x86-baserede processorer med høj båndbreddehukommelse (HBM) på chip.

Intel udruller i denne uge fem forskellige SKUS af chippen, med kernetal fra 32 til 56. Med 64 GB hukommelse med høj båndbredde vil Xeon Max CPU'erne give nok hukommelseskapacitet til at passe til de fleste almindelige HPC-arbejdsbelastninger - uden at udnytte DDR-hukommelsen.

Udover at simulere atomsprænghovedernes fysik er Max CPU'erne velegnede til en lang række andre HPC-arbejdsbelastninger, der er afhængige af enorme datasæt. Det kunne være opdagelse af lægemidler eller genomik i det biovidenskabelige rum eller klimamodellering. I mellemtiden er et stigende antal AI-modeller, som Chat GPT, begyndt at udnytte massive datasæt.

"Vi er ivrige efter at have denne øgede hukommelsesbåndbredde tæt på processoren, fordi det kommer til at gøre en stor forskel," siger Lujan. "Vi jagter ikke kun hastigheden. Vi forsøger at få effektivitet og problemløsning."

Indtil videre, siger Lujan, har LANL set groft set en 4x til 5x ydeevneforbedring med applikationer, der udnytter Max CPU - uden at skulle foretage nogen ændringer i applikationerne.

Et stort salgsargument for Intels Max-portefølje er evnen til at udnytte oneAPI - en fælles, åben, standardbaseret programmeringsmodel.

"Udviklere kan udnytte alle de koder, de har på Xeon i dag, og bringe dem til Xeon Max uden virkelig nogen kodeændringer," siger Intels VP Jeff McVeigh til ZDNET.

For at prøve oneAPI prøvede LANL at tage en applikation med binær kode og portere den til Xeon Max-processor -- de var i stand til at køre den uden ændringer med en beskeden ydeevne forbedring.

"Så tingene kører hurtigere, hvilket er fantastisk," siger Lujan. "Men indsatsniveauet for at erkende denne præstationsforbedringer er meget minimalt. Vi kunne gå til andre arkitekturer, der kunne give os mere beskedne forbedringer i nogle henseender. Men hvis vi skal omskrive hundredtusindvis af linjer kode for at opnå denne ydeevne, er der en omkostning forbundet med det."