Ecco come l'ultima innovazione di chip di Intel sta contribuendo a proteggere le scorte nucleari statunitensi

  • Sep 03, 2023

Il Los Alamos National Laboratory ha bisogno sia di potenza di calcolo che di memoria ad alta larghezza di banda per eseguire simulazioni fisiche ad alta fedeltà che valutano lo stato delle testate nucleari.

testate nucleari contro un cielo crepuscolare
Immagini Getty

Gli Stati Uniti lo possiedono migliaia di testate nucleari nelle scorte di armi nucleari del Dipartimento della Difesa. La dimensione delle scorte è diminuita drasticamente nell’ultimo mezzo secolo, ma è rimasta invariata Le scorte esistenti – che comprendono testate prodotte per lo più negli anni ’50 e ’60 – sono una questione complicata lavoro.

"Con le nostre scorte, non ringiovaniamo", dice a ZDNET Jim Lujan, direttore del programma piattaforme HPC presso il Los Alamos National Lab (LANL). Man mano che le testate invecchiano, dice, la LANL ha la responsabilità di valutare in che modo il processo di invecchiamento può influire sulla loro sicurezza o prestazioni.

Innovazione

  • Ho provato Apple Vision Pro ed è molto più avanti di quanto mi aspettassi
  • Questo piccolo comunicatore satellitare è ricco di funzionalità e tranquillità
  • Come usare ChatGPT: tutto quello che devi sapere
  • Questi sono i miei 5 strumenti di intelligenza artificiale preferiti per il lavoro

Naturalmente non è possibile testare esattamente le testate nucleari, almeno non ai sensi del Trattato sulla messa al bando totale degli esperimenti nucleari del 1996. Per compiere la sua missione, il laboratorio di Los Alamos utilizza modellazione e simulazioni 3D. Con gli strumenti informatici ad alte prestazioni più all'avanguardia, il laboratorio e i suoi partner possono produrre simulazioni fisiche ad alta fedeltà e possono convalidare le loro simulazioni rispetto a dati reali e storici fenomeni.

Il governo utilizza simulazioni e calcoli avanzati per raggiungere questo obiettivo sin dagli anni ’90. La sfida, tuttavia, è che "questi problemi diventano sempre più grandi", dice Lujan, "e richiedono più tempo... Alcune di queste simulazioni fisiche che facciamo, dall'inizio alla fine, possono richiedere dai sei agli otto mesi. Se stai affrontando un problema e non avrai una risposta per sei-otto mesi, diventa un po' difficile dire: "OK, oops, non ho capito bene". Devo andare a sistemarlo.'"

Perché questi problemi stanno diventando più grandi e richiedono più tempo? Parte della sfida deriva dal fatto che le capacità informatiche sono semplicemente diventate davvero buone punto che le CPU hanno superato il ritmo con cui possono spostare i dati dentro e fuori per eseguire operazioni aritmetiche operazioni. In genere, i sistemi informatici si affidano alla memoria DDR, che è tutta off-chip, per accedere a tali set di dati, creando un collo di bottiglia.

Le simulazioni ad alta fedeltà, come quelle utilizzate per valutare lo stato delle scorte nucleari, utilizzano enormi quantità di dati. Ma provare a utilizzare una CPU potente per eseguire carichi di lavoro che sfruttano enormi set di dati è un po’ come usare un’auto sportiva per svolgere le proprie commissioni.

"È un po' come dire che hai un'auto che può andare da zero a 100 in due secondi, ma se non riesce a contenere tutta la spesa, quanto è efficace quell'auto, giusto?" Lujan dice. "Potresti avere un ottimo motore da corsa, ma se non riesci a fornire quella velocità in modo efficace a un'ampia gamma di applicazioni, diventa difficile."

La CPU della serie Xeon Max

Intel

Per risolvere questo problema, LANL è nelle prime fasi di sfruttamento della nuova serie Max Xeon CPU Max di Intel (nome in codice Sapphire Rapids HBM) -- i primi processori basati su x86 con memoria a larghezza di banda elevata (HBM) sul mercato patata fritta.

Intel questa settimana sta lanciando cinque diversi SKUS del chip, con un numero di core che va da 32 a 56. Con 64 GB di memoria in-pack a larghezza di banda elevata, le CPU Xeon Max forniranno una capacità di memoria sufficiente per adattarsi ai carichi di lavoro HPC più comuni, senza sfruttare la memoria DDR.

Oltre a simulare la fisica delle testate nucleari, le CPU Max sono adatte per un'ampia gamma di altri carichi di lavoro HPC che si basano su enormi set di dati. Potrebbe trattarsi della scoperta di farmaci o della genomica nel campo delle scienze della vita o della modellizzazione del clima. Nel frattempo, un numero crescente di modelli di intelligenza artificiale, come Chat GPT, stanno iniziando a sfruttare enormi set di dati.

"Siamo ansiosi di avere questa maggiore larghezza di banda della memoria vicino al processore perché farà una grande differenza", afferma Lujan. "Non stiamo solo inseguendo la velocità. Stiamo cercando di ottenere efficacia e risoluzione dei problemi."

Finora, afferma Lujan, la LANL ha riscontrato un miglioramento delle prestazioni da 4 a 5 volte con le applicazioni che sfruttano la CPU Max, senza dover apportare alcuna modifica alle applicazioni.

Un grande punto di forza del portafoglio Max di Intel è la capacità di sfruttare oneAPI, un modello di programmazione comune, aperto e basato su standard.

"Gli sviluppatori possono sfruttare tutti i codici che hanno oggi su Xeon e portarli su Xeon Max senza alcuna modifica al codice", afferma Jeff McVeigh, vicepresidente di Intel, a ZDNET.

Per mettere alla prova oneAPI, la LANL ha provato a prendere un'applicazione con codice binario e portarla su Processore Xeon Max: sono riusciti a eseguirlo, senza alcuna modifica, con prestazioni modeste miglioramento.

"Quindi le cose stanno andando più veloci, il che è fantastico", dice Lujan. "Ma il livello di sforzo con cui riconoscere questo miglioramento delle prestazioni è minimo. Potremmo passare ad altre architetture che potrebbero darci miglioramenti più modesti sotto alcuni aspetti. Ma se dobbiamo riscrivere centinaia di migliaia di righe di codice per ottenere quelle prestazioni, c’è un costo associato a ciò."