NVIDIA rassicura il mondo HPC: il formato dati FP64 ancora centrale nelle future GPU

NVIDIA rassicura il mondo HPC: il formato dati FP64 ancora centrale nelle future GPU

La riduzione delle prestazioni FP64 nelle GPU NVIDIA ha generato preoccupazione nella comunità HPC, che dipende dalla doppia precisione per simulazioni scientifiche. L'azienda assicura però che FP64 resterà centrale e promette miglioramenti nelle prossime architetture.

di pubblicata il , alle 12:41 nel canale Schede Video
NVIDIA
 

Negli ultimi anni NVIDIA ha progressivamente orientato le sue architetture verso carichi di lavoro a bassa precisione, in modo da rispondere alla crescente domanda di accelerazione per l'intelligenza artificiale. Questa strategia, tuttavia, ha generato un malcontento sempre più evidente nella comunità HPC, per cui il calcolo in doppia precisione (FP64) rimane fondamentale in ambiti come simulazioni fisiche, modellistica climatica o dinamica dei fluidi.

Il divario tra le esigenze del mondo scientifico e le priorità del mercato AI è apparso evidente con la transizione da Hopper a Blackwell. GPU come la H100 e H200 offrivano fino a 34 TFLOPS di potenza con calcoli FP64, e le proposte Blackwell B100 e B200 non hanno fatto passi avanti; con B300 Ultra, le performance sono state ridotte a poco più di 1 TFLOPS. Contemporaneamente, le prestazioni in FP8 e FP4 sono esplose, raggiungendo decine di petaflop grazie all'uso intensivo dei Tensor Core, progettati per massimizzare throughput ed efficienza nelle reti neurali.

NVIDIA, come riportato da HPCwire, non intende però abbandonare quel formato di dati, anzi. Dion Harris, senior director per HPC e AI hyperscale infrastructure solutions dell'azienda, ha ribadito che FP64 resta un requisito critico e che la prossima generazione di GPU offrirà miglioramenti significativi nelle capacità di calcolo ad alta precisione.

"Quando guardiamo alla nostra piattaforma, riteniamo che FP64 sia ancora un requisito fondamentale, se così si può dire, perché per creare tutti questi incredibili surrogati di IA... è necessario disporre di una verità di base (dati di ground truth), che spesso si fonda sulla simulazione di base, che consente poi di addestrare e sviluppare molte di queste altre attività, o almeno di convalidarle", ha affermato Harris. "Quindi riconosciamo che FP64 è sicuramente fondamentale".

"Stiamo sicuramente cercando di aggiungere alcune funzionalità aggiuntive alle nostre architetture di prossima generazione", ha affermato. "Siamo molto determinati a garantire le prestazioni necessarie per alimentare quei carichi di lavoro di simulazione, che riteniamo saranno in definitiva un fattore chiave per l'implementazione... anche di quegli approcci basati sull'intelligenza artificiale, perché la simulazione di base è una parte fondamentale di quel lavoro".

GPU / ArchitetturaFP64 (TFLOPS)FP32 (TFLOPS)FP16 (TFLOPS)FP8 (TFLOPS)INT8 (TOPS)FP4 (TOPS)
NVIDIA A100 (Ampere) 9,7 19,5 624 1.248
NVIDIA H100 (Hopper) 34 67 1.979 3.958 3.958
NVIDIA H200 (Hopper) 34 67 1.979 3.958 3.958
NVIDIA B100 (Blackwell) 30 60 3.500 7.000 7.000 14.000
NVIDIA B200 (Blackwell) 37 75 4.500 9.000 9.000 18.000
NVIDIA B300 Ultra (Blackwell Ultra) 1,2 75 4.500 9.000 307 18.000
AMD Instinct MI300A (CDNA 3) 61,3 122,6 1.960 1.960

In attesa delle prossime architetture, per mitigare il divario NVIDIA sta spingendo su tecniche di emulazione software. La nuova versione di cuBLAS introduce una modalità di simulazione FP64 basata sui Tensor Core, capace secondo l'azienda di accelerare la moltiplicazione di matrici fino a 1,8 volte rispetto alle implementazioni precedenti.

La concorrenza ha scelto strade diverse. AMD, con MI300A e il prossimo acceleratore MI430X, continua a puntare su prestazioni FP64 elevate, separando le linee orientate all'HPC da quelle specializzate nell'AI. Un modello che, secondo alcuni analisti, NVIDIA potrebbe adottare in futuro per riconquistare la fiducia del settore scientifico. Resta da capire se il 2026 segnerà una svolta in quella direzione, con gli occhi di tutti puntati alla GTC del prossimo marzo.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto12 Dicembre 2025, 13:55 #1
Motivo per cui,abbandonare le GPU per le TPU fatte appositamente per la IA sarebbe la scelta più saggia,in modo da separare il silicio in architetture specializzate,ovvero calcolini da una parte e calcoloni da una altra,un po' come si è fatto con gli asic per il Bitcoin,guadagnando in risparmio energetico e velocità di calcolo.
Max Power12 Dicembre 2025, 15:50 #2
E grazie al ca...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^