NVIDIA Blackwell guida nei test sull'inferenza IA, AMD seconda con performance simili ad H200

NVIDIA Blackwell guida nei test sull'inferenza IA, AMD seconda con performance simili ad H200

NVIDIA domina i benchmark MLPerf Inference V5.0 con la nuova architettura Blackwell, triplicando le prestazioni rispetto all'H200. AMD avanza con Instinct MI325X, mentre Intel mette in mostra le capacità delle CPU Xeon 6.

di pubblicata il , alle 06:17 nel canale Schede Video
CDNAGranite RapidsXeonIntelBlackwellNVIDIAAMDInstinct
 

I risultati del benchmark MLPerf Inference V5.0 di MLCommons hanno confermato il dominio di NVIDIA nel settore degli acceleratori per l'intelligenza artificiale, con la nuova architettura Blackwell che segna un netto miglioramento rispetto alle generazioni precedenti nell'ambito dell'inferenza. Il test, nello specifico, valuta la velocità con cui i sistemi possono elaborare gli input e produrre risultati utilizzando un modello addestrato.

AMD, seppur seconda, ha mostrato un significativo progresso con il debutto del suo acceleratore Instinct MI325X, mentre Intel ha pubblicato risultati relativi alle CPU Xeon 6 "Granite Rapids", non avendo in Gaudi 3 un competitor all'altezza della concorrenza.

Clicca per ingrandire

NVIDIA ha stabilito nuovi record, grazie soprattutto al sistema rack-scale GB200 NVL72, che ha permesso di ottenere fino a 30 volte il throughput rispetto alla soluzione H200 NVL8 sul benchmark Llama 3.1 405B.

Clicca per ingrandire

Clicca per ingrandire

L'incremento di prestazioni non si deve solo alla maggiore potenza delle GPU Blackwell, ma anche all'ottimizzazione dell'interconnessione NVLink, che ha moltiplicato per nove la bandwidth di comunicazione interna. Inoltre, nel test Llama 2 70B Interactive, la piattaforma Blackwell ha triplicato le prestazioni rispetto alla generazione H200, migliorando significativamente i tempi di risposta, un aspetto cruciale per le applicazioni real-time.

Clicca per ingrandire

Clicca per ingrandire

AMD, pur restando dietro a NVIDIA, ha registrato un avanzamento notevole con il debutto dell'Instinct MI325X, il primo acceleratore della serie a partecipare ai benchmark MLPerf. Le prestazioni del MI325X si sono dimostrate comparabili a quelle dell'H200 di NVIDIA, e la sua scalabilità è stata confermata dai risultati ottenuti da più partner industriali, tra cui Supermicro, ASUS e Giga Computing. Inoltre, la prima partecipazione multi-nodo con il MI300X, presentata dal partner MangoBoost, ha segnato un record nel test offline per Llama 2 70B, dimostrando l'efficacia delle soluzioni AMD nelle configurazioni distribuite.

Intel, invece, ha scelto un approccio differente, evidenziando i progressi della propria architettura Xeon 6 nel contesto delle CPU per l'inferenza. I processori Xeon 6 hanno mostrato un miglioramento del 90% rispetto alla generazione precedente, frutto delle unità di accelerazione interne al chip, della migliore architettura complessiva e dell'ottimizzazione software.

Intel non ha presentato risultati per la linea di acceleratori Gaudi, evitando il confronto diretto con AMD e NVIDIA nei test MLPerf. Questo suggerisce una strategia focalizzata sul mercato delle CPU per l'A piuttosto che su quello delle GPU ad alte prestazioni, almeno al momento.

Infine, da segnalare la presenza anche della TPU v6e di Google, seppur con risultati limitati all'attività di generazione di immagini. Con 5,48 query al secondo, un sistema dotato di 4 TPU ha registrato un incremento di 2,5 volte rispetto a un sistema simile basato sul predecessore TPU v5e nei risultati di ottobre 2024. Tuttavia, 5,48 query al secondo sono più o meno in linea con un sistema di Lenovo di dimensioni simili equipaggiato con acceleratori NVIDIA H100.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto03 Aprile 2025, 09:51 #1
Il dominio nelle prestazioni è di Nvidia indubbiamente ma la concorrenza sta salendo la china e prima o poi la raggiungeranno.
Ma quello che Nvidia non sa è che i memristori statunitensi e coreani stanno facendo miracoli.....
Max Power03 Aprile 2025, 13:26 #2
Da qualche parte nel forum c'è un poveraccio che, seguendo pedissequamente le brochure sponsorizzate, predica l'assoluta, incredibile superiorità irraggiungibile... Bla bla bla

Infatti vediamo

Insomma, c'è un Orsini per quale settore
CrapaDiLegno03 Aprile 2025, 15:00 #3
Originariamente inviato da: supertigrotto
Il dominio nelle prestazioni è di Nvidia indubbiamente ma la concorrenza sta salendo la china e prima o poi la raggiungeranno.
Ma quello che Nvidia non sa è che i memristori statunitensi e coreani stanno facendo miracoli.....


Si parla sempre di inferenza, che è una cosa completamente diversa dal training.
L'inferenza si fa con molta meno capacità computazionale e risorse. Infatti Amazon e Google usano chip fatti in casa per limitare costi e consumi. Sarebbe stato interessante vedere le capacità di Gaudi3 in confronto.
Per l'addestramento per ora c'è solo Nvidia, sia per la potenza computazionale, sia per il SW che mette a disposizione. E la corsa degli investimenti è sull'addestramento, non sull'inferenza.
CrapaDiLegno03 Aprile 2025, 15:58 #4
Originariamente inviato da: Max Power
Da qualche parte nel forum c'è un poveraccio che, seguendo pedissequamente le brochure sponsorizzate, predica l'assoluta, incredibile superiorità irraggiungibile... Bla bla bla

Infatti vediamo

Insomma, c'è un Orsini per quale settore


Comunque ti sei confuso per benino: le slide mostrano che AMD è quasi pari al'H200.
Ma Nvidia è fuori con Blackwell e i numeri rispetto a H200 sono tutt'altra cosa.
Quindi non servono le brochure sponsorizzate, serve solo capire di quel che si parla.
E tu a quanto si è visto non hai capito proprio un bel niente.
Piedone111303 Aprile 2025, 22:46 #5
Originariamente inviato da: CrapaDiLegno
Si parla sempre di inferenza, che è una cosa completamente diversa dal training.
L'inferenza si fa con molta meno capacità computazionale e risorse. Infatti Amazon e Google usano chip fatti in casa per limitare costi e consumi. Sarebbe stato interessante vedere le capacità di Gaudi3 in confronto.
Per l'addestramento per ora c'è solo Nvidia, sia per la potenza computazionale, sia per il SW che mette a disposizione. E la corsa degli investimenti è sull'addestramento, non sull'inferenza.

Ancora a guardare l'addestramento?
Ormai le IA fanno training dei loro stessi risultati perché i dati sono finiti.
Bisogna offrire fonti affidabili per l'addestramento perché ormai i risultati somigliano più a soap opera che a risposte affidabili.
Le IA sono state nutrite dal chiacchiericcio dei social, dal pensiero suprematista, dalle teorie terrappiattiste, e da ogni tipo di amenità.
Ogni 1000 cose trovate su internet forse una a stento è affidabile, tutto il resto disinformazione ignorante se non proprio manipolazione.
Siamo prossimi all'esplosione della bolla Nvidia ( non per carenze dell'azienda) eppure a che serve una grattugia più potente e veloce se il formaggio è praticamente esaurito?
CrapaDiLegno04 Aprile 2025, 10:29 #6
Originariamente inviato da: Piedone1113
Ancora a guardare l'addestramento?
Ormai le IA fanno training dei loro stessi risultati perché i dati sono finiti.
Bisogna offrire fonti affidabili per l'addestramento perché ormai i risultati somigliano più a soap opera che a risposte affidabili.
Le IA sono state nutrite dal chiacchiericcio dei social, dal pensiero suprematista, dalle teorie terrappiattiste, e da ogni tipo di amenità.
Ogni 1000 cose trovate su internet forse una a stento è affidabile, tutto il resto disinformazione ignorante se non proprio manipolazione.
Siamo prossimi all'esplosione della bolla Nvidia ( non per carenze dell'azienda) eppure a che serve una grattugia più potente e veloce se il formaggio è praticamente esaurito?


Sei andato un po' oltre la questione "quale GPU è meglio per fare l'addestramento".
Indipendentemente da quanto dici (o assumi sia il problema) l'addestramento è necessario per creare un modello funzionante. Che sia alimentato con dati reali o fittizi.
Che poi i servizi LLM che questi modelli forniscono sono delle me.rdate siamo molti a constatarlo, ma questo non prevale sul fatto che più parametri = risposte migliori = più potenza di calcolo = mi servono le migliori GPU che facciano il lavoro più in fretta e possibilmente con meno consumi.
E quale è l'azienda che non riesce a stare dietro alle richieste delle sue GPU per l'addestramento, tanto che poi vengono buone tutte le altre soluzioni per l'inferenza visto che mancano le GPU migliori per farlo?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^