NVIDIA Blackwell guida nei test sull'inferenza IA, AMD seconda con performance simili ad H200
NVIDIA domina i benchmark MLPerf Inference V5.0 con la nuova architettura Blackwell, triplicando le prestazioni rispetto all'H200. AMD avanza con Instinct MI325X, mentre Intel mette in mostra le capacità delle CPU Xeon 6.
di Manolo De Agostini pubblicata il 03 Aprile 2025, alle 06:17 nel canale Schede VideoCDNAGranite RapidsXeonIntelBlackwellNVIDIAAMDInstinct
I risultati del benchmark MLPerf Inference V5.0 di MLCommons hanno confermato il dominio di NVIDIA nel settore degli acceleratori per l'intelligenza artificiale, con la nuova architettura Blackwell che segna un netto miglioramento rispetto alle generazioni precedenti nell'ambito dell'inferenza. Il test, nello specifico, valuta la velocità con cui i sistemi possono elaborare gli input e produrre risultati utilizzando un modello addestrato.
AMD, seppur seconda, ha mostrato un significativo progresso con il debutto del suo acceleratore Instinct MI325X, mentre Intel ha pubblicato risultati relativi alle CPU Xeon 6 "Granite Rapids", non avendo in Gaudi 3 un competitor all'altezza della concorrenza.
Clicca per ingrandire
NVIDIA ha stabilito nuovi record, grazie soprattutto al sistema rack-scale GB200 NVL72, che ha permesso di ottenere fino a 30 volte il throughput rispetto alla soluzione H200 NVL8 sul benchmark Llama 3.1 405B.
Clicca per ingrandire
Clicca per ingrandire
L'incremento di prestazioni non si deve solo alla maggiore potenza delle GPU Blackwell, ma anche all'ottimizzazione dell'interconnessione NVLink, che ha moltiplicato per nove la bandwidth di comunicazione interna. Inoltre, nel test Llama 2 70B Interactive, la piattaforma Blackwell ha triplicato le prestazioni rispetto alla generazione H200, migliorando significativamente i tempi di risposta, un aspetto cruciale per le applicazioni real-time.
Clicca per ingrandire
Clicca per ingrandire
AMD, pur restando dietro a NVIDIA, ha registrato un avanzamento notevole con il debutto dell'Instinct MI325X, il primo acceleratore della serie a partecipare ai benchmark MLPerf. Le prestazioni del MI325X si sono dimostrate comparabili a quelle dell'H200 di NVIDIA, e la sua scalabilità è stata confermata dai risultati ottenuti da più partner industriali, tra cui Supermicro, ASUS e Giga Computing. Inoltre, la prima partecipazione multi-nodo con il MI300X, presentata dal partner MangoBoost, ha segnato un record nel test offline per Llama 2 70B, dimostrando l'efficacia delle soluzioni AMD nelle configurazioni distribuite.
Intel, invece, ha scelto un approccio differente, evidenziando i progressi della propria architettura Xeon 6 nel contesto delle CPU per l'inferenza. I processori Xeon 6 hanno mostrato un miglioramento del 90% rispetto alla generazione precedente, frutto delle unità di accelerazione interne al chip, della migliore architettura complessiva e dell'ottimizzazione software.
Intel Xeon 6 with P-cores (the only server CPU in MLPerf 🎉) showcased exceptional performance across key #MLPerf Inference v5.0 benchmarks – ResNet50, RetinaNet, 3D-UNet and the new GNN-RGAT, achieving 1.9x performance improvement over 5th Gen Xeon.
— Intel News (@intelnews) April 2, 2025
More: https://t.co/73GAOnBrm5 pic.twitter.com/hRo4k9RtmJ
Intel non ha presentato risultati per la linea di acceleratori Gaudi, evitando il confronto diretto con AMD e NVIDIA nei test MLPerf. Questo suggerisce una strategia focalizzata sul mercato delle CPU per l'A piuttosto che su quello delle GPU ad alte prestazioni, almeno al momento.
Infine, da segnalare la presenza anche della TPU v6e di Google, seppur con risultati limitati all'attività di generazione di immagini. Con 5,48 query al secondo, un sistema dotato di 4 TPU ha registrato un incremento di 2,5 volte rispetto a un sistema simile basato sul predecessore TPU v5e nei risultati di ottobre 2024. Tuttavia, 5,48 query al secondo sono più o meno in linea con un sistema di Lenovo di dimensioni simili equipaggiato con acceleratori NVIDIA H100.















Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
Black Friday in anticipo: cuffie top a prezzi da urlo. Sony, Beats e le imperdibili CMF a prezzi mai visti
Questa è ID.UNYX 08, la prima Volkswagen elettrica costruita insieme a XPeng
CoD: Black Ops 7 nella bufera, Calling Cards sospettate di essere state generate dall'IA
Economico, potentissimo: il robot che lava e aspira (10000Pa) Roborock Q7 M5 crolla a 149€ col Black Friday, offerta imperdibile
Windows 11 e le critiche degli utenti sull'IA: risponde il responsabile Microsoft
CoD Black Ops 7: la campagna richiede connessione costante, non può essere messa in pausa e non ci sono checkpoint
A 17,69€ è un prezzo senza senso da tanto è basso: caricatore multiplo da 220W (ok anche coi MacBook), 6 porte e nessun rivale
Tecnologie derivate dalla F1 per accelerare il Wi-Fi sui treni: parte il primo test nel Regno Unito
Macbook Air M4 a 879€, Mac mini M4 a 549€, Macbook Pro M5 -150€, Watch 11 -23%, iPhone 16 695€: le offerte Apple migliori su Amazon
La morte del gatto Kit Kat riaccende il dibattito sui robotaxi Waymo a San Francisco
iPhone 16 128GB, in 4 colori, a 695€: è il prezzo più basso di sempre su Amazon
Il primo microprocessore non fu di Intel: ecco la verità tenuta nascosta per 30 anni
Nuovi arrivi tutti i giorni su Amazon Seconda Mano - Warehouse: -15% su decine di migliaia di articoli, molti praticamente nuovi
Xeon Diamond Rapids solo a 16 canali: Intel semplifica la piattaforma server









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa quello che Nvidia non sa è che i memristori statunitensi e coreani stanno facendo miracoli.....
Infatti vediamo
Insomma, c'è un Orsini per quale settore
Ma quello che Nvidia non sa è che i memristori statunitensi e coreani stanno facendo miracoli.....
Si parla sempre di inferenza, che è una cosa completamente diversa dal training.
L'inferenza si fa con molta meno capacità computazionale e risorse. Infatti Amazon e Google usano chip fatti in casa per limitare costi e consumi. Sarebbe stato interessante vedere le capacità di Gaudi3 in confronto.
Per l'addestramento per ora c'è solo Nvidia, sia per la potenza computazionale, sia per il SW che mette a disposizione. E la corsa degli investimenti è sull'addestramento, non sull'inferenza.
Infatti vediamo
Insomma, c'è un Orsini per quale settore
Comunque ti sei confuso per benino: le slide mostrano che AMD è quasi pari al'H200.
Ma Nvidia è fuori con Blackwell e i numeri rispetto a H200 sono tutt'altra cosa.
Quindi non servono le brochure sponsorizzate, serve solo capire di quel che si parla.
E tu a quanto si è visto non hai capito proprio un bel niente.
L'inferenza si fa con molta meno capacità computazionale e risorse. Infatti Amazon e Google usano chip fatti in casa per limitare costi e consumi. Sarebbe stato interessante vedere le capacità di Gaudi3 in confronto.
Per l'addestramento per ora c'è solo Nvidia, sia per la potenza computazionale, sia per il SW che mette a disposizione. E la corsa degli investimenti è sull'addestramento, non sull'inferenza.
Ancora a guardare l'addestramento?
Ormai le IA fanno training dei loro stessi risultati perché i dati sono finiti.
Bisogna offrire fonti affidabili per l'addestramento perché ormai i risultati somigliano più a soap opera che a risposte affidabili.
Le IA sono state nutrite dal chiacchiericcio dei social, dal pensiero suprematista, dalle teorie terrappiattiste, e da ogni tipo di amenità.
Ogni 1000 cose trovate su internet forse una a stento è affidabile, tutto il resto disinformazione ignorante se non proprio manipolazione.
Siamo prossimi all'esplosione della bolla Nvidia ( non per carenze dell'azienda) eppure a che serve una grattugia più potente e veloce se il formaggio è praticamente esaurito?
Ormai le IA fanno training dei loro stessi risultati perché i dati sono finiti.
Bisogna offrire fonti affidabili per l'addestramento perché ormai i risultati somigliano più a soap opera che a risposte affidabili.
Le IA sono state nutrite dal chiacchiericcio dei social, dal pensiero suprematista, dalle teorie terrappiattiste, e da ogni tipo di amenità.
Ogni 1000 cose trovate su internet forse una a stento è affidabile, tutto il resto disinformazione ignorante se non proprio manipolazione.
Siamo prossimi all'esplosione della bolla Nvidia ( non per carenze dell'azienda) eppure a che serve una grattugia più potente e veloce se il formaggio è praticamente esaurito?
Sei andato un po' oltre la questione "quale GPU è meglio per fare l'addestramento".
Indipendentemente da quanto dici (o assumi sia il problema) l'addestramento è necessario per creare un modello funzionante. Che sia alimentato con dati reali o fittizi.
Che poi i servizi LLM che questi modelli forniscono sono delle me.rdate siamo molti a constatarlo, ma questo non prevale sul fatto che più parametri = risposte migliori = più potenza di calcolo = mi servono le migliori GPU che facciano il lavoro più in fretta e possibilmente con meno consumi.
E quale è l'azienda che non riesce a stare dietro alle richieste delle sue GPU per l'addestramento, tanto che poi vengono buone tutte le altre soluzioni per l'inferenza visto che mancano le GPU migliori per farlo?
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".