AMD Instinct MI100 sfida Nvidia A100 nel mondo dei supercomputer

AMD Instinct MI100 sfida Nvidia A100 nel mondo dei supercomputer

Instinct MI100 č il primo acceleratore di AMD basato su architettura Compute DNA (CDNA). Il nuovo chip sfida Nvidia A100 con prestazioni di calcolo elevatissime per affrontare i carichi moderni come quelli legati all'intelligenza artificiale. Ecco le principali novitā e specifiche tecniche.

di pubblicata il , alle 15:01 nel canale Schede Video
AMDRadeon InstinctCDNA
 

AMD ha annunciato l'acceleratore Instinct MI100 dedicato a server e supercomputer. La nuova proposta dell'azienda è la prima a superare una potenza di 10 teraflops con calcoli a doppia precisione (FP64). Il nuovo acceleratore si basa sull'inedita architettura CDNA (Compute DNA) e lo vedremo entro fine anno a bordo dei server dei principali OEM e ODM tra cui Dell, Gigabyte, HPE e Supermicro.

La GPU a bordo della Instinct MI100 è prodotta a 7 nanometri e conta 120 Compute Unit organizzate in quattro Asynchronous Compute Engine (ACE) per un totale di 7680 stream processor. "Anche se ispirati all'architettura Graphics Core Next di precedente generazione", spiega AMD, "ogni CU è stato riarchitettato e migliorato con un Matrix Core Engine che incrementa significativamente il throughput di calcolo per molti formati numerici".

"A differenza dell'architettura grafica RDNA, AMD CDNA rimuove tutto l'hardware a funzione fissa che è pensato per accelerare i carichi grafici, mantenendo logica dedicata per la decodifica HEVC, H.264 e VP9 che a volte è usata per carichi di calcolo che operano su dati multimediali, come il machine learning per la rilevazione degli oggetti". Rimuovendo l'hardware a funzione fissa dedicato alla grafica, AMD ha liberato area sul chip da investire nelle Compute Unit, migliorando prestazioni ed efficienza.

CU / Stream Processor FP64 TFLOPS (Picco) FP32 TFLOPS (Picco) FP32 Matrix TFLOPS (Picco) FP16/FP16 Matrix
TFLOPS (Picco)
INT4 | INT8 TOPS (Picco) bFloat16 TFLOPs (Picco) HBM2
ECC
Bandwidth memoria
120 / 7680 fino a 11,5 fino a 23,1 fino a 46,1 fino a 184,6 fino a 184,6 fino a 92,3 TFLOPS 32 GB fino a 1,23 TB/s

Matrix Core Engine all'interno dei CU sono unità ottimizzate che aggiungono Matrix Fused MultiplyAdd (MFMA) e sono pensate per velocizzare l'allenamento delle intelligenze artificiali. L'acceleratore supporta istruzioni FP64, FP32, FP16 ma anche bFloat16, INT8 e INT4.

La GPU è affiancata da 32 GB di memoria HBM2 (ECC, RAS) impostata a 1,2 GHz su un bus a 4096 bit, per una bandwidth di 1,23 TB/s. All'interno del chip c'è una cache L2 condivisa su tutto il chip e partizionata fisicamente in più slice. La cache è "16-way set associative" ed è formata da 32 slice per una capacità totale di 8 MB. Raffreddato passivamente, l'acceleratore ha un TDP di 300W e necessita di due connettori PCIe a 8 pin per l'alimentazione.

L'interconnessione con i sistemi avviene tramite il PCI Express 4.0 e l'acceleratore è dotato di Infinity Fabric di seconda generazione in grado di fornire una bandwidth di I/O di picco fino a 340 GB/s per scheda. Anche il collegamento con le altre GPU avviene tramite Infinity Fabric, con un terzo collegamento che consente di garantire alte prestazioni in configurazioni quad GPU.

Grazie ai nuovi AMD Matrix Core Engine, la nuova Instinct MI100 può raggiungere prestazioni con calcoli FP16 fino a quasi sette volte maggiori rispetto alla precedente generazione di acceleratori AMD. La Instinct MI100 offre prestazioni di picco fino 11,5 TFLOPs con calcoli FP64, 23,1 TFLOPs con calcoli FP32 e fino a 46,1 TFLOPS con matrici FP32 per carichi di lavoro di intelligenza artificiale e machine learning. Secondo il seguente grafico, il nuovo acceleratore Instinct MI100 è più veloce di Nvidia A100 basato sul chip GA100 Ampere.

"Oggi AMD compie un importante passo avanti nel viaggio verso l'elaborazione exascale presentando AMD Instinct MI100, la GPU HPC più veloce al mondo", ha affermato Brad McCredie, vicepresidente corporate per GPU Data Center e Accelerated Processing di AMD. "Creato in modo mirato per i carichi di lavoro che contano nel calcolo scientifico, il nostro ultimo acceleratore, se combinato con la piattaforma software aperta AMD ROCm, è progettato per fornire a scienziati e ricercatori fondamenta migliori per il loro lavoro nel settore HPC".

Il software per sviluppatori AMD ROCm consiste di compilatori, API di programmazione e librerie necessari per creare applicazioni di alte prestazioni. ROCm 4.0 figura un compilatore open source aggiornato e unificato per supportare OpenMP 5.0 e HIP. I framework PyTorch e Tensorflow, che sono stati ottimizzati con ROCm 4.0, possono raggiungere prestazioni più alte con il nuovo acceleratore Instinct MI100.

"Abbiamo ricevuto anticipatamente l'acceleratore MI100 e i risultati preliminari sono molto incoraggianti. In genere abbiamo riscontrato significativi aumenti delle prestazioni, fino a 2-3 volte rispetto ad altre GPU", ha affermato Bronson Messer, direttore scientifico della Oak Ridge Leadership Computing Facility. "È inoltre importante riconoscere l'impatto che il software ha sulle prestazioni. Il fatto che ROCm e HIP siano open source e funzionino su una varietà di piattaforme, è qualcosa che ci ha ossessionato da quando abbiamo messo in campo il primo sistema ibrido CPU / GPU".

15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
WarSide16 Novembre 2020, 16:20 #1
Che bestioline
joe4th16 Novembre 2020, 17:28 #2
Sara' che sono prodotti di nicchia, ma sulle prestazioni sono sempre un po' vaghi..., e non ci sono molti benchmark obiettivi in giro a riguardo, specie nei numeri che contano, che come minimo per i centri HPC sono gli FP64.

In questo caso AMD dichiara di superare le NVidia A100 sugli FP64, anche se sono 11.5 TFLOPS di "picco", sarebbe interessante conoscere i valori "sustained".

Va notato che sono indietro sul quantitativo di RAM, 40GB per Nvidia e 32GB per AMD. Non si puo' glissare e dire come si fa per le schede gaming, eh ma tanto i GB extra non servono, in HPC servono eccome. Non solo, ma proprio oggi NVidia ha annunciato un nuovo modello di A100 dove ha raddoppiato il quantitativo di memoria, portandolo da 40 a 80GB HBM2e.

Resta da capire il costo di questi oggetti...
Rubberick16 Novembre 2020, 18:57 #3
Originariamente inviato da: joe4th
Sara' che sono prodotti di nicchia, ma sulle prestazioni sono sempre un po' vaghi..., e non ci sono molti benchmark obiettivi in giro a riguardo, specie nei numeri che contano, che come minimo per i centri HPC sono gli FP64.

In questo caso AMD dichiara di superare le NVidia A100 sugli FP64, anche se sono 11.5 TFLOPS di "picco", sarebbe interessante conoscere i valori "sustained".

Va notato che sono indietro sul quantitativo di RAM, 40GB per Nvidia e 32GB per AMD. Non si puo' glissare e dire come si fa per le schede gaming, eh ma tanto i GB extra non servono, in HPC servono eccome. Non solo, ma proprio oggi NVidia ha annunciato un nuovo modello di A100 dove ha raddoppiato il quantitativo di memoria, portandolo da 40 a 80GB HBM2e.

Resta da capire il costo di questi oggetti...


appunto il paragone lo devi fare con il prezzo anche, uno potrebbe decidere di affiancare più di uno di questi acceleratori invece di usarne uno solo Nvidia
AceGranger16 Novembre 2020, 20:21 #4
Originariamente inviato da: Rubberick
appunto il paragone lo devi fare con il prezzo anche, uno potrebbe decidere di affiancare più di uno di questi acceleratori invece di usarne uno solo Nvidia


non c'è nulla di differente rispetto al passato, sulla carta grandi numeroni e prezzo basso esattamente come la MI60, poi alla fine si sono vendute solo V100.

Benchare le nVidia su software generico ha poco senso, i software CUDA su AMD non vanno e alla fine nella stragrande maggioranza dei casi nVidia+CUDA > AMD+software a caso e, tirando le somme di tutto va a finire che costano meno le costose nVidia.
lucusta17 Novembre 2020, 00:05 #5
Originariamente inviato da: AceGranger
non c'è nulla di differente rispetto al passato, sulla carta grandi numeroni e prezzo basso esattamente come la MI60, poi alla fine si sono vendute solo V100.

Benchare le nVidia su software generico ha poco senso, i software CUDA su AMD non vanno e alla fine nella stragrande maggioranza dei casi nVidia+CUDA > AMD+software a caso e, tirando le somme di tutto va a finire che costano meno le costose nVidia.


forse sarà anche vero, anche se molti ti diranno che pagherebbero oro per non fare le cose solo con cuda ed essere costretti alle danze commerciali di nvidia, ma la questione è che se scrivi su diversi siti la stessa cosa e sempre e solo per mostrare la prospettiva di un brand, poi si nota e ti scambiano per un prezzolato pubblicitario:

https://ibb.co/KyCg70r

il social marketing non è gradito, grazie.
credo che ci sia una regola precisa sul regolamento che imporrebbe il ban perpetuo, o sbaglio?
lucusta17 Novembre 2020, 00:11 #6
Originariamente inviato da: joe4th
NVidia ha annunciato un nuovo modello di A100 dove ha raddoppiato il quantitativo di memoria, portandolo da 40 a 80GB HBM2e.

Resta da capire il costo di questi oggetti...


chissà perchè lo ha fatto?!

sono notizie interessanti, ma scriverci un papiro per promuovere prodotti concorrenti a quelli citati nella news sembra tanto da social marketing, che nei forum è sempre vietato, forse tollerato dai più, ma comunque vietato.

quando diverranno interessanti per il normale pubblico, sarà anche divertente snocciolarne le caratteristiche.

e sì, magari si deve fare un po' d'ordine, in modo che la gente che legge sappia chi le scrive e che funzione abbiano le frasi che leggono in questi siti.
AceGranger17 Novembre 2020, 00:22 #7
Originariamente inviato da: lucusta
forse sarà anche vero


eh gia.

Originariamente inviato da: lucusta
anche se molti ti diranno che pagherebbero oro per non fare le cose solo con cuda ed essere costretti alle danze commerciali di nvidia, ma la questione è che se scrivi su diversi siti la stessa cosa e sempre e solo per mostrare la prospettiva di un brand, poi si nota e ti scambiano per un prezzolato pubblicitario:

https://ibb.co/KyCg70r


non è che cambio quello che è la realta da un sito all'altro

Originariamente inviato da: lucusta
forse sarà anche vero
il social marketing non è gradito, grazie.


ah ora la realta si chiama social marketing


Originariamente inviato da: lucusta
credo che ci sia una regola precisa sul regolamento che imporrebbe il ban perpetuo, o sbaglio?


tu si che ne sai di ban perpetui
lucusta17 Novembre 2020, 02:01 #8
Originariamente inviato da: AceGranger
eh gia.

magari è da dimostrare con i fatti e non con le parole del marketing...
è questa la differenza sostanziale.


Originariamente inviato da: AceGranger
non è che cambio quello che è la realta da un sito all'altro

infatti ormai nessuno mette più in dubbio quale sia il tuo reale ruolo in questi forum.


Originariamente inviato da: AceGranger
ah ora la realta si chiama social marketing

la realtà dei fatti.
stai palesemente facendo pubblicità occulta (ai più, da circa una decina d'anni e forse è il momento che certe regole vengino messe in pratica per liberare il forum di appassionati a solo gli appassionati.




Originariamente inviato da: AceGranger
tu si che ne sai di ban perpetui

conosco i ban di chi censura gli utenti perchè quello che scrivono è scomodo per i loro affari (illegali, in quanto fare marchette senza dichiararlo apertamente è contro le regole del commercio), tipo l'usare account anonimi per fare social marketing nei punti di ritrovo degli appassionati, cercando di farsi passare per appassionati e non per semplici venditori porta a porta....
ecco, quei posti, gestiti in quel modo, e gestiti da persone del genere, è meglio evitarli... soprattutto è meglio segnalare quelle persone che gestiscono quei siti che fanno capolino negli altri forum per mettere zizzagna, magari sperando di favorire il proprio sito...
(ed è meglio che qualcuno segnali la situazione a tutti gli avventori, perchè poi alle stupidaggini del marketing c'è sempre il rischio che qualcuno ci creda realmente).

o preferisci farti chiamare con altri tuoi alias o con il tuo vero nome, Andrea?
o credi che con il tuo vero nome quello che dici varrebbe meno di 2 vecchie lire, proprio perchè non ti camuffi dietro ad un personaggio inventato e costruito ad arte?

comunque è sufficiente farvi terra bruciata intorno...
AceGranger17 Novembre 2020, 09:21 #9
Originariamente inviato da: lucusta
o preferisci farti chiamare con altri tuoi alias o con il tuo vero nome, Andrea?
o credi che con il tuo vero nome quello che dici varrebbe meno di 2 vecchie lire, proprio perchè non ti camuffi dietro ad un personaggio inventato e costruito ad arte?

comunque è sufficiente farvi terra bruciata intorno...


stai iniziando a condividere psicofarmaci con il mr vittima per eccellenza che vede e sente persone a caso ?
lucusta17 Novembre 2020, 12:21 #10
no, non faccio uso di psicofarmaci, come invece altri stanno facendo proprio in questo preciso momento (essendo costretti a "tagliare fuori" qualsiasi nuovo utente per non ricevere i pizzicotti che si meritano)...
comunque anche questa tua uscita è abbastanza border line con il regolamento...
renditi conto che non sei nel tuo sito per eccellenza e qui le regole le fissano altri e valgono anche per te, quindi ci starei attentino a uscirtene con certe allusioni in siti in cui non hai nessun potere formale...

comunque è interessante vedere che non hai quotato la verità di quel post:
se parli con la tua vera identità le tue parole perdono di qualsiasi valore, perchè tutti ti conoscono per quello che sei e quello che fai.

ciao ciao...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^