AMD: l'enorme GPU Aldebaran vista da vicino, ma il CEO di NVIDIA non trema

AMD: l'enorme GPU Aldebaran vista da vicino, ma il CEO di NVIDIA non trema

Ecco alcune foto ravvicinate di Instinct 250X, il nuovo acceleratore di AMD con un chip costituito da due die su un singolo package. La nuova soluzione di AMD per l'HPC e l'IA, nonostante la potenza bruta, non sembra però turbare troppo il CEO di NVIDIA.

di pubblicata il , alle 09:21 nel canale Schede Video
AMDRadeon InstinctCDNA
 

AMD ha recentemente introdotto Instinct MI250/250X, un nuovo acceleratore per i calcoli HPC e di intelligenza artificiale basato su architettura CDNA 2. Estremamente potente grazie alla presenza di due die (detti GCD, Graphic Compute Die) sul package, il nuovo chip (nome in codice Aldebaran) si mostra per la prima volta in foto ravvicinate e non in semplici rendering o nelle mani di Lisa Su. A pubblicarle il sito ServeTheHome.


Crediti: Patrick Kennedy, ServeTheHome

Destinato anzitutto al supercomputer Frontier da oltre 1,5 exaflops che sarà presto attivo, il nuovo acceleratore arriverà in seguito anche su altri sistemi e sul mercato server come dimostrato dal recente annuncio del francese Adastra. Le foto ci mostrano una GPU davvero enorme, posta su un circuito stampato in formato OAM (102 x 165 mm).

AMD non ha diffuso informazioni sulla dimensione dei die (prodotto da TSMC con processo N6), ma secondo alcune stime potrebbero toccare 750-800 mm2 ciascuno, mentre conosciamo il numero di transistor complessivo, pari a 58 miliardi e il TBP di 500 / 560 Watt a seconda del tipo di raffreddamento impiegato. Inoltre, ogni chip è accompagnato da 64 GB di memoria HBM2E su interfaccia a 4096 bit, per un totale di 128 GB di HBM2E su bus a 8192 bit.

A bordo troviamo vi sono fino a 14080 stream processor (7040 per GDC), anche se stiamo parlando delle unità attive perché un GDC completo offre 112 Compute Unit (per un totale di 224 sull'intera GPU), quindi un massimo di 14336 stream processor. AMD ne ha attivate di meno semplicemente per questioni di rese produttive.


Crediti: Patrick Kennedy, ServeTheHome

Le prestazioni dichiarate da AMD fanno impallidire l'attuale NVIDIA A100, basata su una GPU A100 con 54 miliardi di transistor e una dimensione di 826 mm2 grazie al processo a 7 nanometri di TSMC.

NVIDIA, o meglio il suo CEO, non sembra però tremare. Intervistato da The Next Platform, Jensen Huang ha dichiarato che l'annuncio di AMD o l'arrivo di Intel con Ponte Vecchio fanno parte della naturale concorrenza. "Abbiamo sempre concorrenza, quindi non è vero che questo è il primo cosiddetto 'NVIDIA Killer' che arriva. Ogni anno c'è un 'NVIDIA Killer' e la gente lo chiama così". Huang ha affermato che il settore HPC si riduce a una semplice equazione: aumentare le prestazioni FP64, la memoria e tenere i prezzi complessivi il più possibile sotto controllo.

Secondo il CEO di NVIDIA, AMD ha fatto semplicemente quella parte del compito, ma poi si tratta di far rendere l'hardware al meglio e lavorare sull'intero stack software, sugli algoritmi, convincere gli sviluppatori e creare applicazioni concrete. Per tutta questa serie di motivi, seppur NVIDIA guardi agli sviluppi dei concorrenti, si sente in una posizione di forza grazie a quanto costruito negli anni.

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto19 Novembre 2021, 09:29 #1
Come dire,le misure non contano ma conta come lo si usa....il chip grafico....
Notturnia19 Novembre 2021, 09:41 #2
AMD: l'enorme GPU Aldebaran vista da vicino, ma il CEO di NVIDIA non trema


gli è caduto sul piede che doveva tremare ?... fremiti di piacere ??..

dai.. che razza di titolo è.. novella 2000 avrebbe saputo fare di meglio.. che razza di titolo è...
Mr Resetti19 Novembre 2021, 10:10 #3
Ma... Ci gira Crysis?
ciciolo197419 Novembre 2021, 10:23 #4
avrà pronto il Pulser Burn...(lo so, é per pochi vecchietti come me )
joe4th19 Novembre 2021, 10:37 #5
Certo coi 1500 Petaflops, triplicherebbero il fugaku giapponese...

Ho il sospetto che non fanno in tempo ad assemblarli questi sistemi che gia' devono smontarli per far posto al successivo. Della serie, li montiamo, facciamo due foto per la stampa con il linpack per la T500 e poi smontiamo per il successivo... :-)

Avranno tempo di ottimizzare il codice i ricercatori? :-)

Scherzi a parte mi chiedo una volta smantellati dove mandino le centinaia di migliaia di schede...
Sp3cialFx19 Novembre 2021, 11:26 #6
Originariamente inviato da: joe4th
Avranno tempo di ottimizzare il codice i ricercatori? :-)


in ogni notizia in cui si parla di Mac / iPhone / iPad si parla dell'ottimizzazione dovuta al fatto che Apple gestisce tutta la filiera di produzione hw / sw - poi ovviamente nessuno ha mai verificato quanto sia vero

e niente, quando penso al fatto che qui sono in 18 soggetti diversi a costruire il supercomputer e solo molto dopo arrivano i ricercatori a scriverci il software se fosse così vera questa necessità di seguire tutta la filiera alla fine ci girerebbe la calcolatrice di win e poco più
CrapaDiLegno19 Novembre 2021, 11:53 #7
Originariamente inviato da: joe4th
Certo coi 1500 Petaflops, triplicherebbero il fugaku giapponese...

Ho il sospetto che non fanno in tempo ad assemblarli questi sistemi che gia' devono smontarli per far posto al successivo. Della serie, li montiamo, facciamo due foto per la stampa con il linpack per la T500 e poi smontiamo per il successivo... :-)

Avranno tempo di ottimizzare il codice i ricercatori? :-)

Scherzi a parte mi chiedo una volta smantellati dove mandino le centinaia di migliaia di schede...


Il vantaggio di Nvidia sta proprio qui.
A fare i conti veri sono le parti in CUDA core che vengono ricompilati dai loro compilatori e che usano le librerie che loro hanno scritto e loro hanno ottimizzato per ciascuna architettura prodotta.
Quindi fatto un programma CUDA basta ricompilarlo con il nuovo target e il programma si adatta a ciò che di nuovo è stato aggiunto.
Ovviamente neanche così si arriva a sfruttare il 100% la nuova soluzione, ma il lavoro da svolgere per ottimizzare tutto è decisamente minore che dover riscrivere tutto perché da una versione alla successiva sono cambiate le API delle librerie e quelle relative alla parallelizzazione del codice o il linguaggio proprio. Sempre che le librerie che si vogliono usare esistono già e siano ottimizzate per l'architettura che abbiamo a disposizione.

Che il prodotto di AMD sia un mostro lo si vede dalla foto. Di certo non è una cosa miracolosa, visto che è una architettura pensata SOLO per il calcolo HPC, è grande il doppio su PP super raffinato, consuma anche il doppio, e arriva quasi 2 anni dopo la concorrenza.
Tra 6 mesi esce la nuova architettura Nvidia (chissà se anche lei alla fine abbandonerà le parti usate per la grafica) e vediamo a che livello siamo tra i due competitor. Intel per ora non la considererei, sta tentanto di fare cose immense con risultati che vedo abbastanza insicuri: va bene la potenza assoluta che aumenta la densità, ma nel mercato HPC contano anche i consumi e sotto questo punto di vista non mi sembra messa bene.
Poi vediamo cosa fa con OpenAPI, perché se tenta di fare un pastrocchio ibrido sfruttando CPU e GPU come ha tentato OpenCL direi che non è che va molto lontano.. più facile da programmare ma poi ti servono il doppio delle risorse per avere le stesse prestazioni di codice scritto ad-hoc.
Gyammy8519 Novembre 2021, 12:48 #8
Originariamente inviato da: CrapaDiLegno
Il vantaggio di Nvidia sta proprio qui.
A fare i conti veri sono le parti in CUDA core che vengono ricompilati dai loro compilatori e che usano le librerie che loro hanno scritto e loro hanno ottimizzato per ciascuna architettura prodotta.
Quindi fatto un programma CUDA basta ricompilarlo con il nuovo target e il programma si adatta a ciò che di nuovo è stato aggiunto.
Ovviamente neanche così si arriva a sfruttare il 100% la nuova soluzione, ma il lavoro da svolgere per ottimizzare tutto è decisamente minore che dover riscrivere tutto perché da una versione alla successiva sono cambiate le API delle librerie e quelle relative alla parallelizzazione del codice o il linguaggio proprio. Sempre che le librerie che si vogliono usare esistono già e siano ottimizzate per l'architettura che abbiamo a disposizione.

Che il prodotto di AMD sia un mostro lo si vede dalla foto. Di certo non è una cosa miracolosa, visto che è una architettura pensata SOLO per il calcolo HPC, è grande il doppio su PP super raffinato, consuma anche il doppio, e arriva quasi 2 anni dopo la concorrenza.
Tra 6 mesi esce la nuova architettura Nvidia (chissà se anche lei alla fine abbandonerà le parti usate per la grafica) e vediamo a che livello siamo tra i due competitor. Intel per ora non la considererei, sta tentanto di fare cose immense con risultati che vedo abbastanza insicuri: va bene la potenza assoluta che aumenta la densità, ma nel mercato HPC contano anche i consumi e sotto questo punto di vista non mi sembra messa bene.
Poi vediamo cosa fa con OpenAPI, perché se tenta di fare un pastrocchio ibrido sfruttando CPU e GPU come ha tentato OpenCL direi che non è che va molto lontano.. più facile da programmare ma poi ti servono il doppio delle risorse per avere le stesse prestazioni di codice scritto ad-hoc.


Già in fondo che hanno fatto? Appiccicare due GPU
E non ci gira neanche cuda, fail
E fra due-tre-quattro anni qualcuno farà qualcosa contro, fail n. 2
La seduta è tolta, torniamo a platinare
CrapaDiLegno19 Novembre 2021, 13:55 #9
Originariamente inviato da: Gyammy85
Già in fondo che hanno fatto? Appiccicare due GPU
E non ci gira neanche cuda, fail
E fra due-tre-quattro qualcuno farà qualcosa contro, fail n. 2
La seduta è tolta, torniamo a platinare


Effettivamente in un mercato dove le GPU si installano a migliaia per fare lavori altamente parallelizzati, incollare 2 GPU consumando il doppio ha solo il vantaggio di aumentare la densità.
Togliamo la seduta, che qui si parla di roba senza sapere di che si tratta.
Min0198719 Novembre 2021, 16:19 #10
Cuda è solo più facile da implementare, ma per Dire OpenCL se ben scritto ed ottimizzato al progetto può arrivare ad esprimere anche il 2X con hardware AMD vs Nvidia cn CUDA.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^