View Full Version : AMD: l'enorme GPU Aldebaran vista da vicino, ma il CEO di NVIDIA non trema
Redazione di Hardware Upg
19-11-2021, 08:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/amd-l-enorme-gpu-aldebaran-vista-da-vicino-ma-il-ceo-di-nvidia-non-trema_102594.html
Ecco alcune foto ravvicinate di Instinct 250X, il nuovo acceleratore di AMD con un chip costituito da due die su un singolo package. La nuova soluzione di AMD per l'HPC e l'IA, nonostante la potenza bruta, non sembra però turbare troppo il CEO di NVIDIA.
Click sul link per visualizzare la notizia.
supertigrotto
19-11-2021, 08:29
Come dire,le misure non contano ma conta come lo si usa....il chip grafico....
Notturnia
19-11-2021, 08:41
AMD: l'enorme GPU Aldebaran vista da vicino, ma il CEO di NVIDIA non trema
gli è caduto sul piede che doveva tremare ?... fremiti di piacere ??..
dai.. che razza di titolo è.. novella 2000 avrebbe saputo fare di meglio.. che razza di titolo è...
Mr Resetti
19-11-2021, 09:10
Ma... Ci gira Crysis? :sofico:
ciciolo1974
19-11-2021, 09:23
avrà pronto il Pulser Burn...(lo so, é per pochi vecchietti come me :) )
Certo coi 1500 Petaflops, triplicherebbero il fugaku giapponese...
Ho il sospetto che non fanno in tempo ad assemblarli questi sistemi che gia' devono smontarli per far posto al successivo. Della serie, li montiamo, facciamo due foto per la stampa con il linpack per la T500 e poi smontiamo per il successivo... :-)
Avranno tempo di ottimizzare il codice i ricercatori? :-)
Scherzi a parte mi chiedo una volta smantellati dove mandino le centinaia di migliaia di schede...
Sp3cialFx
19-11-2021, 10:26
Avranno tempo di ottimizzare il codice i ricercatori? :-)
in ogni notizia in cui si parla di Mac / iPhone / iPad si parla dell'ottimizzazione dovuta al fatto che Apple gestisce tutta la filiera di produzione hw / sw - poi ovviamente nessuno ha mai verificato quanto sia vero
e niente, quando penso al fatto che qui sono in 18 soggetti diversi a costruire il supercomputer e solo molto dopo arrivano i ricercatori a scriverci il software se fosse così vera questa necessità di seguire tutta la filiera alla fine ci girerebbe la calcolatrice di win e poco più :p
CrapaDiLegno
19-11-2021, 10:53
Certo coi 1500 Petaflops, triplicherebbero il fugaku giapponese...
Ho il sospetto che non fanno in tempo ad assemblarli questi sistemi che gia' devono smontarli per far posto al successivo. Della serie, li montiamo, facciamo due foto per la stampa con il linpack per la T500 e poi smontiamo per il successivo... :-)
Avranno tempo di ottimizzare il codice i ricercatori? :-)
Scherzi a parte mi chiedo una volta smantellati dove mandino le centinaia di migliaia di schede...
Il vantaggio di Nvidia sta proprio qui.
A fare i conti veri sono le parti in CUDA core che vengono ricompilati dai loro compilatori e che usano le librerie che loro hanno scritto e loro hanno ottimizzato per ciascuna architettura prodotta.
Quindi fatto un programma CUDA basta ricompilarlo con il nuovo target e il programma si adatta a ciò che di nuovo è stato aggiunto.
Ovviamente neanche così si arriva a sfruttare il 100% la nuova soluzione, ma il lavoro da svolgere per ottimizzare tutto è decisamente minore che dover riscrivere tutto perché da una versione alla successiva sono cambiate le API delle librerie e quelle relative alla parallelizzazione del codice o il linguaggio proprio. Sempre che le librerie che si vogliono usare esistono già e siano ottimizzate per l'architettura che abbiamo a disposizione.
Che il prodotto di AMD sia un mostro lo si vede dalla foto. Di certo non è una cosa miracolosa, visto che è una architettura pensata SOLO per il calcolo HPC, è grande il doppio su PP super raffinato, consuma anche il doppio, e arriva quasi 2 anni dopo la concorrenza.
Tra 6 mesi esce la nuova architettura Nvidia (chissà se anche lei alla fine abbandonerà le parti usate per la grafica) e vediamo a che livello siamo tra i due competitor. Intel per ora non la considererei, sta tentanto di fare cose immense con risultati che vedo abbastanza insicuri: va bene la potenza assoluta che aumenta la densità, ma nel mercato HPC contano anche i consumi e sotto questo punto di vista non mi sembra messa bene.
Poi vediamo cosa fa con OpenAPI, perché se tenta di fare un pastrocchio ibrido sfruttando CPU e GPU come ha tentato OpenCL direi che non è che va molto lontano.. più facile da programmare ma poi ti servono il doppio delle risorse per avere le stesse prestazioni di codice scritto ad-hoc.
Gyammy85
19-11-2021, 11:48
Il vantaggio di Nvidia sta proprio qui.
A fare i conti veri sono le parti in CUDA core che vengono ricompilati dai loro compilatori e che usano le librerie che loro hanno scritto e loro hanno ottimizzato per ciascuna architettura prodotta.
Quindi fatto un programma CUDA basta ricompilarlo con il nuovo target e il programma si adatta a ciò che di nuovo è stato aggiunto.
Ovviamente neanche così si arriva a sfruttare il 100% la nuova soluzione, ma il lavoro da svolgere per ottimizzare tutto è decisamente minore che dover riscrivere tutto perché da una versione alla successiva sono cambiate le API delle librerie e quelle relative alla parallelizzazione del codice o il linguaggio proprio. Sempre che le librerie che si vogliono usare esistono già e siano ottimizzate per l'architettura che abbiamo a disposizione.
Che il prodotto di AMD sia un mostro lo si vede dalla foto. Di certo non è una cosa miracolosa, visto che è una architettura pensata SOLO per il calcolo HPC, è grande il doppio su PP super raffinato, consuma anche il doppio, e arriva quasi 2 anni dopo la concorrenza.
Tra 6 mesi esce la nuova architettura Nvidia (chissà se anche lei alla fine abbandonerà le parti usate per la grafica) e vediamo a che livello siamo tra i due competitor. Intel per ora non la considererei, sta tentanto di fare cose immense con risultati che vedo abbastanza insicuri: va bene la potenza assoluta che aumenta la densità, ma nel mercato HPC contano anche i consumi e sotto questo punto di vista non mi sembra messa bene.
Poi vediamo cosa fa con OpenAPI, perché se tenta di fare un pastrocchio ibrido sfruttando CPU e GPU come ha tentato OpenCL direi che non è che va molto lontano.. più facile da programmare ma poi ti servono il doppio delle risorse per avere le stesse prestazioni di codice scritto ad-hoc.
Già in fondo che hanno fatto? Appiccicare due GPU
E non ci gira neanche cuda, fail
E fra due-tre-quattro anni qualcuno farà qualcosa contro, fail n. 2
La seduta è tolta, torniamo a platinare :O
CrapaDiLegno
19-11-2021, 12:55
Già in fondo che hanno fatto? Appiccicare due GPU
E non ci gira neanche cuda, fail
E fra due-tre-quattro qualcuno farà qualcosa contro, fail n. 2
La seduta è tolta, torniamo a platinare :O
Effettivamente in un mercato dove le GPU si installano a migliaia per fare lavori altamente parallelizzati, incollare 2 GPU consumando il doppio ha solo il vantaggio di aumentare la densità.
Togliamo la seduta, che qui si parla di roba senza sapere di che si tratta.
Min01987
19-11-2021, 15:19
Cuda è solo più facile da implementare, ma per Dire OpenCL se ben scritto ed ottimizzato al progetto può arrivare ad esprimere anche il 2X con hardware AMD vs Nvidia cn CUDA.
nickname88
19-11-2021, 15:24
Sono questi i prodotti che vogliamo su desktop.
Sicuramente con molta meno VRAM e PP N5 si riesce a scendere sotto i 500W.
tuttodigitale
19-11-2021, 17:32
Il vantaggio di Nvidia sta proprio qui.
A fare i conti veri sono le parti in CUDA core che vengono ricompilati dai loro compilatori e che usano le librerie che loro hanno scritto e loro hanno ottimizzato per ciascuna architettura prodotta.
Quindi fatto un programma CUDA basta ricompilarlo con il nuovo target e il programma si adatta a ciò che di nuovo è stato aggiunto.
Ovviamente neanche così si arriva a sfruttare il 100% la nuova soluzione, ma il lavoro da svolgere per ottimizzare tutto è decisamente minore che dover riscrivere tutto perché da una versione alla successiva sono cambiate le API delle librerie e quelle relative alla parallelizzazione del codice o il linguaggio proprio. Sempre che le librerie che si vogliono usare esistono già e siano ottimizzate per l'architettura che abbiamo a disposizione.
Che il prodotto di AMD sia un mostro lo si vede dalla foto. Di certo non è una cosa miracolosa, visto che è una architettura pensata SOLO per il calcolo HPC, è grande il doppio su PP super raffinato, consuma anche il doppio, e arriva quasi 2 anni dopo la concorrenza.
Tra 6 mesi esce la nuova architettura Nvidia (chissà se anche lei alla fine abbandonerà le parti usate per la grafica) e vediamo a che livello siamo tra i due competitor. Intel per ora non la considererei, sta tentanto di fare cose immense con risultati che vedo abbastanza insicuri: va bene la potenza assoluta che aumenta la densità, ma nel mercato HPC contano anche i consumi e sotto questo punto di vista non mi sembra messa bene.
Poi vediamo cosa fa con OpenAPI, perché se tenta di fare un pastrocchio ibrido sfruttando CPU e GPU come ha tentato OpenCL direi che non è che va molto lontano.. più facile da programmare ma poi ti servono il doppio delle risorse per avere le stesse prestazioni di codice scritto ad-hoc.
OMG...50 Tflops fp64/ e fino a 100 fp32 con 800 watt..alla faccia dell'inefficienza:muro:
cdimauro
20-11-2021, 05:51
gli è caduto sul piede che doveva tremare ?... fremiti di piacere ??..
dai.. che razza di titolo è.. novella 2000 avrebbe saputo fare di meglio.. che razza di titolo è...
Mi associo. E' davvero imbarazzante... :rolleyes:
avrà pronto il Pulser Burn...(lo so, é per pochi vecchietti come me :) )
O il Baldy Pryce, o il Cutter Ranger :D
Intel per ora non la considererei, sta tentanto di fare cose immense con risultati che vedo abbastanza insicuri: va bene la potenza assoluta che aumenta la densità, ma nel mercato HPC contano anche i consumi e sotto questo punto di vista non mi sembra messa bene.
Le GPU non operano a frequenze elevate e non usano v-core elevati, per cui sul nuovo processo produttivo N7 dovrebbero andare molto meglio rispetto alle CPU.
Comunque ormai manca poco per toglierci i dubbi.
Poi vediamo cosa fa con OpenAPI, perché se tenta di fare un pastrocchio ibrido sfruttando CPU e GPU come ha tentato OpenCL direi che non è che va molto lontano..
OpenCL non è opera di Intel, ma di Apple.
Intel nella sua storia di supporto alla parallelizzazione / smistamento dei grossi carichi di lavoro ha realizzato altre API / framework, alcune molto più semplici da utilizzare.
Infatti OneAPI (non OpenAPI) pare prefiggersi proprio questo scopo, essendo basata su C++, quindi dovrebbe essere di più facile assimilazione e utilizzo per i programmatori che usano questo linguaggio. Comunque vedremo poi i risultati.
più facile da programmare ma poi ti servono il doppio delle risorse per avere le stesse prestazioni di codice scritto ad-hoc.
Certo, alla fine bisogna vedere le prestazioni, per l'appunto. Al momento CUDA è senz'altro il punto di riferimento.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.