PDA

View Full Version : Nvidia A100, ci sono 54 miliardi di transistor nella GPU GA100 Ampere


Redazione di Hardware Upg
14-05-2020, 14:36
Link alla notizia: https://www.hwupgrade.it/news/skvideo/nvidia-a100-ci-sono-54-miliardi-di-transistor-nella-gpu-ga100-ampere_89361.html

Nvidia ha presentato l'acceleratore Nvidia A100, fino a 20 volte più potente di Tesla V100. A bordo la nuova GPU GA100 basata su architettura Ampere, prodotta a 7 nanometri. Il chip conta 54 miliardi di transistor ed è affiancato da 40 GB di memoria HBM2.

Click sul link per visualizzare la notizia.

protonIT
14-05-2020, 14:54
News sulle rtx?

Gyammy85
14-05-2020, 14:59
Ma come, niente 8000 sp?
Ma come, niente boost 2,8 GHz a 150 watt di tdp?
Ma come, non erano 50 tf?

Già mi vedo i bios da 700 watt per la gaming

News sulle rtx?

Just around the corner

Manolo De Agostini
14-05-2020, 15:09
Ma come, niente 8000 sp?

Il chip nella sua forma migliore ha 8192 core, ma nel caso della Nvidia A100 sono attivi molti meno.

cronos1990
14-05-2020, 15:16
Sbaglio o è un "chippone" bello grosso?

Gyammy85
14-05-2020, 15:21
Sbaglio o è un "chippone" bello grosso?

No dai, giusto un pochino

demon77
14-05-2020, 15:45
Sbaglio o è un "chippone" bello grosso?

Diciamo che una caffettiera per due ci sta comoda.. :D

Manolo De Agostini
14-05-2020, 15:47
20 volte piu' potente solo in pochissimi utilizzi, non in tutte le applicazioni...

Non è sbagliato, ma per chiarezza metto un "fino a". Tieni presente che ho dovuto correre, tra mille dettagli tecnici ecc. Qualcosa può essermi sfuggito. Grazie mille dell'imbeccata :)

CYRANO
14-05-2020, 15:52
Ho sentito che lo inseriranno nella futura Switch 2 !



Clmdlmlmslmslmslms

demon77
14-05-2020, 16:00
20 volte piu' potente solo in pochissimi utilizzi, non in tutte le applicazioni...

Va beh ma questo è logico.
Il guadagno prestazionale è direttamente legato al tipo di calcoli che vengono fatti da una determinata applicazione.
Alcune probabilmente beneficiano tantissimo di nuove istruziuoni implementate ne nuovo hardware rispetto alle precedenti versioni, altre invece hanno un guadagno marginale.

ninja750
14-05-2020, 16:27
non hanno (ancora) talmente concorrenza in alto che potranno fare uscire le vga desktop user il prossimo anno

Manolo De Agostini
14-05-2020, 17:25
News sulle rtx?

No, al momento. Se ne parlerà a settembre probabilmente... circolano indiscrezioni, da prendere con le pinze. Dettagli qui https://www.hwupgrade.it/news/skvideo/ampere-le-rtx-3000-faranno-mangiare-la-polvere-alle-gpu-nvidia-attuali_89274.html

nickname88
14-05-2020, 17:31
Ma come, niente 8000 sp?
Ma come, niente boost 2,8 GHz a 150 watt di tdp?
Ma come, non erano 50 tf?

Già mi vedo i bios da 700 watt per la gaming



Just around the corner
:asd:
Fatti curare

al135
14-05-2020, 17:49
Ma come, niente 8000 sp?
Ma come, niente boost 2,8 GHz a 150 watt di tdp?
Ma come, non erano 50 tf?

Già mi vedo i bios da 700 watt per la gaming



Just around the corner

mammamia che pagliaccio

Free Gordon
14-05-2020, 17:51
porco :oink: che bestia...

54 miliardi di transistor...



Ora la piattaforma monta due Epic da 64 core.. :asd: :asd: :asd: :sofico:

Mparlav
14-05-2020, 18:09
Pornografia per geek :D

https://cdn.wccftech.com/wp-content/uploads/2020/05/NVIDIA-DGX-A100-Ampere-GPU-and-AMD-EPYC-CPU-Powered-HPC-System_Full-Specs.png

cronos1990
14-05-2020, 18:13
non hanno (ancora) talmente concorrenza in alto che potranno fare uscire le vga desktop user il prossimo annoBisognerà vedere cosa proporrà AMD a breve. Molto probabilmente stanno aspettando di vedere per poi decidere cosa fare, sono in posizione di vantaggio e possono permetterselo.

In ogni caso, a differenza lato CPU (cioè Intel) mi pare che Nvidia stia molto meno sugli allori.

bagnino89
14-05-2020, 18:19
No, al momento. Se ne parlerà a settembre probabilmente... circolano indiscrezioni, da prendere con le pinze. Dettagli qui https://www.hwupgrade.it/news/skvideo/ampere-le-rtx-3000-faranno-mangiare-la-polvere-alle-gpu-nvidia-attuali_89274.html

E si tira avanti con la GTX 1080...

demonsmaycry84
14-05-2020, 19:20
madonna che mostro...vediamo come riusciranno a declinarlo in ambito gaming... vediamo se cambiano il controller di memoria per gddr6...lo dò per scontato..ma sono rimasto molto sorpreso ....bello bello grosso il tutto :D

noppy1
14-05-2020, 19:35
che siano passati da Intel a AMD è normale se vuoi una piattaforma PCIe4 allo stato attuale

Bradiper
14-05-2020, 20:04
Preferisco amd ma una 2080ti penso sia il sogno di tutti, la vetta che amd non ha ancora raggiunto, dovrebbe farlo con la prossima scheda ma mi sa che ampere sarà di nuovo 2 gradini sopra alle future Radeon.

Manolo De Agostini
14-05-2020, 20:05
che siano passati da Intel a AMD è normale se vuoi una piattaforma PCIe4 allo stato attuale

Quello sicuramente, non c'era alternativa.

BVS
14-05-2020, 21:06
Va beh ma questo è logico.
Il guadagno prestazionale è direttamente legato al tipo di calcoli che vengono fatti da una determinata applicazione.
Alcune probabilmente beneficiano tantissimo di nuove istruziuoni implementate ne nuovo hardware rispetto alle precedenti versioni, altre invece hanno un guadagno marginale.

non è una cosa così raffinata, semplicemente hanno 20 volte più processori specializzati per calcoli a mezza precisione, per gli FP32 si parla del 20% in più

supertigrotto
14-05-2020, 22:45
Chipponi incredibili e dove trovarli!
Nei migliori cinema!
Scherzi a parte è da molto che si vocifera che AMD e Intel stiano lavorando alle GPU composte da chiplet,in stile architettura Zen,mentre Nvidia dice che la strada non è percorribile,infatti punta tutto sul monolitico.
In vecchi articoli le due case parlavano di questo.
Sinceramente penso che AMD e Intel stiano seguendo una strada difficile ma giusta,le rese di un grande chip monolitico sono difficili da ottenere,con eventuali scarti che vengono reimmessi sul mercato con le serie inferiori laserate mentre con i chiplet ci sono meno scarti anche se di difficile implementazione,per via delle latenze e delle comunicazioni interne.
Ho come la senzazione che se fra un paio di anni,se si riesce a mettere a punto il sistema chiplet nelle GPU,Nvidia si troverà nei guai,il sistema chiplet permette di abbassare notevolmente i costi.
Sono quasi certo da possessore di 5700 che Nvidia resterà la regina delle prestazioni e dei consumi per un altro paio di anni per poi ritrovarsi surclassata come successe in passato,probabilmente rdna2 sarà una architettura eccellente ma mi sa che le serie 3000 andranno un peletto di più,poi è il mercato lo fa il prezzo e le vendite.
Sinceramente parlando,AMD si è concentrata molto sul mercato di gamma media nelle scorse generazioni,perchè si guadagna e si vende di più,come farà sicuramente Intel,in effetti,schede top gamma a livello prestazioni se ne vendono poche (non tutti sono disposti a spendere un migliaio e passa di euro) mentre la gamma media e bassa vende come il pane,un po' come il settore auto,pochi possono permettersi la supercar ma i fatturati maggiori si fanno con le berline,le utilitarie,i suv e via dicendo.

nickname88
14-05-2020, 22:54
Chipponi incredibili e dove trovarli!
Nei migliori cinema!
Scherzi a parte è da molto che si vocifera che AMD e Intel stiano lavorando alle GPU composte da chiplet,in stile architettura Zen,mentre Nvidia dice che la strada non è percorribile,infatti punta tutto sul monolitico.
In vecchi articoli le due case parlavano di questo.
Sinceramente penso che AMD e Intel stiano seguendo una strada difficile ma giusta,le rese di un grande chip monolitico sono difficili da ottenere,con eventuali scarti che vengono reimmessi sul mercato con le serie inferiori laserate mentre con i chiplet ci sono meno scarti anche se di difficile implementazione,per via delle latenze e delle comunicazioni interne.
Ho come la senzazione che se fra un paio di anni,se si riesce a mettere a punto il sistema chiplet nelle GPU,Nvidia si troverà nei guai,il sistema chiplet permette di abbassare notevolmente i costi.
Sono quasi certo da possessore di 5700 che Nvidia resterà la regina delle prestazioni e dei consumi per un altro paio di anni per poi ritrovarsi surclassata come successe in passato,probabilmente rdna2 sarà una architettura eccellente ma mi sa che le serie 3000 andranno un peletto di più,poi è il mercato lo fa il prezzo e le vendite.
Sinceramente parlando,AMD si è concentrata molto sul mercato di gamma media nelle scorse generazioni,perchè si guadagna e si vende di più,come farà sicuramente Intel,in effetti,schede top gamma a livello prestazioni se ne vendono poche (non tutti sono disposti a spendere un migliaio e passa di euro) mentre la gamma media e bassa vende come il pane,un po' come il settore auto,pochi possono permettersi la supercar ma i fatturati maggiori si fanno con le berline,le utilitarie,i suv e via dicendo.

Spero che la sfera di cristallo tu l'abbia pagata poco. ;)

Bradiper
15-05-2020, 08:59
La pura reale è che il top di gamma lieviti ancora di prezzo un po' come succede nei cellulari al contrario dei nostri stipendi.
Credo sia una bella presa in giro.. Un gioco perverso solo a scopo di lucro.
Basterebbe coinvolgere i core non usati dei processori nei calcoli per la grafica per avere potenza di calcolo di una top con una media, ma stranamente all alba del 2021 non è possibile?

calabar
15-05-2020, 11:28
Ho come la senzazione che se fra un paio di anni,se si riesce a mettere a punto il sistema chiplet nelle GPU,Nvidia si troverà nei guai,il sistema chiplet permette di abbassare notevolmente i costi.
Direi che Nvidia ha risorse più che sufficienti per mettere in campo un "piano B": proseguirà con il monolitico perchè la ritiene la strada giusta, ma farà sicuramente investimenti anche nell'altro approccio, così da non trovarsi scoperta qualora dovesse rivelarsi vincente.

Basterebbe coinvolgere i core non usati dei processori nei calcoli per la grafica per avere potenza di calcolo di una top con una media, ma stranamente all alba del 2021 non è possibile?
Se vuoi avere una frazione delle prestazioni moltiplicando i consumi puoi cercare di farlo: le CPU sono estremamente inefficienti nel calcolo grafico rispetto alle GPU. Quanto chiedi non è ne possibile ne conveniente.

cronos1990
15-05-2020, 12:47
La domanda è se Nvidia ha un piano B (e non perchè non ci abbia pensato, ma perchè un piano B in questo mercato è comunque duro da avere).

Più che mai l'analisi di supertigrotto, per quanto plausibile, è comunque audace: 2 anni sono tanti, soprattutto in campo informatico. E soprattutto sappiamo pressochè zero al momento, nel pratico, delle prossime soluzioni GPU discrete per desktop di AMD e Nvidia.

Bradiper
15-05-2020, 15:38
Io non credo che non sia possibile, se le directX demandassero dei compiti semplici ad un paio di core che di fatto non vengono usati sarebbero comunque risorse che si liberano sulla gpu, come fanno i programmi professionali, vero avere un ottima gpu ma anche che una CPU multi core spinge di brutto perché aiuta nei calcoli.
Un altra strada è la fusione di gpu integrate con gpu dedicate invece di disabilitare l integrata quando si installa potrebbe aiutare nei calcoli grafici.