PDA

View Full Version : L'acceleratore Nvidia A100 raddoppia con ben 80 GB di memoria HBM2E


Redazione di Hardware Upg
17-11-2020, 15:51
Link alla notizia: https://www.hwupgrade.it/news/skvideo/l-acceleratore-nvidia-a100-raddoppia-con-ben-80-gb-di-memoria-hbm2e_93550.html

Nvidia ha presentato una nuova versione di Nvidia A100, l'acceleratore per carichi di intelligenza artificiale basato su GPU Ampere GA100, caratterizzata dal doppio della memoria, ben 80 GB di HBM2E a più alta velocità.

Click sul link per visualizzare la notizia.

joe4th
17-11-2020, 16:49
400W per 8 schede fanno 3200W, piu' altrettanti per la CPU, arriviamo a 3500-4000W per quello "scatolotto"...; sembra che Nvidia abbia preso il posto della Sun Microsystem con questi oggetti... ;-)

Gyammy85
17-11-2020, 18:48
400W per 8 schede fanno 3200W, piu' altrettanti per la CPU, arriviamo a 3500-4000W per quello "scatolotto"...; sembra che Nvidia abbia preso il posto della Sun Microsystem con questi oggetti... ;-)

Ormai il consumo non ha nessun significato, dovrei sorprendermi ma in realtà è tutto estremamente ovvio
La mi100 con 100 watt in meno la passa lo stesso

coschizza
17-11-2020, 19:02
Ormai il consumo non ha nessun significato, dovrei sorprendermi ma in realtà è tutto estremamente ovvio
La mi100 con 100 watt in meno la passa lo stesso

La mi100 è molto più lenta su un po’ tutte le specifiche

renas
18-11-2020, 10:10
Il fatto di avere così tanta memoria è sicuramente interessante abbinato alla capacità di dividere le A100 in più istanze. A seconda dell'esigenza uno può dinamicamente trasformare una A100 in 7 GPU da 11 giga un po' più lente. Come avere 56 gpu per nodo, in questo caso. Non male in alcuni casi