Redazione di Hardware Upg
17-11-2020, 15:51
Link alla notizia: https://www.hwupgrade.it/news/skvideo/l-acceleratore-nvidia-a100-raddoppia-con-ben-80-gb-di-memoria-hbm2e_93550.html
Nvidia ha presentato una nuova versione di Nvidia A100, l'acceleratore per carichi di intelligenza artificiale basato su GPU Ampere GA100, caratterizzata dal doppio della memoria, ben 80 GB di HBM2E a più alta velocità.
Click sul link per visualizzare la notizia.
400W per 8 schede fanno 3200W, piu' altrettanti per la CPU, arriviamo a 3500-4000W per quello "scatolotto"...; sembra che Nvidia abbia preso il posto della Sun Microsystem con questi oggetti... ;-)
Gyammy85
17-11-2020, 18:48
400W per 8 schede fanno 3200W, piu' altrettanti per la CPU, arriviamo a 3500-4000W per quello "scatolotto"...; sembra che Nvidia abbia preso il posto della Sun Microsystem con questi oggetti... ;-)
Ormai il consumo non ha nessun significato, dovrei sorprendermi ma in realtà è tutto estremamente ovvio
La mi100 con 100 watt in meno la passa lo stesso
coschizza
17-11-2020, 19:02
Ormai il consumo non ha nessun significato, dovrei sorprendermi ma in realtà è tutto estremamente ovvio
La mi100 con 100 watt in meno la passa lo stesso
La mi100 è molto più lenta su un po’ tutte le specifiche
Il fatto di avere così tanta memoria è sicuramente interessante abbinato alla capacità di dividere le A100 in più istanze. A seconda dell'esigenza uno può dinamicamente trasformare una A100 in 7 GPU da 11 giga un po' più lente. Come avere 56 gpu per nodo, in questo caso. Non male in alcuni casi
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.