L'acceleratore Nvidia A100 raddoppia con ben 80 GB di memoria HBM2E

L'acceleratore Nvidia A100 raddoppia con ben 80 GB di memoria HBM2E

Nvidia ha presentato una nuova versione di Nvidia A100, l'acceleratore per carichi di intelligenza artificiale basato su GPU Ampere GA100, caratterizzata dal doppio della memoria, ben 80 GB di HBM2E a più alta velocità.

di pubblicata il , alle 16:51 nel canale Schede Video
NVIDIA
 

Non solo AMD con la Instinct MI100, anche Nvidia ha annunciato una novità per il mondo dei supercomputer nelle scorse ore: l'azienda statunitense ha presentato una nuova versione dell'acceleratore A100 con il doppio della memoria. La nuova Nvidia A100 offre ben 80 GB di memoria HBM2E rispetto ai 40 GB di HBM2 che ritroviamo sul modello presentato solo alcuni mesi fa.

Il salto alla nuova memoria non è benefico solo dal punto di vista della capacità, ma anche per quanto riguarda la bandwidth, infatti si passa da 1,6 TB/s a 2 TB/s, grazie alla HBM2E a 3,2 Gbps su un bus che rimane a 5120 bit. Questa nuova versione di Nvidia A100 non manda in pensione il modello da 40 GB e strizza l'occhio a chi lavora con grandi insiemi di dati destinati all'allenamento di intelligenze artificiali.

Una così elevata quantità di memoria consente infatti di mantenere un intero modello in memoria, con un conseguente miglioramento prestazionale derivante dalla minore necessità di andare a pescare i dati nella memoria di sistema. Per il resto, la nuova soluzione A100 di Nvidia ha le stesse caratteristiche del modello da 40 GB, quindi abbiamo una GPU GA100 prodotta a 7 nanometri, dotata di ben 54,2 miliardi di transistor e 6912 CUDA core FP32 all'interno di 108 SM, affiancati da 432 Tensor core e altrettante unità texture. Non cambia nemmeno il TDP tra le due versioni, pari a 400W.

Nvidia ha dichiarato che il nuovo modello da 80 GB sarà disponibile anche agli utenti multi-istanza (MIG), per un totale di 7 istanze con 10 GB di memoria dedicata ciascuna. La nuova arrivata farà parte inoltre di sistemi HGX e DGX, in particolare il nuovo DGX A100 640GB con otto A100, e persino di una nuova soluzione chiamata DGX Station A100, che può essere vista come la metà esatta di un sistema DGX A100 - Nvidia la chiama "petascale workgroup server". A bordo ci sono quattro acceleratori A100 e un processore EPYC di AMD. Entrambi i sistemi sono in produzione e la disponibilità è attesa tra gennaio e febbraio 2021.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
joe4th17 Novembre 2020, 17:49 #1
400W per 8 schede fanno 3200W, piu' altrettanti per la CPU, arriviamo a 3500-4000W per quello "scatolotto"...; sembra che Nvidia abbia preso il posto della Sun Microsystem con questi oggetti... ;-)

Gyammy8517 Novembre 2020, 19:48 #2
Originariamente inviato da: joe4th
400W per 8 schede fanno 3200W, piu' altrettanti per la CPU, arriviamo a 3500-4000W per quello "scatolotto"...; sembra che Nvidia abbia preso il posto della Sun Microsystem con questi oggetti... ;-)


Ormai il consumo non ha nessun significato, dovrei sorprendermi ma in realtà è tutto estremamente ovvio
La mi100 con 100 watt in meno la passa lo stesso
coschizza17 Novembre 2020, 20:02 #3
Originariamente inviato da: Gyammy85
Ormai il consumo non ha nessun significato, dovrei sorprendermi ma in realtà è tutto estremamente ovvio
La mi100 con 100 watt in meno la passa lo stesso


La mi100 è molto più lenta su un po’ tutte le specifiche
renas18 Novembre 2020, 11:10 #4
Il fatto di avere così tanta memoria è sicuramente interessante abbinato alla capacità di dividere le A100 in più istanze. A seconda dell'esigenza uno può dinamicamente trasformare una A100 in 7 GPU da 11 giga un po' più lente. Come avere 56 gpu per nodo, in questo caso. Non male in alcuni casi

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^