Da una immagine del die nuove info sulle GPU AMD Vega

Da una immagine del die nuove info sulle GPU AMD Vega

L'annuncio di Apple delle nuove soluzioni iMac Pro, assieme ad una immagine del die della GPU fornita da AMD, permettono di ricavare ulteriori informazioni sulla prossima generazione di GPU AMD top di gamma

di pubblicata il , alle 09:21 nel canale Processori
AMDRadeonVega
 

Nella notte AMD ha reso disponibile la seguente immagine della GPU Vega, dalla quale è possibile estrarre alcune informazioni sulle caratteristiche architetturali di questa GPU attesa al debutto nelle declinazioni Radeon RX Vega nel corso dell'estate. Non si tratta di un die shot ma di una immagine computerizzata che delinea i principali componenti interni della GPU Vega 10 divisi per blocchi logici.

Dall'immagine è possibile individuare gli 8 shader engines, ciaacuno composto da 8 Compute Units o CN nelle quali sono integrati 64 stream processors ciascuna. Da queste caratteristiche si ricava il numero di stream processors complessivi, pari a 4.096. Il design è differente rispetto a quello delle GPU Fiji, in quanto per queste ultime sono presenti 4 shader engines all'interno dei quali sono presenti 16 compute units ciascuno. Non mancano inoltre 32 render back-ends, numero che porterebbe ad un totale di 128 ROPs integrate all'interno della GPU.

/immagini/amd_vega-die_shot_s.jpg (160588 bytes)

Nella parte inferiore del die si notano chiaramente i due chip memoria HBM2, High Bandwidth Memory 2, collegati con una interfaccia a 2.048bit di ampiezza. Per questa memoria ci si attende un livello di bandwidth pari a 512 GB/s. Per ogni modulo memoria è possibile avere configurazioni sino ad un massimo di 8 Gbytes per chip, per un totale di 16 Gbytes di memoria video.

Dalla presentazione di Apple dei nuovi iMac Pro della serata di ieri emergono inoltre informazioni su due distinte versioni di scheda con GPU Vega che AMD renderà disponibili. Apple indica con i nomi di Radeon Pro Vega 64 e Radeon Pro Vega 56 queste due schede, la prima con 16 Gbytes di memoria HBM2 e la seconda con una dotazione di 8 Gbytes sempre HBM2.

La GPU Vega integra 4.096 streaming processors al proprio interno, raccolti in 64 CU (Compute Units); la sigla Radeon Pro Vega 56 lascia pensare che questa particolare scheda sia dotata di una declinazione di chip Vega con 56 Compute Units attive, per un totale di 3.584 streaming processors integrati. Si tratterebbe dello stesso numero di stream processors integrati da AMD nelle GPU della famiglia Fiji, anche se ovviamente parliamo di due architetture completamente differenti tra di loro.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

26 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nick09106 Giugno 2017, 09:44 #1
Sino a quando non si vedranno i bench questi discorsi sono aria fritta
goku4liv06 Giugno 2017, 10:07 #2
ormai amd nel settore gpu è indietro anni luce rispetto a nvidia
CrapaDiLegno06 Giugno 2017, 10:52 #3
Diciamo che è in ritardo. Grande ritardo.
Se Vega sarà una buona architettura, come da presupposti, allora non è detto che un cambio di strategia con Navi possa riportare AMD in carreggiata.

Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori. A quel punto potrà fare concorrenza per davvero, invece che usare Golia contro di Davide di nvidia e sperare che siano i programmatori ad usare tecniche astruse per migliorare leggermente la sua di efficienza.
Se mantengono le promesse con Vega dove sembra che le frequenze si siano alzate con consumi sotto controllo significa che sono sulla buona strada (HBM a parte che è stata una scommessa che si è rivelata perdente per ben 2 generazioni, quindi per la prossima e terza volta si spera che abbiano capito).

giovanbattista06 Giugno 2017, 11:10 #4
AMD stated that the die-shot appeared in one of its marketing slides, [U]but may not be real.[/U]
pingalep06 Giugno 2017, 11:15 #5
scusate ma io dai bench di prestazione per bitcoin opencl e simila vedo chip amd con molti più transistor e capacità di calcolo molto più elevate a parità di costo.
i chip nvidia 9*0 che guardavo per un possibile acquisto costavano di più consumavano meno ma avevano anche molti meno transistor e capacità di calcolo pura. nvidia si è fatta bene i conti e ha deciso che andava bene così perchè i giochi non sfruttano molta potenza e molte delle possibilità di accelerazione hardware, ma io ho scelto amd proprio perchè con opencl lavora molto meglio. per lo meno sotto i 200 euro
lucusta06 Giugno 2017, 11:27 #6
Originariamente inviato da: CrapaDiLegno
Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori.

non è un problema, nel 2017.
quando nvidia deciderà di usare anche lei AC/ACE (sotto forma dei suoi tensor core, probabilmente), il die delle sue soluzioni crescerà del 30% e parallelamente anche il consumo, sempre a parità di PP.
finchè non scenderanno a 10nm credo che non avremmo modo di vedere Volta sulle GTX, perchè devono appunto compensare la maggiore complessità con la riduzione garantita dal PP.
il grande vantaggio lo otterrà in DX12, dove non sarà piu' limitata dalle CPU.

una Ti a basse risoluzioni è piu' strozzata di un pollo a cui tirano il collo; solo in un paio di giochi, realmente pesanti graficamente, mantiene linearità sulle risoluzioni superiori.
a meno chè Intel non faccia CPU da 7Ghz la strada è solo quella, e quella strada significa aumentare la complessità e quindi la dimensione ed i consumi.

quindi, come al solito, AMD non deve imparare nulla, ma magari insegna.
CrapaDiLegno06 Giugno 2017, 13:36 #7
Originariamente inviato da: lucusta
non è un problema, nel 2017.
quando nvidia deciderà di usare anche lei AC/ACE (sotto forma dei suoi tensor core, probabilmente), il die delle sue soluzioni crescerà del 30% e parallelamente anche il consumo, sempre a parità di PP.
finchè non scenderanno a 10nm credo che non avremmo modo di vedere Volta sulle GTX, perchè devono appunto compensare la maggiore complessità con la riduzione garantita dal PP.
il grande vantaggio lo otterrà in DX12, dove non sarà piu' limitata dalle CPU.

una Ti a basse risoluzioni è piu' strozzata di un pollo a cui tirano il collo; solo in un paio di giochi, realmente pesanti graficamente, mantiene linearità sulle risoluzioni superiori.
a meno chè Intel non faccia CPU da 7Ghz la strada è solo quella, e quella strada significa aumentare la complessità e quindi la dimensione ed i consumi.

quindi, come al solito, AMD non deve imparare nulla, ma magari insegna.


Eh? Ma che stai dicendo?
ACE con i tensor core? Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
E soprattutto, è evidente che non sai cosa siano i tensor core e dove siano messi.
Tutto il resto del ragionamento purtroppo fa acqua partendo da questa inutile affermazione che hai fatto.
In primis il tanto elogiato Async Computing non è altro che una tecnica per cercare di aumentare l'efficienza computazionale. Guardala come vuoi, ma non fa nulla che non si possa fare in altra maniera con architettura diversa che è già efficiente da parte sua. Il guadagno che dà, secondo quanto vediamo anche dagli esercizi di stile che ne abusano abbondantemente è di qualche punto percentuale. Diciamo il 20%?
La complessità che è necessaria per avere questo "pazzesco" aumento di capacità computazionale è più elevata del mettere il 20% di ALU in più o di aumentare del 20% la frequenza. 2 cose che non richiedono ai programmatori di scrivere motori ad hoc per questa o quella configurazione che supporta questa o quella implementazione dell'Async (che non è uguale nemmeno sullo stesso HW di AMD).
Se vogliamo metterla in questione di ottimizzazione per questa o per quella architettura, allora non lamentiamoci se poi nvidia fa di tutto perché i motori grafici girino meglio sul suo di HW. Visto che a quanto pare è quello che voi fanboy vorreste che gli sviluppatori facessero per AMD (e di fatti qualcuno fa pagato da AMD stessa).

Di che Volta parli? Non so se te ne sei accorto, ma ad nvidia non serve un Volta per far fronte ad AMD che con suoi 14nm fa comunque chip più grandi e più energivori. Se metterà sul mercato Volta consumer è per superare la sua stessa offerta, non quella della concorrenza che è già indietro, e quindi non le serve davvero fare molto per lasciarla là dove è. Vega con l'ASync andrà il 20% in più.. aspett... nuova versione del GP104, il GV104, con il 20% di potenza computazionale in più, meno del 20% di aumento di dimensione del die, consumi ridotti (basta anche quello per migliorare) eh, o cacchio, Vega con la HBM2 e 550mm^2 è ancora dietro...
Vega va quanto il GP102? A beh.. aspettt.. GV102, 20% di ALU in più.. a no, forse basta solo il 20% di frequenza in più (tanto consumo meno comunque) e l'architettura nuova... e voilà... 12 mesi di ulteriore controllo del mercato sia professionale che consumer...
Ah, ma vedrete con Navi, i nuovi driver, le DX12 che saranno sempre più sfruttate (dove, chi? e sopratutto QUANDO??) le cose saranno diverse.
L'ho sentito con Mantle e c'era GCN1.1. Poi GCN1.2 (mittico Fiji...). Poi sono arrivate le DX12 e Polaris, che sarà la nuova architettura che schiaccerà il potere di nvidia (200mm^2 di chippetto tradizionale lo hanno affogato in meno 2 settimane.. ah, ma l'async... guarda l'async che le permette di andare uguale con 1TFLOPS di potenza in più! Ah, che miracolo l'Async.... o che m3rda l'efficienza dell'architettura AMD quando non è aiutata dai programmatori con soluzioni ottimizzate per lei). E ora è la volta di Vega (che è un super monster chip... bello vincere facile con 500mm^2, HBM2, 12 e rotti TFLOPS di potenza e dire che sarà l'Async quello che fa la differenza, vero?).
Dai su. Bello sognare ma guardiamo i fatti e la realtà.
Vega non sarà un problema. Per quanto è un chip che ha un costo fuori budget per il mercato consumer e venderlo lì per AMD vuol dire perdere soldi. Magari buono per i bench e i fanboy che potranno gridare la miracolo e al "te lo avevo detto che la Ferrari avrebbe battuto la Panda!". Quindi ce ne saranno davvero poche di Vega consumer. Che se necessario saranno asfaltate dal prossimo chippetto con GDDR6 di nvidia. O magari basterà ancora solo la GDDR5X.
tuttodigitale06 Giugno 2017, 14:56 #8
Originariamente inviato da: CrapaDiLegno
Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.

Non è il solo, me lo spiegheresti?

Originariamente inviato da: CrapaDiLegno
In primis il tanto elogiato Async Computing non è altro che una tecnica per cercare di aumentare l'efficienza computazionale.

esattamente, ma ancora mi manca cosa faccia....

Originariamente inviato da: CrapaDiLegno
Il guadagno che dà, secondo quanto vediamo anche dagli esercizi di stile che ne abusano abbondantemente è di qualche punto percentuale. Diciamo il 20%?

in che senso abusare?


Originariamente inviato da: CrapaDiLegno
La complessità che è necessaria per avere questo "pazzesco" aumento di capacità computazionale è più elevata del mettere il 20% di ALU in più o di aumentare del 20% la frequenza.

è noto che il punto debole di GCN sono gli shader....e che le latenze si riducano aumentando il numero degli stadi...

Originariamente inviato da: CrapaDiLegno
2 cose che non richiedono ai programmatori di scrivere motori ad hoc per questa o quella configurazione che supporta questa o quella implementazione dell'Async (che non è uguale nemmeno sullo stesso HW di AMD).

quindi l'Async usa codice particolare per singola GPU mentre lo scheduler della GPU è li solo come elemento di contorno. Buono a sapersi....

Originariamente inviato da: CrapaDiLegno
Dai su. Bello sognare ma guardiamo i fatti e la realtà..

e guardiamola sta realtà:

https://linustechtips.com/main/topi...-green500-list/

-amds hawaii is officially the most efficient gpgpu in the world
nick09106 Giugno 2017, 16:05 #9
Originariamente inviato da: goku4liv
ormai amd nel settore gpu è indietro anni luce rispetto a nvidia

eh? guarda che la rx 570 è il best buy del mercato mainstream e la rx 580 da' punti alla gtx 1060 tanto che si sono affrettati a far uscire la versione con la banda di memoria a 9Gbps per recuperare qualcosa
CrapaDiLegno06 Giugno 2017, 16:06 #10
Che ti stai inventado anche tu?
Ma qui è la fiera del fanboy clueless o cosa?

Quello là viene a parlare di Tensor Core x l'Async computing, tu che parli di most efficient computing e fai finta di non sapere cosa sia l'Async quando invece non lo sai davvero.

A parte che o controllato e al solito hai postato un link fuffa, dato che sul sito del top Green 500 il primo (e unico) server con AMD installato è in 32 posizione dietro a una decina di altri server che montano nvidia K20/40/80 (tutti GK110 based) e ha efficienza di meno di 3GFLOPS per W.

L'Async è quello che ho detto. AMD l'ha implementato a modo suo, e lo scheduler è solo una parte della funzionalità (per inciso, se non lo sai, pure nvidia ha lo scheduler nella GPU per quello che può servire all'Async Computing).
Non c'è scritto da nessuna parte né che è necessario (e già, non è una feature considerata necessaria per le DX12) né che debba essere fatta come l'ha fatta AMD. E sì, serve il supporto esplicito dei programmatori per usarle l'Async, non è una funzionalità trasparente e soprattutto richiede che sia "tunata" a seconda dell'HW su cui si svolge il calcolo, dato che sul mercato ci sono GPU con 2, 4 e 8 ACE con 2, 3, 4 e 8GB di RAM, che a quanto sembra sono utili al suo uso dato che le schede con meno memoria sono anche quelle che beneficiano meno della cosa.
E sì, ci sono engine che ne abusano, nel senso che ne fanno un uso massiccio e sono, guarda caso, quelli che fino a ieri erano usati per mostrare i grandi vantaggi di AMD (sto parlando di AoS) salvo poi metterlo in secondo piano quando si è visto che con un paio di ottimizzazioni nei driver nvidia raggiunge migliori prestazioni senza l'Async. E in DX11. E ovviamente non si fa mai riferimento ai motiri DX12 in cui AMD non trae benefici.. ah, quelli sono scritti con i piedi perché non sono ottimizzati esplicitamente come i motori di DICE.

I fatti, che non sono le sciocchezze che tu e quell'altro dite, sono quelli che mostrano che l'async è un aiuto marginale a quello che serve per davvero ad AMD per fare la differenza. Differenza che nonostante tutti i bla bla che avete fatto dal lancio di Mantle a oggi non si è proprio vista dato che alla fine nvidia con il chippetto da 200mm^2 tiene a bada più che degnamente il chip da 230mm^2 di AMD che deve essere cloccato oltre i 1400Mhz a consumare 240W per fare uguale o giusto poco meglio.

Se siete così fanboy da fermarvi a guardare solo ed esclusivamente le barrette colorate ed estrarre bandiere e vuvuzela quando la barretta rossa supera quella verde, be', siete davvero messi male. Quando capirete qualcosa e farete il conto di quello che sono le risorse usate dalle GPU AMD vs quelle usate dalle GPU nvidia, vi accorgerete che ad nvidia non serve fare rivoluzioni o costruire GPU immense o mettere ACE del cacchio per rimanere alla pari con GPU che costano di più: le basta colmare quel piccolo gap che AMD ottiene solo ed esclusivamente (e questo per ora è assodato) quando esegue motori che sono ottimizzati per la sua specifica architettura (e neanche su tutta la serie, visto che le GPU più scrause o quelle più vecchie non traggono gli stessi benefici se il gioco è ottimizzato per le ultime GPU con 8 ACE).
Aumentare le ALU o la frequenza dà invece sempre e comunque vantaggi, anche se i programmatori non sfruttano questa o quella libreria o si preoccupano di spendere ulteriore tempo a fare codice in iperthreading per aiutare l'inefficienza delle GPU AMD.
D'altronde è AMD che sta cercando si fare salti mortali con l'HBM in cerca di una soluzione che le dia finalmente un minimo vantaggio, dato che altrimenti non c'è alcuna speranza. Ci ha provato con Fiji, fallendo miseramente, ci sta riprovando con Vega che forse (ma forse) ha qualche speranza. Sempre che come ho detto, AMD sia riuscita ad aumentare l'efficienza computazionale al di là dell'uso dell'Async, perché altrimenti, tranne che nei soliti 4 giochi (che usano lo stesso motore ottimizzato), rimarrà sempre e comunque indietro rispetto al chip più economico sviluppato da nvidia.

Se non avete capito questo, mi spiace. Potete continuare a sventolare bandiere rosse con le scritte rivoluzionarie di AMD. Vedrete che prima o poi qualcosa di buono per AMD avverrà. Nel frattempo io mi sono stancato e ho comprato una 1070 che di promesse e di link a cose che non hanno alcun valore ormai ne ho collezionati a sufficienza.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^