PDA

View Full Version : Nuovi dettagli, questa volta direttamente da AMD, sulle GPU Vega


Redazione di Hardware Upg
04-05-2017, 08:28
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nuovi-dettagli-questa-volta-direttamente-da-amd-sulle-gpu-vega_68470.html

Grazie al rilascio di un update al DRM, Direct Rendering Manager, di Linux emergono nuovi dettagli sulle caratteristiche tecniche delle GPU AMD della famiglia Vega

Click sul link per visualizzare la notizia.

nickname88
04-05-2017, 08:34
Un anno di ritardo per 4096sp è una sconfitta.
Alla frequenza specificata è ipotizzabile che possa andare più di una 1080 ma non di certo confrontarsi alla pari con la Titanium e la Titan.

*aLe
04-05-2017, 08:40
Un anno di ritardo per 4096sp è una sconfitta.
Alla frequenza specificata è ipotizzabile che possa andare più di una 1080 ma non di certo confrontarsi alla pari con la Titanium e la Titan.Beh molto dipenderà da come la prezzano: se dovesse andare qualcosina in più di una 1080, magari anche costando qualcosa in meno... Per il 4K (magari rinunciando a qualche effetto) uno ci potrebbe anche fare un pensierino.

Phopho
04-05-2017, 08:46
Un anno di ritardo per 4096sp è una sconfitta.
Alla frequenza specificata è ipotizzabile che possa andare più di una 1080 ma non di certo confrontarsi con la Titanium e la Titan.

sentenza emessa :O Vega è unammerda ancora prima che trapelino i primi leak sulle prestazioni. dai, fatti una tisana e prendila con filosofia che anche ryzen doveva essere una ciofeca :asd:
come sempre ci saranno giochi e risoluzioni a favore delle verdi e alternativamente delle nuove Vega. E' e sarà un tira e molla infinito ma non vedo il motivo di sparare già prima che la scheda si palesi al mondo.

Gyammy85
04-05-2017, 08:56
sentenza emessa :O Vega è unammerda ancora prima che trapelino i primi leak sulle prestazioni. dai, fatti una tisana e prendila con filosofia che anche ryzen doveva essere una ciofeca :asd:
come sempre ci saranno giochi e risoluzioni a favore delle verdi e alternativamente delle nuove Vega. E' e sarà un tira e molla infinito ma non vedo il motivo di sparare già prima che la scheda si palesi al mondo.

Per molti è semplicemente una fury shrinkata, quindi bisogna dire in ogni dove ne servono 156798789 di sp per pareggiare la ti e la titan, amd fail again

mircocatta
04-05-2017, 09:01
Un anno di ritardo per 4096sp è una sconfitta.
Alla frequenza specificata è ipotizzabile che possa andare più di una 1080 ma non di certo confrontarsi alla pari con la Titanium e la Titan.

i "soli 4096" SP alla frequenza ed efficienza di polaris garantirebbero il 177% di prestazioni della rx580, piazzandosi davanti alla 1080.
Aggiungiamoci che probabilmente sarà ALMENO a 1600mhz, arriviamo al 218% davanti alla rx580, il che la piazzerebbe davanti anche alla 1080ti.

E non sto includendo i miglioramenti archietturali di vega e neanche l'assenza del collo di bottiglia dovuto alle memorie che frena parecchio le polaris
ps: il sito di confronto delle performance (a 1080p) che ho usato è techpowerup che è tendenzialmente "verde"
https://www.techpowerup.com/gpudb/2938/radeon-rx-580

fraquar
04-05-2017, 09:28
Un anno di ritardo per 4096sp è una sconfitta.
Alla frequenza specificata è ipotizzabile che possa andare più di una 1080 ma non di certo confrontarsi alla pari con la Titanium e la Titan.

Non ti preoccupare, anche avesse 8724392834sp ci penserebbero i loro fantastici driver a sputtanare tutto.

Ale55andr0
04-05-2017, 09:29
UÈ l'architettura a contare. Se, per dire, avesse lo stesso rapporto sp/prestazioni/frequenza di una titan xp (solo esempio non cominciate :asd: ) i 4096sp indicherebbero un mostro. Va anche detto che leggere ESATTAMENTE la stessa quantità di risorse hardware della fury un pò lascia "così". Continuo però a non capire come si spieghino le dimensioni monstre (500mm2 a spanne) di un simile chip a 14nm. Deve esserci qualche spiegazione, tipo roba che serve al gpgpu o cache mostruosa o chessò io...

csavoi
04-05-2017, 09:42
Ho un dejavù,
ma quand'è che ho sentito tute queste diatribe prima dell'uscita di un prodotto....

Ha ora ricordo .. SEMPRE..Ogni volta che usciva una cosa nuova.... E l'ultima volta per i processori Ryzen di AMD.

Questi articoli sono una via di mezzo tra pubblicità e creazione di hype, portano a discorsi inutili (un anno di ritardo.. e chi se ne importa l'importante è che esca per fare concorrenza) fuorvianti (ma la frequenza è più alta) non ponderabili (l'HMB2 non sarà un collo di bottiglia, ma se già non lo fossero le GDDR5X?) ridicoli (ma ha gli stessi 4096sp, come se anche una panda e una ferrari non avessero tutte e due 4 ruote).

Facciamo discorsi costruttivi, magari preghiamo tutti insieme AMD di fare dei driver per Linux Open source, magari preghiamo tutti insieme per costringere tutti a fare Driver Open Source per Linux.

Magari imploriamo INTEL di smetterla di cambiare socket ogni 3x2.

In breve, premiamo il prodotto migliore comprandolo e quando dei prodotti bene o male si equivalgono ( +/- 5% in prestazioni o prezzo) compriamo quello della ditta con meno Market Share per mantenere viva la concorrenza.

Altro non serve.

CrapaDiLegno
04-05-2017, 09:46
i "soli 4096" SP alla frequenza ed efficienza di polaris garantirebbero il 177% di prestazioni della rx580, piazzandosi davanti alla 1080.
Aggiungiamoci che probabilmente sarà ALMENO a 1600mhz, arriviamo al 218% davanti alla rx580, il che la piazzerebbe davanti anche alla 1080ti.

E non sto includendo i miglioramenti archietturali di vega e neanche l'assenza del collo di bottiglia dovuto alle memorie che frena parecchio le polaris
ps: il sito di confronto delle performance (a 1080p) che ho usato è techpowerup che è tendenzialmente "verde"
https://www.techpowerup.com/gpudb/2938/radeon-rx-580
Se fosse così facile far scalare GCN (e suoi derivati) la Fury X andrebbe come una 1080 in qualsiasi frangente.
E invece come abbiamo già potuto vedere, aumentare le risorse non sempre porta ad avere i risultati sperati.

Ad occhio e croce, per numero di SP e la frequenza che adotterà (credo intorno ai 1500MHz, non cominciamo a vaneggiare su OC che porteranno la scheda a consumare come un alto forno per guadagnare il 5%, vedesi 580) la versione di Vega più grande andrà il doppio di una 480.
Considerando l'anno di ritardo e l'impiego di memorie HBM, anche se non si può parlare di sconfitta al day one direi che non è una grande vittoria.

Ricordate che è con questa scheda che AMD combatterà nvidia fino all'arrivo di Navi, che credo non sarà così imminente, a meno che non si cominci a parlare di architettura di transizione dalla durata sul mercato più corta di sempre.

E come sempre "dipende dai costi" è sinonimo di "dipende da quanto AMD vuole perdere ANCHE con questa architettura".

mircocatta
04-05-2017, 09:52
Se fosse così facile far scalare GCN (e suoi derivati) la Fury X andrebbe come una 1080 in qualsiasi frangente.
E invece come abbiamo già potuto vedere, aumentare le risorse non sempre porta ad avere i risultati sperati.

Ad occhio e croce, per numero di SP e la frequenza che adotterà (credo intorno ai 1500MHz, non cominciamo a vaneggiare su OC che porteranno la scheda a consumare come un alto forno per guadagnare il 5%, vedesi 580) la versione di Vega più grande andrà il doppio di una 480.
Considerando l'anno di ritardo e l'impiego di memorie HBM, anche se non si può parlare di sconfitta al day one direi che non è una grande vittoria.

Ricordate che è con questa scheda che AMD combatterà nvidia fino all'arrivo di Navi, che credo non sarà così imminente, a meno che non si cominci a parlare di architettura di transizione dalla durata sul mercato più corta di sempre.

E come sempre "dipende dai costi" è sinonimo di "dipende da quanto AMD vuole perdere ANCHE con questa architettura".

prima di navi dovrebbe esserci vega20, cioè vega su nuovo PP con relativo aumento di sp

Spawn7586
04-05-2017, 09:54
Quante pippe mentali per delle schede che ancora non sono uscite. La cosa che mi lascia pensare di più è la lentezza impiegata per fare uscire queste schede sul mercato...
Mi ricordo ancora quando prima di Natale mi consigliavano di aspettare le nuove Vega abbinate ai nuovi processori AMD per il mio PC nuovo perché sarebbero uscite massimo a metà Marzo. Più volte hanno detto che oramai erano pronte durante tutto il periodo fino ad adesso... Che abbiano avuto problemi?

Gyammy85
04-05-2017, 10:05
Quante pippe mentali per delle schede che ancora non sono uscite. La cosa che mi lascia pensare di più è la lentezza impiegata per fare uscire queste schede sul mercato...
Mi ricordo ancora quando prima di Natale mi consigliavano di aspettare le nuove Vega abbinate ai nuovi processori AMD per il mio PC nuovo perché sarebbero uscite massimo a metà Marzo. Più volte hanno detto che oramai erano pronte durante tutto il periodo fino ad adesso... Che abbiano avuto problemi?

Amd è poverella, mica nvidia che sforna schede dai suoi palazzi di smeraldo...sigh :(

Lights_n_roses
04-05-2017, 10:21
Io ho una RX480, converrà cambiarla per una Vega? Si sa già se una Vega si troverà nella fascia dei 250-300 euro?

majinbu7
04-05-2017, 10:30
Io ho una RX480, converrà cambiarla per una Vega? Si sa già se una Vega si troverà nella fascia dei 250-300 euro?

No, quella fascia è già della RX580, la tua stessa scheda con frequenze e consumi maggiorati ;)

Phopho
04-05-2017, 10:46
Quante pippe mentali per delle schede che ancora non sono uscite. La cosa che mi lascia pensare di più è la lentezza impiegata per fare uscire queste schede sul mercato...
Mi ricordo ancora quando prima di Natale mi consigliavano di aspettare le nuove Vega abbinate ai nuovi processori AMD per il mio PC nuovo perché sarebbero uscite massimo a metà Marzo. Più volte hanno detto che oramai erano pronte durante tutto il periodo fino ad adesso... Che abbiano avuto problemi?

a natale si sapeva che ryzen sarebbe stato commercializzato a marzo e vega nel Q2 2017 (quindi entro fine giugno)... se ti hanno detto cosi ti hanno preso per il :ciapet:

edit: @Lights_n_roses secondo me i modelli cut di vega (che usciranno dopo le top) non avranno un MSRP inferiore di 350 euri, giusto per non pestare i piedi alle proprie RX580 come detto da majinbu7

CrapaDiLegno
04-05-2017, 10:47
Amd è poverella, mica nvidia che sforna schede dai suoi palazzi di smeraldo...sigh :(

E' poverella per via della solita questione " il prodotto va peggio della concorrenza, ah, però costa meno e quindi è il best buy". E così df anni AMD non guadagna un dollaro sulla svendita.
E' giusto che la gente compri AMD per i prezzi (visto che va a suo vantaggio) ma dovrebbe anche riflettere che non è quello il modo in cui AMD deve fare concorrenza, così forse oggi ci sarebbe più gente che smetterebbe di fare elogi e sproloqui quando finalmente in un test su 10 supera di mezzo millimetro la barra colorata di nvidia.

Ma fino a quando si continua a leggere che un chip da 500mm^2 e con le HBM2 con un anno di ritardo va quanto uno più piccolo della concorrenza che monta le GDDR5X rilasciato un anno prima è una buona cosa se costerà meno... saremo sempre qui ad aspettare AMD che "è poveretta" ed esce con prodotti che deve svendere per renderli competitivi con quelli della concorrenza.

prima di navi dovrebbe esserci vega20, cioè vega su nuovo PP con relativo aumento di sp
E quando dovrebbe essere disponibile questo fantomatico nuovo PP?
Che io sappia GF passerà dai 14nm ai 10nm senza passi intermedi, ma finora di 10nm per circuiti HP non ne ho sentito parlare nemmeno in versione prova (che normalmente vengono messi a disposizione dei clienti un anno prima della produzione di massa), mentre si parla da un po' dei 12nm di TMSC su cui nvidia dovrebbe realizzare Volta, il cui maggior pregio sarà la maggiore densità possibile, densità che con i 16nm di TMSC non è poi così alta.

Se c'è davvero un Vega20 (ma il numero non era il mese di tapeout del progetto? Che mese è il 20?) su nuovo PP vuol dire che Navi prima del 2019 non lo vedremo.

a natale si sapeva che ryzen sarebbe stato commercializzato a marzo e vega nel Q2 2017 (quindi entro fine giugno)... se ti hanno detto cosi ti hanno preso per il :ciapet:
A Natale è l'altro ieri. A Maggio si parlava di Vega rilasciato in anticipo, non a Dicembre/Gennaio ma bensì a Ottobre. Dopo 8 mesi abbiamo scoperto che non c'era proprio nulla di pronto e abbiamo aspettato altri 5 mesi per vedere la prima specifica ufficiale. Sempre che la data ribadita non sia solo di facciata, ovvero un chip unico annunciato, reperibile dopo l'estate e con gli altri a seguire ancora più in ritardo.
Se così nvidia Volta lo farà sui 7nm e nel frattempo rilascerà "Galilei", architettura non prevista (come Pascal), giusto lo shrink dello shrink di Maxwell.

mircocatta
04-05-2017, 10:50
E' poverella per via della solita questione " il prodotto va peggio della concorrenza, ah, però costa meno e quindi è il best buy". E così df anni AMD non guadagna un dollaro sulla svendita.
E' giusto che la gente compri AMD per i prezzi (visto che va a suo vantaggio) ma dovrebbe anche riflettere che non è quello il modo in cui AMD deve fare concorrenza, così forse oggi ci sarebbe più gente che smetterebbe di fare elogi e sproloqui quando finalmente in un test su 10 supera di mezzo millimetro la barra colorata di nvidia.

Ma fino a quando si continua a leggere che un chip da 500mm^2 e con le HBM2 con un anno di ritardo va quanto uno più piccolo della concorrenza che monta le GDDR5X rilasciato un anno prima è una buona cosa se costerà meno... saremo sempre qui ad aspettare AMD che "è poveretta" ed esce con prodotti che deve svendere per renderli competitivi con quelli della concorrenza.


E quando dovrebbe essere disponibile questo fantomatico nuovo PP?
Che io sappia GF passerà dai 14nm ai 10nm senza passi intermedi, ma finora di 10nm per circuiti HP non ne ho sentito parlare nemmeno in versione prova (che normalmente vengono messi a disposizione dei clienti un anno prima della produzione di massa), mentre si parla da un po' dei 12nm di TMSC su cui nvidia dovrebbe realizzare Volta, il cui maggior pregio sarà la maggiore densità possibile, densità che con i 16nm di TMSC non è poi così alta.

Se c'è davvero un Vega20 (ma il numero non era il mese di tapeout del progetto? Che mese è il 20?) su nuovo PP vuol dire che Navi prima del 2019 non lo vedremo.

mi baso su queste news che si trovano in rete, parlano di 7nm
http://www.tweaktown.com/news/55875/amd-launch-monster-navi-10-2019-next-gen-ram/index.html

al135
04-05-2017, 10:53
Per molti è semplicemente una fury shrinkata, quindi bisogna dire in ogni dove ne servono 156798789 di sp per pareggiare la ti e la titan, amd fail again

ma se non si sa assolutamente nulla di come vadano queste schede, perche spari a caso? poi again riferito a cosa? ryzen è stato tutto men che un fail, tant'è che sto pensando seriamente di cestinare il mio 6850 per un x1800 decisamente migliore

Lights_n_roses
04-05-2017, 11:31
No, quella fascia è già della RX580, la tua stessa scheda con frequenze e consumi maggiorati ;)

Eh immaginavo, magari se ci sarà qualche scheda con Vega a 350 e merita , valuto se vendere la mia e con 100 euro di differenza fare l'aggiornamento! Ma dovrò aspettare ovviamente anche se mi sà che saremo su altre cifre.

CrapaDiLegno
04-05-2017, 11:51
mi baso su queste news che si trovano in rete, parlano di 7nm
http://www.tweaktown.com/news/55875/amd-launch-monster-navi-10-2019-next-gen-ram/index.html

But it's Vega 20 that has me interested, expected in 2019
Ovvero tra oltre un anno e mezzo... Quando nvidia rilascerà il seguito di Volta, forse.
A proposito della cui cosa... non si sa come si chiamerà l'architettura successiva? Hertz? Bohr? Curie? Einstein?

Gli SP sono l'ultimo dei problemi per Fiji, l'importante è eliminare i colli di bottiglia del GCP dei Raster/ROPs/L2 e della banda effettiva sfruttata.

Il numero di elementi è lo stesso, ma sono passati da 600mmq sui 28nm ai presunti 500mmq sui 14nm... non torna lo scaling del processo, appena 20% se fossero le stesse unità utilizzate o la stessa densità di polaris.

C'è qualcosa di effettivamente diverso.
Che sia diverso è ovvio. Se hanno detto che hanno aumentato l'IPC (il doppio mi sembra esagerato, a meno che non si parli semplicemente di calcoli FP16 vs FP32) e aumentato le frequenze, devono aver cambiato parte delle ALU e sicuramente hanno dovuto usare più spazio.
Speriamo che non sia un Fiji 2, dove va bene in determinate circostanze e soffre le pene dell'inferno in altre (non poi così tanto rare).

Phopho
04-05-2017, 12:08
A Natale è l'altro ieri. A Maggio si parlava di Vega rilasciato in anticipo, non a Dicembre/Gennaio ma bensì a Ottobre. Dopo 8 mesi abbiamo scoperto che non c'era proprio nulla di pronto e abbiamo aspettato altri 5 mesi per vedere la prima specifica ufficiale. Sempre che la data ribadita non sia solo di facciata, ovvero un chip unico annunciato, reperibile dopo l'estate e con gli altri a seguire ancora più in ritardo.
Se così nvidia Volta lo farà sui 7nm e nel frattempo rilascerà "Galilei", architettura non prevista (come Pascal), giusto lo shrink dello shrink di Maxwell.

Rispondevo all’altro utente che a Natale aveva ricevuto consiglio di aspettare marzo per ryzen e vega ;) era palesemente stato trollato o consigliato da mal informati.

Comunque, non ce ne sono di ca@@i. Hai ragione: AMD ora come ora offre tardivamente quello che Nvidia offre prima ma spesso il fatto di offrirlo dopo ha dei plus (prestazionalmente parlando). Ci arriva in maniera diversa, col tempo, e per utenti come me è una manna dal cielo, per chi vuole tutto e subito è una mer@a. Lo capisco e me ne faccio una ragione.
Io so solo che a suo tempo comprai una GTX770 e dopo nemmeno 3 anni (per molti del forum è un periodo smodato, per me no) sono stato costretto a cambiarla perché caduta in disuso negli aggiornamenti driver e con prestazioni sempre più insoddisfacenti (pur non essendo un fan del maxare a tutti i costi). Oggi, chi la vede come me e a suo tempo comprò una 290 non è stato “costretto” ad aggiornamenti hardware.
Dico solo che ognuno deve comprare in base alle sue esigenze e finanze.
Nvidia mi ha fo@@uto una volta, non succederà una seconda.

dado1979
04-05-2017, 12:19
i "soli 4096" SP alla frequenza ed efficienza di polaris garantirebbero il 177% di prestazioni della rx580, piazzandosi davanti alla 1080.
Aggiungiamoci che probabilmente sarà ALMENO a 1600mhz, arriviamo al 218% davanti alla rx580, il che la piazzerebbe davanti anche alla 1080ti.

E non sto includendo i miglioramenti archietturali di vega e neanche l'assenza del collo di bottiglia dovuto alle memorie che frena parecchio le polaris
ps: il sito di confronto delle performance (a 1080p) che ho usato è techpowerup che è tendenzialmente "verde"
https://www.techpowerup.com/gpudb/2938/radeon-rx-580
Visto che naturalmente non sarà come dici te spiegami come mai l'architettura Fiji (che ha 4096 SP e le HBM in confronto alla 580) va solo il 10 % in più della 580; chiaro che la 580 è più ottimizzata eppure dai tuoi calcoli.
Quindi vorresti dire che con 500 MHz in più e le ottimizzazioni migliora del 108%???
Hai scritto cose che non corrispondono alla verità.

Luca1980
04-05-2017, 12:27
ma se non si sa assolutamente nulla di come vadano queste schede, perche spari a caso? poi again riferito a cosa? ryzen è stato tutto men che un fail, tant'è che sto pensando seriamente di cestinare il mio 6850 per un x1800 decisamente migliore

Non puoi parlare sul serio :)
A proposito, come hai fatto a portarlo a 5 GHz? Temp e vcore? Hai screenshots? Sono curioso...

Grazie

mircocatta
04-05-2017, 12:31
Visto che naturalmente non sarà come dici te spiegami come mai l'architettura Fiji (che ha 4096 SP e le HBM in confronto alla 580) va solo il 10 % in più della 580; chiaro che la 580 è più ottimizzata eppure dai tuoi calcoli.
Quindi vorresti dire che con 500 MHz in più e le ottimizzazioni migliora del 108%???
Hai scritto cose che non corrispondono alla verità.

tu dici che fare ciò è impossibile con gli stessi sp (4096), allora spiegami come fa polaris con il 56% degli SP di FIJI ad andare solo un 10% in meno in 1080p sempre secondo la tabella postata prima
ci riesce perchè, semplicemente, FIJI è un chip con tanta potenza bruta ma che all'atto pratico è sfruttato molto male, con numerosi colli di bottiglia in parte corretti su polaris che a sua volta ha altri colli di bottiglia (memorie, ed ecco perchè tanta differenza tra 480 e 580 non c'è)

sbagli a prescindere se prendi come punto di riferimento fiji, devi prendere polaris, che è decisamente più nuovo ed efficiente e a ragion di logica vega lo sarà ancor di più (altrimenti l'evoluzione tecnologica dov'è?)

inutile fare discorsi tipo "Vega fail 4096sp quando già la 7970 ne aveva 2048!!!!!11!! slurppp" non credi?

Max_R
04-05-2017, 12:47
Mamma mia che commenti colti si leggono! Via il prosciuttino dagli occhi, ragazzi: fate solo una pessima figura, parteggiate da una parte o dall'altra. Siete il primo dei fail.

dado1979
04-05-2017, 12:52
tu dici che fare ciò è impossibile con gli stessi sp (4096), allora spiegami come fa polaris con il 56% degli SP di FIJI ad andare solo un 10% in meno in 1080p sempre secondo la tabella postata prima
ci riesce perchè, semplicemente, FIJI è un chip con tanta potenza bruta ma che all'atto pratico è sfruttato molto male, con numerosi colli di bottiglia in parte corretti su polaris che a sua volta ha altri colli di bottiglia (memorie, ed ecco perchè tanta differenza tra 480 e 580 non c'è)

sbagli a prescindere se prendi come punto di riferimento fiji, devi prendere polaris, che è decisamente più nuovo ed efficiente e a ragion di logica vega lo sarà ancor di più (altrimenti l'evoluzione tecnologica dov'è?)

inutile fare discorsi tipo "Vega fail 4096sp quando già la 7970 ne aveva 2048!!!!!11!! slurppp" non credi?
Ci sentiamo fra 15 giorni... non è mai esistito (checchetunedica) che un chip XT di fascia enthusiastic abbia lo stesso numero di SP diminuendo il processo produttivo. Non è mai successo; eppure anche aumentando il numero di SP e il clock alle volte AMD e alle volte Nvidia hanno avuto dei fallimenti... figurati con lo stesso numero di SP.

mircocatta
04-05-2017, 12:52
Mamma mia che commenti colti si leggono! Via il prosciuttino dagli occhi, ragazzi: fate solo una pessima figura, parteggiate da una parte o dall'altra. Siete il primo dei fail.

io personalmente monto nvidia (e prima della 1080 montavo lo sli di 970 e prima ancora una 780), altro che fanboy

sono semplicemente realista, parlo con numeri alla mano (poi ovvio che tutto sarà ovviamente ridotto perchè è impossibile una scalabilità così perfetta come ho ipotizzato io)

mircocatta
04-05-2017, 12:59
Ci sentiamo fra 15 giorni... non è mai esistito (checchetunedica) che un chip XT di fascia enthusiastic abbia lo stesso numero di SP diminuendo il processo produttivo. Non è mai successo; eppure anche aumentando il numero di SP e il clock alle volte AMD e alle volte Nvidia hanno avuto dei fallimenti... figurati con lo stesso numero di SP.

non capisco dove tu voglia arrivare sinceramente

stai dicendo che secondo te vega avrà più di 4096 sp? non lo sto ipotizzando io, lo dicono le varie news che girano da mesi e mesi, anche nella news che stiamo commentando

benderchetioffender
04-05-2017, 13:09
ma se non si sa assolutamente nulla di come vadano queste schede, perche spari a caso? poi again riferito a cosa? ryzen è stato tutto men che un fail, tant'è che sto pensando seriamente di cestinare il mio 6850 per un x1800 decisamente migliore

hoplà! dimmi subito in che cestino lo metti che passo a prenderlo :D

scherzi a parte, se l'offerta è buona, io te lo comprerei in un ragionevole futuro :D let me know

CrapaDiLegno
04-05-2017, 13:23
Visto che naturalmente non sarà come dici te spiegami come mai l'architettura Fiji (che ha 4096 SP e le HBM in confronto alla 580) va solo il 10 % in più della 580; chiaro che la 580 è più ottimizzata eppure dai tuoi calcoli.
Quindi vorresti dire che con 500 MHz in più e le ottimizzazioni migliora del 108%???
Hai scritto cose che non corrispondono alla verità.

tu dici che fare ciò è impossibile con gli stessi sp (4096), allora spiegami come fa polaris con il 56% degli SP di FIJI ad andare solo un 10% in meno in 1080p sempre secondo la tabella postata prima
ci riesce perchè, semplicemente, FIJI è un chip con tanta potenza bruta ma che all'atto pratico è sfruttato molto male, con numerosi colli di bottiglia in parte corretti su polaris che a sua volta ha altri colli di bottiglia (memorie, ed ecco perchè tanta differenza tra 480 e 580 non c'è)

sbagli a prescindere se prendi come punto di riferimento fiji, devi prendere polaris, che è decisamente più nuovo ed efficiente e a ragion di logica vega lo sarà ancor di più (altrimenti l'evoluzione tecnologica dov'è?)

inutile fare discorsi tipo "Vega fail 4096sp quando già la 7970 ne aveva 2048!!!!!11!! slurppp" non credi?

Ci sentiamo fra 15 giorni... non è mai esistito (checchetunedica) che un chip XT di fascia enthusiastic abbia lo stesso numero di SP diminuendo il processo produttivo. Non è mai successo; eppure anche aumentando il numero di SP e il clock alle volte AMD e alle volte Nvidia hanno avuto dei fallimenti... figurati con lo stesso numero di SP.

Ma cheddite???
A parte il confronto tra un chip che è overcloccato a bestia e consuma come una fornace rispetto alla Fury X che ha gravissimo problemi a gestire la risoluzione di 1080p ma stranamente gestisce molto meglio il 4K (fai un confronto tra 580 e Fury X a 4K e poi mi dici se metà di tutto non fa la differenza nonostante l'OC esagerato).
La 480/580 non sono mica dei miracoli: vanno meno delle vecchie 290, quindi sono e rimangono ben distanti dalle prestazioni della Fury X.

Per il resto, il numero di SP non è una unità di misura di un bel niente. 2 sono i numeri da tenere in considerazione: i TFLOPS teorici massimi (quelli che calcoli facilmente facendo n. ALU*2*frequenza) e quelli più difficili da valutare che sono i TFLOPS reali che si riesce a sfruttare con gli algoritmi dei giochi.
Data una architettura è possibile stabilire approssimativamente le prestazioni sapendo i TFLOPS teorici. Se Vega è come GCN in termini di efficienza computazionale, con 12TFLOPS teorici (come annunciato tempo fa) si parla di essere il 35% meglio della Fury X (che ha 8.9TFLOPS teorici massimi). Se Vega funziona meglio (e lo speriamo visto quanto male andava Fiji che con 8.9TFLOPS teorici stava dietro la scheda nvidia con 5.6) potremmo essere intorno al 50% in più. Per i consumi, vedremo quanto questo PP si riuscirà a sfruttare con questa nuova architettura, che a differenza di Polaris che è uno shrink di GCN pensato per i 28nm, dovrebbe essere stata pensata appositamente per questi 14nm (da cui credo tutto questo ritardo).

Non è che serva saper fare conti da astrofisico o guardare nella palla di vetro per farsi una idea di quello che sarà la situazione.
Sappiamo che si partirà da 35% meglio della Fury X a salire a seconda di quanto AMD è riuscita a migliorare l'efficienza computazionale.

Per quanto riguarda schede nuove che hanno meno SP di quelle vecchie pur essendo al top, basta dare un'occhiata al GM200 vs GP104 dove quest'ultimo va il 25% in più con il 12% di SP in meno. Perché le frequenze contano. E per salire in frequenza devi consumare poco. Non ci sono storie.

Gyammy85
04-05-2017, 13:25
ma se non si sa assolutamente nulla di come vadano queste schede, perche spari a caso? poi again riferito a cosa? ryzen è stato tutto men che un fail, tant'è che sto pensando seriamente di cestinare il mio 6850 per un x1800 decisamente migliore

Ero ironico

E' poverella per via della solita questione " il prodotto va peggio della concorrenza, ah, però costa meno e quindi è il best buy". E così df anni AMD non guadagna un dollaro sulla svendita.
E' giusto che la gente compri AMD per i prezzi (visto che va a suo vantaggio) ma dovrebbe anche riflettere che non è quello il modo in cui AMD deve fare concorrenza, così forse oggi ci sarebbe più gente che smetterebbe di fare elogi e sproloqui quando finalmente in un test su 10 supera di mezzo millimetro la barra colorata di nvidia.
Ma fino a quando si continua a leggere che un chip da 500mm^2 e con le HBM2 con un anno di ritardo va quanto uno più piccolo della concorrenza che monta le GDDR5X rilasciato un anno prima è una buona cosa se costerà meno... saremo sempre qui ad aspettare AMD che "è poveretta" ed esce con prodotti che deve svendere per renderli competitivi con quelli della concorrenza.
Se così nvidia Volta lo farà sui 7nm e nel frattempo rilascerà "Galilei", architettura non prevista (come Pascal), giusto lo shrink dello shrink di Maxwell.

E se galilei enstein zuckemberg cook faileranno ci sarà sempre il g100 che spacca tutto...magari nel frattempo in nvidia arriverà all'ufficio marketing qualcuno che sa contare fino a 200. :)

CrapaDiLegno
04-05-2017, 13:39
E se galilei enstein zuckemberg cook faileranno ci sarà sempre il g100 che spacca tutto...magari nel frattempo in nvidia arriverà all'ufficio marketing qualcuno che sa contare fino a 200. :)

C'era.. ha dato il nome al GM200, poi a quanto pare è stato licenziato e si è rimasti solo con quelli che sanno contare fino a 108 :D

lucusta
04-05-2017, 14:11
io non partirei da Fiji per basarmi sulle prestazioni di Vega, e bisogna stare attenti anche a basarsi su Polaris.
è di per se un'architettura ben diversa (e piena zeppa di cose nuove).

tra fury x e Polaris passano il 10%?
in RoTR la 580 a 1080p va anche di piu' della fury x ( http://www.guru3d.com/articles_pages/msi_radeon_rx_580_gaming_x_review,11.html ).
è sempre stato evidente che l'architettura di Fiji era sottosfruttata a causa del massiccio sfruttamento della banda ram a scapito della cache.
su Vega non solo è stato stravolto l'ordine di bus (ora i back-end sono direttamente sotto L2), ma ha anche messo una L3 che evita di dover andare sempre a ripescare nella memoria.
questa "movimentazione" è sempre stata deleteria per fiji anche in confronto ad hawaii e diventava evidente quando i frame diventavano pressanti.
anche con codice "buono" è evidente:
sempre da quei dati si vede che in sniper elite 4 (che è un titolo a totale vantaggio per le architetture AMD, tanto che in mGPU scalano al 100%), la fury x ha vantaggio sulla 580 in queste quote:
1080p = 15%
1440p = 22%
UHD = 44%
al dimezzarsi dei frame totali generati si ha un netto vantaggio.
netto vantaggio in linea con polaris 20 (a 1400mhz);
(4096/2304)*(1050/1400)=33%
che indica esattamente che a 4K è polaris che ha difficoltà, con una banda ram limitata a fargli da collo di bottiglia.

quindi non ci si può basare su fiji a basse risoluzioni, ne su polaris ad alte definizioni, in quanto mostrano i limiti delle due diverse implementazioni;
la questione è che non conoscendo anche i limiti di Vega, anche estrapolando degli ipotetici dati, sono solo numeri.
ad oggi non possiamo sapere se Vega possa incontrare qualche bottle neck in qualche sua parte, saturando le possibilità di un componente e quindi compromettendo le prestazioni massime degli altri (come non sappiamo se scalda o meno)...
ad occhio e croce possiamo stabilire che va come 2 480 in un buon mGPU con consumi (presunti dalle dichiarazioni) inferiori... ma di piu'... ?... si aspettano 15gg.

CrapaDiLegno
04-05-2017, 14:45
io non partirei da Fiji per basarmi sulle prestazioni di Vega, e bisogna stare attenti anche a basarsi su Polaris.
è di per se un'architettura ben diversa (e piena zeppa di cose nuove).
[...]
quindi non ci si può basare su fiji a basse risoluzioni, ne su polaris ad alte definizioni, in quanto mostrano i limiti delle due diverse implementazioni;
la questione è che non conoscendo anche i limiti di Vega, anche estrapolando degli ipotetici dati, sono solo numeri.
ad oggi non possiamo sapere se Vega possa incontrare qualche bottle neck in qualche sua parte, saturando le possibilità di un componente e quindi compromettendo le prestazioni massime degli altri (come non sappiamo se scalda o meno)...
ad occhio e croce possiamo stabilire che va come 2 480 in un buon mGPU con consumi (presunti dalle dichiarazioni) inferiori... ma di piu'... ?... si aspettano 15gg.

Infatti mi sono basato sulle prestazioni ad alta risoluzione di Fiji, cioè il meglio che riesce a fare quel chip nato molto in fretta a detta della stessa signora Su.
Se poi l'architettura sarà fallata, questo non lo possiamo prevedere, ma si suppone che dopo oltre 12 mesi di sviluppo supplementare rispetto alla concorrenza i risultati non siano da cestinare.
Comunque 2x480 con più che ottimo mGPU = GTX 1080.. il che non lascerebbe molta ciccia con cui gingillarsi...

sonnet
04-05-2017, 15:31
Un anno di ritardo per 4096sp è una sconfitta.
Alla frequenza specificata è ipotizzabile che possa andare più di una 1080 ma non di certo confrontarsi alla pari con la Titanium e la Titan.

che sciocchezza assurda..
Il numero di sp e' relativo. Dipende tutto dall'architettura.

Personalmente ritengo plausibile che vada almeno il doppio della 580 ad alte risoluzioni: numero rops doppio, bandwidth piu' che raddoppiata, numero di sp quasi doppio ma che a questo punto mi aspetto siano piu' efficienti visto che parliamo della nuova archiettura e presumibilmente frequenze maggiori rispetto alla gtx 580.

Quindi mi aspetto che vada come una 1080ti(-10%/+10% ).

IL vero punto sara' a che prezzo e le dimensioni del chip.Fossero riusciti a mentenere il chip sotto i 400mm2 potrebbero adottare una politica aggressiva sul fronte prezzi.

tuttodigitale
04-05-2017, 15:56
tu dici che fare ciò è impossibile con gli stessi sp (4096), allora spiegami come fa polaris con il 56% degli SP di FIJI ad andare solo un 10% in meno in 1080p sempre secondo la tabella postata prima
ci riesce perchè, semplicemente, FIJI è un chip con tanta potenza bruta ma che all'atto pratico è sfruttato molto male, con numerosi colli di bottiglia in parte corretti su polaris che a sua volta ha altri colli di bottiglia (memorie, ed ecco perchè tanta differenza tra 480 e 580 non c'è)

sbagli a prescindere se prendi come punto di riferimento fiji, devi prendere polaris, che è decisamente più nuovo ed efficiente e a ragion di logica vega lo sarà ancor di più (altrimenti l'evoluzione tecnologica dov'è?)

inutile fare discorsi tipo "Vega fail 4096sp quando già la 7970 ne aveva 2048!!!!!11!! slurppp" non credi?

queste sono le prestazioni offerte oggi da una Fury X, giusto per mettere in luce di quale fallimento tecnico si sta discutendo.....

https://tpucdn.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/images/perfrel_2560_1440.png

Notare quanto la 1070 abbia perso terreno rispetto ad un anno fa....

Le GPU AMD, come tutte le altre GPU, in genere scalano bene con l'aumentare delle risorse....
ma Fiji rispetto alle soluzione hawaii ha lo stesso numero di ROPs......non c'è da meravigliarsi se in certi casi va quanto il predecessore...

voglio farvi notare che fiji è esattamente il doppio di Tahiti (2048sp x2, 32 ROPs x2 e quasi il doppio della banda passante: 288GB/s vs 512GB/s) e praticamente le prestazioni sono sempre raddoppiate....non capisco chi parla di scarso scaling dovuta all'architettura GCN in sè....

Erotavlas_turbo
04-05-2017, 16:00
Ho un dejavù,
ma quand'è che ho sentito tute queste diatribe prima dell'uscita di un prodotto....

Ha ora ricordo .. SEMPRE..Ogni volta che usciva una cosa nuova.... E l'ultima volta per i processori Ryzen di AMD.

Questi articoli sono una via di mezzo tra pubblicità e creazione di hype, portano a discorsi inutili (un anno di ritardo.. e chi se ne importa l'importante è che esca per fare concorrenza) fuorvianti (ma la frequenza è più alta) non ponderabili (l'HMB2 non sarà un collo di bottiglia, ma se già non lo fossero le GDDR5X?) ridicoli (ma ha gli stessi 4096sp, come se anche una panda e una ferrari non avessero tutte e due 4 ruote).

Facciamo discorsi costruttivi, magari preghiamo tutti insieme AMD di fare dei driver per Linux Open source, magari preghiamo tutti insieme per costringere tutti a fare Driver Open Source per Linux.

Magari imploriamo INTEL di smetterla di cambiare socket ogni 3x2.

In breve, premiamo il prodotto migliore comprandolo e quando dei prodotti bene o male si equivalgono ( +/- 5% in prestazioni o prezzo) compriamo quello della ditta con meno Market Share per mantenere viva la concorrenza.

Altro non serve.
Completamente d'accordo.

tuttodigitale
04-05-2017, 16:05
Infatti mi sono basato sulle prestazioni ad alta risoluzione di Fiji, cioè il meglio che riesce a fare quel chip nato molto in fretta a detta della stessa signora Su.
mi sono perso quella dichiarazione....

Le uniche parole che io ricordi su Fiji sono state dette da Koduri e ha parlato dell'impossibilità di poter aumentare ulteriormente il die size (addirittura ha detto che avevano solo 4mmq di margine....) a causa dei 65nm usati per l'interposer....Nvidia che utilizza un altro processo non sembra avere questi problemi, in quanto l'interposer del GP100 è abbondantemente più grande di quello utilizzato in Fiji

nickname88
04-05-2017, 16:15
i "soli 4096" SP alla frequenza ed efficienza di polaris garantirebbero il 177% di prestazioni della rx580, piazzandosi davanti alla 1080.
Aggiungiamoci che probabilmente sarà ALMENO a 1600mhz, arriviamo al 218% davanti alla rx580, il che la piazzerebbe davanti anche alla 1080ti.

E non sto includendo i miglioramenti archietturali di vega e neanche l'assenza del collo di bottiglia dovuto alle memorie che frena parecchio le polaris
ps: il sito di confronto delle performance (a 1080p) che ho usato è techpowerup che è tendenzialmente "verde"
https://www.techpowerup.com/gpudb/2938/radeon-rx-580
Guarda che non scala mica così facilmente.

4096sp vuol dire che ha meno del doppio degli sp rispetto alla 580, mentre invece già la 1080 liscia ne ha il doppio rispetto ad una minore 1060. Quindi la frequenza in più deve anche tenere conto di ciò.

Quindi o hanno aumentato l'IPC da altre vie o detta così con un anno di ritardo non è il massimo.

nickname88
04-05-2017, 16:37
Se non ha un IPC maggiore che cosa hanno fatto in un anno?
Se fosse solo una Polaris più grossa vorrebbe dire che non hanno abbastanza risorse per mettere in produzione due prodotti contemporaneamente, nella seconda metà del 2016 si sono dedicati a mettere in pista Ryzen e solo da quest'anno si sono dedicati a fondo a Vega.

Sarebbe una situazione un po' desolante, perchè non sarebbe manco male in se il prodotto che potrebbe competere con 1080 o 1080ti in base alla frequenza, ma confermerebbe che amd è parecchio in ritardo.
Invece sarebbe da aspettarsi un Vega in quanto generazione successiva a Polaris che sia magari non la generazione che compete con Volta ma che vada a collocarsi a cavallo tra Pascal e Volta e non addirittura dietro a Pascal.

P.S: non so quanto sia corretto parlare di IPC per una gpu visto che gli scenari sono numerosi e può comportarsi diversamente in diverse condizioni, ma rende comunque l'idea su "quanto va in relazione al numero si SP e clock"
Se veramente han portato qualcosa di nuovo ben venga.
Ma se è una maxi polaris con PP ottimizzato non è una buona cosa.

tuttodigitale
04-05-2017, 16:50
Ci sentiamo fra 15 giorni... non è mai esistito (checchetunedica) che un chip XT di fascia enthusiastic abbia lo stesso numero di SP diminuendo il processo produttivo. Non è mai successo; eppure anche aumentando il numero di SP e il clock alle volte AMD e alle volte Nvidia hanno avuto dei fallimenti... figurati con lo stesso numero di SP.
se consideriamo solo l'aumento della frequenza del 45% della versione server (clock 1,53GHz vs 1,05GHz), le prestazioni sono solo del 8% superiori alla 1080.
L'architettura ha subito importanti aggiornamenti al CU e al rasterizator. Quindi dovrebbe andare decisamente più di una 1080, ma c'è un grosso ma....



A Natale è l'altro ieri. A Maggio si parlava di Vega rilasciato in anticipo, non a Dicembre/Gennaio ma bensì a Ottobre.
guarda che di ufficiale c'è la famosa dichiarazione di koduri del 27 Giugno (VEGA Celebration) in cui dice che VEGA era ancora lontano ed era stata completata solo l'architettura su carta...... AMD ufficialmente ha sempre dichiarato H1 2017....

Febbraio inoltre, Sk hynix ha iniziato la produzione di memorie da 1,6Gbps, che garantirebbero comunque una banda passante di soli 410GB/s a causa dei soli 2 stack. Se il modello di punta avrà davvero 512 GB/s di banda le memorie che saranno usate saranno di produzioni recentissime...


intanto la potenza EFFETTIVA pare essere davvero impressionante....
https://hardwaresfera.com/wp-content/uploads/2017/05/amd-687c1-gpu.jpg

Gyammy85
04-05-2017, 16:57
Scusate eh, ma se si chiama vega un motivo c'è, quelle slide che hanno mostrato non le hanno messe anche l'anno scorso...è tutto diverso, non fermativi ai numerini...polaris ha prestazioni paragonabili alle 390 che hanno 64 rops, e più sp, che fanno il downgrade? era una scheda per la fascia media, che si comporta egregiamente rispetto alla comtroparte...non capisco per quale motivo vega non possa fare lo stesso nei confronti di titan e simili, la 1060 l'ha fatta sempre nvidia eh, non amd nei suoi sgabuzzini

Gyammy85
04-05-2017, 16:59
se consideriamo solo l'aumento della frequenza del 45% della versione server (clock 1,53GHz vs 1,05GHz), le prestazioni sono solo del 8% superiori alla 1080.
L'architettura ha subito importanti aggiornamenti al CU e al rasterizator. Quindi dovrebbe andare decisamente più di una 1080, ma c'è un grosso ma....



guarda che di ufficiale c'è la famosa dichiarazione di koduri del 27 Giugno (VEGA Celebration) in cui dice che VEGA era ancora lontano ed era stata completata solo l'architettura su carta...... AMD ufficialmente ha sempre dichiarato H1 2017....

Febbraio inoltre, Sk hynix ha iniziato la produzione di memorie da 1,6Gbps, che garantirebbero comunque una banda passante di soli 410GB/s a causa dei soli 2 stack. Se il modello di punta avrà davvero 512 GB/s di banda le memorie che saranno usate saranno di produzioni recentissime...


intanto la potenza EFFETTIVA pare essere davvero impressionante....
https://hardwaresfera.com/wp-content/uploads/2017/05/amd-687c1-gpu.jpg

:eek: dove l'hai trovata? comunque si, appena superiore a una furyx fusa :asd:

tuttodigitale
04-05-2017, 17:20
Ma fino a quando si continua a leggere che un chip da 500mm^2 e con le HBM2 con un anno di ritardo va quanto uno più piccolo della concorrenza che monta le GDDR5X rilasciato un anno prima è una buona cosa se costerà meno... saremo sempre qui ad aspettare AMD che "è poveretta" ed esce con prodotti che deve svendere per renderli competitivi con quelli della concorrenza.

:doh:
il vero concorrente di VEGA è GP100, un chip più grande (651mmq) ,meno efficiente di GP102, poichè non specifico per i calcoli FP32
le specifiche della Tesla p100, parlano chiaro 1320MHz/1480MHz 300W TDP vs 1480/1580MHz 250W della 1080ti.

Perchè non dici nvidia poveretta, ha fatto un chip più piccolo che usa le gddr5x che va meglio del chippone nei giochi...Non pensi che magari GP100 e VEGA sono pensati principalmente per essere chip destinati al mercato server (sarà un caso se AMD ha presentato mesi fa la famiglia Instinct (http://instinct.radeon.com/en-us/about/)

inoltre l'uso delle HBM è obbligatorio per utilizzare quel chip a stretto contatto con una CPU....non è un semplice esercizio di stile...

tuttodigitale
04-05-2017, 18:06
ma che poi gp102 tanto piccolo non è, sono comunque 470mmq nonostante sia only gaming.

non è piccolo, ma bisogna pur considerare che nvidia ha dovuto portare le dimensioni a 651mmq senza aumentare il numero delle ALU.....sono 170mmq che richiedono watt....
infatti se facciamo due conti...gp102 è più efficiente del 30% nonostante le frequenze un poco più elevate....praticamente dotandolo delle risorse per il mercato HPC, l'efficienza si abbassa ai livelli di una rx480....

trovo improbabile che VEGA abbia la stessa efficienza di una Titan Xp

mariacion
04-05-2017, 18:14
Raga, ma avete tutti monitors 42' a 4K ? :)

tuttodigitale
04-05-2017, 18:23
Guarda che non scala mica così facilmente.

4096sp vuol dire che ha meno del doppio degli sp rispetto alla 580, mentre invece già la 1080 liscia ne ha il doppio rispetto ad una minore 1060. Quindi la frequenza in più deve anche tenere conto di ciò.

Quindi o hanno aumentato l'IPC da altre vie o detta così con un anno di ritardo non è il massimo.

ti sbagli...lo scaling è praticamente perfetto, a patto di aumentare tutte le risorse...
la 1080 è lungi dall'essere il doppio di una 1060ti, infatti anche il die size testimonia questo: 314mmq vs 200mmq....

voglio portare un paio di esempi:
pitcairn = 2x cape verde = +100%

tahiti vs Pitcairn: +60%sp , +0% ROPs: scaling 32%
Hawaii vs Tahiti: +37% , +100% ROPs: scaling 53%
R9 390 vs 270x: +100%sp, +100% ROPs, scaling perfetto

se Fiji fosse stato 3 volte una 270x (3840sp e 96ROPs), sarebbe andato a 1GHz il 50% più di una 390 e mediamente circa il 19% più di una Fury X (25% a parità di clock)..

Raga, ma avete tutti monitors 42' a 4K ? :)
No, il mio è da 43 (vabbè 42,5 :ciapet: )

lucusta
04-05-2017, 18:35
Guarda che non scala mica così facilmente.

4096sp vuol dire che ha meno del doppio degli sp rispetto alla 580, mentre invece già la 1080 liscia ne ha il doppio rispetto ad una minore 1060. Quindi la frequenza in più deve anche tenere conto di ciò.

Quindi o hanno aumentato l'IPC da altre vie o detta così con un anno di ritardo non è il massimo.

si, se NCU sono come GNC...
ma non lo sono, quindi quello che scrivi non ha assolutamente valore.

da quello che ho visto sulle slide di presentazione del chip, Vega sembrerebbe essere un 4 vie, non un 2 vie come siamo abituati oggi.
ogni SP, come ogni cuda core, ha la possibilità di effettuare 2 calcoli alla volta; Vega ne opera il doppio.
quindi i 4096 SP si devono intendere come 8192.
quel numero sembrerebbe esagerato, se non si andasse a vedere frequenza operativa e TDP; AMD ha dichiarato che il compute engine di Vega opera ad elevata frequenza, ma non che tutto il chip giri allo stesso clock per tutti i componenti.
con Polaris abbiamo visto che i 14nm GloFo non sono adatti ad elevati clock;
sappiamo che la parte più esigente in fatto di assorbimento sono appunto i pixel engine e le geometry pipeline.
sembra quasi logico che abbiano prodotto un chip con SP che operano nel miglior intervallo di frequenza per prestazione/consumo ed abbiano invece forzato un componente molto meno sacrificato come il compute engine.

Vega è un chip 4 vie a 4096 SP che girano a 750mhz massimo, e questo porta vantaggi non solo perchè un singolo SP ora esegue 2 istruzioni totali per ciclo, senza dover mettere o togliere da qualsiasi cache, ma anche nella flessibilità della logica.

per non parlare poi della gerarchia della cache e memoria.

si stà parlando di un design totalmente diverso non solo dal precedente, ma da qualsiasi cosa vista fino ad oggi, e tu la bolli come semplice scaling modulare?
suvvia...
solo con il rapporto performance su transistors o superficie sei a 2 volte e mezza il chip precedente, ma a pari frequenza; questo viaggia anche al 10% in piu' dell'ultimo overclock di fabbrica che gli hanno fatto su polaris...
puoi permetterti queste cose sulla modulazione intra famiglia di Pascal, non su cose totalmente diverse...

CrapaDiLegno
04-05-2017, 18:46
:doh:
il vero concorrente di VEGA è GP100, un chip più grande (651mmq) ,meno efficiente di GP102, poichè non specifico per i calcoli FP32
le specifiche della Tesla p100, parlano chiaro 1320MHz/1480MHz 300W TDP vs 1480/1580MHz 250W della 1080ti.

Perchè non dici nvidia poveretta, ha fatto un chip più piccolo che usa le gddr5x che va meglio del chippone nei giochi...Non pensi che magari GP100 e VEGA sono pensati principalmente per essere chip destinati al mercato server (sarà un caso se AMD ha presentato mesi fa la famiglia Instinct (http://instinct.radeon.com/en-us/about/)

inoltre l'uso delle HBM è obbligatorio per utilizzare quel chip a stretto contatto con una CPU....non è un semplice esercizio di stile...

non è piccolo, ma bisogna pur considerare che nvidia ha dovuto portare le dimensioni a 651mmq senza aumentare il numero delle ALU.....sono 170mmq che richiedono watt....
infatti se facciamo due conti...gp102 è più efficiente del 30% nonostante le frequenze un poco più elevate....praticamente dotandolo delle risorse per il mercato HPC, l'efficienza si abbassa ai livelli di una rx480....

trovo improbabile che VEGA abbia la stessa efficienza di una Titan Xp
Il tuo fanboysmo ti porta a scrivere diverse sciocchezze.

Prima di tutto il TDP non è il consumo in tutte le situazioni.
Forse ti è sfuggito che il TDP della Tesla è per i sistemi server dove la scheda lavora a 1400MHZ con le unità DP sempre attive con magari anche l'nvlink che consuma non poco.
Che non è certo la stesa cosa che far girare il motore grafico di Hitman o fare calcoli FP32 come il GP102, che scioccamente dici essere più efficiente solo guardando il TDP.
Ma te sei ancora nel mondo di Polaris con la sua efficienza pari a Maxwell con un PP di vantaggio e devi in qualche modo trovare qualcosa che sia negativo per nvidia, giusto per.
Sarà un caso che Pascal è la scheda più efficiente per fare i calcoli DP in attesa di vedere quello che è in grado di fare Vega un anno e mezzo dopo.

Detto questo, il GP102 è un chip creato solo ed esclusivamente per il mondo consumer, dato che non ha senso usare il grande e costosissimo GP100 con il 50% del die occupato da tutt'altra roba utile per il gaming. E infatti mentre il GP100 costa diverse migliaia di dollari, il GP102 è venduto a meno di 800 dollari tutto montato (e non è certo in regalo). E parte del die è sacrificato per il MC GDDR5 che occupa più spazio di quello HBM ma permette di installare memorie molto ma molto meno costose con un processo che evita l'uso dell'interposer (altro pezzo di silicio dall'alto costo).
Ora tu stai confrontando un chippetto nato per il gaming, con un chip nato e studiato per il mondo HPC (lo sai che le due architetture alla base sono diverse, vero?). E vorresti, in questo stupido confronto inserire Vega che non si sa bene quale ruolo svolgerà: ha componenti di serie server e ha il target nel mondo consumer. Avrà la solita efficienza di un processore per calcoli HPC nel mercato gaming? O stai insinuando che Vega con le capacità DP che ha contraddistinto alcuni chip GCN di AMD sarà più efficiente del GP102? O di Polaris stesso (che non ha capacità DP)? Che stai confrontando cercando anche di trovare un punto di forza nel tuo ragionamento?
Vedremo questi 500 e rotti mm^2 a quanto saranno venduti da AMD. Considerando l'alto costo di tutto il dispositivo.

Fatta questa precisazione tecnica sulle sciocche differenze che hai voluto evidenziare, la signora Su disse che Fiji era un progetto nato solo 18 mesi prima di vederlo sugli scaffali, che facendo due conti equivale al periodo in cui hanno visto quanto Maxwell li bastonava. E' un prodotto nato per cercare di mostrare i muscoli usando tutto il possibile senza considerare i costi. E nemmeno facendo così è riuscita a fare di meglio.

Per le differenze di dimensioni, il GP100 è 610mm^2, il GP102 è 472, differenza è di 138mm^2, dove bisogna tenere conto di un sacco di cose diverse, tra le quali i due MC che occupano spazi diversi, l'nvlink, le unità di calcolo DP e l'organizzazione diversa degli SMX.
Comunque, Hawaii era di 438mm^2, non diversa dalla dimensione del GP102, con la differenza che il GP102 è sull'olimpo delle schede grafiche, irraggiungibile da quasi un anno (e forse anche dopo, vedremo, ma con HBM2 e die più grande, il solo essere alla pari è una sconfitta compelta come lo fu Fiji contro il GM200), Hawaii era nella fascia alta consumando come una bistecchiera incaxxata (facile aumentare le prestazioni aumentando il clock e andando fuori punto di massima efficienza così tanto, Tahiti, Hawaii, Polaris... di esempi in cui l'efficienza è stata buttata alle ortiche tanto per aumentare di mezzo millimetro le barrette se ne sono viste a bizzeffe in questi anni).

Quello che non hai capito dopo oltre 4 anni di GCN, e lo si vede dai tuoi commenti in cui ribalti la realtà, è che l'architettura AMD è indietro in tutti gli indici in cui compaiono consumi e area.
Che sono 2 aspetti fondamentali della bontà di una architettura. Con più silicio (transistor) e più W non ci sarebbe da stupirsi di avere una soluzione più veloce della concorrenza. E invece siamo a livello di una Ferrari F1 che le prende dalla Minardi di turno. Ah, ma se la strada è rettilinea, guarda come la Ferrari va più forte! Peccato ci siano le curve nella vita (e algoritmi complessi non sempre fatti ad hoc per AMD) e a quel punto la Ferrari resta indietro.
Ah, ma se le do un colpo in più al limitatore vedrai che va di più.. e certo, con i consumi che si ritrova potrebbe gareggiare nel campionato degli Jet invece che in F1.
Ma che stai a comparare? Che stai cercando di vendere? Purtroppo la realtà è diversa. AMD DEVE RECUPERARE, non è davanti. DEVE FARE MOLTO MEGLIO, non semplicemente continuare con questo strazio. DEVE AUMENTARE L'EFFICIENZA COMPUTAZIONALE, non avere schede con HBM e 8.9TFLOPS di potenza computazionale e prenderle da una scheda che ne ha 5.6 (o vedi 480 vs 1060).
Ma insomma, basta con questo buonismo nei confronti di AMD e inventarsi tutte le situazioni surreali e le leggende metropolitane con cui di cerca di dimostrare che è meglio.
Non è meglio un caxxo. Punto. (Ah, ho dimenticato il "ma costa meno"). Speriamo che Vega sia la svolta, perché altrimenti puoi stare qui a fare le pulci al W e al decimo di FPS, ma la situazione sarà che la prossima generazione le 1180 saranno fatte con chip da 250mm^2 e costeranno 900 euro.
Ah, ma vedrai come le schede AMD aumenteranno le proprie prestazioni nel tempo, ah vedrai come nvidia abbandonerà le sue architetture quando usciranno quelle nuove (intanto in Wildlands la 970 prende a bastonate la 580 comunque.. scheda più vecchia, ha gli scandalosi 3.5GB di RAM, consuma di meno e che è "in legacy" da un anno, cosa con cui avete cercato di far apparire nvidia come quella che "usa e getta" le proprie architetture quando invece le supporta per anni).
Solite panzanate appese a speranze e al desiderio recondito di rivincita dopo tutti questi anni di inseguimento senza aver mai fatto la differenza.
Ora tranquilizzati e aspetta di vedere se davvero Vega sarà la svolta o dovremo aspettare altri 2 anni per avere ulteriore speranza di concorrenza.

Concorrenza che per ora, NON C'E'!
Doveva farla Polaris (ah, vedrete che mazzuolate alla fascia media, vedrete come nvidia abbasserà la cresta, vedrete qui, vedrete là... e poi... le prende da un chippetto ancora più minuscolo che consuma la metà).

P.S: i tuoi bench dicono poco riguardo alla bontà o meno di Vega. Che numeri fanno Hawaii/Fiji negli stessi test?

CrapaDiLegno
04-05-2017, 19:57
intanto la potenza EFFETTIVA pare essere davvero impressionante....
https://hardwaresfera.com/wp-content/uploads/2017/05/amd-687c1-gpu.jpg

Intanto quei grafici sono presi da un beota che sta confrontando mele con pere.
Ecco il grafico con i sistemi uguali:
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=33974771&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080

Ai soliti distratti: è confrontata alla 1080, non alla Ti.
Direi che non è messa così bene come volevi farla apparire.

Qui contro la Ti:
https://compubench.com/compare.jsp?benchmark=compu15d&&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&did2=46884232&os2=Windows&api2=cl&hwtype2=dGPU&hwname2=NVIDIA+GeForce+GTX+1080+Ti

Spera che la fantomatica Vega qui testata non sia alle frequenze finali di vendita...

Qui contro la 480, da cui si possono trarre molti più spunti di riflessione sulle possibili prestazioni reali (sempre che come detto sia stata testata con le impostazioni finali di vendita).
https://compubench.com/compare.jsp?benchmark=compu15d&did1=45270653&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+687F%3AC1&D2=AMD+Radeon+(TM)+RX+480+Graphics

Si va da un +30% a un +100% nei vari test, confermando che ha il doppio della potenza computazionale nonostante non abbia il doppio degli shader, da cui ha il 12% in più di frequenza o in taluni casi arriva ad avere il 12% in più di efficienza computazionale.
Non conoscendo le frequenze, non sappiamo quale delle due sia corretta né se è il potenziale massimo.

Ultimo link ai grafici leggibili a tutti, con le barrette colorate. Cercate la fantomatica AMD 687F:C1 e fate i confronti.
https://compubench.com/result.jsp?benchmark=compu20d&test=726&text-filter=&order=median&ff-desktop=true&os-Windows_cl=true&os-Windows_cu=true&pu-dGPU=true&pu-iGPU=true&arch-x86=true&base=device

:eek: dove l'hai trovata? comunque si, appena superiore a una furyx fusa :asd:
Rispetto alla Fiji va da -46% a +18%, percui si, poco di più e quindi credo che non sia la versione finale (almeno lo spero)

tuttodigitale
04-05-2017, 20:05
Il tuo fanboysmo ti porta a scrivere diverse sciocchezze.
che sono un fanboy passi, non ho mai nascosto di essere un simpatizzante di AMD, che dico diverse sciocchezze pure, ma che siano minimamente paragonabile alle tue no assolutamente....Ancora non sono alla tua altezza Maestro ::D

TDP e die size condizionato dal fatto che GP100 è forte in DP e FP16?
Guarda che ho detto proprio questo.....
in 500mmq, così si mormora, VEGA va contro un chipi menomato nei calcoli a mezza e doppia precisione dal die size simile, GP102....
se la differenza tra GP100 e GP102 fosse dovuto a questo, in proporzione è come se VEGA FP32-only fosse un chip di "soli" 386mmq....te capì?

tuttodigitale
04-05-2017, 20:24
devo solo scrivere le perle che dici:

CrapaDiLegno
04-05-2017, 20:45
TDP e die size condizionato dal fatto che GP100 è forte in DP e FP16?
Guarda che ho detto proprio questo.....
in 500mmq, così si mormora, VEGA va contro un chipi menomato nei calcoli a mezza e doppia precisione dal die size simile, GP102....
se la differenza tra GP100 e GP102 fosse dovuto a questo, in proporzione è come se VEGA FP32-only fosse un chip di "soli" 386mmq....te capì?
No. Hai detto che il GP102 è più efficiente del GP100 solo guardando il TDP, perché di confronti reali non se ne possiono fare essendo due GPU per lavori diversi. Con i calcoli FP32 è molto probabile che il GP100 sia più efficiente del GP102. Quindi hai detto una cagata pazzesca.
Cosa possa essere vega senza l'aggiunta non lo sapremo mai. Quello è e quello è quello che si confronterà con le GPU di nvidia sul mercato.
Se si parte già con le mani avanti "a ma sarà forte nel DP" a cui nessuno frega nulla mentre sta fraggando a Battlefield 1, direi che si parte già male.

tutta roba integrata anche in VEGA.
Tutta un para de bal.
l'nvlink in Vega non c'è.

Aggiungo il fatto che la scelta di nvidia di usare unità DP aggiunte rispetto a quelle FP ha forte impatto sulle dimensioni dei sui chip DP capaci, ma allo stesso tempo permettono di avere chip solo FP32 molto piccoli e aumentare l'efficienza computazionale usando le unità ottimizzate per i calcoli necessari.
Sono scelte che hanno la loro ragione per via della strategia presa da nvidia di dividere il mercato in 2: da una parte i chip DP venduti a prezzi altissimo, dall'altro chip solo FP più piccoli e più efficienti e il riciclo di GPU con DP castrate.
Io non capisco cosa tu voglia confrontare quando paragoni Vega con il GP102, se non una strategia fallimentare (quella di AMD che perde soldi vendendo le GPU DP capable nel mercato consumer) o quella che sta facendo affogare di soldi il CEO di nvidia con il GP102 nel mercato consumer e il GP100 in quello professionale.


guarda sei stato tu a confrontare VEGA con GP102... ;)
ho messo GP100 proprio per farti rendere conto di quanto sia assurdo quello che scrivi....
Forse sei nel mondo parallelo dei sogni, ma Vega si confronterà con il GP102 sul mercato consumer e con il GP100 in quello professionale.
Ma quali confronti ti stai inventando?
Cerca di tornare sulla Terra perché stai chiarament vaneggiando con confronti che non voglion dire nulla: avrà la scusante di essere meno efficiente nel mondo consumer perché ha il fardello dei DP, e avrà la scusante di andare meno nel mercato HPC perché sarà più piccolo (e la prima versione monterà solo 8GB al posto dei 16 delle Tesla P100).

ma come fai a confrontare Hawaii che è a 28nm (e quindi circa 275/290mmq su 14/16nm) ed è capace di un throughput FP64 = 1/2 FP32...
e comunque Hawaii era vero che consumava tanto, ma era confrontabile con un chip ben più grosso, che una volta attivate le unità FP64 (che comunque avevano un throughput pari ad 1/3 FP32) vedeva le prestazioni FP32 decadere del 20%....
Se fai i conti in FP64, non hai alcuna diminuzione dei conti in FP32. O l'uno o gli altri. Il GK110 era davvero grande ma consumava di meno. In totale era più efficiente di Hawaii anche se questo non "perdeva throughput".


nel caso di AMD un MC da 1024 HBM occupa il 50% più di un MC da 64 bit gddr5...
4 MC HBM occupano l'equivalente di un MC con 384 bit complessivi...
sulla carta non c'è nessuna differenza.
Io ero rimasto che l'MC HBM a 28nm era più piccolo di quello per le GDDR5. Forse era riferito a quello da 512bit di Hawaii.


1)ti chiedo di linkarmi il testo e la fonte dove Lisa Su, dice che è stato progettato in fretta e furia, da li il nome Fury....
C'era una news riguardante il perché e il percome di Fuji da parte di AMD. L'avevo letta ai tempi (si parla di 2 anni fa). Ora recuperarla non saprei. Ma quello mi aveva colpito e che ricordo bene era che avevano fatto tutto in 18 mesi (il ritardo di Fiji era per quel motivo, mica per altro, visto che non era previsto l'uso della HBM con i 28nm).

Ed eccolo:
http://www.tomshardware.com/news/amd-ceo-lisa-su-interview,29327.html

Both AMD and Nvidia, among others, have talked about and been working on implementations of stacked memory architectures, but AMD will be the first to ship. Lisa Su said that it's been in development for a long time, and the decision to put it into production now was predicated on both the necessity and fit for a high-end graphics part, and because the volume shipments expected with the new GPU should help push HBM down the cost curve so that it's applicable to other implementations and products. Surprisingly, AMD made this decision 18 months ago, Su told us.

CrapaDiLegno
04-05-2017, 21:06
devo solo scrivere le perle che dici:

Intanto il tuo link al test che faceva sembrare Vega un mostro è stato distrutto appena ho capito da dove veniva.
Riprova, sarai più fortunato con la frase: intanto la potenza EFFETTIVA pare essere davvero impressionante....
Meh, la potenza computazionale così come appare da quei test fa davvero pena per un chip con quelle caratteristiche.

tuttodigitale
04-05-2017, 21:13
Se fai i conti in FP64, non hai alcuna diminuzione dei conti in FP32. O l'uno o gli altri. Il GK110 era davvero grande ma consumava di meno. In totale era più efficiente di Hawaii anche se questo non "perdeva throughput".


la TITAN Kepler a default ha le unità che operano ad una frequenza pari a 1/8 (throughput fp64 = 1/24 fp32)...una volta abilitata la piena potenza (fp64 =1/3 fp3) la potenza nei calcoli FP32 scende di circa il 20% a causa dei consumi aumentati a prescindere dall'effettivo utilizzo della doppia precisione...


Tutta un para de bal.
l'nvlink in Vega non c'è.
ma c'è l'infinity fabric :rolleyes:




Rispetto alla Fiji va da -46% a +18%, percui si, poco di più e quindi credo che non sia la versione finale (almeno lo spero)
guarda che si dice che quella versione giri a soli 1200MHz e abbia memorie da 1,4GBps, quindi solo 352GB/s...(fonte guru3d)...
stando le cose è effettivamente ipotizzabile che la Fury vada in certi casi anche molto di più di quel prototipo.

CrapaDiLegno
04-05-2017, 21:26
la TITAN Kepler a default ha le unità che operano ad una frequenza pari a 1/8 (throughput fp64 = 1/24 fp32)...una volta abilitata la piena potenza (fp64 =1/3 fp3) la potenza nei calcoli FP32 scende di circa il 20% a causa dei consumi aumentati a prescindere dall'effettivo utilizzo della doppia precisione...
E dunque?

ma c'è l'infinity fabric :rolleyes:
Che non ho capito se è un bus esterno o meno. nvidia ha dovuto (far) fare HW apposito e nuovo format per usare nvlink.
Di Vega non si sa nulla di tutto questo (le schede professionali fin qui renderizzate sono solo PCIe).

guarda che si dice che quella versione giri a soli 1200MHz e abbia memorie da 1,4GBps, quindi solo 352GB/s...(fonte guru3d)...
stando le cose è effettivamente ipotizzabile che la Fury vada in certi casi anche molto di più di quel prototipo.
Se è come dici tu, a 1500MHz guadagna il 25% il che vuol dire che andrà il 50% in più di Fiji (nel migliore dei casi) come ho detto al primo post.

tuttodigitale
04-05-2017, 22:30
E dunque?

Niente, obiettavo la tua obiezione. ;)
guarda che possono benissimo coesistere codice FP64 e FP32....nei giochi DX9 era del tutto normale mischiare codice FP16 e FP32...(cosa che porterebbe dei minimi vantaggi a Polaris dovuti al risparmio di banda , dei grossi vantaggi a VEGA e le GPU di PS4 e Scorpio, grazie all'aumento della potenza bruta e ammazzerebbe le prestazioni di Pascal consumer per cause opposte)

il vantaggio neppure piccolo di Kepler su GCN era sul supporto software...sull'HW se permetti ho dei forti dubbi in FP32....


Che non ho capito se è un bus esterno o meno. nvidia ha dovuto (far) fare HW apposito e nuovo format per usare nvlink.
Di Vega non si sa nulla di tutto questo (le schede professionali fin qui renderizzate sono solo PCIe).
in che senso? L'infinity fabric verrà utilizzato per collegare anche i diversi die all'interno dello stesso package.


Se è come dici tu, a 1500MHz guadagna il 25% il che vuol dire che andrà il 50% in più di Fiji (nel migliore dei casi) come ho detto al primo post.
devi anche considerare che la bandwidth passa da 352 a (forse) a 512GB/s...quindi un aumento del 45,6%...
ora l'aumento delle prestazioni medio potrebbe essere più vicino a 45 che non al 25%, tutto dipende da quanto siano limitanti i 352GB/s per un chip con 4096sp a 1,2GHz. Per me un chip del genere è abbondantemente bandwidth limited. Se non lo è AMD ha fatto un vero e proprio miracolo con VEGA considerando quanto le vecchie architetture erano divoratrici di banda passante....(raja koduri in riferimento ai chip Hawaii ha detto che il chip era limitato proprio dalla velocità della RAM nonostante il bus di 512bit....fatto dimostratosi vero con le R9 390x che hanno visto crescere le prestazioni soprattutto grazie alle frequenze più elevate delle memorie...)

tuttodigitale
05-05-2017, 00:10
si, se NCU sono come GNC...
ma non lo sono, quindi quello che scrivi non ha assolutamente valore.

Non lo sono e su questo siamo d'accordo


da quello che ho visto sulle slide di presentazione del chip, Vega sembrerebbe essere un 4 vie, non un 2 vie come siamo abituati oggi.
ogni SP, come ogni cuda core, ha la possibilità di effettuare 2 calcoli alla volta; Vega ne opera il doppio.
è difficile capire quello che hai scritto.
Comunque per togliere ogni forma di equivoci:
ogni CU in VEGA è composto da 64 ALU (sp) in grado di processare 128 ops/clock in FP32, 256ops/clock in FP16 e 64 in FP64.
A parte il fatto di poter eseguire il doppio delle operazioni in mezza precisione non ci sono differenze rispetto a quanto visto in Hawaii.

Quindi per raggiungere i 12,5TFlops FP32 (25 TFlops in mezza precisione :eek: ) da 4096sp, non c'è altra soluzione che aumentare la frequenza di clock.


con Polaris abbiamo visto che i 14nm GloFo non sono adatti ad elevati clock;
sappiamo che la parte più esigente in fatto di assorbimento sono appunto i pixel engine e le geometry pipeline.
GP106 ha dimostrato che il 14nm LPP permette con un architettura adeguata 1,8GHz con un vcore di 1,06V....
il problema dei 1,2V a 1,3GHz è colpa dell'elevato valore di FO4 di GCN...questo è anche uno dei motivi per i quali AMD è in grado di stipare più SP a parità di transistor (spezzare le pipeline e/o implementare soluzioni che permettono di ridurre il FO4 porta ad un aumento importante del numero di transistor)...

e non certo perchè tutto d'un tratto i finfet soffrono di leakage a quelle frequenze....


Vega è un chip 4 vie a 4096 SP che girano a 750mhz massimo, e questo porta vantaggi non solo perchè un singolo SP ora esegue 2 istruzioni totali per ciclo, senza dover mettere o togliere da qualsiasi cache, ma anche nella flessibilità della logica.
fidati che gira alto....


sembra quasi logico che abbiano prodotto un chip con SP che operano nel miglior intervallo di frequenza per prestazione/consumo ed abbiano invece forzato un componente molto meno sacrificato come il compute engine.

non esiste una frequenza ideale, ma piuttosto un Vcore ideale.....il miglior compromesso tra efficienza e prestazioni per mmq viene raggiunto con un Vcore inferiore ai 1,1V....oltrepassato questo valore i finfet perdono molto dei grossi vantaggi che hanno a bassissime tensioni (a 0,7V hanno prestazioni 2,5x superiori ai 28nm...)...

ed è possibile farlo in due modi...abbassando le frequenze e/o abbassando il FO4...la terza via è quella di ridurre molto il FO4 e poter aumentare le frequenze riducendo comunque i consumi......:cool:


si stà parlando di un design totalmente diverso non solo dal precedente, ma da qualsiasi cosa vista fino ad oggi, e tu la bolli come semplice scaling modulare?

comunque che il design di VEGA è diverso e per certi versi "rivoluzionario" è vero.

in breve le modifiche importanti
1) HBCC, gestione della memoria di tipo fine-grained...e la capacità di indirizzamento virtuale pari a 512TB...

2)tile-based rastelizator, il binning dovrebbe permettere di risparmiare una enorme quantità di banda passante...questa novità è stata introdotta da nvidia in maxwell.

3) ROPs ora possono utilizzare la veloce cache L2 invece della RAM...ancora una volta è una modifica che dovrebbe alleviare le sofferenze della banda passante, vero punto debole di GCN .

4)accesso per le texture e pixel alla memoria coerente...questo dovrebbe innalzare notevolmente le prestazioni nello shading differito, che dovrebbe portare un buon beneficio nel render delle texture.

5) primitive shader, è un'altra novità assoluta che verrà introdotta da AMD, ed è un ulteriore passo in avanti nelle eliminazione delle logiche fisse all'interno di una GPU.
questa novità dovrebbe permettere (ma con software next-gen) di scartare un numero elevato di primitive coperte..

6) riduzione del FO4, legata all'aumento della frequenza di clock....

7) la potenza della geometria, già aumentata in Polaris per l'introduzione di uno stadio chiamato Primitive Discard Accelerator (non certo una novità per nvidia), che permette con alti tasso di tassellation e Antialiasing attivo di offrire in casi limite più del doppio delle prestazioni,
http://techreport.com/r.x/rx480review/b3d-poly.png
http://techreport.com/r.x/radeon-r9-fury-x/b3d-poly-throughput.gif
Ma con VEGA farà molto di più....nonostante abbia lo stesso numero di motori geometrici, VEGA a parità di clock dovrebbe offrire un throughput massimo teorico pari a 2,6x a quello visto in Polaris/fiji. quindi circa 17 miliardi di poligoni al secondo contro i "soli" 11 della 1080ti... il principale punto debole dell'architettura GCN potrebbe diventare con VEGA un vero punto di forza....ovvero le architetture di AMD potrebbero per la prima volta da quando è stato introdotto FERMI avere le maggiori prestazioni sulla tessellation

Le SIMDs ad ampiezza variabile sono destinati a rimanere solo un brevetto per il momento. Salvo sorprese

Sono per lo più interventi per sfruttare l'enorme potenza messa a disposizione dai 4096SP anche nei giochi...
un ultima considerazione, spesso si confonde le prestazioni dei giochi con quelle di calcoli....come se una architettura deve andare per forza bene con tutto....
Crapadilegno ha parlato di efficienza computazionale, eppure dai test è possibile osservare il fatto che a parità di TFLOPs, Pascal e in particolare la gtx1080 rende solo il 70% di quanto è possibile immaginare reso possibile da una GPU maxwell con la stessa potenza teorica...in sostanza l'enorme vantaggio visto nei giochi potrebbe essere limitato da ulteriori fattori come la banda passante.

calabar
05-05-2017, 15:33
Io non capisco cosa tu voglia confrontare quando paragoni Vega con il GP102, ...
Il motivo credo sia sempre lo stesso: dimostrare che GNC è un'architettura tutt'altro che pessima (come invece ami ribadire piuttosto spesso) ma che i problemi sono legati a scelte commerciali e non all'incapacità di AMD di realizzare soluzioni tecnicamente valide.
E da notare come le scelte commerciali possano essere frutto non sono di scelte sbagliate, ma anche di compromessi legati alla situazione finanziaria di AMD, non particolarmente brillante (ossia: le risorse limitate di cui disponeva l'hanno costretta a scelte di compromesso che hanno portato ai risultati che possiamo vedere).

C'era una news riguardante il perché e il percome di Fuji da parte di AMD. ... Ma quello mi aveva colpito e che ricordo bene era che avevano fatto tutto in 18 mesi ...
Ed eccolo:
La parte che hai riportato non dice che Fiji è stato progettato in 18 mesi, ma che la decisione di usare le HBM è stata presa appena 18 mesi prima.

CrapaDiLegno
05-05-2017, 16:09
Niente, obiettavo la tua obiezione. ;)
guarda che possono benissimo coesistere codice FP64 e FP32....nei giochi DX9 era del tutto normale mischiare codice FP16 e FP32...(cosa che porterebbe dei minimi vantaggi a Polaris dovuti al risparmio di banda , dei grossi vantaggi a VEGA e le GPU di PS4 e Scorpio, grazie all'aumento della potenza bruta e ammazzerebbe le prestazioni di Pascal consumer per cause opposte)
I calcoli FP16 sono stati abbandonati con la TNT2. Ora, se riesci a convincermi che a tornare a fare i furbetti diminuendo la precisione dei calcoli è un aiuto alla qualità del rendering, torno a montare la Voodoo 3 che aveva proprio quel vantaggio prestazionale rispetto alle nuove GPU che ormai l'avevano lasciata al palo.


il vantaggio neppure piccolo di Kepler su GCN era sul supporto software...sull'HW se permetti ho dei forti dubbi in FP32....
Senza supporto SW, del tuo pezzo di HW super figo non te ne fai proprio nulla. Un bel motore 12 cilindri turbo messo sul un bancale invece che un telaio che non si torce alla sua spinta, rimane fermo. Anche se sviluppa 8000CV. Nessuno ha imposto ad AMD di continuare per anni a infilare sempre più transistor nelle sue GPU e infischiarsene di farle andare come dovevano.
Dacché vediamo cose assurde come Fiji venduto nel mercato consumer...


in che senso? L'infinity fabric verrà utilizzato per collegare anche i diversi die all'interno dello stesso package.
Un bus interno non c'entra nulla con l'nvlink che serve a collegare la GPU al resto del mondo, consumando spazio, pin e tanta corrente per portare fuori i dati. Un bus interno è un'altra cosa e usare l'infinity fabric piuttosto che vattelapesca-nvidia (C) TM (R) brevett del secol o copiato dal garagista che lo ha reso Open Source non cambia assolutamente nulla.
nvidia con il GP100 offre una connessione esterna che AMD per ora non può offrire.


devi anche considerare che la bandwidth passa da 352 a (forse) a 512GB/s...quindi un aumento del 45,6%...
ora l'aumento delle prestazioni medio potrebbe essere più vicino a 45 che non al 25%, tutto dipende da quanto siano limitanti i 352GB/s per un chip con 4096sp a 1,2GHz. Per me un chip del genere è abbondantemente bandwidth limited. Se non lo è AMD ha fatto un vero e proprio miracolo con VEGA considerando quanto le vecchie architetture erano divoratrici di banda passante....(raja koduri in riferimento ai chip Hawaii ha detto che il chip era limitato proprio dalla velocità della RAM nonostante il bus di 512bit....fatto dimostratosi vero con le R9 390x che hanno visto crescere le prestazioni soprattutto grazie alle frequenze più elevate delle memorie...)

Ho scritto tutto un ragionamento sulla memoria per vedere dove conduceva e poi alla fine non ha condotto a nulla perché non sappiamo come funzionerà realmente questo Vega.
Di certo, per quanto detto prima sulla gestione della memoria e della cache, sarà meno bandwidth starved di Polaris, per cui non credo proprio che l'aumento della banda del 45% porterà i TFLOPs ad un medesimo aumento se non in condizioni super particolari (8K con AA 16x?).
La 1080 a 11Gbps vs 10Gbps guadagna qualcosina (uno sputo di frame) solo a 4K che non è certo la sua risoluzione target. Che significa che la banda che ha è per ora sufficiente come dovrebbe esserlo per Vega a fare lo stesso lavoro con gli stessi TFLOPS (se i tuoi numeri sono corretti stiamo parlando di 9.8TFLOPS vs 9TFLOPS e 352GB/s vs 320GB/s).

E come hai detto tu, il GPGPU non è motore di un gioco dove cento altre cose influiscono sulle prestazioni finali visto che questi sono decisamente più complessi di un generico algoritmo di calcolo, quindi se storicamente AMD si è difesa (o conduceva) nei test sintetici di calcolo (d'altronde i TFLOPS e GB/s ce ne sono in abbondanza) ma poi cedeva nei test dei giochi, significa dal test mostrato che nei giochi con quelle impostazioni la scheda non arriva alle prestazioni della 1080.
Salvo miracoli.
Ma a quelli ormai ho perso la speranza dopo tutte le promesse di mirabolanti prodotti futuri mai mantenute da AMD.

CrapaDiLegno
05-05-2017, 16:30
Il motivo credo sia sempre lo stesso: dimostrare che GNC è un'architettura tutt'altro che pessima (come invece ami ribadire piuttosto spesso) ma che i problemi sono legati a scelte commerciali e non all'incapacità di AMD di realizzare soluzioni tecnicamente valide.
E da notare come le scelte commerciali possano essere frutto non sono di scelte sbagliate, ma anche di compromessi legati alla situazione finanziaria di AMD, non particolarmente brillante (ossia: le risorse limitate di cui disponeva l'hanno costretta a scelte di compromesso che hanno portato ai risultati che possiamo vedere).
Il motivo è cercare di ribaltare quello che è la realtà dal lancio dell'R600 nel lontano 2006. Da allora AMD ha inseguito, quasi raggiunto faticosamente nvidia (grazie al disastro del GF100) ma che con la GTX580 è tornata a bastonare AMD in tutti i campi. E non poco.
Nonostante "eh ,ma Terascale fa GPGPU allo sesso livello del G80" e nonostante tutte le scusanti che ancora adesso, in questo tuo stesso commento, stai cercando di trovare.
Un prodotto è valido quando è commercialmente valido. Piazzare una Fury X di fianco ad una 750Ti e dire "eh, ma vedi coma va meglio la prima" non è avere un prodotto valido. E via via tutti i gradini in mezzo fino a quando non hai un prodotto che si avvicina per prestazioni/costi/consumi a quelli della concorrenza.

Tutto questo bailamme su AMD e le Mantle/DX12/Vulkan etc io non lo comprendo perché sinceramente mi sembra una palese vittoria di Pirro.
La 580 super OC da 240W con Doom in Vulkan fa l'8% in più di frame della 1060. Sembrava che con l'Async, Vulkan, il basso livello le schede AMD dovessero strapazzare il mondo, andare fino al 30% in più, spaccare tutto, e invece siamo sempre lì.
Ma a che costo? 30mm^2 in più di silicio, 100W in più e il 30% in più di capacità computazionale con il 25% in più di banda.
Non è una Fury messa a confronto con una 750Ti, ma stiamo sempre parlando di qualcosa che è più grande, più potente, consuma di più (fino al doppio!) per cosa?
Questo io contesto. Non c'è stato alcun cambiamento significativo delle prestazioni di AMD che giustificano tutte le risorse che ha messo in campo e con cui realizza le proprie GPU.
Cosa che è abbastanza palese dal fatto che le sue GPU non vendono (se non le svende nessuno se le c@ga, diciamo le cose come stanno), nvidia ha alzato i prezzi a manetta a cominciare dalla 680 e non ha ancora smesso (anzi, no, forse ha capito che una scheda x80 a 800 euro era un po' troppo anche per lei e si è data una regolata dopo che gli enthusiast pieni di soldi hanno fatto comunque man bassa nei primi mesi).

La questione "AMD poveretta fa quello che può" DEVE FINIRE!
AMD è poveretta perché è lei stessa che svende le sue soluzioni. E lo fa perché le sue soluzioni sono inferiori. E lo sono da un sacco di tempo. Punto. Inutile continuare a menare il can per l'aia, trovare scuse, far finta che certe cose non ci sono state, che certe cose sono state dette e promesse, che i risultati non sono stati quelli attesi.
Quando AMD troverà finalmente il prodotto giusto che competerà con nvidia vedrete che le cose cambieranno per davvero e smetterà di svendere e nvidia smetterà di vendere chippetti del caxxo a prezzi fuori di testa. Allora sono sicuro che tirerete un sospiro di sollievo dicendo "ah, lo avevo detto io (e son 10 anni che velo dico.. come non avete fatto a credermi)?".
Ora state solo mostrando quello che vorreste che fosse quando invece non è.
Domani, forse domani, si spera che le cose siano diverse.
Oggi come ieri (per anni) non lo sono e non lo sono state.


La parte che hai riportato non dice che Fiji è stato progettato in 18 mesi, ma che la decisione di usare le HBM è stata presa appena 18 mesi prima.
Secondo te, quando hanno deciso di usare le HBM, cosa c'era di Fiji visto che per usare le nuove memorie hanno dovuto praticamente fare un chip da zero insieme a tutta una linea di montaggio ad hoc (die+interposer+HBM)?
Guarda che non si è trattato di sistemare 4 cose come ha fatto nvidia con il GF100 rimpiazzato 9 mesi dopo con il GF110 (con già il tapeout del primo fatto e finito).

tuttodigitale
05-05-2017, 17:17
I calcoli FP16 sono stati abbandonati con la TNT2. Ora, se riesci a convincermi che a tornare a fare i furbetti diminuendo la precisione dei calcoli è un aiuto alla qualità del rendering, torno a montare la Voodoo 3 che aveva proprio quel vantaggio prestazionale rispetto alle nuove GPU che ormai l'avevano lasciata al palo.

perchè obietti le cose che dico sparando cazz@te? Questa sarebbe una buona domanda alla quale dovresti rispondere....perchè le spari sempre più grosse?


i calcoli FP16 sono stati ampiamente usati nella PS3 fino a fine vita e soo ampiamente usati nel sottore mobile.....altro che abbandonati con la TNT2....
lo sai vero che a default, le 7800/7900 GTX avevano i pixel shaders che lavoravano a mezza precisione?

i calcoli FP16 sono stati abbandonati con le DX10.

non è che tu ti stia confondendo, la sparo, con la profondità di colore, che tra le altre per il True Color è di 8 bit per colore (i 32 bit invece degli ovvi 24 bit sono usati per ragione di efficienza....il più delle volte gli 8 bit sono stati inutilizzati)...


Senza supporto SW, del tuo pezzo di HW super figo non te ne fai proprio nulla. Un bel motore 12 cilindri turbo messo sul un bancale invece che un telaio che non si torce alla sua spinta, rimane fermo. Anche se sviluppa 8000CV. Nessuno ha imposto ad AMD di continuare per anni a infilare sempre più transistor nelle sue GPU e infischiarsene di farle andare come dovevano.
Dacché vediamo cose assurde come Fiji venduto nel mercato consumer...
non puoi esistere software senza HW. è dal pezzo di silicio che bisogna partire.
Anche GK100 è stato proposto anche per il mercato consumer... non vedo di cosa ti meravigli..


Un bus interno non c'entra nulla con l'nvlink che serve a collegare la GPU al resto del mondo, consumando spazio, pin e tanta corrente per portare fuori i dati. Un bus interno è un'altra cosa e usare l'infinity fabric piuttosto che vattelapesca-nvidia (C) TM (R) brevett del secol o copiato dal garagista che lo ha reso Open Source non cambia assolutamente nulla.
nvidia con il GP100 offre una connessione esterna che AMD per ora non può offrire.
...il nvlink cosa è se non un bus coerente ad alta velocità e bassa latenza, come l'infinity fabric....Guarda che teoricamente l'infinity fabric serve per collegare il mondo....
in alcune slide di AMD c'è una super mega APU (probabilmente ZEN+ e NAVI) dove sono presenti sul package la bellezza di 4 di ZEN x8 e 4 die GPU ognuna con 2 stack di memoria (con ogni probabilità in futuro non useranno più un interposer monolitico....)...quindi il bus serve per collegare il die con il mondo esterno....il fatto che sia a stretto contatto con la GPU dovrebbe ridurre ulteriormente le latenze...stai facendo passare un vantaggio tecnologico, che nvidia non è attualmente in grado di riprodurre poichè non ha CPU all'altezza delle sue GPU, come uno svantaggio.....:mc:

l'infinity fabric non è altro che un estensione dello standard Hyper Transport, introdotto in campo consumer 15 anni fa proprio da AMD....e vorrei ricordarti che l'usare l'HT invece del più lento bus PCI express per collegare le GPU è stata fin da subito un'idea di AMD.... il progetto Torrenza (https://en.wikipedia.org/wiki/Torrenza) datato 2006 ti ricorda qualcosa?
e viene usato nel mercato server per collegare tra loro i due die all'interno del package e le diverse CPU su diversi socket...


Ho scritto tutto un ragionamento sulla memoria per vedere dove conduceva e poi alla fine non ha condotto a nulla perché non sappiamo come funzionerà realmente questo Vega.
anche quando uscirà non se sapremo poi così tanto...
comunque il primo vantaggio e neppure a dirlo, è che VEGA non sarà mai a corto di memoria.....non esisterà problemi di rendering dovuti alla poca VRAM e questo è una piccola rivoluzione....

inoltre AMD ha dimostrato l'efficacia reale di questa tecnologia...
confrontando le prestazioni di VEGA con solo 2 GB di VRAM e HBCC attivo vs 4GB di VRAM in Deus Ex....il risultato a dir poco eclatante, è che le prestazioni con soli 2GB di VRAM sono superiori del 50% nei medi e addirittura +100% per gli fps minimi...

e ricordo che probabilmente con soli 2GB di VRAM e HBCC disattivato non sarebbe neppure in grado di eseguire il benchmark poichè il software non troverebbe spazio sufficiente per l'allocazione....



Di certo, per quanto detto prima sulla gestione della memoria e della cache, sarà meno bandwidth starved di Polaris, per cui non credo proprio che l'aumento della banda del 45% porterà i TFLOPs ad un medesimo aumento se non in condizioni super particolari (8K con AA 16x?).

resta il fatto che per il solo aumento del clock il miglioramento deve per forza essere superiore al 25%..
tu dici che l'aumento di banda del 45% non porterà ad un aumento sostanziale....
ti ricordo 2 questioni...
Fiji come ben saprai (visto che l'hai detto e ribadito giustamente diverse volte) non è in grado di sfruttare la banda passante, aldilà dello spreco, parlo proprio di effettivo utilizzo della banda..questo è dovuto alle prestazioni offerte dalle 64ROPs@1GHz..fatto che rende inutile nei giochi aveva tutta quella potenza lato shader..
la prima GPU di AMD in grado di sfruttare, potenza shader permettendo tutta la banda di 512GB/s sarà proprio VEGA grazie al vertiginoso aumento del pixel-fill rate limited (Fiji se non sbaglio nei sintetici si fermava a circa 330GB/s.....a dimostrazione del fatto che non avevi tutti i torti sulla inutilità delle HBM alla fine delle prestazioni) dovuto all'aumento della frequenza di clock...
praticamente e qui vengo a dunque...a differenza di fiji, VEGA sarà effettivamente in grado di scrivere 512GB/s, un aumento di banda effettiva del 46% alla quale si uniscono le tecnologie per sfruttarla meglio....
ricordo che il risparmio di banda, sempre secondo diversi test, permette a polaris di aumentare virtualmente la banda passante anche del 36% mentre GCN1.2 solo il 16%...risparmiando preziose risorse per le ROPs...a quali appunto si aggiunge tutte le altre caratteristiche che ho già detto.

Ricapitolando:
1) VEGA è effettivamente in grado di scrivere a 512GB/s contro i 330 GB/s di FIJI....un aumento di circa il 50% del bandwidth qualora venissero usate le HBM da 2.0 Gbps.
2) oltre alla maggiore bandwidth, VEGA ha 3 tecnologie, con la compressione dei dati (circa il 15% più efficace di quella vista in fiji), il tile-base rasterizer, e la cache a disposizione delle ROPs...

praticamente ad un aumento di forza bruta del 45% si accompagna ad un aumento effettivo della banda dello stesso valore, più ulteriori vantaggi per le tecnologie sopra..
VEGA nel peggiore dei casi, imho, andrà il 45% più della Fury. Quindi certamente più di una 1080.

ma se VEGA riuscisse ad andare quanto 3x GPU Pitcairn....ovvero come se quelle 64 ROPs potessero effettivamente rendere come se ne fossero 96...
ovvero il 18% medi sulla Fury a parità di clock.....potrebbe andare quanto o persino più di una 1080ti


E come hai detto tu, il GPGPU non è motore di un gioco dove cento altre cose influiscono sulle prestazioni finali visto che questi sono decisamente più complessi di un generico algoritmo di calcolo, quindi se storicamente AMD si è difesa (o conduceva) nei test sintetici di calcolo (d'altronde i TFLOPS e GB/s ce ne sono in abbondanza) ma poi cedeva nei test dei giochi, significa dal test mostrato che nei giochi con quelle impostazioni la scheda non arriva alle prestazioni della 1080.
Salvo miracoli.
Ma a quelli ormai ho perso la speranza dopo tutte le promesse di mirabolanti prodotti futuri mai mantenute da AMD.

come dicevo il problema di Fiji non sono gli shader ma il contorno...

calabar
05-05-2017, 19:12
Il motivo è cercare di ribaltare quello che è la realtà dal lancio dell'R600 nel lontano 2006. ...
LOL hai scritto tutta questa filippica per rispondere a quello che io ho scritto per farti notare una cosa ovvia, che però tu continuavi a dire di non riuscire a capire.

Che AMD debba fare di meglio siamo perfettamente d'accordo, e a mio parere già da qualche anno ha avviato un percorso a lungo termine che la porterà a risollevarsi. Abbiamo cominciato a vederne i frutti con Zen, nei prossimi mesi immagino inizieremo a vedere qualcosa in ambito GPU.
Eh si, Mantle, GNC, il miglior supporto DX12/vulkan fanno parte di questa strategia, che pian piano prende forma. Si, forse fin troppo piano.

"Poverina" l'hai detto tu, non io. Io ho solo cercato di trovare le ragioni che possono aver spinto verso certe scelte. Tu non ci hai neppure provato, ti basta inveire contro AMD e basta.
A questo punto rimane solo da chiederti perchè non tu non ti sia proposto per dirigere AMD, visto che sembra tu sappia benissimo come fare di meglio e in minor tempo. Oh, aspetta...

Secondo te, quando hanno deciso di usare le HBM, cosa c'era di Fiji visto che per usare le nuove memorie hanno dovuto praticamente fare un chip da zero insieme a tutta una linea di montaggio ad hoc (die+interposer+HBM)?
E chi ti dice che il progetto non fosse già da tempo avviato e le HBM siano state l'unico cambiamento di rilievo, mentre buona parte delle novità fossero già a buon punto nello sviluppo?
Anche la linea di montaggio per le HBM non se la sono certo inventata sul momento, il progetto HBM era in sviluppo da molto tempo e quasi finalizzato, in fiji hanno deciso di utilizzarlo sul loro chip.
Sicuramente il chip non esisteva ancora dato che il progetto non era completato, ma questo non significa che abbiano fatto tutto in 18 mesi.

tuttodigitale
05-05-2017, 22:08
Il motivo è cercare di ribaltare quello che è la realtà dal lancio dell'R600 nel lontano 2006. Da allora AMD ha inseguito, quasi raggiunto faticosamente nvidia (grazie al disastro del GF100) ma che con la GTX580 è tornata a bastonare AMD in tutti i campi. E non poco.
AMD ha avuto per anni il chip con le migliori prestazioni per watt e mmq...ti ricordo che AMD nell'era Vliw, ha usato chip da 250-380mmq per la fascia alta....inoltre la GTX580 consumava quanto 2 HD5850 :rolleyes:

Come ha detto calabar, sono le scelte commerciali poco coraggiose, con die size abbondantemente sotto i 500mmq, a condizionare fortemente le capacità dell'architettura...penso che non sia un caso se il reparto GPU è diventato molto più indipendente....

...lato shader il vliw era abbastanza impressionante soprattutto nei giochi se consideri che il tasso di utilizzazione degli slot vliw5 era circa del 70%, e AMD a parità di mmq (e TDP) aveva un throughput teorico superiore del 120% (oltre alla piena potenza FP64...)....

non c'è nessun reale motivo per pensare che una architettura SIMD-vliw sia inadatta al mercato HPC.
il problema non era l'HW ma lo scarso supporto software fornito da AMD...


Ma a che costo? 30mm^2 in più di silicio, 100W in più e il 30% in più di capacità computazionale con il 25% in più di banda.
Non è una Fury messa a confronto con una 750Ti, ma stiamo sempre parlando di qualcosa che è più grande, più potente, consuma di più (fino al doppio!) per cosa?.

ma guada che la versione oc della 580 va il 17% in più a 1440p con AA attivo.

Under the Vulkan API the AMD GPUs perform very well, the AMD Radeon RX 480 is beating the EVGA GTX 1060 SSC GAMING video card by 7%. The PowerColor Red Devil RX 580 Golden Sample is faster by 18% compared to the EVGA card in this game. Though at framerates above 80 FPS it’s honestly hard to tell the difference anyway. All video cards are offering over 70 FPS average framerates.
cioè la RX480 va più veloce (+7%) della versione oc della 1060 6Gb :mc: e giusto per la cronaca questa versione consuma 14W più della rx480...
in Doom Vulkan efficienza superiore del 15-20% unito a maggiori prestazioni come la mettiamo? :rolleyes:
la domanda è sempre la solita...perchè spari queste stupidaggini che sono subito verificabili?
inoltre sull'efficienza computazionale c'è da dire che la RX480 lavora a circa a 1,2GHz ovvero al 95% della frequenza di turbo boost, mentre la 1080 lavora al 108%...ovvero la potenza teorica alle reali frequenze di lavoro sarebbe di circa 5,5TFLOPs per la rx480 e di 4,8 TFLOPs per la GTX1060, per una differenza di circa il 15%...giusto per mettere i punti sulle i, su questa inutile questione.



Secondo te, quando hanno deciso di usare le HBM, cosa c'era di Fiji visto che per usare le nuove memorie hanno dovuto praticamente fare un chip da zero insieme a tutta una linea di montaggio ad hoc (die+interposer+HBM)?
Guarda che non si è trattato di sistemare 4 cose come ha fatto nvidia con il GF100 rimpiazzato 9 mesi dopo con il GF110 (con già il tapeout del primo fatto e finito).
non per difendere calabar, ma secondo te sostituire i MC Gddr5 con quelli HBM richiede una progettazione tale da richiedere 18 mesi?....una modifica del genere di solito richiede 3 mesi, non di più.

18 mesi è il tempo impiegato da AMD per mettere in commercio un'architettura completamente nuova come ZEN su un silicio nuovo....ovviamente ci hanno impiegato ulteriori 3-4 anni per progettarlo (in verità di più visto che moltissimi brevetti sulle cache sono risalenti al 2011...), per un totale di 5/6 anni....

Lo sai vero che AMD lavora dal lontano 2007 alle HBM...
nel 2007 ha collegato per tramite interposer una GPU con memorie DDR3 sullo stesso package...
poi è stato la volta di RV670 (alias hd3870), in cui venivano collegate sempre tramite interposer le gddr3...
poi cypress, con il quale AMD è riuscita ad ottenere uno yeld superiore al 95% sulle poche migliaia di prototipi prodotti....
poi nel H1 2014, nell'immediato post hawaii, hanno fatto un prototipo di una GPU da 502mmq con 4 stack di HBM ed interposer da oltre 800mmq... (PS sono convinto che questa GPU non sarebbe stata molto più lento di Fiji, visto che aveva più di 3200 SP....ma forse solo 5-6 punti percentuali).

stiamo parlando di una tecnologia che da li a poco, sarebbe stata pronta per il mercato consumer...e hanno rischiato, e hanno pure pagato..e non tanto la temibile, come hai scritto, difficoltà avuta con l'interposer (quelle sono state risolte da tempo...yield > 95% ripeto già con il prototipo Cypress del 2011....) ma proprio ai problemi nella fabbricazione delle HBM....
la cosa preoccupante, oggi, che non si hanno notizie di queste fantomatiche memorie HBM2 da 2Gbps.....:rolleyes:

Gyammy85
06-05-2017, 08:29
Io l'ho detto, bisogna tornare al periodo in cui sulle scatole si mettevano i numeri dei triangoli al secondo (10 milioni! 8 trilioni! 9 settimane e mezzo!!) così uno si regola

tuttodigitale
06-05-2017, 23:31
Io l'ho detto, bisogna tornare al periodo in cui sulle scatole si mettevano i numeri dei triangoli al secondo (10 milioni! 8 trilioni! 9 settimane e mezzo!!) così uno si regola
questa è una misura che oggi non ha nessuna utilità per le prestazioni...per farti rendere l'idea il throughput poligonale di Tahiti (HD7970/280x) è identico a quello di Fiji (fury).


Il collo di bottiglia è rappresentato da altri fattori come il pixel e texture fill-rate.
Alcune architetture sono più brave di altre a ridurre il carico di lavoro a parità di scena, e quindi comportarsi in modo equivalente ad un architettura meno raffinata che ha un fill-rate più alto.
Altre possono essere semplicemente bandwidth limited, quindi i valori teorici possono anche rimanere tali...altre ancora per la loro struttura interna possono raggiungere i valori di picco solo certe condizioni..

insomma, va a finire che il valore più onesto sia il risultato del 3dmark...(14-17 anni fa era IL test di riferimento...tanto che molte recensioni erano basate unicamente su questo benchmark....)

ionet
07-05-2017, 17:03
amd non ha nessun problema di architettura,il divario con nvidia e' fisiologico dovuto per lo piu' a uno share dominante da parte del suo antagonista,leggasi swh che favoriscono inevitabilmente quest'ultima:(

faccio un esempio banale,in un mondo ideale amd,dominante con swh che ottimizzano all'estremo o quasi per lei,i giochi andrebbero cosi' bene,+15/20% se non piu',che puo' perfino permettersi di tagliare clock e V facendo crollare di conseguenza anche i consumi

una rx 580 consumerebbe come una 1060 se downcloccata/voltata andando +/- uguali grazie a vulkan...
ma purtroppo amd e' costretta a giocare di spada(overclock/volt)quando regna bastoni e...purtroppo prende bastonate:(

molti aspettano vega con impazienza pensando,sperando che questa e' la volta buona per amd di mostrare quanto vale,ma tanto se gli si dara' in pasto codice non ottimizzato per il suo modus operandi,continuera' a fare schifo

l'unico modo per andare come nvidia con sw scritto come direttive nvidia,e' che amd smetta di produrre suoi prodotti,e chiede a nvidia appunto la licenza per produrre i loro prodotti con le stesse maschere,stesse fabbriche e stessi driver
solo cosi' raggiungerebbe nvidia,uguali prestazioni e consumi
provando qualunque alternativa deve sommare overhead che poi tamponera' con OC/V e il ciclo ricomincia:(

piu' che vega come cavallo da battaglia,per spezzare questo circolo vizioso ad amd serve un jolly gia' in cantiere,un "giocattolino"
nome in codice Raven Ridge;)

Gyammy85
08-05-2017, 10:40
una rx 580 consumerebbe come una 1060 se downcloccata/voltata andando +/- uguali grazie a vulkan...
ma purtroppo amd e' costretta a giocare di spada(overclock/volt)quando regna bastoni e...purtroppo prende bastonate:(

molti aspettano vega con impazienza pensando,sperando che questa e' la volta buona per amd di mostrare quanto vale,ma tanto se gli si dara' in pasto codice non ottimizzato per il suo modus operandi,continuera' a fare schifo


Quanto pessimismo...la 580 va più della 1060 da 9gbps? si nella maggior parte dei casi
La furyx va più della 980ti? si nella maggior parte dei casi, e si comporta bene anche nei confronti della 1080 alle alte res

I fatti sono questi, se uno deve spalare fango su amd perché va di moda è un altro discorso, poi la storia dei consumi rasenta il ridicolo ormai, quante volte le nvidia hanno consumato più delle amd di pari fascia? le pascal grazie che consumano meno, emulano tutto via software...in rendering puro una 480 diverse volte fa sfigurare 1070 e 1080 powa...sono scelte di progettazione

tuttodigitale
08-05-2017, 15:38
I fatti sono questi, se uno deve spalare fango su amd perché va di moda è un altro discorso, poi la storia dei consumi rasenta il ridicolo ormai, quante volte le nvidia hanno consumato più delle amd di pari fascia? le pascal grazie che consumano meno, emulano tutto via software...in rendering puro una 480 diverse volte fa sfigurare 1070 e 1080 powa...sono scelte di progettazione
sui consumi basta prendere una delle tante 1060 OC e queste consumano 15-20W più di una rx480 reference, e non è detto che vada di più...

quello della perdita di efficienza in OC è un problema comune e questo non ha di certo fermato i produttori di VGA.

Detto questo sono convinto che AMD ha tutto l'occorrente (ZEN+VEGA+HBM+HSA) per fare molto molto bene nel mercato HPC.

majinbu7
08-05-2017, 16:19
Quanto pessimismo...la 580 va più della 1060 da 9gbps? si nella maggior parte dei casi
La furyx va più della 980ti? si nella maggior parte dei casi, e si comporta bene anche nei confronti della 1080 alle alte res

I fatti sono questi, se uno deve spalare fango su amd perché va di moda è un altro discorso, poi la storia dei consumi rasenta il ridicolo ormai, quante volte le nvidia hanno consumato più delle amd di pari fascia? le pascal grazie che consumano meno, emulano tutto via software...in rendering puro una 480 diverse volte fa sfigurare 1070 e 1080 powa...sono scelte di progettazione

https://www.techpowerup.com/reviews/EVGA/GTX_1080_Ti_SC2/31.html

Se il 30% di prestazioni in meno in 4k vuol dire che la furyx si comporta bene nei confronti della 1080 , allora ha ragione tu Gnammy :doh: :doh: :doh:
Ps: sempre più convinto tu sia pagato da AMD per trolleggiare sui vari forum :asd:

tuttodigitale
08-05-2017, 20:24
Quanto pessimismo...la 580 va più della 1060 da 9gbps? si nella maggior parte dei casi
La furyx va più della 980ti? si nella maggior parte dei casi, e si comporta bene anche nei confronti della 1070 alle alte res

*fixed
la 1080 ha tutt'altre prestazioni

EDIT
ho notato una cosa, nei (oramai sono diversi) titoli in cui la Fury è più veloce della 1070 in FHD e 1440p , perde inspiegabilmente colpi in 4k (questi titoli sono una minoranza, ad esempio non si verifica in Doom e f1 2016 dove la differenza con la 1080 è di appena il 10%). Come Deus EX dove la Fury parte con un leggero (consistente) vantaggio sulla 1070 (980ti) : 2% (12%) a 1080p e 3,5% (14%) a 1440p, quindi con un andamento che la vede privilegiare le alte risoluzioni, la Fury X a 4k diventa la più lenta carta tra le 3: -16% 1070 e -6% sulla 980ti...La storia è la medesima con Battlefield, anzi addirittura la Fury è a -13% dalla 980ti e -23% dalla 1070..
nonostante queste mancanze è mediamente più veloce di una 980ti a 4k.

è interessante notare che AMD ha fatto i test proprio con Deus Ex e grazie all'uso del HBCC ha ottenuto con VEGA e soli 2GB di VRAM prestazioni superiori rispetto a quanto possibile con i 4GB (che per quel titolo sono assolutamente insufficienti..)

Gyammy85
09-05-2017, 08:20
https://www.techpowerup.com/reviews/EVGA/GTX_1080_Ti_SC2/31.html

Se il 30% di prestazioni in meno in 4k vuol dire che la furyx si comporta bene nei confronti della 1080 , allora ha ragione tu Gnammy :doh: :doh: :doh:
Ps: sempre più convinto tu sia pagato da AMD per trolleggiare sui vari forum :asd:

:rolleyes: mettiamola così allora: la differenza alle alte res fra la furyx e la 1080 è spesse volte inferiore a quella che c'è fra la 1070 e la 1080, ti va bene così? Ovviamente no, comunque se ti sto così antipatico puoi semplicemente passare oltre e non quotarmi per forza

dado1979
09-05-2017, 08:31
:rolleyes: mettiamola così allora: la differenza alle alte res fra la furyx e la 1080 è spesse volte inferiore a quella che c'è fra la 1070 e la 1080, ti va bene così? Ovviamente no, comunque se ti sto così antipatico puoi semplicemente passare oltre e non quotarmi per forza
Come fa ad essere vero se la 1070 va leggermente meglio della Fury X?

majinbu7
09-05-2017, 09:40
:rolleyes: mettiamola così allora: la differenza alle alte res fra la furyx e la 1080 è spesse volte inferiore a quella che c'è fra la 1070 e la 1080, ti va bene così? Ovviamente no, comunque se ti sto così antipatico puoi semplicemente passare oltre e non quotarmi per forza

Antipatico? ma se manco ti conosco...mi urtano solo le cavolate che spari che non stanno ne in cielo ne in terra.

Come fa ad essere vero se la 1070 va leggermente meglio della Fury X?

Lascia stare è una causa persa...ho avuto a che fare con parecchi Funboy di diversi marchi in passato...ma Gnammy nel suo genere è unico, vede solo quel che vuole , si è creato il suo piccolo mondo dove è lui a decidere cosa è meglio o peggio, e fin qui nulla da dire, ma dal momento che vuole anche farlo credere scrivendo su di un forum pubblico beh... :banned: