View Full Version : Nvidia: architettura Ampere cuore delle future GeForce, ma con una configurazione diversa
Redazione di Hardware Upg
15-05-2020, 08:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/nvidia-architettura-ampere-cuore-delle-future-geforce-ma-con-una-configurazione-diversa_89374.html
Il CEO di Nvidia, Jen-Hsun Huang, ha confermato che l'architettura Ampere presentata nelle scorse sarà la base anche delle future schede video GeForce e Quadro. La configurazione delle GPU sarà però diversa dal nuovo GA100 in modo da rispondere alle necessità dei singoli mercati.
Click sul link per visualizzare la notizia.
la vedo brutta per amd se non tira fuori velocemente qualcosa.
cmq... 3080ti + oled 120hz, muoviti ad uscire :D
Gyammy85
15-05-2020, 10:01
la vedo brutta per amd se non tira fuori velocemente qualcosa.
cmq... 3080ti + oled 120hz, muoviti ad uscire :D
Finora l'unica cosa che si è vista è un chip da 826 mm2(!) da 400w di tdp(!) e 19 tf, sul nodo nuovo, a 1400 mhz
Ora immagino che sulla gaming tolgano roba "inutile" (ma anche no) e che la farciscano di rt cores, alla fine verrà fuori una roba da 770 mm2 (volta è 815 e tu102 754), e probabilmente clockerà più bassa di turing (a meno che non vogliano metterci 500 watt di tdp), sempre sul nodo "nuovo"
Hype a mille, per una cosa che è praticamente un pachiderma peggio di turing, ma sul nodo "nuovo"...
Finora l'unica cosa che si è vista è un chip da 826 mm2(!) da 400w di tdp(!) e 19 tf, sul nodo nuovo, a 1400 mhz
Ora immagino che sulla gaming tolgano roba "inutile" (ma anche no) e che la farciscano di rt cores, alla fine verrà fuori una roba da 770 mm2 (volta è 815 e tu102 754), e probabilmente clockerà più bassa di turing (a meno che non vogliano metterci 500 watt di tdp), sempre sul nodo "nuovo"
Hype a mille, per una cosa che è praticamente un pachiderma peggio di turing, ma sul nodo "nuovo"...Non è un problema se ci sono le performance.
Gyammy85
15-05-2020, 10:23
Non è un problema se ci sono le performance.
Certo ci mancherebbe, sai com'è, qualche tempo fa si disquisiva sul costo in bolletta della 580 sulla 1060 su questo forum, pagine e pagine
ninja750
15-05-2020, 10:29
Certo ci mancherebbe, sai com'è, qualche tempo fa si disquisiva sul costo in bolletta della 580 sulla 1060 su questo forum, pagine e pagine
bei tempi
nei conti c'erano tipo 4 o 5 ore di game al giorno, tutti i giorni, festivi compresi
adesso che consumano grossomodo uguale "eh ma c'è il PP diverso"
domani che consumeranno di più "non è un problema se ci sono le perf"
Non è un problema se ci sono le performance.
sarebbe meglio, a questo punto, spendere un po' di tempo per fare una tecnologia driver con un layer che faccia apparire 2 schede grafiche come una sola.
d'altra parte sopra le 2080 Ti hai ancora un NVlink da 100GB/s; perchè non sfruttarla a dovere?
in questo modo raddoppi la potenza ed alla fine non consumerebbe tanto di più.
questa genera 20TF per 400W, ne otteni già oggi da 25 a 30TF con la vecchia ed inefficiente tecnologia SLI per "soli" 560W...
Finora l'unica cosa che si è vista è un chip da 826 mm2(!) da 400w di tdp(!) e 19 tf, sul nodo nuovo, a 1400 mhz
Ora immagino che sulla gaming tolgano roba "inutile" (ma anche no) e che la farciscano di rt cores, alla fine verrà fuori una roba da 770 mm2 (volta è 815 e tu102 754), e probabilmente clockerà più bassa di turing (a meno che non vogliano metterci 500 watt di tdp), sempre sul nodo "nuovo"
Hype a mille, per una cosa che è praticamente un pachiderma peggio di turing, ma sul nodo "nuovo"...
Certo ci mancherebbe, sai com'è, qualche tempo fa si disquisiva sul costo in bolletta della 580 sulla 1060 su questo forum, pagine e pagine
bei tempi
nei conti c'erano tipo 4 o 5 ore di game al giorno, tutti i giorni, festivi compresi
adesso che consumano grossomodo uguale "eh ma c'è il PP diverso"
domani che consumeranno di più "non è un problema se ci sono le perf"
sarebbe meglio, a questo punto, spendere un po' di tempo per fare una tecnologia driver con un layer che faccia apparire 2 schede grafiche come una sola.
d'altra parte sopra le 2080 Ti hai ancora un NVlink da 100GB/s; perchè non sfruttarla a dovere?
in questo modo raddoppi la potenza ed alla fine non consumerebbe tanto di più.
questa genera 20TF per 400W, ne otteni già oggi da 25 a 30TF con la vecchia ed inefficiente tecnologia SLI per "soli" 560W...
Ma vi rendete conto che la controparte ha 1/5 dei transitor e consuma oltre i 200w con lo stesso nodo.
In quei 400w ci sono nvilink le memorie con un bus spaventoso fp64 40mb l1 e altro, tutte cose che nelle quadro non ci saranno.
I consumi probabilmente resteranno nei 300 w nel segmento consumer come è giusto che sia.
IMHO
Ale55andr0
15-05-2020, 12:23
Certo ci mancherebbe, sai com'è, qualche tempo fa si disquisiva sul costo in bolletta della 580 sulla 1060 su questo forum, pagine e pagine
esattamente, quale parte della parola "perfomance" ti sei perso? Perchè un conto è consumare tanto e andare meno o uguale, un'altro consumare tanto ma andare di più. Ovvio che "per consumare tanto e andare di più" non si intende bere 75w e più extra per andare qualche punto percentuale in più eh, no perchè avere il tdp di una top/quasi top rivale con prestazioni da fascia media è ridicolo...e con un nodo di vantaggio eh (chissà a chi mi riferisco :asd:)
Comunque mi chiedo ancora perchè ci perdo pure tempo. A ogni modo due domande, ogni tanto, fattele.
ninja750
15-05-2020, 13:15
ai tempi si disquisiva tra 1060 e 580 quando la seconda andava poco di più per consumare poco di più, adesso la top amd è 5700xt che (reference) va più o meno come 2070s consumando più o meno uguale, parliamo di due coppie di vga stessa fascia e coetanee tra loro, che siano su due nodi diversi gli occhi degli utenti e i loro alimentatori non lo vedono *
se poi vogliamo parlare della vga in oggetto al topic aspettiamo che esca (?) per vedere prestazioni e consumi con quello che offrirà (se offrirà) la controparte in quel periodo
* tralasciando il particolare portafoglio
nickname88
15-05-2020, 13:34
Certo ci mancherebbe, sai com'è, qualche tempo fa si disquisiva sul costo in bolletta della 580 sulla 1060 su questo forum, pagine e pagine
Capisco che il QI di certi individui sia più basso della media tanto da non essere capaci ci comprendere cosa sia il performance /watt, ma la 580 andava uguale o poco più di una 1060 ma consumando oltre una 1080.
La 590 ancora peggio.
ai tempi si disquisiva tra 1060 e 580 quando la seconda andava poco di più per consumare poco di piùLa 580 consumava poco di più di una 1060 ?
Diciamo quasi il doppio :rolleyes:
Gyammy85
15-05-2020, 14:23
esattamente, quale parte della parola "perfomance" ti sei perso? Perchè un conto è consumare tanto e andare meno o uguale, un'altro consumare tanto ma andare di più. Ovvio che "per consumare tanto e andare di più" non si intende bere 75w e più extra per andare qualche punto percentuale in più eh, no perchè avere il tdp di una top/quasi top rivale con prestazioni da fascia media è ridicolo...e con un nodo di vantaggio eh (chissà a chi mi riferisco :asd:)
Comunque mi chiedo ancora perchè ci perdo pure tempo. A ogni modo due domande, ogni tanto, fattele.
Tu eri quello che diceva "se pascal clockava a 2ghz ampere minimo clocka a 2,5", ma vabbè dai messaggio ricevuto, 400 watt più che giustificati per far girare 6900 sp a 1400 mhz, voglio proprio vedere come la cutteranno e tireranno per farla uscire a 1,8 GHz entro i 300 watt
Capisco che il QI di certi individui sia più basso della media tanto da non essere capaci ci comprendere cosa sia il performance /watt, ma la 580 andava uguale o poco più di una 1060 ma consumando oltre una 1080.
La 590 ancora peggio.
La 580 consumava poco di più di una 1060 ?
Diciamo quasi il doppio :rolleyes:
Si dai consumava quanto una 1080ti e almeno il doppio di una 1060
antani^2
15-05-2020, 14:25
Ma vi rendete conto che la controparte ha 1/5 dei transitor e consuma oltre i 200w con lo stesso nodo.
In quei 400w ci sono nvilink le memorie con un bus spaventoso fp64 40mb l1 e altro, tutte cose che nelle quadro non ci saranno.
I consumi probabilmente resteranno nei 300 w nel segmento consumer come è giusto che sia.
IMHO
Giusto un dettaglio che per avere un tdp di "appena" 400watt debba clockare come a 28nm
Con il clock puoi gestire il tdp come ti pare, quindi il paragone non serve a nulla, la 5700 a 1v consuma nettamente meno della XT a 1.2 v, eppure è lo stesso chip.
Il punto è che GA100 a 7nm+ clocka meno che GV100a 12nm FFN con lo stesso die size, densità scellerata, totalmente votata alla parallelizzazione il che può anche andar bene in quel settore, ma auguratevi che su desktop non esca un chip simile o sono caxxi.
per farti un paragone 2080ti tu102 è 750mmq, gv100 è 815mmq, se questa è post volta/turing ed è la base anche per le gaming, +750mmq sono garantiti per ga102 3080ti... Auguri, 1500$ e bios da 500watt incoming.
antani^2
15-05-2020, 14:29
Tu eri quello che diceva "se pascal clockava a 2ghz ampere minimo clocka a 2,5", ma vabbè dai messaggio ricevuto, 400 watt più che giustificati per far girare 6900 sp a 1400 mhz, voglio proprio vedere come la cutteranno e tireranno per farla uscire a 1,8 GHz entro i 300 watt
Si dai consumava quanto una 1080ti e almeno il doppio di una 1060
eh vabbeh poverino, glielo ha detto il guru per mesi, che ci credeva.
cronos1990
15-05-2020, 14:39
Non che mi freghi, ma su un sito "di sicura affidabilità" :asd: quale TomH danno che la Nvidia 1060 consuma intorno a 120W a pieno carico, mentre la RX580 intorno ai 220W.
Su un altro sito parlano di valori (misurati tramite GPU-Z) di un consumo per la 1060 di 120W (130W in OC), mentre per la RX580 di 175W (215W in OC).
Non sarà il doppio, ma neanche ci va tanto distante; quale che sia la fonte di riferimento, salta fuori che la RX580 consuma senza colpo ferire un buon 50-70% (a spanne) di più della 1060.
antani^2
15-05-2020, 14:43
Non che mi freghi, ma su un sito "di sicura affidabilità" :asd: quale TomH danno che la Nvidia 1060 consuma intorno a 120W a pieno carico, mentre la RX580 intorno ai 220W.
Su un altro sito parlano di valori (misurati tramite GPU-Z) di un consumo per la 1060 di 120W (130W in OC), mentre per la RX580 di 175W (215W in OC).
Non sarà il doppio, ma neanche ci va tanto distante; quale che sia la fonte di riferimento, salta fuori che la RX580 consuma senza colpo ferire un buon 50-70% (a spanne) di più della 1060.
50% si, il doppio no, è anche vero che va da uguale ad un 20% in più soprattutto in titoli recenti..
poi se come al solito si vuole confrontare la 1060 downclock con la 580 supermegaclocked... beh, siamo alle solite
il punto è, 50watt, 0,05kwh... uhm...
cronos1990
15-05-2020, 14:52
Come detto, frega zero.
Ma mi piacerebbe vedere un pò più di equilibrio e obiettività, soprattutto su certi argomenti che lasciano poco spazio ai dubbi. Siamo passati dal lamentarci dei consumi Nvidia per poi minimizzare la differenza tra 580/1060 (uno) a dichiarare che una scheda consuma il doppio dell'altra senza considerare tutti gli altri aspetti prestazioni incluse (l'altro).
Per quello ero curioso di trovare dei valori per avere giusto un'idea. E comunque neanche in OC la RX580 consuma il doppio della 1060 senza OC.
antani^2
15-05-2020, 14:54
Come detto, frega zero.
Ma mi piacerebbe vedere un pò più di equilibrio e obiettività, soprattutto su certi argomenti che lasciano poco spazio ai dubbi. Siamo passati dal lamentarci dei consumi Nvidia per poi minimizzare la differenza tra 580/1060 (uno) a dichiarare che una scheda consuma il doppio dell'altra senza considerare tutti gli altri aspetti prestazioni incluse (l'altro).
Per quello ero curioso di trovare dei valori per avere giusto un'idea. E comunque neanche in OC la RX580 consuma il doppio della 1060 senza OC.
i watt è uno dei problemi, quello che emerge maggiormente da ampere è che i clock sono molto bassi, il che dovrebbe riservarsi anche sulle gaming essendo la stessa base con "tolto fp e metto rt", al massimo risparmi nvlink, ma pare un turing 2.0...
Giusto un dettaglio che per avere un tdp di "appena" 400watt debba clockare come a 28nm
Con il clock puoi gestire il tdp come ti pare, quindi il paragone non serve a nulla, la 5700 a 1v consuma nettamente meno della XT a 1.2 v, eppure è lo stesso chip.
Il punto è che GA100 a 7nm+ clocka meno che GV100a 12nm FFN con lo stesso die size, densità scellerata, totalmente votata alla parallelizzazione il che può anche andar bene in quel settore, ma auguratevi che su desktop non esca un chip simile o sono caxxi.
per farti un paragone 2080ti tu102 è 750mmq, gv100 è 815mmq, se questa è post volta/turing ed è la base anche per le gaming, +750mmq sono garantiti per ga102 3080ti... Auguri, 1500$ e bios da 500watt incoming.
Ma secondo te una padella del genere doveva cloccare 2000.
Ampere è il successore di volta a 12nm che boosta sui 1500 con 50w in meno, ampere 1400 con 2,5 volte i transistor.
Cos'è che non ti torna, basta un po' di matematica per capire che il salto è importante a livello energetico.
Poi come ho già detto queste non si possono paragonare a quelle che saranno le future quadro.
Troppe le differenze.
IMHO
Pensate che Nvidia a settembre/ottobre ,questo chip ,con queste caratteristiche,lo proporrà anche su una eventuale "Titan A" come fu a suo tempo per la "V"?
antani^2
15-05-2020, 15:04
Ma secondo te una padella del genere doveva cloccare 2000.
Ampere è il successore di volta a 12nm che boosta sui 1500 con 50w in meno, ampere 1400 con 2,5 volte i transistor.
Cos'è che non ti torna, basta un po' di matematica per capire che il salto è importante a livello energetico.
Poi come ho già detto queste non si possono paragonare a quelle che saranno le future quadro.
Troppe le differenze.
IMHO
matematica, ma il doppio salto nodo lo lasciamo a casa?
si passa dai 16nm(12FFN) ai 7N+... c'è almeno il doppio della densità data solo dal nodo, poi il fatto che abbiano optato per aumentare ancora la densità si sono giocati l'aumento clock, che poi molto di quella densità è data dai 40mb di L2, e la cache ha di natura densità superiore a qualsiasi circuito logico.
eh invece si, guarda che Turing è Volta senza FP nvlink ma in più RT (i tensor ci sono in entrambe)
e sono passati da 815mmq GV100 HPC 1500mhz a 750mmq TU102 Gaming 1800mhz.
il parallelo tra Ampere hpc e gaming sarà simile, e se questa clocka 1400 a 400watt...
ps. che sono 48mb di L2, 8 sono laserati per rese assieme ad altro... che pacco.
Ale55andr0
15-05-2020, 15:04
ai tempi si disquisiva tra 1060 e 580 quando la seconda andava poco di più per consumare poco di più, adesso la top amd è 5700xt che (reference) va più o meno come 2070s consumando più o meno uguale, parliamo di due coppie di vga stessa fascia e coetanee tra loro, che siano su due nodi diversi gli occhi degli utenti e i loro alimentatori non lo vedono *
se poi vogliamo parlare della vga in oggetto al topic aspettiamo che esca (?) per vedere prestazioni e consumi con quello che offrirà (se offrirà) la controparte in quel periodo
* tralasciando il particolare portafoglio
a parte che non va più o meno uguale ma meno della 2070s sfugge che ha un nodo di vantaggio la AMD...ergo in proporzione continua a bere uno strafottio..
antani^2
15-05-2020, 15:05
Pensate che Nvidia a settembre/ottobre ,questo chip ,con queste caratteristiche,lo proporrà anche su una eventuale "Titan A" come fu a suo tempo per la "V"?
molto probabile, 5000$
antani^2
15-05-2020, 15:06
a parte che non va più o meno uguale ma meno della 2070s sfugge che ha un nodo di vantaggio la AMD...ergo in proporzione continua a bere uno strafottio..
la 5700 a 1v batte/pareggia la 2070 e consuma meno, di che parli.
la xt è OC di fabbrica per stare più vicina possibile alla 2070super, sono SCELTE i clock e tdp.
cronos1990
15-05-2020, 15:12
a parte che non va più o meno uguale ma meno della 2070s sfugge che ha un nodo di vantaggio la AMD...ergo in proporzione continua a bere uno strafottio..Ho perso un mese di tempo tra recensioni e prove fatte sul campo, ne ho lette a trilioni e mi sono fatto pure dei calcoli.
Alla fine emerse che mediamente la SUPER2070 andava il 4,6% in più della 5700XT. Il che, tradotto in frame, parliamo di 63 contro 60 FPS (arrotondato per eccesso). Poi chiaramente c'erano delle variazioni in più o in meno a seconda del gioco, in alcuni (rari) casi la 5700XT andava più veloce. Ma escludendo alcuni giochi con differenze eclatanti, in pratica una manciata minima, la differenza era intorno a quel valore.
Tradotto: de facto andavano uguale, la differenza tra le due schede era tale da non offrire reali differenze prestazionali, a meno che qualcuno fosse in grado di notare differenze tra 63 e 60 FPS. In compenso la scheda Nvidia costava 100 e passa euro di più. Tra l'altro nei test la SUPER2070 non era neanche propriamente a livello Reference.
[ EDIT ]
Postilla: del nodo di vantaggio me ne frego bellamente. Può interessare lato tecnico, ma una volta che ho definito fascia di prezzo e di conseguenza prestazioni mi ritrovavo a scegliere tra due schede che andavano pressochè uguale ma con una notevole differenza di prezzo (la 5700XT l'ho trovata a 380 euro, la 2070SUPER sfiorava i 500 euro).
Ale55andr0
15-05-2020, 15:15
Tu eri quello che diceva "se pascal clockava a 2ghz ampere minimo clocka a 2,5",[quote]
a parte il fatto che sta frase non la ricordo, ergo ti pregherei di quotarmela (ma non è quello il punto/problema), continui sempre a essere totalmente fuori facendo paragoni del menga: sai, anche in AMD il chip più grosso è, e meno sale.. lo faccia amd un chip da 8192sp e 800mm^2 e in proporzione clockerà meno..., il ragionamento non cambia di UNA virgola :rolleyes: no perchè tu saresti capace di dire AMD è meglio in clock perchè una 5700xt con 250mm^2 fa 2ghz contro un chip da 800 :asd:
Prendi una 3070 e cedrai se cloccerà meno di una 6700xt, questo si chiama essere OBIETTIVI, ma capisco che la cosa ti sia impossibile...
[quote]ma vabbè dai messaggio ricevuto, 400 watt più che giustificati per far girare 6900 sp a 1400 mhz, voglio proprio vedere come la cutteranno e tireranno per farla uscire a 1,8 GHz entro i 300 watt
non ho hai ricevuto proprio una mazza, perchè se io con 400w vado il 50-60% in più di una vga che consuma uguale, io sono sempre Dio in efficienza rispetto a te. Se io ne consumo DUEMILA, e continuo ad andare il 50-60% più di te con lo stesso consumo, io resto Dio in efficienza rispetto a te. E' chiaro? Afferri? Entiende? Ma ripeto, tempo perso, "ragionare" con te non serve a nulla
Ale55andr0
15-05-2020, 15:16
Postilla: del nodo di vantaggio me ne frego bellamente. Può interessare lato tecnico, ma una volta che ho definito fascia di prezzo e di conseguenza prestazioni mi ritrovavo a scegliere tra due schede che andavano pressochè uguale ma con una notevole differenza di prezzo (la 5700XT l'ho trovata a 380 euro, la 2070SUPER sfiorava i 500 euro).
tuo problema, perchè la cosa significa che a pari nodo nvdia, se AMD non si sveglia, la farà a PEZ-ZI
FrancoBit
15-05-2020, 15:17
bei tempi
nei conti c'erano tipo 4 o 5 ore di game al giorno, tutti i giorni, festivi compresi
adesso che consumano grossomodo uguale "eh ma c'è il PP diverso"
domani che consumeranno di più "non è un problema se ci sono le perf"
Sbavo, non tanto per le schede, quanto per le sane 4-5 ore di gaming al giorno :cry:
matematica, ma il doppio salto nodo lo lasciamo a casa?
si passa dai 16nm(12FFN) ai 7N+... c'è almeno il doppio della densità data solo dal nodo, poi il fatto che abbiano optato per aumentare ancora la densità si sono giocati l'aumento clock, che poi molto di quella densità è data dai 40mb di L2, e la cache ha di natura densità superiore a qualsiasi circuito logico.
eh invece si, guarda che Turing è Volta senza FP nvlink ma in più RT (i tensor ci sono in entrambe)
e sono passati da 815mmq GV100 HPC 1500mhz a 750mmq TU102 Gaming 1800mhz.
il parallelo tra Ampere hpc e gaming sarà simile, e se questa clocka 1400 a 400watt...
Mi sa che hai ragione te.
Torno a studiare perché sembra che la matematica nel frattempo sia cambiata.
cronos1990
15-05-2020, 15:19
tuo problema, perchè la cosa significa che a pari nodo nvdia, se AMD non si sveglia, la farà a PEZ-ZIIo non ho problemi, tu invece cambi discorso.
Hai contestato che le due schede andassero più o meno uguale. Io ho risposto a quello specifico quesito facendoti notare che invece è proprio questa la realtà.
Poi, ripeto: dei processi produttivi, dei nodi a 7-12nm, dello schema elettronico, della presenza o meno di RT (pressochè inutile sulla 2070SUPER) e di tante altre amenità se ne può anche discutere, ma interessa più lato tecnico che altro.
A livello di prestazioni sul campo, le differenze sono talmente minime da essere trascurabili.
antani^2
15-05-2020, 15:25
a parte il fatto che sta frase non la ricordo, ergo ti pregherei di quotarmela (ma non è quello il punto/problema), continui sempre a essere totalmente fuori facendo paragoni del menga: sai, anche in AMD il chip più grosso è, e meno sale.. lo faccia amd un chip da 8192sp e 800mm^2 e in proporzione clockerà meno..., il ragionamento non cambia di UNA virgola :rolleyes: no perchè tu saresti capace di dire AMD è meglio in clock perchè una 5700xt con 250mm^2 fa 2ghz contro un chip da 800 :asd:
Prendi una 3070 e cedrai se cloccerà meno di una 6700xt, questo si chiama essere OBIETTIVI, ma capisco che la cosa ti sia impossibile...
non ho hai ricevuto proprio una mazza, perchè se io con 400w vado il 50-60% in più di una vga che consuma uguale, io sono sempre Dio in efficienza rispetto a te. Se io ne consumo DUEMILA, e continuo ad andare il 50-60% più di te con lo stesso consumo, io resto Dio in efficienza rispetto a te. E' chiaro? Afferri? Entiende? Ma ripeto, tempo perso, "ragionare" con te non serve a nulla
ma se siete andati avanti mesi a dire che post turing clockava 2.4-2.5ghz boost senza fare i conti con l'oste.
cerca su internet, "clock regression"
quindi delle rese e dei costi chissenefrega?
allora perchè non fanno chip da 2000mmq
eppure sono anni che scrivi su sto forum...
tuo problema, perchè la cosa significa che a pari nodo nvdia, se AMD non si sveglia, la farà a PEZ-ZI
tu compri il prodotto finito, non il silicio...
Sbavo, non tanto per le schede, quanto per le sane 4-5 ore di gaming al giorno :cry:
quoto
Mi sa che hai ragione te.
Torno a studiare perché sembra che la matematica nel frattempo sia cambiata.
mi spiace ma classica risposta di chi non sa più cosa rispondere...
ma se siete andati avanti mesi a dire che post turing clockava 2.4-2.5ghz boost senza fare i conti con l'oste.
cerca su internet, "clock regression"
quindi delle rese e dei costi chissenefrega?
allora perchè non fanno chip da 2000mmq
eppure sono anni che scrivi su sto forum...
tu compri il prodotto finito, non il silicio...
quoto
mi spiace ma classica risposta di chi non sa più cosa rispondere...
Sinceramente non saprei cosa dirti, a quanto pare abbiamo avuto istruzioni diverse su come contare.
Comunque riprovo, un si sa mai.
Navi 10mld di transistor 220w 7nm 1600 /1700 mhz
Ampere 54mld di transistor 400w 7nm 1400mhz
Tralasciando le prestazioni, secondo te chi ha la migliore efficienza energetica.
antani^2
15-05-2020, 16:09
Sinceramente non saprei cosa dirti, a quanto pare abbiamo avuto istruzioni diverse su come contare.
Comunque riprovo, un si sa mai.
Navi 10mld di transistor 220w 7nm 1600 /1700 mhz
Ampere 54mld di transistor 400w 7nm 1400mhz
Tralasciando le prestazioni, secondo te chi ha la migliore efficienza energetica.
ma lo sai vero che il 3900x ha un efficienza superiore al 3700x? secondo te perchè? soprattutto in carichi di lavoro multithread...
che poi quale 1600/1700? ma se clocka a +1900 stock, oltretutto su 7N lisci, non 7N+, ci balla un 10% di clock almeno.
ad esempio prendi la 5700 liscia, ha 2 dcu in meno ma clocka a 1800 e sta a 180watt (-40watt), o la 5600xt che ha le stesse dcu della 5700 e clocka a 1700 a 160watt(-20watt).
quindi da questo cosa capisci? coi clock recuperi molti watt, invidia è andata di densità siccome il carico di lavoro va bene per quello scopo anche se a clock infimi...
il problema te lo ripeto, saranno le gaming, clock bassi non vanno bene, senza contare che con quelle padelle costeranno care almeno quanto le turing, non meno di certo, anzi prevedo un rincaro ulteriore.
vedremo.
Tralasciando le prestazioni, secondo te chi ha la migliore efficienza energetica.
Questa frase non ha molto senso, l'efficienza di norma è calcolata in base alle prestazioni, non al numero di transistor che vuol dire poco o nulla.
Il calcolo effettuato dalle GPU si presta oltretutto al parallelismo, il che ti permette di giocare molto su questi parametri: di norma, a parità di prestazioni, è più efficiente un chip più grande e con frequenze più basse rispetto ad uno più piccolo con frequenze più alte.
Il motivo per cui si tende a fare chip piccoli è perchè costa meno produrli (sempre che le rese siano adeguate, perchè alzare il target di frequenza riduce le rese, ma anche aumentare la dimensione le riduce).
Su chip molto remunerativi come questo si può decidere di spendere di più per produrlo per ottenere un prodotto più efficiente, che in questo mercato è un parametro di primaria importanza.
PS: non è neppure detto che nVidia utilizzi questo stesso processo produttivo per le geforce. Fino a poco tempo fa l'ipotesi più accreditata è che a causa della scarsità degli slot produttivi nVidia dovesse produrre con il processo meno affinato.
antani^2
15-05-2020, 16:16
Questa frase non ha molto senso, l'efficienza di norma è calcolata in base alle prestazioni, non al numero di transistor che vuol dire poco o nulla.
Il calcolo effettuato dalle GPU si presta oltretutto al parallelismo, il che ti permette di giocare molto su questi parametri: di norma, a parità di prestazioni, è più efficiente un chip più grande e con frequenze più basse rispetto ad uno più piccolo con frequenze più alte.
Il motivo per cui si tende a fare chip piccoli è perchè costa meno produrli (sempre che le rese siano adeguate, perchè alzare il target di frequenza riduce le rese, ma anche aumentare la dimensione le riduce).
Su chip molto remunerativi come questo si può decidere di spendere di più per produrlo per ottenere un prodotto più efficiente, che in questo mercato è un parametro di primaria importanza.
PS: non è neppure detto che nVidia utilizzi questo stesso processo produttivo per le geforce. Fino a poco tempo fa l'ipotesi più accreditata è che a causa della scarsità degli slot produttivi nVidia dovesse produrre con il processo meno affinato.
d'accordissimo, il problema è infatti legato al contesto gaming... non lo vedo bene se ne deriva in modo stretto.
i tempi di maxwell e pascal sono lontani.
Ma vi rendete conto che la controparte ha 1/5 dei transitor e consuma oltre i 200w con lo stesso nodo.
In quei 400w ci sono nvilink le memorie con un bus spaventoso fp64 40mb l1 e altro, tutte cose che nelle quadro non ci saranno.
I consumi probabilmente resteranno nei 300 w nel segmento consumer come è giusto che sia.
IMHO
ma tu ti rendi conto che dall'altra parte lo fanno con chippini che al confronto di questi sono minuscoli e lo fanno con GPU da 2000 euro di costo?
ti rendi conto che una Instinct fa 6.5TF in FP64 e al costo di questa ne prendi 100?
che 100x6.5 fanno 650TF in base 64?
che non sei condizionato ai soli ambiti matriciali?
che per ottenere la stessa versatilità di calcolo dovresti usare i cudacore, e che questa ne produce solo 10TF a GPU, 80 a DGX?
che questa DGX arriva a 6.5KW e che in un blade a malapena ne puoi mettere 3, quando puoi usare 8 rack da 8 insctinct per lo stesso picco di potenza elettica e che ti garantiscono comunque 416TF in FP64 con una spesa identica, compresa l'energia che spendi in più?
ti rendi conto che la semplice efficienza non è assolutamente nulla se non la misuri in costi effettivi?
io credo che molti guardano i numeri e non riescono a valutarne il senso che hanno....
come ha detto Huang il DGX è la più grande GPU che esiste, come unica GPU, in un mondo in cui le GPU si usano prettamente in cluster, rendendo di fatto inutile avere una GPU grande quando puoi economicamente metterne molte di più più piccole e più economiche.
lato gaming, vedremo che tirano fuori, perchè i presupposti per ottenere una buona efficienza se li sono giocati tutti su turing, facendo chip poco densi e giganteschi, ma qui mostrano una densità che è 2.5 volte più elevata e si giocano tutto, ma proprio tutto il guadagno del processo N7 esclusivamente su quello, quindi nulla sul miglioramento dei consumi, nulla sul miglioramento della frequenza, ma tutto e solamente sulla densità.
ed infatti è 2.5 volte più denso, ma ha la stessa frequenza ed è grande uguale (anzi, anche di più di volta).
e sui giochi gli RT core ed i tensor core sono usati come miglioramento, ma di base ci vogliono i cudacore per la rasterizzazione.
su volta eravamo a 5120, su questa a 6912, ossia 1.35 volte quello che c'era su Volta, in pratica alla stessa frequenza.
non sò se cogli il nesso:
volta e turing sono chip a bassa densità d'integrazione, GA100 è 2.5 volte più denso ed è anche più grande come superficie.
il massimo che sono riusciti a dare è 1.35 volte le unità di base.
quello che chiede la gente da una generazione all'altra è il 30% di prestazioni in più.
devono fare una 2080 TI con il 30% in più e qui sono riusciti a fare un chip con il 35% in più di cudacore che consuma il 30% in più di prima ed è grosso uguale, costando però anche 2.5 volte di più...
ed il tutto lo devono fare sul samsung 8nm, nemmeno il più efficiente N7 TSMC!
ora mi dici come sarà questa nuova 3080 Ti?
perchè le prestazioni di una 2080 Ti credo siano alla portata di una nuova GPU AMD con tutta tranquillità, e visto che la 2080 TI è il 30% più veloce di una 2080, significa che AMD offrirà, come minimo, una scheda video pari alla 3080...
ora però chiediti come faranno a mettere un chip da 830mm^2 da 400W su una scheda consumer e farla costare al massimo 1500 euro.
vi si dovrebbe prendere a secchiate d'acqua gelata per farvi scendere l'hype e guardare in faccia la realtà.
è assai difficile che i rumors che avete sentito in questi mesi possano concretizzarsi in una verità.
dicevano che raddoppiavano le unità... ecco la GPU più potente sul mercato (25.000 euro); al suo interno a 1.5 volte i cudacore della precedente, 120SM contro 80SM, ma ne può sfruttare solo 108 sennò esplode.
e questo su una GPU per cui non si guarda troppo il prezzo, perchè se serve, serve...
e le gaming le faranno con un PP che non è affatto uguale (perchè se era meglio o più economico ci facevano direttamente questa).
ora ti rendi conto che i parametri del consumo, della densità, del costo sono tutti in relazione tra di loro e fanno parte tutti della stessa coperta, che se tiri da una parte dall'altra scopri qualcosa?
AceGranger
15-05-2020, 16:31
la 5700 a 1v batte/pareggia la 2070 e consuma meno, di che parli.
la xt è OC di fabbrica per stare più vicina possibile alla 2070super, sono SCELTE i clock e tdp.
la 5700 perde/pareggia con la 2070 e 2060 Super e consuma un pelino di piu
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
se poi vuoi fare downvolt, lo fanno tutte.
Questa frase non ha molto senso, l'efficienza di norma è calcolata in base alle prestazioni, non al numero di transistor che vuol dire poco o nulla.
Il calcolo effettuato dalle GPU si presta oltretutto al parallelismo, il che ti permette di giocare molto su questi parametri: di norma, a parità di prestazioni, è più efficiente un chip più grande e con frequenze più basse rispetto ad uno più piccolo con frequenze più alte.
Il motivo per cui si tende a fare chip piccoli è perchè costa meno produrli (sempre che le rese siano adeguate, perchè alzare il target di frequenza riduce le rese, ma anche aumentare la dimensione le riduce).
Su chip molto remunerativi come questo si può decidere di spendere di più per produrlo per ottenere un prodotto più efficiente, che in questo mercato è un parametro di primaria importanza.
PS: non è neppure detto che nVidia utilizzi questo stesso processo produttivo per le geforce. Fino a poco tempo fa l'ipotesi più accreditata è che a causa della scarsità degli slot produttivi nVidia dovesse produrre con il processo meno affinato.
Ho tralasciato le prestazioni perché è palese che ampere sia meglio di turing e di conseguenza anche di navi.
Quindi i paragoni si possono benissimo fare, non stiamo mica paragonando cpu con gpu.
IMHO
antani^2
15-05-2020, 16:41
la 5700 perde/pareggia con la 2070 e 2060 Super e consuma un pelino di piu
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
se poi vuoi fare downvolt, lo fanno tutte.
ah già le uber medie coi giochi gimpati... ok... se contiamo anche quelli si va bene...
https://tpucdn.com/review/amd-radeon-rx-5700/images/performance-per-watt_2560-1440.png
5700 2x perf/watt vs polaris
Alla fine sono li come perf/watt, la gente non compra il pezzo di silicio, compra il prodotto finito, ricordiamoci sempre che i primi mesi le turing si fiondavano, così come i primi mesi il supporto alle 5700 era scadente, ma soprattutto ricordiamoci che partivano da Vega/Polaris che su questo aspetto erano indietro, che finalmente hanno scisso le architetture, e che i 7N al primo giro non fanno miracoli sotto questo punto di vista, cosa ben diversi da quello che si aspetto coi 7N+.
il punto di partenza non è male, è pur sempre rdna1, possiamo anche dire che invidia con turing gli ha dato una mano a recuperare un po' di terreno.
PS. se ci fai caso, avevo previsto bene che questi 2 anni sarebbero stati una ca.ata, e ho comprato la miglior scheda al momento (fine 2018) come perf/cost, saltato a piè pari turing e navi...
antani^2
15-05-2020, 16:43
Ho tralasciato le prestazioni perché è palese che ampere sia meglio di turing e di conseguenza anche di navi.
Quindi i paragoni si possono benissimo fare, non stiamo mica paragonando cpu con gpu.
IMHO
No, perchè Navi NON è una gpu ad alto carico parallelo, non ha senso il confronto! è una gpu gaming, ha per ovvi motivi perf/watt inferiori per quegli scopi, ma li avrà alti per quelli relativi al gaming puro.
Vuol dire proprio che non ascolti quello che ti dicono, che non ci provi nemmeno.
Capisco che il QI di certi individui sia più basso della media tanto da non essere capaci ci comprendere cosa sia il performance /watt, ma la 580 andava uguale o poco più di una 1060 ma consumando oltre una 1080.
La 590 ancora peggio.
La 580 consumava poco di più di una 1060 ?
Diciamo quasi il doppio :rolleyes:
e sì, il QI di certi individui è proprio bassino, perchè se mi fai vedere il consumo in Metro: Last Light , per cortesia dovresti farmi vedere anche le prestazioni annesse.
è vero che metro forza le varie GPU al massimo, ma è anche vero che una navi 5700 XT letteralmente arriva alle prestazioni di una 2080 custom in quel gioco, consumando anche un po' di più, ma con un chippatto da 251mm^2 contro uno da 545mm^2 e costando giusto la metà; neppure da considerare il confronto con una 2070, in cui è sufficiente una 5700 per ottenere le medesime prestazioni.
e non credere che ci sia una così marcata differenza tra la 580 e la 1060.
la 590 è un caso a parte, essendo l'overclock di un overclock, ma al costo che ha oggi non sfigura nemmeno troppo per quello che offre.
oggi la 1060 arriva a malapena a egualiare le prestazioni delle 570 4GB sulla maggior parte dei giochi di nuova concezione, e la 570 consuma tanto quanto la 1060, solo che costa la metà (o 2/3 nel periodo in cui uscirono: 200 euro contro 300 euro).
senza poi dire che se non forzi troppo la GPU le prestazioni non calano così vistosamente...
è una questione di come sono fatti certi giochi su certi motori grafici.
potrei impostare anche 2Ghz sulla 570 su alcuni giochi con UE4, ma ottenere una differenza si e no del 15% in più di guadagno sul framerate.
se invece tolgo il 10% delle prestazioni, magicamente vedo scendere il consumo a 2/3 di prima...
la ho e su molti giochi non supera mai i 100W per l'uso malsano in cui sfruttano quella GPU. se la forzo a 1400mhz invece che a 1250 il risultato è che invece di salire di un buon 10% le prestazioni salgono solo del 4-5%, mentre il consumo sale a 150W.
4-5% su 60fps sono 3fps e grazie al freesync non mi cambiano certo la vita, quindi la tengo nelle migliori condizioni per farmi giocare bene senza andare a cercare l'ultimo fps inutilmente.
poi invece ci sono giochi in cui il 10% in più di frequenza corrisponde al 10% in più di prestazioni, e allora lì si valuta se vale la pena forzare la GPU.
ma ti assicuro che la mia 570 con un consumo di 100W (solo core, poi ci devi sommare almeno 30W di memorie), sui nuovi giochi anche a 1250mhz non mi farebbe preferire una 1060 6GB, perchè andrebbe semplicemente uguale e consumerebbe uguale, ma costa molto, molto meno.
forse è anche per questo che ne hanno vendute a cariolate e che le 1060 6GB rimaste dal mining ancora fanno giacenza nei magazzini.
No, perchè Navi NON è una gpu ad alto carico parallelo, non ha senso il confronto! è una gpu gaming, ha per ovvi motivi perf/watt inferiori per quegli scopi, ma li avrà alti per quelli relativi al gaming puro.
Vuol dire proprio che non ascolti quello che ti dicono, che non ci provi nemmeno.
E allora perche confronti ampere con turing, non è la stessa cosa.
Vuoi che metta vega 7 che ha consumi maggiori a freq. minori per fare un confronto
AceGranger
15-05-2020, 17:01
ma tu ti rendi conto che dall'altra parte lo fanno con chippini che al confronto di questi sono minuscoli e lo fanno con GPU da 2000 euro di costo?
ti rendi conto che una Instinct fa 6.5TF in FP64 e al costo di questa ne prendi 100?
che 100x6.5 fanno 650TF in base 64?
che non sei condizionato ai soli ambiti matriciali?
che per ottenere la stessa versatilità di calcolo dovresti usare i cudacore, e che questa ne produce solo 10TF a GPU, 80 a DGX?
che questa DGX arriva a 6.5KW e che in un blade a malapena ne puoi mettere 3, quando puoi usare 8 rack da 8 insctinct per lo stesso picco di potenza elettica e che ti garantiscono comunque 416TF in FP64 con una spesa identica, compresa l'energia che spendi in più?
ti rendi conto che la semplice efficienza non è assolutamente nulla se non la misuri in costi effettivi?
io credo che molti guardano i numeri e non riescono a valutarne il senso che hanno....
ehhhh gia.
poi si guarda quanto vendono e si vede bene che le Instict fanno fatturati che RIDICOLI è poco, qualcosa come 1/50 delle Tesla a dir tanto, visto che tutta la divisione Enterprise fa altalenante +-400 milioni a trimestre mentre le sole Tesla hanno portato a casa 900 Milioni solo l'ultimo trimestre, quindi FORSE,e diciamo FORSE, hanno ragione quelli di nVidia a puntare su Tensor, nVlink etc. etc.
senza contare che i 400W sono per il througput totale della GPU che, a differenza delle Instinct, possono effettuare calcoli in parallelo su piu unita specializzate; con i soli FP64 mica arriva a 400W.
fra l'altro, in quei 400W, è compreso tutto il calore abominevole che si ruba l'nVlink a 600GB/s.... 600 GB/s, fra un po arriva alla banda delle HBM delle Instinct...
EVIDENTEMENTE è piu importante avere una GPU che fa tutto bene o ottimamente, sopratutto su IA e Inferenza, piuttosto che una che fa 1 cosa decente e il resto un cesso.
ma certamente ne sai piu tu di loro :rolleyes:.
Ale55andr0
15-05-2020, 17:02
ma se siete andati avanti mesi a dire che post turing clockava 2.4-2.5ghz boost senza fare i conti con l'oste.
cerca su internet, "clock regression"
.
"siete" sto mazz, io sta cosa dei 2.4/2.5ghz non la ho mai detta (avrai letto mikael84 :read:...), e ripeto, quotateMEla :read:
posto che non frega nulla della frequenza ma di quanto va, e di quanto consuma (ah, e di quanto costa :asd:),la realtà che ai fanbpoy sta stretta non cambia: le nvidia (e con un nodo in meno) vanno mediamente di più e consumano meno, punto. Sono avanti tecnicamente di una generazione piena sta(te)cce
antani^2
15-05-2020, 17:03
E allora perche confronti ampere con turing, non è la stessa cosa.
Vuoi che metta vega 7 che ha consumi maggiori a freq. minori per fare un confronto
Perchè huang ha detto che Ampere è la base anche delle gaming, mica io.
Vega20 è sui 7N lisci, clocka a 1700/1800mhz ed è uscita 18 mesi fa.
No, perchè Navi NON è una gpu ad alto carico parallelo, non ha senso il confronto! è una gpu gaming, ha per ovvi motivi perf/watt inferiori per quegli scopi, ma li avrà alti per quelli relativi al gaming puro.
No, aspetta... tutte le GPU sono processori altamente paralleli.
La differenza in questo caso la fa il mercato. Per una GPU da gioco deve costarti il meno possibile produrla e se consuma un po' di più è un problema relativo, entro certi limiti più di immagine che altro.
Su una GPU come questa l'efficienza e la stabilità contano molto di più, da cui le frequenze conservative.
Alla fine le versioni da gioco avranno frequenze simili a quelle delle schede da gioco attuali, tenuto anche conto che la frequenza da sola non significa molto, se per migliorare le unità di elaborazione devo sacrificare un 10% di clock per avere un 15% di prestazioni in più a parità di frequenza, beh, il bilancio è positivo e lo faccio.
AceGranger
15-05-2020, 17:05
ah già le uber medie coi giochi gimpati... ok... se contiamo anche quelli si va bene...
CUT
5700 2x perf/watt vs polaris
Alla fine sono li come perf/watt, la gente non compra il pezzo di silicio, compra il prodotto finito, ricordiamoci sempre che i primi mesi le turing si fiondavano, così come i primi mesi il supporto alle 5700 era scadente, ma soprattutto ricordiamoci che partivano da Vega/Polaris che su questo aspetto erano indietro, che finalmente hanno scisso le architetture, e che i 7N al primo giro non fanno miracoli sotto questo punto di vista, cosa ben diversi da quello che si aspetto coi 7N+.
il punto di partenza non è male, è pur sempre rdna1, possiamo anche dire che invidia con turing gli ha dato una mano a recuperare un po' di terreno.
PS. se ci fai caso, avevo previsto bene che questi 2 anni sarebbero stati una ca.ata, e ho comprato la miglior scheda al momento (fine 2018) come perf/cost, saltato a piè pari turing e navi...
eh basta che ti decidi, e una volta Techpowerup non va bene , e la volta dopo non va bene Computer base...
il punto tecnico sul quale si disquisiva era il fatto che ora a parita di silicio o AMD migliora di piu l'architettura o si ritornera alla situazione Fury.
antani^2
15-05-2020, 17:08
"siete" sto mazz, io sta cosa dei 2.4/2.5ghz non la ho mai detta (avrai letto mikael84 :read:...), e ripeto, quotateMEla :read:
posto che non frega nulla della frequenza ma di quanto va, e di quanto consuma (ah, e di quanto costa :asd:),la realtà che ai fanbpoy sta stretta non cambia: le nvidia (e con un nodo in meno) vanno mediamente di più e consumano meno, punto. SOno avanti tecnicamente di una generazione piena sta(te)cce
vedrai con turing 2.0 quanto ancora avanti sarà...
si è proprio il prezzo il problema, sti padelloni vanno bene nel hpc, ma se ti propina una altro turing su desktop, stai fresco a sperare in prezzi bassi, è quello il problema.
il punto tecnico sul quale si disquisiva era il fatto che ora a parità di silicio o AMD migliora di più l'architettura o si ritornerà alla situazione Fury.
Occhio che, come accennavo prima, non è detto che ci sia parità di silicio neppure stavolta. ;)
Non che mi freghi, ma su un sito "di sicura affidabilità" :asd: quale TomH danno che la Nvidia 1060 consuma intorno a 120W a pieno carico, mentre la RX580 intorno ai 220W.
Su un altro sito parlano di valori (misurati tramite GPU-Z) di un consumo per la 1060 di 120W (130W in OC), mentre per la RX580 di 175W (215W in OC).
Non sarà il doppio, ma neanche ci va tanto distante; quale che sia la fonte di riferimento, salta fuori che la RX580 consuma senza colpo ferire un buon 50-70% (a spanne) di più della 1060.
equilibrio ed obbiettività la devi chiedere, in primis, a chi mostra i consumi nelle review: se mi fai vedere un consumo, mi devi far vedere anche le prestazioni che generi con quel consumo.
io ho la 570 e ti assicuro che nella maggior parte dei titoli UE4 la GPU mi si mette a 1250 fissi, ma l'uso della GPU oscilla tra il 10% ed il 100% ad intermittenza.... anzi:
https://ibb.co/QDyfkkW
è questo l'uso che la maggior parte delle volte i giochi con UE4 fanno della mia GPU, o comunque giochi fatti con motori grafici affini ad nvidia, o che comunque usano gamework.
uso medio dalle GPU 80%, clock oscillnte tra 1250 e 1100, consumo inferiore a 100W, temperatura 51°C a 1300RPM con una pulse, che non vanta certo un dissipatore sovradimensionato.
il tutto su risoluzione a 2560x1080, dettagli alti, 100% risoluzione e oscillante dai 50 ai 60fps, con HDR, che è un buon giocare per quello che è costata, ossia 120 euro e passare una mezz'oretta su un giochetto a rilassarsi...
la posso sparare anche a 1450mhz ma l'unica cosa che vedrai consistentemente cambiare è il consumo e la temperatura...
il framerate non mi cambia di una virgola....
quindi c'è sempre da valutare che, come e quando.
su metro last light vengono valutati i consumi perchè massimizza l'uso della GPU, ma poi ti vengono forniti valori su giochi in cui le due architetture rispondono in modo assai diverso, e si fa 1+1=3...
tu mi fai vedere quanto vanno su ogni gioco e poi mi fai vedere quanto consumano in quelle condizioni.
a quel punto posso valutare se maledire chi usa motori grafici antidiluviani, maledire il produttore della mia GPU perchè non mi offre prestazioni confacenti, maledirlo perchè per quello che offrono la concorrenza costa la metà e così via, ma non maledirò mai chi mi ha mostrato la realtà dei fatti.
se invece tu mi mostri capre e cavoli, ossia il consumo su un applicativo e la prestazione su un'altro, allora sei la prima persona che maledico, anzi l'unica, perchè sono due le questione: o non sei obbiettivo o sei incapace a fare certi tipi di valutazione.
e questa è la GPU che consuma il doppio di una 1060 6GB, considerando che ha pure 2 chip di memoria in più della concorrente da alimentare.
antani^2
15-05-2020, 17:09
eh basta che ti decidi, e una volta Techpowerup non va bene , e la volta dopo non va bene Computer base...
il punto tecnico sul quale si disquisiva era il fatto che ora a parita di silicio o AMD migliora di piu l'architettura o si ritornera alla situazione Fury.
ho preso quello perchè c'è la tabella, e nonostante siano gimpate le perf in tpu (se vai a vedere la 5700 va pochissimo), ha un perf/watt ottimo.
beh di certo +50% di perf/watt non lo fai solo passando da 7 a 7+, o no?
quello che dico io è che in chiave gaming, sti chipponi non vanno bene, per costi sopratutto (rese basse e clock bassi), poi in hpc ... ok.
nickname88
15-05-2020, 17:18
e sì, il QI di certi individui è proprio bassino, perchè se mi fai vedere il consumo in Metro: Last Light , per cortesia dovresti farmi vedere anche le prestazioni annesse.
Ah quindi adesso non riesci nemmeno a quotare il post corretto ? Ho parlato di performance / watt e Metro io manco l'ho nominato. :rolleyes:
Toglieti i paraocchi da fanboy che così ti rendi solamente ridicolo.
RX580 e 590 registrano i valori peggiori in assoluto della lista, seguiti subiti dal resto della compagnia AMD, inutile che cerchi di girarti le frittate a tuo piacimento.
https://tpucdn.com/review/gigabyte-geforce-gtx-1650-oc-gddr6/images/performance-per-watt_2560-1440.png
AceGranger
15-05-2020, 17:22
ho preso quello perchè c'è la tabella, e nonostante siano gimpate le perf in tpu (se vai a vedere la 5700 va pochissimo), ha un perf/watt ottimo.
beh di certo +50% di perf/watt non lo fai solo passando da 7 a 7+, o no?
quello che dico io è che in chiave gaming, sti chipponi non vanno bene, per costi sopratutto (rese basse e clock bassi), poi in hpc ... ok.
credo che la differenza sara piu marcata rispetto a prima;
Ci sara un taglio molto piu grosso di cache, un taglio molto piu grosso di nVlink; bisognera vedere se metteranno effettivamente tutti quei tensor, sicuramente il collegamento DDR occupera molto meno rispetto a tutta quella HBM etc. etc.
ninja750
15-05-2020, 17:27
a parte che non va più o meno uguale ma meno della 2070s sfugge che ha un nodo di vantaggio la AMD...ergo in proporzione continua a bere uno strafottio..
ripeto: tu quando giochi guardi il nodo di vantaggio? perchè prestazioni e consumo sono, come sottolineato da altri, quasi uguali
antani^2
15-05-2020, 17:27
credo che la differenza sara piu marcata rispetto a prima;
Ci sara un taglio molto piu grosso di cache, un taglio molto piu grosso di nVlink; bisognera vedere se metteranno effettivamente tutti quei tensor, sicuramente il collegamento DDR occupera molto meno rispetto a tutta quella HBM etc. etc.
si tutta quella cache e nvlink su chip gaming non hanno senso, al posto di fp metti rt e sei li, ma il controller ddr non occupa meno di quello hbm, il rapporto è circa 2:1 quindi togli i 6000bit hbm e pareggi quelli 380bit gddr.
a stima, sui 700/750mmq ci arriva sicuro, anche vedendo l'esperienza Volta→Turing.
ps. questo utente verrà bannato :D
ciao, tanto nel weekend non scrivo :)
Sinceramente non saprei cosa dirti, a quanto pare abbiamo avuto istruzioni diverse su come contare.
Comunque riprovo, un si sa mai.
Navi 10mld di transistor 220w 7nm 1600 /1700 mhz
Ampere 54mld di transistor 400w 7nm 1400mhz
Tralasciando le prestazioni, secondo te chi ha la migliore efficienza energetica.
mhm... che dici, se sulla 5700 XT ci metti quel dissipatore che hanno messo su quel chippone, l'efficienza cambia?
perchè qui non si parla propriamente di matematica, ma di termodinamica, e questa spesso non è proprio proprio intuitiva come una somma o un prodotto...
tu parli di navi 10 con 10.8 miliardi di transistors a 91°C per 220W su 7nm per 1750mhz (questi sono i dati reali), con 8chip di GDDR6 a 14ghz, contro Ampere che dichiarano a 54 miliardi ma che ne usa l'80% soltanto, aumentando quindi la superficie di dissipazione per w prodotto, con un dissipatore che potrebbe smaltire 1KW in calore (perchè quel giochetto è attaccato a ventole da 140mmm a 3000RPM, se non lo sai), che fa 400W a 1450mhz e sempre sui 7nm, con 6 chip HMB2, ma ti sei scordato di dire che uno è un chip da 251mm^2 che costa 100 euro, e l'altro un da 830mm^2 che costa almeno 20.000 euro.
son sicuro che, anche solo a scartar chippetti navi 10 fino a 20.000 euro per 100 euro a chippetto, quando trovo il migliore tra i 200 e lo metto a 60°C di raffreddamento l'efficienza mi sale a dismisura e magari mi prende i 2250 mhz come una 50 limited edition consumando sempre 220W.
occhio a parlare di queste cose in modo tralasciando cose che non sono di secondaria importanza, ma anzi, sono la base per calcolarle.
ehhhh gia.
poi si guarda quanto vendono e si vede bene che le Instict fanno fatturati che RIDICOLI è poco, qualcosa come 1/50 delle Tesla a dir tanto, visto che tutta la divisione Enterprise fa altalenante +-400 milioni a trimestre mentre le sole Tesla hanno portato a casa 900 Milioni solo l'ultimo trimestre, quindi FORSE,e diciamo FORSE, hanno ragione quelli di nVidia a puntare su Tensor, nVlink etc. etc.
senza contare che i 400W sono per il througput totale della GPU che, a differenza delle Instinct, possono effettuare calcoli in parallelo su piu unita specializzate; con i soli FP64 mica arriva a 400W.
fra l'altro, in quei 400W, è compreso tutto il calore abominevole che si ruba l'nVlink a 600GB/s.... 600 GB/s, fra un po arriva alla banda delle HBM delle Instinct...
EVIDENTEMENTE è piu importante avere una GPU che fa tutto bene o ottimamente, sopratutto su IA e Inferenza, piuttosto che una che fa 1 cosa decente e il resto un cesso.
ma certamente ne sai piu tu di loro :rolleyes:.
vedi, AMD non ha fatto una gran produzione di Vega, sia perchè, anche se ha valenze in certi ambiti, il mercato server è molto tradizionalista (e spesso inquinato da fanboys ancora peggio di quelli sul gaming: guarda epyc a confronto di xeon e capisci subito che il nesso che lega le vendite ad un marchio non è la bontà del prodotto), sia perchè per 496mm^2 di die poteva produrre 2 die e mezzo rayzen, che vendeva a molto più dei 300$ a cui vendeva il chip della Vega... e quando hai massimo quel numero di wafer da utilizzare vai sul prodotto che vende bene e su cui guadagni di più...
poi alcune soddsfazioni se le sta togliendo... sono già 3 o 4 catene di datacenter di massime dimensioni che usano quelle schede.
ti puoi rendere conto dell'efficienza delle AMD su ambiti di calcolo già solo considerando il mining, in cui le AMD sono letteralmente scomparse e che anche volendo AMD non riusciva a produrne di più.
ha tentato, e lo ha fatto mettendo polaris 10 sulle linee samsung, ma poi ha deciso di non approfittarne perchè aveva capito semplicemente che la bolla mining era finita, e quindi è nata la 590 con il polaris 10 a 12nm... o credi che l'abbiano fatta per darti il 5% scarso in più di prestazioni?
a differenz adi nvidia AMD si è resa conto che il mercato mining sarebbe scoppiato e non ha prodotto in esubero.
oggi invece ancora ci sono da smaltire 1070 e 1060 dell'era mining, rimaste invendute e che hanno ingolfato e condizionato le vendite di turing e GTX serie 16...
quando parli di mercato non ci si ferma al solo lato tecnico, ma anche alla situazione in cui si opera, al momento e alle varie condizioni.
o vuoi dirmi che questa GPU non esisteva prima del covid-19?
secondo il tuo modo di pensare l'hanno fatta ed impacchettata ieri?
sono 2 mesi che nvidia aspetta di presentarla e sono mesi che quei chip sono stati già tutti prodotti.
ora tocca solo venderli.
eh basta che ti decidi, e una volta Techpowerup non va bene , e la volta dopo non va bene Computer base...
il punto tecnico sul quale si disquisiva era il fatto che ora a parita di silicio o AMD migliora di piu l'architettura o si ritornera alla situazione Fury.
dimmi, techpowerup mostra anche i benchmark in metro:last ligth, visto che lo usa per constatare il consumo delle schede?
perchè potresti avere delle sorprese a vedere come i 225W di una 5700 XT reference vengono sfruttati a confronto dei 225W di una 2080 FE.
Ah quindi adesso non riesci nemmeno a quotare il post corretto ? Ho parlato di performance / watt e Metro io manco l'ho nominato. :rolleyes:
Toglieti i paraocchi da fanboy che così ti rendi solamente ridicolo.
RX580 e 590 registrano i valori peggiori in assoluto della lista, seguiti subiti dal resto della compagnia AMD, inutile che cerchi di girarti le frittate a tuo piacimento.
https://tpucdn.com/review/gigabyte-geforce-gtx-1650-oc-gddr6/images/performance-per-watt_2560-1440.png
scusami, persona a basso coefficiente, ma TPU usa metro per le misurazioni dei consumi medi in play e futuremark torture per le massime.
poi prende la media delle performace in giochi vari, con diversi motori grafici (ma stranamente tutti rivolti alle schede nvidia e ben pochi giochi della lista dei più giocati che puoi trovare sulle varie piattaforme di gioco), e fa il rapporto perf/watt per editare un'altra inutile pagina per metterci altra inutile pubblicità...
non servono a nulla queste medie.
servono solo a gente come te, che non ha il minimo sentore di quello di cui si sta parlando...
servono prestazione e consumo puntuale e su giochi giocati da tutti, non dall'1% del mercato solo perchè le nvidia vanno meglio.
l'obbiettività di quel sito è quasi pari a quella di tom's... (il che è tutto dire... scrivono pagine solo per fare pubblicità, spesso occulta).
Ale55andr0
15-05-2020, 18:11
ripeto: tu quando giochi guardi il nodo di vantaggio? perchè prestazioni e consumo sono, come sottolineato da altri, quasi uguali
si che lo guardo, perchè se per stare al passo (che cmq NON avviene, da anni amd NON riesce a prendere la top rivale) io devo consumare 50w in più con un nodo di vantaggio vuol dire che sono con le pezze al culo lato architettura, non fate finta di non capire e/o non considerare cosa implichi...
Gyammy85
15-05-2020, 19:30
si che lo guardo, perchè se per stare al passo (che cmq NON avviene, da anni amd NON riesce a prendere la top rivale) io devo consumare 50w in più con un nodo di vantaggio vuol dire che sono con le pezze al culo lato architettura, non fate finta di non capire e/o non considerare cosa implichi...
Io non ho ancora capito dove vuoi andare a parare, sinceramente, boh
Ma ti rendi conto che con due nodi di vantaggio sta GPU consuma 100 watt in più per andare il 30% in più? Ma tutti i discorsi sui TeraFLOPS che fine hanno fatto?
si che lo guardo, perchè se per stare al passo (che cmq NON avviene, da anni amd NON riesce a prendere la top rivale) io devo consumare 50w in più con un nodo di vantaggio vuol dire che sono con le pezze al culo lato architettura, non fate finta di non capire e/o non considerare cosa implichi...
bene, ma se guardi solo quello significa che mostri palesemente di non sapere nulla di termodinamica, oltre di come bilanciare i costi di produzione...
logicamente la gentte si fa queste domande quando gioca.... :mc:
comunque è inutile ipotizzare; si aspettano i risultati.
quando ci saranno si valuterà l'HW....
HW che, se proprio t'interessa sapere, non importava che al 5% della popolazione dei videogamers e che se aumenta ancora di costo importerà ancora a meno persone (e siceramente, a me basta che gioco quella mezz'oretta tra il rientro a casa e la cena.. di andare a spendere più di 200 euro per uno svago del genere, nemmeno continuativo e dovendomi pure cercare il gioco che mi piace, non ce li spendo certo, quindi possono farla anche 10 volte più veloce, se non costa meno di 200 euro frega nulla...).
comunque, se vuoi parlare di come si trasformerà il mercato, parliamo anche dei nuovi motori grafici, perchè sembra che ormai anche l'ultimo baluardo che faceva veloci le nvidia sta per cadere: nel 2021 sarà rilasciato ufficialmente UE5, che a differenza di UE4 questa volta i thread grafici li farà funzionare talmente bene che non hanno nemmeno messo un limite reale.... per ogni pixel puoi avere una tipletta del triangolo.
sai cosa significa con una GPU che è in grado di pilotare 256 thread contemporaneamente a differenza di una che ne opera solo 12, magari corposi e complessi, ma solo 12?
veniva bene prima quando i thread erano massimo 4, ma il progresso non si può fermare e visto che le CPU non tirano più in Mhz. si deve spostare il tutto sulla parallelizzazione estrema.
indovina a chi viene il vantaggio, in questa tornata?
c'è qualche guru che ha già messo le mani avanti dicendo che "no, la grafica come la tech demo non comparirà nei giochi per molto tempo", per poi sviare il discorso sul fatto che RTX è accentuazione di grafica su giochi che non gioca nessuno...
già stanno mettendo le mani avanti perchè già sanno cosa li aspetta, in nvidia.
Ale55andr0
15-05-2020, 19:44
Io non ho ancora capito dove vuoi andare a parare, sinceramente, boh
Ma ti rendi conto che con due nodi di vantaggio sta GPU consuma 100 watt in più per andare il 30% in più? Ma tutti i discorsi sui TeraFLOPS che fine hanno fatto?
no, sei tu che non ti rendi conto di che dici e vai a parare nel...boh. Facciamo così: quando amd farà una scheda che performerà quanto quella e consumerà meno sullo stesso nodo fammi un fischio. Fino ad allora ignoriamoci amichevolmente che mi sono fatto due OO così a dover rispondere a post a base di esternazioni prive di senso e contesto sperando di "attivare" obiettività, onestà intelettuale e puro e semplice ragionamento logico....
Ale55andr0
15-05-2020, 19:46
comunque è inutile ipotizzare; si aspettano i risultati.
quando ci saranno si valuterà l'HW....
mi va benissimo...
nickname88
15-05-2020, 20:30
scusami, persona a basso coefficiente, ma TPU usa metro per le misurazioni dei consumi medi in play e futuremark torture per le massime.Ma che porcate ti stai inventando ?
Dove c'è scritta sta roba ?
Vogliamo il link !
Comunque sia ... c'è anche la misurazione con Furmark, o anche questo è misurato con Metro ma spacciato per il burner ?
E il risultato che puoi trarre è lo stesso.
https://tpucdn.com/review/gigabyte-geforce-gtx-1650-oc-gddr6/images/power-maximum.png
non servono a nulla queste medie.
servono solo a gente come te, che non ha il minimo sentore di quello di cui si sta parlando...Servono in realtà a far rosikare chi come te vive nel mondo delle fate che spara le solite caxxate ogni giorno.
E Anandtech ? Anche loro fanno le misure tarocche ? :rolleyes:
https://images.anandtech.com/graphs/graph13570/102993.png
E HWUpgrade ?
https://www.hwupgrade.it/articoli/skvideo/5304/consumi.png
E' incredibile che bisogna dimostrare pure degli argomenti palesemente risaputi, e che vi siano addirittura dei disagiati che si inventano delle storie pur di difendere il marchietto del cuore. Che l'efficienza di Polaris e Vega facesse cagare gli stitici pensavo fosse assodato, invece a quanto pare abbiamo chi vive nel mondo di Alice.
l'obbiettività di quel sito è quasi pari a quella di tom's... (il che è tutto dire... scrivono pagine solo per fare pubblicità, spesso occulta).https://i.ytimg.com/vi/buYo44Y0nqI/hqdefault.jpg
Ma che porcate ti stai inventando ?
Dove c'è scritta sta roba ?
Vogliamo il link !
https://www.techpowerup.com/review/msi-rx-580-mech-2/29.html
https://www.techpowerup.com/review/msi-gtx-1060-gaming-x-3-gb/24.html
https://www.techpowerup.com/review/msi-gtx-960-gaming/27.html
https://www.techpowerup.com/forums/threads/help-with-metro-last-light-stutter.184472/
ricerca la stringa Metro: Last Light.
troverai la stessa dicitura:"We use Metro: Last Light as a standard test for typical 3D gaming usage because it offers the following: very high power draw; high repeatability; is a current game that is supported on all cards; drivers are actively tested and optimized for it; supports all multi-GPU configurations; test runs in a relatively short time and renders a non-static scene with variable complexity."
lo hanno sempre usato e lo continuano ad usare ancora oggi.
Comunque sia ... c'è anche la misurazione con Furmark, o anche questo è misurato con Metro ma spacciato per il burner ?
E il risultato che puoi trarre è lo stesso.
https://tpucdn.com/review/gigabyte-geforce-gtx-1650-oc-gddr6/images/power-maximum.png
trai lo stesso risultato: il consumo, ma non ti mostrano le prestazioni pure, ne l'uso della GPU (per sapere se il codice massimizza realmente la GPU).
Servono in realtà a far rosikare chi come te vive nel mondo delle fate che spara le solite caxxate ogni giorno.
no, servono a me per valutare e giudicare chi scrive stupidaggini o meno in questo settore (il testing).
se hai una procedura farlocca delle rilevazioni, le tue osservazioni non potranno che dipendere da queste, ossia essere farlocche...
ma non ti preoccupare: è una cosa generalizzata; come se tutti si fossero messi d'accordo nello standardizzare una procedura che nasconde l'essenza del fatto che per una prestazione valuti gli effetti che si hanno, compreso il consumo, ma puntualmente su ogni prestazione, e poi fai la media, se proprio vuoi farla...
E Anandtech ? Anche loro fanno le misure tarocche ? :rolleyes:
chi, il tomshardware in salsa tech?
Furmark e shadow of the Tomb Raider; cambiano spesso il gioco per i test di consumo, ma hanno tenuto MLL per anni anche loro.
anche quello spreme bene le GPU, peccato che non sia un gioco che si possa dire scritto pensando al dare la massima espressione a tutte le GPU...
comunque lì hai anche i valori della prestazione, con una 5700 XT reference che ottiene 105.5fps a 276W contro i 107.5fps e 302W di una 2070 Super, a dimostrazione che la 5700 XT, anche la reference, non consuma quanto una 2070 super e va uguale... figurati una custom di quanto la supera e, al massimo, consuma 20W in più della 2070 super.
vuoi che ti riporti anche i dati delle 1060 6GB e delle 580?
1060 6GB FE su crysys 3 per 260W e 67.2FPS; AMD 580 324W per 62.7FPS...
ma era il tempo in cui nvidia faceva il bello ed il cattivo tempo nelle redazioni; onestamente, crysys 3 è un titolo che gira da schifo sotto un'AMD; l'unico modo di usare più di 2 thread è quello di mettere FXAA, visto che lo scarica granparte sulla CPU, e che va da schifo uguale...
e come se a quei tempi si fosse usato Hitman per misurare consumo e prestazione, dove una 570 fa 83.8fps e una 1060 6GB ne fa 84.8fps... e la 570 consuma quanto la 1060.
il classico gioco DX11 pro nvidia...
io la farei su forza motorsport 4 il test, poi vediamo l'efficienza?
comuque anandtech, HWupgrade sono soliti misurare il consumo dell'intera piattaforma, di tutto la macchina, con l'uso di CPU di alta potenza, spesso overclockate fisse...
non ti ho mai detto che la 1060 Fe carica la CPU in modo più marcato della 580 sugli stessi giochi?
una volta che tu metti la CPU a clock fisso, quanto credi che cambi il consumo se la CPU è occupata per il 60 o per il 40%?
se magari la lasci "libera" e a default vedi che una usa la CPU allo stesso modo dell'altra, ma ad un clock inferiore, recuperando in efficienza, recuperando quello che l'altra architettura ha evitato di mettere in HW, ossia lo scheduler, per affidarlo totalmente alla CPU.
se magri invece di usare un 9700K , un octacore, ne usi uno a misura, anche octacore, ma che sia un minimo efficiente, e ti ritrovi che una fa girare il processore a 4000 e l'altra a 3500?
quanto sarebbe la differenza in quel modo? una 30ina, una 40ina di W?
sarebbe la stessa considerazione poi andare a valutare le prestazioni per il costo per il consumo?
consuma un po' di più, ma in finale la puoi usare con CPU "normali" e alla fine ti costa anche meno, oltre al fatto che magari, alla peggio va uguale, al meglio va parecchio di più.
e poi, su hitman quanto è la prestazione in 4K di quelle schede?
perchè in FHD io trovo che la 580 viaggia a 91fps, mentre la 1060 a 61fps
https://www.guru3d.com/index.php?ct=articles&action=file&id=30519
poi vai a vedere anandtech e trovi questo:
https://images.anandtech.com/graphs/graph11278/86518.png
a chi credere?
a colui che fa parte dello stesso gruppo editoriale di tomshardware, o a guru3d?
quindi per quei 50% in più di prestazione valgono quel 50% in più di consumo, dimmelo tu.
E' incredibile che bisogna dimostrare pure degli argomenti palesemente risaputi, e che vi siano addirittura dei disagiati che si inventano delle storie pur di difendere il marchietto del cuore. Che l'efficienza di Polaris e Vega facesse cagare gli stitici pensavo fosse assodato, invece a quanto pare abbiamo chi vive nel mondo di Alice.
https://i.ytimg.com/vi/buYo44Y0nqI/hqdefault.jpg
è incredibile come si deve ogni volta ricordare che una testata editoriale non fa articoli per passione, ma principalmente per denaro, pagati per fare pubblicità ad un prodotto.
se paghi di più, ottieni di più (poi, lasciamo perdere lo scandalo di alcune testate che non hanno più nemmeno una faccia per quanto si vendono).
quando per ogni singolo gioco ti andranno a profilare ogni singolo parametro della GPU, tale da valutare come pi produttore della GPU o lo sviluppatore del gioco hanno lavorato bene, considerando anche i parametri della CPU, a quel punto puoi fare una valutazione del lavoro di tutti e complimentarti con chi ha redatto il test perchè è stato del tutto imparziale e obbiettivo, per il solo motivo che ha tutti i dati in mano per valutare.
che ti dicono che non c'è tempo per fare tutto questo lavoro è una scusa.
se non vuoi fare questo tipo di test è meglio che non ti metti proprio a farli, perchè anche in buonafede potresti prendere delle cantonate abnormi.
semplicemente non è il tuo mestiere (e te lo dice uno del mestiere, lo sai bene).
ora continua nella tua pochezza, ma senza disturbarmi più, grazie.
DarkmanDestroyer
16-05-2020, 07:45
bah... per ora felicissimo della mia titan x pascal usata
sbavare su una cosa mostrata sulla carta, per quanto bello e appagante viaggiare di immaginazione...
fate uscire ste schede, fatele spulciare dai compratori, poi possiamo effettivamente parlarne...
nickname88
16-05-2020, 10:45
ricerca la stringa Metro: Last Light.
troverai la stessa dicitura:"We use Metro: Last Light as a standard test for typical 3D gaming usage because it offers the following: very high power draw; high repeatability; is a current game that is supported on all cards; drivers are actively tested and optimized for it; supports all multi-GPU configurations; test runs in a relatively short time and renders a non-static scene with variable complexity."
lo hanno sempre usato e lo continuano ad usare ancora oggi.
Metro Last Light è un gioco vecchio oggi.
Quello sono vecchie reviews, nelle ultime non viene menzionato alcun Metro.
Quindi che lo usano anche oggi dove starebbe scritto ? E' una tua ipotesi.
trai lo stesso risultato: il consumo, ma non ti mostrano le prestazioni pure, ne l'uso della GPU (per sapere se il codice massimizza realmente la GPU).Ma pensi veramente che il quadro della situazione possa cambiare drasticamente ?
Sei il solito illuso.
no, servono a me per valutare e giudicare chi scrive stupidaggini o meno in questo settore (il testing).
se hai una procedura farlocca delle rilevazioni, le tue osservazioni non potranno che dipendere da queste, ossia essere farlocche...
ma non ti preoccupare: è una cosa generalizzata; come se tutti si fossero messi d'accordo nello standardizzare una procedura che nasconde l'essenza del fatto che per una prestazione valuti gli effetti che si hanno, compreso il consumo, ma puntualmente su ogni prestazione, e poi fai la media, se proprio vuoi farla...Si certo sono farlocche tutte quante, specie quando i risultati urtano il tuo tifo da stadio. :rolleyes:
chi, il tomshardware in salsa tech?
comuque anandtech, HWupgrade sono soliti misurare il consumo dell'intera piattaforma, di tutto la macchina, con l'uso di CPU di alta potenza, spesso overclockate fisse...
a chi credere?
a colui che fa parte dello stesso gruppo editoriale di tomshardware, o a guru3d?
Tomshw non va bene.
Hwupgrade non va bene perchè misura i consumi della piattaforma intera ( che dovrebbe essere la stessa )
Anandtech non va bene.
I test dove usano i burner non vanno bene nonostante la media delle performance tu la abbia già.
I valori del TDP non vanno bene.
E addirittura tenti di incrociare test di siti differenti rilevati con settings diversi ?
Quindi è tutto un complotto. :rolleyes:
e poi, su hitman quanto è la prestazione in 4K di quelle schede?
perchè in FHD io trovo che la 580 viaggia a 91fps, mentre la 1060 a 61fps
https://www.guru3d.com/index.php?ct=articles&action=file&id=30519
Il consumo di Hitman in 4K è rilevato da Hwupgrade e nella stessa reviews le performance sono le seguenti.
Inoltre complimenti per il link dove tenta di far partire un download, nemmeno un immagine riesci a postare ?
1060 34fps
RX580 36fps
Peccato vi siano ben 100W di mezzo !
https://www.hwupgrade.it/articoli/skvideo/5304/hitman.png
Quindi ti sei di nuovo reso ridicolo !
1060 34fps
RX580 36fps
Peccato vi siano ben 100W di mezzo !
https://www.hwupgrade.it/articoli/skvideo/5304/hitman.png
ma infatti non capisco davvero come si possa paragonare una 1060 con una 580. tra l'altro con tutti i problemi di driver che ha avuto amd ultimamente.
mah.... ho avuto anche io amd in passato ma attualmente sono schede IMPROPONIBILI. e se non si sveglia perde altre fette. il tifo da stadio non porta da nessuna parte
nickname88
16-05-2020, 13:45
ma infatti non capisco davvero come si possa paragonare una 1060 con una 580. tra l'altro con tutti i problemi di driver che ha avuto amd ultimamente.
mah.... ho avuto anche io amd in passato ma attualmente sono schede IMPROPONIBILI. e se non si sveglia perde altre fette. il tifo da stadio non porta da nessuna parteNon perde nessuna fetta, Nvidia regola le sue proposte di mercato in base alle quanto offre AMD.
Non perde nessuna fetta, Nvidia regola le sue proposte di mercato in base alle quanto offre AMD.
intendevo fetta "high perf & enthusiast" , ma staremo a vedere ancora deve uscire tutto
StylezZz`
16-05-2020, 15:33
https://tpucdn.com/review/gigabyte-geforce-gtx-1650-oc-gddr6/images/power-maximum.png
Ma questi test come sono fatti? Non metto in dubbio il fatto che la mia 590 faccia schifo come consumi, ma in media nei giochi non supera mai 180-190W con PL +50, raramente l'ho vista salire sopra i 200W nei vari benchmark, compreso furmark.
nickname88
16-05-2020, 16:48
intendevo fetta "high perf & enthusiast" , ma staremo a vedere ancora deve uscire tuttoNon penso sia una priorità per loro quella fascia.
Non penso sia una priorità per loro quella fascia.
sara' meglio che lo sia :O
Anch'io di solito do molto peso al consumo di una GPU e oggettivamente, a parità di potenza, le verdi consumano meno delle rosse. E non si parla di pochi watt, ma di qualche decina.
Ma questi test come sono fatti? Non metto in dubbio il fatto che la mia 590 faccia schifo come consumi, ma in media nei giochi non supera mai 180-190W con PL +50, raramente l'ho vista salire sopra i 200W nei vari benchmark, compreso furmark.
Ti droppa il voltaggio al 100%
Ce l’hai a aria o liquidata?
StylezZz`
16-05-2020, 19:04
Ti droppa il voltaggio al 100%
Ce l’hai a aria o liquidata?
Niente come non detto.
Ho rifatto il test con furmark applicando gli stessi settaggi usati da techpowerup, consuma 250W :asd:
Comunque per fortuna non raggiunge mai quei consumi in gioco, altrimenti l'avrei già buttata nel cesso.
nel momento che la GPU viene utilizzata in un certo modo (e basta farla lavorare con la memoria eliminando il provisoring) hai 8 controller che devono continuamente lavorare al massimo.
uno dei vantaggi sui consumi della 1060 è proprio avere solo 6 controller memoria (e 6 chip di memoria), coadiuvati da un ottimo sistema di compressione sul bus, ma è un sistema che funziona bene solo quando passi un congruo numero di dati tutti ad un'unità di elaborazione, in modo da trovare facilmente ripetizioni da poter eliminare e indicare con un riferimento comune; AMD lavora con molte più unità di elaborazione, quindi i dati che vengono passati alle singole unità non sono effettivamente tanti (parliamo del fatto che la 1060 6G ha 3 GPC, mentre polaris, sulla 580, ha 144 unità di elaborazione; a pari framerate e settaggi del gioco, dovresti comunque dividere quello che passa per un solo GPC altre 48 volte; è logico che il rateo di compressione che puoi ottenere è decisamente più basso e che quindi il bus è più carico, ma in realtà le cose sono ancor apiù complicate dal modo in cui le due architetture usano la memoria: nvidia usa collegare 2 chip RAM ad un GPC, e usare prevalentemente quei chip per i dati da usare per quel GPC, mentre AMD ha una memoria unificata... non ci sono preferenze su dove mettere o prendere i dati... bisogna dirglielo se vuoi usare preferibilmente delle unità con dei chip ram e spesso è per questo che vengono editati driver apposta per il singolo gioco... è un'organizzazione che si addice più ad un processore di calcolo che ad una GPU, ma è pur vero che GCN è stato pensato principalmente per essere utilizzato come coprocessore matematico, ecco perchè va di più di nvidia nel GPGPU).
Una delle principali differenze è che se il gioco utilizza molti step per il calcolo (usa molti thread grafici), AMD non subisce nessun aggravio di lavoro (in effetti i driver AMD nei giochi scritti per nvidia non fanno altro che cercare di spezzettare il lavoro per tutte le unità, quindi lavorerebbe ancora meglio, visto che non deve compiere questo aggravio di lavoro), mentre una soluzione come quella di nvidia pagherebbe il peso di non poter più comprimere in maniera consistente i dati, si troverebbe il bus intasato, non riuscire più a masimizzare il calcolo per le singole pipeline, perchè più breve e quindi non tutti gli stadi della pipeline vengono utilizzati perdendo cicli utili e trovandosi il driver che deve fare un lavoro ancora più gravoso che sulle AMD viene fatto in HW, ossia la schedulazione del lavoro.
AMD è costretta a far lavorare molto i driver, sempre meno di quanto faccia nvidia, solo quando si stà in DX11 o si usano le DX12 come le DX11; solo quando si usano pochi thread grafici.
ecco perchè con certi motori grafici, con certi giochi, la potenza delle schede AMD viene martoriata, mentre il lavoro che fanno è comunque pesante, e si riflette sui consumi.
spesso comunque succede che la GPU viene fatta lavorare meno, non massimizzando l'uso delle unità di elaborazione; dà le prestazioni che si riescono ad ottenere, ma anche il consumo è proporzionale a quelle prestazioni.
se una AMD 580 va l'80% degli FPS rispeto ad una 1060, non è che consuma comunque sempre 250W contro i 145W delle 1060 custom!
riesce a consumare molto meno....
poi, creto, se il gioco usa solo 4GB di VRAM, alla fine si troverà comunque a far andare tutti e 8 i controller memoria, ed anche quello è un lavoro, quindi un consumo...
se invece di usare a come capita la memoria, si partizionasse come aviene sui sistemi operativi, dinamicamente e si usasse quello che avanza per un adeguato provisoring, gli 8GB sono di più di 6GB i 256GB/s sono di più dei 196GB/s del bus, per cui avrai limiti spostati 2GB più in là... ma nessun gioco sfrutta così la memoria, perchè si dovrebbe avere una gestione dinamica, in modo da poter usare tutta la memoria VRAM disponibile a seconda di quanta ne offra la scheda...
cioè, ce la stanon facendo a peperone con la PS5 ed il suo fantabuloso SSD capace quasi di far volare le prestazioni dei giochi (!?) e poi i giochi utilizzano la VRAM a partizionamento fisso, senza sfruttarla tutta per la caches?
vedi che c'è qualcosa che suona male in questo discorso...
il fatto che consuma il giusto lo ha notato anche StylezZz'... a chi le ha non bisogna dirlo, lo vede dai driver stessi (i driver che molti criticano senza una vera ragione e senza averli nemmeno provati, visto che spesso quelli che parlano hanno una nvidia).
certo, quello è solo il consumo della CPU, a cui si deve sommare quello della RAM, ma 30-35W per 8 chippetti bastano...
poi anche sulle prestazioni del benchmark usato per fare il torture test si deve ragionare sulla prestazione:
in time spy la 1060 arriva a 4315, la 580 a 4807, la 570 4GB arriva a 4370.
sulla 580 c'è un 11% in più di prestazione su un tipo di codice che pur scritto in DX12 mantiene comunque un'occhio di riguardo verso l'architettura nvidia, ma sulla 570 che consuma 187W, è vero che c'è un 30% di consumo in più, ma è pur vero che sono nemmeno 40W e alimenti 8 chip di VRAM invece che solo 6...
e questo nel consumo massimo, perchè su MLL, dove si rilevano le medie sul gioco (ma per me è "su quel gioco" visto che molti sono decisamente incostanti nello sforzare la GPU) consuma 170W contro i 120 di una 1060 6GB FE con power limit regolato a valore di default e anche qui le sue prestazioni sono superiori ad una 1060 6GB FE, e costa anche molto meno e fa molto meno rumore.
attento a questo particolare: meno , molto meno rumore.
perchè basta tenere quel chip a 50°C che consuma menimo 15W di meno... se lo lasci autoregolato ti arriva facilamente ai 72°C di thermal limit prima di farti sentire qualcosa in più di 36dB.
è l'effetto joule... più è caldo, più consuma...
quindi puoi continuare a sostenere la credibilità di questi siti, ma la verità è che se devi fare un'analisi accurata, la devi fare andando a valutare tutti i parametri in tutte le situazioni... diversamente non fai un'analisi accurata ma solo pubblicità.
quando anche qui, su HWupgrade, faranno per ogni singolo gioco uno screening completo dei parametri, allora potremmo dire che stanno facendo le cose per bene e con obbiettività...
fino a quel giorno non stanno facendo altro che come tutti gli altri, magari inconsapevolmente, ma non di più, non di meno.
per una buona analisi servono tutti i parametri che si possono rilevare, puntualmente su ogni tipo di gioco che provi:
FPS del gioco e andamento del framerate, frequenza GPU, temperatura GPU, velocità della ventola della GPU, utilizzo in percentuale della GPU, consumo della GPU, uso della VRam della GPU e poi si ricomincia d'accapo con la CPU; rilevamento puntuale.
solo in questo modo puoi vedere come stà lavorando il sistema.
oltretutto utilizzare CPU come il 9900K spatato a 5.3 Ghz per evitere i colli di bottiglia con tute le GPU è una valutazione scorretta.
per una entry level una CPU bassa, ma buona, per una GPU media una CPU decente, per una top andrà forse anche bene il 9900K a 5.3ghz (FORSE, perchè la gente che compra una 2080 TI e non overclocka il suo processore è molta di più di quella che overclocka già solo la GPU, su cui basta agire su uno slider, e infinitivamente di più di quelli che iverclockano anche la CPU)...
tu mi devi acoppiare la CPU più idonea per quella configurazione, non quella massima, che va forse bene per le top di gamma.
ed è semplice il perchè:
se i driver lavorano molto sulla GPU, come ad esempio se ci sono altre funzionalità, quale Physx, che aiuta e di molto a scaricare i calcoli della CPU, visto che usa preferibilmente le AVX del processore, mentre se non hai una nvidia il codice che usi gira o su X87 o su SEEE se sei fortunato, è vero che otterrai più realismo, ma è anche vero che otterrai facilmente anche più prestazioni;
ma queste prestazioni che guadagni le hai scaricate sulla CPU, però; senza non è detto che le avresti avute.
le nvidia è risaputo che hanno un consumo della GPU più consistente, ma questa cosa è sempre passata in sordina proprio grazie alle CPU overclockate che si usano nelle comparative, sostenendo che si usano per evitare i colli di bottiglia.
se una nvidia mi prende il 20% medio di occupazione di un processore a 16 thread che gira fisso a 5.3Ghz, mentre una AMD me ne richiede il 15% nelle stesse condizioni, non credere che quel 5% di differenza sia poco...
in molti casi si parla di massimo 4 core occupati dal gioco, 6 a stare larghi, ma l'indicazione della percentuale d'uso del processore è totale e riferita a quella frequenza.
se usi un quadcore senza HT o SMT, solo 4 core, il gioco gira magari allo stesso framerate, senza bottleneck, ma il 20% di nvidia diventa 80% a 5.3Ghz, mentre per amd diventano il 60% a 5.3 ghz, o meglio 100% a 4.24Ghz per il primo e 100% di un quadcore a 3.2Ghz per il secondo...
ora dimmi se quel 5% di differenza non sia consistente sul consumo dell'intera macchina, visto che da una parte devi mantenere un 8/16 core/thread a 5.3Ghz e dall'altra invece puoi farlo con un quadcore senza SMT a 3.2Ghz... ad occhio e croce consumo il 30-40% in meno, come dire 60W contro 100W.
quindi che succede?
una 570 spende 170W per andare uguale ad una 1060 che ne spende 120, ma poi le devi usare su un sistema con una CPU octacore SMT a 5.3ghz e confrontare su entrambe sparata a consumare 120-130W, quando ad una ne serve una da solo 60 e all'altra da 100?
o credi che un 9900K a 5.3ghz consumi effettivamente 40W se sta al 20 o al 25% con il clock fisso a 5.3ghz e il vcore a 1.30V?
ecco perchè puoi valutare di controllare se una CPU di media prestazione messa in autoregolazione faccia da tappo alla GPU testandole su quelle CPU e poi ritestandole su un sistema ad elevate perstazioni, ma poi il valore che ne deve uscire fuori è il consumo totale del sistema con una CPU giusta per il sistema e regolata a default, in modo che se una GPU la sfrutta meno, farà consumare meno tutto il sistema, perchè tu giochi con l'intero sistema...
anche perchè la quasi totalità della gente la usa così, a default, e non si mette ad overclockare ne la CPU ne la GPU.
come vedi è sbagliato dare i consumi della sola GPU, come è sbagliato dare i consumi dell'intera macchina, ma sparata in overclock inrangiungibili.
i consumi si dovrebbero dare per setting a default su una macchina ben bilanciata, perchè poi è quello che la gente va a prendere ed usa, anche perchè così ti accorgi anche del lato economico: se una GPU per darmi le stesse prestazioni ha necessità di una CPU più prestazionale, dovrò valutare anche quell'esigenza quando giudicherò il prodotto.
poi è logico che non si va mai a far prendere una CPU di stretta misura per la GPU che si acquista, soprattutto se il tutto viene fatto insieme, in quanto è facile che una CPU si faccia 2 o più GPU, ma la questione è una: se la 1060 richiedeva almeno un i5 per essere sfruttata, una 1070 richiedeva un i7? quindi se l'intenzione era di mantenere la CPU, si deve andare a guardare comunque una CPU più dotata sia se si confronta una 1060 su una 580 sia sie si confronta una 1070 su una vega 56...
è tutto proporzionale.
senza quei dati, puntuali, le chiaccherate che si fanno nei forum, con i fanboys delle due fazioni, di qualsiasi fazione, che si sparano link a casaccio, sono solo giochi, ne più ne meno che come i videogiochi, perchè si discute seriamente solo sulle cose serie e non sulle stupidaggini... su quelle si può solo giocare.
HAI CAPITO ORA CARO PAUL?
e te l'ho già scritto: non chiamarmi più in causa per queste stupidaggini, perchè senza dati certi stiamo solo giocando a chi la spara più grossa (con la differenza che tu nemmeno le capisci, queste cose, perchè ancora dai voce ai risultati di siti che non danno nessuna credibilità nel fornirli).
Io non ho ancora capito dove vuoi andare a parare, sinceramente, boh
Ma ti rendi conto che con due nodi di vantaggio sta GPU consuma 100 watt in più per andare il 30% in più? Ma tutti i discorsi sui TeraFLOPS che fine hanno fatto?
https://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.htmlhttps://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.html
3080ti 2200mhz 21tf 230w
Sarebbero 9,1tf con 100w
Avrebbero raddoppiato le perf/watt.
Speriamo non sia vera altrimenti qualcuno ci rimarrà veramente male.
IMHO
Gyammy85
17-05-2020, 11:43
https://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.htmlhttps://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.html
3080ti 2200mhz 21tf 230w
Sarebbero 9,1tf con 100w
Avrebbero raddoppiato le perf/watt.
Speriamo non sia vera altrimenti qualcuno ci rimarrà veramente male.
IMHO
230w, buona fortuna
nickname88
17-05-2020, 12:15
230w, buona fortuna
Ma hai qualche problema mentale ?
A parte che è un rumors, ma 230W è un valore normale ( anche basso ) per le Ti.
Buona fortuna che cosa ? Ti ha appena detto che se fosse vero raddoppierebbero il perf/watt .... sei senza speranze. :rolleyes:
AceGranger
17-05-2020, 12:20
230w, buona fortuna
lamentarsi di 230W per una TOP Gamma, quando AMD per le sue "TOP Gamma" non sta mai sotto i 300W è semplicemente :rotfl:
nickname88
17-05-2020, 12:26
lamentarsi di 230W per una TOP Gamma, quando AMD per le sue "TOP Gamma" non sta mai sotto i 300W è un gradino oltre il ridicolo :rotfl:
Che poi alla fine sarebbero solo 5W sopra la RX590 :asd:
Gyammy85
17-05-2020, 13:25
Ma hai qualche problema mentale ?
A parte che è un rumors, ma 230W è un valore normale ( anche basso ) per le Ti.
Buona fortuna che cosa ? Ti ha appena detto che se fosse vero raddoppierebbero il perf/watt .... sei senza speranze. :rolleyes:
lamentarsi di 230W per una TOP Gamma, quando AMD per le sue "TOP Gamma" non sta mai sotto i 300W è semplicemente :rotfl:
Che poi alla fine sarebbero solo 5W sopra la RX590 :asd:
Riscrivo
"Buona fortuna a pensare che quella roba possa avere un tdp di soli 230w"
230w, buona fortuna
L'ho detto che qualcuno ci rimaneva male, ecco il primo.
Son solo rumor, ma se fosse vera saresti disposto a redimerti ed uscire da questo circolo fondamentalista.
Riscrivo
"Buona fortuna a pensare che quella roba possa avere un tdp di soli 230w"
beh era 260w il tdp della 2080ti founder non vedo tutta sta differenza se fosse 230w. anche se sinceramente, spero sia anche 360w :)
attualmente ho un bios moddato a +60% che mi porta la mia a 400 w con quasi un 20% di perf in piu in 4k :O
quindi pensandoci anche 500w sarebbeok :rotfl:
imho queste schede sono votate alle perf.. chissene dei consumi se rendono (basta che non si bloccano :D)
Per chi stia già usando una 2080Ti (o una Vega 64) penso non contino molto i consumi e quindi continuerà a privilegiare le performance.
Come giustamente deve essere, massime prestazioni massimo consumo.
Gyammy85
17-05-2020, 15:43
L'ho detto che qualcuno ci rimaneva male, ecco il primo.
Son solo rumor, ma se fosse vera saresti disposto a redimerti ed uscire da questo circolo fondamentalista.
Mannaggia mi hai scoperto, ci resterei davvero malissimo
beh era 260w il tdp della 2080ti founder non vedo tutta sta differenza se fosse 230w. anche se sinceramente, spero sia anche 360w :)
attualmente ho un bios moddato a +60% che mi porta la mia a 400 w con quasi un 20% di perf in piu in 4k :O
quindi pensandoci anche 500w sarebbeok :rotfl:
imho queste schede sono votate alle perf.. chissene dei consumi se rendono (basta che non si bloccano :D)
Contenti voi contenti tutti, come sono lontani i tempi di pascal
Per chi stia già usando una 2080Ti (o una Vega 64) penso non contino molto i consumi e quindi continuerà a privilegiare le performance.
Come giustamente deve essere, massime prestazioni massimo consumo.
Aggiungerei anche "the more you buy, the more you save"
Saluti
nickname88
17-05-2020, 15:53
Contenti voi contenti tutti, come sono lontani i tempi di pascal
SalutiIn pratica non è uscita alcuna specifica ufficiale nè tanto meno le schede e tu hai già giudicato ? :asd:
Sei senza speranze.
Mannaggia mi hai scoperto, ci resterei davvero malissimo
Contenti voi contenti tutti, come sono lontani i tempi di pascal
Aggiungerei anche "the more you buy, the more you save"
Saluti
Eh vabbè a parti inverse potrei dire come sono lontanissimi i tempi di ATI... che discorso è...mah
Se ora mi fanno una scheda 40% in più di perf e con poca penalizzazione se uso raytracing sono contento si
L'ho detto che qualcuno ci rimaneva male, ecco il primo.
Son solo rumor, ma se fosse vera saresti disposto a redimerti ed uscire da questo circolo fondamentalista.
facciamo così: se è vero che qualcuno ci rimamarrà male se si concretizza questo leak, se invece si riveleranno stupidaggini tu ti metti alla gogna per l'intero anno in pubblica derisione?
perchè quel leak gira già da un paio di settimane e non sono altro che la somma di tutte le fantasie sfrenate dei fanboys nvidia.
la realtà si chiama tecnologia e ti dice che per i 21TF in FP32 sui cudacore ti ci vuole un chip come quello che hanno mostrato sotto le A100, che poi ne fa esattamente 19.5 e non ha nemmeno RT core abilitati...
quindi io mi prepararo più verso i 400W, che non a 230W.
e nota bene: questo è su processo N7;
le gaming, per farle più economiche, anzi, proprio per farle, perchè su TSMC non c'è più un wafer libero, saranno su Samsung 8nm, che si dice non abbia le stesse rese, oltre ad essere con una densità inferiore all'N7 (ma visto che qui ci hanno messo dentro 65 milioni di transistors, non mi stupirei che riescono a mettere 50 milioni in un'altra mattonella fatta da Samsung)... sarà poi il costo a rendere appetibile o meno tale scelta produttiva.
tecnicamente già si può fare: fai i driver da gaming a questo GA100 e sei a posto, ma per 25.000 euro a scheda.
In pratica non è uscita alcuna specifica ufficiale nè tanto meno le schede e tu hai già giudicato ? :asd:
Sei senza speranze.
in realtà sono i signori con cui si parla che hanno già dato il loro giudizio...
io mi attengo a quello che vedo su questo chip: 19.5TF per 400W su N7.
Eh vabbè a parti inverse potrei dire come sono lontanissimi i tempi di ATI... che discorso è...mah
Se ora mi fanno una scheda 40% in più di perf e con poca penalizzazione se uso raytracing sono contento si
l'hai già: fatti fare i driver da nvidia e usa una di queste su scheda add-on.
piccolo problema: 25.000 euro e il costo dei driver personalizzati :stordita:
a proposito della tua 2080 Ti con 400W: non credo che ci riesci con un dissipatore standard, ma è presumibile che sei in un custom loop, perchè dissipare 400W sul dissipatore di una 2080 TI ad aria non è proprio pratico...
conta quindi quanto costa la tua soluzione per un +20% e rapportalo al +40% che cerchi.
l'hai già: fatti fare i driver da nvidia e usa una di queste su scheda add-on.
piccolo problema: 25.000 euro e il costo dei driver personalizzati :stordita:
a proposito della tua 2080 Ti con 400W: non credo che ci riesci con un dissipatore standard, ma è presumibile che sei in un custom loop, perchè dissipare 400W sul dissipatore di una 2080 TI ad aria non è proprio pratico...
conta quindi quanto costa la tua soluzione per un +20% e rapportalo al +40% che cerchi.
Infatti ho un custom loop, ma è tirata per il collo, quando con un normale oc puoi ottenere facilmente un +10% di performance. Non ho capito il discorso del rapportare, anche la serie 3000 sarà overcloccabile e comunque non bado al rapporto qualità prezzo, altrimenti sarei rimasto ad aria
facciamo così: se è vero che qualcuno ci rimamarrà male se si concretizza questo leak, se invece si riveleranno stupidaggini tu ti metti alla gogna per l'intero anno in pubblica derisione?
perchè quel leak gira già da un paio di settimane e non sono altro che la somma di tutte le fantasie sfrenate dei fanboys nvidia.
la realtà si chiama tecnologia e ti dice che per i 21TF in FP32 sui cudacore ti ci vuole un chip come quello che hanno mostrato sotto le A100, che poi ne fa esattamente 19.5 e non ha nemmeno RT core abilitati...
quindi io mi prepararo più verso i 400W, che non a 230W.
e nota bene: questo è su processo N7;
le gaming, per farle più economiche, anzi, proprio per farle, perchè su TSMC non c'è più un wafer libero, saranno su Samsung 8nm, che si dice non abbia le stesse rese, oltre ad essere con una densità inferiore all'N7 (ma visto che qui ci hanno messo dentro 65 milioni di transistors, non mi stupirei che riescono a mettere 50 milioni in un'altra mattonella fatta da Samsung)... sarà poi il costo a rendere appetibile o meno tale scelta produttiva.
tecnicamente già si può fare: fai i driver da gaming a questo GA100 e sei a posto, ma per 25.000 euro a scheda.
Ecco il secondo.
E vai con la filippica, ma chi le legge tutte quelle frasi sconfusionate che partorisci.
Ti devi redimere, non è possibile fare tifo da stadio in ambito IT, bisogna essere obbiettivi.
È mai possibile ogni volta che esce una notizia che porta avanzamenti tecnologici dovete sparare falsità fondamentaliste se non è la vostra marca preferita.
IMHO
Ecco il secondo.
E vai con la filippica, ma chi le legge tutte quelle frasi sconfusionate che partorisci.
Ti devi redimere, non è possibile fare tifo da stadio in ambito IT, bisogna essere obbiettivi.
È mai possibile ogni volta che esce una notizia che porta avanzamenti tecnologici dovete sparare falsità fondamentaliste se non è la vostra marca preferita.
IMHO
Ahahha allora non sono l’unico ad aver pensato che fosse illeggibile 😂
probabilmente è illegibile per chi, come voi, crede alle favolette.
per chi ha un minimo di obbiettività il discorso è assai lineare:
per 19.5TF su TSMC N7 sono richiesti 400W;
voi ne cercate 21 su Samsung 8nm.
loro hanno usato N7 su una soluzione in cui il rendimento energetico migliore, unito alle massime prestazioni, è imperativo.
se come processo produttivo era migliore l'8nm Samsung, fare uscire questo chip è semplicemente sciocco...
come già scritto, tecnicamente c'è la soluzione e si chiama GA100, ma non consuma 230W e non costa in misura al mercato consumer.
se riescono a spremere quella potenza da questi processi con quell'assorbimento e a "prezzi modici", se 2000 euro si posson chiamare ancora "prezzi modici", ben venga, ma obbiettivamente quello che vediamo è che se usano il Samsung 8nm è già tanto farlo con 400W, riuscire anche a venderlo "a poco" è volere la luna.
l'unica cosa di affidabile che dicono in quel retport è che aumenteranno il numero di cudacore (ma te lo poteva dire anche il tuo fruttivendolo, visto che è una prassi consolidata).
per il resto potete anche continuare a fantasticare; tra ben poco vedremo i risultati e se ne potrà discutere con un minimo di aderenza alla realtà...
quello di questo periodo è più hype che altro, montato soprattutto da gente che non ci capisce una sola H dell'argomento (ossia da chi crede alle favolette e non si attiene alle constatazioni obbiettive).
ora l'avete capito o ve lo devo scrivere in Braille, perchè sembra che chiedete una mappa concettuale che vi illusti un discorso molto semplice, come a scuola si fa con i bambini che hanno difficoltà ad apprendere anche le cose più semplici ed immediate... e sinceramente non ho voglia di perdere tempo con gente che crede alle favolette.
cdimauro
18-05-2020, 05:38
La questione è alquanto semplice: AMD ha già usato il jolly del processo produttivo a 7nm, per cui non ha più altri margini per cercare di recuperare il terreno con nVidia, fatta eccezione il miglioramento della sua (micro)architettura ed eventualmente la realizzazione di chip più complessi (con più area/silicio).
AMD era messa molto male con le GPU prima di utilizzare i 7nm, ed è riuscita a recuperare terreno sfruttando i vantaggi del nuovo processo, ma non riuscendo in ogni caso a scalzare nVidia né in termini prestazionali né tanto meno in termini di consumi. Questi sono i fatti e le recensioni sono lì a testimoniare queste due cose.
Dunque la sua battaglia la può fare e la fa principalmente sul piano economico, vendendo le sue GPU a prezzi inferiori alle controparti nVidia.
Adesso è arrivato per nVidia il momento di giocarsi il jolly del processo a 7nm. Passare dai 12nm ai 7nm significa:
- poter impacchettare circa il triplo dei transistor a parità di area;
- ridurre notevolmente i consumi a parità di area e/o di frequenza;
- aumentare le frequenze a parità di area/consumi.
Come voglia sfruttare questi vantaggi sarà affar suo, ma è evidente che può giocarseli come le pare, per aggredire meglio tutte le fasce in cui propone i suoi prodotti.
Tanto per fare qualche esempio, potrebbe semplicemente prendere la sua attuale (micro)architettura così com'è, non farci alcuna modifica, e tirare fuori una line-up che sarebbe di gran lunga più economica da produrre, e in ogni caso più performante (maggiori frequenze a parità di consumi).
Quindi le nuove schede potrebbe scendere notevolmente di prezzo per i consumatori. Oppure potrebbe tenere tutto il margine per sé, e aumentare ancora di più i ricavi.
Dalle informazioni che circolano sembrerebbe che abbia deciso, invece, di migliorare la sua offerta in termini di caratteristiche. E siccome i margini per poterlo fare ci sono tutti (vedi sopra), è tutt'altro che irrealistico pensare che quanto stia girando in questo periodo sia sfrutto di mere speculazioni inventate giusto per qualche click.
Dunque per AMD si prospettano tempi decisamente più duri, perché coi nuovi prodotti a 7nm nVidia potrebbe lasciarle soltanto le briciole (dipende soltanto da se e quanto sarà ingorda nello sfruttare l'enorme vantaggio che le porterà il nuovo processo).
La questione è alquanto semplice:
Dunque per AMD si prospettano tempi decisamente più duri, perché coi nuovi prodotti a 7nm nVidia potrebbe lasciarle soltanto le briciole (dipende soltanto da se e quanto sarà ingorda nello sfruttare l'enorme vantaggio che le porterà il nuovo processo).
Guarda, è una battaglia persa con certa gente.
Fanno finta di non capire che le prossime quadro/rtx saranno si basate su ampere ma fortemente modificate come volta con turing.
Parlano dei 19,5tf ma non
capiscono che quel valore è via cudacore e che trammite i tensor possono eseguire calcoli a singola e ora anche a doppia precisione che nel peggiore dei casi raddoppia le prestazioni rispetto a volta. Come se non bastasse, le unità si avvalgono di nuova tecnica chiamata "structural sparsity" che raddoppia la velocità di esecuzione dei calcoli legati all'IA - supporta i formati TF32, FP16, BFLOAT16, INT8 e INT4.
Secondo loro questi 54mld di transistor servono solo a consumare di più.
Senza considerare che la controparte ad oggi con quasi 14tf vada meno di una da 10tf della concorrenza con un nodo di vantaggio e comunque consumi maggiori.
IMHO
nickname88
18-05-2020, 10:47
io mi attengo a quello che vedo su questo chip: 19.5TF per 400W su N7.Certo perchè secondo te Nvidia andrebbe a peggiorare pesantemente il performance / watt dell'attuale architettura :asd: ?
19.5TF ? E da quando si possono fare confronti di TF con architetture differenti ?
I TF sono solamente il risultato di una banale moltiplicazione che non tiene conto dell'efficienza dell'architettura.
AceGranger
18-05-2020, 14:22
probabilmente è illegibile per chi, come voi, crede alle favolette.
per chi ha un minimo di obbiettività il discorso è assai lineare:
per 19.5TF su TSMC N7 sono richiesti 400W;
al dila dei rumors, è senza senso parlare di 19,7TF in 400W, se in quei 400W non solo è compreso il mondo ( che di certo non sara messo nei chip RTX dove il chip subira un taglio maggiore rispetto a Volta-Turing ) ma nelle Tesla il TDP indica il throughput della GPU in operazioni multiple; non è come AMD che fa tutto con le stesse unita.
se fai andare UN solo tipo di elaborazione non andrai a riempire i 400W, le unita hardware mica sono distribuite pensando di andare a cappare singolarmente il TDP e nemmeno possono dinamicamente sparare cosi tanto in alto la frequenza.
GV100 ha un TDP standard da 300W ma quelle del DGX-2H sono settate a 450W di TDP, hanno alzato di uno sputo prestazioni di una singola tipologia di calcolo ma è aumentato il throughput totale della GPU quindi, l'unico modo per andare a riempire i 450W delle Volta è fare chesso, FP32 al massimo + un po di Tensor + l'nVlink a manetta.
Quindi è senza senso prendere singolarmente UN valore di UNA unita hardware; basta pensare solo al TDP riservato ai 12 channel nVlink, dove fra un po c'è piu banda nVlink nelle Ampere che di banda nelle HBM di AMD :asd:; non è un caso che i 6 switch nVLink sulla MB abbiano dei dissipatori che sono 1/3 di quello delle GPU...
la V100 DGX-2H sono 15 TFlops FP32 in 450W
la 2080Ti sono 13,4 TFlops in 250W
ora non vorrai mica sostenere che per fare 1,6 TFlops in piu, con i CUDA core a frequenze pure piu basse e quindi in efficienza maggiore, servano 200W... semplicemente il TDP delle Tesla non è piu direttamente associabile a 1 singolo valore prestazionale.
poi per carita, 20 TFlops sono tanti in 230W, puo essere, è un rumor che non vale un caz, ma di certo la negazione di ciò non è quella di prendere valori a membro di segugio delle Tesla.
basta aspettare.
cdimauro
18-05-2020, 22:06
Guarda, è una battaglia persa con certa gente.
Fanno finta di non capire che le prossime quadro/rtx saranno si basate su ampere ma fortemente modificate come volta con turing.
Parlano dei 19,5tf ma non capiscono che quel valore è via cudacore e che trammite i tensor possono eseguire calcoli a singola e ora anche a doppia precisione che nel peggiore dei casi raddoppia le prestazioni rispetto a volta. Come se non bastasse, le unità si avvalgono di nuova tecnica chiamata "structural sparsity" che raddoppia la velocità di esecuzione dei calcoli legati all'IA - supporta i formati TF32, FP16, BFLOAT16, INT8 e INT4.
Secondo loro questi 54mld di transistor servono solo a consumare di più.
Senza considerare che la controparte ad oggi con quasi 14tf vada meno di una da 10tf della concorrenza con un nodo di vantaggio e comunque consumi maggiori.
IMHO
Se qualcuno non capisce o fa finta di non capire, è del tutto irrilevante alla luce dei fatti.
Paradossalmente è proprio l'esperienza di AMD che permette di fare previsioni sulle prossime GPU di nVidia, perché entrambe fanno produrre i loro chip dalla stessa fonderia e usando gli stessi processi produttivi. Essendo i benefici ottenuti da AMD palpabili e confrontabili (rispetto alle sue precedenti GPU a 12nm), abbiamo un robusto use-case per i futuri prodotti nVidia.
E' vero che la densità dei transistor è migliorata notevolmente? E' vero che le frequenze sono aumentate? E' vero che i consumi si sono ridotti?
Se le risposte sono affermative è palese che risultati simili si possono tranquillamente aspettare per le future GPU di nVidia. Non avrebbe alcuna base logica pensare diversamente, ossia che il passaggio ai 7nm possa comportare una valanga (da ciò che è stato paventato) di problemi e praticamente nessun vantaggio (allora tanto varrebbe rimanere sui 12nm, visto che consentono a nVidia di mantenere una chiara leadership).
In più c'è da dire che i miglioramenti di AMD sono arrivati sfruttando le prime versioni del processo a 7nm di TSMC, mentre nVidia arriva dopo un bel pezzo, e dunque potendo sfruttare un processo più maturo. Ossia rese migliori -> più chip buoni per wafer (quindi costi ridotti) -> più chip con prestazioni più elevate.
Quindi la situazione per nVidia sarà ancor meglio rispetto ad AMD (che si può dire abbia fatto da cavia).
Come già detto, a nVidia sarebbe sufficiente eseguire un banale shrink dei prodotti che ha già per ottenere enormi vantaggi, e mettere in difficoltà AMD.
Invece, come da sua tradizione (per lo meno degli ultimi anni), presenterà dei prodotti di gran lunga più "pompati", perché in questo modo scaverebbe un baratro con la concorrenza (anche Intel, che entrerà nel mercato delle GPU discrete, è avvisata). Tanto per le fasce più basse fornirà comunque chip più semplici e con molte meno stream processor, che le consentiranno lauti guadagni grazie alle maggiori vendite.
E non stiamo nemmeno parlando dei miglioramenti micro-architetturali che sembra arriveranno, e che a parità di stream processor consentiranno di ottenere prestazioni migliori...
cronos1990
19-05-2020, 07:13
equilibrio ed obbiettività la devi chiedere, in primis, a chi mostra i consumi nelle review: se mi fai vedere un consumo, mi devi far vedere anche le prestazioni che generi con quel consumo.[...]Non volevo fare un'analisi comparata obiettiva. Sono perfettamente d'accordo che occorre fare un raffronto considerando anche le prestazioni, altrimenti non ha senso. Sarebbe come dire che la mia lampadina da 20 Watt consuma di più della tua da 15W, però poi la mia fa il triplo di luce.
Mi fanno solo sorridere certe uscite di alcune persone che sparano numeri a caso, lo fanno senza cognizione di causa e esclusivamente per dare addosso a qualcuno (o elogiare forzatamente altri).
È possibile avere la faccina che sbadiglia ? Thanks
nickname88
19-05-2020, 09:29
Non volevo fare un'analisi comparata obiettiva. Sono perfettamente d'accordo che occorre fare un raffronto considerando anche le prestazioni, altrimenti non ha senso. Sarebbe come dire che la mia lampadina da 20 Watt consuma di più della tua da 15W, però poi la mia fa il triplo di luce.
Mi fanno solo sorridere certe uscite di alcune persone che sparano numeri a caso, lo fanno senza cognizione di causa e esclusivamente per dare addosso a qualcuno (o elogiare forzatamente altri).
Locusta è quello che giudica le performance di differenti prodotti tutto in base ai Tflops, non lo sai ? :O
ninja750
19-05-2020, 10:09
Paradossalmente è proprio l'esperienza di AMD che permette di fare previsioni sulle prossime GPU di nVidia, perché entrambe fanno produrre i loro chip dalla stessa fonderia e usando gli stessi processi produttivi. Essendo i benefici ottenuti da AMD palpabili e confrontabili (rispetto alle sue precedenti GPU a 12nm), abbiamo un robusto use-case per i futuri prodotti nVidia.
E' vero che la densità dei transistor è migliorata notevolmente? E' vero che le frequenze sono aumentate? E' vero che i consumi si sono ridotti?
Se le risposte sono affermative è palese che risultati simili si possono tranquillamente aspettare per le future GPU di nVidia.
concordo ma non è quantificabile, non esisteva una navi a 14nm o 12nm da confrontare a questa navi da 7nm, si è passati da polaris e vega a 14nm direttamente a navi 7nm, difficile scindere esattamente quante migliorie ci sono state in architettura e quante in nuovo PP
ovviamente non è questo il caso, ma pensa se le migliorie di navi vs vega fossero state 90% nuova architettura e 10% nuovo PP, nvidia darebbe per scontato di trovarsi un boost che magari non otterrebbe in numeri che pensa lei basta guardare lo scivolone fatto da intel sui 10nm.. credo anche io che passando ai 7nm nvidia farà un bel salto ma quanto grosso il salto difficile stabilirlo guardando navi e basta
Paradossalmente è proprio l'esperienza di AMD che permette di fare previsioni sulle prossime GPU di nVidia, perché entrambe fanno produrre i loro chip dalla stessa fonderia e usando gli stessi processi produttivi.
Che notizie hai a riguardo?
Perché secondo le voci che circolavano nVidia per le Geforce non utilizzerà i 7nm+ di TSMC presumibilmente a causa della scarsità degli slot disponibili, quindi si dovrà accontentare di un processo produttivo peggiore.
In più c'è da dire che i miglioramenti di AMD sono arrivati sfruttando le prime versioni del processo a 7nm di TSMC, mentre nVidia arriva dopo un bel pezzo, e dunque potendo sfruttare un processo più maturo. Ossia rese migliori -> più chip buoni per wafer (quindi costi ridotti) -> più chip con prestazioni più elevate.
Quindi la situazione per nVidia sarà ancor meglio rispetto ad AMD (che si può dire abbia fatto da cavia).
Non c'è alcun vantaggio in questo per nVidia, perchè la sua nuova generazione andrà a scontrarsi con la nuova generazione di AMD che utilizzerà i 7nm+. Aver "fatto da cavia" è un non-problema, dato che per AMD è stato positivo rispetto all'aver usato i 12nm come ha fatto nVidia.
Anzi potrebbe essere un vantaggio per AMD che ha già maturato un po' di esperienza sui 7nm che potrebbe tornare utile con i nuovi chip (dipende da quanto i due processi a 7nm siano simili).
L'unica verità è che nVidia ha sicuramente più margine di miglioramento in relazione al processo produttivo perchè non si è già giocata la carta 7mn. Sempre che questa volta riesca a giocarla.
cdimauro
19-05-2020, 22:58
concordo ma non è quantificabile, non esisteva una navi a 14nm o 12nm da confrontare a questa navi da 7nm, si è passati da polaris e vega a 14nm direttamente a navi 7nm, difficile scindere esattamente quante migliorie ci sono state in architettura e quante in nuovo PP
Il famigerato processo a 12nm è molto simile a quello a 14nm, tanto che da alcuni viene anche chiamato 14nm+.
Comunque dovrebbe esserci anche una GPU AMD che è stata portata dai 14/12 ai 7nm. Ma non mi ricordo quale, al momento.
ovviamente non è questo il caso, ma pensa se le migliorie di navi vs vega fossero state 90% nuova architettura e 10% nuovo PP, nvidia darebbe per scontato di trovarsi un boost che magari non otterrebbe in numeri che pensa lei basta guardare lo scivolone fatto da intel sui 10nm..
Se parli di sole prestazioni, i cambiamenti micro-architetturali si possono rilevare con appositi test. E mi pare che, comunque, AMD abbia fornito anche questo dato.
credo anche io che passando ai 7nm nvidia farà un bel salto ma quanto grosso il salto difficile stabilirlo guardando navi e basta
Come già detto prima, la densità è sicuramente migliorata notevolmente (circa 3 volte).
Poi ci sarebbero consumi e/o frequenze da considerare, e non mi pare che anche altri produttori di chip che si servono da TSMC abbiano lamentato problemi di maggiori consumi e/o frequenze ridotte. Tutt'altro. E la stessa TSMC snocciolò i dati delle migliori prestazioni dei suoi 7nm.
Che notizie hai a riguardo?
Perché secondo le voci che circolavano nVidia per le Geforce non utilizzerà i 7nm+ di TSMC presumibilmente a causa della scarsità degli slot disponibili, quindi si dovrà accontentare di un processo produttivo peggiore.
Io mi riferivo ai 7nm, e non ai 7nm+, per cui il discorso non cambia. Al più potrebbe soltanto migliorare, se nVidia dovesse adottare i 7nm+.
Non c'è alcun vantaggio in questo per nVidia, perchè la sua nuova generazione andrà a scontrarsi con la nuova generazione di AMD che utilizzerà i 7nm+.
Che però non vanta gli stessi guadagni in termini di densità raggiunta, visto che è soltanto un affinamento dei 7nm.
Aver "fatto da cavia" è un non-problema, dato che per AMD è stato positivo rispetto all'aver usato i 12nm come ha fatto nVidia.
E' positivo fino a un certo punto, perché le rese iniziali dei 7nm non era paragonabili a quelle dei 14/12nm.
Tant'è che per la terza generazione di Ryzen ha preferito continuare a usare il vecchio processo per il chip di I/O (che pure è bello grosso) anziché passare tutto ai 7nm...
Anzi potrebbe essere un vantaggio per AMD che ha già maturato un po' di esperienza sui 7nm che potrebbe tornare utile con i nuovi chip (dipende da quanto i due processi a 7nm siano simili).
Pensi che nVidia non abbia già testato da tempo i 7nm? ;)
L'unica verità è che nVidia ha sicuramente più margine di miglioramento in relazione al processo produttivo perchè non si è già giocata la carta 7mn. Sempre che questa volta riesca a giocarla.
Non credo ci siano dubbi in merito. E' soltanto questione di tempo. Vedrai.
1) Io mi riferivo ai 7nm, e non ai 7nm+, per cui il discorso non cambia. Al più potrebbe soltanto migliorare, se nVidia dovesse adottare i 7nm+.
2) Che però non vanta gli stessi guadagni in termini di densità raggiunta, visto che è soltanto un affinamento dei 7nm.
3) E' positivo fino a un certo punto, perché le rese iniziali dei 7nm non era paragonabili a quelle dei 14/12nm.
4) Tant'è che per la terza generazione di Ryzen ha preferito continuare a usare il vecchio processo per il chip di I/O (che pure è bello grosso) anziché passare tutto ai 7nm...
5) Pensi che nVidia non abbia già testato da tempo i 7nm? ;)
6) Non credo ci siano dubbi in merito. E' soltanto questione di tempo. Vedrai.
1) in tal caso sarebbe sempre in "svantaggio", i 7nm+ sono comunque migliori dei 7nm. E da quel che si diceva nVidia non avrebbe neppure usato i 7nm.
2) Non ho dati alla mano, ma è un processo migliore. Dove sia il guadagno non saprei esattamente.
3) Ma i chip erano molto più piccoli, il che migliora le rese e riduce i costi (pur rimanendo senza dubbio il processo più costoso). Inoltre c'erano dei vantaggi prestazionali. Direi che per AMD è stato comunque positivo, anche perchè ricordo bene che in quel periodo TSMC aveva dichiarato che le rese dei 7nm erano già molto buone (dopo il primissimo uso con Vega 20).
4) È molto più plausibile che abbia fatto questa scelta per motivi di costo (il chip di I/O non necessitava di grandi prestazioni e i 12nm di GF erano molto economici) e soprattutto per motivi di produzione (così da risparmiare le preziose linee a 7nm e dedicarle alla produzione dei ccx, così da poter produrre complessivamente più processori).
5) C'è una certa differenza tra fare prove e fare esperienza diretta con un processo produttivo. Sicuramente nVidia ha fatto le sue prove, ma l'esperienza in produzione manca(va).
6) Certamente, io mi riferivo esclusivamente alla prossima generazione in uscita.
cdimauro
20-05-2020, 06:18
1) in tal caso sarebbe sempre in "svantaggio", i 7nm+ sono comunque migliori dei 7nm. E da quel che si diceva nVidia non avrebbe neppure usato i 7nm.
Il vantaggio principale è la densità. I vantaggi del 7nm+ sono un leggero calo dei consumi e/o aumento delle frequenze.
2) Non ho dati alla mano, ma è un processo migliore. Dove sia il guadagno non saprei esattamente.
Vedi sopra.
3) Ma i chip erano molto più piccoli, il che migliora le rese e riduce i costi (pur rimanendo senza dubbio il processo più costoso). Inoltre c'erano dei vantaggi prestazionali. Direi che per AMD è stato comunque positivo, anche perchè ricordo bene che in quel periodo TSMC aveva dichiarato che le rese dei 7nm erano già molto buone (dopo il primissimo uso con Vega 20).
Che sia stato complessivamente non lo nego. Ci mancherebbe. E principalmente a livello di densità, per l'appunto.
4) È molto più plausibile che abbia fatto questa scelta per motivi di costo (il chip di I/O non necessitava di grandi prestazioni e i 12nm di GF erano molto economici) e soprattutto per motivi di produzione (così da risparmiare le preziose linee a 7nm e dedicarle alla produzione dei ccx, così da poter produrre complessivamente più processori).
Le linee ce l'ha TSMC e non AMD.
Evidentemente i 7nm non erano ancora abbastanza maturi per avere adeguate per chip complessi come quelli di I/O (ci sono 3 diversi tipi di utilizzi dei transistor in un chip).
5) C'è una certa differenza tra fare prove e fare esperienza diretta con un processo produttivo. Sicuramente nVidia ha fatto le sue prove, ma l'esperienza in produzione manca(va).
Più che altro esperienza di commercializzazione, perché i test coi wafer si fanno sempre.
6) Certamente, io mi riferivo esclusivamente alla prossima generazione in uscita.
:)
AceGranger
20-05-2020, 08:05
1) in tal caso sarebbe sempre in "svantaggio", i 7nm+ sono comunque migliori dei 7nm. E da quel che si diceva nVidia non avrebbe neppure usato i 7nm.
2) Non ho dati alla mano, ma è un processo migliore. Dove sia il guadagno non saprei esattamente.
3) Ma i chip erano molto più piccoli, il che migliora le rese e riduce i costi (pur rimanendo senza dubbio il processo più costoso). Inoltre c'erano dei vantaggi prestazionali. Direi che per AMD è stato comunque positivo, anche perchè ricordo bene che in quel periodo TSMC aveva dichiarato che le rese dei 7nm erano già molto buone (dopo il primissimo uso con Vega 20).
4) È molto più plausibile che abbia fatto questa scelta per motivi di costo (il chip di I/O non necessitava di grandi prestazioni e i 12nm di GF erano molto economici) e soprattutto per motivi di produzione (così da risparmiare le preziose linee a 7nm e dedicarle alla produzione dei ccx, così da poter produrre complessivamente più processori).
5) C'è una certa differenza tra fare prove e fare esperienza diretta con un processo produttivo. Sicuramente nVidia ha fatto le sue prove, ma l'esperienza in produzione manca(va).
6) Certamente, io mi riferivo esclusivamente alla prossima generazione in uscita.
https://images.anandtech.com/doci/15219/wikichip_tsmc_logic_node_q2_2019.png
AceGranger
20-05-2020, 08:09
1) in tal caso sarebbe sempre in "svantaggio", i 7nm+ sono comunque migliori dei 7nm. E da quel che si diceva nVidia non avrebbe neppure usato i 7nm.
2) Non ho dati alla mano, ma è un processo migliore. Dove sia il guadagno non saprei esattamente.
3) Ma i chip erano molto più piccoli, il che migliora le rese e riduce i costi (pur rimanendo senza dubbio il processo più costoso). Inoltre c'erano dei vantaggi prestazionali. Direi che per AMD è stato comunque positivo, anche perchè ricordo bene che in quel periodo TSMC aveva dichiarato che le rese dei 7nm erano già molto buone (dopo il primissimo uso con Vega 20).
4) È molto più plausibile che abbia fatto questa scelta per motivi di costo (il chip di I/O non necessitava di grandi prestazioni e i 12nm di GF erano molto economici) e soprattutto per motivi di produzione (così da risparmiare le preziose linee a 7nm e dedicarle alla produzione dei ccx, così da poter produrre complessivamente più processori).
5) C'è una certa differenza tra fare prove e fare esperienza diretta con un processo produttivo. Sicuramente nVidia ha fatto le sue prove, ma l'esperienza in produzione manca(va).
6) Certamente, io mi riferivo esclusivamente alla prossima generazione in uscita.
https://www.techpowerup.com/265991/tsmc-3nm-process-packs-250-million-transistors-per-square-millimeter
fra N7 e N7+ c'è un salto inferiore di 4/5 volte quello da 14/12 a N7.
quindi, o AMD arrivera con un'architettura RADICALMENTE differente, o semplicemente si riproporra esattamente la situazione Fury/Vega.
@cdimauro
Possibile, come dicevo non ho ancora visto nulla sulle caratteristiche dei due processi.
Se non ricordo male però uno dei vantaggi dei 7nm+ dovrebbe essere il numero molto inferiore di passaggi necessario per la stampa litografica.
Certo, le linee le ha TSMC, ma questo non cambia il discorso. AMD aveva accesso ad un certo numero di slot a 7nm, se li avesse utilizzati per i chip di I/O avrebbe sottratto slot produttivi ai CCX.
Non credo affatto che i 7nm non fossero maturi per il chip di I/O, credo l'esatto contrario, ossia che per il chip di I/O i 7mn fossero quasi sprecati.
E scrivo spracati perchè probabilmente qualche vantaggio, magari sui consumi e perchè no sull'assemblaggio del package ci sarebbero stati, ma non sufficienti a valerne la pena.
@AceGranger
Direi che la stima è più o meno quel che ci si può aspettare, altrimenti non li avrebbero chiamati solamente 7+
Nel grafico comunque non vedo il riferimento dell'ordinata, forse densità? (ma dubito che 16nm e 12nm abbiano la stessa densità).
cdimauro
21-05-2020, 11:28
@cdimauro
Possibile, come dicevo non ho ancora visto nulla sulle caratteristiche dei due processi.
Se non ricordo male però uno dei vantaggi dei 7nm+ dovrebbe essere il numero molto inferiore di passaggi necessario per la stampa litografica.
Questo non lo ricordo e non mi pare se ne parli nella slide e nel link che Ace ha postato.
Certo, le linee le ha TSMC, ma questo non cambia il discorso. AMD aveva accesso ad un certo numero di slot a 7nm, se li avesse utilizzati per i chip di I/O avrebbe sottratto slot produttivi ai CCX.
E' possibile.
Non credo affatto che i 7nm non fossero maturi per il chip di I/O, credo l'esatto contrario, ossia che per il chip di I/O i 7mn fossero quasi sprecati.
No, come ti dicevo prima puoi utilizzare i transistor per scopi diversi e ottenendo rese diverse. Si va dalle memorie (molto semplici e poco affette da problemi di rese) alla logica più (più complessa e molto più soggetta a problemi di resa).
E scrivo spracati perchè probabilmente qualche vantaggio, magari sui consumi e perchè no sull'assemblaggio del package ci sarebbero stati, ma non sufficienti a valerne la pena.
I vantaggi ci sono e sono evidenti. Il problema è che i chip di I/O sono molto più complessi di una cache L3 o del core di un processore, e quindi o hai delle buone rese col processo oppure sei costretto a infilarci più logica ridondata (e quindi in ogni caso aumentando i costi).
@AceGranger
Direi che la stima è più o meno quel che ci si può aspettare, altrimenti non li avrebbero chiamati solamente 7+
Nel grafico comunque non vedo il riferimento dell'ordinata, forse densità? (ma dubito che 16nm e 12nm abbiano la stessa densità).
Dovrebbe essere la densità, ma poi vedi N7 e N6 che non stanno ai livelli che ci si aspetterebbe.
I vantaggi ci sono e sono evidenti. Il problema è che i chip di I/O sono molto più complessi di una cache L3 o del core di un processore, e quindi o hai delle buone rese col processo oppure sei costretto a infilarci più logica ridondata (e quindi in ogni caso aumentando i costi).
I core però sono critici per le prestazioni mentre i chip di I/O sono spesso molto più "rilassati".
Giusto per capirci, diciamo che per avere un processore competitivo il mio target di frequenza dei core è 4 GHz, mentre il chio di I/O può benissimo lavorare a (cifra a caso) 1 GHz.
In questo contesto non mi importa più di tanto se uso un processo produttivo vecchio, a 1 GHz comunque ha ottime rese e ottimi consumi, uso il processo produttivo che mi costa meno e sfrutto linee che altrimenti sarebbero obsolete.
Ovviamente so che stiamo parlando di cose diverse e non è possibile paragonare le frequenze in questo modo, ma per capirci dovrebbe andare bene.
Se poi tu hai esperienza diretta e mi dici che al contrario i chip di I/O sono elementi critici che beneficerebbero tanto e più dei core dai processi produttivi avanzati mi fido, io mi sono fatto per ora un'idea diversa.
cdimauro
23-05-2020, 05:49
Ricordiamoci che il motivo principale per cui si passa a un nuovo processo produttivo è la miglior densità, che consente di ottenere chip più piccoli e quindi risparmiare. E' sufficiente questo (ma vedi prima per applicazioni particolari, come ad esempio chip militari o per lo spazio) per passarci senza dubbio alcuno.
D'altra parte se guardi la dimensione del chip I/O puoi vedere tu stesso che è enorme, e che quindi ne beneficerebbe notevolmente.
Nello specifico non è certamente un problema di frequenze, perché il passaggio consentirebbe in ogni caso un leggero aumento. Oppure una riduzione dei consumi.
Quindi è certamente vantaggioso.
Il discorso cambia se parliamo, invece, dei 10nm di Intel. In questo caso il problema principale sono proprio le frequenze limitate, ed è il motivo per cui non si sono visti processori desktop con questo processo, mentre sono arrivate versioni mobile (perché girano da sempre a frequenze più ridotte rispetto agli equivalenti desktop) e ci saranno anche GPU basate sul nuovo processo.
In particolare il prossimo Rocket Lake sarebbe un ibrido: core a 14nm+++ e GPU integrata a 10nm(+?). La GPU sarà a 10nm sempre per il motivo di cui sopra: la miglior densità; ed essendo una GPU non gira a frequenze elevate, e quindi non soffre dei problemi del nuovo processo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.