View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Gyammy85
28-07-2020, 08:21
Forse perchè costano tanto più delle gddr a parità di capacità?Forse perchè lato banda rispetto a delle buone gddr6 con ampio bus non sono nulla di che?O forse perchè il consumo non viene ridotto così drasticamente?
Ha senso su certi ambiti hpc, non certo consumer, e i risultati della tupla fury, vega 64 e 7 lo dimostrano.:rolleyes:
Ma i risultati della fury e di vega non sono imputabili alle hbm, non riesco a capire il senso di questi discorsi, ora come ora con i progressi lato latenze delle architetture potrebbero fare ancora più differenza
Si che le usa, nell'HPC.;)
Sulle gaming a 384bit non si può, ed nvidia deve portarsi dietro anche le rop's. Creare collegamenti a vuoto non ha senso. Ha senso sulle HPC, dove serve gran parte della BW ed l2, ignorando le rop's.
AMD, si porta dietro solo la l2.;)
Intanto però è amd ad avere la banda maggiore in assoluto in ambito hpc, nvidia le mette ma se poi fai uno sputino in più di banda rispetto alle ddr allora è inutile
Mi piacerebbe tornare al periodo in cui c'erano solo prodotti ottimi, prodotti buoni e prodotti non buoni, al posto di gaming, pro gaming, pro, semi pro, hpc, ia, tabelline, divisioni, ecc...
OrazioOC
28-07-2020, 08:49
Ma i risultati della fury e di vega non sono imputabili alle hbm, non riesco a capire il senso di questi discorsi, ora come ora con i progressi lato latenze delle architetture potrebbero fare ancora più differenza
Fury aveva 2gb di vram in meno rispetto alla 980 ti, e non è una differenza da nulla, soprattutto dopo un paio di anni si sono fatti sentire.
La 980 ti non è crollata come una pera a differenza delle 780/ti, e non solo per questioni di architettura.
Vega starvava di banda, e nonostante tutto il tdp era comunque alto, solo che se nel caso della fury x e 980 ti, ballavano "solamente" 40/50w, nel caso della vega 64 e 1080, la differenza era di ben 120w a stock.
AceGranger
28-07-2020, 08:58
Ma i risultati della fury e di vega non sono imputabili alle hbm, non riesco a capire il senso di questi discorsi, ora come ora con i progressi lato latenze delle architetture potrebbero fare ancora più differenza
Intanto però è amd ad avere la banda maggiore in assoluto in ambito hpc, nvidia le mette ma se poi fai uno sputino in più di banda rispetto alle ddr allora è inutile
Mi piacerebbe tornare al periodo in cui c'erano solo prodotti ottimi, prodotti buoni e prodotti non buoni, al posto di gaming, pro gaming, pro, semi pro, hpc, ia, tabelline, divisioni, ecc...
con quale GPU ?
L'rtg non mi sembra che negli ultimi 4 anni abbia brillato, praticamente assente nell'enthusiast e discutibile nella fascia alta.
Salvo certi progetti come navi 10 che per rapporto prezzo/prestazioni sono concorrenziali, il resto è come se non esistesse, nella fascia medio/bassa tirano ancora avanti con rx 570 e 580, ok c'è la 5500 xt ma per performance è una rx 580 custom, con un tdp più basso di 60w, e questo 4 anni dopo la rx 480 che aveva lo stesso prezzo di listino.:rolleyes:
Per non parlare delle vega, arrivate con 15 mesi di ritardo rispetto a 1070/80 per poi andare in maniera simile e consumare parecchio di più senza farti risparmiare nulla.
Vega 7 non la cito neanche, è durata da natale a santo stefano per ovvi motivi.
Quindi in un thread amd uno non può parlare delle criticità di amd, wow. :asd:
https://imgur.com/VRuCmYP
Vega 7 c'è un motivo se costa 700 dollari, con un chip di poco più grosso di navi 10, infatti è durata 4 mesi si e no nel loro catalogo.
Vega 64 e 56 avevano le hbm, ma di banda a stock erano comunque limitate, potevano metterci anche 4 stack, ma i costi si sarebbero inevitabilmente impennati, quindi sempre li andiamo a parare, non sono soluzioni adatte per chip ad uso consumer.:rolleyes:
Sono discorsi triti e ritriti, che sono stati affrontati decine di volte su questo thread. Non potete pretendere che una compagnia esca dai problemi che ha avuto amd nell'era bulldozer dal giorno alla notte.
Detto questo non vedo cosa te ne freghi se sulle schede ci sono hbm o ddr...al massimo ti deve fregare delle prestazioni e dei costi. E mi spiace dirtelo ma per quanto riguarda i costi non mi sembra che nvidia se le faccia pagare poco le schede con le gddr, nemmeno quelle con 4-6gb di gddr5/6.
Gyammy85
28-07-2020, 10:03
Fury aveva 2gb di vram in meno rispetto alla 980 ti, e non è una differenza da nulla, soprattutto dopo un paio di anni si sono fatti sentire.
La 980 ti non è crollata come una pera a differenza delle 780/ti, e non solo per questioni di architettura.
Vega starvava di banda, e nonostante tutto il tdp era comunque alto, solo che se nel caso della fury x e 980 ti, ballavano "solamente" 40/50w, nel caso della vega 64 e 1080, la differenza era di ben 120w a stock.
Sarà stata probabilmente l'unica volta che amd ha lanciato una vga con meno ram di nvidia, non l'avesse mai fatto :asd:
Per il resto, ok che fiji è un mezzo fail, però al day one se la batteva tranquillamente con 980ti, ricordo perfettamente che stava sopra alle res più alte (che ovviamente all'epoca non erano una priorità, contava solo il fullhd con gta5 dove casualmente la fury per via delle drawcalls andava meno)
Poi il software era quello che era, infatti con i primi giochi dx12 maxwell prendeva bastonate pure da hawaii, ragion per cui siamo reduci da 5 anni buoni di "ma si dai win 7 e dx11 vanno bene lo stesso è il mercato baby"
Gyammy85
28-07-2020, 10:09
L'hai toccata piano :fagiano:
Quale prossima data interessante si dovrà aspettare per qualche news su navi21?
Stasera :D
Report sul q2 di amd con slide e mega intervistona a lisa su "MA QUANDO ESCE BIG NAVI??"
Ale55andr0
28-07-2020, 10:17
L'rtg non mi sembra che negli ultimi 4 anni abbia brillato, praticamente assente nell'enthusiast e discutibile nella fascia alta.
Salvo certi progetti come navi 10 che per rapporto prezzo/prestazioni sono concorrenziali, il resto è come se non esistesse, nella fascia medio/bassa tirano ancora avanti con rx 570 e 580, ok c'è la 5500 xt ma per performance è una rx 580 custom, con un tdp più basso di 60w, e questo 4 anni dopo la rx 480 che aveva lo stesso prezzo di listino.:rolleyes:
Per non parlare delle vega, arrivate con 15 mesi di ritardo rispetto a 1070/80 per poi andare in maniera simile e consumare parecchio di più senza farti risparmiare nulla.
Vega 7 non la cito neanche, è durata da natale a santo stefano per ovvi motivi.
Quindi in un thread amd uno non può parlare delle criticità di amd, wow. :asd:
no, ma è ben diverso che far le solite battutine e fracciatine su amd usll'altro di thread...(e parlo anche di qualche altro utente) :)
vega 7 c'è un motivo se costa 700 dollari, con un chip di poco più grosso di navi 10, infatti è durata 4 mesi si e no nel loro catalogo.
Vega 64 e 56 avevano le hbm, ma di banda a stock erano comunque limitate, potevano metterci anche 4 stack, ma i costi si sarebbero inevitabilmente impennati, quindi sempre li andiamo a parare, non sono soluzioni adatte per chip ad uso consumer.:rolleyes:
la 7 è una top di gamma con 16gb di ram, ergo il prezzo considerando che è la top di gamma e che monta bene 16gb di ram è "giusto" a livello di segmento di mercato, poi se vale o no i propri soldi sono considerazioni personali. Per dire, c'è chi ha speso 800 cucuzze per avere una simil 1080ti (venduta in fretta e furia) con 8gb....ah, dimenticavo: ":asd:"
AceGranger
28-07-2020, 10:21
Stasera :D
Report sul q2 di amd con slide e mega intervistona a lisa su "MA QUANDO ESCE BIG NAVI??"
Intanto però è amd ad avere la banda maggiore in assoluto in ambito hpc,
con quale GPU.
OrazioOC
28-07-2020, 11:06
Sono discorsi triti e ritriti, che sono stati affrontati decine di volte su questo thread. Non potete pretendere che una compagnia esca dai problemi che ha avuto amd nell'era bulldozer dal giorno alla notte.
Detto questo non vedo cosa te ne freghi se sulle schede ci sono hbm o ddr...al massimo ti deve fregare delle prestazioni e dei costi. E mi spiace dirtelo ma per quanto riguarda i costi non mi sembra che nvidia se le faccia pagare poco le schede con le gddr, nemmeno quelle con 4-6gb di gddr5/6.
Sono discorsi triti e ritriti ma non superati, visto che amd continua a latitare nella fascia alta/enthusiast desktop, e non da ieri ma da ormai 4/5 anni.
Se usano le hbm è un problema, perchè ad amd costa di più come tipo di memoria rispetto alle gddr a parità di quantità, ergo i costi finali per il consumatore saranno più alti.
Nel caso di nvidia, non è che i costi siano così tanto sparati a caso, turing ha dei chip che sono mastodontici(quando mai abbiamo visto negli ultimi 10 anni una gpu consumer con un chip di 750 mm^2), senza contare che non ha concorrenza diretta in quella fascia.
Sarà stata probabilmente l'unica volta che amd ha lanciato una vga con meno ram di nvidia, non l'avesse mai fatto :asd:
Per il resto, ok che fiji è un mezzo fail, però al day one se la batteva tranquillamente con 980ti, ricordo perfettamente che stava sopra alle res più alte (che ovviamente all'epoca non erano una priorità, contava solo il fullhd con gta5 dove casualmente la fury per via delle drawcalls andava meno)
Poi il software era quello che era, infatti con i primi giochi dx12 maxwell prendeva bastonate pure da hawaii, ragion per cui siamo reduci da 5 anni buoni di "ma si dai win 7 e dx11 vanno bene lo stesso è il mercato baby"
La fury x partiva con un dissi a liquido, e riusciva giusto a confontarsi ad armi pari con la 980 ti reference in qhd e in 4k.
Ma già una 980 ti custom gli era sopra, aggiungiamoci che anche di vram e consumi era peggiore, e quindi la gente preferiva la gtx.
Come chip per tflops era mostruosa, ma per la forza bruta che aveva il chip era una scheda un po' deludente.
no, ma è ben diverso che far le solite battutine e fracciatine su amd usll'altro di thread...(e parlo anche di qualche altro utente) :)
Adesso i problemi sono le frecciatine, però quando si critica amd per problematiche reali a seconda di chi lo fa non lo sono, questo farebbe di te uno giusto?.:rolleyes:
la 7 è una top di gamma con 16gb di ram, ergo il prezzo considerando che è la top di gamma e che monta bene 16gb di ram è "giusto" a livello di segmento di mercato, poi se vale o no i propri soldi sono considerazioni personali. Per dire, c'è chi ha speso 800 cucuzze per avere una simil 1080ti (venduta in fretta e furia) con 8gb....ah, dimenticavo: ":asd:"
La 7 è una ex top di gamma per amd, ma non lo era sul mercato, non andava come la 2080 come sponsorizzava amd, anzi se si è onesti viene messa pure dietro da una 2070 super custom, che di certo non è una gpu da 700 euro nè oggi nè al lancio 1 anno fa. :asd:
AkiraFudo
28-07-2020, 11:06
Sarà stata probabilmente l'unica volta che amd ha lanciato una vga con meno ram di nvidia, non l'avesse mai fatto :asd:
per non dimenticare..
https://i.postimg.cc/FsHhRnG3/f20.jpghttp://
Free Gordon
28-07-2020, 11:16
Si ma lo scaling non è 1:1.
Tu hai preso il 1440p, scenario peggiore.
Navi farebbe 174, poi non ti spieghi come la 2080ti, faccia il 47% dalla 2060s, che salvo la BW è il doppio.;)
Credo che porteranno un po' più in alto l'efficienza delle CU con RDNA2, raddoppiando le specs, con un salto di frequenze importante sui 7+ (ti ricordo che la 5700 liscia gira a 1700 e rotti), ci potrebbe anche stare un quasi raddoppio.
Soprattutto in 4K, vero terreno di scontro per le future TOP 2021.. ;-)
In Ray tracing, per me è ovvio che Nvidia andrà di più, avranno le unità dedicate e un chip grande circa 150mmq in più di Sienna Cichlid... :)
Si, appunto delle specs, poi bisogna vedere sul campo, e lo scaling.
Cmq raddoppiando realmente tutto, ci si può pure avvicinare in base al motore.
Infatti.. vedremo, sto alla finestra. :D
Gyammy85
28-07-2020, 11:31
con quale GPU.
MI60 e MI50 hanno 1 tera, la v100 900 giga max, fine
mikael84
28-07-2020, 12:09
Con vega 56 e 64 hanno voluto fare dei chip anche nell'ottica prosumer, non erano progetti per solo gaming e si è visto.
Se fossero stati dei chip un po' più concorrenziali come tdp, sarebbero state benissimo con 512 bit di bus come la 290/390x, e 8/16gb gddr5.
E' un bus che sembra mastodontico, ma nel caso di amd nulla di strano, già con maxwell il rapporto bus nvidia vs bus amd era molto a favore di nvidia.
Però per fare questo il chip doveva consumare un po' meno, magari tagliando le frequenze un minimo.
Navi, da il meglio grazie ai 7nm, ed alle gddr6. Con i 16nm aveva poco senso, visto che dovevi mettere le hbm, e rinunciare al picco INT.:)
Inoltre sarebbe stato un 410mm2 senza HBCC.
Il bus su vega, però come detto su, ti avrebbe portato aumenti del die di oltre 50mm2.
Inoltre le hbm in 2 stack non costano tantissimo, il problema comincia dai 4.
Intanto però è amd ad avere la banda maggiore in assoluto in ambito hpc, nvidia le mette ma se poi fai uno sputino in più di banda rispetto alle ddr allora è inutile
Mi piacerebbe tornare al periodo in cui c'erano solo prodotti ottimi, prodotti buoni e prodotti non buoni, al posto di gaming, pro gaming, pro, semi pro, hpc, ia, tabelline, divisioni, ecc...
No, assolutamente, A100 in cut va a 1,6tb/s con le acquabolt di samsung.
Credo che porteranno un po' più in alto l'efficienza delle CU con RDNA2, raddoppiando le specs, con un salto di frequenze importante sui 7+ (ti ricordo che la 5700 liscia gira a 1700 e rotti), ci potrebbe anche stare un quasi raddoppio.
Soprattutto in 4K, vero terreno di scontro per le future TOP 2021.. ;-)
Le specs ancora non si conoscono, le possibilità per fare bene ci sono, almeno in raster.
Anche se, come ti ho scritto ieri, lo scaling 100% è difficile, sopratutto quando hai tantissime ALU da gestire, ecco perchè spesso la 2080ti è un collabrodo.:p
In Ray tracing, per me è ovvio che Nvidia andrà di più, avranno le unità dedicate e un chip grande circa 150mmq in più di Sienna Cichlid... :)
Infatti.. vedremo, sto alla finestra. :D
Se AMD usa le unità doppie FP, per pareggiare la 2080TI dovrebbe avere almeno 45tf totali (22,5x2), ma la ti appartiene al passato ormai.
MI60 e MI50 hanno 1 tera, la v100 900 giga max, fine
E 2, A100 ha le acquabolt x 1,6tb/s, che sarebbero quasi 2 nel full x 6144bit.:p
AceGranger
28-07-2020, 12:22
MI60 e MI50 hanno 1 tera, la v100 900 giga max, fine
Aprile 2017 nVidia Titan Xp con DDR5X e 547.6 GB/s
Maggio 2017 nVidia V100 con 900 GB/s
Giugno 2017 AMD Mi25 con 485 GB/s
Novembre 2018 ( 18 mesi dopo V100 ) Mi60 e MI50 1000 Gb/s con solo 100 GB/s in piu +11%
Dicembre 2018 nVidia Titan RTX GDDR6 e 672.0 Gb/s
Giugno 2020 ( 19 mesi dopo MI60 ) GA100 1600 Gb/s :read: +60%
quindi ricapitoliamo quando esce la V100 AMD presenta GPU HBM con quasi meta banda che prende bastonate dalle GDDR5X da nVidia e solo 1 anno e mezzo dopo riesce a pareggiare con solo 100 GB/s in piu, e nVidia sta un 30% sotto con le semplici GDDR6.
ok, quindi i soliti paragoni di fantasilandia.
la realta è esattamente al contrario, è AMD che ha SMEPRE implementato le HBM in modo ridicolo :read:
capitan_crasy
28-07-2020, 12:31
http://i.imgur.com/OKYGtS1h.png (https://imgur.com/OKYGtS1)
http://i.imgur.com/WYDBHRFh.png (https://imgur.com/WYDBHRF)
http://i.imgur.com/5zGhAcGh.png (https://imgur.com/5zGhAcG)
http://i.imgur.com/ffAGcFuh.png (https://imgur.com/ffAGcFu)
mircocatta
28-07-2020, 12:42
Stasera :D
Report sul q2 di amd con slide e mega intervistona a lisa su "MA QUANDO ESCE BIG NAVI??"
quindi dici che è meglio prepararsi con popcorn?
c'è un link live o dovremo aspettare articoli vari?
Free Gordon
28-07-2020, 12:47
Se AMD usa le unità doppie FP, per pareggiare la 2080TI dovrebbe avere almeno 45tf totali (22,5x2), ma la ti appartiene al passato ormai.
Non ho capito cosa vuoi dire.. :confused:
Ammettiamo che siano 80CU, 5120sp son 21,5 tflops a 2100mhz (ammesso che ci arrivi).
In FP16 sarebbero 43Tflops. Ma non ho capito cosa c'entra col discorso dell'RT. :what:
Nvidia avrà RT core che boosteranno il ray tracing, AMD probabilmente avrà modificato leggermente le CU per agevolare il lavoro in RT.. ma non avrà mai la stessa potenza di Nvidia.
Ergo senza RT, AMD potrebbe anche raddoppiare le performance di Navi10 in questa tornata, ma attivando l'RT, non credo proprio avrà performance paragonabili.
Certamente su console il problema non si porrà per i primi due anni almeno, considerando l'effetto praticamente nullo che ha avuto l'hw RT nelle attuali Nvidia lato sviluppo motori grafici.
Nel giro di 3 anni tanto (2023) usciranno gli aggiornamenti delle console con RT pompato e avviato, il mondo console ormai funziona così.. :)
Gyammy85
28-07-2020, 13:43
Aprile 2017 nVidia Titan Xp con DDR5X e 547.6 GB/s
Maggio 2017 nVidia V100 con 900 GB/s
Giugno 2017 AMD Mi25 con 485 GB/s
Novembre 2018 ( 18 mesi dopo V100 ) Mi60 e MI50 1000 Gb/s con solo 100 GB/s in piu +11%
Dicembre 2018 nVidia Titan RTX GDDR6 e 672.0 Gb/s
Giugno 2020 ( 19 mesi dopo MI60 ) GA100 1600 Gb/s :read: +60%
quindi ricapitoliamo quando esce la V100 AMD presenta GPU HBM con quasi meta banda che prende bastonate dalle GDDR5X da nVidia e solo 1 anno e mezzo dopo riesce a pareggiare con solo 100 GB/s in piu, e nVidia sta un 30% sotto con le semplici GDDR6.
ok, quindi i soliti paragoni di fantasilandia.
la realta è esattamente al contrario, è AMD che ha SMEPRE implementato le HBM in modo ridicolo :read:
Ah scusa, dimenticavo la super A100 presentata in cucina
Andy1111
28-07-2020, 14:10
Non ho capito cosa vuoi dire.. :confused:
Ammettiamo che siano 80CU, 5120sp son 21,5 tflops a 2100mhz (ammesso che ci arrivi).
In FP16 sarebbero 43Tflops. Ma non ho capito cosa c'entra col discorso dell'RT. :what:
Nvidia avrà RT core che boosteranno il ray tracing, AMD probabilmente avrà modificato leggermente le CU per agevolare il lavoro in RT.. ma non avrà mai la stessa potenza di Nvidia.
Ergo senza RT, AMD potrebbe anche raddoppiare le performance di Navi10 in questa tornata, ma attivando l'RT, non credo proprio avrà performance paragonabili.
Certamente su console il problema non si porrà per i primi due anni almeno, considerando l'effetto praticamente nullo che ha avuto l'hw RT nelle attuali Nvidia lato sviluppo motori grafici.
Nel giro di 3 anni tanto (2023) usciranno gli aggiornamenti delle console con RT pompato e avviato, il mondo console ormai funziona così.. :)
Sicuro che esistano solo gli RTCORE e il metodo usato da nvidia per sviluppare RT ? o magari ci sono altre strade per arrivare ad un risultato simile?
fraussantin
28-07-2020, 14:11
Sicuro che esistano solo gli RTCORE e il metodo usato da nvidia per sviluppare RT ? o magari ci sono altre strade per arrivare ad un risultato simile?Penso anche io che le console , in particolare la ps usi un altro sistema . Forse un coprocessore?
Andy1111
28-07-2020, 14:18
Penso anche io che le console , in particolare la ps usi un altro sistema . Forse un coprocessore?
Non lo so vedremo all'uscita delle console e di navi 2 , sicuro secondo me non useranno gli RTCORE, poi magari sbaglio e dico una cazzata ......
mikael84
28-07-2020, 14:23
Non ho capito cosa vuoi dire.. :confused:
Ammettiamo che siano 80CU, 5120sp son 21,5 tflops a 2100mhz (ammesso che ci arrivi).
In FP16 sarebbero 43Tflops. Ma non ho capito cosa c'entra col discorso dell'RT. :what:
In nvidia gli RT core di una 2080ti (con ratio purtroppo tarato moooolto verso il basso), sia nei compute che nei game, offrono un picco di circa 27tf @1750 medi e 33TF in OC.
Sommando la computazionale con gli RT core, la 2080ti spazia tra i 42tf ed i 51,2tf.
Se navi avrà la doppia fp per calcoli rt, come dice microsoft, il picco teorico, dovrebbe essere almeno di 21tf in raster, e 2x in fp per rt.
Da cui sottrarre, parte di fp16 del chip per funzioni che nvidia esegue simultaneamente ai tensor.;)
Ton90maz
28-07-2020, 16:11
Navi, da il meglio grazie ai 7nm, ed alle gddr6. Con i 16nm aveva poco senso, visto che dovevi mettere le hbm, e rinunciare al picco INT.:)
Inoltre sarebbe stato un 410mm2 senza HBCC.
Il bus su vega, però come detto su, ti avrebbe portato aumenti del die di oltre 50mm2.
Inoltre le hbm in 2 stack non costano tantissimo, il problema comincia dai 4.
No, assolutamente, A100 in cut va a 1,6tb/s con le acquabolt di samsung.
Le specs ancora non si conoscono, le possibilità per fare bene ci sono, almeno in raster.
Anche se, come ti ho scritto ieri, lo scaling 100% è difficile, sopratutto quando hai tantissime ALU da gestire, ecco perchè spesso la 2080ti è un collabrodo.:p
Se AMD usa le unità doppie FP, per pareggiare la 2080TI dovrebbe avere almeno 45tf totali (22,5x2), ma la ti appartiene al passato ormai.
E 2, A100 ha le acquabolt x 1,6tb/s, che sarebbero quasi 2 nel full x 6144bit.:p
Però segando la caccacache e qualche compute unit veniva simile. Con le gddr5x avrebbe anche avuto più banda.
mikael84
28-07-2020, 16:32
Però segando la caccacache e qualche compute unit veniva simile. Con le gddr5x avrebbe anche avuto più banda.
Le gddr5x sono state un fail, un'invenzione di micron, che raddoppiando il prefetch gli ha permesso di raddoppiare la BW teorica, essendo tagliata inizialmente dalle HBM.
Le poche ram se le ha prese nvidia.
Cmq, il problema principale, è che Vega, nasce per calcoli, dove la potenza viene mediamente mantenuta con calcoli ridondanti, FP32,INT8/4 ed anche FP64, mediante emulazione.
Viene pensata per questo, non a caso, il primo debutto è della frontier, con 2 stack da 8gb, mentre la gaming, usa lo stesso chip, dimezzando la ram.
Ipotizzare che AMD ricreasse tutto il chip era follia.:)
Navi per questo genere di operazioni sarebbe stato una follia, 410mm2 in rapporto, magari con clock di 1300/1500.:)
Free Gordon
28-07-2020, 20:47
In nvidia gli RT core di una 2080ti (con ratio purtroppo tarato moooolto verso il basso), sia nei compute che nei game, offrono un picco di circa 27tf @1750 medi e 33TF in OC.
Sommando la computazionale con gli RT core, la 2080ti spazia tra i 42tf ed i 51,2tf.
Non contemporanei però.. mi pare. C'è un blocco di assorbimento watt o sbaglio? :)
Se navi avrà la doppia fp per calcoli rt, come dice microsoft, il picco teorico, dovrebbe essere almeno di 21tf in raster, e 2x in fp per rt.
Da cui sottrarre, parte di fp16 del chip per funzioni che nvidia esegue simultaneamente ai tensor.;)
C'è già in Polaris, perché nn dovrebbe esserci in Sienna Cichlid? :what:
Se fosse così cmq.. Sienna potrebbe avere una potenza in RT teorica come una 2080Ti "sbloccata".. qualcosa in più di una 3060 probabilmente.
Tutto cmq starà nel vedere come introdurranno l'RT nei nuovi motori, per ora è un buco nell'acqua pieno di bug :sofico:
mikael84
28-07-2020, 23:21
Non contemporanei però.. mi pare. C'è un blocco di assorbimento watt o sbaglio? :)
No. Diciamo che nvidia si è inventata formulette, ma non è così, i test parlano chiaro. Gli RT core, occupano una porzione minima dei transistor, quindi costi pari a 0.
Ti ammetto, che, prima dei benchmark, mi ci sono dovuto sbattere.:sofico:
Con Ampere, però potrebbe avere un impatto sul TDP, perchè agli RT core, probabilmente vai a sommare la doppia fp.
Anche AMD qua ci dovrà sbattere la testa.:)
C'è già in Polaris, perché nn dovrebbe esserci in Sienna Cichlid? :what:
Qua non ti seguo, o meglio, non ho capito, che la tua domanda.:)
Se fosse così cmq.. Sienna potrebbe avere una potenza in RT teorica come una 2080Ti "sbloccata".. qualcosa in più di una 3060 probabilmente.
A numeri si, sperando nell'effettivo scaling sopra i 4096st a sto giro.
Tutto cmq starà nel vedere come introdurranno l'RT nei nuovi motori, per ora è un buco nell'acqua pieno di bug :sofico:
Non c'è alcun bug, i giochi dove il RT si vede, ci sono, certo non sono stati pensati per loro, parliamo di motori dell'anticristo.
Se pensi però, che il lancio delle nuove gen, avviene con WD legion e Cyberpunk, puoi capire subito che il RT, non può essere considerato secondario.
Ora con le console, cambierà tutto, vedi anche giochi come the medium.:)
Free Gordon
28-07-2020, 23:42
Sicuro che esistano solo gli RTCORE e il metodo usato da nvidia per sviluppare RT ? o magari ci sono altre strade per arrivare ad un risultato simile?
sicuramente su console useranno le risorse in modo più "smart"... :)
Su PC spesso non c'è proprio la possibilità di farlo.
Alla fine son dei calcoli (un po' particolari probabilmente) da svolgere, nulla di strano.
Da dove verrà la potenza per fare quei calcoli? mistero.. Vedremo. :D
Free Gordon
28-07-2020, 23:45
No. Diciamo che nvidia si è inventata formulette, ma non è così, i test parlano chiaro. Gli RT core, occupano una porzione minima dei transistor, quindi costi pari a 0.
Ti ammetto, che, prima dei benchmark, mi ci sono dovuto sbattere.:sofico:
Con Ampere, però potrebbe avere un impatto sul TDP, perchè agli RT core, probabilmente vai a sommare la doppia fp.
Anche AMD qua ci dovrà sbattere la testa.:)
quindi? il grosso calo di prestazioni con RT attivato, è dovuto alla tecnologia acerba?
Non c'è alcun bug, i giochi dove il RT si vede, ci sono, certo non sono stati pensati per loro, parliamo di motori dell'anticristo.
Di bug ce ne sono assai, in Battlefield ad esempio..
Lo stuttering poi aumenta con l'RT attivato, già Turing non ne è esente di suo.... :asd:
mikael84
29-07-2020, 00:59
quindi? il grosso calo di prestazioni con RT attivato, è dovuto alla tecnologia acerba?
No, semplicemente non ce la fa a gestire il tutto.:)
Raddoppiare le unità fp, oltre che agli RT core, sarà sempre più complesso, del raster classico.:)
Di bug ce ne sono assai, in Battlefield ad esempio..
Lo stuttering poi aumenta con l'RT attivato, già Turing non ne è esente di suo.... :asd:
BF non l'ho giocato, negli altri, non ho notato alcun problema, salvo il calo prestazionale.:p
Tu ovviamente, con la 570, avrai provato di persona, io su BF non mi esprimo.:sofico:
amon.akira
29-07-2020, 01:19
io su BF non mi esprimo.:sofico:
ma il frostbyte in dx12 stuttera di suo, che poi l rt si attivi solo in dx12 è un altra storia :asd:
control,metro,sotr tra i principali nessun problema
fraussantin
29-07-2020, 07:00
Bf stuttera , confermo. Stuttera in dx12 , e con RT attivo stuttera di più , ma secondo me non a causa di RT stesso ,.ma a causa del fatto che il frame rate cala tanto.
In metro niente stutter.
leoneazzurro
29-07-2020, 10:23
Non ho capito cosa vuoi dire.. :confused:
Ammettiamo che siano 80CU, 5120sp son 21,5 tflops a 2100mhz (ammesso che ci arrivi).
In FP16 sarebbero 43Tflops. Ma non ho capito cosa c'entra col discorso dell'RT. :what:
Nvidia avrà RT core che boosteranno il ray tracing, AMD probabilmente avrà modificato leggermente le CU per agevolare il lavoro in RT.. ma non avrà mai la stessa potenza di Nvidia.
Ergo senza RT, AMD potrebbe anche raddoppiare le performance di Navi10 in questa tornata, ma attivando l'RT, non credo proprio avrà performance paragonabili.
Certamente su console il problema non si porrà per i primi due anni almeno, considerando l'effetto praticamente nullo che ha avuto l'hw RT nelle attuali Nvidia lato sviluppo motori grafici.
Nel giro di 3 anni tanto (2023) usciranno gli aggiornamenti delle console con RT pompato e avviato, il mondo console ormai funziona così.. :)
C'è un tizio che pare abbastanza "dentro" AMD che sta fornendo dettagli interessanti a proposito di Navi21 sul forum di beyond3D.
In particolare:
Die size > 500 mm^2
Più di 64 CU (e sembrerebbe indicare anche una configurazione "non 80 CU" il che potrebbe pensare ad avere 72-96 CU)
Più di 64 ROPs (potrebbero essere 96 o 128 - dipende anche dall'ampiezza del bus di memoria scelto)
boost clock > 2,2 GHz
Presenza dell'interfaccia xGMI a bordo
Chip "non totalmente consumer"
Niente HBM2 o similari
Quelli addentro amd di solito sono pr nvidia che pompano aspettative per poter poi giocare al solito "ecco visto? amd come sempre delude, e nvidia è costretta a aumentare prezzi perchè amd delude!" :asd:
xGMI non ne sapevo nulla, da una rapida googlata mi pare troppo bella per essere vera in ambito consumer.... ma non corro il rischio, già non me ne posso permettere una immaginiamoci due :asd:
mircocatta
29-07-2020, 11:08
C'è un tizio che pare abbastanza "dentro" AMD che sta fornendo dettagli interessanti a proposito di Navi21 sul forum di beyond3D.
In particolare:
Die size > 500 mm^2
Più di 64 CU (e sembrerebbe indicare anche una configurazione "non 80 CU" il che potrebbe pensare ad avere 72-96 CU)
Più di 64 ROPs (potrebbero essere 96 o 128 - dipende anche dall'ampiezza del bus di memoria scelto)
boost clock > 2,2 GHz
Presenza dell'interfaccia xGMI a bordo
Chip "non totalmente consumer"
Niente HBM2 o similari
eh no eh, di nuovo chip mezzi pro? che p*lle
Ale55andr0
29-07-2020, 11:21
eh no eh, di nuovo chip mezzi pro? che p*lle
le top di gamma sia rosse che verdi sono così da mo'
mikael84
29-07-2020, 11:29
Bignavi sarà questa, in linea di massima.
https://i.postimg.cc/fTtkR1Ms/sas.png
Ale55andr0
29-07-2020, 13:25
Bignavi sarà questa, in linea di massima.
https://www.youtube.com/watch?v=7WE84fnaZmA
mircocatta
29-07-2020, 13:30
https://www.youtube.com/watch?v=7WE84fnaZmA
condivido il pensiero :asd: questo raddoppio di pipe grafiche e il raddoppio degli sdma engines a cosa porterebbero?
condivido il pensiero :asd: questo raddoppio di pipe grafiche e il raddoppio degli sdma engines a cosa porterebbero?
farà la differenza fra un "fail" e un "semi fail" immagino :read:
mikael84
29-07-2020, 14:25
https://www.youtube.com/watch?v=7WE84fnaZmA
condivido il pensiero :asd: questo raddoppio di pipe grafiche e il raddoppio degli sdma engines a cosa porterebbero?
SDMA, ha a che fare con la gestione della memoria, ed il trasferimento dati (sistema/GPU).
2x pipe, dual GPC (Graphics Command Processor), si riferisce alle operazioni raster + RT.
XGMI, una sorta di nvlink.
ACE. Sempre 2.
Sul numero di DCU, purtroppo non si sa nulla di preciso.;)
Ton90maz
29-07-2020, 17:59
Le gddr5x sono state un fail, un'invenzione di micron, che raddoppiando il prefetch gli ha permesso di raddoppiare la BW teorica, essendo tagliata inizialmente dalle HBM.
Le poche ram se le ha prese nvidia.
Cmq, il problema principale, è che Vega, nasce per calcoli, dove la potenza viene mediamente mantenuta con calcoli ridondanti, FP32,INT8/4 ed anche FP64, mediante emulazione.
Viene pensata per questo, non a caso, il primo debutto è della frontier, con 2 stack da 8gb, mentre la gaming, usa lo stesso chip, dimezzando la ram.
Ipotizzare che AMD ricreasse tutto il chip era follia.:)
Navi per questo genere di operazioni sarebbe stato una follia, 410mm2 in rapporto, magari con clock di 1300/1500.:)Parentesi rivolta a chi so io: sarà stata davvero pensata o era raffazzonata un po' ad cazzum, spendendo il meno possibile? Del tipo "Come viene, viene... ah guarda, è putente nel compiuting e fa cacare nel gheiming, vendiamola come aggeggio conpiuting". Un'azienda che, a parole, sembrava puntare forte nel conpiuting poco dopo se n'era uscita con un'altra baracca da 64 cosi, pur sapendo che invidia avrebbe fatto dei passi da gigante. Con navi magicamente sono ritornati a presentare più prodotti per il gheiming, così come hanno occupato le stesse fasce tra i 300 e i 400 euro, praticamente abbandonando quella tra i 200 e i 300 euro che sembrava (seee) l'unica redditizia.
Scherzi a parte, per l'amd di allora (che poi finanziariamente, pur essendo messa così così, aveva già avviato i progetti di navi 10 e della baracca iper), sicuramente, ma avrebbero anche potuto fare scelte diverse, tipo evitare di lasciare l'immenso buco tra le fasce e puntare più sul gaming, invece di lanciarsi a capofitto in un settore in cui era ed è rimasta irrilevante.
Praticamente un clock più basso di vega? E perché?
A naso di sarebbe sembrato meno folle di una baracca da 5 centimetri quadrati che, in versione cut e strozzata, andava poco più del 50% di un chippino grande meno della metà. Però navi non esisteva, quindi parliamo del nulla.
SDMA, ha a che fare con la gestione della memoria, ed il trasferimento dati (sistema/GPU).
2x pipe, dual GPC (Graphics Command Processor), si riferisce alle operazioni raster + RT.
XGMI, una sorta di nvlink.
ACE. Sempre 2.
Sul numero di DCU, purtroppo non si sa nulla di preciso.;)RT a parte, non richiamerebbe le apu delle xbox one?
mikael84
29-07-2020, 19:34
Parentesi rivolta a chi so io: sarà stata davvero pensata o era raffazzonata un po' ad cazzum, spendendo il meno possibile? Del tipo "Come viene, viene... ah guarda, è putente nel compiuting e fa cacare nel gheiming, vendiamola come aggeggio conpiuting". Un'azienda che, a parole, sembrava puntare forte nel conpiuting poco dopo se n'era uscita con un'altra baracca da 64 cosi, pur sapendo che invidia avrebbe fatto dei passi da gigante. Con navi magicamente sono ritornati a presentare più prodotti per il gheiming, così come hanno occupato le stesse fasce tra i 300 e i 400 euro, praticamente abbandonando quella tra i 200 e i 300 euro che sembrava (seee) l'unica redditizia.
Scherzi a parte, per l'amd di allora (che poi finanziariamente, pur essendo messa così così, aveva già avviato i progetti di navi 10 e della baracca iper), sicuramente, ma avrebbero anche potuto fare scelte diverse, tipo evitare di lasciare l'immenso buco tra le fasce e puntare più sul gaming, invece di lanciarsi a capofitto in un settore in cui era ed è rimasta irrilevante.
Vega semplicemente è un fiji 2,0, quasi come lo è pascal con Maxwell.
Ad AMD serviva una GPU tutto fare.
Rispetto a quest'ultima però ha subito varie modifiche, tipo rop's collegate alla l2, shader array non più a gruppi di 256 CU (che condividevano la l1 istruzioni), ma a gruppi di 192+64 per un totale di 6 array per raster. Inoltre, è fattore tra i più importanti, hanno sistemato il culling e migliorato la tassellazione (già visto con polaris, ma ancora migliorato con dsbr in vega). Tutto il resto è fiji, con ovviamente sfruttamento pessimo delle ALU in certi compiti.
Anche i comandi ACE, sono stati dimezzati per introdurre gli HWS.
FP32 che possono essere splittate etc.
Da questa GPU, ci hanno fatto di tutto, pensata come frontier, adattata al gaming, e shrinkata per fp64.
Creare una fascia totalmente gaming, con lo stesso PP, non dava molti benefici, perchè dovevi sempre creare un chip da oltre 400mm2, mettere HBM e calare il clock.:)
Praticamente un clock più basso di vega? E perché?
A naso di sarebbe sembrato meno folle di una baracca da 5 centimetri quadrati che, in versione cut e strozzata, andava poco più del 50% di un chippino grande meno della metà. Però navi non esisteva, quindi parliamo del nulla.
Come detto su, Vega è essenzialmente fiji ritoccata internamente, però se hai notato ci sono quasi 4mtransistor in più.:)
Gran parte di questi sono stati spesi in stadi di pipeline per cercare di clockare molto più in alto. Polaris mediamente clockava tra i 1300/1400.
il tutto è stato fatto in modo molto intelligente, cercando di evitare troppe perdite.
RT a parte, non richiamerebbe le apu delle xbox one?
Esatto. Solo che quei due, si occupavano solo di grafica tradizionale.
Ale55andr0
30-07-2020, 07:48
https://wccftech.com/amd-radeon-instinct-mi100-cdna-gpu-alleged-performance-benchmarks-leak-faster-than-nvidia-ampere-a100/
Gyammy85
30-07-2020, 10:32
https://wccftech.com/amd-radeon-instinct-mi100-cdna-gpu-alleged-performance-benchmarks-leak-faster-than-nvidia-ampere-a100/
Si sapeva da decenni che sarebbe andata di più in fp32, tutto regolare
Ops, a parità di nodo, ops...
Ton90maz
30-07-2020, 14:41
Da questa GPU, ci hanno fatto di tutto, pensata come frontier, adattata al gaming, e shrinkata per fp64.
Creare una fascia totalmente gaming, con lo stesso PP, non dava molti benefici, perchè dovevi sempre creare un chip da oltre 400mm2, mettere HBM e calare il clock.:)
Come detto su, Vega è essenzialmente fiji ritoccata internamente, però se hai notato ci sono quasi 4mtransistor in più.:)
Gran parte di questi sono stati spesi in stadi di pipeline per cercare di clockare molto più in alto. Polaris mediamente clockava tra i 1300/1400.
il tutto è stato fatto in modo molto intelligente, cercando di evitare troppe perdite.Chiaro, ma Navi a 14 nm?
Prendo qualche dato:
La radeon VII mi risulta che, con 1.07-1.08 V, abbia un clock medio di 1760-1800 MHz, consumando circa 270 watt medi in gaming e una tonnellata di watt di picco.
La 5700, con il clock di 1700 MHz a meno di un volt, consuma meno di 170 watt medi. In versione red dragon, con clock poco più basso della radeon vii, si mantiene poco sotto i 190 watt medi.
La xt pulse (non mi sembra il caso di considerare le migliori) consuma 240 watt con oltre 1900 MHz medi.
Mi risulta che il clock medio della vega 64 sia poco sotto i 1600 MHz, a fronte di quasi 300 watt di consumo col bios standard.
Mettendo insieme qualche dato, pur essendo conscio che potrebbero esserci delle piccole differenze circa la qualità del silicio, in teoria una navi a 14 nm non avrebbe avuto troppi problemi a superare i 1600 MHz.
Ovviamente arriviamo al grosso problema della banda passante, ma un bus a 384 bit, anche con GDDR5 standard (ma in questo scenario, amd non poteva concorrere per le x?), a circa 384 GB/s si arrivava senza troppi problemi.
Tra l'altro abbiamo anche dei dati per fare ulteriori ipotesi. Con un improbabile clock da polaris, a parità di CU (36) e banda passante (256 GB/s), navi va poco oltre il 30% in più di polaris (anche se i giochi di oggi alterano un po' i risultati).
Abbiamo anche i dati della 5600 xt col bios iniziale. Se non sbaglio era prevista con un boost clock di 1560 MHz, cioè meno della nostra ipotetica navi a 14 nm e con con le memorie a 12 gbps la banda passante era ad appena 288 GB/s. Questi 200 MHz di clock e 32 GB/s di banda passante portano navi al livello Vega 56, cioè poco meno del 50% rispetto alla 580. E siamo ancora sotto i numeri "Navi 14 nm", stiamo anche considerando varianti da 36 CU.
Potrei fare qualche esperimento con la 5700 xt e completare i dati, ma a naso, anche senza le hbm, non mi sembra affatto male, e avevano anche margine per qualche CU in più.
Loro con Vega ci hanno fatto di tutto, ma alla fine quanti soldi avranno fatto con quel settore a cui in teoria puntavano molto?
Andy1111
30-07-2020, 15:39
Chiaro, ma Navi a 14 nm?
Prendo qualche dato:
La radeon VII mi risulta che, con 1.07-1.08 V, abbia un clock medio di 1760-1800 MHz, consumando circa 270 watt medi in gaming e una tonnellata di watt di picco.
La 5700, con il clock di 1700 MHz a meno di un volt, consuma meno di 170 watt medi. In versione red dragon, con clock poco più basso della radeon vii, si mantiene poco sotto i 190 watt medi.
La xt pulse (non mi sembra il caso di considerare le migliori) consuma 240 watt con oltre 1900 MHz medi.
Mi risulta che il clock medio della vega 64 sia poco sotto i 1600 MHz, a fronte di quasi 300 watt di consumo col bios standard.
Mettendo insieme qualche dato, pur essendo conscio che potrebbero esserci delle piccole differenze circa la qualità del silicio, in teoria una navi a 14 nm non avrebbe avuto troppi problemi a superare i 1600 MHz.
Ovviamente arriviamo al grosso problema della banda passante, ma un bus a 384 bit, anche con GDDR5 standard (ma in questo scenario, amd non poteva concorrere per le x?), a circa 384 GB/s si arrivava senza troppi problemi.
Tra l'altro abbiamo anche dei dati per fare ulteriori ipotesi. Con un improbabile clock da polaris, a parità di CU (36) e banda passante (256 GB/s), navi va poco oltre il 30% in più di polaris (anche se i giochi di oggi alterano un po' i risultati).
Abbiamo anche i dati della 5600 xt col bios iniziale. Se non sbaglio era prevista con un boost clock di 1560 MHz, cioè meno della nostra ipotetica navi a 14 nm e con con le memorie a 12 gbps la banda passante era ad appena 288 GB/s. Questi 200 MHz di clock e 32 GB/s di banda passante portano navi al livello Vega 56, cioè poco meno del 50% rispetto alla 580. E siamo ancora sotto i numeri "Navi 14 nm", stiamo anche considerando varianti da 36 CU.
Potrei fare qualche esperimento con la 5700 xt e completare i dati, ma a naso, anche senza le hbm, non mi sembra affatto male, e avevano anche margine per qualche CU in più.
Loro con Vega ci hanno fatto di tutto, ma alla fine quanti soldi avranno fatto con quel settore a cui in teoria puntavano molto?
https://youtu.be/x0G-CoyNTKE?t=24
qua vedo una VII che se non ho visto male a 1,07/1,08 V raggiunge i 1900 consumando sui 220/230W
Per il resto lascialo pure parlare vedremo quando escono come stanno veramente le cose....:D
https://youtu.be/yZx-VJ7FhUg?t=73
una 5700XT a quasi 2100 con quasi gli stessi consumi della VII sempre in 4k stesso gioco
AkiraFudo
30-07-2020, 15:59
La xt pulse (non mi sembra il caso di considerare le migliori) consuma 240 watt con oltre 1900 MHz medi.
togli tranquillamente 50 watt
OrazioOC
30-07-2020, 16:11
togli tranquillamente 50 watt
https://tpucdn.com/review/sapphire-radeon-rx-5700-xt-pulse/images/power-gaming-average.png
mikael84
30-07-2020, 16:52
Chiaro, ma Navi a 14 nm?
Prendo qualche dato:
La radeon VII mi risulta che, con 1.07-1.08 V, abbia un clock medio di 1760-1800 MHz, consumando circa 270 watt medi in gaming e una tonnellata di watt di picco.
La 5700, con il clock di 1700 MHz a meno di un volt, consuma meno di 170 watt medi. In versione red dragon, con clock poco più basso della radeon vii, si mantiene poco sotto i 190 watt medi.
La xt pulse (non mi sembra il caso di considerare le migliori) consuma 240 watt con oltre 1900 MHz medi.
E' un pò la serie, perchè nvidia ha fatto uscire Kepler, quando maxwell era totalmente meglio.:)
Per il resto, navi base, se pensato in ottica solo gaming, sarebbe stato meglio, in quanto avere una pipeline più snella aiuta non poco, anche l'utilizzo esemplare della l1, aiuta, su questo avrò fatto mille papiri.
Navi10 sarebbe stato un chip da 410mm2 precisi, a cui aggiungere l'HBCC e le costose HBM (quindi torniamo li).
Come dico sempre, le potenzialità di navi, si sarebbero realmente viste con chip più grandi, anche a 7nm (seppur nei limiti), come ad esempio 3072st.
Navi aveva il problema delle ram, pensaci un'attimo, che roba sarebbe stata la 5500xt con 128bit e ddr5 e 4gb.
Mi risulta che il clock medio della vega 64 sia poco sotto i 1600 MHz, a fronte di quasi 300 watt di consumo col bios standard.
Non abbiamo prove dei clock di navi a 14nm, ma a 7nm ed 1,2v, la situazione è questa, 1800 circa.
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
Vega64 no PT, mediamente a loro girava sopra i 1400/1450
https://www.computerbase.de/2019-02/amd-radeon-vii-test/2/
Che poi, saresti arrivato a 1600 ci sta, come navi supera i 2ghz ci sta, ma così facendo avresti un chip leggermente sopra V64 alla fine, ma questa recuperebbe.
Mettendo insieme qualche dato, pur essendo conscio che potrebbero esserci delle piccole differenze circa la qualità del silicio, in teoria una navi a 14 nm non avrebbe avuto troppi problemi a superare i 1600 MHz.
Si ma in OC e PT, di base, come detto su, forse stavi a 1500. Leva almeno un 20% alla 5700xt, in DC però non sul boost base.
Ovviamente arriviamo al grosso problema della banda passante, ma un bus a 384 bit, anche con GDDR5 standard (ma in questo scenario, amd non poteva concorrere per le x?), a circa 384 GB/s si arrivava senza troppi problemi.
Il grossissimo problema.
Bus a 384bit ridurrebbe almeno di un 4/5% le prestazioni, e aumenterebbe la complessità del die e transistor, nonchè dei consumi, sino a 12w.
Attuabile però, nessun limite.:)
Tra l'altro abbiamo anche dei dati per fare ulteriori ipotesi. Con un improbabile clock da polaris, a parità di CU (36) e banda passante (256 GB/s), navi va poco oltre il 30% in più di polaris (anche se i giochi di oggi alterano un po' i risultati).
Nella prova, diciamo che va il 39% con polaris a ram occate a 288gb/s.
La vega64 sta a quasi il 50%.
Sicuro convenisse fare 2 chip.
Abbiamo anche i dati della 5600 xt col bios iniziale. Se non sbaglio era prevista con un boost clock di 1560 MHz, cioè meno della nostra ipotetica navi a 14 nm e con con le memorie a 12 gbps la banda passante era ad appena 288 GB/s. Questi 200 MHz di clock e 32 GB/s di banda passante portano navi al livello Vega 56, cioè poco meno del 50% rispetto alla 580. E siamo ancora sotto i numeri "Navi 14 nm", stiamo anche considerando varianti da 36 CU.
La 5600xt con le HBM non la potevi fare, però se anche fatta su ddr5, ipotizzando un 256 bit, il clock non sarebbe certo stato quello del modello xt, ma di un'eventuale cut magari a 1300.
Le ddr6 sono la vera fortuna di navi, ed anche di Turing per carità.:)
Potrei fare qualche esperimento con la 5700 xt e completare i dati, ma a naso, anche senza le hbm, non mi sembra affatto male, e avevano anche margine per qualche CU in più.
Si, ma alla fine, l'obbiettivo sarebbe stato V64 o poco più, con die praticamente allineato.
Riguardo il margine di CU si, lo dirò sempre, bastava raddoppiare il progetto 5500xt.
Il problema delle ram in ddr6, non si poneva, perchè ci sono sempre le 16gb/s.
Loro con Vega ci hanno fatto di tutto, ma alla fine quanti soldi avranno fatto con quel settore a cui in teoria puntavano molto?
Quello dovresti chiederlo a Lisa.:p
Però, obbiettivamente AMD, ha fatto un'unico progetto, per tutto, un fiji 2.0 ottimizzato e via.
Navi ripeto, va bene in quanto a 7nm o se si fosse investito in un chip più grande solo gaming, altrimenti per l'HPC no.
Le architetture le prepari sino a 2/4 anni prima, ora ti saresti trovato con un navi shrink e boh.
AkiraFudo
30-07-2020, 17:02
https://tpucdn.com/review/sapphire-radeon-rx-5700-xt-pulse/images/power-gaming-average.png
eccerto techpowercrap è attendibilissimo..
se ti interessa ti ho fatto un video al volo della mia.. 5700xt pulse (https://drive.google.com/file/d/1-JmPFDn19qiZh-NfVAMLwgvTzhHPCf_w/view?usp=sharing)
Gyammy85
31-07-2020, 08:01
C'è un tizio che pare abbastanza "dentro" AMD che sta fornendo dettagli interessanti a proposito di Navi21 sul forum di beyond3D.
In particolare:
Die size > 500 mm^2
Più di 64 CU (e sembrerebbe indicare anche una configurazione "non 80 CU" il che potrebbe pensare ad avere 72-96 CU)
Più di 64 ROPs (potrebbero essere 96 o 128 - dipende anche dall'ampiezza del bus di memoria scelto)
boost clock > 2,2 GHz
Presenza dell'interfaccia xGMI a bordo
Chip "non totalmente consumer"
Niente HBM2 o similari
Diciamo che è un pò la conferma di quello che si dice da tempo, è un tizio attendibile? pure io ho sentito di clock pari a 2,3 GHz, però la cosa interessante è che non sia da 80 ma 72 0 96, e ci sono diversi rumor che parlano di 72 cu, 96 mi sembrano troppe a dir la verità, sarebbero le stesse cu della presunta titan a...certo vega aveva più sp di gp102, chissà...
leoneazzurro
31-07-2020, 08:11
Diciamo che è un pò la conferma di quello che si dice da tempo, è un tizio attendibile? pure io ho sentito di clock pari a 2,3 GHz, però la cosa interessante è che non sia da 80 ma 72 0 96, e ci sono diversi rumor che parlano di 72 cu, 96 mi sembrano troppe a dir la verità, sarebbero le stesse cu della presunta titan a...certo vega aveva più sp di gp102, chissà...
Sull'attendibilità non so esprimermi, si tratta pur sempre di rumors. Su altre questioni il tizio non mi è sembrato un "cazzaro", nel senso che si capisce che è qualcuno addentro l'industria (OEM, probabilmente) ma quanto possa o meno essere un mitomane è un'altra questione.
Gyammy85
31-07-2020, 08:44
Sull'attendibilità non so esprimermi, si tratta pur sempre di rumors. Su altre questioni il tizio non mi è sembrato un "cazzaro", nel senso che si capisce che è qualcuno addentro l'industria (OEM, probabilmente) ma quanto possa o meno essere un mitomane è un'altra questione.
Sul die size concordano più o meno tutti, almeno un 2x secco lo tira su rdna
mircocatta
31-07-2020, 13:54
https://global.techradar.com/it-it/news/amd-big-navi-sapra-tener-testa-a-geforce-rtx-3080ti
mi sembra un po strano, "solo" +15% sulla 2080ti significherebbe una scheda da 230/240 watt, un po pochi per azzardare un dissipatore stock a 3 ventole
in ogni caso finalmente iniziano a spuntare date precise
https://global.techradar.com/it-it/news/amd-big-navi-sapra-tener-testa-a-geforce-rtx-3080ti
mi sembra un po strano, "solo" +15% sulla 2080ti significherebbe una scheda da 230/240 watt, un po pochi per azzardare un dissipatore stock a 3 ventole
in ogni caso finalmente iniziano a spuntare date precise
Sarebbero anche più 65% rispetto alla 5700xt, non mi sembra affatto male ed è in linea con quanto ipotizzato da i più.
Se avesse veramente 230w con quelle prestazioni avrebbero fatto un mezzo miracolo confronto a navi.
IMHO
mircocatta
31-07-2020, 14:56
Sarebbero anche più 65% rispetto alla 5700xt, non mi sembra affatto male ed è in linea con quanto ipotizzato da i più.
Se avesse veramente 230w con quelle prestazioni avrebbero fatto un mezzo miracolo confronto a navi.
IMHO
personalmente sarebbe una fascia di prestazioni davvero interessante, soprattutto se venduta al giusto prezzo (meno di 800€)
il problema è che nel caso poi sentiremo i soliti piangere che non c'è concorrenza e che la 3080ti costerà tanto per colpa di amd, e via con la solita solfa fino rdna3 :asd:
Gyammy85
31-07-2020, 14:58
https://global.techradar.com/it-it/news/amd-big-navi-sapra-tener-testa-a-geforce-rtx-3080ti
mi sembra un po strano, "solo" +15% sulla 2080ti significherebbe una scheda da 230/240 watt, un po pochi per azzardare un dissipatore stock a 3 ventole
in ogni caso finalmente iniziano a spuntare date precise
Beh si 7 ottobre potevo scriverlo anch'io
Sicuro non è la flagship, +15% su 2080ti con minimo 72 cu e +50% perf/watt su rdna va contro le leggi della fisica
Sarebbero anche più 65% rispetto alla 5700xt, non mi sembra affatto male ed è in linea con quanto ipotizzato da i più.
Se avesse veramente 230w con quelle prestazioni avrebbero fatto un mezzo miracolo confronto a navi.
IMHO
+70% lo faceva vega su polaris con incrementi di ipc marginali e clock in più, figuriamoci da rdna1 a rdna2....nahhhhh
Beh si 7 ottobre potevo scriverlo anch'io
Sicuro non è la flagship, +15% su 2080ti con minimo 72 cu e +50% perf/watt su rdna va contro le leggi della fisica
+70% lo faceva vega su polaris con incrementi di ipc marginali e clock in più, figuriamoci da rdna1 a rdna2....nahhhhh
Vega e Polaris erano progetti diversi, rdna2 sembrerebbe sempre navi con affinamenti vari, non mi aspetto cambiamenti sconvolgenti nell'architettura se non lato RT.
Anche se raddoppiassero le specifiche non sarebbe cosi con le prestazioni, nel frattempo salirebbero i consumi.
Il salto di nodo è già stato effettuato, il passaggio al plus qualcosa porterà, ma credere al +100% da navi mi sembra più fantasioso che ottimistico.
IMHO
personalmente sarebbe una fascia di prestazioni davvero interessante, soprattutto se venduta al giusto prezzo (meno di 800€)
il problema è che nel caso poi sentiremo i soliti piangere che non c'è concorrenza e che la 3080ti costerà tanto per colpa di amd, e via con la solita solfa fino rdna3 :asd:
per non parlare dei driver :stordita:
mircocatta
31-07-2020, 16:16
per non parlare dei driver :stordita:
e dell'RT che non sarà performante quanto quello di ampere
oh boy, che disfatta! aspettiamo intel
JuneFlower
31-07-2020, 17:16
Lo so che uno può essere Elon Musk italiano o semplicemente uno che fa casa e lavoro e non gli frega niente se costa 1600 Euro l'ultima uscita GPU, ma la scelta di andare bassi di TDP e anche di prezzo è un ottimo gesto, il problema che poi se le devi buttare dopo 2 anni o 3 siamo punto e a capo.
Se lavorano di software\codice e riescono ad allungare anche la vita di una scheda allora hanno fatto il botto.
Il futuro non esiste per il consumo enthusiast, senza sostenibilità non hai nemmeno gli aiuti che arriveranno certamente per le aziende che modificano ciclo della domanda e produttivo etc ai fini di una maggiore sostenbilità. L'inquinamento da componenti elettronici è enorme già oggi... era una notizia qualche giorno fa su HW https://www.hwupgrade.it/news/scienza-tecnologia/e-waste-finiremo-sotto-tonnellate-di-spazzatura-elettronica-i-dati-sono-allarmanti_90552.html#commenti
Boh ... al di la di queste elugubrazioni, si parla di "rovinare la festa" a Nvidia, beh la competizione non è finta. Credo che anche diffondere notizie false visto che non credo che si sappia davvero che cosa stanno sviluppando, potrebbe essere un'altra arma per confondere l'avversario (nvidia) su cosa sta tirando fuori AMD.
Qualcuno si sarebbe aspettato che Ryzen fosse Ryzen? Dai qualcuno dica di si...pfff
In poche parole? Il colpo di scena è oro e forse lo stanno preparando.
Stupisce che non hanno alcun "rallentamento" dovuto al Covid.. è tutta produzione automatizzata (come le PS)? ? Boh... allora forse si spiega perché le 5000 series sono state in gran parte difettose.. le hanno fatte tutte fare dai dei robot che hanno dovuto testare con questa serie?! Magari fosse così semplice spiegare...
E lo hanno fatto perché adesso arriva il botto e non vogliono sbagliare... ?
Un po come i droni che con la Nato testiamo in Afghanistan sulle persone...
Gyammy85
31-07-2020, 18:22
e dell'RT che non sarà performante quanto quello di ampere
oh boy, che disfatta! aspettiamo intel
Aspetta e spera
Rabbrividisco a leggere che il giusto prezzo di una top gamma
(e per altro manco la più veloce a quanto sembrerebbe) è "meno di 800€".....
L'importante è che di là c'è la titan a con 24 gigga di hbm2, pura potenza gaming prosumer
https://videocardz.com/newz/amd-sienna-cichlid-navi-21-big-navi-to-feature-up-to-80-compute-units
https://videocardz.com/newz/amd-sienna-cichlid-navi-21-big-navi-to-feature-up-to-80-compute-unitsFacciamo finta che tra ottimizzazione, frequenza più alta e pp affinato, potrebbe raddoppiare le prestazioni della 5700xt? Non sarebbero comunque pochini per contrastare le prossime Nvidia?
Inviato dal mio LM-G710 utilizzando Tapatalk
mikael84
31-07-2020, 23:50
https://videocardz.com/newz/amd-sienna-cichlid-navi-21-big-navi-to-feature-up-to-80-compute-units
Le rop's sono sballate, non ci sarà rasterizzazione dimezzata.
Se raddoppi il chip, raddoppi pure quest'ultime.
Rabbrividisco a leggere che il giusto prezzo di una top gamma
(e per altro manco la più veloce a quanto sembrerebbe) è "meno di 800€".....
Allora dammeli tu 1400€ non so.....
fraussantin
01-08-2020, 05:44
Ma se guardiamo Nvidia il top consumer ( X80ti?) 800 euro è(100 piu 100meno )il prezzo che son sempre costate , eccetto Turing .
Se parliamo di AMD non mi pare che abbia mai svenduto sulle top di gamma quando le ha fatte.
https://www.eurogamer.it/articles/2020-07-31-news-videogiochi-halo-infinite-343-industries-conferma-demo-gameplay-vecchia-build
Secondo me verrà rimasterizzato ancora prima di uscire xD
Eh? Guarda che intendevo dire che 800€ per una VGA seppur top di gamma è una follia, pensa 1400....
Scusa ho interpretato male :stordita:
fraussantin
01-08-2020, 07:44
felice di sapere che sono tra i pochi al mondo dove 100€ di differenza non sono argomento da tenere in poca considerazione, considerando che per me una vga da gioco dovrebbe costare al massimo sui 650€ e considerata la destinazione del bene di non di prima necessità, metti che ci sto rimettendo. Capisco che i beni di lusso debbano avere un prezzo, ma il "lusso" dei videogiochi per me, considerando che oltre alla vga ci devi mettere pc e monitor, non vale tutti sti soldi.
qua ormai si tratta come normale che una fascia media costi quella cifra li, che saremmo felici se la top costasse 800 euro e che in fin dei conti se sono anche 900 poco importa... però si piange che ci sono vga a 1400€ ma le si comprano al dayone come se nulla fosse.Per me dovrebbe costare massimo 400 che per un giocattolo sono anche troppi .
Ma i prezzi( prima di Turing) sono sempre stati quelli inutile andare a cercare i miracoli.
Poi han strafatto con Turing a 1300\1500 le han vendute lo stesso e secondo me indietro non si torna più.
Speriamo almeno in una fascia entry level sotto I 500. ( 3060 \ 6700)
Ps quando mai ho detto che 100 euro sono poca differenza scusa.
domenico88
01-08-2020, 07:48
felice di sapere che sono tra i pochi al mondo dove 100€ di differenza non sono argomento da tenere in poca considerazione, considerando che per me una vga da gioco dovrebbe costare al massimo sui 650€ e considerata la destinazione del bene di non di prima necessità, metti che ci sto rimettendo. Capisco che i beni di lusso debbano avere un prezzo, ma il "lusso" dei videogiochi per me, considerando che oltre alla vga ci devi mettere pc e monitor, non vale tutti sti soldi.
qua ormai si tratta come normale che una fascia media costi quella cifra li, che saremmo felici se la top costasse 800 euro e che in fin dei conti se sono anche 900 poco importa... però si piange che ci sono vga a 1400€ ma le si comprano al dayone come se nulla fosse.
Si ormai i prezzi sono davvero folli però c'è da considerare che adesso ci sono moltissime vga per tutte le fasce di prezzo, rispetto a qualche annetto fa dove c'erano soltanto fascia alta e fascia bassa adesso la fascia media fa appunto la maggior parte della vendita
fraussantin
01-08-2020, 08:06
quando scrivi 100 + o 100 - sembra quasi che importi poco, poi se non lo pensi è un altro discorso, ma nel contesto della frase a me ha fatto capire questo.No semplicemente non mi importa proprio di quella fascia xD
Ho scritto 100+ 100- semplicemente perchè le x80 ti sono sempre costate tra i 650 e i 700 dollari che poi in euro diventano quei 100+- anche a seconda della versione presa.
Bhe il mio target rimane una vga che mi dia quello che ho avuto dalla 1060 6GB... 300€ nel 2016, gioco a 1080p e frame rates tra i 70 e 100 con tutti i dettagli al max o quasi (in giochi come doom, mass effect Andromeda, fallout 4, etc...)
Le rop's sono sballate, non ci sarà rasterizzazione dimezzata.
Se raddoppi il chip, raddoppi pure quest'ultime.
Vero, sembra che in questo periodo su 10 rumors almeno 9 siano fake, da entrambe le parti.
IMHO
Ale55andr0
01-08-2020, 12:31
https://wccftech.com/amds-big-navi-gpu-codenamed-sienna-cichlid-will-allegedly-feature-5120-stream-processors/
amon.akira
01-08-2020, 12:49
https://wccftech.com/amds-big-navi-gpu-codenamed-sienna-cichlid-will-allegedly-feature-5120-stream-processors/
quindi +17% dalla 2080ti se la gioca in raster con la 3080
Ale55andr0
01-08-2020, 13:32
quindi +17% dalla 2080ti se la gioca in raster con la 3080
o 3070. A ogni modo parliamo sempre di rumor ecc, ma del resto meglio questi di nulla su cui elucubrare
Gyammy85
01-08-2020, 14:09
o 3070. A ogni modo parliamo sempre di rumor ecc, ma del resto meglio questi di nulla su cui elucubrare
O 3060s, finalmente il leak buono certified che tutti aspettavano, completamente slegato dalla realtà, dalla fisica e dall'informatica :fagiano:
Ale55andr0
01-08-2020, 14:22
O 3060s, finalmente il leak buono certified che tutti aspettavano, completamente slegato dalla realtà, dalla fisica e dall'informatica :fagiano:
ti chiedo una cortesia: evita di quotarmi d'ora in avanti, grazie.
Ton90maz
01-08-2020, 15:34
Non abbiamo prove dei clock di navi a 14nm, ma a 7nm ed 1,2v, la situazione è questa, 1800 circa.
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/Ni, sono comunque 1.2 V di picco che non so quanto mantenga. La reference ha anche un design particolarmente aggressivo, col clock parecchio traballante.
Vega64 no PT, mediamente a loro girava sopra i 1400/1450
https://www.computerbase.de/2019-02/amd-radeon-vii-test/2/Pardon, avevo visto dei clock in overclock. Però c'è anche dire che con il clock che si siede il consumo si riduce intorno ai 270 watt* (che vuoi che sia :asd: ma è comunque meno).
*non ricordo però dove l'ho visto, forse tomshardware
A mali estremi comunque potevano tirar fuori una versione pompata, non necessariamente a liquido. Se hanno spinto una vega fino a consumi agghiaccianti, in questo universo alternativo potevano tecnicamente pompare una navi fin sopra i 300 watt, se conveniente.
Comunque se una navi a parità di clock ha un gpu power inferiore alla baracca iper (vii), anche una navi a 14 nm consumava meno di una baracca liquida.
Il grossissimo problema.
Bus a 384bit ridurrebbe almeno di un 4/5% le prestazioni, e aumenterebbe la complessità del die e transistor, nonchè dei consumi, sino a 12w.
Attuabile però, nessun limite.:) Più ovviamente il consumo delle ram.
Poi certo, anche le vega si possono spremere, ma tecnicamente con navi a 14 nm e senza memorie della disperazione risparmiavano.
La 5600xt con le HBM non la potevi fare, però se anche fatta su ddr5, ipotizzando un 256 bit, il clock non sarebbe certo stato quello del modello xt, ma di un'eventuale cut magari a 1300.Facciamo almeno quanto una 580 dai, doveva essere proprio 'na schifezza sto silicio per arrivare così in basso :asd:
Si, ma alla fine, l'obbiettivo sarebbe stato V64 o poco più, con die praticamente allineato.Quel poco più comunque era quello che gli serviva per non farsi fregare in gittià e altri giochi al lancio da una misera 1080. Gli avrebbe davvero fatto comodo.
Ton90maz
01-08-2020, 15:47
Sarebbero anche più 65% rispetto alla 5700xt, non mi sembra affatto male ed è in linea con quanto ipotizzato da i più.
personalmente sarebbe una fascia di prestazioni davvero interessante, soprattutto se venduta al giusto prezzo (meno di 800€)WOOOOW, +65% al doppio del prezzo. Ci sarebbe da festeggiare :rolleyes:
Già la 5700 xt stessa ha un rapporto qualità prezzo decisamente schifoso paragonato alle precedenti gpu di fascia media. Così le top di gamma si discosterebbero esponzialmente.
Ma se guardiamo Nvidia il top consumer ( X80ti?) 800 euro è(100 piu 100meno )il prezzo che son sempre costate , eccetto Turing .
Se parliamo di AMD non mi pare che abbia mai svenduto sulle top di gamma quando le ha fatte.L'ultima top di gamma definibile tale era la 290x, i rottami successivi neanche erano degni di attenzione o non erano neanche delle vere top di gamma.
Parlando della 290x, quasi il 90% in più rispetto alla 7870, circa un anno e mezzo dopo e a un prezzo di 550 dollari contro 350. Se dovessimo fare un paragone (mese più o mese meno non ha importanza), è come se uscisse una big navi oltre il 20% più veloce della 2080 Ti (che meeerda) ma a 630 euro, facendo la proporzione.
OrazioOC
01-08-2020, 15:54
WOOOOW, +65% al doppio del prezzo. Ci sarebbe da festeggiare :rolleyes:
Già la 5700 xt stessa ha un rapporto qualità prezzo decisamente schifoso paragonato alle precedenti gpu di fascia media. Così le top di gamma si discosterebbero esponzialmente.
Nulla di strano, una 580 e la vega 64 avevano più o meno quella differenza nel rapporto prezzo/prestazioni.
L'ultima top di gamma definibile tale era la 290x, i rottami successivi neanche erano degni di attenzione o non erano neanche delle vere top di gamma.
Parlando della 290x, quasi il 90% in più rispetto alla 7870, circa un anno e mezzo dopo e a un prezzo di 550 dollari contro 350. Se dovessimo fare un paragone (mese più o mese meno non ha importanza), è come se uscisse una big navi oltre il 20% più veloce della 2080 Ti (che meeerda) ma a 630 euro, facendo la proporzione.
Quoto questo pezzo.
mikael84
01-08-2020, 17:06
Ni, sono comunque 1.2 V di picco che non so quanto mantenga. La reference ha anche un design particolarmente aggressivo, col clock parecchio traballante.
Si, però tieni presente che per rese, se levi 0,1v mediamente levi 100mhz di boost, con 0,2v 200mhz e così via.:)
Chiaramente la max tensione, è sempre pompata, però devono avere margine, anche per le custom.
A mali estremi comunque potevano tirar fuori una versione pompata, non necessariamente a liquido. Se hanno spinto una vega fino a consumi agghiaccianti, in questo universo alternativo potevano tecnicamente pompare una navi fin sopra i 300 watt, se conveniente.
Comunque se una navi a parità di clock ha un gpu power inferiore alla baracca iper (vii), anche una navi a 14 nm consumava meno di una baracca liquida.
Si, è proprio questo il punto forte di Navi.
Già la predisposizione logica della 5500xt 2x, poteva portare ad un chip da 3072st con 269/270mm2 x11,1 mtransistor, equivalenti ad un 14nm a 445mm2.
per la struttura di della 5700xt, potevi salire a 3584cc, che sarebbero 287mm2 a 7nm, equivalenti a 470 (471 gp102) su 11,8mtransistor.
Questo in ratio, sarebbe stata più o meno una 5700xt (dove perdi in clock, guadagni in shader)
Questo chip a 14nm, avrebbe battuto la 1080ti, con le HBM, ma con qualche collo di bottiglia alle alte risoluzioni.
In linea di massima, sarebbe andata così, ma facile parlare dopo, è un pò come la storia di kepler vs maxwell.
Anche le memorie cmq non aiutavano, ora con le ddr6, non hai più problemi con i bus.
Quel poco più comunque era quello che gli serviva per non farsi fregare in gittià e altri giochi al lancio da una misera 1080. Gli avrebbe davvero fatto comodo.
Beh navi, è decisamente più equilibrato.
WOOOOW, +65% al doppio del prezzo. Ci sarebbe da festeggiare :rolleyes:
Già la 5700 xt stessa ha un rapporto qualità prezzo decisamente schifoso paragonato alle precedenti gpu di fascia media. Così le top di gamma si discosterebbero esponzialmente.
Mai parlato di prezzi, anche perché faranno come sempre cartello allineando i prezzi alle prestazioni.
IMHO
mircocatta
01-08-2020, 18:25
WOOOOW, +65% al doppio del prezzo. Ci sarebbe da festeggiare :rolleyes:
Già la 5700 xt stessa ha un rapporto qualità prezzo decisamente schifoso paragonato alle precedenti gpu di fascia media. Così le top di gamma si discosterebbero esponzialmente.
Abituati a un +30% al doppio del prezzo o 50% al triplo e più del prezzo, sarebbe anche grasso che cola, no?
A parte che siete già in 2 che vi lamentate per quel che ho scritto, ma meno di 800€ può significare anche 700 o 600€, anche se dubito, per un chip da 500mmq
mircocatta
02-08-2020, 02:15
Nessuno si lamenta di quello che hai scritto, purtroppo però evidenzia quanto ormai la percezione del prezzo sia veramente qualcosa fuori dal normale visto che si parla di 800€ come se fossero bruscolini e come se fosse un prezzo affare...
giusto e sono il primo a pensarlo, ma sono realista, visto il "cartello" fatto tra rdna1 e turing, con le 5700xt a 400€ una big navi non vedo perchè non debba essere venduta a 700-800€ visto che avranno più memoria e probabilmente un >+60% di prestazioni, l'unica nostra speranza è che davvero amd voglia "sbaragliare" il mercato come ha fatto con le cpu, ma per farlo dovrà rivedere i prezzi delle rdna1 (che continueranno a vendere come fascia bassa e media)
Gyammy85
02-08-2020, 16:58
Qualche considerazione
https://i.postimg.cc/R0hfhKGh/COMPUTEX-KEYNOTE-DRAFT-FOR-PREBRIEF-26-05-19-page-011.jpg (https://postimg.cc/CZyd6Z3p)
https://i.postimg.cc/Gp6BpNHg/Annotazione-2020-06-10-161702.jpg (https://postimg.cc/jWQqgM6y)
https://i.postimg.cc/PfQxGNzR/Nota-RX-325-perf-upfit.jpg (https://postimg.cc/rzzcxVH1)
Alla luce degli incrementi dichiarati da amd, dobbiamo aspettarci minimo un +25% di ipc per rdna2, in pratica una 5700xt a bocce ferme andrebbe stabilmente in media come una 2080s andando ad insidiare la 2080ti nei casi favorevoli, e parliamo di 40 cu, non mi aspetto niente di meno da una gpu da 56/60 cu in fascia medio alta (+15% su 2080ti) e da 72/80 cu (+30/40% su 2080ti)
JuneFlower
03-08-2020, 10:25
Nei negozi sono tornate ad essere disponibili tutti i modelli della radeon, nitro, pulse 5700 xt e non solo etc. Come si fa a pensare che tra 3-4 mesi non scendano, non lo so, ma tra una build che ho a quella che dovrei avere con TDP attorno ai 300 da quanto ho capito con le nuove di fascia alta e poi le refresh nel 2021 (non so se miglioreranno la TDP ma può anche essere sulla falsa riga dei ryzen, beneficiando di nuovi materiali e design dell'hardware e tech superiore andranno forse da 190-220 W magari a 100 W? (POSSIBILE?)
Roba che alcune persone se ne metteranno due in parallelo?
Ale55andr0
03-08-2020, 11:02
fa troppo caldo
Gyammy85
03-08-2020, 11:45
Nei negozi sono tornate ad essere disponibili tutti i modelli della radeon, nitro, pulse 5700 xt e non solo etc. Come si fa a pensare che tra 3-4 mesi non scendano, non lo so, ma tra una build che ho a quella che dovrei avere con TDP attorno ai 300 da quanto ho capito con le nuove di fascia alta e poi le refresh nel 2021 (non so se miglioreranno la TDP ma può anche essere sulla falsa riga dei ryzen, beneficiando di nuovi materiali e design dell'hardware e tech superiore andranno forse da 190-220 W magari a 100 W? (POSSIBILE?)
Roba che alcune persone se ne metteranno due in parallelo?
Con Rdna2 sarebbe possibile avere vga in fascia 5700xt come perf ma come la 5500xt a livello di tdp, ma se ne parla nel 2021, in autunno solo fascia alta e medio alta
mikael84
03-08-2020, 16:15
Vero, sembra che in questo periodo su 10 rumors almeno 9 siano fake, da entrambe le parti.
IMHO
https://wccftech.com/amds-big-navi-gpu-codenamed-sienna-cichlid-will-allegedly-feature-5120-stream-processors/
Il problema di questi rumor, è che si smentiscono dai grafici.
Praticamente parlano di 5120cc su 8 raster.
Il problema è che si parla di 512cc (navi10 ha 640) per raster (4096st), su una rasterizzazione ad 8 pixel (come con polaris).
Alla fine vengono sempre 4096st e 64 rop's.;)
Qualche considerazione
Alla luce degli incrementi dichiarati da amd, dobbiamo aspettarci minimo un +25% di ipc per rdna2, in pratica una 5700xt a bocce ferme andrebbe stabilmente in media come una 2080s andando ad insidiare la 2080ti nei casi favorevoli, e parliamo di 40 cu, non mi aspetto niente di meno da una gpu da 56/60 cu in fascia medio alta (+15% su 2080ti) e da 72/80 cu (+30/40% su 2080ti)
Si, hai copiato RDNA1 vs GCN.
RDNA ha certe performance grazie agli 80% di transistor in più, non per grazia.:)
La fascia mid, pare pure non esserci.
OrazioOC
03-08-2020, 16:39
Il problema di questi rumor, è che si smentiscono dai grafici.
Praticamente parlano di 5120cc su 8 raster.
Il problema è che si parla di 512cc (navi10 ha 640) per raster (4096st), su una rasterizzazione ad 8 pixel (come con polaris).
Alla fine vengono sempre 4096st e 64 rop's.;)
Già com'era uscito il rumors dei 384 bit GDDR6, ho pensato subito ad una gpu con 60 cu, praticamente vega 7 rdna.
mikael84
03-08-2020, 18:22
Già com'era uscito il rumors dei 384 bit GDDR6, ho pensato subito ad una gpu con 60 cu, praticamente vega 7 rdna.
E' da un pò che si parla di 512bit, che sarebbe assurdo per una rasterizzazione finale a 64 top's.
Cmq, via cell, ho letto male, i CU potrebbero essere effettivamente 80, è il controller del SIMD che da 20 scende a 16.
https://i.postimg.cc/FsDgJQHF/izza.png
Gyammy85
03-08-2020, 18:40
Il problema di questi rumor, è che si smentiscono dai grafici.
Praticamente parlano di 5120cc su 8 raster.
Il problema è che si parla di 512cc (navi10 ha 640) per raster (4096st), su una rasterizzazione ad 8 pixel (come con polaris).
Alla fine vengono sempre 4096st e 64 rop's.;)
Si, hai copiato RDNA1 vs GCN.
RDNA ha certe performance grazie agli 80% di transistor in più, non per grazia.:)
La fascia mid, pare pure non esserci.
Da dove viene allora sto +50% di perf/watt su rdna, a questo punto sono curioso (non è IPC, non è pp, non è l'architettura, ecc...), insomma la scheda nuova di AMD va come la scheda vecchia di AMD as usual
mikael84
03-08-2020, 19:03
Da dove viene allora sto +50% di perf/watt su rdna, a questo punto sono curioso (non è IPC, non è pp, non è l'architettura, ecc...), insomma la scheda nuova di AMD va come la scheda vecchia di AMD as usual
50% per/watt significa che bene o male ti danno una 5700 a 150/160watt.
Il PP aiuta in clock ed efficienza (già 220 diverrebbero 200).
1800/1900 di clock per RDNA saranno bazzecole, basta già vedere navi in sweet spot.
AMD pare intenzionata a fare n buon lavoro elettrico, tra commutazione etc.
L'IPC possono anche migliorarlo, già dai primi dati, non sembra, ma non aspettarti salti da GCN a navi.
Quello che confondi tu, è che la 5700xt andrà come la 2080s o a cavallo TI, semplicemente per IPC, quando queste prestazioni le raggiungerai, aumentando gli shader, etc a tot. watt.;)
Gyammy85
03-08-2020, 21:52
50% per/watt significa che bene o male ti danno una 5700 a 150/160watt.
Il PP aiuta in clock ed efficienza (già 220 diverrebbero 200).
1800/1900 di clock per RDNA saranno bazzecole, basta già vedere navi in sweet spot.
AMD pare intenzionata a fare n buon lavoro elettrico, tra commutazione etc.
L'IPC possono anche migliorarlo, già dai primi dati, non sembra, ma non aspettarti salti da GCN a navi.
Quello che confondi tu, è che la 5700xt andrà come la 2080s o a cavallo TI, semplicemente per IPC, quando queste prestazioni le raggiungerai, aumentando gli shader, etc a tot. watt.;)
E' amd a dichiarare lo stesso incremento come da gcn a rdna, e già adesso una 5700xt con 60 cu prenderebbe la 2080ti, insomma io mi aspetto un 2x secco su navi 10 o vega 20 per la top rdna2
Ton90maz
03-08-2020, 22:32
Mai parlato di prezzi, anche perché faranno come sempre cartello allineando i prezzi alle prestazioni.
IMHONon rispondevo a te, era da intendere come un quote di un quote. Potevo inserirli manualmente ma sono pigro.
Da dove viene allora sto +50% di perf/watt su rdna, a questo punto sono curioso (non è IPC, non è pp, non è l'architettura, ecc...), insomma la scheda nuova di AMD va come la scheda vecchia di AMD as usualAncora con questa storia?
https://youtu.be/fzPo7gu-fTw?t=919
Da dove viene allora sto +50% di perf/watt su rdna, a questo punto sono curioso (non è IPC, non è pp, non è l'architettura, ecc...), insomma la scheda nuova di AMD va come la scheda vecchia di AMD as usual
Continui a confondere il perf/watt con un salto di performance a pari CU. E non importa quante volte te lo spieghino, purtroppo.
mikael84
03-08-2020, 23:26
E' amd a dichiarare lo stesso incremento come da gcn a rdna
Te l'ho spiegato dove sta il perf/watt.
Letteralmente significa che a pari watt, AMD promette su "carta" un 50% di prestazioni.
Questo significa che una 5700xt (ipotizziamo un refresh 6600/6700xt) consumerà circa 150/160watt.
Navi va forte con CU in meno, perchè gli hanno aggiunto l'80% di transistor per migliorarlo, non per grazia.
Di rdna2 c'è il chip di microsoft (3328cc e 320bit) e va circa una 2080/s, con pochi watt, e per chip 12,9 mtransistor.
Nell'esempio di RDNA vs GCN, dovresti avere un chip da 18,6mtransistor per 460mm2.;)
e già adesso una 5700xt con 60 cu prenderebbe la 2080ti,
Se a 2560cc non sei allineato alla pari versione, difficile che con 3840cc lo sarai ad una da 4352cc, con colli di bottiglia rop's/bw.
Però qua è diverso, stai aumentando gli shader.;)
insomma io mi aspetto un 2x secco su navi 10 o vega 20 per la top rdna2
Te lo aspetti con 80 CU, se fosse GCN vs navi, l'avresti con 2560st.:p , che senso avrebbe sparare tante CU per clock.
Gyammy85
04-08-2020, 07:52
Ancora con questa storia?
https://youtu.be/fzPo7gu-fTw?t=919
Io la domanda l'ho fatta, "quanto va rdna2 da 80 cu?", e aspetto la risposta esatta
Continui a confondere il perf/watt con un salto di performance a pari CU. E non importa quante volte te lo spieghino, purtroppo.
Si l'ho capito che fanno la gpu da 10 watt che va come quella vecchia da 15, ma se ti sforzassi a leggere il mio post, vedresti che amd stessa mette +50% perf/watt E +25% di IPC, sono aspetti combinati, io non riesco ad essere più chiaro di così, mi spiace
Te l'ho spiegato dove sta il perf/watt.
Letteralmente significa che a pari watt, AMD promette su "carta" un 50% di prestazioni.
Questo significa che una 5700xt (ipotizziamo un refresh 6600/6700xt) consumerà circa 150/160watt.
Navi va forte con CU in meno, perchè gli hanno aggiunto l'80% di transistor per migliorarlo, non per grazia.
Di rdna2 c'è il chip di microsoft (3328cc e 320bit) e va circa una 2080/s, con pochi watt, e per chip 12,9 mtransistor.
Nell'esempio di RDNA vs GCN, dovresti avere un chip da 18,6mtransistor per 460mm2.;)
Se a 2560cc non sei allineato alla pari versione, difficile che con 3840cc lo sarai ad una da 4352cc, con colli di bottiglia rop's/bw.
Però qua è diverso, stai aumentando gli shader.;)
Te lo aspetti con 80 CU, se fosse GCN vs navi, l'avresti con 2560st.:p , che senso avrebbe sparare tante CU per clock.
Ma esattamente cosa ti fa credere che rdna2 abbia gli stessi transistor?
Rifaccio la domanda chiara e semplice e chiara, "quanto va rdna2 da 80 cu?"
Probabilmente non ho capito io ma perché deve consumare meno ed andare uguale e non consumare uguale ed andare di più?
Consuma di più e va meno!! it's different, think magic
mircocatta
04-08-2020, 07:57
sinceramente sta menata dei transistor, delle frequenze ecc non le capisco, a me interessano i risultati, non come arrivano
rdna2, con le promesse amd, potrà andare come una 2080ti con 220watt? ottimo, fottes*ga se è grazie ad un ottimo pp e a milioni di miliardi di transistor.
se amd ha preferito investire per strappare ottime foirniture da tsmc anziché per migliorare al 200% l'architettura su medesimo pp son fatti loro, la coperta del budget per amd è corta (almeno rispetto ad nvidia) e dovremmo solo che ringraziare se a sto giro hanno azzeccato le proprie mosse.
poi vai nell'altro aspettando e magicamente, ora che si sospetta che ampere sia da +300watt, i consumi non importano più, perchè in fascia enthusiast non contano
AceGranger
04-08-2020, 08:19
Io la domanda l'ho fatta, "quanto va rdna2 da 80 cu?", e aspetto la risposta esatta
totopower scommesse ?
300W 2080Ti +20/25%
poi vai nell'altro aspettando e magicamente, ora che si sospetta che ampere sia da +300watt, i consumi non importano più, perchè in fascia enthusiast non contano
quello che è sempre importato è l'efficienza, non il valore assoluto di Watt.
senò allora i Threadripper sarebbero CPU demmerda al pari delle Intel e invece... dipendera da cosa daranno con quei +300W
I transistor li aggiungono tutti ogni giro eh non è che nvidia le gpu le fa con i biscotti al cioccolato
Detto questo l'approccio black box è quello preferibile se non si è interessati al background di come funzionano le cose: contano le prestazioni, anzi normalmente contano le prestazioni/€ ecco perchè sono freddino a queste nuove uscite, difficilmente me le potrò/vorrò permettere :stordita: meglio buttare qualche euro in retrogaming/retrohardware
Gyammy85
04-08-2020, 08:30
I transistor li aggiungono tutti ogni giro eh non è che nvidia le gpu le fa con i biscotti al cioccolato
Detto questo l'approccio black box è quello preferibile se non si è interessati al background di come funzionano le cose: contano le prestazioni, anzi normalmente contano le prestazioni/€ ecco perchè sono freddino a queste nuove uscite, difficilmente me le potrò/vorrò permettere :stordita: meglio buttare qualche euro in retrogaming/retrohardware
Mettigliela una 5700 su quel pc :D o aspetta la 6700/6600 :O
AkiraFudo
04-08-2020, 08:45
https://i.postimg.cc/FRCLS7y5/bc461add02d72a4b9cd0b5482b47ab588c06d4630447587db199b05c0eaa5a9e.gif
Mettigliela una 5700 su quel pc :D o aspetta la 6700/6600 :O
sono preso a fare tasselli storti nel cemento armato :O
poi vendo il 21:9 asus
poi mi piglio la 5700, se ne parla a settembre penso :stordita:
mikael84
04-08-2020, 12:25
Ma esattamente cosa ti fa credere che rdna2 abbia gli stessi transistor?
RDNA2 c'è già sulle console.
Inoltre come aumentano i transistor aumenta anche il die.
Navi porta l'80% dei transistor, che significano 18,6mtransitor (quelli della TI in pratica), su un die da 460.
RDNA2 può aggiungere varie cose, che paghi sempre in transistor e die, come HBCC
Rifaccio la domanda chiara e semplice e chiara, "quanto va rdna2 da 80 cu?"
Non devi farla a me, ma devi farla a Lisa.:p
Prenditi le medie, e guardati quanto scalano i chip 2x.
Tenendo presente alcune perdite del controller simd, e le rop's che dai leaks, stranamente rimangono 64 (collo di bottiglia):)
amon.akira
04-08-2020, 14:27
ma dove sta scritto +50%+25%? l ipc è gia incluso nel rapporto di efficienza...in quella slide amd dice.. a parità di watt le migliorie/performance date dal pp e ipc saranno del +50%
VanCleef
04-08-2020, 15:00
C'ho messo un attimo a decifrare il nick... :fagiano:
nOnsAnUllAdIrdna2mApErlUIÈlOstEssO :sofico:
amon.akira
04-08-2020, 15:33
ma se amd dice rdna to rnda2 +50% perche tu dici +100% (2x)? rigirando la gif devo fidarmi di amd o no? poi se vuol buttar fuori una 400w puo essere.
mircocatta
04-08-2020, 15:39
ma se amd dice rdna to rnda2 +50% perche tu dici +100% (2x)? rigirando la gif devo fidarmi di amd o no? poi se vuol buttar fuori una 400w puo essere.
non incartiamoci tra noi
+50% a pari consumo (220w) equivalgono ipoteticamente a +100% con 290w di consumo
ma la vedo difficile che mantenga un efficienza così alta con chip grossi, vedremo
tralasciando che già se mi sfornano una rdna2 da 220watt con prestazioni pari alla 2080ti che va mediamente un 50% in più della 5700xt sarebbe tanta roba
amon.akira
04-08-2020, 15:52
non incartiamoci tra noi
+50% a pari consumo (220w) equivalgono ipoteticamente a +100% con 330w di consumo
ma la vedo difficile che mantenga un efficienza così alta con chip grossi, vedremo
tralasciando che già se mi sfornano una rdna2 da 220watt con prestazioni pari alla 2080ti che va mediamente un 50% in più della 5700xt sarebbe tanta roba
tutto ciò con l rt ancora da dimostrare, quando bencheranno che so un cyberpunk maxato vedremo le reali performance di distacco in % tra rdna2 e ampere considerando i 7nm+ vs 8nm e ri-tireremo le somme delle 2arch...ma già so come andrà a finire.
amon.akira
04-08-2020, 16:01
E se sai già come andrà a finire, perchè stai qua a commentare?
Perchè perdi tempo e non vai a giocare con la tua fiammante 2080ti OC? quanti freschissimi watt fa ad agosto?
sempre 325w sia ad agosto che a dicembre :asd:
k correggiamo "so come andrà a finire" signfica "sospetto, ipotizzo, penso...ovviamente potrei sbagliarmi, speriamo che mi sbaglio"
mircocatta
04-08-2020, 16:03
tutto ciò con l rt ancora da dimostrare, quando bencheranno che so un cyberpunk maxato vedremo le reali performance di distacco in % tra rdna2 e ampere considerando i 7nm+ vs 8nm e ri-tireremo le somme delle 2arch...ma già so come andrà a finire.
son proporzioni :D
150%:220w=200%:X
sono l'unico pirla che usa ancora fare così dalla terza media? :D
poi mi ripeto, è più facile che salti fuori il 100% consumando 330watt perchè come sappiamo i consumi crescono in maniera esponenziale, non lineare
amon.akira
04-08-2020, 16:05
e 325watt verdi scaldano meno dei rossi?
ovviamente no :D
amon.akira
04-08-2020, 16:09
no, è lui che non sa contare.
220/150=1.46?
mircocatta
04-08-2020, 16:10
e 325watt verdi scaldano meno dei rossi?
che poi stai a 325watt in downvolt estremo, ci sono bios della 2080ti da 500watt :rotfl:
che poi quei bios non li capisco, sarà perchè non ho avuto una 2080ti nel case, ma la 1080ti a 1800mhz consuma in media 230watt , in overclock io personalmente non passavo i 280watt a 2140mhz fissi....che se ne fanno di bios del genere se poi murano tutte a 2100/2200 mhz ? davvero per un po di overclock i consumi salivano così tanto?
edit, a quanto pare si
https://www.youtube.com/watch?v=ZFEHM9KPo1U
Quei grafici ormai non significano più nulla, con il DLSS 3.0 ampere renderizza a 720p e upscala in 4k e si vede meglio di navi2 che fa supersampling in 8k per downscalare poi in 4k, è l'innovazione baby
amon.akira
04-08-2020, 16:13
bene, quindi non capisco sta cosa di sottolineare il fatto che siano magari 295, 325 o come da te ipotizzato 400, quando con Ampere si parla addirittura di portare a stock 350watt di TBP
ti sfugge na piccola cosa, al 100% a me sono 260w, quindi a 220w con rdna2 patti la mia a 260w bene, anche se con l incognita rt.
amon.akira
04-08-2020, 16:13
Quei grafici ormai non significano più nulla, con il DLSS 3.0 ampere renderizza a 720p e upscala in 4k e si vede meglio di navi2 che fa supersampling in 8k per downscalare poi in 4k, è l'innovazione baby
esatto :sofico:
mircocatta
04-08-2020, 16:17
anche io come te, si sarà per overclock estremi e record.
.
boh, nel video che ho messo consuma sui 350watt per stare sui 2100/2140mhz.. non mi sembra un overclock estremo, è lo stesso che tenevo io sulla 1080ti
sono diventato un overclocker estremo e non me ne sono reso conto?
Gyammy85
04-08-2020, 16:19
Soprattutto sarà fantastico vedere i puristi della res nativa, quelli che sono lì a misurare col pantografo quanti pixel perde la ps4 liscia col gioco del 2020, gioire dell'upscaling stock...poi mi piacerebbe vedere un leak qualsiasi che provi le strabilianti perf ed il giant leap su turing di ampere in rt, finora abbiamo visto il dissipatore figo, un +30% nel timespy con le dx12 maxwell ready e la prossima acquisizione di arm "che metterà tutti in seri guai"
amon.akira
04-08-2020, 16:22
Ma tanto a te non interessa nulla dei prodotti AMD, quindi che te lo chiedi a fare?
questo quando l avrei detto, anzi se vedi miei post vecchi ho sempre detto che sicuramente amd recupererà terreno, anzi ci spero...ho avuto 7950 290 980ti 1080 2080ti per ora siamo 3 a 2 per nvidia...se poi andiamo indietro solo ati.
ma del resto come potresti saperlo, ti sei appena iscritto :asd:
che se ne fanno di bios del genere se poi murano tutte a 2100/2200 mhz ? davvero per un po di overclock i consumi salivano così tanto?
edit, a quanto pare si
https://www.youtube.com/watch?v=ZFEHM9KPo1U
ma sei matto? per alcuni quegli ultimi 13 mhz a 2113 sono vitali per poter sfoggiare il nuovo record su hwbot in piazza con la prugna ambulante che si scioglie come un rumor ottimistico su amd al day 1......
amon.akira
04-08-2020, 16:40
ma sei matto? per alcuni quegli ultimi 13 mhz a 2113 sono vitali per poter sfoggiare il nuovo record su hwbot in piazza con la prugna ambulante che si scioglie come un rumor ottimistico su amd al day 1......
ora sono +15, sei rimasto indietro :P
Ale55andr0
04-08-2020, 17:56
Non entro nel merito del discorso, ma sul thread nvidia ad ogni rumor nuovo si scala di una fascia per cui ormai la 3050 liscia va come una 2080ti in raster per devastarla in RT e via di entusiasmo smodato con addirittura ringraziamenti per le previsioni compliant, sul thread aspettando AMD è già tanto che big navi in configurazione full vada poco di più della 5700xt e tutto questo solo perché ha il clock più alto.
vero :asd:
Ale55andr0
04-08-2020, 18:01
https://wccftech.com/amd-radeon-rx-big-navi-rdna-2-gpu-november-launch-no-hbm2-tsmc-7nm-rumor/
OrazioOC
04-08-2020, 20:42
https://pbs.twimg.com/media/EemLglyWsAULRDA?format=png&name=large
ora sono +15, sei rimasto indietro :P
Osti
Gyammy85
04-08-2020, 21:36
https://pbs.twimg.com/media/EemLglyWsAULRDA?format=png&name=large
Wow, da dove viene?
Ale55andr0
04-08-2020, 21:52
https://pbs.twimg.com/media/EemLglyWsAULRDA?format=png&name=large
c'è qualquadra che non mi cosa:
4608sp (aka 72cu) in soli 250mm^2?
896gb/s con bus a 256bit? :confused:
AkiraFudo
04-08-2020, 22:09
è solo una versione vecchissima di gpuz
https://i.postimg.cc/brPmY1DT/Immagine.png
c'è qualquadra che non mi cosa:
4608sp (aka 72cu) in soli 250mm^2?
896gb/s con bus a 256bit? :confused:
Tecnicamente è GPU-Z che non riconosce parte dei dati, ma mi sembra una bufala.
mikael84
04-08-2020, 23:10
ma dove sta scritto +50%+25%? l ipc è gia incluso nel rapporto di efficienza...in quella slide amd dice.. a parità di watt le migliorie/performance date dal pp e ipc saranno del +50%
Dura da far capire.
Ancora non ha capito che RDNA, va circa il 72% (media tpu) con l'80% sui transistor e relativo clock.
Che poi questo vantaggio IPC è ancora tutto da chiarire, il controller simd scende da 20 a 16 chiamate e le rop's a da 16 a 8 per raster, secondo le slide.
non incartiamoci tra noi
+50% a pari consumo (220w) equivalgono ipoteticamente a +100% con 290w di consumo
ma la vedo difficile che mantenga un efficienza così alta con chip grossi, vedremo
tralasciando che già se mi sfornano una rdna2 da 220watt con prestazioni pari alla 2080ti che va mediamente un 50% in più della 5700xt sarebbe tanta roba
Dalle slide, AMD promette quello, 220-250 watt, contro la 3070/2080ti.
Per il resto basta ragionare anche via transistor. Si parla di 505mm2, bene saranno 20,6mtransistor contro i 18,6 di TU102 Titan.
Soprattutto sarà fantastico vedere i puristi della res nativa, quelli che sono lì a misurare col pantografo quanti pixel perde la ps4 liscia col gioco del 2020, gioire dell'upscaling stock...poi mi piacerebbe vedere un leak qualsiasi che provi le strabilianti perf ed il giant leap su turing di ampere in rt, finora abbiamo visto il dissipatore figo, un +30% nel timespy con le dx12 maxwell ready e la prossima acquisizione di arm "che metterà tutti in seri guai"
A parte tutte queste frasi senza senso (ai limiti del trollaggio):p , AMD a sto giro potrebbe avere un ratio devastante in geometria, con 8/2 cull primitive.:)
Sul RT non si sa nulla ne dell'una e ne dell'altra. Si sa che la 2080ti ha 42tf totali e microsoft con rdna2 25.
I tensor di ampere invece sono usciti 2 mesi fa, quindi si conoscono (ricordi le schede in cucina).:p
amon.akira
04-08-2020, 23:29
Dura da far capire.
Ancora non ha capito che RDNA, va circa il 72% (media tpu) con l'80% sui transistor e relativo clock.
Dalle slide, AMD promette quello, 220-250 watt, contro la 3070/2080ti.
Per il resto basta ragionare anche via transistor. Si parla di 505mm2, bene saranno 20,6mtransistor contro i 18,6 di TU102 Titan.
si ma loro dicono 220w e sei a lv 2080ti (5700xt+50%) che poi sarebbe la 5700xt a 146w e poi in proporzione da 1.5 a 2x con 295w...e che poi diverrebbe un 2.5x a 370w die permettendo...mi sembra tutto fantasticoso...vedremo XD
considerando un +40%ampere da Ti a Ti avremmo la bignavi che potrebbe suonarle alla 3080ti
Sul RT non si sa nulla ne dell'una e ne dell'altra. Si sa che la 2080ti ha 42tf totali e microsoft con rdna2 25.
ecco questo è quello che mi preoccupa di rdna2, la voglio vedere all opera in rt che è quello che mi interessa di piu
JuneFlower
04-08-2020, 23:33
Minchia quanto scrivete, tutto per confondere chi
legge? Poi uno dice "quanto scrivo io"... che casino.
Saranno piu performanti e consumeranno di meno:
ci sarà una linea enthusiast sui 500+ Euro che consumerà attorno ai 290 W
ci sarà una linea refresh piu avanti primi 2021 che consumerà un po' meno delle 5700 xt - 160 W e farà belle prestazioni.
Ho capito questo ora, e vi ringrazio
Per me potrà anche fare il 50% in più ma se AMD non ha interesse a coprire certe fasce mi sembra inutile
mikael84
04-08-2020, 23:45
si ma loro dicono 220w e sei a lv 2080ti (5700xt+50%) che poi sarebbe la 5700xt a 146w e poi in proporzione da 1.5 a 2x con 295w...e che poi diverrebbe un 2.5x a 370w die permettendo...mi sembra tutto fantasticoso...vedremo XD
considerando un +40%ampere da Ti a Ti avremmo la bignavi che potrebbe suonarle alla 3080ti
Da slide AMD a 290/300watt dovresti prendere +50% dalla 2080ti, però riflettevo sul chip.
505mm2 sbandierati saranno 20,6mtransistor, quindi un chip leggermente più grande di TU102 (ecco che onestamente mi aspetto rdna vs 3080), però AMD dichiara un +50% a 290watt.
Nascono anche altri problemi, raddoppiando il chip, non avrai mai un 2x, se poi gli slides parlando di controller simd che scende da 20 a 16 chiamate e le rop's non raddoppiano (collo di bottiglia in parte di navi), pensare ad un 2x è dura, salvo il clock veramente alto.:)
ecco questo è quello che mi preoccupa di rdna2, la voglio vedere all opera in rt che è quello che mi interessa di piu
Pure a me interessa questo dato, per le dovute valutazioni.
Free Gordon
05-08-2020, 01:30
BF non l'ho giocato, negli altri, non ho notato alcun problema, salvo il calo prestazionale.:p
Tu ovviamente, con la 570, avrai provato di persona, io su BF non mi esprimo.:sofico:
No, mi affido agli affidabili TPU & Tom's... :asd:
Gyammy85
05-08-2020, 09:28
Dura da far capire.
Ancora non ha capito che RDNA, va circa il 72% (media tpu) con l'80% sui transistor e relativo clock.
Che poi questo vantaggio IPC è ancora tutto da chiarire, il controller simd scende da 20 a 16 chiamate e le rop's a da 16 a 8 per raster, secondo le slide.
Ma è così importante la conta dei transistor? In pratica dici che rdna2 va meno di rdna, boh
Dalle slide, AMD promette quello, 220-250 watt, contro la 3070/2080ti.
Per il resto basta ragionare anche via transistor. Si parla di 505mm2, bene saranno 20,6mtransistor contro i 18,6 di TU102 Titan.
E allora stai dicendo pure tu che in 220 watt va come 2080ti, poi dimentichi che rdna2 è a 7 nm+ quindi devi aumentare la densità minimo del 15%
A parte tutte queste frasi senza senso (ai limiti del trollaggio):p , AMD a sto giro potrebbe avere un ratio devastante in geometria, con 8/2 cull primitive.:)
Peccato sia più o meno la verità quello che ho scritto, sui geo va bene, però a sto punto dovrebbero aumentare pure le rops, o quelle le diamo per scontato e certificato a 64 perché ci fa comodo?
Sul RT non si sa nulla ne dell'una e ne dell'altra. Si sa che la 2080ti ha 42tf totali e microsoft con rdna2 25.
I tensor di ampere invece sono usciti 2 mesi fa, quindi si conoscono (ricordi le schede in cucina).:p
E quindi va la metà :asd: guarda che i test in mesh shader rt che hanno fatto mostrano tempi di rendering inferiori e di molto a una 2080ti, per la xsx
Da slide AMD a 290/300watt dovresti prendere +50% dalla 2080ti, però riflettevo sul chip.
505mm2 sbandierati saranno 20,6mtransistor, quindi un chip leggermente più grande di TU102 (ecco che onestamente mi aspetto rdna vs 3080), però AMD dichiara un +50% a 290watt.
Nascono anche altri problemi, raddoppiando il chip, non avrai mai un 2x, se poi gli slides parlando di controller simd che scende da 20 a 16 chiamate e le rop's non raddoppiano (collo di bottiglia in parte di navi), pensare ad un 2x è dura, salvo il clock veramente alto.:)
Che è quello che diciamo dall'inizio :boh:
Se metti +50% su rdna e ci metti 300 watt di tdp arrivi al doppio, non si scappa
mikael84
05-08-2020, 11:43
Ma è così importante la conta dei transistor? In pratica dici che rdna2 va meno di rdna, boh
E' importante si, sopratutto per uno come te, che fa della fa il rapporto GCN/RDNA = RDNA2.
505mm2 sono 20,6mtransistor circa, salvo incrementi mostruosi di cache etc.
RDNA2 in parte si stima dalle console, e notiamo che il chip da 315mm2 (solo gpu), ha 12,9mtranstor con 3584cc (totali) e bus a 320bit.
E allora stai dicendo pure tu che in 220 watt va come 2080ti, poi dimentichi che rdna2 è a 7 nm+ quindi devi aumentare la densità minimo del 15%
E' uguale. RDNA2 c'è già su console.
Peccato sia più o meno la verità quello che ho scritto, sui geo va bene, però a sto punto dovrebbero aumentare pure le rops, o quelle le diamo per scontato e certificato a 64 perché ci fa comodo?
Io commento le ultime slide, è chiaro che una rasterizzazione a 8 è impensabile, ma neppure impossibile.
Come il controller che perde chiamate.
E quindi va la metà :asd: guarda che i test in mesh shader rt che hanno fatto mostrano tempi di rendering inferiori e di molto a una 2080ti, per la xsx
Fammi vedere questo test... o almeno fammi vedere un test serio basato su RT, che so minecraft.
Intendo test seri, non tweeter dello scorso anno.
I dati sono quelli, 42 a 25, e se AMD fa meglio è tanta roba per il chip finale.;)
Che è quello che diciamo dall'inizio :boh:
Se metti +50% su rdna e ci metti 300 watt di tdp arrivi al doppio, non si scappa
Non è che lo dici dall'inizio tu, quello lo dice AMD, però bisogna pure fare qualche ragionamento, non siamo robot che ci beviamo tutto senza ragionare.:D
In transistor un 505mm2 è un 20,6mm2 (10% in più di TU102).
AMD con RDNA è stato piuttosto corretta, quindi vediamo se si riconferma.;)
No, mi affido agli affidabili TPU & Tom's... :asd:
Ecco perchè, a momenti credevo che avessi testato tu con la 570 il RT.
Invece hai letto toms:sofico:
mikael84
05-08-2020, 18:02
Scusate la domanda ma non è sbagliato prendere come metro di misura le console? Il tdp sarà diverso dalle custom e anche le frequenze di lavoro, quindi anche i risultati o sbaglio?
Le console danno vita a rdna2 (mi riferisco a microsoft), quindi alcune cose si vedono. Il clock è completamente slegato ovviamente.;)
Ale55andr0
06-08-2020, 09:49
:asd:
Cavoli, una 5700 dalla mia fury liscia è proprio un altro mondo, certo son 400 carte ma è decisamente una bella bestiolina.... sono tentato di pigliarla reference, la metto a 1V e non la sento manco ad attaccarci l'orecchio al case....poi la passo al fratello che avendo un case non molto ventilato e per giunta in un mobile ringrazierà l'espulsione dell'aria calda sul posteriore invece di averla in giro per il case come tutte le custom, sperando che per una big navi cut non chiedano 800€ :stordita:
Ale55andr0
06-08-2020, 10:09
AMD ha dichiarato che come per zen vogliono un prodotto performante ma ad un prezzo competitivo, quindi non penso proprio si arriverà a 800 euro+iva di listino ufficiale, specie se molleranno le costose hbm. Poi è ovvio che le prime settimane gli shop faranno pelo e contropelo, ma quello è altro discorso. io mi aspetto i classici 699
Si le DDR6 lasciano sperare in tal senso, i 7nm+ invece no essendo il pp più costoso ad oggi, ma lì saranno da valutare le rese, dati che non si possono sapere e forse al momento manco loro lo sanno.
AMD ha dichiarato che come per zen vogliono un prodotto performante ma ad un prezzo competitivo, quindi non penso proprio si arriverà a 800 euro+iva di listino ufficiale, specie se molleranno le costose hbm. Poi è ovvio che le prime settimane gli shop faranno pelo e contropelo, ma quello è altro discorso. io mi aspetto i classici 699
Speriamo :sperem:, almeno dall'altra parte si danno una calmata.
Ale55andr0
06-08-2020, 12:53
Speriamo :sperem:, almeno dall'altra parte si danno una calmata.
come no
AkiraFudo
06-08-2020, 13:18
Speriamo :sperem:, almeno dall'altra parte si danno una calmata.
forse si darebbero una calmata se la gente smettesse di comprargli le schede a millemilla$$$..
Io se fossi il giacchetta i miei bidoni li venderei a 3000€, chi se li compra se li merita tutti :rolleyes:
mircocatta
06-08-2020, 17:30
https://wccftech.com/amd-radeon-rx-big-navi-gpu-16-gb-12-gb-memory-graphics-cards-rumor/
Free Gordon
06-08-2020, 17:52
https://wccftech.com/amd-radeon-rx-big-navi-gpu-16-gb-12-gb-memory-graphics-cards-rumor/
4 schede con 1 chip...... mah.. :fagiano:
Con Navi 10 ne hanno fatte 2 e mezza ed è grande la metà.
Ton90maz
06-08-2020, 18:37
Si le DDR6 lasciano sperare in tal senso, i 7nm+ invece no essendo il pp più costoso ad oggi, ma lì saranno da valutare le rese, dati che non si possono sapere e forse al momento manco loro lo sanno.Comunque già a fine 2019 la densità dei difetti era sotto gli 0.09 difetti (su cm^2?) ed è probabile che ora sia ancora inferiore.
Gyammy85
06-08-2020, 21:09
4 schede con 1 chip...... mah.. :fagiano:
Con Navi 10 ne hanno fatte 2 e mezza ed è grande la metà.
Che c'è di strano, navi 10 aveva 3 versioni, anniversary xt e liscia, per navi 21 sembra ci siano versioni a 12 e 16 gb di vram
Comunque già a fine 2019 la densità dei difetti era sotto gli 0.09 difetti (su cm^2?) ed è probabile che ora sia ancora inferiore.
fonte?
Comunque se come ipotizzato parliamo di 500mm2 di gpu, un 9% ogni 100mm2 non sono pochi come difetti (non riesco a fare il calcolo, speriamo non passi di qui il mio prof di statistica :asd: )
https://tech.everyeye.it/notizie/amd-big-navi-memorie-12-gb-16-gb-raffreddamento-liquido-ecco-ultimi-rumor-461818.html
Inviato dal mio RNE-L21 utilizzando Tapatalk
mircocatta
07-08-2020, 08:25
Ma prendendo come esempio 80cu 5120sp a 1700mhz 17.5tf per stare sotto i 300w, secondo voi una scheda del genere ha un potenziale di overclock pauroso? Se il silicio permette di arrivare a ben oltre i 2.1ghz.. un po' come fu per maxwell di nvidia
Gyammy85
07-08-2020, 09:31
Ma prendendo come esempio 80cu 5120sp a 1700mhz 17.5tf per stare sotto i 300w, secondo voi una scheda del genere ha un potenziale di overclock pauroso? Se il silicio permette di arrivare a ben oltre i 2.1ghz.. un po' come fu per maxwell di nvidia
Alcuni parlano di boost prossimi ai 2,3 ghz per navi 21, quello sarà il base clock, non credo che amd scenda sotto i clock di navi 10
Ton90maz
07-08-2020, 14:25
fonte?
Comunque se come ipotizzato parliamo di 500mm2 di gpu, un 9% ogni 100mm2 non sono pochi come difetti (non riesco a fare il calcolo, speriamo non passi di qui il mio prof di statistica :asd: )TSMC stessa nelle sue slide, le puoi trovare su wikichip
mircocatta
07-08-2020, 17:30
https://www.tweaktown.com/news/74274/amds-next-gen-rdna-3-revolutionary-chiplet-design-could-crush-nvidia/amp.html
Speriamo :sperem:, almeno dall'altra parte si danno una calmata.
Speriamo che Amd diventi competitiva sulla fascia alta come un tempo lo era Ati.
A beneficio di tutti sia inteso e sopratutto sui prezzi scandalosi di Nvidia sulla sua top di gamma.
Speriamo che Amd diventi competitiva sulla fascia alta come un tempo lo era Ati.
A beneficio di tutti sia inteso e sopratutto sui prezzi scandalosi di Nvidia sulla sua top di gamma.
Basta che a sto giro "gli si rompa l'asta del cartello" prima dell'uscita :asd:.
Con le 5700 si sono adeguati ma se le avessero vendute come concepite all'origine al posto della 590 per nvidia sarabbe stato un bagno di sangue.
A quanto pare la rivale nVidia presenterà la serie 3080 tra un mese esatto con disponibilità per il 17/09
https://www.tweaktown.com/news/74312/nvidia-geforce-rtx-3080-ti-rumored-launch-of-september-17/index.html
https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-cards-9th-september-announcement-rtx-3080-ti-rtx-3080/
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-series-to-be-announced-on-september-9th
Si spera che la risposta di AMD non tardi ad arrivare
possibile che ancora non si abbiano notizie certe da parte di AMD riguardanti le nuove gpu???
ho una pulse 5700xt ma in VR mi incomincia a stare stretta soprattutto con l arrivo di FS2020 e del reverb g2...
non ho voglia di sborsare Milioni per le verdone....
P.s a differenza di tanti a me la 5700xt non ha mai dato il minimo problema
A quanto pare la rivale nVidia presenterà la serie 3080 tra un mese esatto con disponibilità per il 17/09
https://www.tweaktown.com/news/74312/nvidia-geforce-rtx-3080-ti-rumored-launch-of-september-17/index.html
https://wccftech.com/nvidia-geforce-rtx-30-ampere-gaming-graphics-cards-9th-september-announcement-rtx-3080-ti-rtx-3080/
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-series-to-be-announced-on-september-9th
Si spera che la risposta di AMD non tardi ad arrivareSbaglio o le navi di prossima generazione sono date per novembre?
Inviato dal mio LM-G710 utilizzando Tapatalk
Gyammy85
09-08-2020, 16:07
https://i.postimg.cc/RF68JLfC/2020-08-09.png (https://postimg.cc/0MvZLmch)
https://i.postimg.cc/wjqGQpJG/2020-08-09-1.png (https://postimg.cc/gn7sG1gV)
Si andrà molto probabilmente su un +40% sulla 2080ti per la top
amon.akira
10-08-2020, 11:18
Si andrà molto probabilmente su un +40% sulla 2080ti per la top
quindi fascia 3080ti, prezzo auspicabile? 999$ vs 1199$? non sarebbe male se in rt rende.
Ton90maz
10-08-2020, 12:28
quindi fascia 3080ti, prezzo auspicabile? 999$ vs 1199$? non sarebbe male se in rt rende.
Non sarebbe male e 999 dollari insieme?
ninja750
10-08-2020, 13:29
A quanto pare la rivale nVidia presenterà la serie 3080 tra un mese esatto con disponibilità per il 17/09
vedremo se presenteranno qualcosa sui 400/500€ e che non consumi/scaldi come un forno altrimenti aspetto AMD
amon.akira
10-08-2020, 14:20
Non sarebbe male e 999 dollari insieme?
potrebbe essere in caso chip tipo turing non-A che erano 999dollari, però sarebbe sempre da vedere come si comporta in rt e chissà se lo vedrò in tempo prima di cambiare ^^'
Free Gordon
10-08-2020, 15:24
Io vorrei una RDNA2, degna erede della R9 290......
E' passata una vita cazzarola e l'unico chip da allora a buon prezzo, buonino, è stato la 480 (e la 570).
Aahhahah
Mi sa che devi aggiungere un +100$ e poi dire che è un MSRP....
Gyammy85
10-08-2020, 18:39
In pratica venderebbero la 6900xt al prezzo di una 2070s :asd:
mircocatta
10-08-2020, 18:50
ma voi due volete tifare per una buona volta per i nostri portafogli o no? :O
poi più che scrivere che è uno scenario impossibile da veder realizzato che devo fare :boh: :boh:
Ale55andr0
10-08-2020, 20:35
se riesco a droppare la 1080 a prezzo "dignitoso" magari aggiorno alla next gen, rossa o verde che sia. Vediamo entro le 4-450 cucuzze che si troverà
ma voi due volete tifare per una buona volta per i nostri portafogli o no? :O
poi più che scrivere che è uno scenario impossibile da veder realizzato che devo fare :boh: :boh:
Sto già tifando in questo momento se è per quello, ma qui siamo al wishful thinking
Gyammy85
10-08-2020, 21:39
ma voi due volete tifare per una buona volta per i nostri portafogli o no? :O
poi più che scrivere che è uno scenario impossibile da veder realizzato che devo fare :boh: :boh:
AMD parla di "disruptive" come ryzen riferendosi a rdna2, potrebbero essere aggressivi lato prezzi, più realisticamente saranno 100 euro meno per fascia andando di più come la prassi degli ultimi anni
Per nvidia non c'è nessun problema as usual, vendono le 2060s tranquillamente a 400 e passa euro
mircocatta
11-08-2020, 07:00
AMD parla di "disruptive" come ryzen riferendosi a rdna2, potrebbero essere aggressivi lato prezzi, più realisticamente saranno 100 euro meno per fascia andando di più come la prassi degli ultimi anni
Per nvidia non c'è nessun problema as usual, vendono le 2060s tranquillamente a 400 e passa euro
Ed è esattamente per questo che ho "sparato" quelle cifre *
Vorrei ricordarvi che la situazione CPU pre ryzen era molto simile a quella gpu attuale... Non c'era concorrenza sulla fascia alta e se puntavi ad un Intel top ti beccavi un 4/8 da 400€
* ma dov'è finito il mio messaggio? per qual motivo sono stati eliminati alcuni messaggi? :confused:
Nessuna data di presentazione per Rdna 2x?
Nemmeno un qualche leak semi-autorevole?
Grazie
Nessuna data di presentazione per Rdna 2x?
Nemmeno un qualche leak semi-autorevole?
Grazie
Di ufficilale c'è solo una dichiarazione del CFO di AMD Devinder Kumar, il quale ha confermato che Big Navi sarà il primo prodotto in assoluto ad essere basato sull’architettura RDNA 2
Stop. Da qui in poi solo rumors: la logica indica che verrà presentata prima delle nuove console PS5 e XBox series X, il che porta a pensare indicativamente ad Ottobre
Gyammy85
12-08-2020, 08:40
Di ufficilale c'è solo una dichiarazione del CFO di AMD Devinder Kumar, il quale ha confermato che Big Navi sarà il primo prodotto in assoluto ad essere basato sull’architettura RDNA 2
Stop. Da qui in poi solo rumors: la logica indica che verrà presentata prima delle nuove console PS5 e XBox series X, il che porta a pensare indicativamente ad Ottobre
Amd ha dichiarato che sarebbero uscite prima delle console, molto probabilmente si andrà di +35/40% su 2080ti per la top da 80 cu e che sarà "disruptive" stile Ryzen
Quello che hai risposto tu sarebbe tipo "di ampere non si sa nulla a parte che si chiama ampere", anche se di la hanno già i prezzi le perf e tutto :asd:
Amd ha dichiarato che sarebbero uscite prima delle console, molto probabilmente si andrà di +35/40% su 2080ti per la top da 80 cu e che sarà "disruptive" stile Ryzen
Quello che hai risposto tu sarebbe tipo "di ampere non si sa nulla a parte che si chiama ampere", anche se di la hanno già i prezzi le perf e tutto :asd:Avere una futura top AMD che va il 10/15% meno della top della controparte ma ad un prezzo molto più umano è il minimo che possa fare la società rossa, tanto ci saranno sempre i detrattori del "se vuoi il massimo, scegli Nvidia" (anche se si parla di pochi punti percentuali) .
Per prezzo "umano" intendo almeno 200 cartoni di meno:
Top Nvidia 1.199
Top AMD 999
Da tassare ovviamente
Inviato dal mio LM-G710 utilizzando Tapatalk
Quindi è verosimile un lancio ad Ottobre, un mese dopo il lancio di Ampere da parte di Nvidia.
Ale55andr0
12-08-2020, 12:05
Quindi è verosimile un lancio ad Ottobre, un mese dopo il lancio di Ampere da parte di Nvidia.
possono adattare il listino
Indicativamente le custom dopo quanto escono, poi per me che non faccio overclock hanno senso? Io quelle poche gpu prese le ho cercate silenziose!
Blower intendi reference?
Blower
https://qph.fs.quoracdn.net/main-qimg-092869bd4bdc65a83dfbfc6e7a50f098
Open air
https://qph.fs.quoracdn.net/main-qimg-bcbeb8b43e0be22a3394ce76e57921f5
Nvidia dalla 2080Ti ha cambiato approccio e crea anche lei reference open per le top di gamma
Le nuove reference AMD saranno come la seconda
Ahhh ok grazie, meglio cosi!
comunque per chi si aspetta prezzi bassi vorrei ricordare tutta la scenata con le Vega e il prezzo di lancio valido solo per il primo giorno :asd: :sofico:
ninja750
12-08-2020, 17:16
Quindi è verosimile un lancio ad Ottobre, un mese dopo il lancio di Ampere da parte di Nvidia.
sempre che non lancino la big per prima e le "refresh" qualche mese dopo
Quindi è verosimile un lancio ad Ottobre, un mese dopo il lancio di Ampere da parte di Nvidia.
Verosimile ma ti ripeto non c'è nulla di ufficiale
Amd ha dichiarato che sarebbero uscite prima delle console,
Esattamente Devinder Kumar a Giugno ha dichiarato "C'è in giro molto interesse per le Navi 2, o come le chiamano i nostri fan, le Big Navi. Saranno i nostri primi prodotti basati su RDNA 2. I fan PC amano comprare il meglio e noi stiamo lavorando per offrirgli il meglio.".
Dunque tornando alla tua puntualizzazione, Io cosa ho scritto? Ti invito a rileggere il mio post
molto probabilmente si andrà di +35/40% su 2080ti per la top da 80 cu e che sarà "disruptive" stile Ryzen
Non era affatto richiesto dall'utente, dunque non capisco perchè hai voluto per forza inserirlo in risposta al mio intervento.
Quello che hai risposto tu sarebbe tipo "di ampere non si sa nulla a parte che si chiama ampere", anche se di la hanno già i prezzi le perf e tutto :asd:
Spytek ha chiesto Nessuna data di presentazione per Rdna 2x? ed io argomentato con l'unica notizia ufficiale che abbiamo, potevo rispondergli scrivendo "Nell'impasto della pizza margherita entro fine anno utilizzeranno una farina nuova" Ma non era inerente alla sua richiesta. Quindi la faccina ed il richiamo ad Ampere non hanno alcun senso IMHO
Ale55andr0
13-08-2020, 07:32
Ti invito a rileggere il mio post
non capisco perchè hai voluto per forza inserirlo in risposta al mio intervento.
la faccina ed il richiamo ad Ampere non hanno alcun senso IMHO
stai perdendo tempo
Blower
https://qph.fs.quoracdn.net/main-qimg-092869bd4bdc65a83dfbfc6e7a50f098
Open air
https://qph.fs.quoracdn.net/main-qimg-bcbeb8b43e0be22a3394ce76e57921f5
Nvidia dalla 2080Ti ha cambiato approccio e crea anche lei reference open per le top di gamma
Le nuove reference AMD saranno come la seconda
ehi ma quella è la mia sexy lady :eek:
le ventole sono in pull piu efficaci almeno sul copper design
29Leonardo
13-08-2020, 08:10
cut..
Nvidia dalla 2080Ti ha cambiato approccio e crea anche lei reference open per le top di gamma
Le nuove reference AMD saranno come la seconda
Non ho mai avuto la possibilità di confrontare lo stesso modello di scheda video con le varianti blower/open, teoricamente ho sempre pensato che le blower fossero migliori lato temp ma con una rumorosità maggiore.
Nei test vedo però che le open hanno sempre temp migliori, mi domando se dipenda dal fatto che vengano testate su banchetti piu che case tradizionali o se effettivamente il design delle open sia migliore a prescindere (il che spiegherebbe perchè ora le reference saranno open)
A voi è mai capitato di poter le due varianti con la stessa gpu?
mircocatta
13-08-2020, 08:10
Ma su AMD ci sono stati in passato modelli ultra curati al pari delle verdi kingping/hof & co. ?
OrazioOC
13-08-2020, 08:44
Ma su AMD ci sono stati in passato modelli ultra curati al pari delle verdi kingping/hof & co. ?
Sapphire nitro o msi lightining(r9 290x).
Gyammy85
13-08-2020, 10:00
Verosimile ma ti ripeto non c'è nulla di ufficiale
Esattamente Devinder Kumar a Giugno ha dichiarato "C'è in giro molto interesse per le Navi 2, o come le chiamano i nostri fan, le Big Navi. Saranno i nostri primi prodotti basati su RDNA 2. I fan PC amano comprare il meglio e noi stiamo lavorando per offrirgli il meglio.".
Dunque tornando alla tua puntualizzazione, Io cosa ho scritto? Ti invito a rileggere il mio post
Non era affatto richiesto dall'utente, dunque non capisco perchè hai voluto per forza inserirlo in risposta al mio intervento.
Spytek ha chiesto ed io argomentato con l'unica notizia ufficiale che abbiamo, potevo rispondergli scrivendo "Nell'impasto della pizza margherita entro fine anno utilizzeranno una farina nuova" Ma non era inerente alla sua richiesta. Quindi la faccina ed il richiamo ad Ampere non hanno alcun senso IMHO
Allora aspettiamo il lancio ufficiale per le info ufficiali, pace
le ventole sono in pull piu efficaci almeno sul copper design
Le blower erano indicate in assenza di riscaldamento ambientale : troppo comode :asd:
mikael84
13-08-2020, 11:29
Ma su AMD ci sono stati in passato modelli ultra curati al pari delle verdi kingping/hof & co. ?
Si, le lightning (uguali alle verdi), ma anche varie multifase toste, come la asus Matrix, le Giga SOC WF5 con i proadlizer dietro il PCB, la HIS turbo Q (nella 7970 era completamente sbloccata).
Lo Straniero Misterioso
13-08-2020, 12:30
Le blower erano indicate in assenza di riscaldamento ambientale : troppo comode :asd:
In realtà funziona al contrario: la blower essendo meno efficace finisce col produrre meno calore (il bios della gpu inizierà ad abbassare frequenze e/o voltaggi per stare nei parametri di funzionamento programmati).
Se vuoi scaldare tanto ti devi fare un bel custom loop che tenga la GPU a 36°C - in questo modo il chip è libero di trasformare in calore tutti i watt che gli dai, tanto ci pensa ekwb a spostarlo nella stanza prima che possa diventare un problema! :D
Con lo Sli delle Fermi 480 riuscivo a scaldare due stanze,altro che poco calore prodotto :asd:
A parte gli scherzi,con le Blower,a prescindere dalla capacità di raffreddamento superata dagli attuali sistemi di dissipazione,l’aria calda usciva interamente all’esterno e non all’interno ;)
JuneFlower
13-08-2020, 14:06
Free Gordon, guarda che dici bene 580 e 590 anzi se vuoi un po' di piu prendi la 590 di un buon produttore, e stai a posto parecchio.. a meno che non giochi l'ultima roba che esce a 70 euro (beta testing 90% dei casi)... allora è un altro paio di maniche...
LoL non lo so perché siano stati cancellati, non credo sia possibile ma vedo che invece parecchi hanno fatto lo stesso ragionamento mio che faccio grazie alle vostre informazioni anche.
Io credo che molti che non sono pazzi non prenderanno assolutamente le "enthusiast"... (a me di quello che spende 500 euro per una scheda non me ne frega niente, state fuori punto, contando che un buon pc lo puoi fare con 100- anche 200 euro in piu di quella cifra sapere che uno mette 500 euro è fuori da ogni normalità, non sto parlando di "no ma io ci lavoro" .. ma anche "no ma io ci gioco"...
E forse ca va sans dire..?!
Sto cercando di capire se questo forum parla anche per le non élite. (scusate se sparo)
Quindi talgiando davvero corto: mi sa che ci troveremo in molti a prendere le 5700 e 5700 xt che scenderanno di 50 euro e che a 300 euro saranno un acquisto che chi da 8 anni non acquista o da 4 anni, faranno entrambi...
Se mettono le "6700" o magari fanno anche le 6800 - 6900 che ne so magari ci mettono "qualcosa di piu" non credo che i refresh saranno "pari pari"... ma ci sarà qualcosa che come 480 sta a 580 sarà 590. (c'è forse un termine per definire questo "extra"), ma anche se c'è un "plus" oltre alla tecnologia piu potente non credo che a meno che le vendano a 450 Euro qualcuno le prenderà...
Credo che sarebbe da fare un ragionamento intelligente sui prezzi e si può benissimo fare. Anche guardando lo storico 480 - 580 .. anche se qui parlaimo di un salto tecnologico... e poi c'è anche il fattore concorrenza.
Non credo che cannibalizzeranno le loro 5700 con le vendite (non credo che qui ci siano esperti di Sales... m pare di capire, ma il pool di chi viene qui è talmente largo che potrebbe anche essere).
Nel senso che se cannibalizzano le 5700 dovrebbero mettere un prezzo "troppo basso" (basso) per le neo 5000. Questo non avverrà quindi semplicemente (e ste cose sono già state stabilite quindi si può vbenissimo LEGGERE tra le RIGHE cose che avverranno non E' AFFATTO vero che bisogna aspettare tutto...
Quindi magari useranno le 5700 e xt e le console per cercare di avere le non vendite delle rdna 2 ... abbassando di poco le 5700
In poche parole sto dicendo che molti compreranno 5700 mi sa visto che potrebbero andare sui 300 Euro ... dai saranno le nuove 580...
potrebbero anche lasciare le 5700 quasi li dove sono e offrire le 6000 series prezzi MOLTO MOLTO vantaggiosi... tipo 450 Euro.. anche se parliamo di semi cannibalizzazione LORO HANNO TUTTI I DATI per capire se cannibalizzano qualcosa o meno (a meno che non salti fuori qualcosa di nuovo tipo un VR che costa 100 Euro, o magari altro loro sanno benissimo come non cannibalizzare e sanno benissimo già i prezzi che daranno a tutto.. gli manca solo il fattore concorrenza che può cambiare qualche cosa ... quindi si bisogna aspettare ma tante robe si possono bemissimo supporre già ora.
Possono anche vendere le prime unità a prezzo vantaggioso, in modo che la gente ne parli, e bene e poi riportare i prezzi a "meno accessibili" in modo da giocarci e farli fluttuare in base a cosa succede.
Secondo me il mercato non è piu lo stesso per tantissime motivazioni ...
Forse siccome molti si fanno un pc, ci saranno anche tante vendite di vecchie carte come la 580 o altro, visto che le pandemie porteranno una marea di gente a farsi anche fissi, e quindi tante robe cambieranno... una cosa così potrebbe portare sti nuovi prezzi ad avere prezzi molto alti ...e quindi non essere accessibili.
Io sono pro rosso, ma spero che Nvidia non faccia sedere AMD che sta facendo parecchio bene anche molto bene contro INTEL... il gigante non credo farà mai sedere davide ... Quindi ne risulterà buone opportunità per noi di acquisto.
Sono davvero curioso se sarà stata una buona idea non acquistare ora a 350 le pulse 5700 xt .. che sono disponibili in giro.
Che fatica leggere tutto.
Dipende, che monitor e` il tuo target? Le gpu si possono rimpiazzare quando vogliamo, con i monitor non e` la stessa cosa.
Se il tuo target e` 1080p io ho avuto in sequenza 580, 580, 570, 1060, una vale l'altra per giocare tutto maxato, forse bisogna trovare hairworks o qualche titolo stra esigente, ma anche li` abbassando di poco e nulla i filtri voli.
Tuttavia se il target e` 1440p 120hz o 4k ancora serve la scheda mainstream.
2070 e 5700xt mancavano, a mio avviso, quel tantinino in piu` per farmi stare tranquillo qualche anno a 4k.
Ma in quel caso dovrei cambiare monitor e cosa comprerei con le caratteristiche che cerco...? Poco e nulla. Devo attendere due 4k 60hz buoni per il gaming ed entro i 27"...spesa non indifferente e non sostenibile almeno adesso, quindi anche se mi posso permettere le nuove gpu, mi mancano i monitor adatti per farle brillare.
OrazioOC
13-08-2020, 17:36
https://twitter.com/davideneco25320/status/1293927276502016001
Qualcuno finalmente si sta togliendo qualche sassolino dalla scarpa :asd:.
Non ho mai avuto la possibilità di confrontare lo stesso modello di scheda video con le varianti blower/open, teoricamente ho sempre pensato che le blower fossero migliori lato temp ma con una rumorosità maggiore.
Nei test vedo però che le open hanno sempre temp migliori, mi domando se dipenda dal fatto che vengano testate su banchetti piu che case tradizionali o se effettivamente il design delle open sia migliore a prescindere (il che spiegherebbe perchè ora le reference saranno open)
A voi è mai capitato di poter le due varianti con la stessa gpu?
E' una questione di fisica, le "open" montano 2 o 3 ventole contro la singola delle blower. Più' pressione delle ventole sul dissipatore = meno rumore (ventole girano più' lentamente) e temperature più' basse (il volume di aria mosso e' comunque più' alto). Espellere aria internamente al case o esternamente cambia poco se il case e' ben ventilato. Il rumore e' in funzione del logaritmica quidi vale sempre la regole due ventole che fanno lo stesso livello di rumore sono meglio di una più' rumorosa. Le blower si adattano bene a case molto piccoli ma ultimamente ci sono ottime soluzioni liquid cooled. Di solito AMD produce schede reference blower per lasciare ai partner margine di miglioramento.
Ma su AMD ci sono stati in passato modelli ultra curati al pari delle verdi kingping/hof & co. ?
Il massimo che puoi trovare e' la 5700 XT strix come pcb e la 5700 XT Liquid Devil come selezione del die del produttore.
Free Gordon, guarda che dici bene 580 e 590 anzi se vuoi un po' di piu prendi la 590 di un buon produttore, e stai a posto parecchio.. a meno che non giochi l'ultima roba che esce a 70 euro (beta testing 90% dei casi)... allora è un altro paio di maniche...
LoL non lo so perché siano stati cancellati, non credo sia possibile ma vedo che invece parecchi hanno fatto lo stesso ragionamento mio che faccio grazie alle vostre informazioni anche.
Io credo che molti che non sono pazzi non prenderanno assolutamente le "enthusiast"... (a me di quello che spende 500 euro per una scheda non me ne frega niente, state fuori punto, contando che un buon pc lo puoi fare con 100- anche 200 euro in piu di quella cifra sapere che uno mette 500 euro è fuori da ogni normalità, non sto parlando di "no ma io ci lavoro" .. ma anche "no ma io ci gioco"...
E forse ca va sans dire..?!
Sto cercando di capire se questo forum parla anche per le non élite. (scusate se sparo)
cut
si chiama mettere soldi da parte altro che elite.
Si rinuncia alla vacanza magari per la vga, oppure alle uscite dove partono i centoni.
Moltiplica per mesi e anche tu potrai permetterti una super vga.
si chiama mettere soldi da parte altro che elite.
Si rinuncia alla vacanza magari per la vga, oppure alle uscite dove partono i centoni.
Moltiplica per mesi e anche tu potrai permetterti una super vga.
Meglio spender poco e risparmiare non si sa mai nella vita cosa succede!
Meglio spender poco e risparmiare non si sa mai nella vita cosa succede!
certo vale per tutto auto,matrimoni,vestiti si puo risparmiare su tutti i fronti.
A torto, ma credo a volte di leggere sfoghi dove le mogliettine/zavorrine tengono a stecca il pover uomo di turno che azzera quasi del tutto le proprie passioni perche bollate come piterpanate dall altro 50% della coppia.
Meglio pagare l asilo per 2,3,4 figli o mantenere il suv alla femmina che deve comparire con le amiche. In tutto questo è chiaro che 500€ di vga stonano.
....e se si riesce a non mangiare come fece l'asino ci si può permettere di tutto:) :) :) :) :) :)
ispgadget88
15-08-2020, 08:49
Il budget credo sia abbastanza soggettivo, dipende da circostanze, esigenze e disponibilità. Aì tempi della scuola un budget di 600-800 euro per il PC era ambizioso e mi ci voleva tempo per mettere da parte una cifra simile, per la scheda video spendere più di 200 euro mi sembrava folle.
Oggi lavorando le cose sono cambiate ovviamente ed il budget è aumentato, sono appena passato ad un monitor 1440p e per giocare tranquillo mi aspetto di dover spendere 300-400 euro per la prossima scheda video, spenderne 500-600 mi sembra uno spreco, considerate le mie esigenze ed il fatto che tendenzialmente tengo la scheda fino a fine vita. Ognuno fa i conti in tasca propria, a me fa sicuramente specie sentir parlare di certe cifre per una fascia media.
Ale55andr0
15-08-2020, 22:28
che due OO, dumila leak nvidia, veri o falsi che siano, e un caxxo di nulla su navi :coffee:
amon.akira
15-08-2020, 22:47
che due OO, dumila leak nvidia, veri o falsi che siano, e un caxxo di nulla su navi :coffee:
è normale, praticamente tra 15giorni jhh le presenta...lisa quando fine ottobre?...allora inizio ottobre avrai i tuoi leak :D
Andy1111
15-08-2020, 22:54
Secondo me cominceranno a uscire dopo la presentazione di JHH i leak.
Tanto mai una gioia al massimo andrà come una 3070 big navi ....... :D :sofico:
amon.akira
15-08-2020, 23:20
Secondo me cominceranno a uscire dopo la presentazione di JHH i leak.
Tanto mai una gioia al massimo andrà come una 3070 big navi ....... :D :sofico:
ma andrà anche come la 3090 in raster ma se poi in rt va come una 3070...non penso sia il massimo spendere mille euro e iniziare a disattivare l rt in cyberpunk per mostrare i muscoli.
anche perchè i 300mm rdna2 di series x microsoft ha detto che sono capaci di 25tf in rt, quindi vedremo i 500mm di bignavi
AceGranger
16-08-2020, 01:28
ma andrà anche come la 3090 in raster ma se poi in rt va come una 3070...non penso sia il massimo spendere mille euro e iniziare a disattivare l rt in cyberpunk per mostrare i muscoli.
anche perchè i 300mm rdna2 di series x microsoft ha detto che sono capaci di 25tf in rt, quindi vedremo i 500mm di bignavi
10TFlops = 1 Giga rays
il valore dichiarato da Micorosft sara sicuramente il netto su strada e in RT si posiziona circa come una 2070S ( valore di Tflops degli RT core realmente sfruttato e non quello dichiarato teorico massimo )
ma andrà anche come la 3090 in raster ma se poi in rt va come una 3070...non penso sia il massimo spendere mille euro e iniziare a disattivare l rt in cyberpunk per mostrare i muscoli.
anche perchè i 300mm rdna2 di series x microsoft ha detto che sono capaci di 25tf in rt, quindi vedremo i 500mm di bignavi
Che è un po' quello che succede a tutti i possessori di turing da un paio di anni a questa parte.
Gyammy85
16-08-2020, 08:04
Che è un po' quello che succede a tutti i possessori di turing da un paio di anni a questa parte.
Turing è alpha, ampere beta e Hopper la full, funziona così
OvErClOck82
16-08-2020, 08:26
Che è un po' quello che succede a tutti i possessori di turing da un paio di anni a questa parte.Ouch :asd:
Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk
amon.akira
16-08-2020, 10:49
Che è un po' quello che succede a tutti i possessori di turing da un paio di anni a questa parte.
no sense, gli rt come metro control e tomb raider me li sono goduti ugualmente, tu dirai allora perchè non dovrei godermerli io con la mia fiammante bignavi? nulla di male se fa gli stessi fps di una 3070 con rt on, sperò però che anche il prezzo sia allo stesso livello, non vorrei che la prezzano in base alle prestazioni in raster.
Gyammy85
16-08-2020, 11:08
no sense, gli rt come metro control e tomb raider me li sono goduti ugualmente, tu dirai allora perchè non dovrei godermerli io con la mia fiammante bignavi? nulla di male se fa gli stessi fps di una 3070 con rt on, sperò però che anche il prezzo sia allo stesso livello, non vorrei che la prezzano in base alle prestazioni in raster.
Tipo navi 10 che avendo 40 cu sarebbe andata come la 1070, ad ogni uscita c'è sempre il what if, per 5 anni hanno strillato sui geo, sull'erba, ora abbiamo RT
Ale55andr0
16-08-2020, 11:58
ma andrà anche come la 3090 in raster ma se poi in rt va come una 3070...non penso sia il massimo spendere mille euro e iniziare a disattivare l rt in cyberpunk per mostrare i muscoli.
anche perchè i 300mm rdna2 di series x microsoft ha detto che sono capaci di 25tf in rt, quindi vedremo i 500mm di bignavi
10TFlops = 1 Giga rays
il valore dichiarato da Micorosft sara sicuramente il netto su strada e in RT si posiziona circa come una 2070S ( valore di Tflops degli RT core realmente sfruttato e non quello dichiarato teorico massimo )
Visto che mi lagnavo dell'assoluta assenza di leak è bello che due utenti su internet sappiano rispettivamente che big navi costerà mille euro e che in rt la series x andrà come una 2070s (basandosi su un equivalente aritmetico teorico ma senza alcun supporto pratico sul campo dell'implementazione AMD) :D
I Leak su Amd ci sono: da parte degli utenti del forum :asd:
Scherzi a parte ragazzi,io sono per la concorrenza ad armi pari.
Non è possibile che una 5700Xt non riesce nemmeno a competere con una 1080Ti ex top di gamma Nvidia di quasi 4 anni fa e ora Nvidia stà per presentare la nuova serie!
E lo dico con delusione perchè Amd deve svegliarsi e ritornare ad essere competitiva come ha fatto con le Cpu ;)
Andy1111
16-08-2020, 12:12
I Leak su Amd ci sono: da parte degli utenti del forum :asd:
Scherzi a parte ragazzi,io sono per la concorrenza ad armi pari.
Non è possibile che una 5700Xt non riesce nemmeno a competere con una 1080Ti ex top di gamma Nvidia di quasi 4 anni fa e ora Nvidia stà per presentare la nuova serie!
E lo dico con delusione perchè Amd deve svegliarsi e ritornare ad essere competitiva come ha fatto con le Cpu ;)
Scusa la domanda perchè la 2070 appena uscita riusciva a competere con la 1080 TI ? il tuo paragone non ha senso, la 5700 XT non è una top di gamma come non lo è la 2070 o la 2070 super
Scusa la domanda perchè la 2070 appena uscita riusciva a competere con la 1080 TI ?
Cosa c'entrerebbe la 2070 visto che si parla di Top di gamma?
il tuo paragone non ha senso, la 5700 XT non è una top di gamma come non lo è la 2070 o la 2070 super
E quale sarebbe la top di gamma Amd?
Ale55andr0
16-08-2020, 12:25
Non è possibile che una 5700Xt non riesce nemmeno a competere con una 1080Ti ex top di gamma Nvidia di quasi 4 anni fa)
A me sta frase lascia sempre interdetto, perchè non capisco come una scheda che si piazza(va) fra 2070 e 2070s, in certi giochi passa tranquilla una 2080, e che con gli utlimi driver ha avuto un ulteriore boost apprezzabile "non riesce a battere" una 1080ti, così, di default. Quindi ancora oggi dopo non so quanto dall'uscita di turing la 1080ti=>2070S (?) ~2080 (?) quando a vedere da un po' di tempo non mi pare sia proprio così... Posto e SOPRATTUTTO che con la 5700xt parliamo di una 40cu a 256bit che non si sa perchè DEVE battere la top precedente a 3500sp, 11gb 352bit cazzi e mazzi perchè si', quando sono due prodotti che hanno implementazioni di fascia e di conseguenza numeri che non ci azzeccano nulla l'uno con l'altro. :asd: Il problema sarebbe stato non battere la ti con una scheda con stessi numeri tecnici, non un chippetto con quella cifra muscolare e quel segmento commerciale, perchè a sto punto anche la 2070 doveva asfaltare la 1080ti al lancio "perchè si', o no?
Ale55andr0
16-08-2020, 12:26
Cosa c'entrerebbe la 2070 visto che si parla di Top di gamma?
E quale sarebbe la top di gamma Amd?
Domanda errata: quale segmento occupa amd con la sua "top di gamma" e quali sono le caratteristiche tecniche dei due chip a confrotno? :rolleyes:
Quindi se io oggi compro una goft gti, solo perchè più nuova, DEVO battere con 4 cilindri e 2000cc e un diverso segmento l'm3 BMW della serie precedente che ha cmq 3000v6 turbo perchè quella è la top delle golf ed è uscita dopo
amon.akira
16-08-2020, 12:37
Visto che mi lagnavo dell'assoluta assenza di leak è bello che due utenti su internet sappiano rispettivamente che big navi costerà mille euro e che in rt la series x andrà come una 2070s (basandosi su un equivalente aritmetico teorico ma senza alcun supporto pratico sul campo dell'implementazione AMD) :D
ma l ha detto la microsoft mica io...certo se poi con 25tf xbox fa quanto 50tf nvidia ben venga...certo tutto può essere :asd:
Ale55andr0
16-08-2020, 12:42
ma l ha detto la microsoft mica io...certo se poi con 25tf xbox fa quanto 50tf nvidia ben venga...certo tutto può essere :asd:
Io non ho letto da nessuna parte che miscrosoft ha detto che series x va come la 2070, ma non perchè possa o non possa esser vero, ma perchè è un confronto fra mele e pere visto che io faccio una console per confrontarmi con sony, non con la gpu discreta di una marca rivale del mio "fornitore/partner" e che chiamo in causa
A me sta frase lascia sempre interdetto, perchè non capisco come una scheda che si piazza(va) fra 2070 e 2070s, in certi giochi passa tranquilla una 2080, e che con gli utlimi driver ha avuto un ulteriore boost apprezzabile "non riesce a battere" una 1080ti, così, di default.
Che Amd abbia recuperato con l'ottimizzazione driver non ci piove ma dopo quanto tempo?
Sulla questione che in certi giochi Amd "passa tranquilla la 2080" lo fa di certo per l'ottimizzazione del gioco ma una 1080 Ti è più muscle di una 5700 Xt e Amd tenta di colmare il gap,appunto,lato driver.
Posto e SOPRATTUTTO che con la 5700xt parliamo di una 40cu a 256bit con chip che non si sa perchè DEVE battere la top precedente a 3500sp, 11gb 352bit cazzi e mazzi perchè si' quando sono due prodotti che hanno implementazioni di fascia e di conseguenza numeri che non ci azzeccano nulla l'uno con l'altro. :asd: Il problema sarebbe stato non battere la ti con una scheda con stessi numeri tecnici, non un chippetto con quella cifra muscolare
Perchè non è possibile tale confronto e perchè non ci si può porre l'interrogativo del perchè una 5700 Xt,top di gamma Amd,stenta a competere con le prestazioni di una 1080Ti di quasi 4 anni fa?
Tutto questo per manifestare dissenso nei confronti di Amd,con tanto di invito a svegliarsi per competere con la fascia ultra di Nvidia?
Cioè dai...la mettete sempre sul polemico :doh:
Domanda errata: quale segmento occupa amd con la sua top di gamma?
La domanda mia iniziale non è per nulla errata.
Rispondendo alla tua : Top di gamma Amd,semplice...
AceGranger
16-08-2020, 12:49
Visto che mi lagnavo dell'assoluta assenza di leak è bello che due utenti su internet sappiano rispettivamente che big navi costerà mille euro e che in rt la series x andrà come una 2070s (basandosi su un equivalente aritmetico teorico ma senza alcun supporto pratico sul campo dell'implementazione AMD) :D
lo hanno dichiarato loro ufficialmente :p, se poi sparano supercazzole si vedra.
Io non ho letto da nessuna parte che miscrosoft ha detto che series x va come la 2070, ma non perchè possa o non possa esser vero, ma perchè è un confronto fra mele e pere visto che io faccio una console per confrontarmi con sony, non con la gpu discreta di una marca rivale del mio "fornitore/partner" e che chiamo in causa
visto che l'architettura è quella, hai un metro di paragone abbastanza plausibile; non è ovviamente oro colato ma il range di prestazioni è quello.
amon.akira
16-08-2020, 12:59
Io non ho letto da nessuna parte che miscrosoft ha detto che series x va come la 2070, ma non perchè possa o non possa esser vero, ma perchè è un confronto fra mele e pere visto che io faccio una console per confrontarmi con sony, non con la gpu discreta di una marca rivale del mio "fornitore/partner" e che chiamo in causa
infatti non ha detto che va come la 2070, ha detto in rt hai 25tf, noi sappiamo che 25tf li ha anche la 2070s in rt....certo ripeto PUO ESSERE che i 25tf rt rdna2=50tf rt turing.... :sofico:
no sense, gli rt come metro control e tomb raider me li sono goduti ugualmente, tu dirai allora perchè non dovrei godermerli io con la mia fiammante bignavi? nulla di male se fa gli stessi fps di una 3070 con rt on, sperò però che anche il prezzo sia allo stesso livello, non vorrei che la prezzano in base alle prestazioni in raster.
Se nvidia mi vende una scheda da 1000 euro con una feature che ne dimezza le prestazioni va bene.
Se amd mi vende una scheda da 1000 euro con una feature che mi dimezza le prestazioni riscopro il mio senso critico e non va bene.
amon.akira
16-08-2020, 13:09
Se nvidia mi vende una scheda da 1000 euro con una feature che ne dimezza le prestazioni va bene.
Se amd mi vende una scheda da 1000 euro con la stessa feature che mi dimezza le prestazioni a un prezzo maggiore (se andasse come la 3070 ma costasse di piu) riscopro il mio senso critico e non va bene.
fix
Ale55andr0
16-08-2020, 13:11
una 1080 Ti è più muscle di una 5700 Xt e Amd tenta di colmare il gap,appunto,lato driver
ti sei risposto da solo: quindi paragonare un prodotto con numeri completamente diversi e intenti compeltamente di versi non ha senso. AMD non "tenta" un cassio di nulla: sviluppa i driver come fa nvidia, è la naturale evoluzione del proddotto, non lo fa "perchè devo battere la 1080ti ma devo compensare col software" :rolleyes:
perchè una 5700 Xt,top di gamma Amd,stenta a competere con le prestazioni di una 1080Ti di quasi 4 anni fa?
Aridaje, sta frase "è la top di gamma" :muro: non ha alcun senso decontestualizzata: anche la kia ha la sua top di gamma, ma non la paragoni con la top di gamma di un brand che occupa un altro segmento con la sua top di gamma :muro: . La 5700xt NON non è nata per scontrarsi con la 1080ti, quindi il fatto che "non la batta" (e per quanto mi riguarda non è propriamente così) ergo è una critica pretestuosa, AMD come fu per la R9 480 NON ha prpposto nulla per il segmento del mercato high end, fine.
Cioè dai...la mettete sempre sul polemico :doh:
se si fanno paragoni pretestuosamente a muzzo per parlar male "a gratis", la polemica è al contrario, non la mia :read:
La domanda mia iniziale non è per nulla errata.
Rispondendo alla tua : Top di gamma Amd,semplice...
vedere quote 2, ma l'avevi capito e lo sapevi già benissimo...:rolleyes: e qua chiudo che basta il caldo a tediarmi senza ulteriori collaborazioni :O
Ale55andr0
16-08-2020, 13:14
lo hanno dichiarato loro ufficialmente :p, se poi sparano supercazzole si vedra.
Quindi microsoft ha detto la series x va come la 2070 in rt. Sarò scemo io ma sto quote microsoft nella rete non lo trovo :stordita:
Se nvidia mi vende una scheda da 1000 euro con una feature che ne dimezza le prestazioni va bene.
Se amd mi vende una scheda da 1000 euro con una feature che mi dimezza le prestazioni riscopro il mio senso critico e non va bene.
se io con un chip da 40cu e 256bit nato per una fascia non high end "non ne batto" (ma a che giocano nel 2020? a gta 5? :asd:) uno col 50% delle risorse hardware extra e nato per un segmento più costoso va anche peggio :O
AceGranger
16-08-2020, 13:30
Quindi microsoft ha detto la series x va come la 2070 in rt. Sarò scemo io ma sto quote microsoft nella rete non lo trovo :stordita:
i TFlops quelli sono.
se poi vogliamo credere alla favola che le console siano "ottimizzate" e che facciano volare, va bene, ok.
quelle sono le prestazioni dichiarate e se saranno vere quello è quanto andranno, in RT come una 2070S, ne piu ne meno.
Gyammy85
16-08-2020, 13:33
Giusto per chiarire, Microsoft parla di 12 tf, poi specifica che la potenza complessiva è "well over 25 tf", e questo fece trapelare che si tratta di 52+56 cu che a quella frequenza farebbero appunto 25 tf...
Well over perché rendono molto più del numero grezzo, proprio a causa del lavoro sull'architettura, che ci vogliono 10 tf per 1 gray è per Turing, potrebbero volercene 2 e arriviamo a 5x Turing teorici, quindi la sparata che ms ha detto che va come la 2070 (eravamo partiti con la 2070s, stasera arriveremo easy alla 2060) perché Ms ha detto 25 tf proprio non sta in piedi
Lo dico chiaro, 52 cu rdna2 tranciano una 2080ti, e non ci vuole un fanboy per capirlo, ma tanto il 17 a hot chips si parlerà dell'arch della xsx e avremo i dettagli
ti sei risposto da solo: quindi paragonare un prodotto con numeri completamente diversi e intenti compeltamente di versi non ha senso
Ma non avrà senso,di certo,per te.
E' innegabile che Amd non riesca a competere sulla fascia alta e mi scuserai se il confronto da me operato ti è indigesto.. :rolleyes:
Per non parlare dell'esempio delle auto che ha poca attinenza e devia pesantemente dal tema centrale.
Aridaje, sta frase "è la top di gamma" :muro: non ha alcun senso decontestualizzata: anche la kia ha la sua top di gamma, ma non la paragoni con la top di gamma di un brand che occupa un altro segmento con la sua top di gamma :muro: .
Da sempre c'è stata competizione e concorrenza tra Nvidia e Ati e ora non è possibile operare un confronto tra Top di gamma delle rispettive case produttrici perchè non ci sono i numeri e "caratteristiche tecniche dei due chip a confronto"?
La 5700xt NON nasce e non è nata per scontrarsi con la 1080ti, quindi il fatto che "non la batta" (e per quanto mi riguarda non è propriamente così) ergo è una critica sterile e pretestuosa
Il dato di fatto è che la 5700Xt,ripeto top di gamma Amd,compete sulla fascia medio/alta di Nvidia.
Non è nata per scontrarsi con la 1080Ti perchè Amd semplicemente non è riuscita a competere.
E io valuto una Sk grafica nella sostanza e non con quei pochi giochi ottimizzati mentre mostra il fianco con tutto il resto.:rolleyes:
Non ci vedo nulla di sterile e pretestuoso nonostante io abbia,in più occasioni,manifestato la critica nei confronti di Amd per non riuscire a competere sulla fascia Top di Nvidia come un tempo eravamo soliti vedere in Ati e Nvidia
se si fanno paragoni a muzzo per parlar male di un prodotto "a gratis", la polemica è al contrario, non la mia :read:
E palesamente la risposta di chi non ha capito il perno centrale del discorso.
e qua chiudo che basta il caldo a tediarmi senza ulteriori collaborazioni :O
E installa un condizionatore se fa troppo caldo.:cool:
Gyammy85
16-08-2020, 13:34
i TFlops quelli sono.
se poi vogliamo credere alla favola che le console siano "ottimizzate" e che facciano volare, va bene, ok.
quelle sono le prestazioni dichiarate e se saranno vere quello è quanto andranno, in RT come una 2070S, ne piu ne meno.
I tf erano fuffa per fanboy AMD una volta, eh come passa il tempo
Ale55andr0
16-08-2020, 13:48
i TFlops quelli sono.
se poi vogliamo credere alla favola che le console siano "ottimizzate" e che facciano volare, va bene, ok.
quelle sono le prestazioni dichiarate e se saranno vere quello è quanto andranno, in RT come una 2070S, ne piu ne meno.
haaaa, i terfloppi quelli sono :O ...ma non mi si diceva che tflopp di una non vanno come l'altra a convenienza? :asd:
ora, scherzi a parte, proprio li andavo a parare: il valore numerico non è la frase "va come la 2070", che appunto non esiste, e le capacita di calcolo teoriche non sono comparabili su strada ergo ripeto, vediamo com'è implementato, e non ci azzecca nemmeno il discorso "ottimizzazione console in se", ma la differente architettura. A oggi non sappiamo se AMD ha una tecnologia per il RT pessima o ottima a prescindere dal dato numerico che in se' non dice niente se quei "cavalli", pochi o tanti che siano, li metti in strada benissimo o malissimo
amon.akira
16-08-2020, 14:03
Giusto per chiarire, Microsoft parla di 12 tf, poi specifica che la potenza complessiva è "well over 25 tf", e questo fece trapelare che si tratta di 52+56 cu che a quella frequenza farebbero appunto 25 tf...
Well over perché rendono molto più del numero grezzo, proprio a causa del lavoro sull'architettura, che ci vogliono 10 tf per 1 gray è per Turing, potrebbero volercene 2 e arriviamo a 5x Turing teorici, quindi la sparata che ms ha detto che va come la 2070 (eravamo partiti con la 2070s, stasera arriveremo easy alla 2060) perché Ms ha detto 25 tf proprio non sta in piedi
Lo dico chiaro, 52 cu rdna2 tranciano una 2080ti, e non ci vuole un fanboy per capirlo, ma tanto il 17 a hot chips si parlerà dell'arch della xsx e avremo i dettagli
quindi 25.9? sennó diceva well over 26tf xD
gia i gigaray nvidia sono grezzi solo raggi senza tener conto dello shading....addirittura 5x turing :sofico:
Ale55andr0
16-08-2020, 14:07
Ma non avrà senso,di certo,per te.
E' innegabile che Amd non riesca a competere sulla fascia alta e mi scuserai se il confronto da me operato ti è indigesto.. :rolleyes:
Per non parlare dell'esempio delle auto che ha poca attinenza e devia pesantemente dal tema centrale.
No, non ti scuso :O non ha senso e lo hai detto tu stesso: "un prodotto più muscle"...ergo i paragoni li fai con uno con gli stessi "muscoli", non con chi ha 40 kg meno di te (toh, siamo entrati anche nelle analogie del weightlifiting :O), visto che non ti piace l'esempio delle auto che...è perfettamente calzante :O : stiamo parlando di numeri tecnici messi in campo da una proposta e un'altra, che siano motori, gpu, amplificatori o altro quale che sia l'ambito ogni prodotto ha mire "fisiche" ed economiche diverse, poi usare mille analogie diverse, il succo resta quello.
Da sempre c'è stata competizione e concorrenza tra Nvidia e Ati e ora non è possibile operare un confronto tra Top di gamma delle rispettive case produttrici perchè non ci sono i numeri e "caratteristiche tecniche dei due chip a confronto"?
Ovvio, ma lo fai a pari segmento e specifica di prodotto, caldo insistente e assassino! :muro:
Il dato di fatto è che la 5700Xt, ripeto top di gamma Amd,compete sulla fascia medio/alta di Nvidia
il dato di fatto è che non è fatta per competere con quelle! caldo appiccicoso e scocciatore! :muro:
Non è nata per scontrarsi con la 1080Ti perchè Amd semplicemente non è riuscita a competere.
certo, perchè se voleva non poteva farne una con più cu e bus più ampio, perchè lo dice tizio su internet: AMD del resto non ha avuto chip ben più grossi e consumosi della 5700xt nevvero? non è "il non poter competere", ma il non voler competere perchè nella definizione di una lineup i dati di vendita e le strategie commerciali le fanno in funzioni del loro guadagno, non del tuo/mio piacere. Ah no, dovevano per forza fare una piastrella da 800mm^2 con rese infime per zittire un tizio a caso su internet, anche se le schede più vendute stanno tutte sotto i 350...
E palesamente la risposta di chi non ha capito il perno centrale del discorso.
pensa, è esattamente quello che vedo in cio' che dici tu :)
E installa un condizionatore se fa troppo caldo.:cool:
faccio come AMD: come mi pare, non come pare a te ;)
AceGranger
16-08-2020, 14:15
haaaa, i terfloppi quelli sono :O ...ma non mi si diceva che tflopp di una non vanno come l'altra a convenienza? :asd:
a convenienza avrei preso il teorico della 2070S, non il reale :p
ora, scherzi a parte, proprio li andavo a parare: il valore numerico non è la frase "va come la 2070", che appunto non esiste, e le capacita di calcolo teorica non sono comparabili su strada ergo ripeto, vediamo com'è implementato, e non ci azzecca nemmeno il discorso "ottimizzazione console in se", ma la differente architettura. A oggi non sappiamo se AMD ha una tecnologia per il RT pessima o ottima a prescindere dal dato numerico che in se' non dice niente se quei "cavalli", pochi o tanti che siano, li metti in strada benissimo o malissimo
io i TFlops della X li avevo intesi come se fossero quelli solo RT e "su strada", per quello il paragone; se è il teorico ciao...
AceGranger
16-08-2020, 14:16
quindi 25.9? sennó diceva well over 26tf xD
gia i gigaray nvidia sono grezzi solo raggi senza tener conto dello shading....addirittura 5x turing :sofico:
entro sera la X andra piu della futura 3090 :asd:
Ale55andr0
16-08-2020, 14:29
entro sera la X andra piu della futura 3090 :asd:
la 3060 invece ha doppiato la 2080ti da un paio di settimane a sentir voi di la' :asd:
AceGranger
16-08-2020, 14:29
la 3060 invece ha doppiato la 2080ti da un paio di settimane a sentir voi di la' :asd:
"voi" non mi riguarda.
Ale55andr0
16-08-2020, 14:31
dimenticavo: e ovviamente big navi se la giocherà con la 3070, ma a stento e solo nei titoli a favore of course :O
amon.akira
16-08-2020, 14:36
la 3060 invece ha doppiato la 2080ti da un paio di settimane a sentir voi di la' :asd:
ma dove, chi sopratutto? l unico ad aver buttato giu 2calcoli è mikael e parlava di 33tf x la 3060 e 54tf per la 3070 e 42tf per la 2080ti.
dimenticavo: e ovviamente big navi se la giocherà con la 3070, ma a stento e solo nei titoli a favore of course :O
lo dicevo in ottica RT partendo dal dato della xbox, che è l unico che conosciamo
No, non ti scuso :O non ha senso e lo hai detto tu stesso: "un prodotto più muscle"...ergo i paragoni li fai con uno con gli stessi "muscoli", non con chi ha 40 kg meno di te (toh, siamo entrati anche nelle analogie del weightlifiting :O), visto che non ti piace l'esempio delle auto che...è perfettamente calzante :O : stiamo parlando di numeri tecnici messi in campo da una proposta e un'altra, che siano motori, gpu, amplificatori o altro quale che sia l'ambito ogni prodotto ha mire "fisiche" ed economiche diverse, poi usare mille analogie diverse, il succo resta quello.
Quindi,senza operare inutile forzature,siamo concordi col dire che Amd non ha i "muscoli" sufficienti per poter competere con Nvidia sulla fascia alta?
Un dato di fatto, però non capisco il tuo tentativo di farla passare come una scelta disinteressata da parte di Amd,come se poco le interessasse competere in tale ambito e si sia "limitata" nell'immettere sul mercato un prodotto che potesse competere fino ad un certo punto perchè,magari,le interessava conquistare quella fetta di utenti legata a quella determinata fascia di appartenenza.
Io la vedo diversamente,non da paraculo,scuserai il mio francesismo,ma da acquirente che crede nel marchio Amd e che possa ristabilire in un certo qualsenso "l'equilibrio" che un tempo esisteva tra Ati ed Nvidia anche per limitare le scelte discutibili di prezzo di Nvidia.
Ovvio, ma lo fai a pari segmento e specifica di prodotto, caldo insistente e assassino! :muro:
Assolutamente no!
Magra consolazione,capisci?
non è "il non poter competere", ma il non voler competere perchè nella definizione di una lineup i dati di vendita e le strategie commerciali le fanno in funzioni del loro guadagno, non del tuo/mio piacere.
Ne sei sicuro su quanto affermi?
O è situazione di comodo per Amd e scelta obbligata perchè non dispone dei mezzi per poter competere con la fascia alta di Nvidia?
In ogni caso stendo un velo pietoso...:rolleyes:
Ale55andr0
16-08-2020, 14:40
ma dove, chi sopratutto? l unico ad aver buttato giu 2calcoli è mikael e parlava di 33tf x la 3060 e 54tf per la 3070 e 42tf per la 2080ti.
Aspetto solo le vendite delle 2080ti come fu con le 1080ti che le nuove fanno sfaceli....non prendiamoci in giro, di la è lo standard al supercazzolo a ogni stagione: nvidia ogni anno ha la fascia bassa che va come la top precedente e poverina è un riciclo overcloccato di un'architetture di tre generazioni fa.... lasciamo stare va... :D
Aspetto solo le vendite delle 2080ti come fu con le 1080ti che le nuove fanno sfaceli....non prendiamoci in giro, di la è lo standard al supercazzolo a ogni stagione: nvidia ogni anno ha la fascia bassa che va come la top e poverina è un riciclo overcloccato di un'architetture di tre generazioni fa.... lasciamo stare va... :D
Tipo 3060 che va come una 2080 Ti ? :asd:
AkiraFudo
16-08-2020, 14:52
https://i.postimg.cc/QxTGTSzx/c6f503286be6feb908811ac2ec4bfa284aa7917ad60da622a97b730d818346e2.gif
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.