PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 [244] 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347

Alekos Panagulis
26-05-2020, 10:14
Big navi da 4k 60fps a 500 euro è impossibile.

Io ne vorrei una da 4k@120fps pensa te....:mc:

mircocatta
26-05-2020, 10:39
Big navi da 4k 60fps a 500 euro è impossibile.

ed è per questo che trovo decisamente più conveniente una console, anche fossero 30fps 4k
In arrivo a settembre.

https://www.youtube.com/watch?v=BRKf7tsx-YE


ma solo io sono in totale confusione dal leak di rogame?
si parla di navi21 (con tutte le varianti) come simil serie 5700
poi si parla di refresh della serie 5700/5600

quindi? che vuol dire? avremo 6 schede tutte nell'arco di un 20% di performance? oppure quel "simil 5700" di navi21 è inteso per il prezzo/consumi ? così da avere i refresh intorno ai 200-300€ e consumi da 100/150w + navi21 intorno ai 350-500€ con cosumi da 180/230w ?

ghiltanas
26-05-2020, 11:17
solo a me i 60fps in 4k per la fascia 400/500 sembrano assolutamente fattibili? :mbe:

https://www.techpowerup.com/review/powercolor-radeon-rx-5600-xt-red-dragon/28.html

cioè guardando gli fps medi di ora non ci manca tanto per una 5700xt, poi chiaramente senza rt e qualche eccezione

Ale55andr0
26-05-2020, 11:25
si ma gli fps medi non sono i "4k a 60 frame"... mi pare ovvio che uno non contempli possibili minimi a 30fps (o meno) nel definire quel parametro

Gyammy85
26-05-2020, 11:26
solo a me i 60fps in 4k per la fascia 400/500 sembrano assolutamente fattibili? :mbe:

https://www.techpowerup.com/review/powercolor-radeon-rx-5600-xt-red-dragon/28.html

cioè guardando gli fps medi di ora non ci manca tanto per una 5700xt, poi chiaramente senza rt e qualche eccezione

Più che altro è bellissimo trollare ribattendo sempre sul 4k 60 o 120 che sicuramente è fake pure se confermato da ms sviluppatori e stampa, andando contro il gyammy nazionale

fraussantin
26-05-2020, 11:36
solo a me i 60fps in 4k per la fascia 400/500 sembrano assolutamente fattibili? :mbe:



https://www.techpowerup.com/review/powercolor-radeon-rx-5600-xt-red-dragon/28.html



cioè guardando gli fps medi di ora non ci manca tanto per una 5700xt, poi chiaramente senza rt e qualche eccezione1 anno e mezzo fa c'era gente di là che giocava in 4k a 60 fps con una 2070 , certo calando qualcosa.. la 5700xt va sicuramente meglio
Quindi No non é assolutamente impossibile oggi, escludendo quei 2,3 mattoni atomici , basta non fissarsi sull'ultramegaiper dettagli.
Il problema sarà con i giochi che arriveranno.

ultimate trip
26-05-2020, 11:39
...quindi? che vuol dire? avremo 6 schede tutte nell'arco di un 20% di performance? oppure quel "simil 5700" di navi21 è inteso per il prezzo/consumi ? così da avere i refresh intorno ai 200-300€ e consumi da 100/150w + navi21 intorno ai 350-500€ con cosumi da 180/230w ?

io la interpreto come un confronto con la fascia alta attuale di amd e le differenze che ci saranno tra un modello e il precedente anche nella gamma futura.

anche perchè non avrebbe senso se le alte sono simil 5700 e la bassa navi10 sono refresh delle 5700

Ale55andr0
26-05-2020, 11:54
Più che altro è bellissimo trollare ribattendo sempre sul 4k 60 o 120 che sicuramente è fake pure se confermato da ms sviluppatori e stampa, andando contro il gyammy nazionale

le dichiarazioni vanno PROVATE effettivamente, non basta farle, e i numeri NON ci sono per fare quei..numeri. Next.

Gyammy85
26-05-2020, 11:56
le dichiarazioni vanno PROVATE effettivamente, non basta farle, e i numeri NON ci sono per fare quei..numeri. Next.

Fonte?

Ale55andr0
26-05-2020, 11:56
1 anno e mezzo fa c'era gente di là che giocava in 4k a 60 fps con una 2070 , certo calando qualcosa.. la 5700xt va sicuramente meglio
Quindi No non é assolutamente impossibile oggi, escludendo quei 2,3 mattoni atomici , basta non fissarsi sull'ultramegaiper dettagli.
Il problema sarà con i giochi che arriveranno.

eh no, se fai 60 frame medi non fai 4k a 60 frame, devi essere stabile e no che abbassi i dettagli, così rendi solo quell'esternazione ancora più fake. 4k 60 frame vuol dire

1 rock solid, 60 stabili senza scendere

2 senza giocare al ribasso coi settaggi, sennò così so boni tutti

Ale55andr0
26-05-2020, 11:59
Fonte?

prendi la tua amata 5700xt da 9.7tflop, aggiungile 2 o 3 teraflop (aka 20 o 30% posto che le prestazioni non scalano nemmeno linearmente 1 a 1) e i 4k a 120frame COL CAZZO che li vedi. Ma anche i 60 eh (e ripeto, parliamo di 60 rock solid, ovvero senza che i minimi scendano sotto tale valore e senza fare i furbi togliendo dettaglio...poi se qualche gioco con la grafica dei simpson o giochi a risoluzione INFERIORE ma UPSCALATA li farà pure non citarmelo nemmeno, perchè simili prese per il culo non le contempo). Ora se hai finito di farmi salire la gastrite per l'ennesima volta e la piantassi di parlare di "fonti" che "comprovano" certe balle indicando gli OSTE che parlano in merito al proprio vino....:rolleyes:

fraussantin
26-05-2020, 12:08
eh no, se fai 60 frame medi non fai 4k a 60 frame, devi essere stabile e no che abbassi i dettagli, così rendi solo quell'esternazione ancora più fake. 4k 60 frame vuol dire



1 rock solid, 60 stabili senza scendere



2 senza giocare al ribasso coi settaggi, sennò così so boni tuttiIn conto é fare confronti , e anche li sarebbe da discuterci .. un altro é la vita reale .. ma chi gioca sempre con tutto attivo? Via.. alcuni effetti fanno anche cagare altri non si vedono se non con la lente ..

Con freesync e 4k pure se non metti 14 antialiasing combinati e oscilli dai 50 ai 70 non è che sia brutto da vedere..

E sicuramente meglio 50 fps con fs che 30 con vsync

Freisar
26-05-2020, 13:12
Io cmq già con la 1080 mettendo dettagli high texture 4k e no aa e niente effetti stupidi i 60 li faccio il problema è che devo mettere il vsync avessi una 5700xt e considerando il range del freesync del mio monitor e a parte titoli pesanti/mal ottimizzati ci starei dentro perciò do per scontato che a 500 esca na buona scheda! Dai facciamo anche 600€!

Roland74Fun
26-05-2020, 13:17
Riordiamoci anche poi le scatolette generalmente godono di una attenzione all'ottimizzazione che spesso su PC è ben lontana dall'essere raggiunta. Ed anche lato hardware ci sono delle caratteristiche di bus e di memoria che permettono meno colli di bottiglia rispetto ad un pc. Mettete su un pc con HD 7870 è vedete cosa riuscite a tirare fuori dai giochi odierni in FHD.

AceGranger
26-05-2020, 13:27
prendi la tua amata 5700xt da 9.7tflop, aggiungile 2 o 3 teraflop (aka 20 o 30% posto che le prestazioni non scalano nemmeno linearmente 1 a 1) e i 4k a 120frame COL CAZZO che li vedi. Ma anche i 60 eh (e ripeto, parliamo di 60 rock solid, ovvero senza che i minimi scendano sotto tale valore e senza fare i furbi togliendo dettaglio...poi se qualche gioco con la grafica dei simpson o giochi a risoluzione INFERIORE ma UPSCALATA li farà pure non citarmelo nemmeno, perchè simili prese per il culo non le contempo). Ora se hai finito di farmi salire la gastrite per l'ennesima volta e la piantassi di parlare di "fonti" che "comprovano" certe balle indicando gli OSTE che parlano in merito al proprio vino....:rolleyes:

e questo a partia di gioco, ma in futuro è auspicabile che aumentino il numero di poligoni, asset, texture etc. etc.

Riordiamoci anche poi le scatolette generalmente godono di una attenzione all'ottimizzazione che spesso su PC è ben lontana dall'essere raggiunta. Ed anche lato hardware ci sono delle caratteristiche di bus e fi memoria che permettono meno colli di bottiglia rispetto ad un pc. Mettete su un pc con HD 7870 è vedete cosa riuscite a tirare fuori dai giochi odierni in FHD.

io non sono un videogiocatore, ma dai video che si trovano dei confronti, non mi pare che per far girare su PC lo stesso gioco impostato con la stessa qualita e risoluzione delle console serva chissa quale hardware superiore...


il problema è che su PC non appena alzi le impostazioni fuori da quelle "efficienti" con le quali è stato pensato il gioco, vai a usare molte piu risorse rispetto alla reale resa guadagnata, e alal fine quello è il vero problema dello scaling che in realta non esiste e che è tutto sempre limitato dal minimo comunque denominatore che sono le console.

vediamo se effettivamente l'UE 5 manterra le promesse

ghiltanas
26-05-2020, 14:02
si ma gli fps medi non sono i "4k a 60 frame"... mi pare ovvio che uno non contempli possibili minimi a 30fps (o meno) nel definire quel parametro

si ma appunto sono casi particolari, nella maggior parte dei casi imho si dovrebbero tenere i 60, poi un calo qua e la ci puà stare.

Ovviamente il tutto escludendo il rt

Roland74Fun
26-05-2020, 14:18
e questo a partia di gioco, ma in futuro è auspicabile che aumentino il numero di poligoni, asset, texture etc. etc.



io non sono un videogiocatore, ma dai video che si trovano dei confronti, non mi pare che per far girare su PC lo stesso gioco impostato con la stessa qualita e risoluzione delle console serva chissa quale hardware superiore...

il problema è che su PC non appena alzi le impostazioni fuori da quelle "efficienti" con le quali è stato pensato il gioco, vai a usare molte piu risorse rispetto alla reale resa guadagnata, e alal fine quello è il vero problema dello scaling che in realta non esiste e che è tutto sempre limitato dal minimo comunque denominatore che sono le console.


Concordo assolutamente.

In effetti come mostra questo video-test comparativo di DF generalmente con impostazioni cappate su eguale qualità si ottengono pressappoco risultati simili su piattaforme simili PS4/XB1/R7260X (il chip pitcairn refresh di HD 7870 che all'incirca monta su ps4 liscia).
Su BF4 ad esempio solo la XB1 mostra segni di incertezza ma ha un chip meno potente.
Invece al min. 3:35 si nota come in CoD ghost la configurazione pc inspiegabilmente crolla abbastanza.

https://m.youtube.com/watch?v=-cZGw92feB0#

MrBrillio
26-05-2020, 14:48
Riordiamoci anche poi le scatolette generalmente godono di una attenzione all'ottimizzazione che spesso su PC è ben lontana dall'essere raggiunta. Ed anche lato hardware ci sono delle caratteristiche di bus e di memoria che permettono meno colli di bottiglia rispetto ad un pc. Mettete su un pc con HD 7870 è vedete cosa riuscite a tirare fuori dai giochi odierni in FHD.

Ottimizzazione console=dettagli medio/bassi :D
Non è che tirano fuori i miracoli eh...i numeretti quelli sono.

nessuno29
26-05-2020, 15:01
Concordo assolutamente.

In effetti come mostra questo video-test comparativo di DF generalmente con impostazioni cappate su eguale qualità si ottengono pressappoco risultati simili su piattaforme simili PS4/XB1/R7260X (il chip pitcairn refresh di HD 7870 che all'incirca monta su ps4 liscia).
Su BF4 ad esempio solo la XB1 mostra segni di incertezza ma ha un chip meno potente.
Invece al min. 3:35 si nota come in CoD ghost la configurazione pc inspiegabilmente crolla abbastanza.

https://m.youtube.com/watch?v=-cZGw92feB0#

L'r7 260x era montata su un pc con i7 3770k@4,3ghz e 16gb di ddr3...

Le due console hanno una cpu da tablet ed 8 gb di ram ps4 condivisa tra sistema e gpu... ma che paragone è dai... Non capisco questo continuo screditare le console, per avere una hd 7870 scarsa ed una cpu da smartphone di fascia bassa sulla attuale generazione hanno tirato fuori cose assurde.

Ale55andr0
26-05-2020, 15:07
L'r7 260x era montata su un pc con i7 3770k@4,3ghz e 16gb di ddr3...

Le due console hanno una cpu da tablet ed 8 gb di ram ps4 condivisa tra sistema e gpu... ma che paragone è dai... Non capisco questo continuo screditare le console, per avere una hd 7870 scarsa ed una cpu da smartphone di fascia bassa sulla attuale generazione hanno tirato fuori cose assurde.

si, ma considera anche che quelle cpu muovono ia ridicole e fisica basilare (quando c'è) al giorno d'oggi, han fatto quello che coerentemente si poteva fare con quel potenziale, con risultati più o meno buoni a seconda della bravura di chi ci ha lavorato. Però si, a pari hw su console si riesce a tirare sicuramente qualcosa in più (qualcosa eh, non le vaccate tipo graficone, 4k reali e 120 frame...beninteso)

mikael84
26-05-2020, 15:28
Concordo assolutamente.

In effetti come mostra questo video-test comparativo di DF generalmente con impostazioni cappate su eguale qualità si ottengono pressappoco risultati simili su piattaforme simili PS4/XB1/R7260X (il chip pitcairn refresh di HD 7870 che all'incirca monta su ps4 liscia).
Su BF4 ad esempio solo la XB1 mostra segni di incertezza ma ha un chip meno potente.
Invece al min. 3:35 si nota come in CoD ghost la configurazione pc inspiegabilmente crolla abbastanza.

https://m.youtube.com/watch?v=-cZGw92feB0#

La 260x è bonaire non pitcairn.;)
Cmq, prima l'impatto sul basso livello da quello ad alto, poteva stravolgere molte cose.
Le vecchie radeon soffrivano dannatamente le drawcalls.

Roland74Fun
26-05-2020, 16:58
La 260x è bonaire....

Chiedo venia, mi son confuso con la R9 270X. :D

Devo piantarla di fare disinformazione....



L'r7 260x era montata su un pc con i7 3770k@4,3ghz e 16gb di ddr3...

Le due console hanno una cpu da tablet ed 8 gb di ram ps4 condivisa tra sistema e gpu... ma che paragone è dai... Non capisco questo continuo screditare le console, per avere una hd 7870 scarsa ed una cpu da smartphone di fascia bassa sulla attuale generazione hanno tirato fuori cose assurde.

Ma sono d'accordo. Sono quelli di DF che l'anno fatto così il test.

mircocatta
26-05-2020, 17:27
il problema è che su PC non appena alzi le impostazioni fuori da quelle "efficienti" con le quali è stato pensato il gioco, vai a usare molte piu risorse rispetto alla reale resa guadagnata, e alal fine quello è il vero problema dello scaling che in realta non esiste e che è tutto sempre limitato dal minimo comunque denominatore che sono le console.

vediamo se effettivamente l'UE 5 manterra le promesse
non concordo completamente

se non ci fossero le console il minimo comune denominatore sarebbero le fasce basse delle gpu, cosa fatta notare anche da questo qua:
https://www.tomshw.it/videogioco/ps5-hardware-specifiche-spiegati/


negli ultimi 20 anni credo che solo crytek con crysis abbia fatto un prodotto fuori da questi "schemi" :asd:

fraussantin
26-05-2020, 17:34
il problema è che su PC non appena alzi le impostazioni fuori da quelle "efficienti" con le quali è stato pensato il gioco, vai a usare molte piu risorse rispetto alla reale resa guadagnata, e messe

Dipende dal gioco e dipende dall'impostazione.
Diciamo che nei gioco i l'impostazione ammazzatutto c'è sempre , a volte anche più di una , per dare il contentino a ho si è preso la gpu da 1500 euro

Ma in linea di massima si riesce son hw medio a tenere una grafica nettamente migliore delle attuali console e a frame rate ben più elevati.

Anche con il famigerato rdr2.

mikael84
26-05-2020, 17:57
Chiedo venia, mi son confuso con la R9 270X. :D

Devo piantarla di fare disinformazione....



Ma tranquillo...:p

non concordo completamente

se non ci fossero le console il minimo comune denominatore sarebbero le fasce basse delle gpu, cosa fatta notare anche da questo qua:
https://www.tomshw.it/videogioco/ps5-hardware-specifiche-spiegati/


negli ultimi 20 anni credo che solo crytek con crysis abbia fatto un prodotto fuori da questi "schemi" :asd:

Non sono del tutto daccordo, prima che i PC si sono allineati allo standard, avevamo giochi con qualità significativamente migliore.:)
Tralasciando Crysis, nel 2005-6 avevamo F.E.A.R, quake4, oblivion, call of juarez ed altri, senza considerare strategici pesanti di qualità.
Inoltre lo scaling prima impattava. Con schede di fascia bassa dell'epoca, dovevi smontarli.:p
Mio parere, per carità.:)
Chiudo ot.

amon.akira
26-05-2020, 19:03
Ma tranquillo...:p



Non sono del tutto daccordo, prima che i PC si sono allineati allo standard, avevamo giochi con qualità significativamente migliore.:)
Tralasciando Crysis, nel 2005-6 avevamo F.E.A.R, quake4, oblivion, call of juarez ed altri, senza considerare strategici pesanti di qualità.
Inoltre lo scaling prima impattava. Con schede di fascia bassa dell'epoca, dovevi smontarli.:p
Mio parere, per carità.:)
Chiudo ot.

questo perchè le console scendono in poco tempo sotto il denominatore fascia mid/low pc che è la piu diffusa e a cui le software house puntano, cmq mi sta bene anche cosi poichè certi dettagli è vero che danno un ratio perf/iq sbilanciato, ma è anche vero che tutti insieme aumentano la resa e quindi prima o poi vanno fatte, anche per le console.

poi per i 60minimi la vedo dura, già si fatica con i 17tf della 2080ti su parecchi giochi odierni figuriamoci i futuri...con i 10-12tf delle console...no no l upscaling is the way per le console, oppure lock a 30 senza ma :D

Free Gordon
26-05-2020, 23:09
Ma in linea di massima si riesce son hw medio a tenere una grafica nettamente migliore delle attuali console e a frame rate ben più elevati.
Anche con il famigerato rdr2.

Meglio di Xboxone X...? :fagiano:

Freisar
27-05-2020, 08:31
Meglio di Xboxone X...? :fagiano:

Con il mio pc scrauso si!

Ma penso che con seriex la situazione a livello di 4k sarà diversa secondo me più titoli a 60 fps!

Non considero vahalalla perché sarà un mero porting della vecchia gen, poi si sa quel motore è un mattone pure sui pc più carozzati!

AceGranger
27-05-2020, 08:42
non concordo completamente

se non ci fossero le console il minimo comune denominatore sarebbero le fasce basse delle gpu, cosa fatta notare anche da questo qua:
https://www.tomshw.it/videogioco/ps5-hardware-specifiche-spiegati/


negli ultimi 20 anni credo che solo crytek con crysis abbia fatto un prodotto fuori da questi "schemi" :asd:


generalmente si userebbe la fascia media, ma la differenza maggiore è che le console durano minimo 6 anni, mentre le fasce PC si aggiornano ogni 2.

emac700
27-05-2020, 08:56
Io sono convinto che a sto giro se decidono di sviluppare un gioco per 30fps a 4k (magari anche scalati) su console, difficilmente girerà a 4k@60 su pc.
generalmente si userebbe la fascia media, ma la differenza maggiore è che le console durano 6 anni, mentre le fasce PC si aggiornano ogni 2. si sviluppa per la fascia media di qualche anno fa se non ci fossero le console si svilupperebbe per 1050.
Cmq l'ottimizzazione ormai esiste solo per le esclusive o pochi altri titoli. I multipiattaforma sono pensati per girare su tutto mica per sfruttare al massimo l'how.

Gyammy85
27-05-2020, 09:43
Insomma almeno a 1080p nativi ci arriveranno a sto giro? :asd:

Dany16vTurbo
27-05-2020, 09:50
Insomma almeno a 1080p nativi ci arriveranno a sto giro? :asd:
Ma si figurati, almeno con 30fps :O

Ton90maz
27-05-2020, 10:43
Io sono convinto che a sto giro se decidono di sviluppare un gioco per 30fps a 4k (magari anche scalati) su console, difficilmente girerà a 4k@60 su pc.Questo è poco ma sicuro, se poi aggiungiamo filtri a palla, ray tracing, settaggi su ultra e affini... e poi devo ancora sentire che l'hardware pc ha prezzi alti e non si evolve perchè "non serve" :muro:

ninja750
27-05-2020, 10:55
(OT? :D) a giugno dovrebbero presentare la nuova RX5300 con 24cu e 1536sp 3gb (navi14) teoricamente senza 6pin ma bisognerà vedere quello che intenderanno fare i produttori

Gyammy85
27-05-2020, 11:02
(OT? :D) a giugno dovrebbero presentare la nuova RX5300 con 24cu e 1536sp 3gb (navi14) teoricamente senza 6pin ma bisognerà vedere quello che intenderanno fare i produttori

Roba OEM, al massimo in qualche apple, ma nulla di più

ninja750
27-05-2020, 13:44
secondo me qualcuno tipo powercolor farà schede low profile per HTPC ma non solo

Peter.B
27-05-2020, 15:45
Io sono convinto che a sto giro se decidono di sviluppare un gioco per 30fps a 4k (magari anche scalati) su console, difficilmente girerà a 4k@60 su pc.


Devono rimanere coerenti alla promessa del 4K, quindi si, il 4K avrà la priorità sui 60 fps, in oltre ci sarà il bisogno di mostrare visivamente il miglioramento grafico, quindi 4K 30 fps sarà la situazione più probabile. Ciò non toglie che nei giochi dove 60 sarebbero sacrosanti, tipo gli FPS, si potrebbe saggiamente scegliere engine più tendenti alle alte prestazioni, come l'engine di DOOM.

fraussantin
27-05-2020, 15:51
Io sono convinto che a sto giro se decidono di sviluppare un gioco per 30fps a 4k (magari anche scalati) su console, difficilmente girerà a 4k@60 su pc. .

Se si considera di maxare il 4k su PC con un hw simile a quello console probabilmente faremo 10 fps. non 30 Ci saranno sicuramente migliorie e effetti piú spinti su PC , anche solo rtx e peluria..
Anche perché il 4k é meno diffuso di quanto si pensi.
Molti su PC "enthusiast"usano il 2k allungato.

Poi con hw migliore ( 3080 o piú ) e sistemando i settaggi a modino il 4k sarà imho domabile con la prossima gen.

Peter.B
27-05-2020, 15:57
Vorrebbe dire maxare in 4K con una GPU che a malapena è una 2070 (non Super), cosa già impossibile ora, quindi altrettanto impossibile con i futuri titoli next gen. Chiaro che per il futuro, giocare ad elevati dettagli in 4K richiederà GPU dalla 3080 in su. Tutto poco sostenibile per molti ora, ma le cose cambieranno con la prossima gen di GPU.

Piedone1113
27-05-2020, 16:35
Vorrebbe dire maxare in 4K con una GPU che a malapena è una 2070 (non Super), cosa già impossibile ora, quindi altrettanto impossibile con i futuri titoli next gen. Chiaro che per il futuro, giocare ad elevati dettagli in 4K richiederà GPU dalla 3080 in su. Tutto poco sostenibile per molti ora, ma le cose cambieranno con la prossima gen di GPU.

La differenza tra pc e consolle è che il primo si evolve, la seconda è statica per 4 anni almeno.
In soldoni che significa?
Semplice se in 4k in determinate scene non mi gira a 60 fps non riduco la qualità visiva ( almeno in parte) ma tendo ad allegerire tutta la scena.
Esempio se in quella zona della mappa ho un calo degli fps lo sviluppatore tende non a ridurre in primis la qualità, ma a togliere complessità alla scena diradando per esempio le foglie sugli alberi o riducendo le pozzanghere d'acqua o le fonti luminose.
Insomma se in un determinato punto la scena è troppo complessa per l'hardware riduco la complessità.
Anche questa è ottimizzazione ( anzi sopratutto questa). nessun sviluppatore si sognerebbe di sovraccaricare il sistema e se questo accade è perchè sono le sue capacità sottodimensionate, non certo l'hardware

Freisar
27-05-2020, 19:54
Di sfuggita ho visto una news che tutti ad agosto presenteranno le gpu!

Edit:ah no amd le apu e cmq è un rumor!

ninja750
28-05-2020, 09:55
nota per chi ha fatto update a win10 may + 20.5.1: con questi driver non è ancora supportato WDDM 2.7 quindi non aspettatevi un incremento di prestazioni fintanto che non rilasceranno un driver specifico

Gyammy85
28-05-2020, 10:01
nota per chi ha fatto update a win10 may + 20.5.1: con questi driver non è ancora supportato WDDM 2.7 quindi non aspettatevi un incremento di prestazioni fintanto che non rilasceranno un driver specifico

Non vedo che tipo di aumento possa esserci, dato che WDDM è un driver essenzialmente per l'interfaccia di windows

Gyammy85
28-05-2020, 10:03
Intanto è spuntata la paginetta dedicata a RDNA2 sul sito di amd

https://www.amd.com/en/technologies/rdna-2

ninja750
28-05-2020, 10:31
Non vedo che tipo di aumento possa esserci, dato che WDDM è un driver essenzialmente per l'interfaccia di windows

informati bene.. gestione diretta della vram e altro

si parla di aumenti soprattutto negli fps minimi

Vul
28-05-2020, 11:11
A me ciò che da fastidio delle console è lo scaling inesistente.

Bloodborne è a 30 fps, un gioco che dovrebbe andare a ben di piu, e ha dei frametime orrendi e scattosissimi (come tutti i giochi fromsoftware su console).

Ho preso una PS4 pro pensando sarebbe andato meglio...e invece sempre lockato a 30 fps, e sempre con i pessimi frametime, nonostante sia piu del doppio pesante della versione base di PS4.

ghiltanas
28-05-2020, 11:38
nota per chi ha fatto update a win10 may + 20.5.1: con questi driver non è ancora supportato WDDM 2.7 quindi non aspettatevi un incremento di prestazioni fintanto che non rilasceranno un driver specifico

https://www.reddit.com/r/Amd/comments/grqhmj/radeon_siftware_2051_is_out/

a leggere qua sembra che wddm 2.7 sia supportato

ghiltanas
28-05-2020, 11:44
A me ciò che da fastidio delle console è lo scaling inesistente.

Bloodborne è a 30 fps, un gioco che dovrebbe andare a ben di piu, e ha dei frametime orrendi e scattosissimi (come tutti i giochi fromsoftware su console).

Ho preso una PS4 pro pensando sarebbe andato meglio...e invece sempre lockato a 30 fps, e sempre con i pessimi frametime, nonostante sia piu del doppio pesante della versione base di PS4.

personalmente da questa generazione di console sono rimasto abbastanza soddisfatto, ho la ps4 slim, e ad esempio GTA per la prima l'ho giocato su una console perchè la grafica era discreta.
Ho appena finito horizon e sono rimasto impressionato da cosa abbiano tirato fuori da una scatoletta del genere, imho sono stati fatti buoni passi in avanti e con la prossima gen avremo a mio avviso un'ottima grafica anche su console.
Poi chiaramente se devo giocare a un fps una console non la considero a prescindere perchè per me gli fps si giocano solo con mouse e tastiera, ma questo è un altro discorso.

Roland74Fun
28-05-2020, 11:58
Ho preso una PS4 pro pensando sarebbe andato meglio...e invece sempre lockato a 30 fps, e sempre con i pessimi frametime, nonostante sia piu del doppio pesante della versione base di PS4.

La potenza raddoppiata riguarda la sola VGA, perché dal lato CPU siamo sempre lì a parte un leggero overckock, e purtroppo FPS e frametime dipendono da quello.
Quindi puoi puntare solo aumentando qualità grafica e risoluzione, aspetti che dipendono esclusivamente dalla VGA.

fraussantin
28-05-2020, 12:01
La potenza raddoppiata riguarda sobla VGA, perché dal lato CPU siamo sempre lì a parte un leggero overckock, e purtroppo FPS e frametime dipendono da quello.Non é quello il punto .

Le nuove avranno una CPU e fascia altissima e sempre il target 30 fps ci sarà per molti giochi.

Il problema non sono né le console, ne Sony ne Microsoft.

Ma i developer , e gli utenti che si accontentano. Se iniziassero a non comprargli i giochi lockati a 30 fps vedrai che sarebbero tutti a 60 anche su old gen. ( O quanto meno a 50 che credo sia supportata dalle TV)

Ton90maz
28-05-2020, 12:03
A me ciò che da fastidio delle console è lo scaling inesistente.

Bloodborne è a 30 fps, un gioco che dovrebbe andare a ben di piu, e ha dei frametime orrendi e scattosissimi (come tutti i giochi fromsoftware su console).

Ho preso una PS4 pro pensando sarebbe andato meglio...e invece sempre lockato a 30 fps, e sempre con i pessimi frametime, nonostante sia piu del doppio pesante della versione base di PS4.E' il problema di quei dannati dispositivi rigidi che senza patch funzionano in modalità legacy. Mi auguro che da ps5 in poi (pro?) lavorino per far funzionare sempre tutto quanto e che prevedano già del margine (es. i titoli con frame rate sbloccato e risoluzione dinamica).
La cosa demenziale è che esiste un hack per sbloccare i 60 fps su bloodborne

Ton90maz
28-05-2020, 12:04
Non é quello il punto .

Le nuove avranno una CPU e fascia altissima e sempre il target 30 fps ci sarà per molti giochi.

Il problema non sono né le console, ne Sony ne Microsoft.

Ma i developer , e gli utenti che si accontentano. Se iniziassero a non comprargli i giochi lockati a 30 fps vedrai che sarebbero tutti a 60 anche su old gen. ( O quanto meno a 50 che credo sia supportata dalle TV)Mi aspetto che aumentino i titoli con più opzioni. Ormai non hanno più scuse.

ultimate trip
28-05-2020, 15:13
Non é quello il punto .

Le nuove avranno una CPU e fascia altissima e sempre il target 30 fps ci sarà per molti giochi.

Il problema non sono né le console, ne Sony ne Microsoft.

Ma i developer , e gli utenti che si accontentano. Se iniziassero a non comprargli i giochi lockati a 30 fps vedrai che sarebbero tutti a 60 anche su old gen. ( O quanto meno a 50 che credo sia supportata dalle TV)

son d'accordo è proprio così, se non vendessero causa mancanza dei 60 vedi come li tirano fuori.
poi però ti rendi conto che è la maggior parte dei giocatori console a preferire la risoluzione agli fps (tanti sono troppo abituati alla scattosità che non ci fanno più caso)

Freisar
29-05-2020, 13:23
Io aspetto cmq di vedere come si evolve la situazione console/GPU alias prezzi/prestazioni!

Minimo dovrei spendere 1000€ per il per il 4k 60 fps nei nuovi giochi considerando che dovrei cambiare tutto!

Perciò le console non sarebbero una cattiva idea, più che altro il limite di one x/ è la CPU se no i 60 fps li fa in 4k!

Ma tanto non ottimizzano per le mid salvo rari casi, con la next gen, ubisoft a parte, saranno costretti a far girare i giochi 4k/30 fps minimo!

Se vogliono su serie x anche 60!

Il problema è se serie x avrà successo allora si avrà questa possibilità, se continueranno come penso a programmare i multy con ps5 in testa ciao!

Vul
29-05-2020, 14:07
La potenza raddoppiata riguarda sobla VGA, perché dal lato CPU siamo sempre lì a parte un leggero overckock, e purtroppo FPS e frametime dipendono da quello.
Quindi puoi puntare solo aumentando qualità grafica e risoluzione, aspetti che dipendono esclusivamente dalla VGA.

non penso proprio sia questo. basta con 'sta scemenza che le cpu sono poco potenti. Devono sfornare 30/60 fps non 200. Tra l'altro la PS4 Pro ha 500 mhz in piu di clock, mica bruscolini 2.1 vs 1.6. Eppure differenze non ce ne sono in tanti titoli critici, anche con boost mode.

Ergo se 30% piu di clock e gpu 2 volte piu potente portano alle stesse prestazioni i problemi sono ovviamente software.

Dark Souls 2 che condivide il motore con bloodborne, dark soul 3 e sekiro va fluido perchè è stato patchato. Gli altri 3 non hanno mai ricevuto le stesse fix.

Seriamente, le cpu hanno problemi se devono sfornare tantissimi fps, altrimenti, in particolare con le api console, non soffrono certo di draw calls. Ci sono molti giochi esigenti che girano a 60fps in praticamente qualsiasi situazione (anche ps4 non pro, vedi i vari battlefield).

Ci sono eccezioni (Assassins Creed nelle città in cui sei circondato da gozzilioni di npc), ma di certo sono legate al software. Vedasi anche l'abissale differenza degli stessi motori grafici in un gioco o un altro (vedi id tech su the evil within o altri). E in ogni caso anche in situazioni di affollamento (vedi il classico DS2 test o Novigrad) hanno mostrato scomparsa di qualsiasi stutter con le patch. Le cpu c'entrano davvero poco con le prestazioni grafiche di queste console e i loro stutter, sono innanzitutto problemi software.

NAP.
29-05-2020, 17:58
Intanto settimana prossima vedremo quanto gli a malapena 10tf di PS5 castreranno i prossimi 7 anni di videogiochi PC

fraussantin
29-05-2020, 18:00
Intanto settimana prossima vedremo quanto gli a malapena 10tf di PS5 castreranno i prossimi 7 anni di videogiochi PC

massimo 4 ma sono propenso per 3 poi arriva la pro

NAP.
29-05-2020, 18:54
Le mid gen non cambiano nulla fintanto che i giochi devono girare anche sul vecchio hw. Anche un bellissimo RDR2 è un gioco che gira su macchine di 7 anni fa col make up

mikael84
29-05-2020, 19:08
Le mid gen non cambiano nulla fintanto che i giochi devono girare anche sul vecchio hw. Anche un bellissimo RDR2 è un gioco che gira su macchine di 7 anni fa col make up

Il problema di quelle schede è la ram, dovresti andare di low texture.

NAP.
29-05-2020, 20:39
Intendi delle nuove scatolette? O delle vecchie? Riguardo l'ultima tech demo dell'UE5 hanno parlato di 8k texture

Ale55andr0
29-05-2020, 21:12
Intanto settimana prossima vedremo quanto gli a malapena 10tf di PS5 castreranno i prossimi 7 anni di videogiochi PC

se faranno girare i giochi a 1440p effettivi (scalati in 4k) a 30 frame teoricamente a inizio gen poco, per fortuna (grazie zen 2 su console), e su pc ce la si giocherà lato risoluzione e frame rate. Poi ovviamente col passare del tempo la cosa cambierà ma è normale (si spera nelle midgen)...io comunque non faccio testo, il mio pc oggigiorno è un cesso a pedali :asd:

mikael84
29-05-2020, 23:04
Intendi delle nuove scatolette? O delle vecchie? Riguardo l'ultima tech demo dell'UE5 hanno parlato di 8k texture

Parlavo delle vecchie schede, come le 7870, che con 2gb di vram, magari riesci a farli girare, però, sicuramente con un dettaglio visivo osceno, sopratutto a livello texture.

NAP.
30-05-2020, 01:05
Il problema delle scatolette che fanno da tappo è per le geometrie, animazioni, insomma quelle cose che non puoi correggere con le patch

nessuno29
30-05-2020, 07:59
Parlavo delle vecchie schede, come le 7870, che con 2gb di vram, magari riesci a farli girare, però, sicuramente con un dettaglio visivo osceno, sopratutto a livello texture.

chissà sulla gtx 660 come girano :D:D

Ale55andr0
30-05-2020, 08:55
Il problema delle scatolette che fanno da tappo è per le geometrie, animazioni, insomma quelle cose che non puoi correggere con le patch

A sto giro lato geometria (demo UE5) non direi ci saranno freni particolari. Quanto alle animazioni dipende più dalla bravura degli sviluppatori, vedasi cosa fa ND...

mikael84
30-05-2020, 11:27
chissà sulla gtx 660 come girano :D:D

Tutto low a 30fps scarsi.:)

NAP.
30-05-2020, 11:40
A sto giro lato geometria (demo UE5) non direi ci saranno freni particolari. Quanto alle animazioni dipende più dalla bravura degli sviluppatori, vedasi cosa fa ND...Sul discorso animazioni concordo, è anche vero però che siamo ad un punto in cui avere animaziono decenti è troppo appannaggio di team tripla A e non tutti cmq animano in maniera realistica e credibile e che non sia troppo slegata, TLOU2 è il primo esempio di animazioni fatte come si deve, mi auguro che con la prossima generazione queste diventino la norma, ad esempio anche nella serie nba2k,le animazioni sono belle ma soffrono di una slegatura che rende l'insieme troppo videogioco e poco realistico ed è un peccato, la cosa se ci penso fa rabbia, siamo non molto distanti da ciò che la stessa 2k faceva 15 anni fa su ps2. A qhesto punto mi viene da pensare che sia più una questione di tools che di limite hardware.
Sul discorso poligoni spero che ciò che abbiamo visto nella tech demo dell'UE5 sia realtà, sbavo all'idea di avere finalmente poligoni quasi infiniti a schermo, con quelle geometrie e texture 8k produrre ambienti indistinguibili dalla realtà è alla portata, già solo pensiamo a ciò che si può fare su un vecchio GTA5 con le mod su PC, se sulla base di quelle mod ci metti delle geometrie next gen diventa praticamente reale. Nella prossima generazione mi aspetto poi il definitivo passaggio al vero ray tracing totale degli ambienti come ultimo baluardo della grafica 3d. Questa dovrà essere la generazione delle geometrie e delle texture, la prossima del raytracing totale

mikael84
30-05-2020, 11:46
Sul discorso animazioni concordo, è anche vero però che siamo ad un punto in cui avere animaziono decenti è troppo appannaggio di team tripla A e non tutti cmq animano in maniera realistica e credibile e che non sia troppo slegata, TLOU2 è il primo esempio di animazioni fatte come si deve, mi auguro che con la prossima generazione queste diventino la norma, ad esempio anche nella serie nba2k,le animazioni sono belle ma soffrono di una slegatura che rende l'insieme troppo videogioco e poco realistico ed è un peccato, la cosa se ci penso fa rabbia, siamo non molto distanti da ciò che la stessa 2k faceva 15 anni fa su ps2. A qhesto punto mi viene da pensare che sia più una questione di tools che di limite hardware.
Sul discorso poligoni spero che ciò che abbiamo visto nella tech demo dell'UE5 sia realtà, sbavo all'idea di avere finalmente poligoni quasi infiniti a schermo, con quelle geometrie e texture 8k produrre ambienti indistinguibili dalla realtà è alla portata, già solo pensiamo a ciò che si può fare su un vecchio GTA5 con le mod su PC, se sulla base di quelle mod ci metti delle geometrie next gen diventa praticamente reale. Nella prossima generazione mi aspetto poi il definitivo passaggio al vero ray tracing totale degli ambienti come ultimo baluardo della grafica 3d. Questa dovrà essere la generazione delle geometrie e delle texture, la prossima del raytracing totale

Il comparto geometrico sarà nettamente superiore, di oltre 5 volte, senza considerare i passi avanti, netti, fatti verso il culling ed in parte la tassellazione.;)

NAP.
30-05-2020, 12:24
Il comparto geometrico sarà nettamente superiore, di oltre 5 volte, senza considerare i passi avanti, netti, fatti verso il culling ed in parte la tassellazione.;)

Me lo auguro, cio' che abbiamo intravisto nell'UE5 e' di buon auspicio, era esattamente cio' che volevo, ora dobbiamo vedere quanto di quello sara' effettivamente applicabile in un gioco, per me cio' che fa la differenza tra un gioco next gen ed uno della precedente e' sempre stata la geometria

Ale55andr0
30-05-2020, 13:42
Me lo auguro, cio' che abbiamo intravisto nell'UE5 e' di buon auspicio, era esattamente cio' che volevo, ora dobbiamo vedere quanto di quello sara' effettivamente applicabile in un gioco, per me cio' che fa la differenza tra un gioco next gen ed uno della precedente e' sempre stata la geometria

per me puoi aggiungere anche le texture e il rendering dell'acqua: quanto alle prime non mi riferisco alla mera risoluzione, ma proprio quanto siano realistiche in se'...invece quanto all'acqua ancora sono in 4 a saperla far sembrare acqua e non un denso olio dal movimento artificiale...

FroZen
30-05-2020, 14:49
Adesso chiamo il mod

Se leggo ancora encicliche sulle scatolette chiamo il mod

Freisar
31-05-2020, 03:11
Io posso capire che il 4k sia solo recentemente salito alla ribalta e non giustifico certi prezzi delle gpu anzi li condanno, spero AMD faccia qualcosa con rdna2 che mi sorprenda!

Che gia non comprendo il prezzo di navi!

nessuno29
31-05-2020, 06:59
Io posso capire che il 4k sia solo recentemente salito alla ribalta e non giustifico certi prezzi delle gpu anzi li condanno, spero AMD faccia qualcosa con rdna2 che mi sorprenda!

Che gia non comprendo il prezzo di navi!

Una 5700 costa 320 euro-340 massimo e ti permette di giocare a tutto in 1440p, o anche in 4k cercando le impostazioni migliori e scalano quelle pesanti ed inutili.

Freisar
31-05-2020, 07:36
Una 5700 costa 320 euro-340 massimo e ti permette di giocare a tutto in 1440p, o anche in 4k cercando le impostazioni migliori e scalano quelle pesanti ed inutili.

Eh sull'amazzonia sono un po care....

Cmq la 5700 xt sta sopra la 1080 giusto perciò andrà un pelo meglio in 4k

fraussantin
31-05-2020, 07:53
Eh sull'amazzonia sono un po care....

Cmq la 5700 xt sta sopra la 1080 giusto perciò andrà un pelo meglio in 4kOcchio a quale prendi perchè molte prendono fuoco.

devAngnew
31-05-2020, 12:59
Occhio a quale prendi perchè molte prendono fuoco.
:eek:
Stò seguendo poco, e quali sarebbero thanks ... :D

argez
31-05-2020, 13:00
Occhio a quale prendi perchè molte prendono fuoco.

Ma infatti sono gpu invernali...non vanno comprate in primavera/estate.

argez
31-05-2020, 13:04
Eh sull'amazzonia sono un po care....

Cmq la 5700 xt sta sopra la 1080 giusto perciò andrà un pelo meglio in 4k

Un po' e un altro po'... hanno scalato di fascia tutte le schede video...tanto è vero che ora le 1660 super sono al prezzo delle TI.

fraussantin
31-05-2020, 14:28
:eek:

Stò seguendo poco, e quali sarebbero thanks ... :DUna lista precisa non c'ê , ma in generale al di fuori delle sapphire ci sono stati molti problemi.

Asus con le viti lenti , xfx con i dissipatori di latta , msi anche..

So che sono uscite le revisioni corrette , ma di preciso non so come identificarle.

Ê una GPU che scalda tanto specialmente la xt.

NAP.
31-05-2020, 17:35
Questa situazione mi fa ricordare i bei tempi degli athlon che si diceva fossero degli altiforni

FroZen
31-05-2020, 20:05
Sono gpu che scaldano come qualsiasi gpu prima di esse... se siamo sopravvissuti a fermi e hawaii sopravviveremo anche alle navi.

fraussantin
31-05-2020, 20:12
Sono gpu che scaldano come qualsiasi gpu prima di esse... se siamo sopravvissuti a fermi e hawaii sopravviveremo anche alle navi.Ci mancherebbe , sono anche ottime come prestazioni , ma vanno scelte dissipate bene. Specialmente le xt.

NAP.
31-05-2020, 20:59
Io il problema me lo creo poco perché oramai non dissipo più ad aria

mircocatta
31-05-2020, 23:01
se i partner ci montano i dissipatori riciclati mica è colpa di amd se poi hanno problemi di assemblaggio o di temperature..
di per se consuma nella media delle gpu di fascia medio/alta.

Freisar
01-06-2020, 04:54
Scusate ma se non presentano le gpu rdna2 ad agosto dove ci sono le gpu Nvidia , quando le presentano, prima dell'uscita?

fraussantin
01-06-2020, 06:36
se i partner ci montano i dissipatori riciclati mica è colpa di amd se poi hanno problemi di assemblaggio o di temperature..
di per se consuma nella media delle gpu di fascia medio/alta.Non è colpa sua neppure se le reference stanno fisse in throttling a 90 gradi?

Ho come l'impressione che agli OEM sono state date certe specifiche termiche e poi ad un miglio dal traguardo sono state cambiate per spingere di più le schede.
Le revisioni di molte versioni OEM adesso vanno bene.. Asus ha iniziato a stringere le viti oltre il limite consentito in un primo momento , altri hanno cambiato il dissipatore..

Gyammy85
01-06-2020, 07:11
Non è colpa sua neppure se le reference stanno fisse in throttling a 90 gradi?


Ma quale throttling che le reference stanno fisse a 1850 in game come le custom... Quando la finirete di fare disinformazione?

fraussantin
01-06-2020, 07:15
Ma quale throttling che le reference stanno fisse a 1850 in game come le custom... Quando la finirete di fare disinformazione?Detta da te fa ancora più ridere .

mircocatta
01-06-2020, 11:58
Non è colpa sua neppure se le reference stanno fisse in throttling a 90 gradi?

il chip è 250mmq, ha una superficie molto piccola che richiede di dissipare 210watt, imho è normale che i dissi blow fatichino in una situazione del genere, guardati una 980ti(211watt su 600mmq) o una 1080 (170watt su 310mmq) o 1080ti (230watt su 470mmq ) , raggiungono anche loro gli 84 gradi prima di iniziare a tagliare le frequenze, e parliamo di un signor dissi blow, semplicemente amd ha alzato la soglia sui 90 gradi (forse per garantire una frequenza media più alta?)

fraussantin
01-06-2020, 12:12
il chip è 250mmq, ha una superficie molto piccola che richiede di dissipare 210watt, imho è normale che i dissi blow fatichino in una situazione del genere, guardati una 980ti(211watt su 600mmq) o una 1080 (170watt su 310mmq) o 1080ti (230watt su 470mmq ) , raggiungono anche loro gli 84 gradi prima di iniziare a tagliare le frequenze, e parliamo di un signor dissi blow, semplicemente amd ha alzato la soglia sui 90 gradi (forse per garantire una frequenza media più alta?)Esatto , quello che non è normale è che ci sia stato messo un blower. Come non lo era sulle 1080ti.
Cmq la maggior parte delle custom Al d1 aveva problemi.Poi risolti.
Quindi o sono tutti scemi o c'è stato qualche cambio di rotta all'ultimo.

FroZen
01-06-2020, 12:31
Le reference hanno anche una curva della ventola che predilige la silenziosità, se le cose si valutano obiettivamente bisogna tenere conto di tutti i fattori.

Throttling o no le schede sono uscite così e funzionano come devono funzionare, si auto overcloccano per tenere il massimo a patto di stare sotto pl e temperature hotspot (sopra i 110c).... nessuno si è scandalizzato del boost delle nvidia da kepler in avanti o sbaglio? (anche se ricordo che c'era la corsa a come tenerle fisse invece che altalenanti) le frequenze che garantisce nvidia sono quelle base...tutto il resto è oc.....e anche lì se si perdono 13 o 26mhz su 1900 non muore nessuno.

Che ci siano stati dei problemi su alcuni modelli etc ok, lo sappiamo, è ribadito ma ora andiamo avanti, sono fuori da un anno ste schede e ancora siamo qui a dirci dell'hotspot, del blower, blablabla :rolleyes:

Nurabsa
01-06-2020, 14:47
il taglio dipende anche dal bios della vga.
ad esempio la mia taglia superati i 65 (bios custom) ma non ci arriva mai media 60.
Se sfori di tanto (perche termicamente te lo puoi permettere) le freq stock, tagliano prima per proteggere l hw diversamente sarebbe il festival dell artefatto oltre a rischiare di cuocerla per sempre

fraussantin
01-06-2020, 19:07
.... nessuno si è scandalizzato del boost delle nvidia da kepler in avanti o sbaglio?:

Stai scherzando vero? Quella polemica è durata un lustro.

Per il resto ho solo avvisato un utente di fare attenzione a quale compra ( non sapevo che liquidasse) ma non si può dire niente qui.

The_SaN
01-06-2020, 20:04
Esatto , quello che non è normale è che ci sia stato messo un blower. Come non lo era sulle 1080ti.
Cmq la maggior parte delle custom Al d1 aveva problemi.Poi risolti.
Quindi o sono tutti scemi o c'è stato qualche cambio di rotta all'ultimo.

Purtroppo praticamente tutte le schede reference AMD e nVidia sono Blower. Le fanno così per permettere di far uscire l'aria dal case dato che molti PC preassemblati hanno un flusso ridicolo.

Vash88
01-06-2020, 21:31
Purtroppo praticamente tutte le schede reference AMD e nVidia sono Blower. Le fanno così per permettere di far uscire l'aria dal case dato che molti PC preassemblati hanno un flusso ridicolo.

Per NAVI 2 hanno escluso l'utilizzo di soluzioni blower https://tech.everyeye.it/notizie/amd-primi-dettagli-design-nuove-schede-grafiche-basate-navi-2x-432383.html

FroZen
01-06-2020, 22:04
Purtroppo praticamente tutte le schede reference AMD e nVidia sono Blower. Le fanno così per permettere di far uscire l'aria dal case dato che molti PC preassemblati hanno un flusso ridicolo.

Ni

Dalle founders turing sono passati al biventole assiali, blower le trovi da certi oem...ma sono custom mascherate ormai le founders.

AceGranger
01-06-2020, 22:43
Purtroppo praticamente tutte le schede reference AMD e nVidia sono Blower. Le fanno così per permettere di far uscire l'aria dal case dato che molti PC preassemblati hanno un flusso ridicolo.

se la GPU non deve subire OC, che è la situazione delle GPU reference e Pro, è il "miglior" dissipatore che manda l'aria in una sola direzione;

non a caso è anche il dissipatore delle QUADRO anche da 8000 euro o delle RADEON PRO.


le Founders Turing sono biventole perchè di loro sono OC, diciamo non proprio delle reference convenzionali, quindi non indicate per il blower.

mikael84
01-06-2020, 23:34
Throttling o no le schede sono uscite così e funzionano come devono funzionare, si auto overcloccano per tenere il massimo a patto di stare sotto pl e temperature hotspot (sopra i 110c).... nessuno si è scandalizzato del boost delle nvidia da kepler in avanti o sbaglio? (anche se ricordo che c'era la corsa a come tenerle fisse invece che altalenanti) le frequenze che garantisce nvidia sono quelle base...tutto il resto è oc.....e anche lì se si perdono 13 o 26mhz su 1900 non muore nessuno.



Non è un OC frozen.;)
Il boost effettivo di lavoro, è il boost per tot. tensione (nvidia è cappata a 1,05v/1,068v stock) .
esempio 1850 x 1,068v, circa 20A (256w)
Se il VRM fosse tarato ad 1,2v ti ritroveresti stock 140/150mhz in più (288watt).

Il boost base dichiarato è quello relativo al miglior picco dei transistor, solitamente 0,8/0,9v.:)

Ni

Dalle founders turing sono passati al biventole assiali, blower le trovi da certi oem...ma sono custom mascherate ormai le founders.

Le founders sono le reference base, leggermente occate di base e tdp maggiorato.
Alcune poi lo usano stock per le blower, altri ci mettono un dissi...

The_SaN
02-06-2020, 01:16
Ni

Dalle founders turing sono passati al biventole assiali, blower le trovi da certi oem...ma sono custom mascherate ormai le founders.

Le Founders non sono reference, sono delle custom by nVidia con clock maggiorato.

Edit: spiego meglio...un design reference deve essere disponibile e vendibile da tutti i brand. Le uniche schede nVidia stock con design condiviso sono le blower. Modello tra l'altro disponibile anche fuori dai canali oem.

mikael84
02-06-2020, 01:38
Le Founders non sono reference, sono delle custom by nVidia con clock maggiorato.

Edit: spiego meglio...un design reference deve essere disponibile e vendibile da tutti i brand. Le uniche schede nVidia stock con design condiviso sono le blower. Modello tra l'altro disponibile anche fuori dai canali oem.

No aspè, state facendo confusione.:)
Le FE sono reference non custom, solo un tantino occate di clock e tdp.
La FE è il chip base, poi ogni azienda gli mette un dissipatore suo, gli mette i clock, dallo stock all'OC, al TDP modificato.

https://i.postimg.cc/SJGj2v6J/esa.png (https://postimg.cc/SJGj2v6J)

Chiaramente la blower scende con i clock e tdp stock, ma non è l'unica.
Le custom, sono PCB appositi, come le lightining etc.:)

Chiudo ot.

The_SaN
02-06-2020, 04:11
No aspè, state facendo confusione.:)
Le FE sono reference non custom, solo un tantino occate di clock e tdp.
La FE è il chip base, poi ogni azienda gli mette un dissipatore suo, gli mette i clock, dallo stock all'OC, al TDP modificato.

https://i.postimg.cc/SJGj2v6J/esa.png (https://postimg.cc/SJGj2v6J)

Chiaramente la blower scende con i clock e tdp stock, ma non è l'unica.
Le custom, sono PCB appositi, come le lightining etc.:)

Chiudo ot.

Mi sono spiegato male forse. Il PCB è reference, così come su molti modelli di vari produttori.
Mi riferisco al sistema di dissipazione. La Founders ha un design unico, che non condivide con nessun brand, mentre le blower sono tutte identiche, cambia solo l'adesivo (come succede con le AMD reference design).

Secondo me non è il massimo della correttezza chiamare reference una Founders, se la vende solo nVidia e se la fa pure pagare di più (tralasciando poi l'OC).
Il modello "base" venduto dai brand è un altro, tutto qui.

mircocatta
02-06-2020, 07:15
No aspè, state facendo confusione.:)
Le FE sono reference non custom, solo un tantino occate di clock e tdp.
La FE è il chip base, poi ogni azienda gli mette un dissipatore suo, gli mette i clock, dallo stock all'OC, al TDP modificato.

https://i.postimg.cc/SJGj2v6J/esa.png (https://postimg.cc/SJGj2v6J)

Chiaramente la blower scende con i clock e tdp stock, ma non è l'unica.
Le custom, sono PCB appositi, come le lightining etc.:)

Chiudo ot.
io un mesetto fa sono stato riempito di insulti per aver detto una cosa del genere :asd:


comunque:
https://www.hwupgrade.it/news/skvideo/gpu-amd-sienna-cichlid-big-navi%E2%80%A6-e-se-fossero-la-stessa-cosa_89806.html

Roland74Fun
02-06-2020, 07:40
Interessante disquisizione su le architetture delle prossime console basate su Hardware AMD RADEON.

https://youtu.be/eYBcGpOXk1k

Ale55andr0
02-06-2020, 08:15
https://wccftech.com/amd-rdna-2-sienna-cichlid-gpu-big-navi-21-radeon-rx-graphics-cards-spotted/

Andy1111
02-06-2020, 10:42
No aspè, state facendo confusione.:)
Le FE sono reference non custom, solo un tantino occate di clock e tdp.
La FE è il chip base, poi ogni azienda gli mette un dissipatore suo, gli mette i clock, dallo stock all'OC, al TDP modificato.

https://i.postimg.cc/SJGj2v6J/esa.png (https://postimg.cc/SJGj2v6J)

Chiaramente la blower scende con i clock e tdp stock, ma non è l'unica.
Le custom, sono PCB appositi, come le lightining etc.:)

Chiudo ot.

https://www.zotac.com/it/product/graphics_card/zotac-gaming-geforce-rtx-2070-blower#overview

https://proclockers.com/review/zotac-gaming-geforce-rtx-2070-blower-review/

mikael84
02-06-2020, 12:08
Mi sono spiegato male forse. Il PCB è reference, così come su molti modelli di vari produttori.
Mi riferisco al sistema di dissipazione. La Founders ha un design unico, che non condivide con nessun brand, mentre le blower sono tutte identiche, cambia solo l'adesivo (come succede con le AMD reference design).

Secondo me non è il massimo della correttezza chiamare reference una Founders, se la vende solo nVidia e se la fa pure pagare di più (tralasciando poi l'OC).
Il modello "base" venduto dai brand è un altro, tutto qui.

cambia solo che a sto giro, nvidia ha occato leggermente le schede. Il plasticoso nvidia non lo vende da anni, sono i brand a metterlo.:)

I valori stock che si possono leggere in wikipedia (ad esempio), sono dei chip non A. Ci sono tante biventola con questi chip, clock e tdp.:)

Scusate l'OT.

Daytona
02-06-2020, 15:33
https://wccftech.com/amd-rdna-2-sienna-cichlid-gpu-big-navi-21-radeon-rx-graphics-cards-spotted/

pure slide di RDNA 3 !!!!!

:rolleyes:

ninja750
02-06-2020, 19:29
vedo che molti siti cominciano a nomenclare navi2 come navi 2x o x2 nel senso di doppie prestazioni, amarcord anno 1998 quando acquistai la voodoo2 all'epoca quando il 2 era "al quadrato" viste le prestazioni sulla voodoo1 :eek:

mircocatta
02-06-2020, 19:45
nel mentre
https://www.guru3d.com/news-story/amd-ryzen-c7-for-smartphones-has-rdna2-and-cortex-x1-cores.html

Gyammy85
02-06-2020, 21:07
pure slide di RDNA 3 !!!!!

:rolleyes:

Guarda che è un slide ufficiale di AMD quella con RDNA3, direttamente dall'analyst day del 5 marzo

vedo che molti siti cominciano a nomenclare navi2 come navi 2x o x2 nel senso di doppie prestazioni, amarcord anno 1998 quando acquistai la voodoo2 all'epoca quando il 2 era "al quadrato" viste le prestazioni sulla voodoo1 :eek:

AMD indicava Navi 2X e 3X, ma come serie, non indice di prestazioni

nel mentre
https://www.guru3d.com/news-story/amd-ryzen-c7-for-smartphones-has-rdna2-and-cortex-x1-cores.html

Se riescono ad inserire su un arm rt in hardware è :eek: :eek:

The_SaN
02-06-2020, 22:34
Se riescono ad inserire su un arm rt in hardware è :eek: :eek:

Ma te li immagini i selfie in RT? Altro che sti filtri del cacchio :eek:





:asd:

Ale55andr0
03-06-2020, 08:35
ora farò incazzare una buona parte di utenti :asd: :


ieri mio cugino (e gia' partiranno "eh tuo cuGGGino" :asd:) è passato da una 1080ti asus triventola a una 5700xt anch'essa triventola perchè ha trovato simultaneamente, uno che gli pagava molto bene la sua che è ancora in garanzia (480eurozzi ci ha preso) e una 5700xt a un prezzaccio su bpm (poco sopra i 300, tant'è che imho è un errore del sito ma intanto lui se la è ciullata senza che gli annullassero l'ordine, approfittatene in caso :asd:). Questo perchè è in attesa delle nuove, sia amd che nvdia e voleva monetizzare il più possibile prima di veder crollare il valore della sua non restando però a piedi visto che lui nel frattempo non sa aspettare senza poter giocare bene. Stamattina mi "uatsappa" e mi fa: "oh, Ale, ma sta scheda si vede benissimo, cioè, star wars ce l'ho stampato in testa (è fissato con la grafica di sto gioco) ma è tutto un'altro mondo: non ti parlo solo di colori, cioè, è tutto più smussato e definito che con la 1080ti"

...prendo i pop corn? :D

fraussantin
03-06-2020, 08:40
ora farò incazzare una buona parte di utenti :asd: :


ieri mio cugino (e gia' partiranno "eh tuo cuGGGino :asd:) è passato da una 1080ti asus triventola a una 5700xt anch'essa triventola perchè ha trovato simultaneamente, uno che gli pagava molto bene la sua che è ancora in garanzia (480eurozzi ci ha preso) e una 5700xt a un prezzaccio su bpm (poco sopra i 300, tant'è che imho è un errore del sito ma intanto lui se la è ciullata senza che gli annullassero l'ordine, approfittatene in caso :asd:). Questo perchè è in attesa delle nuove, sia amd che nvdia e voleva monetizzare il più possibile prima di veder crollare il valore della sua non restando però a piedi visto che lui nel frattempo non sa aspettare senza poter giocare bene. Stamattina mi "uatsappa" e mi fa: "oh, Ale, ma sta scheda si vede benissimo, cioè, star wars ce l'ho stampato in testa (è fissato con la grafica di sto gioco) ma è tutto un'altro mondo: non ti parlo solo di colori, cioè, è tutto più smussato e definito che con la 1080ti"

...prendo i pop corn? :DGG

:asd:

Ale55andr0
03-06-2020, 08:47
ah, questa la foto che mi ha mandato appena la ha presa https://imgur.com/a/d13vAug

Ale55andr0
03-06-2020, 09:17
GG

:asd:

Era ovvio :asd: cmq no, è tutto vero, ovviamente non ci crederà nessuno, io più che chiedere a mio cuGGGino (:asd:) di fare un foto alla scheda montata sul pc con foglio con data e tutto non posso fare. Fra stasera e domani (fa il corriere dhl percio è impegnato tutto il giorno ma stasera dovremmo beccarci in palestra) se volete gli chiedo una foto "con dedica" della scheda montata sul pc (lui ha un case tutto aperto, tipo muletto), con di fianco la scatola e un foglio con su scritto "per mio cuGGGino Ale55andr0 su hwupgrade" e la data :D :D :D O magari un video da uppare da qualche parte, non lo so :D

fraussantin
03-06-2020, 09:23
Era ovvio :asd: cmq no, è tutto vero, ovviamente non ci crederà nessuno, io più che chiedere a mio guGGGino (:asd:) di fare un foto alla scheda montata sul pc con foglio con data e tutto non posso fare. Fra stasera e domani (fa il corriere dhl percio è impegnato tutto il giorno ma stasera dovremmo beccarci in palestra) se volete gli chiedo una foto "con dedica" della scheda montata sul pc (lui ha un case tutto aperto, tipo muletto), con di fianco la scatola e un foglio con su scritto "per mio cuGGGino Ale55andr0 su hwupgrade" e la data :D :D :DNo vabbé credere ci credo che sia vero , ma dai...
Io l'ho avuta tra le mani una 5700xt proprio nitro ( non +)

Solo su un monitor VA Samsung , rispetto al mio ips Acer:
ho notato una calibrazione piú spinta nei colori ,poco reali , una peggiore precisione nei pixel sul desktop da veramente fastidio con le scritte piccole , ma una migliore nitidezza in game , che per ottenerla su Nvidia devo mettere il filtro apposito.
Non so se questo dipende dal monitor o dalla GPU.

La stessa calibrazione spinta dei colori c'é sul PC al lavoro sempre amd , ma su un TN vecchio.

Soprattutto il Celestino di hwu si vede blu elettrico chiaro..

Sui 3 PC in casa ips , TN medio , TN mediocre si vede Celestino e sono tutti Nvidia.

FroZen
03-06-2020, 09:25
machetelodicoafare

qualità è sinonimo di Ati :O e si che nvidia aveva pure acquisito 3dfx ma sono sempre stati più amanti degli fps puri, poi le directx hanno uniformato tutto e amen ma nonostante questo qualche differenza la si nota ancora fra le due....

Monitor IPS con una bella AMD, che chiedere di più dalla vita? :O Una superficie riflettente? naaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

ps: a ogni cambio vga o monitor io faccio un bel calibrazione di windows e clear type..... sono cose ad cazzum ma a volte danno dei risultati sorprendenti....

Ale55andr0
03-06-2020, 09:26
No vabbé credere ci credo che sia vero , ma dai...
Io l'ho avuta tra le mani una 5700xt proprio nitro ( non +)

Solo su un monitor VA Samsung , rispetto al mio ips Acer:
ho notato una calibrazione piú spinta nei colori ,poco reali , una peggiore precisione nei pixel sul desktop da veramente fastidio con le scritte piccole , ma una migliore nitidezza in game , che per ottenerla su Nvidia devo mettere il filtro apposito.
Non so se questo dipende dal monitor o dalla GPU.

io so solo che lo dico da eoni che "si vedono meglio" ma tutti perculano o negano o dicono "sono calibrati con i colori più sparati tutto il" (è noto che la cosa migliori la pulizia del rendering :asd: )...però con la 1080 non ho notato differenze con la ex r9 290, va detto :O

...sarà perchè nel passaggio dall'una all'altra sono rimasto senza vga per giocare per un anno intero :rotfl: :rotfl: :rotfl:

29Leonardo
03-06-2020, 09:32
Sempre sentita 'sta storia, mai viste differenze.:sob:

Ale55andr0
03-06-2020, 09:33
Sempre sentita 'sta storia, mai viste differenze.:sob:

blind, unfaitful man :O

quando da una 8800gtx vidi una 4870 sul mio pc con stesso monitor e setting già spiccava di più lo sfondo del desktop :asd: (quello però effettivamente col rendering non ci azzecca nulla ma più sulla colorimetria)

fraussantin
03-06-2020, 09:49
blind, unfaitful man :O

quando da una 8800gtx vidi una 4870 sul mio pc con stesso monitor e setting già spiccava di più lo sfondo del desktop :asd: (quello però effettivamente col rendering non ci azzecca nulla ma più sulla colorimetria)

mi spiace solo che sto ryzen non ha la grafica integrata senno facevo delle prove definitive e si chiudeva la faccenda per sempre.

con la grafica intel sui colori rispetto ad nvidia non cambia nulla lo provai sul vecchio PC con il vecchio monitor ips.
Su amd anche io ho notato colori più spinti ( poro reali anche tipo televisore samsung o cellulare huawei) ma senza un confronto sullo stesso pannello con la solita calibrazione non si puo dire.

per la nitidezza come ho detto si l'ho notata subito troppa sul desktop ma corretta nei giochi. anche li non so se dipende dal monitor.

Ale55andr0
03-06-2020, 09:58
mi spiace solo che sto ryzen non ha la grafica integrata senno facevo delle prove definitive e si chiudeva la faccenda per sempre.

con la grafica intel sui colori rispetto ad nvidia non cambia nulla . su amd anche io ho notato colori più spinti ( poro reali anche tipo televisore samsung) ma senza un confronto sullo stesso pannello con la solita calibrazione non si puo dire.

per la nitidezza come ho detto si l'ho notata subito troppa sul desktop ma corretta nei giochi. anche li non so se dipende dal monitor.

guarda, mi ha mandato messaggi, estasiato (e lui negli anni è stato più un "simpatizzande nvidia", peraltro ha fatto per anni il tecnico in un negozio di pc nella mia città, "PC Castle", a Catania) dicendo che alla risoluzione nativa è tutto incredibilmente pulito e smussato tanto da impazzire sul pannello di controllo per vedere se avesse forzato qualche filtro :D, mentre su nvidia non era contento nemmeno forzando il DSR in 4k perchè o era pulito lato seghettature ma sfocato con la barra al 33% (controllo nitidezza del DSR) o nitido (0%) ma non notava più migliorie così sensibili che non in nativa lato seghettature. Boh, so solo che è entusiasta e pur non essendo certo ne un fan amd ne uno che partiva con l'idea di fare confronti visivi è rimasto stupito, buon per lui. Peraltro come detto non ha nemmeno intenzione di tenere la scheda, è solo un ponte in attesa delle nuove top di gamma, ma ha detto che se amd gli fa una scheda 4k/60frame RT on (gli ho detto che si può attaccare al tram :asd:, ma oh, sognare è gratis :asd: ) la prende sicuro, anche perchè dopo anni con piattaforma intel (2700k occato a 5+ghz) ora ha un 2700x su taichi x470 e gli piacerebbe avere una macchina tutta amd per sfizio :)

StylezZz`
03-06-2020, 10:29
Io notai una differenza simile all'epoca, però passando da una GTX 670 a una 770, i colori erano più accesi, neri più profondi e tutto più nitido :confused:

Ma ancora esiste quel famoso ''bug dei driver'' che si risolve modificando alcuni settaggi? Al momento ho una Radeon e non ho trovato differenze, però mi state facendo venire voglia di ordinarmi un altra scheda nvidia e fare le prove :stordita:

Può essere che questo problema si presenta in situazioni particolari, indipendentemente dalla marca?

ninja750
03-06-2020, 11:53
ieri mio cugino (e gia' partiranno "eh tuo cuGGGino" :asd:) è passato da una 1080ti asus triventola a una 5700xt anch'essa triventola

gli avevi messo già tu in testa questa presunta teoria o l'ha detto lui dal nulla? se questa cosa non la sapeva è la conferma che su alcuni pannelli/connessione la differenza c'è

ps nessun black screen o problemi con i driver? :stordita:

Ale55andr0
03-06-2020, 12:10
gli avevi messo già tu in testa questa presunta teoria o l'ha detto lui dal nulla? se questa cosa non la sapeva è la conferma che su alcuni pannelli/connessione la differenza c'è

ps nessun black screen o problemi con i driver? :stordita:

no, tutto partito da lui, peraltro era comunque contento della 1080ti. La scheda la ha da un giorno e mezzo, credo sia un po' presto per (eventuali) problemi :D Comunque si', sapeva di qualche possibile rogna ma ha voluto provarla ugualmente visto che in pratica con la compravendita ha una scheda nuova di pacca che svaluterà meno della 1080ti all'arrivo delle nuove e gli sono avanzati pure soldi. Quindi ha ottenuto vga con più garanzia residua, stesse prestazioni, soddisfazione (almeno da par suo) lato visivo e soldi avanzati in tasca. Mica male come scheda di rincalzo in attesa delle nuove :D

fraussantin
03-06-2020, 12:11
no, tutto partito da lui, peraltro era comunque contento della 1080ti. La scheda la ha da un giorno e mezzo, credo sia un po' presto per (eventuali) problemi :D Comunque si', sapeva di qualche possibile rogna ma ha voluto provarla ugualmente visto che in pratica con la compravendita ha una scheda nuova di pacca che svaluterà meno della 1080ti all'arrivo delle nuove e gli sono avanzati pure soldi. Quindi ha ottenuto vga con più garanzia residua, stesse prestazioni, soddisfazione (almeno da par suo) lato visivo e soldi avanzati in tasca. Mica male come scheda di rincalzo in attesa delle nuove :DA quel prezzo si passa sopra a molte cose..

Cmq sembrano risolti .

Ale55andr0
03-06-2020, 21:37
A quel prezzo si passa sopra a molte cose..

Cmq sembrano risolti .

317euro per la precisione :asd:, ora si sono accorti di essersi auto-inchiappettati e lo hanno lievemente "aggiustato" a 440 :sofico:
Marò che colpo de :ciapet: che ha avuto, praticamente anche rivendendola da qui a qualche mese ci guadagna pure (di nuovo) :asd:

mai na volta che capiti a me :rolleyes: :muro:

FroZen
03-06-2020, 21:57
Io notai una differenza simile all'epoca, però passando da una GTX 670 a una 770, i colori erano più accesi, neri più profondi e tutto più nitido :confused:

Ma ancora esiste quel famoso ''bug dei driver'' che si risolve modificando alcuni settaggi? Al momento ho una Radeon e non ho trovato differenze, però mi state facendo venire voglia di ordinarmi un altra scheda nvidia e fare le prove :stordita:

Può essere che questo problema si presenta in situazioni particolari, indipendentemente dalla marca?

intendi il bug in hdmi che metteva il subsampling del monitor a 4:2:2 invece dei 4:4:4? E' durato dieci anni ma pare abbiano risolto (sempre che non fosse una scelta come penso) alla nvidia

29Leonardo
04-06-2020, 08:00
L'unico bug che ricordo è quello del range dinamico su limitato invece che completo su HDMI con il risultato di vedere tutto con colori spenti, neri assenti etc..

ninja750
04-06-2020, 08:41
L'unico bug che ricordo è quello del range dinamico su limitato invece che completo su HDMI con il risultato di vedere tutto con colori spenti, neri assenti etc..

con displayport non capita?

mircocatta
04-06-2020, 09:15
317euro per la precisione :asd:, ora si sono accorti di essersi auto-inchiappettati e lo hanno lievemente "aggiustato" a 440 :sofico:
Marò che colpo de :ciapet: che ha avuto, praticamente anche rivendendola da qui a qualche mese ci guadagna pure (di nuovo) :asd:

mai na volta che capiti a me :rolleyes: :muro:
prezzo assurdo.. anche se imho è il prezzo che dovrebbe avere quel chip da 250mmq

29Leonardo
04-06-2020, 11:15
con displayport non capita?

Non ci ho fatto caso onestamente.

prezzo assurdo.. anche se imho è il prezzo che dovrebbe avere quel chip da 250mmq

Se il mercato non fosse stato drogato prima dal mining e poi tutti gli altri problemi a ruota probabilmente si.

Vul
04-06-2020, 12:15
480 euro per una 1080ti, una scheda uscita oltre 4 anni fa.

Del resto ha senso, visto che la scheda che la soppianta in termini di prestazioni costa praticamente uguale al prezzo della 1080ti nuova anni fa (la 2080).

Ale55andr0
04-06-2020, 13:04
480 euro per una 1080ti, una scheda uscita oltre 4 anni fa.

Del resto ha senso, visto che la scheda che la soppianta in termini di prestazioni costa praticamente uguale al prezzo della 1080ti nuova anni fa (la 2080).

still...la 1080ti ha pure più ram :asd:

fraussantin
04-06-2020, 13:26
still...la 1080ti ha pure più ram :asd:Se la necst gen avrà la fascia da 500 euro sempre con 8 giga , la 1080ti rimarrà nella storia come la best buy piú longeva di sempre.

argez
04-06-2020, 14:57
Con questa storia della ram risicata sulle schede ci stanno marciando da anni...prodotti come le 1660/s/ti-2060-5600xt è tutta roba che come minimo doveva avere 8gb di ram.

Freisar
05-06-2020, 05:54
Ho letto che big navi arriverà prima della ng, si pensa verso settembre confermate?

Yota79
05-06-2020, 08:08
Ho letto che big navi arriverà prima della ng, si pensa verso settembre confermate?

Dovrebbero... ma vi prego... fateci vedere qualcosa... :cry: :cry: :cry:

Gyammy85
05-06-2020, 08:19
Ho letto che big navi arriverà prima della ng, si pensa verso settembre confermate?

Per me resta sempre ottobre la data più probabile, la cosa che hanno confermato è che partiranno con le top di gamma come di consueto (due modelli stile 5700xt e 5700 imho) e poi le altre fasce...alla fine avremo una fascia bassa che andrà come le attuali navi e la fascia top che potrebbe arrivare a +35/40% sulla 2080ti

Dovrebbero... ma vi prego... fateci vedere qualcosa... :cry: :cry: :cry:

I mesi cruciali per i vari leak sono quelli estivi, dato che svelare dettagli durante la prima parte dell'anno minerebbe le vendite dei prodotti attuali

Ale55andr0
05-06-2020, 10:19
il mercato dei prodotti attuali è già bello che morto due to covid 19, e poi chi compra prodotti di sta fascia sa benissimo che a breve uscirà la nuova generazione, nessuno tranne chi è a piedi o non sa che fa prenderebbe mai oggi la vga per fare un upgrade.

Ale55andr0
05-06-2020, 10:21
io comunque mi ripeto, mi aspetto la 6700xt fatta così:

56cu/3584sp chip full
10gb a 320bit 560gb/s
clock intorno ai 2ghz

chissà se ci avrò preso


la 5900 mi è già più misteriosa, ma grossomodo la immagino così:

80cu/5120sp/128rops (si spera) chip full
16gb HBM2
clock intorno a 1.85ghz

la cut della 5900:
72cu, sempre 16gb con rops e tmu tagliate in proporzione e clock simile alla top


la fascia bassa con chip PS5, aka 36 miserabili, vergognose, patetiche, ridicole, imbarazzanti, inconcepibili, inaccettabili CU

NAP.
05-06-2020, 11:12
io comunque mi ripeto, mi aspetto la 6700xt fatta così:

56cu/3584sp chip full
10gb a 320bit 560gb/s
clock intorno ai 2ghz

chissà se ci avrò preso


la 5900 mi è già più misteriosa, ma grossomodo la immagino così:

80cu/5120sp/128rops (si spera) chip full
16gb HBM2
clock intorno a 1.85ghz

la cut della 5900:
72cu, sempre 16gb con rops e tmu tagliate in proporzione e clock simile alla top


la fascia bassa con chip PS5, aka 36 miserabili, vergognose, patetiche, ridicole, imbarazzanti, inconcepibili, inaccettabili CUEh pero la ps5 c'ha l'ssd super mega galattico XD

ninja750
05-06-2020, 11:18
la fascia bassa con chip PS5, aka 36 miserabili, vergognose, patetiche, ridicole, imbarazzanti, inconcepibili, inaccettabili CU

una versione da 40 come l'attuale no?

Ale55andr0
05-06-2020, 11:28
una versione da 40 come l'attuale no?

no, sennò che upgrade sarebbe dalla 5700xt se la nuova fascia medioalta resta a 40cu? :O

A meno che intendevi la nuova 5600 aka 6600 con 40cu, e li ci potrebbe stare :O

mikael84
05-06-2020, 11:38
io comunque mi ripeto, mi aspetto la 6700xt fatta così:

56cu/3584sp chip full
10gb a 320bit 560gb/s
clock intorno ai 2ghz

chissà se ci avrò preso


la 5900 mi è già più misteriosa, ma grossomodo la immagino così:

80cu/5120sp/128rops (si spera) chip full
16gb HBM2
clock intorno a 1.85ghz

la cut della 5900:
72cu, sempre 16gb con rops e tmu tagliate in proporzione e clock simile alla top


la fascia bassa con chip PS5, aka 36 miserabili, vergognose, patetiche, ridicole, imbarazzanti, inconcepibili, inaccettabili CU

Con AMD le rop's non si tagliano, quindi puoi stare sereno anche con la cut.:)
96, se salgono a 6 engine sono sicure.

Ale55andr0
05-06-2020, 11:39
Con AMD le rop's non si tagliano.:)

meglio :O

Eh pero la ps5 c'ha l'ssd super mega galattico XD

annassero a fare in cò+* loro e pure il markettaro di epic che ha sparato bestialità a raffica, le solite che leggiamo/sentiamo a ogni santa generazione salvo poi essere maciullate dalla realtà. Posto che già ora si trovano nvme pice gen 4.0 da 5gb/s o oltre, con l'arous gigabyte che arriva addirittura 15 ( fossero anche 20 non possono fare LA differenza dovendo comunicare con una ram da mezzo tera di banda...saranno sempre in difettorispetto a quella e in ogni caso anche passassero gli asset a millemilagiga al secondo non servirebbe a una mazza se la gpu è monca e non è in grado di renderizzare in 4k/60frame tutta quella roba non avendo potenza a sufficienza

fraussantin
05-06-2020, 11:48
Eh pero la ps5 c'ha l'ssd super mega galattico XDSSD is the new RGB

= + Fps! :asd:
Anzi no .. xD

meglio :O



annassero a fare in cò+* loro e pure il markettaro di epic che ha sparato bestialità a raffica, le solite che leggiamo/sentiamo a ogni santa generazione salvo poi essere maciullate dalla realtà. Posto che già ora si trovano nvme pice gen 4.0 da 5gb/s o oltre, con l'arous gigabyte che arriva addirittura 15... comunque fossero anche 20 possano fare LA differenza dovendo comunicare con una ram da mezzo tera di banda...saranno sempre un collo di bottiglia rispetto a quella e in ogni caso anche passassero gli asset a millemilagiga al secondo non servirebbe a una mazza se la gpu è monca e non è in grado di renderizzare in 4k/60frame tutta quella roba non avendo potenza a sufficienza

Ma non servono a niente 4.0 sulle console..
Potrebbero avere un lieve senso su PC se Windows decide , come sempre , di mettersi a ravanare sul disco mentre la demo Epic carica texture in 8k pure se vai a 2 .. ma su console cosa deve fare il controller ?

ninja750
05-06-2020, 13:02
no, sennò che upgrade sarebbe dalla 5700xt se la nuova fascia medioalta resta a 40cu? :O

A meno che intendevi la nuova 5600 aka 6600 con 40cu, e li ci potrebbe stare :O

visto ""ipc"" maggiore (e perchè no anche un +100mhz?) la chiamassero 5750xt (o 6700xt) sarebbe un passo come quello tra 5700 liscia e 5700xt o tra 580 e 590

la 5600 nuova 5700 con 40cu sarebbe una specie di inutile rebrand

Freisar
05-06-2020, 13:37
Vedremo che buttano fuori anche se ho delle brutte sensazioni sui prezzi...vorrei che amd faccia una concorrenza spietata a nvdia e non si limitasse a piazzare 1000€ una scheda per i 4k60fps!

Ps:la mia paura è che con la scusa dell rt tutto salga di prezzo! A sto punto mi prendo una 5700xt per il freesync!

parcher
05-06-2020, 14:05
ah, questa la foto che mi ha mandato appena la ha presa https://imgur.com/a/d13vAug

Come la mia, la Nitro 5700XT Special Edition.. uno spettacolo :sofico:

PConly92
05-06-2020, 14:16
Vedremo che buttano fuori anche se ho delle brutte sensazioni sui prezzi...vorrei che amd faccia una concorrenza spietata a nvdia e non si limitasse a piazzare 1000€ una scheda per i 4k60fps!

Ps:la mia paura è che con la scusa dell rt tutto salga di prezzo! A sto punto mi prendo una 5700xt per il freesync!

ma sono l'unico a cui questo RT non ha impressionato? forse perché non è stato ancora implementato per bene?
io personalmente preferisco avere una fisica/animazioni/interazioni migliore piuttosto che il Ray tracing
perché se devono impiegare tutta la potenza per l'rt e i giochi rimangono "statici" come ora...no grazie

fraussantin
05-06-2020, 14:34
ma sono l'unico a cui questo RT non ha impressionato? forse perché non è stato ancora implementato per bene?
io personalmente preferisco avere una fisica/animazioni/interazioni migliore piuttosto che il Ray tracing
perché se devono impiegare tutta la potenza per l'rt e i giochi rimangono "statici" come ora...no graziePiú che altro si può fare una bella illuminazione anche senza RT , sì non sarà uguale , ma cmq bella.
Guarda Red dead 2 .. maxato ha dei paesaggi che spaccano il culo ad ogni gioco RT sul mercato .
Peró é la moda del momento , un po' come l'8k ( il 4 ormai é obsoleto :asd:) e fa cool.

PConly92
05-06-2020, 14:51
Piú che altro si può fare una bella illuminazione anche senza RT , sì non sarà uguale , ma cmq bella.
Guarda Red dead 2 .. maxato ha dei paesaggi che spaccano il culo ad ogni gioco RT sul mercato .
Peró é la moda del momento , un po' come l'8k ( il 4 ormai é obsoleto :asd:) e fa cool.

sì infatti... basta vedere la tech demo ue 5! comunque sono d'accordo che purtroppo sia una moda. io per ora ho quasi completato il mio nuovo PC ( target 1080 60 fps rock solid) e mi manca soltanto la scheda madre e grafica. vado di rx 5600xt pulse... non mi va di aspettare mesi per le rdna2 che secondo me avranno dei prezzi molto alti al lancio

Freisar
05-06-2020, 14:57
ma sono l'unico a cui questo RT non ha impressionato? forse perché non è stato ancora implementato per bene?
io personalmente preferisco avere una fisica/animazioni/interazioni migliore piuttosto che il Ray tracing
perché se devono impiegare tutta la potenza per l'rt e i giochi rimangono "statici" come ora...no grazie

Ma neanche a me sinceramente l'RT interessa, magari potrebbero buttare fuori una GPU senza RT che spinga lo stesso a prezzo onesto!

Ale55andr0
05-06-2020, 15:49
ma sono l'unico a cui questo RT non ha impressionato? forse perché non è stato ancora implementato per bene?
io personalmente preferisco avere una fisica/animazioni/interazioni migliore piuttosto che il Ray tracing
perché se devono impiegare tutta la potenza per l'rt e i giochi rimangono "statici" come ora...no grazie

presente. A me non dice proprio nulla e non riuscirei a distinguere un rtx vero da uno "finto" se non per il crollo del framerate :asd:

bagnino89
05-06-2020, 15:56
presente. A me non dice proprio nulla e non riuscirei a distinguere un rtx vero da uno "finto" se non per il crollo del framerate :asd:

Il brutto è che ormai Nvidia ha intrapreso questa strada, e tutto il silicio necessario al ray tracing (sia i tensor che i moduli RT) lo farà pagare molto caro... Non so cosa intenderà fare AMD, ma senza unità dedicate servirà comunque tanto silicio per poter sfruttare decentemente il ray tracing... Boh, vedremo.

Ton90maz
05-06-2020, 16:43
io comunque mi ripeto, mi aspetto la 6700xt fatta così:

56cu/3584sp chip full
10gb a 320bit 560gb/s
clock intorno ai 2ghz

chissà se ci avrò preso


la 5900 mi è già più misteriosa, ma grossomodo la immagino così:

80cu/5120sp/128rops (si spera) chip full
16gb HBM2
clock intorno a 1.85ghz

la cut della 5900:
72cu, sempre 16gb con rops e tmu tagliate in proporzione e clock simile alla top


la fascia bassa con chip PS5, aka 36 miserabili, vergognose, patetiche, ridicole, imbarazzanti, inconcepibili, inaccettabili CU

Mi auguro che non creino un'altra voragine del genere tra le fasce o si rischierebbe un'altra situazione alla polaris-baracca II (vega I), con i prezzi delle 1070 a prendere il volo (quando la 970 era tra le schede più convenienti di tutte)

nessuno29
06-06-2020, 10:21
Posto che già ora si trovano nvme pice gen 4.0 da 5gb/s o oltre, con l'arous gigabyte che arriva addirittura 15 ( fossero anche 20 non possono fare LA differenza dovendo comunicare con una ram da mezzo tera di banda...saranno sempre in difettorispetto a quella e in ogni caso anche passassero gli asset a millemilagiga al secondo non servirebbe a una mazza se la gpu è monca e non è in grado di renderizzare in 4k/60frame tutta quella roba non avendo potenza a sufficienza

Sono delle consol quindi un compromesso dal 1980 ad oggi, ad ogni generazione sempre i soliti commenti, l'ssd di ps5 è geniale non capisco perchè denigrarlo. Tra l'altro sono console performanti come non se ne vedevano da 20 anni...

Ale55andr0
06-06-2020, 13:16
Sono delle consol quindi un compromesso dal 1980 ad oggi, ad ogni generazione sempre i soliti commenti, l'ssd di ps5 è geniale non capisco perchè denigrarlo. Tra l'altro sono console performanti come non se ne vedevano da 20 anni...

ps5 ha una gpu ridicola, del tutto sottodimensionata per un VERO 4k con graficone

Vul
07-06-2020, 13:33
ps5 ha una gpu ridicola, del tutto sottodimensionata per un VERO 4k con graficone

2080ti è una gpu ridicola, del tutto sottodimensionata per un VERO 1080p con ray tracing.

OvErClOck82
07-06-2020, 14:18
Sono delle consol quindi un compromesso dal 1980 ad oggi, ad ogni generazione sempre i soliti commenti, l'ssd di ps5 è geniale non capisco perchè denigrarlo. Tra l'altro sono console performanti come non se ne vedevano da 20 anni...

la master race :asd:

cristiankim
07-06-2020, 16:01
Scusate, per la fascia media cosa c'è in cantiere parlo di fascia erede delle rx480/580

Inviato dal mio COL-L29 utilizzando Tapatalk

Lan_Di
07-06-2020, 17:15
Scusate, per la fascia media cosa c'è in cantiere parlo di fascia erede delle rx480/580

Inviato dal mio COL-L29 utilizzando Tapatalk

in teoria l'attuale fascia media è la rx5600, che però costa quasi 300€, con 30/40 in più ci sono le rx5700 più economiche tipo la msi mech

mircocatta
07-06-2020, 20:12
in teoria l'attuale fascia media è la rx5600, che però costa quasi 300€, con 30/40 in più ci sono le rx5700 più economiche tipo la msi mech

Dipende se si parla di prezzo o di chip.. come prezzo c'è la 5500xt, come chip la 5700

NAP.
07-06-2020, 20:40
Con l'aumento sproporzionato dei prezzi oramai il paragone si fa per chip

The_SaN
07-06-2020, 20:57
Scusate, per la fascia media cosa c'è in cantiere parlo di fascia erede delle rx480/580

Inviato dal mio COL-L29 utilizzando Tapatalk

In teoria le attuali dovrebbero scalare una fascia, quindi avremo l'equivalente in mm² di una 5700XT nella fascia di prezzo della vecchia 580 (che ora è occupata dalla 5600XT).
Se saranno RDNA2 come spero, dovrebbero avere prestazioni migliori.

argez
07-06-2020, 22:24
In teoria le attuali dovrebbero scalare una fascia, quindi avremo l'equivalente in mm² di una 5700XT nella fascia di prezzo della vecchia 580 (che ora è occupata dalla 5600XT).
Se saranno RDNA2 come spero, dovrebbero avere prestazioni migliori.

Per me rinominano solamente tutte le schede attuali.

cristiankim
07-06-2020, 22:32
Con l'aumento sproporzionato dei prezzi oramai il paragone si fa per chipSono aumentati vero? Anche io devo ammettere che ho avuto questa sensazione. Ho comprato la 480 8gb nitro appena uscita, e devo dire che non ho mai visto svalutarsi così lentamente una scheda video, o comunque anche quelle equivalenti non sono mai state troppo competitive in rapporto al tempo trascorso. Un investimento azzeccato probabilmente 🤣

Inviato dal mio COL-L29 utilizzando Tapatalk

NAP.
08-06-2020, 00:13
Sono aumentati vero? Anche io devo ammettere che ho avuto questa sensazione. Ho comprato la 480 8gb nitro appena uscita, e devo dire che non ho mai visto svalutarsi così lentamente una scheda video, o comunque anche quelle equivalenti non sono mai state troppo competitive in rapporto al tempo trascorso. Un investimento azzeccato probabilmente 🤣

Inviato dal mio COL-L29 utilizzando Tapatalk

Tu pensa che una top di gamma la HD7970Pro quando ancora c'era la buon'anima di Ati la pagai al tempo 420euro ed era un modello custom di MSI con bios per LN2, oggi la 2080 liscia con Wubbo per l'overclock l'ho pagata Mille euro quasi

Vash88
08-06-2020, 00:39
Con l'uscita della serie 3000 Nvidia (nella fascia media, entro 6 mesi) mi aspetto una marcata riduzione dei prezzi delle 5700. Alla fine è un chip da 245 mmq contro 550 circa della 2070 super. NAVI 2 potrebbe posizionarsi su una fascia medio alta all'inizio.

Gyammy85
08-06-2020, 08:00
Scusate, per la fascia media cosa c'è in cantiere parlo di fascia erede delle rx480/580

Inviato dal mio COL-L29 utilizzando Tapatalk

Dici rdna2? dovrebbero esserci le navi 23, ma sicuramente se ne parla nel 2021

Considerando +50% perf/watt, potrebbero far uscire una vga con le stesse cu della 5500xt ma con performance uguali o superiori alla 5700xt/5700

VanCleef
08-06-2020, 08:01
Dici rdna2? dovrebbero esserci le navi 23, ma sicuramente se ne parla nel 2021

Considerando +50% perf/watt, potrebbero far uscire una vga con le stesse cu della 5500xt ma con performance uguali o superiori alla 5700xt/5700

Quindi nella fascia 100-150 polaris continuerà a essere l'unica possibilità in casa AMD?

Gyammy85
08-06-2020, 08:11
Quindi nella fascia 100-150 polaris continuerà a essere l'unica possibilità in casa AMD?

I prezzi sono questi ormai, nessuno darà più via le vga per pochi spicci
Ok che polaris va bene, ma ormai mostra un pò il fianco, a meno che tu non voglia restare a 1080p 60 fps garantiti

VanCleef
08-06-2020, 09:00
I prezzi sono questi ormai, nessuno darà più via le vga per pochi spicci
Ok che polaris va bene, ma ormai mostra un pò il fianco, a meno che tu non voglia restare a 1080p 60 fps garantiti

Per quello che gioco credo sia più che sufficiente.
In realtà aspetto una VGA 2k ready a 150€ per sostituire la 570 e monitor in un colpo solo, ma credo sia la generazione dopo di quella a venire...

Lan_Di
08-06-2020, 09:01
Dipende se si parla di prezzo o di chip.. come prezzo c'è la 5500xt, come chip la 5700

la 5500XT , che ha un prezzo analogo alle 480/580, anche come prestazioni è molto vicina a loro, per cui secondo me non vale la pena fare il passaggio e di fatto questa gpu costituisce la fascia bassa dall'attuale line-up di amd, visto che di listino la 5500xt 4GB è la rdna che costa meno.

PConly92
08-06-2020, 09:36
secondo me AMD con la 5500xt ha toppato alla grande. mi spiego meglio... la versione da 8gb costa 200/210 euro e si scontra con la GeForce 1660s che più o meno costa uguale e va di più nonostante abbia 2 GB in meno di vram. il prezzo della 5500xt da 8gb dovrebbe stare sui 170 massimo

29Leonardo
08-06-2020, 09:37
la 5500xt imho è una scheda che non ha senso di esistere.

Per quello che gioco credo sia più che sufficiente.
In realtà aspetto una VGA 2k ready a 150€ per sostituire la 570 e monitor in un colpo solo, ma credo sia la generazione dopo di quella a venire...

Credo invece che i costi saliranno ulteriormente per via delle gddr6 e che quindi ce la possiamo solo sognare una scheda con quelle caratteristiche.

Freisar
08-06-2020, 09:45
Credo invece che i costi saliranno ulteriormente per via delle gddr6 e che quindi ce la possiamo solo sognare una scheda con quelle caratteristiche.

Mai ma gioia pure costi superiori chissà per una 4k...

OrazioOC
08-06-2020, 11:35
secondo me AMD con la 5500xt ha toppato alla grande. mi spiego meglio... la versione da 8gb costa 200/210 euro e si scontra con la GeForce 1660s che più o meno costa uguale e va di più nonostante abbia 2 GB in meno di vram. il prezzo della 5500xt da 8gb dovrebbe stare sui 170 massimo

Quoto, 4 anni dopo il lancio della rx 480, hanno pensato di lanciare una scheda che andava leggermente di più consumando leggermente di meno, ma allo stesso prezzo.
Almeno nvidia in quella fascia prima aveva la 1060 3/6gb, mentre ora con la 1660 super ha portato una scheda che ne avrebbe quanto una 1070.

Amd però si farebbe perdonare se abbassasse leggermente il prezzo della rx 5600 xt, trovarla a 260/270 euro sarebbe una bella cosa perchè avrebbe ben più performance di una vecchia 480 o 580.

mikael84
08-06-2020, 11:44
Dici rdna2? dovrebbero esserci le navi 23, ma sicuramente se ne parla nel 2021

Considerando +50% perf/watt, potrebbero far uscire una vga con le stesse cu della 5500xt ma con performance uguali o superiori alla 5700xt/5700

https://i.pinimg.com/originals/2b/8c/6a/2b8c6a2e506d94e4fd25ae791367b97a.jpg

Gyammy85
08-06-2020, 11:46
https://i.pinimg.com/originals/2b/8c/6a/2b8c6a2e506d94e4fd25ae791367b97a.jpg

Nel senso che una rdan2 da 22-24 cu potrebbe benissimo andare come rdna da 40

mikael84
08-06-2020, 11:49
Nel senso che una rdan2 da 22-24 cu potrebbe benissimo andare come rdna da 40

Come fa una GPU da 1408st ad andare come una da 2560st che va quasi il doppio?:D
Quindi una 2560st, andrebbe come una 5120st. Scherzi spero.:D

50% perf/watt, significa che potrai avere una 5500 a circa 85watt, anzichè 125/130watt.
Un 100% ed oltre di IPC, e che è... :)

Maury
08-06-2020, 12:13
Secondo voi la proposta AMD RDNA2 con RT, con prestazioni pari o superiori all'XBOX Series X, a quanto sarà prezzata ?

Possibile sia una ipotetica RX 6700 ?

:rolleyes:

argez
08-06-2020, 12:29
la 5500xt imho è una scheda che non ha senso di esistere.

Al prezzo in cui è uscita non ha nessun senso, se invece fosse uscita a 160-170 euro massimo la 8gb, che è più o meno il prezzo di una rx 580, probabilmente avrebbe avuto molto mercato.

Ale55andr0
08-06-2020, 12:51
Come fa una GPU da 1408st ad andare come una da 2560st che va quasi il doppio?:D
Quindi una 2560st, andrebbe come una 5120st. Scherzi spero.:D

50% perf/watt, significa che potrai avere una 5500 a circa 85watt, anzichè 125/130watt.
Un 100% ed oltre di IPC, e che è... :)

come fa una 2560st come la 5700xt, o una 2070 che ne ha 2300 ad andare come una 1080ti che ne ha 3500? sono architetture diverse, ecco come, si suppone che rdna 2 avrà un "ipc" maggiore di rdna 1, certo non un 100%ma ocme si vede dagli esempi di cui sopra può essere comunque "abbondante". Personalmente sono curiosissimo di vedere che tireranno fuori proprio in tal senso

Ton90maz
08-06-2020, 12:51
Come fa una GPU da 1408st ad andare come una da 2560st che va quasi il doppio?:D
Quindi una 2560st, andrebbe come una 5120st. Scherzi spero.:D

50% perf/watt, significa che potrai avere una 5500 a circa 85watt, anzichè 125/130watt.
Un 100% ed oltre di IPC, e che è... :)
Big navi pari a 3 2080 ti messe assieme confirmed :fagiano:

Ton90maz
08-06-2020, 12:53
come fa una 2560st come la 5700xt, o una 2070 che ne ha 2300 ad andare come una 1080ti che ne ha 3500? sono architetture diverse, ecco come, si suppone che rdna 2 avrà un "ipc" maggiore di rdna 1 :stordita:Sì ma un aumento di ipc del genere non c'è manco passando da gcn1 a rdna1 :asd:

Ale55andr0
08-06-2020, 13:07
Sì ma un aumento di ipc del genere non c'è manco passando da gcn1 a rdna1 :asd:

se ti fai due calcoli alla buona (non stiamo a spaccare il capello 4 e 1/4) quelle architetture amd e nvidia sulle vecchia 1080ti non è che hanno guadagnato il 5%, parliamo di un teorico 40% e 50% (pieno. Scusa se è cosi poco....) e senza l'alibi della banda passante (la 1080ti a 484gb/s, le altre due 448...). Se rdna 2 facesse anche altrettanto o persino poco meno (30%) con una gpu da 56cu spaccheresti comunque i culi abbestia....:sofico:

...comunque rdna 1 rispetto a gcn 1 è comunque Dio onnipotente, fai un'altro esempio che è meglio :asd:

Gyammy85
08-06-2020, 13:08
Sì ma un aumento di ipc del genere non c'è manco passando da gcn1 a rdna1 :asd:

A me sembra che la 5700 vada 2x quasi lineari sulla 580, tranquillo che ci va vicina dato che dichiarano lo stesso incremento... Il 50% che amd dichiara rispetto a gcn con rdna è perfino troppo conservativo

OrazioOC
08-06-2020, 13:12
A me sembra che la 5700 vada 2x quasi lineari sulla 580, tranquillo che ci va vicina dato che dichiarano lo stesso incremento... Il 50% che amd dichiara rispetto a gcn con rdna è perfino troppo conservativo

Come se i 7nm non centrassero nulla, ha solo l'80% in più di transistors nella stessa die size, che sarà mai :asd:.

Gyammy85
08-06-2020, 13:22
Come se i 7nm non centrassero nulla, ha solo l'80% in più di transistors nella stessa die size, che sarà mai :asd:.

E allora? La Radeon 7 ha 60 cu consuma di più e va più o meno uguale a una 5700xt, direi che il 50% se lo prende tutto di architettura

AceGranger
08-06-2020, 13:29
come fa una 2560st come la 5700xt, o una 2070 che ne ha 2300 ad andare come una 1080ti che ne ha 3500? sono architetture diverse, ecco come, si suppone che rdna 2 avrà un "ipc" maggiore di rdna 1, certo non un 100%ma ocme si vede dagli esempi di cui sopra può essere comunque "abbondante". Personalmente sono curiosissimo di vedere che tireranno fuori proprio in tal senso

si ma devi guardare anche il numero di transistor; l'IPC è aumentato perchè sono diventate piu grosse le unita, e probabilmente lo fanno perchè se aumenti solo il numero poi è piu difficile mantenere lo scaling se devi dividere troppo il codice.

la 5700xt ne ha 10.3 Miliardi
la 2070 ne ha 10.8 che diventano circa 9 se togli al parte Tensor e RT
la 1080Ti ne ha 12

il rapporto Transistor / Prestazioni è migliorato ma non a valori cosi mostruosi.

alla fine quello che comanda è sempre il numero di transistor; che poi tu li organizzi in 100 unita o in 10, sempre quel die size vai ad occupare.

OrazioOC
08-06-2020, 13:36
E allora? La Radeon 7 ha 60 cu consuma di più e va più o meno uguale a una 5700xt, direi che il 50% se lo prende tutto di architettura

Utile il confronto tra una scheda esclusivamente pensata per il gaming e una per il mercato enterprise, portata nel mainstream perchè amd non aveva una fava per contrastare turing in quel periodo. :rolleyes:

E infatti ne hanno venduti 4 e prodotte 8, una scheda che esisteva solo nei listini amd e infatti è durata 4 mesi sul mercato, guarda un po'. :rolleyes: :rolleyes:

Ale55andr0
08-06-2020, 13:40
si ma devi guardare anche il numero di transistor; l'IPC è aumentato perchè sono diventate piu grosse le unita, e probabilmente lo fanno perchè se aumenti solo il numero poi è piu difficile mantenere lo scaling se devi dividere troppo il codice.

la 5700xt ne ha 10.3 Miliardi
la 2070 ne ha 10.8 che diventano circa 9 se togli al parte Tensor e RT
la 1080Ti ne ha 12

il rapporto Transistor / Prestazioni è migliorato ma non a valori cosi mostruosi.

alla fine quello che comanda è sempre il numero di transistor; che poi tu li organizzi in 100 unita o in 10, sempre quel die size vai ad occupare.

le unità più grosse? mah, boh, forse più la cache ma a prescindere...il discorso non cambia: in meno spazio e con lo stesso numero di unità vado sempre più di una scheda con 1000sp in più, banda paritaria, se non di più e clock effettivo simile = sempre un botto di ipc è

Ale55andr0
08-06-2020, 13:42
Utile il confronto tra una scheda esclusivamente pensata per il gaming e una per il mercato enterprise, portata nel mainstream perchè amd non aveva una fava per contrastare turing in quel periodo. :rolleyes:

E infatti ne hanno venduti 4 e prodotte 8, una scheda che esisteva solo nei listini amd e infatti è durata 4 mesi sul mercato, guarda un po'. :rolleyes: :rolleyes:

guarda che quel prodotto enterprise è sempre una scheda da gaming per amd, come lo fu GCN...e come lo sono per nvidia gli scarti delle pro rimarchiate quelchetipare Ti

AceGranger
08-06-2020, 13:42
E allora? La Radeon 7 ha 60 cu consuma di più e va più o meno uguale a una 5700xt, direi che il 50% se lo prende tutto di architettura

la Radeon 7 ha 13 Miliardi di transistor, di cui un botto occupati per il collegamento alle HBM.

se togli quelli, non sei lontano dai transistor della 5700xt, ed essendo in maggior numero e organizzati peggio è meno efficiente e scala male, ma il die size è quello.

AceGranger
08-06-2020, 13:50
le unità più grosse? mah, boh, forse più la cache ma a prescindere...il discorso non cambia: in meno spazio e con lo stesso numero di unità vado sempre più di una scheda con 1000sp in più, banda paritaria, se non di più e clock effettivo simile = sempre un botto di ipc è

si certo pero, se guardi, il meno spazio non è cosi tanto meno, perchè non devi guardare i mm2 ma il numero dei transistor.

la realta è che le prestazioni aumentano perche in sostanza aumentano sempre a dismisura i transistor.

Ale55andr0
08-06-2020, 14:15
si ma devi guardare anche il numero di transistor; l'IPC è aumentato perchè sono diventate piu grosse le unita, e probabilmente lo fanno perchè se aumenti solo il numero poi è piu difficile mantenere lo scaling se devi dividere troppo il codice.

la 5700xt ne ha 10.3 Miliardi
la 2070 ne ha 10.8 che diventano circa 9 se togli al parte Tensor e RT
la 1080Ti ne ha 12

il rapporto Transistor / Prestazioni è migliorato ma non a valori cosi mostruosi.

alla fine quello che comanda è sempre il numero di transistor; che poi tu li organizzi in 100 unita o in 10, sempre quel die size vai ad occupare.

guarda che per me non stai facendo altro che darmi ragione :D, anche per il controller a 352bit della 1080ti occupa più spazio di quello a 256 di 2080 e 5700xt, e si' che, se non sono ancora rincojonito, la 2070 ha pure parte dedita all'rtx. I clcok sono simili, la banda pure..non ci stanno santi, l'ipc, i cavalli-litro, o chiamali quel come ti pare sono aumentati abbestia :sofico:

AceGranger
08-06-2020, 14:24
guarda che per me non stai facendo altro che darmi ragione, anche per il controller a 358bit della 1080ti occupa più spazio di quello a 256 di 2080 e 5700xt, e si che, se non sono ancora rincojonito, la 2070 ha pure parte dedita all'rtx. I clcok, sono simili, la banda pure..non ci stanno santi, l'ipc, i cavalli-litro, o chiamali quel come ti pare sono aumentati abbestia :sofico:

si non ti sto dando contro :), sto solo dicendo di non guardare solo i numeri delle unita ma anche l'effettivo aumento di trasistor.

Ale55andr0
08-06-2020, 14:24
la Radeon 7 ha 13 Miliardi di transistor, di cui un botto occupati per il collegamento alle HBM.

se togli quelli, non sei lontano dai transistor della 5700xt, ed essendo in maggior numero e organizzati peggio è meno efficiente e scala male, ma il die size è quello.

io ho sempre letto che il controller hbm occupa meno spazio di quello per ddr5. E comunque appunto, con più sp va... meno, consuma di più ecc. Aho sempre al punto di partenza stiamo eh :D

mikael84
08-06-2020, 14:27
come fa una 2560st come la 5700xt, o una 2070 che ne ha 2300 ad andare come una 1080ti che ne ha 3500? sono architetture diverse, ecco come, si suppone che rdna 2 avrà un "ipc" maggiore di rdna 1, certo non un 100%ma ocme si vede dagli esempi di cui sopra può essere comunque "abbondante". Personalmente sono curiosissimo di vedere che tireranno fuori proprio in tal senso

La 2070 non va come una 1080 TI, se non in giochi appositi, sopratutto in vulkan dove la 2070 utilizza i tensor per fp16.
La 1080ti di base boosta troppo basso (1650) non quasi 1900 come 2070 super ed altre.
Inoltre qua parliamo di un cambio di architettura.:)

12% dalla 1080 a pari clock.
https://i.postimg.cc/TwWKsZYF/lol-2.png

Alessandro, proprio tu, non puoi cadermi qua, come fa una gpu da 1408 st ad andare come od oltre una 5700xt...significherebbe che la 5700xt rdna andrebbe come una 3080ti...ma scherzi:p
L'IPC può anche aumentare relativamente, ma non certo ad un 2 o oltre x.

Big navi pari a 3 2080 ti messe assieme confirmed :fagiano:

Assurdo.:p

Sì ma un aumento di ipc del genere non c'è manco passando da gcn1 a rdna1 :asd:

Infatti 40% di IPC, senza considerare che polaris ha 32 rop's e metà BW.
https://i.postimg.cc/76pwpdJG/lol.png

Polaris: 5.7mtransistor (praticamente quasi un 2x di transistor)-

Ok poi la tra clock è il full recuperano vantaggio.

A me sembra che la 5700 vada 2x quasi lineari sulla 580, tranquillo che ci va vicina dato che dichiarano lo stesso incremento... Il 50% che amd dichiara rispetto a gcn con rdna è perfino troppo conservativo

40% IPC, però nell'IPC sono comprese le doppie rop's e la doppia BW.
https://i.postimg.cc/76pwpdJG/lol.png

Come può fare una 1408st ad andare 2x ed oltre, pur avendo metà BW e metà rop's.
A meno che non booti a 4/4,2ghz.:p

50% performance per watt non è IPC 2/3x
Significa che AMD prevede di raggiungere quello che raggiunge oggi con meno watt.:)

AceGranger
08-06-2020, 14:29
io ho sempre letto che il controller hbm occupa meno spazio di quello per ddr5. E comunque appunto, con più sp va... meno, consuma di più ecc. Aho sempre al punto di partenza stiamo eh :D

si occupa leggermente meno "dell'equivalente" ddr5 non è che occupa meno a prescindere, quello della Radeon 7 è superiore ai 256bit.

Ale55andr0
08-06-2020, 14:32
La 2070 non va come una 1080 TI, se non in giochi appositi, sopratutto in vulkan dove la 2070 utilizza i tensor per fp16.
La 1080ti di base boosta troppo basso (1650) non quasi 1900 come 2070 super ed altre.



guarda che la asus 1080ti triventola di mio cugino (anzi, cuGGGino sennò qua no n siete soddisfati) la teneva a 2ghz e la 5700xt nitro gli va uguale :asd:, Al sintetico del sito tizio o caio in buona sostanza non ci credo più, si smentiscono gli uni con gli altri...posto che mi stai dando ragione, io avevo scrito proprio 40% per la 5700xt calcolando di mio :D Posto che nelle suite di bench/giochi più usate siamo li, altro che solo giochi appositi. Poi proprio tu che dici proprio io:cioè in pratica mi stai dicendo che hai fatto un upgrade dalla 1080 per una scheda che non va nemmeno come la 1080 ti se non in qualche gioco? essù :D

Inoltre qua parliamo di un cambio di architettura.:)
:)



Appunto, e proprio quello dicevo....ergo da rdna 2 mi aspetto meglio che da rdna 1, specialmente visto che non mi pare che la 5700 regga 2.23ghz manco da sola (per poco o tanto tempo che sia) figurarsi assieme a un 8 core, AMD ha fatto un salto già in efficienza, mi aspetto altrettanto in "ipc" :)

Ale55andr0
08-06-2020, 14:37
si occupa leggermente meno "dell'equivalente" ddr5 non è che occupa meno a prescindere, quello della Radeon 7 è superiore ai 256bit.

ehm, quindi ho ancora ragione :D e mica io dicevo a prescindere...

A regà, le vecchie hanno fatto un GRAN salto a 360gradi, accettatelo andate in pace :O

mikael84
08-06-2020, 14:40
guarda che la asus 1080ti triventola di mio cugino (anzi, cuGGGino sennò qua no n siete soddisfati) la teneva a 2ghz e la 5700xt nitro gli va uguale :asd:, Al sintetico del sito tizio o caio in buona sostanza non ci credo più, si smentiscono gli uni con gli altri. Posto che nelle suite di bench/giochi più usate siamo li, altro che solo giochi appositi. Poi proprio tu che dici proprio io:,cioè tu in pratica mi stai dicendo che hai fatto un upgrade dalla 1080 per una scheda che non va nemmeno come la 1080 ti se non in qualche gioco? essù :D





Si ci credo, in vari giochi 1080ti/2070super e 5700xt se la giocano.
Io ho preso la 2070 super per andare un tot. in più, l'altra era a fine garanzia:p che dovevo fare, comprare una TI di 3 anni, allo stesso prezzo?:p


Appunto, e propri oquello dicevo....ergo da rdna 2 mi aspetto meglio che da rdna 1, specialmente visto che non mi pare che la 5700 regga 2.23ghz manco da sola (per poco o tanto tempo che sia) figurarsi assieme a un 8 core, AMD ha fatto un salto già in efficienza, mi aspetto altrettanto in "ipc" :)

Quindi ti aspetti una PS5 che va come una 3080ti OC, come non doveva essere una 2070. Tuo post sul thread 2080ti, se vuoi te lo pesco.
Seriamente di botto credi ad un 2x di IPC, o poco meno.:p

Ale55andr0
08-06-2020, 14:41
Si ci credo, in vari giochi 1080ti/2070super e 5700xt se la giocano.
Io ho preso la 2070 super per andare un tot. in più, l'altra era a fine garanzia:p che dovevo fare, comprare una TI di 3 anni, allo stesso prezzo?:p

paragnosta :asd:



Quindi ti aspetti una PS5 che va come una 3080ti OC:p


no, questa si chiama iperbole, e lo sai benissimo...:D




e il doppio di ipc dove lo hai letto scusa? quando proprio sopra ho scritto l'opposto :)


parliamo di un teorico 40% e 50% (pieno. Scusa se è cosi poco...)

AceGranger
08-06-2020, 14:43
ehm, quindi ho ancora ragione :D e mica io dicevo a prescindere...

A regà, le vecchie hanno fatto un GRAN salto a 360gradi, accettatelo andate in pace :O

non mi pare di aver mai detto il contrario :p; il salto verso 7nm è un gran salto.

Ale55andr0
08-06-2020, 14:47
quindi oggi in pratica ci stiamo tutti dando ragione a vicenda, secondo il nostro punto di vista., ma essendo in disaccordo...il tutto prendendoci velatamente (:asd:) per il culo con le faccine :rotfl:

mikael84
08-06-2020, 14:55
quindi oggi in pratica ci stiamo tutti dando ragione a vicenda... secondo il nostro punto di vista.... ma essendo in disaccordo.... il tutto prendendoci velatamente (:asd:) per il culo con le faccine :rotfl:

Io veramente ce l'avevo con quello che ha detto Gyammy, una 1408st pari o superiore ad una 5700xt o addirittura superiore su 6mtransistor, metà BW, e metà rop's, nonchè metà geometria.:p
L'ipc ci potrebbe pure stare, ma non certo a valori così ampi, se da RDNA a GCN (polaris) ci passa il 40% con una a metà BW e metà rop's.

mikael84
08-06-2020, 15:00
guarda che per me non stai facendo altro che darmi ragione :D, anche per il controller a 352bit della 1080ti occupa più spazio di quello a 256 di 2080 e 5700xt, e si' che, se non sono ancora rincojonito, la 2070 ha pure parte dedita all'rtx. I clcok sono simili, la banda pure..non ci stanno santi, l'ipc, i cavalli-litro, o chiamali quel come ti pare sono aumentati abbestia :sofico:

Beh insomma. Pascal full ha 258mm2 di collegamento, ma uno è laserato.
Turing sta li a 256bit con 242mm2 a 256bit.
Navi per forza, circa 110mm2 + i/O

The_SaN
08-06-2020, 16:13
Come fa una GPU da 1408st ad andare come una da 2560st che va quasi il doppio?:D
Quindi una 2560st, andrebbe come una 5120st. Scherzi spero.:D

50% perf/watt, significa che potrai avere una 5500 a circa 85watt, anzichè 125/130watt.
Un 100% ed oltre di IPC, e che è... :)

È inutile, ho provato a spiegarglielo un sacco di volte che il Perf/Watt è diverso dal Perf/Area o Perf/st.

PConly92
08-06-2020, 17:09
Quoto, 4 anni dopo il lancio della rx 480, hanno pensato di lanciare una scheda che andava leggermente di più consumando leggermente di meno, ma allo stesso prezzo.
Almeno nvidia in quella fascia prima aveva la 1060 3/6gb, mentre ora con la 1660 super ha portato una scheda che ne avrebbe quanto una 1070.

Amd però si farebbe perdonare se abbassasse leggermente il prezzo della rx 5600 xt, trovarla a 260/270 euro sarebbe una bella cosa perchè avrebbe ben più performance di una vecchia 480 o 580.

non dirmi così che sto per prendere una rx 5600xt pulse a 300 :stordita:

mircocatta
08-06-2020, 19:56
non dirmi così che sto per prendere una rx 5600xt pulse a 300 :stordita:

imho fai male, questa pandemia ha inciso parecchio ma il prezzo reale delle 5600xt ad oggi sarebbe sui 270 imho

Ale55andr0
08-06-2020, 21:06
con quel chippettino-ino-ino castrato? 200/220 is more than enough :asd:

Vash88
09-06-2020, 00:15
non dirmi così che sto per prendere una rx 5600xt pulse a 300 :stordita:

a 330 trovi le 5700 8gb come warehouse deals. Secondo me non conviene.

Nurabsa
09-06-2020, 07:57
guarda che la asus 1080ti triventola di mio cugino (anzi, cuGGGino sennò qua no n siete soddisfati) la teneva a 2ghz e la 5700xt nitro gli va uguale :asd:, Al sintetico del sito tizio o caio in buona sostanza non ci credo più, si smentiscono gli uni con gli altri...cut

e siamo in due

mircocatta
09-06-2020, 08:13
50% performance per watt non è IPC 2/3x
Significa che AMD prevede di raggiungere quello che raggiunge oggi con meno watt.:)
vero. Ma il fatto che amd voglia adottare dissipatori stock TRIVENTOLA fa pensare che l'intenzione sia quella di tirare fuori qualcosa >250watt, magari 290watt come la vecchia vega64lc (e imho andrebbe a ruba tra chi come me piace overcloccare e liquidare tutto il liquidabile :D )

se a questo aggiungi il 50% di perf/watt in più beh, salta fuori una scheda decisamente spinta

Ale55andr0
09-06-2020, 08:49
vero. Ma il fatto che amd voglia adottare dissipatori stock TRIVENTOLA fa pensare che l'intenzione sia quella di tirare fuori qualcosa >250watt

ora dicci qualcosa di nuovo :asd:

Gyammy85
09-06-2020, 09:18
ora dicci qualcosa di nuovo :asd:

La top possono farla in 300 watt come al solito, non vedo il dramma

La cosa interessante che emerge delle slide della presentazione di ieri è che il +50% perf/watt lo hanno estrapolato da the division 2 a 1440p ultra, che è il titolo standard dal quale traggono gli incrementi...insomma ci sono tutti gli elementi per spaccare a sto giro, visto che ci sarà un incremento pari a quello che c'è stato da gcn a rdna

Roland74Fun
09-06-2020, 09:56
Ad averlo saputo, non avrei venduto la vecchia Pitcairn R7 370 da 4 GB, che poi era un rebrand della 7850. Ora sarei a posto.

Freisar
09-06-2020, 10:33
Insomma non si sa niente :stordita:

Gyammy85
09-06-2020, 10:41
Insomma non si sa niente :stordita:

Diciamo che si sa un pochino meno di tutto

mircocatta
09-06-2020, 12:29
https://www.notebookcheck.net/AMD-s-Big-Navi-RDNA2-set-to-hit-PC-before-PlayStation-5-and-Xbox-Series-X-make-it-to-market-likely-beats-NVIDIA-GeForce-RTX-2080-Ti.467921.0.html

Ale55andr0
09-06-2020, 13:10
"likely beats NVIDIA GeForce RTX 2080 Ti"

mi pare solo che il minimo auspicabile, se lanceranno la top per prima...



"Leaks indicate that Big Navi is a 64 CU part not dissimilar to the GPU found in the Xbox Series X. "

ma santissimo iddio, no, NON posso aver letto questo, MI RIFIUTO, bastaaaa :muro: :muro: :muro:



"this would imply performance levels a good 10-15 percent above the NVIDIA GeForce RTX 2080 Ti."

cioè il minimo indispensabile per essere a stento con una 3070. Me cojoni.

Speriamo che l'articolista stia solo elargendo bestialità, facciamo così va'...

Freisar
09-06-2020, 13:45
Dipende dal prezzo....se è buono ci sta!

Gyammy85
09-06-2020, 16:01
Non so davvero da dove abbiano uscito le 64 cu, si è sempre parlato di 80...anche se in realtà 64 cu rdna2 potrebbero andare quanto 80 cu rdna1...

Ton90maz
09-06-2020, 18:00
se ti fai due calcoli alla buona (non stiamo a spaccare il capello 4 e 1/4) quelle architetture amd e nvidia sulle vecchia 1080ti non è che hanno guadagnato il 5%, parliamo di un teorico 40% e 50% (pieno. Scusa se è cosi poco....) e senza l'alibi della banda passante (la 1080ti a 484gb/s, le altre due 448...). Se rdna 2 facesse anche altrettanto o persino poco meno (30%) con una gpu da 56cu spaccheresti comunque i culi abbestia....:sofico:

...comunque rdna 1 rispetto a gcn 1 è comunque Dio onnipotente, fai un'altro esempio che è meglio :asd:Sì ma il paragone andrebbe fatto in condizioni più omogenee. Il tuo confronto è come prendere una cpu a 4 e una a 6 core che vanno uguale in multicore per dire la la prima ha un ipc del 50% superiore. Poi in realtà scopri che non scalano allo stesso modo e che quella a 6 core ha una frequenza più bassa. Il giusto confronto sarebbe contro la 1080, come già fatto notare.
Se fai una cosa del genere tra gcn 1 (tahiti) e gcn 4 (570), e tra gcn 4 (580) e navi (5700), il tutto a parità di banda passante e frequenza, ti rendi conto del reale vantaggio "ipc". DF ha fatto un test simile e a parte alcuni casi estremi in cui navi becca un +120% di "ipc", di solito parliamo di numeri che vanno dal 15 al 40%. Dovrebbero esserci molti più casi verso il 100%, tra l'altro influenzati dalla poca vram, dal supporto driver (almeno al momento del video) e dalla geometria (se vedi il video noti quanto recuperi tahiti senza nvidia peli pubici). E tutto questo senza considerare parametri non controllabili come rops, compressione, geometri, ecc... ci si rende facilmente conto che alla fine contano più i muscoli delle varie supercazzole.


E allora? La Radeon 7 ha 60 cu consuma di più e va più o meno uguale a una 5700xt, direi che il 50% se lo prende tutto di architetturaNo perché per fare un confronto più serio ci vorrebbe una baracca da 40 CU o una navi baraccosa da 60 CU. Così vai ad attribuire all'architettura parte dei vantaggi che invece dipendono dal design del chip.

mikael84
09-06-2020, 23:59
vero. Ma il fatto che amd voglia adottare dissipatori stock TRIVENTOLA fa pensare che l'intenzione sia quella di tirare fuori qualcosa >250watt, magari 290watt come la vecchia vega64lc (e imho andrebbe a ruba tra chi come me piace overcloccare e liquidare tutto il liquidabile :D )

se a questo aggiungi il 50% di perf/watt in più beh, salta fuori una scheda decisamente spinta

Di AMD fascia top, ci sono sempre due problemi da tirare fuori (per carità anche nvidia su 6 TPC), lo scaling con molti CU (DCU), e lo scaling micro architetturale , ancora non si può dire con certezza, se riesca ad abbattere il muro dei 4096st, io finchè non lo vedo abbattuto non ci credo molto.
In passato si sono inventati di tutto via array, pur di non abbattere quel muro, addirittura vega, aveva un CU per i fatti propri, che doveva accedere alla l1 ed l2 non in condivisione, rispetto agli altri gruppi che accedevano in 3 alla l1 ed l2.:)

Boh, 300/350w, mi aspetto che RDNA2 riesca a lottare con la 3080.:)

"likely beats NVIDIA GeForce RTX 2080 Ti"

mi pare solo che il minimo auspicabile, se lanceranno la top per prima...



"Leaks indicate that Big Navi is a 64 CU part not dissimilar to the GPU found in the Xbox Series X. "

ma santissimo iddio, no, NON posso aver letto questo, MI RIFIUTO, bastaaaa :muro: :muro: :muro:



"this would imply performance levels a good 10-15 percent above the NVIDIA GeForce RTX 2080 Ti."



Sinceramente spero che possano effettuare lo scaling finalmente, però come sempre ti dico, ancora non abbiamo nessuna prova che venga effettuato.
Lo so, se entro troppo nel tecnico, vi da fastidio, però per Vega hanno fatto una suddivisione assurda.
Con Navi possono abbatterlo.;)

È inutile, ho provato a spiegarglielo un sacco di volte che il Perf/Watt è diverso dal Perf/Area o Perf/st.

Poi magari il chip delude, e criticano AMD stesso.
Senza ovviamente, mai comprargli nulla.:stordita:


E allora? La Radeon 7 ha 60 cu consuma di più e va più o meno uguale a una 5700xt, direi che il 50% se lo prende tutto di architettura

La 5500xt va il 15% in più rispetto alla 570 a pari TF, solo che la 5500xt ha meno ALU per clock, e rop's molto più veloci (praticamente 32 vs 48).
Il 50% non lo prende.

Gyammy85
10-06-2020, 09:37
È inutile, ho provato a spiegarglielo un sacco di volte che il Perf/Watt è diverso dal Perf/Area o Perf/st.

Guarda io non sono nato ieri, quindi sti atteggiamenti sono fuori luogo
Allora te lo spiego diversamente: possono fare una vga che nel consumo di 5700xt va il 50% in più, indovina un pò quanto potrebbe andare una rdna2 da 300 watt o giù di lì?


Boh, 300/350w, mi aspetto che RDNA2 riesca a lottare con la 3080.:)

Mi sembra il minimo, a sto giro si andrà a ridosso delle ti o 3090 come la chiameranno, se i leak sono veri


Sinceramente spero che possano effettuare lo scaling finalmente, però come sempre ti dico, ancora non abbiamo nessuna prova che venga effettuato.
Lo so, se entro troppo nel tecnico, vi da fastidio, però per Vega hanno fatto una suddivisione assurda.
Con Navi possono abbatterlo.;)


Mah, sta storia è come koduri che aveva progettato tutte le rdna fino alla 5 ma per qualche motivo lanciò solo failvega e pollaris per ripicca :asd:
Non può essere che semplicemente hanno preferito lavorare sull'efficienza invece che buttare giù 8000 sp?


Poi magari il chip delude, e criticano AMD stesso.
Senza ovviamente, mai comprargli nulla.:stordita:


Mai mai guarda, ho avuto in tutto 7 vga di cui 6 ati/amd, e non mi sono mai lamentato...deludere? mi sa che le delusioni sono tutte di la a sto giro


La 5500xt va il 15% in più rispetto alla 570 a pari TF, solo che la 5500xt ha meno ALU per clock, e rop's molto più veloci (praticamente 32 vs 48).
Il 50% non lo prende.

Polaris ha il 60% in più di cu su navi 14, che nei giochi va come 580/590, quindi sto 50% c'è, e amd stessa dice che è una combinazione di vari elementi come clock ipc e logica, perché fa riferimento al perf/watt
Basta vedere radeon 7 vs 5700xt, e direi che è lampante, quindi c'è ben poco da aggiungere

AceGranger
10-06-2020, 10:12
Polaris ha il 60% in più di cu su navi 14, che nei giochi va come 580/590, quindi sto 50% c'è, e amd stessa dice che è una combinazione di vari elementi come clock ipc e logica, perché fa riferimento al perf/watt
Basta vedere radeon 7 vs 5700xt, e direi che è lampante, quindi c'è ben poco da aggiungere

fra Radeon 7 e 5700xt non c'è mica il 50% di perf/watt.

https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/performance-per-watt_2560-1440.png


a parita di transistor su stesso pp quello è il guadagno dell'archittura Navi, il resto del salto grande da Vega a Navi è solo merito del silicio.

Gyammy85
10-06-2020, 10:31
fra Radeon 7 e 5700xt non c'è mica il 50% di perf/watt.

https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/performance-per-watt_2560-1440.png


a parita di transistor su stesso pp quello è il guadagno dell'archittura Navi, il resto del salto grande da Vega a Navi è solo merito del silicio.

Allora prendiamo i due sweet spot, 5700 vs vega 56

perf/watt +60%
perf assolute +15% in media
-35% di cu
per/CU +88%

Quello è non si scappa, il silicio contribuisce ma il grosso è l'architettura

Ripeto, quanto andrebbe una rdna2 da 300 watt?

AceGranger
10-06-2020, 11:05
Allora prendiamo i due sweet spot, 5700 vs vega 56

perf/watt +60%
perf assolute +15% in media
-35% di cu
per/CU +88%

Quello è non si scappa, il silicio contribuisce ma il grosso è l'architettura


è proprio il contrario ed è la Radeon 7 a pari nm con la 5700XT a dimostrartelo.

perchè se avessi una Vega56 a 7nm avresti lo stesso gap fra le 2 qui sopra.


Ripeto, quanto andrebbe una rdna2 da 300 watt?

dipende da quanti transistor decideranno di mettere nel chip; ci sono vari modi per arrivare a 300W di TDP.

la mia idea è che la GPU da 300 W andra un po piu del doppio di una 5700XT.

mircocatta
10-06-2020, 11:38
fra Radeon 7 e 5700xt non c'è mica il 50% di perf/watt.

https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/performance-per-watt_2560-1440.png


a parita di transistor su stesso pp quello è il guadagno dell'archittura Navi, il resto del salto grande da Vega a Navi è solo merito del silicio.

il +50% perf/watt sbandierato da amd credo si riferisse a gcn @ 14nm, cioè vega56/64 e se promettono altrettanto tra rnda e rnda2 non vedo perchè non credergli

Ton90maz
10-06-2020, 12:15
Allora prendiamo i due sweet spot, 5700 vs vega 56

perf/watt +60%
perf assolute +15% in media
-35% di cu
per/CU +88%

Quello è non si scappa, il silicio contribuisce ma il grosso è l'architettura

Ripeto, quanto andrebbe una rdna2 da 300 watt?NO! A parte che per/cu non capisco cosa sia (performance per watt normqlizzato per cu con scappellamento a destra?)
Il performance per cu con i numeri che hai dati è 70 e qualcosa% (edit: avevo fatto un errore di calcolo) ma...
1) navi ha un clock più alto
2) ha un filo di banda in più
3) c'ha 36 cinesini, non 56

Andy1111
10-06-2020, 14:09
https://www.tomshw.it/hardware/amd-conferma-laumento-delle-frequenze-per-le-gpu-rdna2/

AMD conferma l’aumento delle frequenze per le GPU RDNA2

Il Team Red però non si è limitato ad un semplice boost delle velocità, ma così come avvenuto con RDNA la società è riuscita ad ottenere un miglioramento dell’IPC (Instructions Per Clock) del 50% rispetto alla precedente architettura.

Gyammy85
10-06-2020, 15:23
https://www.tomshw.it/hardware/amd-conferma-laumento-delle-frequenze-per-le-gpu-rdna2/

AMD conferma l’aumento delle frequenze per le GPU RDNA2

Il Team Red però non si è limitato ad un semplice boost delle velocità, ma così come avvenuto con RDNA la società è riuscita ad ottenere un miglioramento dell’IPC (Instructions Per Clock) del 50% rispetto alla precedente architettura.

Hanno interpretato (male) questa slide

https://i.postimg.cc/Y01KV86B/Annotazione-2020-06-10-161702.jpg (https://postimg.cc/7JYWJ3tK)

Tra l'altro

https://i.postimg.cc/2882g2Fd/Annotazione-2020-06-10-161808.jpg (https://postimg.cc/Rqy7H1Yq)

Ale55andr0
10-06-2020, 15:36
https://www.tomshw.it/hardware/amd-conferma-laumento-delle-frequenze-per-le-gpu-rdna2/

AMD conferma l’aumento delle frequenze per le GPU RDNA2

Il Team Red però non si è limitato ad un semplice boost delle velocità, ma così come avvenuto con RDNA la società è riuscita ad ottenere un miglioramento dell’IPC (Instructions Per Clock) del 50% rispetto alla precedente architettura.

speriamo, sarebbe pazzesco

mikael84
10-06-2020, 15:41
Mi sembra il minimo, a sto giro si andrà a ridosso delle ti o 3090 come la chiameranno, se i leak sono veri

Sperare non costa nulla. non ci credo, però tutto può essere.:)


Mah, sta storia è come koduri che aveva progettato tutte le rdna fino alla 5 ma per qualche motivo lanciò solo failvega e pollaris per ripicca :asd:
Non può essere che semplicemente hanno preferito lavorare sull'efficienza invece che buttare giù 8000 sp?

Con il PP e ram di prima, navi non si poteva realizzare.;)
Lo scaling attualmente è da abbattere.

Sull'efficienza è quello che ti dico sempre, meglio un meno stadi, ma più efficienti o più clockati. Per fortuna che ne abbiamo discusso un mesetto fa.
Avere tante CU che non scalano e clock più bassi serve a poco.
Diverso dai chip HPC, dove sfrutti la potenza bruta.;)

A proposito la CDNA con 8196 st quando esce?


Mai mai guarda, ho avuto in tutto 7 vga di cui 6 ati/amd, e non mi sono mai lamentato...deludere? mi sa che le delusioni sono tutte di la a sto giro

Mi chiedevo, come mai fossi così fanatico, e non gli hai neppure comprato un ryzen, una 5700 liscia, considerando la CPU che hai.
Con queste CPU fantastiche, penso che AMD si meriti di essere acquistata.;)



Polaris ha il 60% in più di cu su navi 14, che nei giochi va come 580/590, quindi sto 50% c'è, e amd stessa dice che è una combinazione di vari elementi come clock ipc e logica, perché fa riferimento al perf/watt
Basta vedere radeon 7 vs 5700xt, e direi che è lampante, quindi c'è ben poco da aggiungere

Beh no, vince la soluzione con più clock, rispetto a quella con più CU. In primis la prima è come se avesse 48 rop's, la BW è simile (570), ed a 18 performa quanto la 570.

fraussantin
10-06-2020, 15:44
speriamo, sarebbe pazzescoUna cosa è certa : se è vero che Nvidia spinge a 300+watt la 3080 è perchè amd ha qualcosa di grosso in cantiere.
Altrimenti non sarebbe servito.

Ale55andr0
10-06-2020, 15:53
Una cosa è certa : se è vero che Nvidia spinge a 300+watt la 3080 è perchè amd ha qualcosa di grosso in cantiere.
Altrimenti non sarebbe servito.

come sopra, speriamo

The_SaN
10-06-2020, 16:18
Guarda io non sono nato ieri, quindi sti atteggiamenti sono fuori luogo
Allora te lo spiego diversamente: possono fare una vga che nel consumo di 5700xt va il 50% in più, indovina un pò quanto potrebbe andare una rdna2 da 300 watt o giù di lì?

Sul fatto che tu non sia nato ieri ci mancherebbe pure, hai 3 anni in più di me :asd:
Più che altro di che atteggiamento fuori luogo parli? Delle critiche che ho fatto ai tuoi commenti?
Perché più che provare a spiegarti che il Perf/watt vuol dire solo efficienza non so che fare. L'hai rigirata in 50 modi diversi fino ad arrivare ad una 5500xt che andrà come o oltre una 5700xt.

Sull'ultima frase sono d'accordo, tra l'altro era l'esempio che avevo fatto io. Però la scheda da 300W devi farla.

Ton90maz
10-06-2020, 16:31
Polaris ha il 60% in più di cu su navi 14, che nei giochi va come 580/590, quindi sto 50% c'è, e amd stessa dice che è una combinazione di vari elementi come clock ipc e logica, perché fa riferimento al perf/watt
Basta vedere radeon 7 vs 5700xt, e direi che è lampante, quindi c'è ben poco da aggiungere

Beh no, vince la soluzione con più clock, rispetto a quella con più CU. In primis la prima è come se avesse 48 rop's, la BW è simile (570), ed a 18 performa quanto la 570.

Comunque, Navi vs Polaris con la stessa banda passante, stesso clock e stesso numero di CU ci porta ai seguenti risultati:
Firestrike DX11: +18%
Timespy DX12: +36%
GFXbench compute: +26%
Assassin's Creed Unity 1440p: +18%
Far Cry 5 1440p: +30%
Crysis 3 1440p: +24%
Wildlands 1440p: +31%
The Witcher 3 1440p: +30%
Wolfenstein: the new colossus 1080p: +25%
Shadow of the tomb raider 1080p: +29%

Ale55andr0
10-06-2020, 17:43
Comunque, Navi vs Polaris con la stessa banda passante, stesso clock e stesso numero di CU ci porta ai seguenti risultati:
Firestrike DX11: +18%
Timespy DX12: +36%
GFXbench compute: +26%
Assassin's Creed Unity 1440p: +18%
Far Cry 5 1440p: +30%
Crysis 3 1440p: +24%
Wildlands 1440p: +31%
The Witcher 3 1440p: +30%
Wolfenstein: the new colossus 1080p: +25%
Shadow of the tomb raider 1080p: +29%

che è un +27% medio. Se zen 4000 vs 3000 facendo un esempio al volo, avesse quel guadagno di ipc diremmo che è poco o che è un botto? Se la nuova gpu avesse quel guadagno di ipc ma con in più 80CU e più clock che verrebbe fuori?

The_SaN
10-06-2020, 18:26
che è un +27% medio. Se zen 4000 vs 3000 facendo un esempio al volo, avesse quel guadagno di ipc diremmo che è poco o che è un botto? Se la nuova gpu avesse quel guadagno di ipc ma con in più 80CU e più clock che verrebbe fuori?

Però è anche vero che tra Polaris e Navi c'è Vega di mezzo...quindi magari facciamo la differenza tra Ryzen 2000 e 4000 :D

mikael84
10-06-2020, 18:45
Comunque, Navi vs Polaris con la stessa banda passante, stesso clock e stesso numero di CU ci porta ai seguenti risultati:
Firestrike DX11: +18%
Timespy DX12: +36%
GFXbench compute: +26%
Assassin's Creed Unity 1440p: +18%
Far Cry 5 1440p: +30%
Crysis 3 1440p: +24%
Wildlands 1440p: +31%
The Witcher 3 1440p: +30%
Wolfenstein: the new colossus 1080p: +25%
Shadow of the tomb raider 1080p: +29%

Che hai fatto 5500xt vs 570?:)

che è un +27% medio. Se zen 4000 vs 3000 facendo un esempio al volo, avesse quel guadagno di ipc diremmo che è poco o che è un botto? Se la nuova gpu avesse quel guadagno di ipc ma con in più 80CU e più clock che verrebbe fuori?

Alessandro per l'IPC devi guardare i transistor.
La 5500xt (a cui manca un DCU, precisiamo) ha 6,4mtransistor, la 580/90 ne ha 5,7mt.
La 5700xt ne ha 10,3 (81% di transistor) rispetto a polaris (78% su tpu di prestazioni).

Non è tutto, per carità, ci sono tanti parametri da valutare.

La xbox ha invariato tutto, se non i DCU il 10% più grandi, ma con "hardware RT"
Difficile prevedere grossi salti di IPC, se non di clock.;)

Chissà che si inventeranno per riempire i 505mm2.:)

Ale55andr0
10-06-2020, 18:46
Però è anche vero che tra Polaris e Navi c'è Vega di mezzo...quindi magari facciamo la differenza tra Ryzen 2000 e 4000 :D

o magari sarà un +50 sul serio :O

Ton90maz
10-06-2020, 20:04
Che hai fatto 5500xt vs 570?:)
E' di digital foundry. Sono 580 e 5700 a 1 GHz e 256 GB/s di banda passante

AceGranger
10-06-2020, 20:07
che è un +27% medio. Se zen 4000 vs 3000 facendo un esempio al volo, avesse quel guadagno di ipc diremmo che è poco o che è un botto? Se la nuova gpu avesse quel guadagno di ipc ma con in più 80CU e più clock che verrebbe fuori?

imho è una cosa irreale, a meno di non fare un megachippone come nVidia.
a parita di transistor, Radeon 7 vs 5700XT, Navi ha aumentato l'IPC ma ha ridotto il numero di CU; la singola unita è piu potente ( piu grossa come numero di transitor ) ma il numero si è ridotto quindi alla fine i transistor sono sempre quelli, ma il numero ridotto di CU ha fatto si che guadagnasse in efficienza perchè si perde meno con lo scaling.
l'unico modo per aumentare l'IPC è buttarci dentro piu transistor, è quello il numero che si deve sempre guardare; per aumentare IPC e al contempo CU dovrebbero fare un chippone molto grosso.

la 5700XT sono 10 miliardi di transistor, come la 2070 liscia, a parita di pp sarebbero grandi uguali, se raddoppi la 5700XT arrivi a 20 miliardi, 500mm2 e 440W, ma non hai un raddoppio di prestazioni; per aumentare l'IPC a parita di CU dovresti aumentare ulteriormente il numero di transistor, ma non vedo come si possa aumentare CU, IPC e frequenze e stare dentro i 300W o 350 che siano.

almeno, fino a dora, è sempre stato cosi.

nVidia invece di aumentare l'IPC del singolo CUDA ha usato quei transistor in piu creando le varie unita dedicate, FP32, INT32, Tensor e RT Core.
sono 2 approcci differenti ma che alla fine girano sempre intorno a come utilizzare quel determinato numero di transistor.

mikael84
10-06-2020, 23:34
E' di digital foundry. Sono 580 e 5700 a 1 GHz e 256 GB/s di banda passante

Ah ok.
Migliora molto a basso livello, in quanto integra gli shader intrinsic, visti con vega, in culling (2x cull), ed in dx12, visto che a Polaris mancava un'elemento fondamentale come il conservative rasterizer ed il ROV.:)

Free Gordon
11-06-2020, 00:27
"this would imply performance levels a good 10-15 percent above the NVIDIA GeForce RTX 2080 Ti."
cioè il minimo indispensabile per essere a stento con una 3070. Me cojoni.


Dipenderà sempre da quanto costerà e quanto sarà grossa (die/transistors).

Se AMD facesse una scheda competitiva su tutti i fronti, con 3070 e 3080 andrebbe benissimo non credi? :)