PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 [229] 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

V1TrU'z
20-06-2019, 17:31
la gente parla di rivoluzione



mahLa tecnologia è rivoluzionaria, ma l'unico esempio ben fatto al momento è metro exodus.
C'è un video di digital foundry che mostra e spiega tutto

Windtears
20-06-2019, 18:05
Hai ragione. Ma loro credo che lo chiamino g-sync compatibile perché forse freesync è un logo registrato da AMD.
Inoltre c'è il discorso di mostrare un' apertura e non una marcia indietro ammettendo quindi che il g-sync non ha avuto la diffusione sperata.

lo standard si chiama adaptive sync, se il monitor lo è E funziona con le schede nvidia si "dovrebbe secondo me" scrivere adaptive sync e non g-sync compatibile perché è la gpu ad essere compatibile con lo standard non il monitor con la scheda.

Si chiama ribaltamento della realtà, detto anche marketing. :asd: e soprattutto in questo modo pare che esista un solo standard e che ha a che fare con G. :(
Sottile come un gpp, ma altrettanto letale IMHO.

G.Pedro
20-06-2019, 18:07
Io fossi in te prenderei una Vega56 a 250€... ;)

E' la scelta più sensata oggi per i 1440p a buon prezzo.

Grazie per il consiglio. :)

La tecnologia è rivoluzionaria, ma l'unico esempio ben fatto al momento è metro exodus.
C'è un video di digital foundry che mostra e spiega tutto

Secondo me l'unico esempio ben fatto è quake 2 rtx, ma è una dimostrazione di cosa avremo in futuro quando le gpu saranno in grado di usare veramente il path tracing e non solo riflessi o ombre in ray tracing appiccicati posticciamente al gioco.

fraussantin
20-06-2019, 18:16
Grazie per il consiglio. :)







Secondo me l'unico esempio ben fatto è quake 2 rtx, ma è una dimostrazione di cosa avremo in futuro quando le gpu saranno in grado di usare veramente il path tracing e non solo riflessi o ombre in ray tracing appiccicati posticciamente al gioco.Quake 2 è l'esempio di quello che il raytracing può fare. Ma è ben lontano dall'essere fatto bene.
Le superfici non hanno un riflesso naturale imho riflettono troppa luce , sembra essere tutto sotto dei riflettori da set di un film. Invece Quake come doom ha una ambientazione scura cupa..

poi il denoise toglie troppa nitidezza alla scena .
Cmq è un inizio.

Ps hanno invece migliorato tanto l'acqua che nella prima versione sembrava non ci fosse niente da come era troppo trasparente. Adesso è ben fatta imho.

Roland74Fun
20-06-2019, 19:01
Se pensiamo che nel 2004 avevamo questo:

https://www.youtube.com/watch?v=lEnt4UghUV0

Ma poi c'è stato anche questo....

https://www.youtube.com/watch?v=DrABiOBwIOs

Ci vuole qualcuno che mi spieghi come diavolo sono riusciti a fare i riflessi in tempo reale di cose che sono fuori campo.

G.Pedro
20-06-2019, 19:08
Quake 2 è l'esempio di quello che il raytracing può fare. Ma è ben lontano dall'essere fatto bene.
Le superfici non hanno un riflesso naturale imho riflettono troppa luce , sembra essere tutto sotto dei riflettori da set di un film. Invece Quake come doom ha una ambientazione scura cupa..

poi il denoise toglie troppa nitidezza alla scena .
Cmq è un inizio.

Ps hanno invece migliorato tanto l'acqua che nella prima versione sembrava non ci fosse niente da come era troppo trasparente. Adesso è ben fatta imho.

Non sono molto esperto, ma ho visto un video in cui spiegavano che è fatto in path tracing che se non ho capito male è un RT più spinto.
È la prima mezza demo, magari migliorano in futuro.

DuttZ
20-06-2019, 20:22
la pulse 11276-02-40G, no, devo cambiare entrambi ma ho deciso di spezzettare la spesa e il monitor lo prende per ultimo, perché con 1440p e una 970 riuscirei a fare poco niente.

comunque la pulse in teoria é una delle migliori custom ma non é la piú indicata per oc estremi, mi accontento di tirarla mantenedola stabile e fresca a liquido

Il succo del discorso é che io, come tanti altri, ho preferito skippare a pié pari questa gen, ripiegando sul "vecchio" in attesa che la situazione prezzi cambi drammaticalmenteHo la pulse, mi arriva a 1.700 e 950, avoja se sale 😄

Inviato dal mio LM-G710 utilizzando Tapatalk

Gigibian
20-06-2019, 22:16
La pulse, ha un TDP di 180w , non scalda e con un po' di undervolt consuma pochissimo

Inviato dal mio LM-G710 utilizzando Tapatalk

Concordo, la Vega 56 pulse é una delle migliori.

Cmq il TDP é 210W.

FaTcLA
20-06-2019, 22:48
Ho la pulse, mi arriva a 1.700 e 950, avoja se sale 😄

É una gioia sentire questa cose :D

Free Gordon
21-06-2019, 02:47
Ma poi c'è stato anche questo....
https://www.youtube.com/watch?v=DrABiOBwIOs
Ci vuole qualcuno che mi spieghi come diavolo sono riusciti a fare i riflessi in tempo reale di cose che sono fuori campo.

:asd:

Roland74Fun
21-06-2019, 10:30
:asd:

Cos'è che ti fa ridere? Non stavo mica scherzando.

Nei giochi più recenti tutti i riflessi sono fatti in SSR e non appena sparisce l'oggetto sparisce il riflesso.
In un video sul canale dell'azienda che produce le schede che implemantano il RT un ingegnere spiega con dovizie di dettagli come con questa nuova tecnologia oggi sia possibile elaborare riflessi di oggetti e soggetti anche in movimento che non siano inquadrati a schermo mentre prima non era possibile.

lo dice intorno al minuto 1.

https://www.youtube.com/watch?v=E9cSYrSdpR0


Ecco perchè mi chiedo in che modo abbiano realizzato questa cosa in GTA 5.
Per non parlare do quello chesi vede in Bioshock 1 e 2 (non remastered) e parliamo del 2008.

Free Gordon
21-06-2019, 10:58
Cos'è che ti fa ridere? Non stavo mica scherzando.
Nei giochi più recenti tutti i riflessi sono fatti in SSR e non appena sparisce l'oggetto sparisce il riflesso.
In un video sul canale dell'azienda che produce le schede che implemantano il RT un ingegnere spiega con dovizie di dettagli come con questa nuova tecnologia oggi sia possibile elaborare riflessi di oggetti e soggetti anche in movimento che non siano inquadrati a schermo mentre prima non era possibile.
lo dice intorno al minuto 1.
https://www.youtube.com/watch?v=E9cSYrSdpR0

Pensavo stessi scherzando, dato che porti spesso come esempio GTA5 nei tuoi post.. :sofico:
Effettivamente i riflessi di GTA son molto "strani".. A me paiono fatti alla vecchia maniera solo con un "tiro" un po' troppo lungo/eccessivo


Ecco perchè mi chiedo in che modo abbiano realizzato questa cosa in GTA 5.
Per non parlare do quello chesi vede in Bioshock 1 e 2 (non remastered) e parliamo del 2008.

https://www.youtube.com/watch?v=H8GM8B_m_Sw

In effetti non ricordavo ma Bioshock era veramente bello da quel pdv... :oink: :oink: :oink:

AceGranger
21-06-2019, 11:12
Cos'è che ti fa ridere? Non stavo mica scherzando.

Nei giochi più recenti tutti i riflessi sono fatti in SSR e non appena sparisce l'oggetto sparisce il riflesso.
In un video sul canale dell'azienda che produce le schede che implemantano il RT un ingegnere spiega con dovizie di dettagli come con questa nuova tecnologia oggi sia possibile elaborare riflessi di oggetti e soggetti anche in movimento che non siano inquadrati a schermo mentre prima non era possibile.

lo dice intorno al minuto 1.

https://www.youtube.com/watch?v=E9cSYrSdpR0


Ecco perchè mi chiedo in che modo abbiano realizzato questa cosa in GTA 5.
Per non parlare do quello chesi vede in Bioshock 1 e 2 (non remastered) e parliamo del 2008.

Pensavo stessi scherzando, dato che porti spesso come esempio GTA5 nei tuoi post.. :sofico:
Effettivamente i riflessi di GTA son molto "strani".. A me paiono fatti alla vecchia maniera solo con un "tiro" un po' troppo lungo/eccessivo

https://www.youtube.com/watch?v=H8GM8B_m_Sw

In effetti non ricordavo ma Bioshock era veramente bello da quel pdv... :oink: :oink: :oink:

sono riflessi pre-renderizzati e non dinamici.

https://www.youtube.com/watch?v=1eMXtBbyE2Q

al minuto 0.25 la moto non ha il riflesso.
oppure al minuto 1.16 i riflessi per terra sono gia illuminati ma le luci ci accendono dopo e nella stassa inquadratura i riflessi dello sfondo passano "attraverso" il suv che invece dovrebbe oscurarli.

i primi 2 punti dove mi è caduto l'occhio, guardando 15 secondi di video saltando qui e li.

Gyammy85
21-06-2019, 11:23
sono riflessi pre-renderizzati e non dinamici.

https://www.youtube.com/watch?v=1eMXtBbyE2Q

al minuto 0.25 la moto non ha il riflesso.
oppure al minuto 1.16 i riflessi per terra sono gia illuminati ma le luci ci accendono dopo e nella stassa inquadratura i riflessi dello sfondo passano "attraverso" il suv che invece dovrebbe oscurarli.

i primi 2 punti dove mi è caduto l'occhio, guardando 15 secondi di video saltando qui e li.

Si ma vedi, a parte il fatto che stiamo parlando di un vecchio motore grafico, per esigenze di gameplay a volte si fanno dei compromessi, non è che per forza tutto deve proiettare l'ombra ovunque, ci vorrebbe una precisione molto molto alta dei calcoli, e sicuramente non lo fai in un gioco del 2013 che doveva girare pure su ps3.
Per me il ray tracing lo stanno spacciando come il metodo per risolvere tutti i problemi, ma non è così, a meno che tu non voglia dirmi che in metro o bf5 rtx on tutto proietta ombre riflessini ovunque nello spazio...manco con fp256 potresti fare tutto senza impastare o sovrapporre.
Vedremo cosa farà amd con rdna 2, ma se già ora fra sharpening, cas e fidelity fx raggiungono risultati migliori del dlss usando fp16, chissà cosa combineranno...

Roland74Fun
21-06-2019, 11:45
sono riflessi pre-renderizzati e non dinamici.

https://www.youtube.com/watch?v=1eMXtBbyE2Q

al minuto 0.25 la moto non ha il riflesso.
oppure al minuto 1.16 i riflessi per terra sono gia illuminati ma le luci ci accendono dopo e nella stassa inquadratura i riflessi dello sfondo passano "attraverso" il suv che invece dovrebbe oscurarli.

i primi 2 punti dove mi è caduto l'occhio, guardando 15 secondi di video saltando qui e li.

Verissimo. I riflessi nelle pozzanghere sono statici e non riflettono dinamicamente. Potrebbero essere stati fatti con un cubemaps molto accurato.

Ma nel caso specifico del mio video avviene invece che le persone vengono riflesse nel laghetto e quendo sparo scappano da tutte le parti ed anche se non le inquadro le posso vederle dallo specchio d'acqua. (ad esempio la donna sul ponticello che scappa non appena sparo nell'acqua).
Per quello sono incuriosito dal sapere quale tecnica hanno usato, visto che mi pare impossibile che possano precalcolare i riflessi di scene in tempo reale.

AceGranger
21-06-2019, 12:01
Si ma vedi, a parte il fatto che stiamo parlando di un vecchio motore grafico, per esigenze di gameplay a volte si fanno dei compromessi, non è che per forza tutto deve proiettare l'ombra ovunque, ci vorrebbe una precisione molto molto alta dei calcoli, e sicuramente non lo fai in un gioco del 2013 che doveva girare pure su ps3.
Per me il ray tracing lo stanno spacciando come il metodo per risolvere tutti i problemi,

si, infatti è proprio solo per te.

nVidia lo sta spacciando solo come "guarda come è figo" e punto, che alla fine è quello che è....

lato sviluppatore si, in alcuni ambiti è una semplificazione, grossa semplificazione, sin da subito, in altri si semplifichera nei prossimi anni.

, a meno che tu non voglia dirmi che in metro o bf5 rtx on tutto proietta ombre riflessini ovunque nello spazio...

- la questione della semplificazione non è legata alla distazna di proiezione.
- non li ho e non mi sono informato, non so se abbiano messo il cap alla distanza, ma il cap, se lo metti, lo metti solo per risparmiare potenza elaborativa successiva con la parte shader, ormai il raggio è partito ed è stato calcolato, la parte RT ha gia fatto tutto il lavoro che doveva fare.

manco con fp256 potresti fare tutto senza impastare o sovrapporre.


gli FP non centrano una fava con la distanza.


Vedremo cosa farà amd con rdna 2, ma se già ora fra sharpening, cas e fidelity fx raggiungono risultati migliori del dlss usando fp16, chissà cosa combineranno...

- lato RT AMD fara la stessa cosa, visto che è l'unico modo per farlo, non per altro arrivera non anche lei con hardware dedicato gia annunciato e, aggiungerei, come volevasi dimostrare.

- sharpening è una cosa slegata da cio che fa il DLSS e nVidia lo fa un'altro modo.


Verissimo. I riflessi nelle pozzanghere sono statichi e non riflettono dinamicamente. Potrebbero essere stati fatti con un cubemaps molto accurato.

Ma nel caso specifico del mio video avviene invece che le persone vengono riflesse nel laghetto e quendo sparo scappano da tutte le parti ed anche se non le inquadro le posso vederle dallo specchio d'acqua. (ad esempio la donna sul ponticello che scappa non appena sparo nell'acqua).
Per quello sono incuriosito dal sapere quale tecnica hanno usato, visto che mi pare impossibile che possano precalcolare i riflessi di scene in tempo reale.

bè anche con il metodo classico puoi riflettere un oggetto che esce dall'inquadratura, ma è una riflessione legata alla posizione del dummy

questo video è del 2017, riflessioni classiche

https://www.youtube.com/watch?v=OCMava1ngXM


come vedi, la porta e il water li vedi riflessi comuqnue anche se non sono nell'inquadratura ma come va vedere piu avanti nel video, le riflessioni sono dipendenti da dove tu piazzi il dummy ( o sferetta o box a seconda di come lo vuo ichiamare ) e hai altri problemi di eventuali tagli o deformazioni dipendenti appunto dalla posizione.

il problema delle riflessioni fatte cosi è che devi cospargere la scena di sferette in corrispondenza delle zone dove vuoi le riflessioni ( o credo linkarle ad un oggetto in movimento, ma non ho mai provato con oggetti dinamici ) e ognuna di esse avra una distanza di influenza e dovra essere settata correttamente; nel caso dell'RT abiliti l'RT e bona, di dimentichi di questa fase, diventa del tutto simile a cio che avviene nei software di rendering.

con il Raytracing il passo successivo saranno i materiali fisicamente corretti e interoperabili fra software a cui gia si sta lavorando.

in questo video, al minuto 7.26 circa vedi le riflessioni sulla teiera senza mettere nessuna sferetta.
https://www.youtube.com/watch?v=4ovVJuhYlbE&t=173s

Roland74Fun
21-06-2019, 12:55
il problema delle riflessioni fatte cosi è che devi cospargere la scena di sferette in corrispondenza delle zone dove vuoi le riflessioni ( o credo linkarle ad un oggetto in movimento, ma non ho mai provato con oggetti dinamici ) e ognuna di esse avra una distanza di influenza e dovra essere settata correttamente;

Ok, adesso mi è tutto chiaro, grazie della spiegazione.

Ciò mi conferma che quelli della Rockstar si sono impegnati abbastanza in GTA V.
e sicuramente anche l'enigma di Bioshock è risolto.

Rimane da capire perchè l'ingenere del video ha detto che non si poteva fare.

Free Gordon
21-06-2019, 12:56
sono riflessi pre-renderizzati e non dinamici


Ma a parte che la moto il riflesso ce l'ha... :D delle luci essenzialmente (mica tutto può essere così "specchiato"), è chiaro che è roba non così precisa come quella data dall'RTX, anche se sono semplici specular maps o cose simili il risultato lo ottengono benissimo a mio modo di vedere, piuttosto porrei l'accento su altri particolari nella grafica per renderla migliore: texture più risolute, illuminazione più realistica (Gran Turismo su PS4? https://www.youtube.com/watch?v=UW_VWFVTMFQ colori e luce davvero curati), più dettagli a schermo (più poligoni immagino), ecc..

Cose semplici della classica grafica raster ma che ancora non sono alla loro massima espressione.. tutto imho eh.

Acme
21-06-2019, 13:02
sono riflessi pre-renderizzati e non dinamici.

https://www.youtube.com/watch?v=1eMXtBbyE2Q

al minuto 0.25 la moto non ha il riflesso.
oppure al minuto 1.16 i riflessi per terra sono gia illuminati ma le luci ci accendono dopo e nella stassa inquadratura i riflessi dello sfondo passano "attraverso" il suv che invece dovrebbe oscurarli.

i primi 2 punti dove mi è caduto l'occhio, guardando 15 secondi di video saltando qui e li.

Mi sa che ancora per molti non è chiaro a cosa serve e come funziona il Ray T.
IMHO

AceGranger
21-06-2019, 13:05
Ma a parte che la moto il riflesso ce l'ha... :D delle luci essenzialmente (mica tutto può essere così "specchiato"), è chiaro che è roba non così precisa come quella data dall'RTX, anche se sono semplici specular maps o cose simili il risultato lo ottengono benissimo a mio modo di vedere, piuttosto porrei l'accento su altri particolari nella grafica per renderla migliore: texture più risolute, illuminazione più realistica (Gran Turismo su PS4? https://www.youtube.com/watch?v=UW_VWFVTMFQ colori e luce davvero curati), più dettagli a schermo (più poligoni immagino), ecc..

Cose semplici della classica grafica raster ma che ancora non sono alla loro massima espressione.. tutto imho eh.

non li ha... li dovrebbe esserci il suo riflesso a specchio a coprire quello dell'edificio;

è una moto volante :p

https://i.imgsafe.org/cc/cc743eee90.jpeg

l'illuminazione piu realistica è sempre e solo legata al Raytracing.

per le texture è un problema di limite minimo della GPU che sceglie lo sviluppatore; la scalabilita, quando si parla di texture, è una mezza fuffa.

G.Pedro
21-06-2019, 13:12
bè anche con il metodo classico puoi riflettere un oggetto che esce dall'inquadratura, ma è una riflessione legata alla posizione del dummy

questo video è del 2017, riflessioni classiche

https://www.youtube.com/watch?v=OCMava1ngXM


come vedi, la porta e il water li vedi riflessi comuqnue anche se non sono nell'inquadratura ma come va vedere piu avanti nel video, le riflessioni sono dipendenti da dove tu piazzi il dummy ( o sferetta o box a seconda di come lo vuo ichiamare ) e hai altri problemi di eventuali tagli o deformazioni dipendenti appunto dalla posizione.

il problema delle riflessioni fatte cosi è che devi cospargere la scena di sferette in corrispondenza delle zone dove vuoi le riflessioni ( o credo linkarle ad un oggetto in movimento, ma non ho mai provato con oggetti dinamici ) e ognuna di esse avra una distanza di influenza e dovra essere settata correttamente; nel caso dell'RT abiliti l'RT e bona, di dimentichi di questa fase, diventa del tutto simile a cio che avviene nei software di rendering.

con il Raytracing il passo successivo saranno i materiali fisicamente corretti e interoperabili fra software a cui gia si sta lavorando.

in questo video, al minuto 7.26 circa vedi le riflessioni sulla teiera senza mettere nessuna sferetta.
https://www.youtube.com/watch?v=4ovVJuhYlbE&t=173s

Scusa ma quindi il vantaggio del ray tracing si riduce solamente a non dover mettere il dummy per ogni oggetto?
Si ok, poi sarà anche più realistico il riflesso, ma non credo piazzare il dummy provochi tutto questo sudore agli sviluppatori.
Anzi in un motore grafico non basta fare in modo che tutti gli oggetti abbiano sempre automaticamente il dummy per i riflessi?

AceGranger
21-06-2019, 13:44
Scusa ma quindi il vantaggio del ray tracing si riduce solamente a non dover mettere il dummy per ogni oggetto?


ah certo, finche non sei tu a farlo è sempre tutto molto semplice e veloce :p, poi quando in una mappa di gioco hai magari un centinaio di dummy che devi gestirre fra bug e modifiche di materiali o dell'ambiente fidati inizi a pensarla in altro modo :p


Si ok, poi sarà anche più realistico il riflesso, ma non credo piazzare il dummy provochi tutto questo sudore agli sviluppatori.


il punto è che l'RT non lo metti solo per una cosa, lo metti per tutto.... AO, Ombre, Riflessi e tutto concorre ad ottenere il realismo.

Metro, Tomb Ryder, e BF5 sono usciti ognuno con una sola peculiarita dell'RT perchè erano ormai gia a fine sviluppo e per questioni di tempistiche nVidia ha "suddiviso" il marketing su 3 tripla A, ognuno con un effetto, vedendo anche chi aveva il problema e con cosa...

BF5 sarebbe stato sicuramente meglio con l'AO o le ombre, ma con tutte quelle distruzioni presumo avrebbe creato troppi problemi di implementazione, visto che il gioco era gia finito... e non ho Tomb Ryder, ma non credo che in tutte quelle foreste o fra i ruderi in pietra se si sarebbero potute vedere molte riflessioni....


Anzi in un motore grafico non basta fare in modo che tutti gli oggetti abbiano sempre automaticamente il dummy per i riflessi?


il raster ha un problema di fondo che è il numero di interazioni che è in grado di gestire; l'RT è pesante a prescinderei, sia che ci siano 10 luci e 10 riflessioni, sia che ce ne siano 40, pero è un valore sul quale puo iia fare dei ragionamenti.

Con il raster le cose si complicano molto all'aumentare delle interazioni, infatti molte volte vedi alcuni oggetti che proiettano le ombre solo di determinate luci o riflettono solo determinati oggetti, quindi non puoi piazzare 1000 luci e 1000 sfere

e poi non è solo una questione di oggetti, ma anche di dove hai i riflessi...
es, la strada ha 10 pozze, è 1 oggetto unico ma tu magari dovrai mettere i dummy in corrispondenza di ogni pozzanghera... perchè seno rischi che una abbia una riflessione corretta e le altre di cacca o nulla... non è una regola fissa;
e il numero di queste interazioni le devi decidere anche in base alla GPU minima che vorrai supportare...

se fosse tutto cosi semplice, non costerebbe milioni di dollari fare un videogioco, e potremmo farlo io e te fra una partitella e una pizza :D



In futuro si avranno titoli piu ottimizzati; è solo l'inizio e ti direi, meglio cosi, sono usciti prima e gli sviluppatori hanno iniziato prima, e prima i game engine si adatteranno; quando l'anno prossimo arrivera AMD non ci metteranno 6 mesi a tirare fuori gli aggiornamenti, ma ce ne metteranno magari solo 2 o 3 perchè il grosso è gia stato fatto ora e i giochi saranno oltretutto gia pensati maggiormente all'RT.

quindi, al dila delle giuste lamentele del costo delle GPU, è semplicemente da stupidi remare contro l'RT, perchè se ne avvantaggera anche AMD del lavoro fatto fino a quando non lancera la sua variante di RT.

G.Pedro
21-06-2019, 13:55
ah certo, finche non sei tu a farlo è sempre tutto molto semplice e veloce :p, poi quando in una mappa di gioco hai un centinaio di dummy magari inizi a pensarla in altro modo....



il punto è che l'RT non lo metti solo per una cosa, lo metti per tutto.... AO, Ombre, Riflessi e tutto concorre ad ottenere il realismo.

Metro, Tomb Ryder, e BF5 sono usciti ognuno con una sola peculiarita dell'RT perchè erano ormai gia a fine sviluppo e per questioni di tempistiche nVidia ha "suddiviso" il marketing su 3 tripla A, ognuno con un effetto, vedendo anche chi aveva il problema e con cosa...

BF5 sarebbe stato sicuramente meglio con l'AO o le ombre, ma con tutte quelle distruzioni presumo avrebbe creato troppi problemi di implementazione, visto che il gioco era gia finito... e non ho Tomb Ryder, ma non credo che in tutte quelle foreste o fra i ruderi in pietra se si sarebbero potute vedere molte riflessioni....




il raster ha un problema di fondo che è il numero di interazioni che è in grado di gestire; l'RT è pesante a prescinderei, sia che ci siano 10 luci e 10 riflessioni, sia che ce ne siano 40, pero è un valore sul quale puo iia fare dei ragionamenti.

Con il raster le cose si complicano molto all'aumentare delle interazioni, infatti molte volte vedi alcuni oggetti che proiettano le ombre solo di determinate luci o riflettono solo determinati oggetti, quindi non puoi piazzare 1000 luci e 1000 sfere

e poi non è solo una questione di oggetti, ma anche di dove hai i riflessi...
es, la strada ha 10 pozze, è 1 oggetto unico ma tu magari dovrai mettere i dummy in corrispondenza di ogni pozzanghera... perchè seno rischi che una abbia una riflessione corretta e le altre di cacca o nulla... non è una regola fissa;
e il numero di queste interazioni le devi decidere anche in base alla GPU minima che vorrai supportare...

se fosse tutto cosi semplice, non costerebbe milioni di dollari fare un videogioco, e potremmo farlo io e te fra una partitella e una pizza :D



In futuro si avranno titoli piu ottimizzati; è solo l'inizio e ti direi, meglio cosi, sono usciti prima e gli sviluppatori hanno iniziato prima, e prima i game engine si adatteranno; quando l'anno prossimo arrivera AMD non ci metteranno 6 mesi a tirare fuori gli aggiornamenti, ma ce ne metteranno magari solo 2 o 3 perchè il grosso è gia stato fatto ora e i giochi saranno oltretutto gia pensati maggiormente all'RT.

quindi, al dila delle giuste lamentele del costo delle GPU, è semplicemente da stupidi remare contro l'RT, perchè se ne avvantaggera anche AMD del lavoro fatto fino a quando non lancera la sua variante di RT.

Capisco, grazie per la spiegazione.
Intanto mi sto documentando un po' (anche per capire se vale la pena di puntare ad una scheda con RT o no per la prossima).
Mi sembra di aver capito che comunque anche il RT come è inteso oggi sia un po' macchinoso proprio perchè comunque applicato successivamente ad un ambiente raster.
Per avere la massima semplicità bisognerebbe essere in un ambiente completamente RT ma sarebbe troppo pesante, giusto?

Scusa se ne approfitto :)

AceGranger
21-06-2019, 14:08
Capisco, grazie per la spiegazione.
Intanto mi sto documentando un po' (anche per capire se vale la pena di puntare ad una scheda con RT o no per la prossima).
Mi sembra di aver capito che comunque anche il RT come è inteso oggi sia un po' macchinoso proprio perchè comunque applicato successivamente ad un ambiente raster.
Per avere la massima semplicità bisognerebbe essere in un ambiente completamente RT ma sarebbe troppo pesante, giusto?

Scusa se ne approfitto :)


l'RT visto fino ad oggi è stato applicato in corsa a giochi sostanzialmente sviluppati quasi in toto, visto che mediamente un videogioco tripla A impega un 3 annetti....
implementazioni migliori presumo le avremo con giochi come Mechwarrior 5 o Cyberpunk 2077, dove l'RT è arrivato ad un livello piu embrionale di sviluppo.

Io non mi occupo di game ma di ambienti architettonici navigabili in Real Time, quindi ho da gestire ambienti piu piccoli, senza altra roba come omini, esplosioni, meccaniche di gioco etc .etc.
comunque, al dila di cio, vista la potenza necessaria, attualmente escluderei categoricamente un gioco Tripla A interamente RT, anche perchè io lavoro parametrando tutto su una 2080Ti, uno che fa un game, anche se Tripla A, magari lo vuole anche vendere a qualcuno che non sia l'1% del mercato :D

e comqunque tieni conto che, nelle idee di nVidida, l'RT sarebbe da impiegarsi assieme al DLSS che, anche in questo caso, per questioni di tempo e di giochi gia finiti, non abbiano ancora visto in combinazione ma stanno arrivando.

AMD l'anno prossimo arrivra comuqnue con un sistema concettualmente simile, perchè ci vorra almeno un'altra gen, il dopo Ampere o RDNA 3, per avere una potenza di base RT anche sulle entry lvl.

Raven
21-06-2019, 14:33
Scusate, per quale motivo sono pagine che parlate di RTX in questo topic?

Stavo per scriverlo anch'io... ho capito che ormai di utenza AMD qua ne è rimasta poca... ma in effetti saremmo in un thread che, almeno nelle intenzioni, si intitola "Aspettando le nuove VGA AMD Radeon"...


lo scrivo anche io:

STOP OT!!!

>bYeZ<

boh... ma davvero non ce la fate a parlare di RT sul thread delle RTX?!?!

G.Pedro
21-06-2019, 14:52
Chiedo perdono, non lo faccio più. :ave:

È che era interessante :)
E poi ci arriveranno anche le radeon prima o poi no?

mircocatta
21-06-2019, 14:54
Chiedo perdono, non lo faccio più. :ave:

È che era interessante :)
E poi ci arriveranno anche le radeon prima o poi no?

https://images-wixmp-ed30a86b8c4ca887773594c2.wixmp.com/f/7c071721-3c4a-4995-a83c-c0c68311c81c/d6s0gxr-e4ae4f56-c052-4554-b6a3-d644085c4c08.png?token=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJzdWIiOiJ1cm46YXBwOjdlMGQxODg5ODIyNjQzNzNhNWYwZDQxNWVhMGQyNmUwIiwiaXNzIjoidXJuOmFwcDo3ZTBkMTg4OTgyMjY0MzczYTVmMGQ0MTVlYTBkMjZlMCIsIm9iaiI6W1t7InBhdGgiOiJcL2ZcLzdjMDcxNzIxLTNjNGEtNDk5NS1hODNjLWMwYzY4MzExYzgxY1wvZDZzMGd4ci1lNGFlNGY1Ni1jMDUyLTQ1NTQtYjZhMy1kNjQ0MDg1YzRjMDgucG5nIn1dXSwiYXVkIjpbInVybjpzZXJ2aWNlOmZpbGUuZG93bmxvYWQiXX0.tBTchkAiAIyHE2iCgXyCaR1tidNidHkQDQmmClkx5DI

AceGranger
21-06-2019, 15:26
boh... ma davvero non ce la fate a parlare di RT sul thread delle RTX?!?!

bè in realta riguardera anche le RDNA2 :D

Roland74Fun
21-06-2019, 16:14
E poi ci arriveranno anche le radeon prima o poi no?

Fra 3 o 4 generazioni forse.

DuttZ
22-06-2019, 17:15
Torniamo in tema.

Leak

https://www.notebookcheck.net/Navi-12-14-21-and-Lite-variants-of-AMD-s-latest-GPU-range-revealed-in-Linux-driver-code-RX-5800-could-take-on-the-GeForce-RTX-2080.424788.0.html

Inviato dal mio LM-G710 utilizzando Tapatalk

fraussantin
22-06-2019, 17:23
Torniamo in tema.

Leak

https://www.notebookcheck.net/Navi-12-14-21-and-Lite-variants-of-AMD-s-latest-GPU-range-revealed-in-Linux-driver-code-RX-5800-could-take-on-the-GeForce-RTX-2080.424788.0.html

Inviato dal mio LM-G710 utilizzando TapatalkMa allora arturito è con le hbm?

The_SaN
22-06-2019, 19:14
Ma allora arturito è con le hbm?

Si presume di si (tra l'altro pure Mikael l'ha sempre sostenuto)

mircocatta
22-06-2019, 19:43
Torniamo in tema.

Leak

https://www.notebookcheck.net/Navi-12-14-21-and-Lite-variants-of-AMD-s-latest-GPU-range-revealed-in-Linux-driver-code-RX-5800-could-take-on-the-GeForce-RTX-2080.424788.0.html

Inviato dal mio LM-G710 utilizzando Tapatalk

mah, così a naso direi che è più facile che navi21 sia 64-60/56CU e non 64/80, perchè per battagliare con una 2080ti basterebbe una 64CU*, l'80CU andrebbe ben oltre (anche in consumi)



*con 4096SP anche solo a 1800mhz raggiungerebbe 14.7tf (15.5 a 1900mhz) e se è confermato che i "Tf di RDNA" sono un pò più veritieri rispetto alle vecchie amd, direi che bastano per superare la 2080ti (14.2tf), contando anche di ampio bandwidth (se monteranno 16gb di hbm2) che sicuramente aiuterà

Ale55andr0
22-06-2019, 20:01
proprio parlando di ram io invece mi chiedevo se davvero le nuove console monteranno 24gb di ram con 3-4 allocati per il SO (ma alcuni leak parlano di ram di sistema separata...) cosa ci faremo con le schede video da 8-16gb? Ok fisica, ia ecc occupano spazio anche loro ma imho resterebbe comunque un gran vantaggio lato frame buffer rispetto una vga da 8gb/12gb

Ton90maz
22-06-2019, 22:20
Torniamo in tema.

Leak

https://www.notebookcheck.net/Navi-12-14-21-and-Lite-variants-of-AMD-s-latest-GPU-range-revealed-in-Linux-driver-code-RX-5800-could-take-on-the-GeForce-RTX-2080.424788.0.html

Inviato dal mio LM-G710 utilizzando Tapatalk

Sarebbe triste se usassero la ram della disperazione già nella fascia successiva di quella dei chippini da 251 mm quadrati, si ripeterebbe la minchiata polaris-vega.
Preferirei una gpu intermedia col bus a 384 bit e i fantasmagorici 96 cosi che invidia ha dal 2015.
Anche se dovessero costare tanto al lancio, potrebbero calare di prezzo nel lungo periodo. In genere amd ricicla fino alla morte le vecchie gpu, in teoria la mia idea di navi big avrebbe più possibilità di calare di prezzo di un'altra baracca con le caccabiemme.

HadesSaint
22-06-2019, 22:45
okk direi di puntare a questa 5700Xt :)

mikael84
22-06-2019, 23:14
proprio parlando di ram io invece mi chiedevo se davvero le nuove console monteranno 24gb di ram con 3-4 allocati per il SO (ma alcuni leak parlano di ram di sistema separata...) cosa ci faremo con le schede video da 8-16gb? Ok fisica, ia ecc occupano spazio anche loro ma imho resterebbe comunque un gran vantaggio lato frame buffer rispetto una vga da 8gb/12gb

Le ram a doppia densità le ha solo Samsung per ora, e Micron è indietro anni luce. L'unico modo per la massa è utilizzare ram in modalità a "conchiglia"8 bit, ma anche questa soluzione per ora viene usata solo sulla quadro RTX8000 per garantire 48gb.

Sarebbe triste se usassero la ram della disperazione già nella fascia successiva di quella dei chippini da 251 mm quadrati, si ripeterebbe la minchiata polaris-vega.
Preferirei una gpu intermedia col bus a 384 bit e i fantasmagorici 96 cosi che invidia ha dal 2015.
Anche se dovessero costare tanto al lancio, potrebbero calare di prezzo nel lungo periodo. In genere amd ricicla fino alla morte le vecchie gpu, in teoria la mia idea di navi big avrebbe più possibilità di calare di prezzo di un'altra baracca con le caccabiemme.

Il bus lo puoi aumentare, ma ti fermi sempre a 64 rop's, in quanto non si può rasterizzare a 24 pixel. Nvidia usa 6 raster per farlo (6x16), ed anche lei è limitata a 16. La 2070 e la 2080ti memorizzano 24 pixel ma per limite raster sono castrate a 16. ;)
L'unico modo è aumentare gli engine.

DuttZ
22-06-2019, 23:37
mah, così a naso direi che è più facile che navi21 sia 64-60/56CU e non 64/80, perchè per battagliare con una 2080ti basterebbe una 64CU*, l'80CU andrebbe ben oltre (anche in consumi)



*con 4096SP anche solo a 1800mhz raggiungerebbe 14.7tf (15.5 a 1900mhz) e se è confermato che i "Tf di RDNA" sono un pò più veritieri rispetto alle vecchie amd, direi che bastano per superare la 2080ti (14.2tf), contando anche di ampio bandwidth (se monteranno 16gb di hbm2) che sicuramente aiuteràSì ma sarà la seconda declinazione di Navi, ovvero quella completa, non possiamo solo fare un presunto calcolo tra le navi di ora, non sappiamo un fico secco di big navi.

Inviato dal mio LM-G710 utilizzando Tapatalk

Free Gordon
23-06-2019, 00:49
mah, così a naso direi che è più facile che navi21 sia 64-60/56CU e non 64/80, perchè per battagliare con una 2080ti basterebbe una 64CU*, l'80CU andrebbe ben oltre (anche in consumi)


Se usano lo stesso schema 5*2 (*4 SE), per ampliare possono fare 7*2 (56CU), 8*2(64) oppure addirittura 9*2 (72) ma non penso proprio di più...
gli Shader engine e quindi le 64 RBE limiterebbero l'espressione di tutto quel potere di calcolo (in uno scenario gaming).

O cambiano lo schema oppure non vedremo più di 64...72CU. (Il taglio da 56 non lo vedo comunque molto sensato).

Se portano gli SE a 8, avremo invece lo stesso schema di Navi ma raddoppiato, quindi 80CU e 128RBE. Questa sarebbe una bbbestia.. :sofico:

mircocatta
23-06-2019, 09:24
Ma secondo voi il dissipatore di queste nuove navi potrebbe essere meno rumoroso dei vecchi amd non Custom? Alla fine anche la vega 56 con uv non era proprio un jet e questo dovrebbe essere migliore e con 180w. I prezzi delle Custom in generale sono allineati ad amd o sono più alti all'uscita?

beh come giusto che sia (in casa nvidia però è il contrario :asd: ) i dissi blower stock costano meno
poi questi sono pure ammaccati :O

razor820
23-06-2019, 09:43
Oggi mi sono fatto una seconda configurazione con scheda video amd e monitor freesync.

Non so a voi, ma venendo da monitor g-sync il freesync è una porcheria. La sincronizzazione fa letteralmente schifo. L unica cosa va ad eliminare il tearing, ma a parità di fps. Tipo 75 per fare un esempio, paragonato con il V sync e g sync sembra andare moooolto meno fluido e scattoso...

Ale55andr0
23-06-2019, 09:53
Le ram a doppia densità le ha solo Samsung per ora, e Micron è indietro anni luce. L'unico modo per la massa è utilizzare ram in modalità a "conchiglia"8 bit, ma anche questa soluzione per ora viene usata solo sulla quadro RTX8000 per garantire 48gb.

.


ma io mi chiedevo cosa succederà a chi ha schede da 8-16gb, non che ram useranno le vga in futuro, cioè fra un annetto o poco più, vedo decisamente poco probabili vga consumer con 24gb di ram :mc: ergo mi chiedo se, come non avveniva da anni, le nuove console si porteranno in vantaggio tecnico, a prescindere dai teraflop :stordita:

zerotre
23-06-2019, 09:56
da vari test fatti da numerosi siti web, ultimo tra i quali tom's...
"l'unica differenza tra le tecnologie gsync e freesync e' il costo del gsync"

e comunque OT

Ale55andr0
23-06-2019, 09:57
Sarebbe triste se usassero la ram della disperazione già nella fascia successiva di quella dei chippini da 251 mm quadrati, si ripeterebbe la minchiata polaris-vega.
Preferirei una gpu intermedia col bus a 384 bit e i fantasmagorici 96 cosi che invidia ha dal 2015.
Anche se dovessero costare tanto al lancio, potrebbero calare di prezzo nel lungo periodo. In genere amd ricicla fino alla morte le vecchie gpu, in teoria la mia idea di navi big avrebbe più possibilità di calare di prezzo di un'altra baracca con le caccabiemme.

facciamo 80cu/5120sp/128rops :sofico:

coi 7 nanometri sarebbe pure ora, pensa che mi aspettavo gli 8192sp (4096x2) dal dopo furi, o comunque un crescendo, invece siamo ancora impantanati su 64cu, non crescono mai di un cacchio ste unità elaborative sulla top di gamma da tanto, troppo tempo



O cambiano lo schema oppure non vedremo più di 64...72CU. (Il taglio da 56 non lo vedo comunque molto sensato).

più facile che nevichi all'inferno. Proprio non ci sentono da quel lato

Se portano gli SE a 8, avremo invece lo stesso schema di Navi ma raddoppiato, quindi 80CU e 128RBE. Questa sarebbe una bbbestia.. :sofico:


cioè quel che sogno io da tempo, vedi sopra

nessuno29
23-06-2019, 10:00
Oggi mi sono fatto una seconda configurazione con scheda video amd e monitor freesync.

Non so a voi, ma venendo da monitor g-sync il freesync è una porcheria. La sincronizzazione fa letteralmente schifo. L unica cosa va ad eliminare il tearing, ma a parità di fps. Tipo 75 per fare un esempio, paragonato con il V sync e g sync sembra andare moooolto meno fluido e scattoso...

Che monitor? Stai paragonando prodotti di pari fascia?

fraussantin
23-06-2019, 10:10
Oggi mi sono fatto una seconda configurazione con scheda video amd e monitor freesync.

Non so a voi, ma venendo da monitor g-sync il freesync è una porcheria. La sincronizzazione fa letteralmente schifo. L unica cosa va ad eliminare il tearing, ma a parità di fps. Tipo 75 per fare un esempio, paragonato con il V sync e g sync sembra andare moooolto meno fluido e scattoso...Sicuro di non essere in borderless?

razor820
23-06-2019, 10:41
Sicuro di non essere in borderless?



Che monitor? Stai paragonando prodotti di pari fascia?



No schermo intero.
Ho provato anche a disabilitarlo il freesync e l&rsquo;unica cosa che ottengo è un po&rsquo; di tearing.

Ho un Acer predator ips g -sync e questo è un LG ips 75hz con freesync amd

Freisar
23-06-2019, 10:41
Big navi for 4k is my dream!

razor820
23-06-2019, 11:19
Hai impostato la frequenza del monitor dentro Windows 10 vero? Spero di sì. Nelle impostazioni del monitor è attivo? Mah. Modello del monitor? Io fossi in te tornerei con invidia e il gsync che amd non va bene.



Si ho impostato sia dal pannello amd che da Windows 10 i 75hz..
Il modello penso che conti solamente a livello di qualità visiva del pannello.
Ho avuto altri monitor. COn stessa tecnologia o 300 euro o 1000 cambiava solo la resa visiva e qualità dei materiali.

Purtroppo mi sono trasferito e ho lasciato la centrale nucleare nella mia città originaria, adesso avevo assemblato qualcosina con amd proprio per avere qualcosa a disposizione

nessuno29
23-06-2019, 11:32
vabbè stai paragonando un monitor da 500 e più euro con un LG basic da 75 hz... che paragoni sono freesync o g sync che sia sono comunque due mondi distanti questi due monitor.

fraussantin
23-06-2019, 11:38
Si ho impostato sia dal pannello amd che da Windows 10 i 75hz..
Il modello penso che conti solamente a livello di qualità visiva del pannello.
Ho avuto altri monitor. COn stessa tecnologia o 300 euro o 1000 cambiava solo la resa visiva e qualità dei materiali.

Purtroppo mi sono trasferito e ho lasciato la centrale nucleare nella mia città originaria, adesso avevo assemblato qualcosina con amd proprio per avere qualcosa a disposizione

Considera che un ips ha anche tanto lag.
I gsync hanno on overdrive nettamente migliore.
E restituiscono una fluidità diversa a schermo.
Se non vedi tearing di suo dovrebbe funzionare.

Senza vsync e senza freesync attivo ( quindi con tearing) la fluidità come la vedi?

Skelevra
23-06-2019, 11:39
Sicuro di non essere in borderless?

Nonostante amd abbia patchato e detto di aver risolto a me il freesync in borderless funziona da schifo e fa pure flickerare alcune parti dello schermo.
Quando passi in full screen a 144hz è una goduria però :sofico: :oink:

Che poi gli hz sono una droga, due mesi che ho il 144hz e sto già adocchiando lo zowie a 240hz, che però mi pare non sia freesync

razor820
23-06-2019, 12:24
Considera che un ips ha anche tanto lag.
I gsync hanno on overdrive nettamente migliore.
E restituiscono una fluidità diversa a schermo.
Se non vedi tearing di suo dovrebbe funzionare.

Senza vsync e senza freesync attivo ( quindi con tearing) la fluidità come la vedi?



I tempi di risposta teoricamente sono sempre quelli. Sui 4ms in entrambi i monitor.

Se disattivo il freesync si vede uguale, sincronizzazione orrenda ma con un po&rsquo; di tearing.

Per godermi un po&rsquo; di fluidità devo per forza attivare il V sync. Ma di conseguenza input lag alle stelle.

In ogni caso sia con che senza è impossibile giocare con gli fps competitivi.

Gyammy85
23-06-2019, 12:27
I tempi di risposta teoricamente sono sempre quelli. Sui 4ms in entrambi i monitor.

Se disattivo il freesync si vede uguale, sincronizzazione orrenda ma con un po&rsquo; di tearing.

Per godermi un po&rsquo; di fluidità devo per forza attivare il V sync. Ma di conseguenza input lag alle stelle.

In ogni caso sia con che senza è impossibile giocare con gli fps competitivi.

A me va perfettamente, controlla i cavi

razor820
23-06-2019, 12:29
In impostazione sul pannello amd va messo freesync su ON o su AMD OPTIMIZED?

Ton90maz
23-06-2019, 13:17
Il bus lo puoi aumentare, ma ti fermi sempre a 64 rop's, in quanto non si può rasterizzare a 24 pixel. Nvidia usa 6 raster per farlo (6x16), ed anche lei è limitata a 16. La 2070 e la 2080ti memorizzano 24 pixel ma per limite raster sono castrate a 16. ;)
L'unico modo è aumentare gli engineQuello è implicito

facciamo 80cu/5120sp/128rops :sofico:

coi 7 nanometri sarebbe pure ora, pensa che mi aspettavo gli 8192sp (4096x2) dal dopo furi, o comunque un crescendo, invece siamo ancora impantanati su 64cu, non crescono mai di un cacchio ste unità elaborative sulla top di gamma da tanto, troppo tempoCome big big è il minimo, ma mi piacerebbe vedere una scheda da 60 CU.

1) 2 raster/128 bit/32 rops/20 CU
2) 4 raster/256 bit/64 rops/40 CU
3) 6 raster/384 bit/96 rops/60 CU/RT hardware
4) 8 raster/512 bit o 4096 bit HBM2/almeno 80 CU/RT hardware

Con il nodo dei 14 nm si è sentita troppo la mancanza di una polaris big o di una vega più piccola.

mikael84
23-06-2019, 14:24
ma io mi chiedevo cosa succederà a chi ha schede da 8-16gb, non che ram useranno le vga in futuro, cioè fra un annetto o poco più, vedo decisamente poco probabili vga consumer con 24gb di ram :mc: ergo mi chiedo se, come non avveniva da anni, le nuove console si porteranno in vantaggio tecnico, a prescindere dai teraflop :stordita:

Bisogna vedere se sarà realmente quella la ram montata sulle console, non è propriamente ram da massa, per quella densità, servono le top samsung a doppia densità o sistemi a "conchiglia" 8bit, con costi sui 300$ ed oltre.

Attualmente le schede gaming, fin quando anche micron non passerà alla doppia densità (hynix ha dato forfait con le ddr6), sarà un problema.
Con le HBM hai i problemi dei costi, ma volendo puoi anche impostare 4 stack da 8gb.

facciamo 80cu/5120sp/128rops :sofico:

coi 7 nanometri sarebbe pure ora, pensa che mi aspettavo gli 8192sp (4096x2) dal dopo furi, o comunque un crescendo, invece siamo ancora impantanati su 64cu, non crescono mai di un cacchio ste unità elaborative sulla top di gamma da tanto, troppo tempo




A te piaciono i grandi numeri, ma è decisamente più importante avere meno shader ma decisamente più efficienti.
Siamo arrivati ad un punto in cui serve solo ottimizzare il lavoro dello shader, più che la quantità.
Meglio avere 2000 shader con efficienza altissima, set d'istruzioni elevato, lavoro parallelo ottimo, minori cicli di clock, minime latenze l1,l, che via ramdac producono frame minimi stabilissimi, che 8000 shader di cui 3/4 dormono, oltre ad occupare die.:)

Un parametro devono rivederlo entrambi i brand, ovvero le rop's, a 4096st, bisogna integrare 128rop's.
32 rop's ogni 1024st.:)

FvR 93
23-06-2019, 19:31
alla fine si sa qualcosa in più o no? custom board, big navi, un ribasso del listino nvidia magari... il mercato sembre essere completamente fermo nonostante l'annuncio di queste amd.

Intanto senza saper nè leggere ne scrivere mi son presouna 2070 msi che clocka fino a 2070mhz senza superare i 67 gradi con la ventola che rimane INUDIBILE fino al 70% (ma arriva massimo al 50% con la curva custom che ho impostato). Mai avuto una scheda con un dissi stock così buono (venivo da una 1080 watercooled con aio gigabyte)

PS: ho sperimentato l'api oc scanner di nvidia e devo dire che lavora magnificamente, è di una comodità assurda e inoltre ti da un OC stabile al 100%. In pratica è una customizzazione della curva di clock in base al voltaggio che fa in automatico il software tramite diversi test e ti clocka la scheda a seconda del chip che hai. AMD implementerà mai una cosa del genere con le nuove schede?

DuttZ
23-06-2019, 19:47
alla fine si sa qualcosa in più o no? custom board, big navi, un ribasso del listino nvidia magari... il mercato sembre essere completamente fermo nonostante l'annuncio di queste amd.

Intanto senza saper nè leggere ne scrivere mi son presouna 2070 msi che clocka fino a 2070mhz senza superare i 67 gradi con la ventola che rimane INUDIBILE fino al 70% (ma arriva massimo al 50% con la curva custom che ho impostato). Mai avuto una scheda con un dissi stock così buono (venivo da una 1080 watercooled con aio gigabyte)

PS: ho sperimentato l'api oc scanner di nvidia e devo dire che lavora magnificamente, è di una comodità assurda e inoltre ti da un OC stabile al 100%. In pratica è una customizzazione della curva di clock in base al voltaggio che fa in automatico il software tramite diversi test e ti clocka la scheda a seconda del chip che hai. AMD implementerà mai una cosa del genere con le nuove schede?Hai parlato per il 99% di Nvidia nel post e poi ci hai buttato alla fine una frase a caso su AMD, non è che sei in tema se la menzioni.
Potreste non inquinare più il thread?
Anche il gsync e il freesync credo che si possano definire OT, benché la seconda sia AMD.
Grazie e chiudo OT

Inviato dal mio LM-G710 utilizzando Tapatalk

X360X
23-06-2019, 20:15
Si sta riparlando di tutto tranne che delle nuove uscite

Stop grazie

FvR 93
24-06-2019, 00:28
Hai parlato per il 99% di Nvidia nel post e poi ci hai buttato alla fine una frase a caso su AMD, non è che sei in tema se la menzioni.
Potreste non inquinare più il thread?
Anche il gsync e il freesync credo che si possano definire OT, benché la seconda sia AMD.
Grazie e chiudo OT

Inviato dal mio LM-G710 utilizzando Tapatalk

mi pare di aver formulato tre domande riguardo le prossime radeon a cui non hai risposto e ti sei lamentato solamente del mio post, inquina più il mio messaggio o il tuo? Riformulo, magari.

1) Ci sono news riguardo le custom delle 5700xt?
2) Di Big Navi (aka 2080/2080ti rivals) si sa proprio nulla?
3) Le nuove amd (o anche le attuali) integreranno un'API simile ad OC Scanner di nvidia che ho potuto constatare sulla sere rtx 20xx che funziona veramente, veramente bene

grazie. Inutile fare flame e polemiche. Poi se stavi sottintendendo una sorta di fanboysmo mio per nvidia ti sbagli di grosso dato che ho avuto ATI/AMD dalla x1650pro 512mb ddr2 alla rx580 e per manifesta incapacità (di AMD nel concorrere a livelli sopra il mediocre) sono passato a 1070-1080-2070.

Pelvix
24-06-2019, 07:59
mi pare di aver formulato tre domande riguardo le prossime radeon a cui non hai risposto e ti sei lamentato solamente del mio post, inquina più il mio messaggio o il tuo? Riformulo, magari.

1) Ci sono news riguardo le custom delle 5700xt?
2) Di Big Navi (aka 2080/2080ti rivals) si sa proprio nulla?
3) Le nuove amd (o anche le attuali) integreranno un'API simile ad OC Scanner di nvidia che ho potuto constatare sulla sere rtx 20xx che funziona veramente, veramente bene

grazie. Inutile fare flame e polemiche. Poi se stavi sottintendendo una sorta di fanboysmo mio per nvidia ti sbagli di grosso dato che ho avuto ATI/AMD dalla x1650pro 512mb ddr2 alla rx580 e per manifesta incapacità (di AMD nel concorrere a livelli sopra il mediocre) sono passato a 1070-1080-2070.

1. Le custom 5700 sono in ritardo, si dice agosto, molto più probabile settembre, se tutto va bene (con AMD i ritardi sui ritardi sui ritardi sono ormai la regola, per cui ....)
2. L'unica cosa certa di Big Navi è che è in ritardo (chi lo avrebbe mai detto ...) e uscirà presumibilmente -forse, chi lo sa - nel 2020 :rolleyes:
3. Credo di no.

OvErClOck82
24-06-2019, 08:04
1. Le custom 5700 sono in ritardo, si dice agosto, molto più probabile settembre, se tutto va bene (con AMD i ritardi sui ritardi sui ritardi sono ormai la regola, per cui ....)

2. L'unica cosa certa di Big Navi è che è in ritardo (chi lo avrebbe mai detto ...) e uscirà presumibilmente -forse, chi losa - nel 2020 :rolleyes:

3. Credo di no.Io direi più 2023, a occhio...

Inviato dal mio COL-L29 utilizzando Tapatalk

mircocatta
24-06-2019, 08:07
amd in ritardo rispetto a cosa? da quando deve rendere conto alla roadmap di nvidia? in ogni caso bastava leggersi il link sui leak (delle poche info che si sanno) postato una pagina addietro per togliersi il dubbio

DuttZ
24-06-2019, 08:09
mi pare di aver formulato tre domande riguardo le prossime radeon a cui non hai risposto e ti sei lamentato solamente del mio post, inquina più il mio messaggio o il tuo? Riformulo, magari.

1) Ci sono news riguardo le custom delle 5700xt?
2) Di Big Navi (aka 2080/2080ti rivals) si sa proprio nulla?
3) Le nuove amd (o anche le attuali) integreranno un'API simile ad OC Scanner di nvidia che ho potuto constatare sulla sere rtx 20xx che funziona veramente, veramente bene

grazie. Inutile fare flame e polemiche. Poi se stavi sottintendendo una sorta di fanboysmo mio per nvidia ti sbagli di grosso dato che ho avuto ATI/AMD dalla x1650pro 512mb ddr2 alla rx580 e per manifesta incapacità (di AMD nel concorrere a livelli sopra il mediocre) sono passato a 1070-1080-2070.Se fosse per me ti bloccherei nel thread, nonostante vai fuori tema e parli di altro, vuoi pure fare la vittima.

Siete OT quando parlate di Nvidia e ripeto, se nella frase parli della maggior parte di Nvidia, sei OT, punto.

Big navi è sempre stato detto che esce nel 2020 ed ora dire cose a caso su quanto sia in ritardo.

Non fate altro che dire cose a caso, su quanto scalda, quanto vada di meno, quanto è in ritardo e quindi no, i vostri non sono commenti propositivi ma messi la a caso per flammare.


Basta e chiudo OT.

Inviato dal mio LM-G710 utilizzando Tapatalk

Andy1111
24-06-2019, 08:18
mi pare di aver formulato tre domande riguardo le prossime radeon a cui non hai risposto e ti sei lamentato solamente del mio post, inquina più il mio messaggio o il tuo? Riformulo, magari.

1) Ci sono news riguardo le custom delle 5700xt?
2) Di Big Navi (aka 2080/2080ti rivals) si sa proprio nulla?
3) Le nuove amd (o anche le attuali) integreranno un'API simile ad OC Scanner di nvidia che ho potuto constatare sulla sere rtx 20xx che funziona veramente, veramente bene

grazie. Inutile fare flame e polemiche. Poi se stavi sottintendendo una sorta di fanboysmo mio per nvidia ti sbagli di grosso dato che ho avuto ATI/AMD dalla x1650pro 512mb ddr2 alla rx580 e per manifesta incapacità (di AMD nel concorrere a livelli sopra il mediocre) sono passato a 1070-1080-2070.

1) prime custom metà agosto trovi tutte le info in rete basta che scrivi 5700 xt custom
2) Big Navi 2020 altro per ora non si sa.
3) c'è ma io non l'ho mai usato visto che ho la scheda a liquido https://cdn.wccftech.com/wp-content/uploads/2018/12/Adrenalin-OC.jpg

Il tuo comunque a me sembra fare flame poi non spetta a me giudicarlo qua sul forum...

Pelvix
24-06-2019, 08:30
amd in ritardo rispetto a cosa? da quando deve rendere conto alla roadmap di nvidia? in ogni caso bastava leggersi il link sui leak (delle poche info che si sanno) postato una pagina addietro per togliersi il dubbio

Da sempre direi, visto che sono concorrenti da almeno 20 anni (e ormai sono gli UNICI 2 concorrenti nel settore vga discrete) ... :mbe:

Anche perchè se non ti adegui alla concorrenza, semplicemente esci dal mercato, e ciò mi pare esser vero per qualsivoglia azienda di qualsivogla settore :mbe:

FvR 93
24-06-2019, 10:02
1) prime custom metà agosto trovi tutte le info in rete basta che scrivi 5700 xt custom
2) Big Navi 2020 altro per ora non si sa.
3) c'è ma io non l'ho mai usato visto che ho la scheda a liquido https://cdn.wccftech.com/wp-content/uploads/2018/12/Adrenalin-OC.jpg

Il tuo comunque a me sembra fare flame poi non spetta a me giudicarlo qua sul forum...

Grazie!!!
Deduco che anche queste radeon funzioneranno con una “curva di carico” con frrquenza e voltaggio dipendenti dalla temperatura giusto? Visto che alla presentazione E3 parlavano di base clock, boost clock e gaming clock (che probabilmente risulterebbe essere una media in applicazioni gaming)

PS: @duttz: per fortuna non dipende da te e quindi lascia questo lavoro ai moderatori, se non ti piacciono i contenuti dei miei post ignorami.
Chiuso Ot e non risponderò ad altro non attinente a domande o opinioni tecniche/commerciali riguardo i nuovi prodotti (a cui sono interessato!)

cronos1990
24-06-2019, 11:45
Scusate, negli ultimi post ho letto di presunti "ritardi" per le NAVI di fascia alta.


Ma da quanto mi risulta, da mesi si parla genericamente del 2020 e mi pare che ancora si parli genericamente del 2020. Quindi da dove salta fuori questo ipotetico "ritardo"?


[ EDIT ]
Tra l'altro mi vien da pensare: se queste future "Big NAVI" saranno paragonabili alle 2080 Nvidia, visti prezzi per la fascia mid mi viene da pensare che avremo anche per la fascia alta similari ai verdi... per cui ci sarà poco da ridere sui prezzi.

fraussantin
24-06-2019, 11:54
[ EDIT ]
Tra l'altro mi vien da pensare: se queste future "Big NAVI" saranno paragonabili alle 2080 Nvidia, visti prezzi per la fascia mid mi viene da pensare che avremo anche per la fascia alta similari ai verdi... per cui ci sarà poco da ridere sui prezzi.

Penso che andranno di più. Ipoteticamente minimo quanto una 2080ti o una 3080.
L'attuale vega 7 con 300w fa più o meno come una 2080.
Questa sempre a 300w ( ammesso sia vero)con architettura nuova deve andare un po di più altrimenti non ha senso
Per i prezzi , mi aspetto i 7-800 euro della 7.

OzoFlex
24-06-2019, 12:12
Penso che andranno di più. Ipoteticamente minimo quanto una 2080ti o una 3080.
L'attuale vega 7 con 300w fa più o meno come una 2080.
Questa sempre a 300w ( ammesso sia vero)con architettura nuova deve andare un po di più altrimenti non ha senso
Per i prezzi , mi aspetto i 7-800 euro della 7.
Si ma in UV (un uv estremamente base, niente di particolarmente spinto) la puoi tranquillamente tenere abbondantemente sub-200W, roba facilmente ottenibile con un minimo di affinamento, dalle next-navi onestamente mi aspetto molto di meglio.
https://www.youtube.com/watch?v=GXMOVo-5APA&t=127s

Del resto visto che spremendo dei chippini così piccoli son riusciti a superare una 2070 ( aka una 1080+ ) non lo vedo affatto uno scenario improbabile.

Raven
24-06-2019, 12:28
Ma da quanto mi risulta, da mesi si parla genericamente del 2020 e mi pare che ancora si parli genericamente del 2020. Quindi da dove salta fuori questo ipotetico "ritardo"?


Da quelli che non lo hanno capito (o voluto capire)... :rolleyes:

mircocatta
24-06-2019, 12:32
Si ma in UV (un uv estremamente base, niente di particolarmente spinto) la puoi tranquillamente tenere abbondantemente sub-200W, roba facilmente ottenibile con un minimo di affinamento, dalle next-navi onestamente mi aspetto molto di meglio.
https://www.youtube.com/watch?v=GXMOVo-5APA&t=127s

Del resto visto che spremendo dei chippini così piccoli son riusciti a superare una 2070 ( aka una 1080+ ) non lo vedo affatto uno scenario improbabile.

guardando il video, praticamente la radeon VII è più il tempo che passa sotto i 200 watt anziché sopra

che setting ha usato? perchè nel titolo parla di radeon VII stock

OzoFlex
24-06-2019, 12:39
guardando il video, praticamente la radeon VII è più il tempo che passa sotto i 200 watt anziché sopra

che setting ha usato? perchè nel titolo parla di radeon VII stock
In realtà in tutti i video che ho trovato la scheda ha un consumo abbastanza coerente con questi video, in alcuni video perfino più basso ma non li ho postati per non creare flame ed aggressione di utenti con idee diverse.

Nei commenti dice questo
edit: erano per la 64, non li ho trovati

fraussantin
24-06-2019, 13:01
Si ma in UV (un uv estremamente base, niente di particolarmente spinto) la puoi tranquillamente tenere abbondantemente sub-200W, roba facilmente ottenibile con un minimo di affinamento, dalle next-navi onestamente mi aspetto molto di meglio.
https://www.youtube.com/watch?v=GXMOVo-5APA&t=127s

Del resto visto che spremendo dei chippini così piccoli son riusciti a superare una 2070 ( aka una 1080+ ) non lo vedo affatto uno scenario improbabile.Mi riferisco a tdp dichiarati stock . Sempre stimati nel leak postato ieri.
Poi se binnano meglio o si va a culo tanto meglio.

OzoFlex
24-06-2019, 13:34
Mi riferisco a tdp dichiarati stock . Sempre stimati nel leak postato ieri.
Poi se binnano meglio o si va a culo tanto meglio.

Imho il tdp/board power dichiarato conta fino ad un certo punto in un forum di appassionati come immagino sia questo.
Con le amd si sa che se da un lato danno tanta possibilità di smanettamento e personalizzazione (che per molta gente, me in primis, è da vedersi come un plus) è vero anche che spesso hanno bisogno di un minimo intervento per rendere al massimo.
Se da 300W si può scendere in 30 secondi sotto i 200W non dico che sia giusto considerare quest'ultimo, ma nemmeno ignorare una cosa così facilmente ottenibile.

Tutto questo per dire che se una semplice e bistrattata vega con 200W tiene una 2080 direi che navi big sarà lecito aspettarsi abbastanza di più.

AceGranger
24-06-2019, 13:45
Imho il tdp/board power dichiarato conta fino ad un certo punto in un forum di appassionati come immagino sia questo.
Con le amd si sa che se da un lato danno tanta possibilità di smanettamento e personalizzazione (che per molta gente, me in primis, è da vedersi come un plus) è vero anche che spesso hanno bisogno di un minimo intervento per rendere al massimo.
Se da 300W si può scendere in 30 secondi sotto i 200W non dico che sia giusto considerare quest'ultimo, ma nemmeno ignorare una cosa così facilmente ottenibile.

Tutto questo per dire che se una semplice e bistrattata vega con 200W tiene una 2080 direi che navi big sarà lecito aspettarsi abbastanza di più.

in 30 secondi puoi downvoltare qualsiasi GPU; il dove arrivi dipende solo dalla fortuna.

fraussantin
24-06-2019, 13:56
Imho il tdp/board power dichiarato conta fino ad un certo punto in un forum di appassionati come immagino sia questo.

Con le amd si sa che se da un lato danno tanta possibilità di smanettamento e personalizzazione (che per molta gente, me in primis, è da vedersi come un plus) è vero anche che spesso hanno bisogno di un minimo intervento per rendere al massimo.

Se da 300W si può scendere in 30 secondi sotto i 200W non dico che sia giusto considerare quest'ultimo, ma nemmeno ignorare una cosa così facilmente ottenibile.



Tutto questo per dire che se una semplice e bistrattata vega con 200W tiene una 2080 direi che navi big sarà lecito aspettarsi abbastanza di più.

Si ma il succo del mio post non è se consuma 300 o 200 o 100. Non volevo polemizzare su quello.
All'opposto ho detto che se navi artuto avrà lo stesso consumo della 7 con tutte le migliorie architetturali che ci sono state e che ci saranno ipotizzo che almeno una 2080ti o una 3080 li prenderà. E il prezzo sarà di conseguenza appaiato.

OzoFlex
24-06-2019, 13:57
in 30 secondi puoi downvoltare qualsiasi GPU; il dove arrivi dipende solo dalla fortuna.

Scusa ma mi sembra abbastanza "banale" come risposta, non so se hai mai avuto per mano o testato con mano una vega (ma anche un po'le polaris in realtà) ma la differenza è abissale.
E no, non è come l'oc e non dipende "solo" dalla fortuna, dire una cosa del genere significa semplificare e ridurre inutilmente il discorso ad un nulla di fatto.

Si ma il succo del mio post non è se consuma 300 o 200 o 100. Non volevo polemizzare su quello.
All'opposto ho detto che se navi artuto avrà lo stesso consumo della 7 con tutte le migliorie architetturali che ci sono state e che ci saranno ipotizzo che almeno una 2080ti o una 3080 li prenderà. E il prezzo sarà di conseguenza appaiato.
No tranquillo nemmeno io volevo litigare sui consumi, la scheda out of the box consuma 250-300W ed è giusto che l'utente comune consideri quello come riferimento, la mia era un analisi in quanto utente "discretamente informato" in un forum che comunque rappresenta una nicchia dell'utenza normale e consideravo come del semplice binning migliore porterebbe una roba vecchia e criticata come vega praticamente in pari lato consumi ad una 2080, per questo mi aspetto onestamente un bel boost da big navi, concordo su range di potenza/prezzo.

AceGranger
24-06-2019, 14:14
Scusa ma mi sembra abbastanza "banale" come risposta, non so se hai mai avuto per mano o testato con mano una vega (ma anche un po'le polaris in realtà) ma la differenza è abissale.

E no, non è come l'oc e non dipende "solo" dalla fortuna, dire una cosa del genere significa semplificare e ridurre inutilmente il discorso ad un nulla di fatto.

se tutte le GPU funzionassero perfettamente in downvolt lo avrebbero settato cosi di fabbrica e avrebbero abbassato il TDP, cosa che non è...

il downvolt è esattamente come l'OC, dipende dal chip e se il produttore ti ha messo un range piu ampio per salvare il maggior numero di chip è perchè in giro ci sono anche chip sfigati; certamente, essendoci un gap piu ampio avrai i chip "centrali" che avranno mediamente piu margine di manovra ma di certo non ci arriveranno tutti i chip.

dire il contrario è semplicemente non dire la verita.

OzoFlex
24-06-2019, 14:25
se tutte le GPU funzionassero perfettamente in downvolt lo avrebbero settato cosi di fabbrica e avrebbero abbassato il TDP, cosa che non è...

il downvolt è esattamente come l'OC, dipende dal chip e se il produttore ti ha messo un range piu ampio per salvare il maggior numero di chip è perchè in giro ci sono anche chip sfigati; certamente, essendoci un gap piu ampio avrai i chip "centrali" che avranno mediamente piu margine di manovra ma di certo non ci arriveranno tutti i chip.

dire il contrario è semplicemente non dire la verita.

Ovviamente chi dice una cosa diversa dalla tua non dice la verità :asd:.
Dire che Vega beneficia dall'uv tanto quanto pascal/turing è semplicemente non dire la verità :), le nvidia son binnate meglio dall'alba dei tempi ed è stato un gran (meritato) punto di forza contro le amd, negare tutto all'occorrenza non mi sembra un comportamento utile :D

Piedone1113
24-06-2019, 14:25
se tutte le GPU funzionassero perfettamente in downvolt lo avrebbero settato cosi di fabbrica e avrebbero abbassato il TDP, cosa che non è...

il downvolt è esattamente come l'OC, dipende dal chip e se il produttore ti ha messo un range piu ampio per salvare il maggior numero di chip è perchè in giro ci sono anche chip sfigati; certamente, essendoci un gap piu ampio avrai i chip "centrali" che avranno mediamente piu margine di manovra ma di certo non ci arriveranno tutti i chip.

dire il contrario è semplicemente non dire la verita.

Esattamente.
Ma consideriamo la cosa al contrario: fare un binning migliore potrebbe significare aumentare il costo del 20% per declassare il 10% a RADEON SE ( poi arriva lo smanettone ed una se la porta a full con voltaggi maggiori).
La verità è che non sappiamo quante gpu ( in percentuale) siano nella parte basse della selezione, e parimenti non sappiamo quante gpu continuerebbero a lavorare in Undervolt per un tempo indefinito ed a prescindere dalle temp.
Sembrerebbe che moltissime permettono un undervolt corposo, ma onestamente posso dubitare sia della stabilità ( non solo in game) sia del mantenimento nel tempo di quei voltaggi.
Ps da tifoso amd

AceGranger
24-06-2019, 14:37
Ovviamente chi dice una cosa diversa dalla tua non dice la verità :asd:.
Dire che Vega beneficia dall'uv tanto quanto pascal/turing è semplicemente non dire la verità :), le nvidia son binnate meglio dall'alba dei tempi ed è stato un gran (meritato) punto di forza contro le amd, negare tutto all'occorrenza non mi sembra un comportamento utile :D

:mbe:

io ti ho detto che non tutte le VEGA raggiungono lo stesso UV e che va in base alla fortuna.


nel messaggio quotato ti ho anche scritto

"certamente, essendoci un gap piu ampio avrai i chip "centrali" che avranno mediamente piu margine di manovra"

quindi si, un binning peggiore permette margini superiori di manovra, ovviamente se ti capitano i chip del sacchetto buono :sofico:.

Free Gordon
24-06-2019, 15:21
se tutte le GPU funzionassero perfettamente in downvolt lo avrebbero settato cosi di fabbrica e avrebbero abbassato il TDP, cosa che non è...

Secondo me dalla teoria alla pratica, nel caso di AMD, c'è più differenza rispetto ad Nvidia.

Spendono meno tempo e denaro su quell'ottimizzazione, scelgono di avere yelds alti già in progettazione e cercano di buttare dentro più chip possibili.

Perlomeno da quando si sono incasinati la vita con GCN (già da Tahiti in poi), hanno scelto questa strada. Può darsi che ora con RDNA risalgano un po' la china da quel pdv, soprattutto se riescono a fare un po' di soldi in RTG (cosa che è ancora tutta da vedere).

Secondo me i discorsi sui consumi delle varie GPU andrebbero visti anche conoscendo questi particolari che non abbiamo..

Chiaro che ogni chip ha un range di funzionamento (min/max) in fatto di lavoro necessario ma questo è banale... non è quello il discorso

Gyammy85
24-06-2019, 18:40
Secondo me dalla teoria alla pratica, nel caso di AMD, c'è più differenza rispetto ad Nvidia.

Spendono meno tempo e denaro su quell'ottimizzazione, scelgono di avere yelds alti già in progettazione e cercano di buttare dentro più chip possibili.

Perlomeno da quando si sono incasinati la vita con GCN (già da Tahiti in poi), hanno scelto questa strada. Può darsi che ora con RDNA risalgano un po' la china da quel pdv, soprattutto se riescono a fare un po' di soldi in RTG (cosa che è ancora tutta da vedere).

Secondo me i discorsi sui consumi delle varie GPU andrebbero visti anche conoscendo questi particolari che non abbiamo..

Chiaro che ogni chip ha un range di funzionamento (min/max) in fatto di lavoro necessario ma questo è banale... non è quello il discorso

Gcn è la stessa arch fallimentare presente praticamente in tutti i dispositivi tranne che nelle lavatrici e nella supermario Bros simulator
Stessi discorsi triti e ritriti, intanto le apu macinano fino a 100 FPS

https://youtu.be/UnSefbvGuDs

Ed è la vecchia 2400g

Ora con rdna abbiamo un'architettura che viaggia praticamente sempre in full lato cu, scusate se è poco...

Skelevra
24-06-2019, 19:33
Ma secondo voi la 5700xt ce la farà a fare i 144fps in 1080p sulla maggior parte dei giochi attuali? O meglio ripiegare sulla vii?

FvR 93
24-06-2019, 19:41
Ma secondo voi la 5700xt ce la farà a fare i 144fps in 1080p sulla maggior parte dei giochi attuali? O meglio ripiegare sulla vii?

li farà anche in 1440p

G.Pedro
24-06-2019, 20:18
li farà anche in 1440p

Spero, mi serve qualcosa per 1440p e visti i presunti prezzi delle super spero di trovare la 5700 a meno.

HadesSaint
24-06-2019, 20:35
Comunque vorrei capire una cosa perche da RX XYo (290/3/4/5/) si e' passato a Vega Xy e ora sto XY00 (5700) che non se po senti..Chiamarle Navi 500/600/700 No? dato che il rebrand del rebrand verra usato per le 670/680/690 Bla bla...

la 5700xt sembra il nome di una PRO o di un motore!!

argez
24-06-2019, 21:07
Comunque vorrei capire una cosa perche da RX XYo (290/3/4/5/) si e' passato a Vega Xy e ora sto XY00 (5700) che non se po senti..Chiamarle Navi 500/600/700 No? dato che il rebrand del rebrand verra usato per le 670/680/690 Bla bla...

la 5700xt sembra il nome di una PRO o di un motore!!

Hanno semplicemente ripreso il nome del passato...con le 3000/4000/5000 ecc. Cmq per risponderti c'è stato pure il leak che la 5700xt in realtà in origine fosse la 690. Penso abbiano cambiato i nomi poco prima le presentazioni.

mircocatta
24-06-2019, 22:07
li farà anche in 1440p

no ma ci andrà vicino (lo dico perchè con la 1080ti non cappo neanche io everywhere i 144hz del mio monitor)..che è poi la situazione ideale per sfruttare il freesync in un range sotto il cap del monitor

FvR 93
24-06-2019, 22:14
no ma ci andrà vicino (lo dico perchè con la 1080ti non cappo neanche io everywhere i 144hz del mio monitor)..che è poi la situazione ideale per sfruttare il freesync in un range sotto il cap del monitor

dipende dall'ottimizzazione dei giochi ovviamente, la potenza è sufficiente in teoria e ovviamente è implicito che le impostazioni debbano essere settate con compromessi adeguati. Ad esempio se pubg non va a 144hz non è colpa delle schede video :asd:

mircocatta
24-06-2019, 22:25
dipende dall'ottimizzazione dei giochi ovviamente, la potenza è sufficiente in teoria e ovviamente è implicito che le impostazioni debbano essere settate con compromessi adeguati. Ad esempio se pubg non va a 144hz non è colpa delle schede video :asd:

si ma con questo ragionamento anche la 580 fa 144fps a 1440p :D
io intendo dire che neanche una 1080ti cappa OVUNQUE i 144hz (occata abbestia) con impostazioni "umane" (cioè maxxando tutto senza esagerare con i filtri o ombre, impostazioni che un po tutti usano, no? almeno questo è sempre stato il mio obiettivo, comprando vga/monitor adeguati a questa mia esigenza), stessa cosa accadrà probabilmente anche con la 5700XT, ma anche facesse "solo" 120fps medi non credo sia da buttare via anzi, come ho detto prima è la situazione ideale per sfruttare il freesync (per chi ha un monitor 1440p 144hz FS)
poi per chi ha un 21:9 1440p probabilmente sarà perfetta, terrà tranquillamente i 60/75fps

ancora nessun leak nel deepweb di qualche cinese che la testa in OC portandola a frequenze inimmaginabili? :D

Skelevra
25-06-2019, 05:40
no ma ci andrà vicino (lo dico perchè con la 1080ti non cappo neanche io everywhere i 144hz del mio monitor)..che è poi la situazione ideale per sfruttare il freesync in un range sotto il cap del monitor

Preferisco non sfruttare mai il freesync e stare fisso a 146fps :sofico:

FvR 93
25-06-2019, 08:52
si ma con questo ragionamento anche la 580 fa 144fps a 1440p :D
io intendo dire che neanche una 1080ti cappa OVUNQUE i 144hz (occata abbestia) con impostazioni "umane" (cioè maxxando tutto senza esagerare con i filtri o ombre, impostazioni che un po tutti usano, no? almeno questo è sempre stato il mio obiettivo, comprando vga/monitor adeguati a questa mia esigenza), stessa cosa accadrà probabilmente anche con la 5700XT, ma anche facesse "solo" 120fps medi non credo sia da buttare via anzi, come ho detto prima è la situazione ideale per sfruttare il freesync (per chi ha un monitor 1440p 144hz FS)
poi per chi ha un 21:9 1440p probabilmente sarà perfetta, terrà tranquillamente i 60/75fps

ancora nessun leak nel deepweb di qualche cinese che la testa in OC portandola a frequenze inimmaginabili? :D

Assolutamente, dipende dalla esigenze però. Chi gioca in maniera "competitiva" specialmente agli fps preferisce rinunciare a diversi effetti per avere un framerate più stabile oltre che minori disturbi visivi, quindi a discrezione dei titoli che vuole giocare può certamente ottenere quelle performance tweakando come hai detto tu, alla fine i 120 sono raggiungibili in molti più frangenti di sicuro. E' una scheda (la 5700xt) sponsorizzata per il 1440p a più riprese da AMD alla conferenza E3.

HadesSaint
25-06-2019, 09:11
Hanno semplicemente ripreso il nome del passato...con le 3000/4000/5000 ecc. Cmq per risponderti c'è stato pure il leak che la 5700xt in realtà in origine fosse la 690. Penso abbiano cambiato i nomi poco prima le presentazioni.

Vero come le serie 6/7 dove la seconda cifra segnava la fascia tipo 7800/7990 ecc..

ninja750
25-06-2019, 13:20
https://i.postimg.cc/WzXTvfzT/xemjhz5bfg631.jpg

Free Gordon
25-06-2019, 13:29
https://i.postimg.cc/WzXTvfzT/xemjhz5bfg631.jpg

Divison2?

Quindi sono praticamente appaiate...

Se però è così vicina coi driver preliminari, penso che ne vedremo delle belle da quì al 2020. ;)


C'è anche da capire se nel suddetto gioco il 3900 sia o non sia meglio del 9900... :asd:

Perché il risultato potrebbe essere falsato da quel particolare

ninja750
25-06-2019, 13:31
C'è anche da capire se nel suddetto gioco il 3900 sia o non sia meglio del 9900... :asd:

Perché il risultato potrebbe essere falsato da quel particolare

esatto, i confronti vanno fatti paripiattaforma sia per questione cpu che ram ecc

cmq il package full-red mica male eh

Ton90maz
25-06-2019, 13:33
Mi sembra world war z

OzoFlex
25-06-2019, 13:49
Divison2?

Quindi sono praticamente appaiate...

Se però è così vicina coi driver preliminari, penso che ne vedremo delle belle da quì al 2020. ;)


C'è anche da capire se nel suddetto gioco il 3900 sia o non sia meglio del 9900... :asd:

Perché il risultato potrebbe essere falsato da quel particolare

A quanto ho letto su reddit è WW-Z in dx11, scenario tipicamente più "complicato" per amd in cui nvidia è stata sempre avanti.
In dx12 o vulkan la bilancia si sposta ancora di più verso queste nuove schede, promettono veramente bene :D

ninja750
25-06-2019, 14:20
da confermare ma pare che la 5700 liscia stia sopra e non poco la 2060

Free Gordon
25-06-2019, 14:47
A quanto ho letto su reddit è WW-Z in dx11, scenario tipicamente più "complicato" per amd in cui nvidia è stata sempre avanti.
In dx12 o vulkan la bilancia si sposta ancora di più verso queste nuove schede, promettono veramente bene :D


Sinceramente spero che la sfida sia:

5700XT VS 2700 super

e 5700 VS 2060 super...

fraussantin
25-06-2019, 14:49
Sinceramente spero che la sfida sia:



5700XT VS 2700 super



e 5700 VS 2060 super...Mi pare palese. Il problema e amd sembrerà molto conveniente a confronto. Quindi Tutti felici eccetto i consumatori.

G.Pedro
25-06-2019, 15:04
Sinceramente spero che la sfida sia:

5700XT VS 2700 super

e 5700 VS 2060 super...

Diversamente Nvidia non avrebbe fatto le super.
Le super le avranno tagliate su misura per contrastare le 5700 così come hanno fatto la 1070ti su misura per vega 56.

ninja750
25-06-2019, 15:43
Diversamente Nvidia non avrebbe fatto le super.
Le super le avranno tagliate su misura per contrastare le 5700 così come hanno fatto la 1070ti su misura per vega 56.

sta cosa non la capisco.. se vega56 andava un po di piu della 1070 liscia e volevi comunque verde ti prendevi la 1080 non aveva gran senso aspettare la 1070ti

idem se vuoi verde e non ti basta la 2070 ti prendi la 2080 e finita li mica consideri la 5700xt?

ninja750
25-06-2019, 15:50
confermata la anniversary anche in italia

DuttZ
25-06-2019, 16:41
sta cosa non la capisco.. se vega56 andava un po di piu della 1070 liscia e volevi comunque verde ti prendevi la 1080 non aveva gran senso aspettare la 1070ti



idem se vuoi verde e non ti basta la 2070 ti prendi la 2080 e finita li mica consideri la 5700xt?Perché magari sei disposto a spendere un po' di più ed avere le prestazioni che ti soddisfano ma non sei disposto o non puoi spendere molto di più per la fascia successiva.
Quindi se la mia controparte va leggermente di più, io faccio una scheda anche appena più prestante e ci piazzo sopra un centone in più, chi compra Nvidia, quel centone lo spende tranquillamente per la fascia che aveva adocchiato prima, ovvero le 2060/2070/2080

Comunque non so se sono veri i presunti prezzi delle super ma sono vergognosi... 429$ per la 2060

Inviato dal mio LM-G710 utilizzando Tapatalk

G.Pedro
25-06-2019, 16:55
Comunque non so se sono veri i presunti prezzi delle super ma sono vergognosi... 429$ per la 2060



Le chiamano super ma in realtà sono una 2070- e una 2080- :cool:

AceGranger
25-06-2019, 17:14
sta cosa non la capisco.. se vega56 andava un po di piu della 1070 liscia e volevi comunque verde ti prendevi la 1080 non aveva gran senso aspettare la 1070ti

idem se vuoi verde e non ti basta la 2070 ti prendi la 2080 e finita li mica consideri la 5700xt?

- questione di immagine
- questione di riciclo di chip
- e il consumatore ha una GPU ogni tot euro e magari becchi anche gli indecisi "fra le fasce"

Ale55andr0
25-06-2019, 18:15
Le chiamano super ma in realtà sono una 2070- e una 2080- :cool:

ma anche no se hanno 2304 e 3072cc

G.Pedro
25-06-2019, 19:47
ma anche no se hanno 2304 e 3072cc

Non dovevano essere 2176 e 2560?

Ton90maz
25-06-2019, 19:56
Più che altro state parlando di schede diverse :asd:

Ale55andr0
25-06-2019, 19:57
Non dovevano essere 2176 e 2560?

2176 la 2060 super
2560 la 2070 super
3072 la 2080 super

mio refuso il 2304

FvR 93
25-06-2019, 22:51
Speriamo escano a breve i confronti 2070 super e 5700xt. Son curiosissimo, dovrebbero essere circa 10tflops per la radeon (oc) e sui 9 per la 2070 super. Vedremo come viene sfruttata questa potenza!

Free Gordon
26-06-2019, 03:15
confermata la anniversary anche in italia


più che altro spero che esca una 5700 ITX... :D

G.Pedro
26-06-2019, 07:55
2176 la 2060 super
2560 la 2070 super
3072 la 2080 super

mio refuso il 2304

Si, parlavamo delle concorrenti per le 5700 quindi consideravo solo 2060 super e 2070 super che di fatto sono una 2070- e una 2080-.
Usano i chip della 2070 e 2080 no?

fraussantin
26-06-2019, 08:07
Si, parlavamo delle concorrenti per le 5700 quindi consideravo solo 2060 super e 2070 super che di fatto sono una 2070- e una 2080-.

Usano i chip della 2070 e 2080 no?La 2060S è una 2070-
La 2070S è una 2080 --

Secondo me la 2060S è un buon prodotto al giusto prezzo , se costa il giusto è preferibile alla 2060 perchè ha 8 giga e una gestione migliore di rtx cosa che funziona già sulla vecchia.
Potrà competere bene con la 5700 che in vs custom prob costerà un prezzo simile.
Invece per quanto riguarda la 2070S a quel prezzo non se la inculerà nessuno. E la 5700xt sarà preferibile( mi aspetto le custom sui 490 500 contro 600) a meno di non avete bisogno di rtx buono ad ogni costo.

In sostanza scucite big money

G.Pedro
26-06-2019, 08:17
La 2060S è una 2070-
La 2070S è una 2080 --

Secondo me la 2060S è un buon prodotto al giusto prezzo , se costa il giusto è preferibile alla 2060 perchè ha 8 giga e una gestione migliore di rtx cosa che funziona già sulla vecchia.
Potrà competere bene con la 5700 che in vs custom prob costerà un prezzo simile.
Invece per quanto riguarda la 2070S a quel prezzo non se la inculerà nessuno. E la 5700xt sarà preferibile( mi aspetto le custom sui 490 500 contro 600) a meno di non avete bisogno di rtx buono ad ogni costo.

In sostanza scucite big money

In realtà sono un po' deluso da tutte e quattro le schede.
Più che altro per i prezzi, speravo costassero un po' meno.
Il RT è una cosa che hanno in più le nvidia si, ma di recente ho guardato un po' le differenze reali in game e non mi sembrano tutta sta roba strepitosa che volevano far credere all'inizio.
Probabilmente prenderò quella che costa meno tra 2060s e 5700 e del RT se ne parlerà quando farà qualcosa di più.

fraussantin
26-06-2019, 08:27
Probabilmente prenderò quella che costa meno tra 2060s e 5700 e del RT se ne parlerà quando farà qualcosa di più.

È sicuramente la cosa migliore da fare.

Gyammy85
26-06-2019, 09:00
confermata la anniversary anche in italia

Dicono però che ne produrranno poche, andranno via tutte al dayone imho

Comunque è un indice di quello che saranno le custom, 2 giga di boost +10 watt sulla reference immagino sarà la regola

Raven
26-06-2019, 09:49
Sinceramente spero che la sfida sia:

5700XT VS 2700 super

e 5700 VS 2060 super...

Io non credo proprio...

- AMD lancia le 5700 e 5700XT che vanno un po' di più di 2060 e 2070 costando un pochino meno

- Nvidia allora fa uscire 2060 super e 2070 super che le risuperano di un po' e che costeranno di più, come le 2060/2070 al lancio...

- Contemporaneamente riprezza 2060 e 2070 come le AMD 5700/5700XT... perché tanto a pari prezzo e prestazioni simili l'utente medio compra nvidia (weee bro!... io c'ho l'RTX!)

---> AMD pwned again! :O

G.Pedro
26-06-2019, 10:13
Io non credo proprio...

- AMD lancia le 5700 e 5700XT che vanno un po' di più di 2060 e 2070 costando un pochino meno

- Nvidia allora fa uscire 2060 super e 2070 super che le risuperano di un po' e che costeranno di più, come le 2060/2070 al lancio...

- Contemporaneamente riprezza 2060 e 2070 come le AMD 5700/5700XT... perché tanto a pari prezzo e prestazioni simili l'utente medio compra nvidia (weee bro!... io c'ho l'RTX!)

---> AMD pwned again! :O

Si ma esiste che Nvidia sta sempre li a inseguire AMD?

ninja750
26-06-2019, 10:16
- Contemporaneamente riprezza 2060 e 2070

benevola :ave:

Acme
26-06-2019, 10:40
Al di la del prezzo, RT e PP, sarà interessante vedere come si comportano la 5700xt e la rtx2070s visto che hanno le medesime risorse computazionali.

fraussantin
26-06-2019, 10:47
Io non credo proprio...

- AMD lancia le 5700 e 5700XT che vanno un po' di più di 2060 e 2070 costando un pochino meno

- Nvidia allora fa uscire 2060 super e 2070 super che le risuperano di un po' e che costeranno di più, come le 2060/2070 al lancio...

- Contemporaneamente riprezza 2060 e 2070 come le AMD 5700/5700XT... perché tanto a pari prezzo e prestazioni simili l'utente medio compra nvidia (weee bro!... io c'ho l'RTX!)

---> AMD pwned again! :OSempre se prima serie non va fuori produzione.

La 2060 pesta i piedi alla 1660ti e la 2070 li pesta alla 2060S e la 2080 a 650\680 euro rende ridicola la 2070S

Secondo me la 5700xt è competitiva almeno a quello che sappiamo oggi

Messa un po peggio la liscia.

Cuprum
26-06-2019, 11:44
Sempre se prima serie non va fuori produzione.

La 2060 pesta i piedi alla 1660ti e la 2070 li pesta alla 2060S e la 2080 a 650\680 euro rende ridicola la 2070S

Secondo me la 5700xt è competitiva almeno a quello che sappiamo oggi

Messa un po peggio la liscia.

a me sembra meglio la 5700 della 5700XT come sempre

mircocatta
26-06-2019, 11:50
Io non credo proprio...

- AMD lancia le 5700 e 5700XT che vanno un po' di più di 2060 e 2070 costando un pochino meno

- Nvidia allora fa uscire 2060 super e 2070 super che le risuperano di un po' e che costeranno di più, come le 2060/2070 al lancio...

- Contemporaneamente riprezza 2060 e 2070 come le AMD 5700/5700XT... perché tanto a pari prezzo e prestazioni simili l'utente medio compra nvidia (weee bro!... io c'ho l'RTX!)

---> AMD pwned again! :O
non credo che sia fattibile, avrebbe la 2060S a 429$ e 2070 a 449$, nessuno comprerebbe la 2060S
idem per la 2060 che finirebbe troppo vicino alla 1660Ti tagliando le gambe a quest'ultima

nemmeno la 2080 imho verrà ribassata per non dar fastidio alla 2070S
scusate l'OT su nvidia

Vul
26-06-2019, 12:33
Ma ovvio che verranno abbassati i prezzi delle turing attuali.

Anzi, sono già più bassi del lancio.

Ci sono le 1660ti a 230, 1660 6gb a meno di 200.

La 2070 FE è stata lanciata a 649 euro, la non fe ora si trova già intorno ai 450. Si trovano 2080 a prezzi inferiori del lancio della 2070.

Sono i prezzi Navi ad essere fuori luogo. Vanno pressapoco come la competizione Nvidia, costano come la competizione nvidia, ma ovviamente scaldano e consumano di più e sono in ritardo.

Vul
26-06-2019, 12:36
da confermare ma pare che la 5700 liscia stia sopra e non poco la 2060

Costa anche 70 euro di più della 2060 e consuma molto di più.

argez
26-06-2019, 13:07
Ma ovvio che verranno abbassati i prezzi delle turing attuali.

Anzi, sono già più bassi del lancio.

Ci sono le 1660ti a 230, 1660 6gb a meno di 200.

La 2070 FE è stata lanciata a 649 euro, la non fe ora si trova già intorno ai 450. Si trovano 2080 a prezzi inferiori del lancio della 2070.

Sono i prezzi Navi ad essere fuori luogo. Vanno pressapoco come la competizione Nvidia, costano come la competizione nvidia, ma ovviamente scaldano e consumano di più e sono in ritardo.

Perchè evidentemente non gliele compra nessuno.

cronos1990
26-06-2019, 13:56
Sono i prezzi Navi ad essere fuori luogo. Vanno pressapoco come la competizione Nvidia, costano come la competizione nvidia, ma ovviamente scaldano e consumano di più e sono in ritardo.Beh, dal poco che sappiamo (tutto da verificare alla prova dei fatti) queste NAVI mid-level vanno un pò di più delle controparti Nvidia e costano un poco meno.
Poi sullo scaldare e il consumare... credo interessi piuttosto relativamente all'acquirente medio.

Sia chiaro: queste NAVI al momento mi danno alcune perplessità, che rimarranno tali fino a quando non usciranno ufficialmente e ci saranno test completi.
Ma al momento i dati più "certi" parlano di una 5700XT che costa 450 e va circa un 10% in più della 2070, che costa 500.

HadesSaint
26-06-2019, 14:08
Beh, dal poco che sappiamo (tutto da verificare alla prova dei fatti) queste NAVI mid-level vanno un pò di più delle controparti Nvidia e costano un poco meno.
Poi sullo scaldare e il consumare... credo interessi piuttosto relativamente all'acquirente medio.

Sia chiaro: queste NAVI al momento mi danno alcune perplessità, che rimarranno tali fino a quando non usciranno ufficialmente e ci saranno test completi.
Ma al momento i dati più "certi" parlano di una 5700XT che costa 450 e va circa un 10% in più della 2070, che costa 500.

scusate l'OT ma 500 euro? su amazon la piu scrausa sta sui 539..e su epri..vabbe che e' caro si parte da 579 :) fine OT e aspettiamo con ansia ste 5700xt che ci daranno belle sorpreseeee

{ah non parlatemi di trovaprezzi perche se vai a porta portese trovi di meglio :):) }

Vul
26-06-2019, 14:09
Nei test reali 5700xt fa 3 fps in più della 2070 su WWZ (titolo pro amd).

Non è una scheda di livello differente dalla 2070, stiamo lì.

Gigibian
26-06-2019, 14:13
scusate l'OT ma 500 euro? su amazon la piu scrausa sta sui 539..e su epri..vabbe che e' caro si parte da 579 :) fine OT e aspettiamo con ansia ste 5700xt che ci daranno belle sorpreseeee

{ah non parlatemi di trovaprezzi perche se vai a porta portese trovi di meglio :):) }

Su ebay oggi si puo' acquistare una 2070 a 379 euro. ;)

Vul
26-06-2019, 14:16
Nvidia ha detto in due occasioni che questa generazione sta vendendo poco.

cronos1990
26-06-2019, 14:18
Io facendo un giro rapidissimo ho trovato la 2070 lisssssia a.... 479 mi pare.

Sinceramente amazon lo uso per avere un'idea di base del prezzo, ma in linea di massima le componenti hardware per un PC le acquisto altrove dove trovo generalmente prezzi inferiori.
Nvidia ha detto in due occasioni che questa generazione sta vendendo poco.Non sono esperto di marketing ma... forse perchè le 2xxx costano uno sproposito, hanno prestazioni similari alle 1xxx e il RT, l'unico vero motivo di upgrade, al momento è inutile e troverà uso solo con giochi progettati davvero in RT e con le future generazioni di schede?

Così, a occhio e croce....

Andy1111
26-06-2019, 14:23
Nei test reali 5700xt fa 3 fps in più della 2070 su WWZ (titolo pro amd).

Non è una scheda di livello differente dalla 2070, stiamo lì.

Parli di XT vs FE ?spero non di custom , hai avuto modo di provarla? ma non è che per caso era in dx11 ? perchè in vulkan la situazione mi sembra molto diversa ...

mircocatta
26-06-2019, 14:24
Ma ovvio che verranno abbassati i prezzi delle turing attuali.

Anzi, sono già più bassi del lancio.

Ci sono le 1660ti a 230, 1660 6gb a meno di 200.

si ma parli di blower manli vendute da negozi decisamente poco conosciuti, se cerchi una 1660ti con doppia ventola in negozi perlomeno conosciuti siamo attorno ai 260-270 e 220 per la 1660

La 2070 FE è stata lanciata a 649 euro, la non fe ora si trova già intorno ai 450. Si trovano 2080 a prezzi inferiori del lancio della 2070.

Sono i prezzi Navi ad essere fuori luogo. Vanno pressapoco come la competizione Nvidia, costano come la competizione nvidia, ma ovviamente scaldano e consumano di più e sono in ritardo.

eppure il ragionamento fatto qua da mikael non mi sembra tanto campato in aria
https://www.hwupgrade.it/forum/showpost.php?p=46277852&postcount=45719
si parla di listini nvidia, se poi nei negozi si riesce a trovare le vga a prezzi inferiori è un altro paio di maniche

FaTcLA
26-06-2019, 14:50
random rumors (da sitiminc**a a caso):
RX 5700 e RX 5700 XT a 409 e 489 euros

https://www.cowcotland.com/news/67857/les-nouvelles-cartes-graphiques-amd-radeon-rx-5700-et-rx-5700-xt-seront-proposees-a-409-et-489-euros.html

Gyammy85
26-06-2019, 14:57
Nei test reali 5700xt fa 3 fps in più della 2070 su WWZ (titolo pro amd).

Non è una scheda di livello differente dalla 2070, stiamo lì.

https://www.youtube.com/watch?v=SmFCEZaE_Kc

La vii fa 118 in dx11

Questo qui è il confronto all'e3 in vulkan vs 2070

https://i.postimg.cc/TYXd9rF9/photo-2019-06-11-17-24-21.jpg (https://postimages.org/)

Va praticamente quanto una 2080

https://i.postimg.cc/9FxkM2d7/photo-2019-05-22-13-15-32.jpg (https://postimg.cc/VdCgG3Hf)

Queste invece sono le foto dalla korea, sistema intel+nvidia

https://i.postimg.cc/ZRV8cbKP/photo-2019-06-25-22-18-17.jpg (https://postimages.org/)

Sistema AMD

https://i.postimg.cc/ZRK30GFW/photo-2019-06-25-22-18-16.jpg (https://postimages.org/)

Come vedi la scheda è un prototipo, non ha il backplate e non ha il dissipatore della xt, i clock saranno anche più bassi, e la 2070 era una custom.

Gyammy85
26-06-2019, 15:04
https://lordsofgaming.net/2019/06/first-playstation-5-benchmark-just-leaked/

https://i.postimg.cc/m2wSZSGp/photo-2019-06-26-13-01-29.jpg (https://postimg.cc/3dkGnmN2)

HadesSaint
26-06-2019, 15:06
Io facendo un giro rapidissimo ho trovato la 2070 lisssssia a.... 479 mi pare.

Sinceramente amazon lo uso per avere un'idea di base del prezzo, ma in linea di massima le componenti hardware per un PC le acquisto altrove dove trovo generalmente prezzi inferiori.

Pero dove trovi di meno tocca vedere quanto sono affidabili io per esempio ho sempre usato epri..e amazon altri venditori manco so chi sono..

Gyammy85
26-06-2019, 15:25
Pero dove trovi di meno tocca vedere quanto sono affidabili io per esempio ho sempre usato epri..e amazon altri venditori manco so chi sono..

Già, su eprezzo una 2070 viene minimo 570

https://www.cowcotland.com/news/67857/les-nouvelles-cartes-graphiques-amd-radeon-rx-5700-et-rx-5700-xt-seront-proposees-a-409-et-489-euros.html

409 e 489 euro per 5700 e 5700xt

AceGranger
26-06-2019, 21:58
scusate l'OT ma 500 euro? su amazon la piu scrausa sta sui 539..e su epri..vabbe che e' caro si parte da 579 :) fine OT e aspettiamo con ansia ste 5700xt che ci daranno belle sorpreseeee

{ah non parlatemi di trovaprezzi perche se vai a porta portese trovi di meglio :):) }

da next, catena di negozi storia, la 2070 parte da 510 euro.

direttamente dal sito di EVGA Europa si parte da 519.

fraussantin
26-06-2019, 22:49
da next, catena di negozi storia, la 2070 parte da 510 euro.

direttamente dal sito di EVGA Europa si parte da 519.

se per questo la 2070 amp è a €487.94 su amazon DE' ( come diano a livorno) ( arriva fra 10 gg ma accettano ordini )

M4to
27-06-2019, 00:28
Non so se è stato postato
https://videocardz.com/newz/sapphire-registers-radeon-rx-5950-5900-xt-rx-5850-5800-xt-series-at-eec

Gyammy85
27-06-2019, 08:08
Non so se è stato postato
https://videocardz.com/newz/sapphire-registers-radeon-rx-5950-5900-xt-rx-5850-5800-xt-series-at-eec

Probabile che registrino tutte le possibili combinazioni del nome

cronos1990
27-06-2019, 09:26
Probabile che registrino tutte le possibili combinazioni del nomeTogli il probabile.

Per la serie: io metto tutti i possibili nomi che possono saltar fuori, così posso dire a posteriori di averci beccato sicuramente :D

G.Pedro
27-06-2019, 10:26
Probabile che registrino tutte le possibili combinazioni del nome

Però parliamo di Sapphire che è partner esclusivo con AMD.

Gyammy85
27-06-2019, 10:30
Però parliamo di Sapphire che è partner esclusivo con AMD.

In effetti...non sappiamo con esattezza le tempistiche dei nuovi modelli, ipotizzo le 5600 e 5500 ad agosto e le 5800 q4 o q1 2020, staremo a vedere

bronzodiriace
27-06-2019, 11:33
benevola :ave:

:rotfl:

Vul
27-06-2019, 13:29
si ma parli di blower manli vendute da negozi decisamente poco conosciuti, se cerchi una 1660ti con doppia ventola in negozi perlomeno conosciuti siamo attorno ai 260-270 e 220 per la 1660

eppure il ragionamento fatto qua da mikael non mi sembra tanto campato in aria
https://www.hwupgrade.it/forum/showpost.php?p=46277852&postcount=45719
si parla di listini nvidia, se poi nei negozi si riesce a trovare le vga a prezzi inferiori è un altro paio di maniche

I negozi poco conosciuti hanno migliaia di recensioni positive e ci ho comprato molte volte.

Non mi risulta che le gpu manli siano più o meno problematiche di altre, il chip è quello, un pcb costa 5 euro nel caso peggiore, le ram non le producono loro, il blower è quello reference e la gpu non è che scaldi o consumi chissà quanto.

Se si trova a 230 per me quello è il prezzo di partenza e di riferimento.

Gyammy85
27-06-2019, 16:36
https://www.reddit.com/r/Amd/comments/c66tk8/unboxing_the_radeon_rx_5700_xt_rx_5700_navi_is/

Ton90maz
27-06-2019, 16:38
Chissà se salterà fuori il genio che farà il reso perché convinto che la scheda ha preso una botta.

OrazioOC
27-06-2019, 17:25
https://www.reddit.com/r/Amd/comments/c66tk8/unboxing_the_radeon_rx_5700_xt_rx_5700_navi_is/

"The RX 5700 doesn't have a backplate or an illuminated logo,but it's only a $380 card so we can't expect miracles."
Avanti un altro.

Moreno Morello
27-06-2019, 17:46
380 dollari per una scheda video fascia media e non mettono nemmeno un pezzo di plastica sul pcb. La confezione almeno è compresa o te la danno nella busta della spesa?

fraussantin
27-06-2019, 17:48
Tanto quella blower non la comprerà nessuno. Quella serve solo a far fare bella figura a sapphire.
Prendere subito in considerazione la sapphire come prezzo e prrstazioni.

FvR 93
27-06-2019, 17:54
non so se è stato postato, ho letto solo quello riguardo a sapphire:

https://videocardz.com/81086/asus-gigabyte-palit-geforce-rtx-super-and-radeon-rx-5700-series-spotted-at-eec

DuttZ
27-06-2019, 18:08
https://www.reddit.com/r/Amd/comments/c66tk8/unboxing_the_radeon_rx_5700_xt_rx_5700_navi_is/Il video è stato bloccato...

Inviato dal mio LM-G710 utilizzando Tapatalk

DuttZ
27-06-2019, 18:13
non so se è stato postato, ho letto solo quello riguardo a sapphire:



https://videocardz.com/81086/asus-gigabyte-palit-geforce-rtx-super-and-radeon-rx-5700-series-spotted-at-eecSe scendi sui commenti, c'è la replica dei flame su questo thread però in inglese, fantastico 😅

Inviato dal mio LM-G710 utilizzando Tapatalk

TigerTank
27-06-2019, 18:15
380 dollari per una scheda video fascia media e non mettono nemmeno un pezzo di plastica sul pcb. La confezione almeno è compresa o te la danno nella busta della spesa?

Meglio che sul retro non abbiano nulla piuttosto che un pezzo di plastica.
Se dev'esserci una backplate, che almeno sia di alluminio + pads in modo da avere una funzione di dissipazione invece che cappare il calore prodotto :)

Windtears
27-06-2019, 18:50
Il video è stato bloccato...

Inviato dal mio LM-G710 utilizzando Tapatalk

se ci tieni a scaricarlo:
https://send.firefox.com/download/10ce7cd1a4bb0936/#0Kb3Krlcps3rukXzCT5U4A

misterlooter
27-06-2019, 18:57
https://wccftech.com/radeon-rx-5700xt-time-spy-leak-matches-geforce-rtx-2070/

Bench sintetico timespy (che personalmente ritengo molto esplicativo di quello che si può aspettare) 5700xt e lineup asus per super e 5700


https://wccftech.com/nvidia-geforce-rtx-20-super-and-amd-radeon-rx-5700-xt-custom-gpu-lineup-leak/

OrazioOC
27-06-2019, 19:03
https://wccftech.com/radeon-rx-5700xt-time-spy-leak-matches-geforce-rtx-2070/

Bench sintetico timespy (che personalmente ritengo molto esplicativo di quello che si può aspettare) 5700xt e lineup asus per super e 5700


https://wccftech.com/nvidia-geforce-rtx-20-super-and-amd-radeon-rx-5700-xt-custom-gpu-lineup-leak/

Va bene, prestazioni superiori alla 1080 a 50 dollari in meno, 3 anni dopo, con gli stessi consumi, è tutto sommato una scheda interessante.

Skelevra
27-06-2019, 19:08
Speravo andasse un pelo di piu di una 2070 :confused:

Pelvix
27-06-2019, 19:17
Va bene, prestazioni superiori alla 1080 a 50 dollari in meno, 3 anni dopo, con gli stessi consumi, è tutto sommato una scheda interessante.

Secondo me invece è un ciofecone planetario una simile vga: che brutta fine per un brand storico come ATI :cry:

Pelvix
27-06-2019, 19:19
Speravo andasse un pelo di piu di una 2070 :confused:

Lo speravamo tutti, ma già si sapeva come sarebbe finita :rolleyes:

Gyammy85
27-06-2019, 19:32
Calmate gli entusiasmi :asd:
Stiamo parlando di timespy che gira tendenzialmente male su AMD essendo """""""dx12"""""""
Sarebbe praticamente AC odissey per dire

Roland74Fun
27-06-2019, 19:43
Va bene, prestazioni superiori alla 1080 a 50 dollari in meno, 3 anni dopo, con gli stessi consumi, è tutto sommato una scheda interessante.

Una Vega shrinkata in pratica.....

OrazioOC
27-06-2019, 19:48
Una Vega shrinkata in pratica.....

Io non sarei così critico, voglio dire, adesso la microarchitettura non è più gcn, ma rdna, magari ha solo bisogno di un supporto driver più maturo.
Che poi, la 2070 è una signora scheda, pareggiarla anche consumando di più nonostante un silicio molto più sviluppato, a 50 dollari in meno, è un gran risultato.

Roland74Fun
27-06-2019, 19:57
Che poi, la 2070 è una signora scheda, pareggiarla anche consumando di più nonostante un silicio molto più sviluppato, a 50 dollari in meno, è un gran risultato.
Si, sarà interessante il confronto colla nuova serie Special del principale competitor.

DuttZ
27-06-2019, 19:59
se ci tieni a scaricarlo:

https://send.firefox.com/download/10ce7cd1a4bb0936/#0Kb3Krlcps3rukXzCT5U4AUn'occhiata gliela do, grazie 🙂

Inviato dal mio LM-G710 utilizzando Tapatalk

Pelvix
27-06-2019, 20:05
Io non sarei così critico, voglio dire, adesso la microarchitettura non è più gcn, ma rdna, magari ha solo bisogno di un supporto driver più maturo.
Che poi, la 2070 è una signora scheda, pareggiarla anche consumando di più nonostante un silicio molto più sviluppato, a 50 dollari in meno, è un gran risultato.

Guarda che la 2070 non è un miracolo dell'altro mondo, è semplicemente una mid-range che fa il suo lavoro: è AMD che è ridicola, che per pareggiare (si spera!) una mid-range della concorrenza ha avuto bisogno di 3 anni, un nuovo pp e una nuova architettura :rolleyes: :doh:

fraussantin
27-06-2019, 20:10
Pensiamo positivo , se tutto ciò fosse vero dovranno droppare il prezzo.

Pelvix
27-06-2019, 20:16
Pensiamo positivo , se tutto ciò fosse vero dovranno droppare il prezzo.

Beato te che riesci ad esser ottimista, io è dai tempi della 290 che non vedo una vga decente in casa AMD :muro:

DuttZ
27-06-2019, 20:16
Io più che altro aspetto la spiegazione su come taglia le frequenze, visto che up to 1.905 ma game clock 1.755, nel senso che se basta metterla a liquido ed ottenere 1.905 fisso o quasi.
Perché un conto è in media a 1.755 e un altro conto è tenerla vicina a 1.900, sono sempre 150mhz in più...

Edit:
C'è qualche pazzo in rete che testa le versioni stock delle schede con la ventola fissa al 100%? Alla fine credo che si riesca a capire il margine che può avere una scheda con un dissipatore custom, dici a che pro? Per verificare se la scheda stock abbia un sistema di raffreddamento adeguato o fa schifo al merlo.

DuttZ
27-06-2019, 20:17
Beato te che riesci ad esser ottimista, io è dai tempi della 290 che non vedo una vga decente in casa AMD :muro:La Vega 56 per me è la più sensata uscita fin'ora.

Inviato dal mio LM-G710 utilizzando Tapatalk

Pelvix
27-06-2019, 20:25
Io più che altro aspetto la spiegazione su come taglia le frequenze, visto che up to 1.905 ma game clock 1.755, nel senso che se basta metterla a liquido ed ottenere 1.905 fisso o quasi.
Perché un conto è in media a 1.755 e un altro conto è tenerla vicina a 1.900, sono sempre 150mhz in più...

Edit:
C'è qualche pazzo in rete che testa le versioni stock delle schede con la ventola fissa al 100%? Alla fine credo che si riesca a capire il margine che può avere una scheda con un dissipatore custom, dici a che pro? Per verificare se la scheda stock abbia un sistema di raffreddamento adeguato o fa schifo al merlo.

Non è che con 150 Mhz ci cambi molto sai: avrai bene che vada un 7/8% di prestazioni in più, senza considerare la questione calore/consumi/rumorosità

DuttZ
27-06-2019, 20:42
Non è che con 150 Mhz ci cambi molto sai: avrai bene che vada un 7/8% di prestazioni in più, senza considerare la questione calore/consumi/rumorositàProbabilmente vicino al 10% senza occare la GPU visto che sono comunque frequenze stock e specificavo con il liquido, fattore calore non importa, anche il consumo secondo me non si eleva molto.
Intendo dire che aspetto di sapere quanto incide il fattore dissipazione su questa scheda.

Inviato dal mio LM-G710 utilizzando Tapatalk

argez
27-06-2019, 21:05
Secondo me invece è un ciofecone planetario una simile vga: che brutta fine per un brand storico come ATI :cry:

Lo speravamo tutti, ma già si sapeva come sarebbe finita :rolleyes:

Guarda che la 2070 non è un miracolo dell'altro mondo, è semplicemente una mid-range che fa il suo lavoro: è AMD che è ridicola, che per pareggiare (si spera!) una mid-range della concorrenza ha avuto bisogno di 3 anni, un nuovo pp e una nuova architettura :rolleyes: :doh:

Non è che con 150 Mhz ci cambi molto sai: avrai bene che vada un 7/8% di prestazioni in più, senza considerare la questione calore/consumi/rumorosità

Beh dai ti vedo molto ottimista. E non sono neanche uscite.

Pelvix
27-06-2019, 21:32
Beh dai ti vedo molto ottimista. E non sono neanche uscite.

Infatti dopo sarà pure peggio con tali premesse :doh:

mircocatta
27-06-2019, 21:35
I negozi poco conosciuti hanno migliaia di recensioni positive e ci ho comprato molte volte.

Non mi risulta che le gpu manli siano più o meno problematiche di altre, il chip è quello, un pcb costa 5 euro nel caso peggiore, le ram non le producono loro, il blower è quello reference e la gpu non è che scaldi o consumi chissà quanto.

Se si trova a 230 per me quello è il prezzo di partenza e di riferimento.

avendo avuto due manli 970 blower ti assicuro che i "blower" che non siano FE fanno letteralmente schifo al caxxo ;)
e poi si, compro anche io in negozi poco "conosciuti", come lo era bpm power, tutto bene fino a quando non devi chiedere un reso o cambio in garanzia, ho dovuto aspettare 2 anni per farmi rimborsare un paio di cuffie perchè smisero di andare dopo una settimana dall'acquisto.

nessuno29
27-06-2019, 21:35
Guarda che la 2070 non è un miracolo dell'altro mondo, è semplicemente una mid-range che fa il suo lavoro: è AMD che è ridicola, che per pareggiare (si spera!) una mid-range della concorrenza ha avuto bisogno di 3 anni, un nuovo pp e una nuova architettura :rolleyes: :doh:

vega 64 e 7 già esistono ;)

G.Pedro
27-06-2019, 21:47
Se una 5700xt reference fa quel punteggio in time spy vuol dire che una custom prende la radeon VII.
In realtà è più di quello che ci si aspettava.

mircocatta
27-06-2019, 21:49
https://wccftech.com/radeon-rx-5700xt-time-spy-leak-matches-geforce-rtx-2070/

Bench sintetico timespy (che personalmente ritengo molto esplicativo di quello che si può aspettare) 5700xt e lineup asus per super e 5700


https://wccftech.com/nvidia-geforce-rtx-20-super-and-amd-radeon-rx-5700-xt-custom-gpu-lineup-leak/
molto esplicativo?
https://www.guru3d.com/articles-pages/amd-radeon-vii-16-gb-review,25.html
la radeon vii in timespy sta a malapena davanti ad una 2070
le cose sono due
o fumate pesante
o siete in malafede e venite qua solo per creare flame (riuscendoci perfettamente)
quello che vedo è che fa una marea di punti in più della vega64
https://cdn.wccftech.com/wp-content/uploads/2019/06/5700xt-Time-Spy-Table-1480x833.png

c'è da aggiungere che questa tabella è un raffronto con i suoi (di chi scrive l'articolo) test CON i9 9900k a 5ghz, quando il punteggio leak della 5700xt è stato fatto con un 8700k @ default, non ho idea di quanto incida la cpu, ma immagino che un pelo di differenza la faccia



fa sorridere vedere che ci sono 3-4 utenti che stanno qua ad aspettare la prima occasione per sparare le solite shitstorm gratuite :asd:

G.Pedro
27-06-2019, 21:54
Anche io la penso come mircocatta, forse non avete tenuto conto che le amd in quel bench vanno peggio delle nvidia già di loro.

mircocatta
27-06-2019, 22:00
Anche io la penso come mircocatta, forse non avete tenuto conto che le amd in quel bench vanno peggio delle nvidia già di loro.

ma lo dice pure lui in fondo all'articolo che è ben di più di quel che si aspettava

So There we have it on the first results that have slipped out and while it’s not the most comprehensive set of results it is more than I expected us to catch this early on and with prelaunch drivers to boot. This is getting exciting for those waiting to see how things shake out come July 7th.

AceGranger
27-06-2019, 22:19
ora spiegatemi come fate a vedere come negativo quel punteggio, visto che fa una marea di punti in più della vega64



hai tutte le ragioni del mondo sui sintetici, oltretutto presi da sistemi differenti, l'inutilita al quadrato, ma non è che le CPU ZEN sono CPU ottime perchè battono di rilievo in casa propria il cesso di architettura precedente.... sono CPU ottime perchè battono la concorrenza...

con le GPU non è certo diverso; ci mancava pure che con 10 miliardi di transistor e i 7nm non battesse di rilievo una VEGA 64...

Roland74Fun
27-06-2019, 22:22
Anche io la penso come mircocatta, forse non avete tenuto conto che le amd in quel bench vanno peggio delle nvidia già di loro.Non pensare che il punteggio valga più di quel che vale.
Anche due auto per esempio possono avere qualità diverse nonostante possano raggiungere la stessa velocità di punta.
Semplicemente considera l'ambiente che sta intorno a cosa ti metti nel case, lo storico, l'affidabilità che ha dimostrato nei vari prodotti ed infine cosa più importante le tue esigenze personali, basta che siano frutto di scelte consapevoli e mature. Vedrai che col tempo ti farai una certa cultura in queste cose ed una volta che alcuni concetti ti saranno piu chiari potrai farti delle opinioni più salde.

mircocatta
27-06-2019, 22:25
hai tutte le ragioni del mondo sui sintetici, oltretutto presi da sistemi differenti, l'inutilita al quadrato, ma non è che le CPU ZEN sono CPU ottime perchè battono di rilievo in casa propria il cesso di architettura precedente.... sono CPU ottime perchè battono la concorrenza...

con le GPU non è certo diverso; ci mancava pure che con 10 miliardi di transistor e i 7nm non battesse di rilievo una VEGA 64...

beh fino stamattina si pensava che andasse poco più di una vega 64 nei videogiochi (in mezzo tra vega64 e radeonVII) e visto che quest'ultima va poco meno di una 2070, vedere quella differenza di punteggio mi "stupisce" in positivo

FvR 93
27-06-2019, 22:25
1) la 2070 clockata a 2070mhz core clock (mem default) con un ryzen 2600@4ghz mi fa 8300 punti in Graphics Score. Una founders che fa 8900 un po boh magari dipende dalla cpu (!?)

2) beccatevi questa chicca https://www.reddit.com/r/hardware/comments/c6b2yy/amds_ray_tracing_patent/ brevetto amd per raytracing (almeno credo)

G.Pedro
27-06-2019, 22:28
Non pensare che il punteggio valga più di quel che vale.
Anche due auto per esempio possono avere qualità diverse nonostante possano raggiungere la stessa velocità di punta.
Semplicemente considera l'ambiente che sta intorno a cosa ti metti nel case, lo storico, l'affidabilità che ha dimostrato nei vari prodotti ed infine cosa più importante le tue esigenze personali, basta che siano frutto di scelte consapevoli e mature. Vedrai che col tempo ti farai una certa cultura in queste cose ed una volta che alcuni concetti ti saranno piu chiari potrai farti delle opinioni più salde.

In realtà non pensavo fosse così complicato decidere qualche scheda video comprare, ma forse è perché stiamo discutendo su una base fragile e non ci sono vere prove su queste schede nuove. :stordita:

AceGranger
27-06-2019, 22:34
beh fino stamattina si pensava che andasse poco più di una vega 64 nei videogiochi (in mezzo tra vega64 e radeonVII) e visto che quest'ultima va poco meno di una 2070, vedere quella differenza di punteggio mi "stupisce" in positivo

a me pareva che fino a questa mattina si pensava che andasse poco piu di una 2070 e in quel bench ( inutile) va poco meno, quindi in ogni caso non vedo cosa ci sia da meravigliarsi e men che meno cosa ci sia da rimanere delusi :confused:.


mi pare che sia nella fascia della 2070 come da annuncio di AMD.

maxmix65
27-06-2019, 23:40
Brevetto Ray-Tracing di AMD
http://www.freepatentsonline.com/20190197761.pdf

mikael84
27-06-2019, 23:41
molto esplicativo?
https://www.guru3d.com/articles-pages/amd-radeon-vii-16-gb-review,25.html
la radeon vii in timespy sta a malapena davanti ad una 2070
le cose sono due
o fumate pesante
o siete in malafede e venite qua solo per creare flame (riuscendoci perfettamente)
quello che vedo è che fa una marea di punti in più della vega64


c'è da aggiungere che questa tabella è un raffronto con i suoi (di chi scrive l'articolo) test CON i9 9900k a 5ghz, quando il punteggio leak della 5700xt è stato fatto con un 8700k @ default, non ho idea di quanto incida la cpu, ma immagino che un pelo di differenza la faccia



fa sorridere vedere che ci sono 3-4 utenti che stanno qua ad aspettare la prima occasione per sparare le solite shitstorm gratuite :asd:


Questo ragazzi ve l'ho detto varie volte, ma lo rispiego.
Il sintetico è significativo in media, ma non è un dato puramente effettivo via gaming.
Quando si effettuano bench come questo le radeon perdono, per emularsi le unità funzionali.
LDS 1/4, lds + sfu mezzo ratio, single precision mista circa il 50%. Dopo incide l'accesso alla l2, latenza ( 25% su rdna) migliore su AMD per via del lavoro in gruppo, cicli di clock, BW, compressione.
8800 circa è il punteggio della VII/2070, non a caso negli unreal finisce cosi'.

Una Vega 64 ad un ratio del 1/4° del teorico performa poco più di una 1080 (come da schema), una 56 poco più di una 1070. Negli unreal si arriva anche al 50% del teorico.:)

La 5700x del test, nel calcolo, in linea di massima sta perfomando quanto una VII con unità funzionali in emulazione.

Chiaro che quest'ultima, nei titoli shader intrinsic, ha maggior potenza bruta (fc5/td2).

O meglio, paragonandolo a Pascal siamo a circa 10,5 TF.

Per rendere meglio l'idea, in shader intensive basta guardare la differenza tra 2070 e 1080ti, quasi simile.:)

Roland74Fun
28-06-2019, 00:29
Spiega tutta la tecnica che usa.
Domani cerco di leggerlo con calma.
Vediamo se ci capisco qualcosa.

Free Gordon
28-06-2019, 02:56
hai tutte le ragioni del mondo sui sintetici, oltretutto presi da sistemi differenti, l'inutilita al quadrato, ma non è che le CPU ZEN sono CPU ottime perchè battono di rilievo in casa propria il cesso di architettura precedente.... sono CPU ottime perchè battono la concorrenza...
con le GPU non è certo diverso; ci mancava pure che con 10 miliardi di transistor e i 7nm non battesse di rilievo una VEGA 64...

Vega10 ha 2.2mld di transistor in più di Navi10..

Gigibian
28-06-2019, 06:06
Questo ragazzi ve l'ho detto varie volte, ma lo rispiego.
Il sintetico è significativo in media, ma non è un dato puramente effettivo via gaming.
Quando si effettuano bench come questo le radeon perdono, per emularsi le unità funzionali.
LDS 1/4, lds + sfu mezzo ratio, single precision mista circa il 50%. Dopo incide l'accesso alla l2, latenza ( 25% su rdna) migliore su AMD per via del lavoro in gruppo, cicli di clock, BW, compressione.
8800 circa è il punteggio della VII/2070, non a caso negli unreal finisce cosi'.

Una Vega 64 ad un ratio del 1/4° del teorico performa poco più di una 1080 (come da schema), una 56 poco più di una 1070. Negli unreal si arriva anche al 50% del teorico.:)

La 5700x del test, nel calcolo, in linea di massima sta perfomando quanto una VII con unità funzionali in emulazione.

Chiaro che quest'ultima, nei titoli shader intrinsic, ha maggior potenza bruta (fc5/td2).

O meglio, paragonandolo a Pascal siamo a circa 10,5 TF.

Per rendere meglio l'idea, in shader intensive basta guardare la differenza tra 2070 e 1080ti, quasi simile.:)

Mikael, potresti dettagliate ogni tanto gli acronimi che usi per una migliore comprensione di noi poveri mortali? :)

Cosa stanno per:

LDS

Sfu

Single precision "mista"?

Ratio da 1/4 di grado?

Latenza su L2 "25%"? Che vuol dire ? La latenza si misura in colpi di clock, 25% rispetto a cosa ?


Scusami se ti faccio queste domande ma penso che sia a beneficio di tutti, per me sarebbe molto interessante comprendere meglio i tuoi post! :)

cronos1990
28-06-2019, 07:25
[ EDIT ]

Voglio un attimo capire più a fondo quei bench in timespy. Meglio riformulare il pensiero :D

Gyammy85
28-06-2019, 08:00
ma lo dice pure lui in fondo all'articolo che è ben di più di quel che si aspettava

So There we have it on the first results that have slipped out and while it’s not the most comprehensive set of results it is more than I expected us to catch this early on and with prelaunch drivers to boot. This is getting exciting for those waiting to see how things shake out come July 7th.

Infatti, il punto è che sembra avere performance costantemente elevate anche in casi chiaramente biased come questo…
Io sono sempre più curioso di vedere come si comporta nel computing/rendering, perché ho l'impressione che in vecchi software tipo specviewperf faccia il botto, e nel resto sarà sempre sopra nvidia as usual

Gigibian
28-06-2019, 08:09
Ho letto spesso da parecchi utenti qui nel forum parlare "male" di TechPowerUP perchè non "aggiornano" i risultati dei test delle videocard nelle comparazioni, senza ritestarle di volta in volta.

Non è così fortuntamente.

https://www.techpowerup.com/review/gpu-review-system-update-may-2019/

Ogni mese techpwerup sembra ritestare tutte le schede! :)

"VGA rebench is a monumental task for TechPowerUp. It involves testing 18 graphics cards in 21 games at 3 resolutions, or 63 game tests per card, which works out to 1,134 benchmark runs in all. "

"Just like for every other retest, every single graphics card has been retested on this system—we don't recycle results. Anything else would be wildly inaccurate."

questi sono i risultati aggiornati ad oggi:
https://tpucdn.com/review/gpu-review-system-update-may-2019/images/relative-performance_2560-1440.png

Cuprum
28-06-2019, 08:25
questi sono i risultati aggiornati ad oggi:
https://tpucdn.com/review/gpu-review-system-update-may-2019/images/relative-performance_2560-1440.png

Che gioco è?

cronos1990
28-06-2019, 08:38
Conti della "serva". Lo dico subito: hanno valenza quasi pari a zero per me prima di tutto. E' solo per avere un'idea.

Secondo il bench di Techpowerup a 2560x1440, la Vega 56 va il 20% in meno della 2070.
Ora: nel test Time Spy la Vega 56 va il 30% in meno della 2070.

Partendo da questi numeri, la 5700XT in un normale bench dovrebbe andare poco di più della Radeon VII e della 1080Ti, o comunque sugli stessi livelli.


Sicuramente è più un discorso di "speranze" che tecnicamente attendibile...

AceGranger
28-06-2019, 08:41
Che gioco è?

non è un gioco ma la media fra tutti i giochi testati.

Pelvix
28-06-2019, 08:47
vega 64 e 7 già esistono ;)

Appunto.

fraussantin
28-06-2019, 08:50
Conti della "serva". Lo dico subito: hanno valenza quasi pari a zero per me prima di tutto. E' solo per avere un'idea.



Secondo il bench di Techpowerup a 2560x1440, la Vega 56 va il 20% in meno della 2070.

Ora: nel test Time Spy la Vega 56 va il 30% in meno della 2070.



Partendo da questi numeri, la 5700XT in un normale bench dovrebbe andare poco di più della Radeon VII e della 1080Ti, o comunque sugli stessi livelli.





Sicuramente è più un discorso di "speranze" che tecnicamente attendibile...Il time spy è un bench particolare , oltretutto sono state usate cpu diverse.
Aspettiamo le rece reali fatte a tpu guru e hwu.
Cmq ho il sospetto che il +10% sulla 2070 sia un valore troppo ottimistico.

Gigibian
28-06-2019, 09:01
Che gioco è?

è la media di 23 giochi :)

misterlooter
28-06-2019, 09:07
molto esplicativo?
https://www.guru3d.com/articles-pages/amd-radeon-vii-16-gb-review,25.html
la radeon vii in timespy sta a malapena davanti ad una 2070
le cose sono due
o fumate pesante
o siete in malafede e venite qua solo per creare flame (riuscendoci perfettamente)
quello che vedo è che fa una marea di punti in più della vega64
https://cdn.wccftech.com/wp-content/uploads/2019/06/5700xt-Time-Spy-Table-1480x833.png

c'è da aggiungere che questa tabella è un raffronto con i suoi (di chi scrive l'articolo) test CON i9 9900k a 5ghz, quando il punteggio leak della 5700xt è stato fatto con un 8700k @ default, non ho idea di quanto incida la cpu, ma immagino che un pelo di differenza la faccia



fa sorridere vedere che ci sono 3-4 utenti che stanno qua ad aspettare la prima occasione per sparare le solite shitstorm gratuite :asd:

Nessuna malafede ne flame come pensi. Se quel bench è vero si sa cosa aspettarsi. Timespy non mente. E se uno è avvezzo al bench ed al game sa di cosa parlo. Inutile girarci intorno o cercare giustificazioni inutili come al solito.

cronos1990
28-06-2019, 09:14
Il time spy è un bench particolare , oltretutto sono state usate cpu diverse.
Aspettiamo le rece reali fatte a tpu guru e hwu.
Cmq ho il sospetto che il +10% sulla 2070 sia un valore troppo ottimistico.Si, chiaramente aspettiamo.

Aurum
28-06-2019, 09:17
Ho letto spesso da parecchi utenti qui nel forum parlare "male" di TechPowerUP perchè non "aggiornano" i risultati dei test delle videocard nelle comparazioni, senza ritestarle di volta in volta.

Non è così fortuntamente.

https://www.techpowerup.com/review/gpu-review-system-update-may-2019/

Ogni mese techpwerup sembra ritestare tutte le schede! :)

come mai hanno tolto Mankind Divided del 2016, Ghost Recon Wildlands del 2017 e GTA V del 2015 perché troppo vecchi e hanno lasciato Civilization VI del 2016 e Rainbow Six Siege e Witcher 3 del 2015? l'hanno spiegato da qualche parte?

G.Pedro
28-06-2019, 09:23
come mai hanno tolto Mankind Divided del 2016, Ghost Recon Wildlands del 2017 e GTA V del 2015 perché troppo vecchi e hanno lasciato Civilization VI del 2016 e Rainbow Six Siege e Witcher 3 del 2015? l'hanno spiegato da qualche parte?

In effetti mi sembrano scelte un po' bizzarre.

G.Pedro
28-06-2019, 09:24
Questo ragazzi ve l'ho detto varie volte, ma lo rispiego.
Il sintetico è significativo in media, ma non è un dato puramente effettivo via gaming.
Quando si effettuano bench come questo le radeon perdono, per emularsi le unità funzionali.
LDS 1/4, lds + sfu mezzo ratio, single precision mista circa il 50%. Dopo incide l'accesso alla l2, latenza ( 25% su rdna) migliore su AMD per via del lavoro in gruppo, cicli di clock, BW, compressione.
8800 circa è il punteggio della VII/2070, non a caso negli unreal finisce cosi'.

Una Vega 64 ad un ratio del 1/4° del teorico performa poco più di una 1080 (come da schema), una 56 poco più di una 1070. Negli unreal si arriva anche al 50% del teorico.:)

La 5700x del test, nel calcolo, in linea di massima sta perfomando quanto una VII con unità funzionali in emulazione.

Chiaro che quest'ultima, nei titoli shader intrinsic, ha maggior potenza bruta (fc5/td2).

O meglio, paragonandolo a Pascal siamo a circa 10,5 TF.

Per rendere meglio l'idea, in shader intensive basta guardare la differenza tra 2070 e 1080ti, quasi simile.:)

Diciamo che mi fido di quanto hai scritto, ma da quello che ho capito (non tutto ma non sono così stordito dai) un bench come time spy sarebbe la condizione peggiore per le amd.

argez
28-06-2019, 09:40
In realtà non pensavo fosse così complicato decidere qualche scheda video comprare, ma forse è perché stiamo discutendo su una base fragile e non ci sono vere prove su queste schede nuove. :stordita:

Dove ti giri ti giri te lo mettono nel qlo di 100-150 euro. La complicazione nasce dal fatto che devi decidere se dopo ti brucia di più per il peperoncino rosso o quello verde.

Vul
28-06-2019, 09:52
basta non comprare, non muore nessuno se togliete dei filtri/effetti inutili anzichè spendere centinaia di euro per dover per forza maxare tutto.

Free Gordon
28-06-2019, 10:30
come mai hanno tolto Mankind Divided del 2016, Ghost Recon Wildlands del 2017 e GTA V del 2015 perché troppo vecchi e hanno lasciato Civilization VI del 2016 e Rainbow Six Siege e Witcher 3 del 2015? l'hanno spiegato da qualche parte?

CIV6 e RSS sono inutili IMHO, The Witcher3 lo lascerei, è un gran gioco, ha venduto un sacco e ha un motore grafico molto completo. Come lascerei MKDiv e GR Wildlands con GTA5..

Free Gordon
28-06-2019, 10:33
basta non comprare, non muore nessuno se togliete dei filtri/effetti inutili anzichè spendere centinaia di euro per dover per forza maxare tutto.

quoto...
E' da anni che i giochi ad High, sono praticamente identici all'Ultra...

Vul
28-06-2019, 10:39
Passi Wildlands, ma GTA 5 e TW3...

Sono giochi che girano ad ultra maxati su una RX 570 a 1080p.

Quale sarebbe il valore di un loro benchmark? "Si gira bene maxato anche qui"?

quoto...
E' da anni che i giochi ad High, sono praticamente identici all'Ultra...

Questo è qualcosa che agli entusiasti di hardware spesso sfugge, proprio. Non è più il 2000 dove fra un setting e l'altro ci passava una montagna di differenza.

FaTcLA
28-06-2019, 10:45
Passi Wildlands, ma GTA 5 e TW3...
Sono giochi che girano ad ultra maxati su una RX 570 a 1080p.


tutti maxati a 45-55 fps forse, almeno tw3

fraussantin
28-06-2019, 10:45
Passi Wildlands, ma GTA 5 e TW3...

Sono giochi che girano ad ultra maxati su una RX 570 a 1080p.

Quale sarebbe il valore di un loro benchmark? "Si gira bene maxato anche qui"?
.

Hai presente l'alto refresh?
Cmq con la 570 con tutti i peli dubito che girasse proprio liscio

29Leonardo
28-06-2019, 10:48
Passi Wildlands, ma GTA 5 e TW3...

Sono giochi che girano ad ultra maxati su una RX 570 a 1080p.

Quale sarebbe il valore di un loro benchmark? "Si gira bene maxato anche qui"?


In quale universo parallelo?

V1TrU'z
28-06-2019, 10:48
Passi Wildlands, ma GTA 5 e TW3...

Sono giochi che girano ad ultra maxati su una RX 570 a 1080p.



Falso, soprattutto per GTA5

Vul
28-06-2019, 10:51
In quale universo parallelo?

https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9NLzQvNjY5NTMyL29yaWdpbmFsL2Zwcy5wbmc=

https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9LLzAvNjY5NDU2L29yaWdpbmFsL2Zwcy5wbmc=

fraussantin
28-06-2019, 10:55
https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9NLzQvNjY5NTMyL29yaWdpbmFsL2Zwcy5wbmc=



https://img.purch.com/r/711x457/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9LLzAvNjY5NDU2L29yaWdpbmFsL2Zwcy5wbmc=https://youtu.be/yUEL38Ensxo

Minuto 12 senza capelli e altra robetta

Free Gordon
28-06-2019, 10:58
https://youtu.be/yUEL38Ensxo

Minuto 12 senza capelli e altra robetta


Mi pare proprio che giri bene, sui 55fps no?
E' una cacchio di 570... :D

fraussantin
28-06-2019, 11:00
Mi pare proprio che giri bene, sui 55fps no?

E' una cacchio di 570... :DSi ma non è ne ultra ne maxato . È ottimizzato.

Non vorrei che qualcuno poi compra la 570 e ci resta male

Per il resto ok anche io ottimizzo sempre i settaggi

cronos1990
28-06-2019, 11:02
TW3 gira in FullHD con dettagli alti e senza pelo a... 40-50 FPS di media con una 970.

Il punto però secondo me non è quanto un motore di gioco è vecchio: il punto è usare giochi che sfruttino quanti più parametri grafici (tecnici) possibili. Se poi hai un gioco che fa una marea di FPS con qualunque scheda conta il giusto... tanto poi quello che conta è il confronto tra tali schede.

Se col gioco X la scheda A fa 150 FPS e la scheda B fa 100 FPS, usando il gioco Y con cui la scheda A fa 30 FPS vorrà dire che la scheda B farà 20 FPS. Il rapporto è quello (spero sia chiaro che è un esempio per far capire il concetto di fondo. Ovvio che non ha senso nella realtà dei fatti).

fraussantin
28-06-2019, 11:06
TW3 gira in FullHD con dettagli alti e senza pelo a... 40 FPS di media con una 970.



).

Ma No dai xD

60 fissi li tiene più o meno ovunque spelato e con ombre medie con la 970 . Molti lo hanno giocato anche con i capelli on al minimo. Togliendo qualcosina.
Si sono alcune zone dove droppa , e la pioggia.

cronos1990
28-06-2019, 11:08
Ma No dai xD

60 fissi li tiene più o meno ovunque spelato e con ombre medie con la 970 . Molti lo hanno giocato anche con i capelli on al minimo. Togliendo qualcosina.
Si sono alcune zone dove droppa , e la pioggia.Allora vorrà dire che avevo qualche collo di bottiglia.

Perchè io sul mio PC, con la 970 in FullHD i 60 FPS fissi su TW3 ce li avevo solo se prendevo un pennarello indelebile e scrivevo "60" in alto a destra sullo schermo :fagiano:

ninja750
28-06-2019, 11:45
https://www.overclock3d.net/gfx/articles/2019/06/27095724938s.jpg

Free Gordon
28-06-2019, 12:14
Si ma non è ne ultra ne maxato . È ottimizzato.
Non vorrei che qualcuno poi compra la 570 e ci resta male
Per il resto ok anche io ottimizzo sempre i settaggi

Ehm.. :fagiano: Fa vedere prima le impostazioni è proprio ad Ultra con praticamente tutto attivo... :stordita:
Sei tu che l'hai postato! :sofico:

fraussantin
28-06-2019, 12:33
Ehm.. :fagiano: Fa vedere prima le impostazioni è proprio ad Ultra con praticamente tutto attivo... :stordita:

Sei tu che l'hai postato! :sofico:Ultra quello che gli pare.https://uploads.tapatalk-cdn.com/20190628/a0607382e35fd57f8e6b99c977e6b268.jpghttps://uploads.tapatalk-cdn.com/20190628/fc3ab1dfa45d2bb38a943692338871c4.jpg


I capelli sono spenti

Con 4 lupi cala a 50 , non immagino in piazza a novigrad o nella città del tussard come vadi.

Poi per carità sono ottimi risultati ,ma non esageriamo. https://uploads.tapatalk-cdn.com/20190628/add1e19fa3f7e301759200a5dc167f35.jpg

Vul
28-06-2019, 13:18
E che c'entra che ha l'hairworks spento?

E' una feature (anche implementata malissimo) Nvidia non AMD. Tra l'altro implementata anche male (basta paragonare la differenza visiva fra tesselation 8x e 64x...stesso risultato visivo 30% di fps di differenza) e su console nemmeno c'è.

FaTcLA
28-06-2019, 13:50
E che c'entra che ha l'hairworks spento?

Non c’entra niente, come non é mai c’entrato niente Civilization tra i benchmark vu-gi-a :rolleyes:
Gta V lo capisco molto meglio perché é ancora arci giocato secondo le stats di steam

X360X
28-06-2019, 15:03
Non c’entra niente, come non é mai c’entrato niente Civilization tra i benchmark vu-gi-a :rolleyes:
Gta V lo capisco molto meglio perché é ancora arci giocato secondo le stats di steam

per me no, rockstar ha fatto un gioco in un decennio, un porting di un gioco old gen 2013 che gira come gira, e prendere in considerazione un titolo del genere perché ci sono ancora tanti a giocarci non mi piace per vedere le potenzialità delle GPU.

capisco the witcher 3, perché è molto più elaborato del porting rockstar anche se non è nuovo, capisco anche l'anvil, troppo pesante che sia, ma ubisoft i giochi ce li fa ha un senso vedere come girano.

Ma GTA o peggio ancora Civilization per me li possono far sparire anche subito. E di sicuro non si dovrebbero usare opzioni in caso avvantaggino\svantaggino troppo delle VGA, perché non ci si gioca l'olimpiade, è una media per rendere come possono andare le VGA in generale, e se una perde 20fps per "filo d'erba splendido" non dovrebbe influire così tanto nella media.

Poi ognuno ha le sue opinioni, rispettabili, non seve discuterci sopra insomma.

zerotre
28-06-2019, 15:25
Tpu fa' medie rispetto a vari engine ancora esistenti e inserisce e leva giochi in base all'engine e anche a valutazioni personali, civ6 c'e' perche' secondo loro e' un gioco di tanti anni, con il suo seguito ecc ecc.

E tutto questo e' lecito e normale, come dovrebbe essere normale leggere per intero le recensioni e prendere le medie per quello che sono, sicuramente non indicative del comportamento reale di una gpu.

Quello che non e' normale e' venire a spacciare tali medie come metro di paragone assoluto, senza aver letto la review o capito il perche' sono stati usati tali giochi.

fraussantin
28-06-2019, 15:28
Tpu fa' medie rispetto a vari engine ancora esistenti e inserisce e leva giochi in base all'engine e anche a valutazioni personali, civ6 c'e' perche' secondo loro e' un gioco di tanti anni, con il suo seguito ecc ecc.



E tutto questo e' lecito e normale, come dovrebbe essere normale leggere per intero le recensioni e prendere le medie per quello che sono, sicuramente non indicative del comportamento reale di una gpu.



Quello che non e' normale e' venire a spacciare tali medie come metro di paragone assoluto, senza aver letto la review o capito il perche' sono stati usati tali giochi.Infatti più che le medie andrebbero guardati i singoli giochi che più ci interessano. E non fermarsi ai valori riportati nelle barrette , ma guardarsi video sul tubo per vedere realmente come viaggia con cpu e ram "normali".
Le medie si prendono appunto per far media.

Roland74Fun
28-06-2019, 15:36
GTA 5 girava alla perfezione sulla mia R7 370 e ancora di più oggi sulla 480 freesyncato. Con MSAA x4 droppa pure con le schede delle altre marche.
Scalabile da una apu della precedente generazione con grafica integrata fino ad uno sli di titan.
Il motore di gioco il RAGE, fa di tutto di piu' a livelli eccellenti, e rispetto alla versione di GTA 4 ha subito un notevole upgrade.

Che poi vada meglio su una marca e non su un'altra non è stato mai un mistero.
Ma per chi apprezza i capolavori dell'arte questo non è mai motivo di discriminazione.
Oggi invece definirsi GTA 5 Free è motivo di vanto da parte degli youtubers di vecchia scuola di quasi trentenni.
Perché loro addirittura giocavano colla PS2.

LOL.

Ale55andr0
28-06-2019, 15:39
Dove ti giri ti giri te lo mettono nel qlo di 100-150 euro. La complicazione nasce dal fatto che devi decidere se dopo ti brucia di più per il peperoncino rosso o quello verde.

date una 2080ti a quest'uomo :O :read:

Vul
28-06-2019, 16:30
Infatti più che le medie andrebbero guardati i singoli giochi che più ci interessano. E non fermarsi ai valori riportati nelle barrette , ma guardarsi video sul tubo per vedere realmente come viaggia con cpu e ram "normali".
Le medie si prendono appunto per far media.

Non so quanto sia d'accordo con il discorso cpu/ram normali.

Si mettono le cpu/ram più veloci in modo che la cpu sia un fattore irrilevante nella comparazione delle gpu.

Sono d'accordo che spesso per farsi idee su una gpu la soluzione migliore sia vedersi i video su youtube, puoi anche vedere stuttering e altre cose che nelle medie non sono evidenti.

Sono in disaccordo invece sul guardare i singoli giochi che ci interessano, voglio dire, se un gioco mi interessa l'ho già giocato.

Arkham City è l'ultimo gioco che ricordo che mi abbia spinto a cambiare gpu. La 670 l'ho cambiata solo perchè ne ho avuto occasione sennò stavo ancora con quella..

cronos1990
28-06-2019, 17:00
date una 2080ti a quest'uomo :O :read:No, piuttosto regalatela a me :asd:

Ton90maz
28-06-2019, 19:54
Quello che non e' normale e' venire a spacciare tali medie come metro di paragone assoluto, senza aver letto la review o capito il perche' sono stati usati tali giochi.Come accade tra l'utenza più generalista e meno informata, evito gli esempi ma lascio immaginare come viene dipinta amd.

argez
28-06-2019, 20:46
date una 2080ti a quest'uomo :O :read:


Ti dirò...la rivenderei subito per una fascia media o bassa che consumi e scaldi meno...lo sweet spot perf/watt sarebbe una scheda come la 1660ti :O .

Gigibian
28-06-2019, 21:49
Tpu fa' medie rispetto a vari engine ancora esistenti e inserisce e leva giochi in base all'engine e anche a valutazioni personali, civ6 c'e' perche' secondo loro e' un gioco di tanti anni, con il suo seguito ecc ecc.

E tutto questo e' lecito e normale, come dovrebbe essere normale leggere per intero le recensioni e prendere le medie per quello che sono, sicuramente non indicative del comportamento reale di una gpu.

Quello che non e' normale e' venire a spacciare tali medie come metro di paragone assoluto, senza aver letto la review o capito il perche' sono stati usati tali giochi.

Senza che inizi a fare polemica .

Le medie dei REVIEWER SONO 20 ANNI CHE VENGONO USATE DA TUTTI IN QUESTO FORUM.

Oppure da oggi in poi non si posso più usare come riferimento perché lo dici tu?

Nessuno ha spacciato proprio NULLA, e nessuno ha mai detto che abbiano valenza "assoluta", quello è un tuo pensiero deviato e soggettivo.
Semplicemente sono un'interpolazione non ottima ma sufficiente per esprimere un parere di performance generalista su di una vga.

Io Semplicemente ho riportato , pensando di fare cosa gradita, un retest aggiornato a maggio 2019 con gli ultimi driver di una testata famosa. 23 giochi tutti ritestati oggi con tutte le schede video. Ripeto, pensando di fare qualcosa di minimamente utile visto l'arrivo della nuove GPU, e visto che leggevo molti che si lamentavano che TPU non aggionava I bench delle videocard.

Gigibian
28-06-2019, 21:53
Infatti più che le medie andrebbero guardati i singoli giochi che più ci interessano. E non fermarsi ai valori riportati nelle barrette , ma guardarsi video sul tubo per vedere realmente come viaggia con cpu e ram "normali".
Le medie si prendono appunto per far media.

La cosa migliore è che ognuno si guarda i singoli giochi che gli interessano, ovviamente.

Ma dal punto di vista di un reviewer , non potendolo fare, devi per fare dare un idea media sui vari giochi, non hai alternativa.

L'unica cosa che io non userei la media secca ma la standard deviation dei valori di fps ... Così da escludere i picchi sporadici sia alti che bassi ...

fraussantin
28-06-2019, 22:44
La cosa migliore è che ognuno si guarda i singoli giochi che gli interessano, ovviamente.



Ma dal punto di vista di un reviewer , non potendolo fare, devi per fare dare un idea media sui vari giochi, non hai alternativa.



L'unica cosa che io non userei la media secca ma la standard deviation dei valori di fps ... Così da escludere i picchi sporadici sia alti che bassi ...Ma si certamente . Ma io almeno dico sempre le medie servono appunto per fare media , come l'esempio prima della 470 e tw3.
Fa 56 di media ad ultra e viva la 470 . Poi incontri 3 lupi e cala ,in città immagino pure peggio se poi piove muore sicura. ( Ovviamente abbassando va benissimo ma è solo per fare un esempio )
La media è quella perchè in tw3 la maggior parte del tempo lo passi a spasso nelle praterie. Ma se fai 70 a passeggio e poi 40 50 in combat la bestemmia poi ci sta tutta.
Poi se si prendono le medie di panieri con giochi a caso o a furbo facciamo come l'istat con l'inflazione controllata.

FreeMan
28-06-2019, 23:03
Datevi un pò una calmata.. con il caldo il ban è facilitato

>bYeZ<

FvR 93
28-06-2019, 23:11
https://portal.eaeunion.org/sites/odata/_layouts/15/Portal.EEC.Registry.UI/DisplayForm.aspx?ItemId=62851&ListId=d84d16d7-2cc9-4cff-a13b-530f96889dbc

risulterebbe una eventuale rx590xt, probabilmente una gcn a 7nm

qualcuno mi sa dire se la data di validità ''Срок действия '' indica il lasso temporale di questa lineup? cioè serie 5xxx fino al 2023?

Mi tranquillizza una eventuale presenza di rx5950xt

mircocatta
29-06-2019, 08:22
https://portal.eaeunion.org/sites/odata/_layouts/15/Portal.EEC.Registry.UI/DisplayForm.aspx?ItemId=62851&ListId=d84d16d7-2cc9-4cff-a13b-530f96889dbc

risulterebbe una eventuale rx590xt, probabilmente una gcn a 7nm

qualcuno mi sa dire se la data di validità ''Срок действия '' indica il lasso temporale di questa lineup? cioè serie 5xxx fino al 2023?

Mi tranquillizza una eventuale presenza di rx5950xt

sinceramente tutti quei nomi non hanno senso..
sono davvero troppi i nomi registrati sopra le 5700, sono ben 10.
la 5700xt già costa 450€, la 5950xt quanto arriverà, 1200€?! certo, avremmo a che fare con una line up mostruosa, con una scheda ogni 50€
imho è più facile che verranno effettivamente usati solo i numeri "XX00", quindi 5800-5900 con varianti XT

Roland74Fun
29-06-2019, 08:25
5950xt quanto arriverà, 1200€?!

Si adeguerà i prezzi del principale competitor, visto che ormai è assodato, c'è il cartello.