PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 [139] 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Gello
17-08-2017, 19:18
Minchia, in quella di mezzo sembra carlo conti...

Io sapevo che con pelle olivastra ci si riferiva ad una pelle particolare di quelle dai capelli rossi... Bho... E io per le rosse - in carne ed ossa - vado matto...

Ma dov'è finito goofy?

:oink: :oink: :oink:

Olivastra son quelle piu' scure cmq, un po' prima del mulatto :oink:

Giovamas
17-08-2017, 21:32
Bho... E io per le rosse - in carne ed ossa - vado matto...



completamente OT e mi scuso.. ma.. viva le rosse :oink: :oink:

mikael84
20-08-2017, 14:39
Bisognerà vedere però se e quanto piomberanno pure le nuove :D
Tanto senza concorrenza possono centellinare le prestazioni giusto per dare quel minimo in più...e magari sparare poi dei refresh postumi...
Abbiamo visto che cosa hanno fatto con le 2 titan pascal, prima una a 1300€ e poi il refresh per la gioia dei possessori della prima :sofico:

Tiger, aspettiamoci una scena analoga.
Per la concorrenza, non si riesce a competere a livello di virgola mobile, AMD non ha unità funzionali e deve emularle.
Per rendere l'idea, 6GPC pieni equivalgono a 18 teraflops almeno.
Il grosso problema, ma veramente grosso è in banda. Vega per via dei 4 back end e della compressione ha un' uscita pari a 410gb/s, la stessa di una una Fury.
Questo in compressione rop's, senza compressione, Vega mostra risultati più scarsi che la fury (clamoroso ma vero), e la compressione in stile Maxwell non è molto adatta al 2:1, valore che spesso non viene decompresso.
Immagina una 1080ti con la banda della 1070/1080, perderebbe sicuramente percentuale.
Il vero punto di forza AMD è dato dal blending fp32 (MSAA8X o 4/5k), dove le rop's AMD sono ben superiori, in quanto quest'ultima mantiene tutto attivo, Nvidia cala di 1/4, purtroppo la banda AMD limita a sto giro operazioni simili, ecco perchè non decolla anche in condizioni favorevoli.
AMD usa rop's per MSAA e blending, Nvidia usa le rop's per picchi teorici z-buffer (color ops- z-ops) ed i vantaggi riguardano sopratutto il backfaceculling (heaven), in quanto i dati dello z-buffer sono utilizzati per calcolare la distanza degli oggetti e per le operazioni di rimozione dei poligoni nascosti.

Insomma in parole povere bisognerebbe riscrivere tutto.
Con Volta questo non succederà, ogni GPC scala in modo adeguato.:)

Legolas84
20-08-2017, 18:51
Con Volta questo non succederà, ogni GPC scala in modo adeguato.:)

E questo potrebbe ampliare la forbice prestazionale con Pascal in che percentuale secondo te? :)

mikael84
20-08-2017, 19:15
E questo potrebbe ampliare la forbice prestazionale con Pascal in che percentuale secondo te? :)

Non è propriamente un vantaggio di suo, ma è un fattore che va a penalizzare vega.:)
Ti faccio un'esempio.
Nvidia ha i GPC, quindi ogni stadio scala linearmente, e tutto ciò che processi in più, gode sia di miglior l2 e che di BW.
I rapporti in BW tra 980ti e 1070 sono circa simili, per la maggior compressione Pascal, immagina una 1080ti con una BW pari a quella della 1070 (anzi pure leggermente meno), sai che strozzamento in certe condizioni.

Quando fai operazioni SSAA/MSAA o blending generale, utilizzi molta porzione di banda.
Pensa che alla 7970 pur avendo le stesse rop's delle 6970, le hanno dovuto aumentare l'ampiezza di banda a 384 bit per sfruttare tutte le rop's che nella 6970 in blending andavano la metà del valore.

Questo ovviamente, per far capire che se non hai un' aumento lineare in ogni stadio ti ritrovi a dover combattere con colli di bottiglia evidenti.
Se Vega dovesse avere problemi in BW, già impostando i vari MSAA potrebbe risentirne, anche per via delle rop's che potrebbero lavorare a livelli inferiori.

Questo con Nvidia non succede, quindi non ha dei colli di bottiglia hardware, anzi ne sfrutta al meglio tutto, anche se una scheda può andare meglio dell'altra in base a come si sfrutta la scheda.:)

Ale55andr0
20-08-2017, 19:23
Non è propriamente un vantaggio di suo, ma è un fattore che va a penalizzare vega.:)
Ti faccio un'esempio.
Nvidia ha i GPC, quindi ogni stadio scala linearmente, e tutto ciò che processi in più, gode sia di miglior l2 e che di BW.
I rapporti in BW tra 980ti e 1070 sono circa simili, per la maggior compressione Pascal, immagina una 1080ti con una BW pari a quella della 1070 (anzi pure leggermente meno), sai che strozzamento in certe condizioni.

Quando fai operazioni SSAA/MSAA o blending generale, utilizzi molta porzione di banda.
Pensa che alla 7970 pur avendo le stesse rop's delle 6970, le hanno dovuto aumentare l'ampiezza di banda a 384 bit per sfruttare tutte le rop's che nella 6970 in blending andavano la metà del valore.

Questo ovviamente, per far capire che se non hai un' aumento lineare in ogni stadio ti ritrovi a dover combattere con colli di bottiglia evidenti.
Se Vega dovesse avere problemi in BW, già impostando i vari MSAA potrebbe risentirne, anche per via delle rop's che potrebbero lavorare a livelli inferiori.

Questo con Nvidia non succede, quindi non ha dei colli di bottiglia hardware, anzi ne sfrutta al meglio tutto, anche se una scheda può andare meglio dell'altra in base a come si sfrutta la scheda.:)

ma su vega, sta cosa, è fixabile via software o resta un limite intrinseco dell'hardware?

Legolas84
20-08-2017, 19:33
Non è propriamente un vantaggio di suo, ma è un fattore che va a penalizzare vega.:)

Ti faccio un'esempio.

Nvidia ha i GPC, quindi ogni stadio scala linearmente, e tutto ciò che processi in più, gode sia di miglior l2 e che di BW.

I rapporti in BW tra 980ti e 1070 sono circa simili, per la maggior compressione Pascal, immagina una 1080ti con una BW pari a quella della 1070 (anzi pure leggermente meno), sai che strozzamento in certe condizioni.



Quando fai operazioni SSAA/MSAA o blending generale, utilizzi molta porzione di banda.

Pensa che alla 7970 pur avendo le stesse rop's delle 6970, le hanno dovuto aumentare l'ampiezza di banda a 384 bit per sfruttare tutte le rop's che nella 6970 in blending andavano la metà del valore.



Questo ovviamente, per far capire che se non hai un' aumento lineare in ogni stadio ti ritrovi a dover combattere con colli di bottiglia evidenti.

Se Vega dovesse avere problemi in BW, già impostando i vari MSAA potrebbe risentirne, anche per via delle rop's che potrebbero lavorare a livelli inferiori.



Questo con Nvidia non succede, quindi non ha dei colli di bottiglia hardware, anzi ne sfrutta al meglio tutto, anche se una scheda può andare meglio dell'altra in base a come si sfrutta la scheda.:)



Quindi diciamo che il punto forte di nvidia da Maxwell in avanti è di essere riusciti a creare appunto un'architettura bilanciata a differenza di AMD.... per questo pur avendo meno gflops va di più nelle situazioni reali....

Alla fine però penso che in AMD siano al corrente delle falle nella progettazione delle loro GPU, quindi servirebbe davvero abbandonare gcn che ormai non ce la fa più.

Secondo te con navi deriveranno ancora da gcn o finalmente partoriranno un'architettura nuova?


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ren
20-08-2017, 20:05
Quindi diciamo che il punto forte di nvidia da Maxwell in avanti è di essere riusciti a creare appunto un'architettura bilanciata a differenza di AMD.... per questo pur avendo meno gflops va di più nelle situazioni reali....

La struttura fixed-setup(TPC/GPC) è stata avviata da fermi.
Maxwell ha aggiunto principalmente il tiling e gli algoritmi di compressione.

Gli shader core invece abbracciano un discorso più ampio, già affrontato innumerevoli volte...:(

Crysis90
20-08-2017, 20:13
Secondo te con navi deriveranno ancora da gcn o finalmente partoriranno un'architettura nuova?


Non mi pare abbiano né le risorse, né il tempo per progettare qualcosa "da zero".
Sarà sicuramente (almeno in parte) un derivato di GCN.
Spero che non ripetano lo stesso folle errore di non aumentare gli SP, come hanno fatto da Fiji a Vega. :doh:

Alla fine è probabile che i consumi mostruosi di Vega siano proprio causato dal fatto che non aumentando il n°degli SP hanno dovuto per forza tirare le frequenze a valori da pesante OC.
Se aumentavano gli SP, ma mantenevano invariate le frequenza magari avevano lo stesso aumento in prestazioni ma magari non consumava quanto una centrale nucleare.

Ale55andr0
20-08-2017, 20:17
Spero che non ripetano lo stesso folle errore di non aumentare gli SP, come hanno fatto da Fiji a Vega. :doh:
.

Se già consuma tanto con lo stesso numero pensa se ne schiaffano dentro di più che veniva fuori....magari sono stati praticamente costretti a restare su 64CU/4096sp

mikael84
20-08-2017, 23:03
ma su vega, sta cosa, è fixabile via software o resta un limite intrinseco dell'hardware?

No è un limite hardware, in banda l'uscita è pessima. Occhio non sempre è un limite in base alle programmazioni, ma è decisamente meglio non avere a che fare con colli di bottiglia.;)

Quindi diciamo che il punto forte di nvidia da Maxwell in avanti è di essere riusciti a creare appunto un'architettura bilanciata a differenza di AMD.... per questo pur avendo meno gflops va di più nelle situazioni reali....

Alla fine però penso che in AMD siano al corrente delle falle nella progettazione delle loro GPU, quindi servirebbe davvero abbandonare gcn che ormai non ce la fa più.

Secondo te con navi deriveranno ancora da gcn o finalmente partoriranno un'architettura nuova?


Inviato dal mio iPhone utilizzando Tapatalk Pro

Maxwell non è proprio un'architettura nuova, riprende Kepler e lo ottimizza in tutto e per tutto.:)
-compressione
-valore rop's raddoppiato
-via le dipendenze, ogni warp lavora al meglio
-istruzioni per cuda che passano da 314 a 512
-cache l2 raddoppiata tra 780/980ti
-P.E di nuova generazione (anche se lascia il tempo che trova)
-latenze nettamente migliorate.

Riguardo Navi, sinceramente sto seguendo poco, certo bisognerà fare qualcosa in più.
Per ora si aspetta il gioellino GV104.:)

ilcose
20-08-2017, 23:21
No è un limite hardware, in banda l'uscita è pessima. Occhio non sempre è un limite in base alle programmazioni, ma è decisamente meglio non avere a che fare con colli di bottiglia.;)


Ma scusami usando la compressione dovrebbe avere 410gb/s. Un valore del genere arriva ad essere limitante allo stato attuale? In quali condizioni?
Al momento sembra che vega abbia appunto problemi del tipo che non riesce a sfruttare neanche questi 410 gb/s.

Siccome non ho seguito molto la Fury, c'erano scenari in cui era bandwidth limited? A giudicare dalle prestazioni in 4k e con AA non mi pare...

mikael84
20-08-2017, 23:39
Ma scusami usando la compressione dovrebbe avere 410gb/s. Un valore del genere arriva ad essere limitante allo stato attuale? In quali condizioni?
Al momento sembra che vega abbia appunto problemi del tipo che non riesce a sfruttare neanche questi 410 gb/s.

Siccome non ho seguito molto la Fury, c'erano scenari in cui era bandwidth limited? A giudicare dalle prestazioni in 4k e con AA non mi pare...

Vega occupa una porzione di banda superiore rispetto alla fury, tante texture mapping e ALU in processo. Vega ha problemi con le texture non compresse dove in banda ha un'uscita peggiore della fury.
I 4 back end sono un problema considerando che Vega ha un fill rate pari a quello di fury pur con 64 gpixel fp32
Non può essere sempre un problema, ma una 1080ti con 256gb/s sarebbe strozzata, stessa cosa con AMD.
Per la cronaca, non si può minimamente paragonare una banda AMD con Nvidia.
I 410gb/s sono solo numeri teorici.
A confronto con una 1080ti AMD dovrebbe quasi toccare i 700gb/s a miglior compressione.;)

Scusate l'off

Ale55andr0
21-08-2017, 08:56
No è un limite hardware, in banda l'uscita è pessima. Occhio non sempre è un limite in base alle programmazioni, ma è decisamente meglio non avere a che fare con colli di bottiglia.;)



Assurdo si portino ancora dietro sto "bug" di progettazione dal 2011, non bastasse il passo indietro nell'efficienza rapportato alle performance nonostante il pp dimezzato :rolleyes: (Lisa Su: "Vega is very, very efficent" :doh:)

mikael84
22-08-2017, 14:23
Assurdo si portino ancora dietro sto "bug" di progettazione dal 2011, non bastasse il passo indietro nell'efficienza rapportato alle performance nonostante il pp dimezzato :rolleyes: (Lisa Su: "Vega is very, very efficent" :doh:)

Beh, vedo in firma una 1080 AMP, scheda che sotto OC è superiore a Vega in tutte le sue forme.
Ti sei Nvidizzato, io ormai cerco di tirare a Volta, anche se sarà dura, la TI è una delle mie prime opzioni.:)

Ubro92
22-08-2017, 14:49
Beh, vedo in firma una 1080 AMP, scheda che sotto OC è superiore a Vega in tutte le sue forme.
Ti sei Nvidizzato, io ormai cerco di tirare a Volta, anche se sarà dura, la TI è una delle mie prime opzioni.:)

Come dargli torto una Vega 64 costa quanto una 1080ti e va quanto una 1080 più o meno...

Menomale che ho seguito il tuo consiglio prendendo la 980ti, altrimenti a quest'ora con i sovrapprezzi tra usato e nuovo avrei dovuto attendere con l'integrata intel fino a volta :sofico:

mircocatta
22-08-2017, 14:53
Come dargli torto una Vega 64 costa quanto una 1080ti e va quanto una 1080 più o meno...

Menomale che ho seguito il tuo consiglio prendendo la 980ti, altrimenti a quest'ora con i sovrapprezzi tra usato e nuovo avrei dovuto attendere con l'integrata intel fino a volta :sofico:

sono messo uguale, se tutto va bene però domani riesco a procurarmi una 1080ti evga a 600€

mikael84
22-08-2017, 15:23
Come dargli torto una Vega 64 costa quanto una 1080ti e va quanto una 1080 più o meno...

Menomale che ho seguito il tuo consiglio prendendo la 980ti, altrimenti a quest'ora con i sovrapprezzi tra usato e nuovo avrei dovuto attendere con l'integrata intel fino a volta :sofico:

La 980ti come la tua a 1500/8000 è praticamente una 1080 stock da review, quindi ancora un'ottima scelta.
Verrà soppianta in tutto da Volta.:)

sono messo uguale, se tutto va bene però domani riesco a procurarmi una 1080ti evga a 600€

Una 1080ti EVGA a 600 euro è ottimo, prendila.;)

Ale55andr0
22-08-2017, 15:34
Beh, vedo in firma una 1080 AMP, scheda che sotto OC è superiore a Vega in tutte le sue forme.
Ti sei Nvidizzato, io ormai cerco di tirare a Volta, anche se sarà dura, la TI è una delle mie prime opzioni.:)

Prima o poi doveva accadere, hanno proprio calcato la mano in quel di amd per farmi incazzare :asd: la 1080 mi permetterà di giocare in 1080p maxato o 2k DSR (per quei titoli con AA scarso) senza problemi e la terrò finchè sarà adeguata (se non mi si sfascia anzitempo :stordita:), poi aggiornerò il solo comparto video del pc alla bisogna nel dopo volta, "forte" di un octacore occato e 16gb di ram a 3200 che penso andranno bene un lustro e fischi come piattaforma base :asd:. Dal momento che hai la 980ti occata direi che puoi "sopportare" :D perchè mi sa che con la 2080 il salto sarà più interessante e il costo praticamente quello, poi ovviamente valuterai te che preferisci fare, vista anche la passione :)

Luca T
22-08-2017, 15:34
sono messo uguale, se tutto va bene però domani riesco a procurarmi una 1080ti evga a 600€

Imho prendila al volo e liquidala! :D

Okkio però a che versione è perché la Sc2 non sembra avere WB

mircocatta
22-08-2017, 15:41
Imho prendila al volo e liquidala! :D

Okkio però a che versione è perché la Sc2 non sembra avere WB

speriamo, ma credo sia proprio quella :doh: che sfiga, ora guardo sul sito ek

edit: esatto non c'è..speriamo non sia quella anche se ho paura che sia proprio lei, vabè nel caso la terrò ad aria

Luca T
22-08-2017, 15:47
speriamo, ma credo sia proprio quella :doh: che sfiga, ora guardo sul sito ek

edit: esatto non c'è..speriamo non sia quella anche se ho paura che sia proprio lei, vabè nel caso la terrò ad aria

Ad aria quella non è il massimo, sembra che scaldi un po'! :(

Ad aria ideale è la Strix

Legolas84
22-08-2017, 15:55
La sc mi sa che è pcb reference quindi ci dovrebbe andare il wb della founders.


Inviato dal mio iPhone utilizzando Tapatalk Pro

Luca T
22-08-2017, 15:59
La sc mi sa che è pcb reference quindi ci dovrebbe andare il wb della founders.


Inviato dal mio iPhone utilizzando Tapatalk Pro


La SC si è reference, ma la SC2 sembra essere demenzialmente PCI custom!

C'era una SC2 sul mercatino che non presi proprio per quel motivo, poi fortunatamente ho trovato allo stesso prezzo le TitanX

TigerTank
22-08-2017, 20:09
Come dargli torto una Vega 64 costa quanto una 1080ti e va quanto una 1080 più o meno...


E purtroppo a livello di consumi sono in alto mare...

La SC si è reference, ma la SC2 sembra essere demenzialmente PCI custom!

C'era una SC2 sul mercatino che non presi proprio per quel motivo, poi fortunatamente ho trovato allo stesso prezzo le TitanX

Per via dei sensori? Perchè per il resto dovrebbe essere come la reference....o sbaglio? Comunque basta verificare ad esempio sul sito EK, per ogni wubbo postano la lista delle vga compatibili :)

Giovamas
22-08-2017, 21:12
Beh, vedo in firma una 1080 AMP, scheda che sotto OC è superiore a Vega in tutte le sue forme.
Ti sei Nvidizzato, io ormai cerco di tirare a Volta, anche se sarà dura, la TI è una delle mie prime opzioni.:)

ha fatto la scelta giusta secondo me:)

mikael84
22-08-2017, 23:26
Prima o poi doveva accadere, hanno proprio calcato la mano in quel di amd per farmi incazzare :asd: la 1080 mi permetterà di giocare in 1080p maxato o 2k DSR (per quei titoli con AA scarso) senza problemi e la terrò finchè sarà adeguata (se non mi si sfascia anzitempo :stordita:), poi aggiornerò il solo comparto video del pc alla bisogna nel dopo volta, "forte" di un octacore occato e 16gb di ram a 3200 che penso andranno bene un lustro e fischi come piattaforma base :asd:. Dal momento che hai la 980ti occata direi che puoi "sopportare" :D perchè mi sa che con la 2080 il salto sarà più interessante e il costo praticamente quello, poi ovviamente valuterai te che preferisci fare, vista anche la passione :)

La 1080 è una belva esagerata per un 1080p.
Prenditi magari un monitor 1440p nativo (16:9 o 21:9) e te la godi al massimo:)
Ora mettiti sotto e gioca, che avrai tantissime soddisfazioni, fidati.:)
Il sistema complessivo è buono.

ha fatto la scelta giusta secondo me:)

Assolutamente si. :)

egounix
23-08-2017, 05:38
La 1080 è una belva esagerata per un 1080p.
Prenditi magari un monitor 1440p nativo (16:9 o 21:9) e te la godi al massimo:)
Ora mettiti sotto e gioca, che avrai tantissime soddisfazioni, fidati.:)
Il sistema complessivo è buono.



Assolutamente si. :)

Strano, a giro la consigliano appena per il 1080p e a 1440p con dettagli moderati LOL

Crysis90
23-08-2017, 07:25
Strano, a giro la consigliano appena per il 1080p e a 1440p con dettagli moderati LOL

Si, i fanboy rossi.
Io sono 14 mesi che gioco SOLO in 4K nativo con TW3 e BF1.

Va da Dio. :ave: :ave:

fraussantin
23-08-2017, 07:30
Strano, a giro la consigliano appena per il 1080p e a 1440p con dettagli moderati LOLE poi guardano a vega per il 4k :asd:

egounix
23-08-2017, 07:31
E poi guardano a vega per il 4k :asd:

Vega è sold out, quindi il prezzo è giusto.

La titan è uno specchietto per gli enth e sulla 1080ti nvidia ruba.

:O

Ps: non sono mie parole, ma sono parametri di incoerenza.

Mi manca la vignetta di raven!

egounix
23-08-2017, 07:49
Ma infatti ti do' ragione e quoto che sono due fatti reali.
Non critico mica quello, ma chi ci balzella sopra per difendere la propria parte.
Stranamente a sto giro a portare avanti questo, sei solo tu, per il resto polvere di parole che sono state versate prima dell'uscita... Prezzo, prezzo prestazioni, e bla bla bla ;)

Ripeto, ci vuole la vignetta di raven :D

Raven
23-08-2017, 07:54
ha fatto la scelta giusta secondo me:)

... ha solo sbagliato nel rimanere senza VGA per un anno intero!... :asd:

Raven
23-08-2017, 07:55
Ma infatti ti do' ragione e quoto che sono due fatti reali.
Non critico mica quello, ma chi ci balzella sopra per difendere la propria parte.
Stranamente a sto giro a portare avanti questo, sei solo tu, per il resto polvere di parole che sono state versate prima dell'uscita... Prezzo, prezzo prestazioni, e bla bla bla ;)

Ripeto, ci vuole la vignetta di raven :D

erm.... quale delle molte!?... :stordita:

Raven
23-08-2017, 07:57
http://i.imgur.com/oY9FF8m.png

Se è questa, pensare che mi ero tenuto "largo", con 500€!... :p

fraussantin
23-08-2017, 07:58
Sono fatti, come quando le 1060 erano sold out a 360-390€. Se sei un rivenditore e c'è chi te le compra e ti finisce lo stock a quelle cifre perché dovresti guadagnarci meno?

Se nVidia si è inventata le FE per venderle a 100$ in più e la gente le ha comprate ugualmente per averle un mese prima chi è il fesso, se c'è ne è uno, nVidia o chi le ha comprate?Non capito perchè chi comora la fe al d1 a 100 euro in piú è fesso, e invece chi ha preso vega al d1 allo stesso prezzo se non piú cara,con prestazioni simili dopo 1 anno e con un alimentatore nuovo è un genio.

Scusa ma di la per rispetto mi son contenuto, ma sta cosa me la dovete spiegare. E non divagate con i monitor.

TigerTank
23-08-2017, 08:31
Se è questa, pensare che mi ero tenuto "largo", con 500€!... :p

Ahahah beh dai se intendiamo la Vega 56 dovrebbe viaggiare sui 400€ per cui sta sotto alle 500€ ed è la scelta ideale per chi vuole amd perchè ormai è cosa risaputa che purtroppo la vega 64 a confronto sia un fail colossale.

Ale55andr0
23-08-2017, 08:51
Si, i fanboy rossi.
Io sono 14 mesi che gioco SOLO in 4K nativo con TW3 e BF1.

Va da Dio. :ave: :ave:

perchè tu credo, come me, non sei di quelli della serie guai se fa 59.9fps nei minimi. Se si etra nell'ottica di tutto maxato a 60 fissi ha "ragione" chi dice che è una scheda da 1440p e a volte a "stento"

TigerTank
23-08-2017, 08:53
perchè tu credo, come me, non sei di quelli della serie guai se fa 59.9fps nei minimi. Se si etra nell'ottica di tutto maxato a 60 fissi ha "ragione" chi dice che è una scheda da 1440p e a volte a "stento"

Esistono anche i 60fps o qualcosa in più NON maxando tutto :D

Ale55andr0
23-08-2017, 09:01
... ha solo sbagliato nel rimanere senza VGA per un anno intero!... :asd:

no perchè un anno fa col cavolo che spendevo 600 e passa euro per la 1080. Semplicemente col senno del poi prendevo 3 mesi fa (solo allora i prezzi sono scesi a livelli che ritenevo corretti) la msi gamingx plus 11gbps a 520 (grazie amd), ora introvabile a quelle cifre.

FroZen
23-08-2017, 09:02
AMD ormai è la nuova apple...rassegnatevi................. il logo figo e l'alluminio spazzolato valgono quei 10 fps in 4k che mancano , arrendetevi.... una gpu nvidia ormai è out, fuori moda, da snobbare......... :O

Il miglior pregio di vega 64? Aver riportato in auge il mercato del liquido, pascal lo stava uccidendo :O e anche di far impazzire fanboy verdi che cercano di far cambiare idea a gente che la vuole acquistare lol ma come costa di più!!! va di menoooo!!!!!!! ma ma ma...... :rotfl: :ciapet:

Ah Lisa...... ci hai fregato tutti............ :oink: :oink: :oink: :oink: :oink:

fraussantin
23-08-2017, 09:04
Il miglior pregio di vega 64? Aver riportato in auge il mercato del liquido, :

:rotfl:

Giovamas
23-08-2017, 09:05
... ha solo sbagliato nel rimanere senza VGA per un anno intero!... :asd:

ed in questo ti quoto al 100%! Io da gamer sarei impazzito!:D

Ale55andr0
23-08-2017, 09:05
Esistono anche i 60fps o qualcosa in più NON maxando tutto :D

piuttosto gioco in esperienza cinematografica :O (24fps)

l'unico gioco in cui ho abbassato la tacca è stato l'MSAA dell'hairworks in TW3, tenuto a 2x (anche perchè non è simpatico vedere le seghettature negli spaghetti in testa di geralt :asd:) e gli effetti aberrazione cromatica e vignettatura perchè non gradisco. Cmq con tutti gli aa via shader diffusi ormai è improbabile non maxare tutto a 1440 tranne le eccezioni che in quanto tali confermano la regola

Legolas84
23-08-2017, 09:05
Esistono anche i 60fps o qualcosa in più NON maxando tutto :D



Si esatto soprattutto su monitor con refresh più alti sono una goduria :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

FroZen
23-08-2017, 09:07
a meno che non la downvolti, moddi il bios, installi 2 tool, aspetti 8 release di driver, cambi dissipatore e ventole e lanci il sale dietro la schiena e fai una preghiera a san gennaro, poi finalmente viaggia come da intenzioni di amd (dietro la ti ad un prezzo superiore)! Basta poco che ce vò.

oppure fai una modifica via resistenza shunt, flashi il bios che non lo prende, in evga precision sblocchi il bit maggico e poi metti il ghiaccio secco e potrai dire di avere la gpu della presentazione di pascal a 2150 fissiiiiiiiiiiii (ma spidermans che fine ha fatto?) non che dopo un minuto sei -100mhz :asd:

e poi un bel wb per evitare i drop delle temperature e i led rgb che spaccano............



raga facciamoci una bella ps4 va........azzz c'è una gpu amd, mai una gioia! tutti di switch!!!!!

Ale55andr0
23-08-2017, 09:11
http://i.imgur.com/oY9FF8m.png

Se è questa, pensare che mi ero tenuto "largo", con 500€!... :p

col senno del poi... :asd:

Nurabsa
23-08-2017, 09:17
La 980ti come la tua a 1500/8000 è praticamente una 1080 stock da review, quindi ancora un'ottima scelta.
Verrà soppianta in tutto da Volta.:)


esatto. I modelli piu spinti possono reggere fino alla prossima generazione senza troppe rinunce.Quasi come avere gp104 senza menomazioni.
Le poche gm200 in grado di tenere1500/8000 per ore ed ore di gioco come le kpe oggi sono perle rare.
Un conto è sparare clock per fare bechmark tutt altra storia potersi vantare delle stesse frequenze per lunghe sessioni dove fasi e pcb fanno la differenza insieme al silicio

Giovamas
23-08-2017, 09:50
esatto. I modelli piu spinti possono reggere fino alla prossima generazione senza troppe rinunce.Quasi come avere gp104 senza menomazioni.
Le poche gm200 in grado di tenere1500/8000 per ore ed ore di gioco come le kpe oggi sono perle rare.
Un conto è sparare clock per fare bechmark tutt altra storia potersi vantare delle stesse frequenze per lunghe sessioni dove fasi e pcb fanno la differenza insieme al silicio

Io l'avevo :muro: ed infatti tornassi indietro mi terrei la mia 980ti che li teneva daily i 1500/8000. Il ragazzo che l'ha presa ne è felicissimo. Va beh di se e ma sono pieni i fossi. Ho fatto così e va bene così. prenderò senza'altro la nuova 2080ti (salvo sorpresone rosse), la gv104 non mi garantirà un salto corrispondente alla spesa mi sa.

FroZen
23-08-2017, 10:03
esatto. I modelli piu spinti possono reggere fino alla prossima generazione senza troppe rinunce.Quasi come avere gp104 senza menomazioni.
Le poche gm200 in grado di tenere1500/8000 per ore ed ore di gioco come le kpe oggi sono perle rare.
Un conto è sparare clock per fare bechmark tutt altra storia potersi vantare delle stesse frequenze per lunghe sessioni dove fasi e pcb fanno la differenza insieme al silicio

ma ma ma :stordita: era pieno il forum di gente che sosteneva clock rock solid stellari su maxwell e poi.........

Ale55andr0
23-08-2017, 10:11
ma ma ma :stordita: era pieno il forum di gente che sosteneva clock rock solid stellari su maxwell e poi.........

e poi fortuna che ora ci sta vega a 650 che (undervoltata) ha battuto maxwell con qualche secolo di ritardo e un nuovo pp, cominciavamo tutti a preoccuparci

mircocatta
23-08-2017, 10:39
e poi fortuna che ora ci sta vega a 650 che (undervoltata) ha battuto maxwell con qualche secolo di ritardo e un nuovo pp, cominciavamo tutti a preoccuparci

togliti anche questo sfizio, downvolta la tua 1080 e vedi se aumentano le frequenze di boost :asd:

Ale55andr0
23-08-2017, 10:59
togliti anche questo sfizio, downvolta la tua 1080 e vedi se aumentano le frequenze di boost :asd:

Macchè non tocco nulla e filo dritto a giocare, non voglio sentire ne di bench, ne di oc, niente che non sia installarla e basta :asd:. Fra parentesi la consegna è prevista per oggi, il tempo non vuol saperne di passare :mc:

Ubro92
23-08-2017, 11:25
Macchè non tocco nulla e filo dritto a giocare, non voglio sentire ne di bench, ne di oc, niente che non sia installarla e basta :asd:. Fra parentesi la consegna è prevista per oggi, il tempo non vuol saperne di passare :mc:

Fai bene, sei stato molto senza vga anche io ho fatto la stessa "cosa", aspettando aspettando vega... Quindi datti al libero sfogo in game! :sofico:

Crysis90
23-08-2017, 12:15
perchè tu credo, come me, non sei di quelli della serie guai se fa 59.9fps nei minimi. Se si etra nell'ottica di tutto maxato a 60 fissi ha "ragione" chi dice che è una scheda da 1440p e a volte a "stento"

Questa storia dei 60 FPS inchiodati è una delle più grandi ca**ate della storia.
TW3 mi sta sui 40/45 tutto maxato, BF1 non scende mai sotto i 50.

Ma cosa cavolo me ne frega dei 60 FPS inchiodati, del Freesync, del G-Sync o di tutte quelle cagate simili.

Mi viene da ridere quando leggo commenti della serie "se gioco senza Freesync mi viene il mal di mare."
Ma non diciamo ca**ate, per piacere. :muro: :doh:

Ale55andr0
23-08-2017, 12:23
Più che altro perchè l'altro ieri non esistevano ed allora nessuno si lamentava, ora se compri la vga DEVI comprare monitor fs/gs in bundle e senza non si può stare :asd:.

bagnino89
23-08-2017, 12:24
Questa storia dei 60 FPS inchiodati è una delle più grandi ca**ate della storia.
TW3 mi sta sui 40/45 tutto maxato, BF1 non scende mai sotto i 50.

Ma cosa cavolo me ne frega dei 60 FPS inchiodati, del Freesync, del G-Sync o di tutte quelle cagate simili.

Mi viene da ridere quando leggo commenti della serie "se gioco senza Freesync mi viene il mal di mare."
Ma non diciamo ca**ate, per piacere. :muro: :doh:Ma giochi col VSync attivo oppure no?

FroZen
23-08-2017, 12:26
Questa storia dei 60 FPS inchiodati è una delle più grandi ca**ate della storia.
TW3 mi sta sui 40/45 tutto maxato, BF1 non scende mai sotto i 50.

Ma cosa cavolo me ne frega dei 60 FPS inchiodati, del Freesync, del G-Sync o di tutte quelle cagate simili.

Mi viene da ridere quando leggo commenti della serie "se gioco senza Freesync mi viene il mal di mare."
Ma non diciamo ca**ate, per piacere. :muro: :doh:

al mondo ci sono due categorie di gamer: chi capisce i monitor async e chi no

Tu indovina dove stai? :asd:

FroZen
23-08-2017, 12:28
Ma giochi col VSync attivo oppure no?

se avesse 50 fps con il vsync attivo avrebbe ragione nel definire cagate gli async :D peccato che andrebbe a 30 o 45 (con tearing e stuttering, quelle due cose che quelle cagate di monitor async eliminano soprattutto il primo) :Prrr:

FroZen
23-08-2017, 12:31
Niente non ce la fate, informatevi prima POI magari ne discutiamo.......

I monitor async permettono di contenere di molto le spese per una rig gaming "decente" ....... se hai sempre 3000€ per prenderti due titan e tenere il max refresh del proprio monitor è vero, NON avete bisogno di un monitor async ma ogni generazione dovete cacciare quei 3000€ mentre con una spesa iniziale alta del monitor async il comparto vga sarà meno "obbligatorio" da tenere sempre al top per avere una simile esperienza di gioco......

bagnino89
23-08-2017, 12:32
se avesse 50 fps con il vsync attivo avrebbe ragione nel definire cagate gli async :D peccato che andrebbe a 30 o 45 (con tearing e stuttering, quelle due cose che quelle cagate di monitor async eliminano soprattutto il primo) :Prrr:In realtà se è VSync con triple buffering attivo, i FPS sarebbero davvero 50. E se lo tiene attivo, tearing non può esserci in alcun modo.

Crysis90
23-08-2017, 12:35
Ma giochi col VSync attivo oppure no?
Certo.
VSync attivo.

In realtà se è VSync con triple buffering attivo, i FPS sarebbero davvero 50. E se lo tiene attivo, tearing non può esserci in alcun modo.

Infatti non ho il minimo difetto d'immagine. ;)
Come da 15 anni a questa parte, giocando sempre con VSync + Triple Buffering.



Tu indovina dove stai? :asd:

FORTUNATAMENTE dalla parte di chi non si fa le pippe mentali per delle piccolezze. ;)

FroZen
23-08-2017, 12:36
nel frattempo lo zio tom ha pensato bene di liquidare la sua vega air in modo custom ed i risultati sono........

https://media1.popsugar-assets.com/files/thumbor/Ia1N95uyew1sBljHV28lEFzOWGo/fit-in/1024x1024/filters:format_auto-!!-:strip_icc-!!-/2016/04/06/806/n/1922283/7d1507fc6296a430_giphy-7/i/getting-annihilated-sun-Sunshine-somehow-lends-him-angelic-glow.gif

mircocatta
23-08-2017, 12:37
In realtà se è VSync con triple buffering attivo, i FPS sarebbero davvero 50. E se lo tiene attivo, tearing non può esserci in alcun modo.

trovamelo un triple buffer ad oggi che funziona su dx11 e 12 o vulkan :asd: :(

FroZen
23-08-2017, 12:37
In realtà se è VSync con triple buffering attivo, i FPS sarebbero davvero 50. E se lo tiene attivo, tearing non può esserci in alcun modo.

60/4

Io sapevo 30-45-60

Che elimini il tearing lo so, che introduca lag anche

bagnino89
23-08-2017, 12:38
Certo.
VSync attivo.


FORTUNATAMENTE dalla parte di chi non si fa le pippe mentali per delle piccolezze. ;)Non ti dà fastidio giocare in quel modo? La differenza di fluidità rispetto a 60 FPS costanti io la sento tutta, anche fossero 2-3 frame di differenza... Piuttosto riduco i dettagli per stare stabile a 60 FPS.

bagnino89
23-08-2017, 12:41
trovamelo un triple buffer ad oggi che funziona su dx11 e 12 o vulkan :asd: :(

Alcuni giochi lo hanno, tipo Tomb Raider e Deus Ex... Agli sviluppatori non costa nulla implementarlo, in ogni caso.

Crysis90
23-08-2017, 12:41
Non ti dà fastidio giocare in quel modo? La differenza di fluidità rispetto a 60 FPS costanti io la sento tutta, anche fossero 2-3 frame di differenza

Ma come fa il tuo occhio a notare la differenza tra 56 FPS e 60 FPS??????? :mc: :mc: :mc: :mc: :mc:

FroZen
23-08-2017, 12:42
Non ti dà fastidio giocare in quel modo? La differenza di fluidità rispetto a 60 FPS costanti io la sento tutta, anche fossero 2-3 frame di differenza... Piuttosto riduco i dettagli per stare stabile a 60 FPS.

Dipende anche a che si gioca eh.... con gli fps non c'è nulla di meglio di max refresh rate (forza bruta) o un async

a moba o altro invece bho, non direi che siano fondamentali per una resa ottimale.... anzi, a parte pochi serve una cpu con i contro cazzi non una reparto gpu all'ultimo grido imho

FroZen
23-08-2017, 12:44
Ma come fa il tuo occhio a notare la differenza tra 56 FPS e 60 FPS??????? :mc: :mc: :mc: :mc: :mc:

http://www.hwupgrade.it/forum/showthread.php?t=2819825

Gello
23-08-2017, 12:50
Trollate Vs Minestroni, io avrei aspettato il fresco pero'!

Crysis90
23-08-2017, 12:51
http://www.hwupgrade.it/forum/showthread.php?t=2819825

Non me ne faccio di un'emerita mazza. ;)

Non ho problemi di tearing, il framerate è eccellente e l'esperienza di gioco è da paura.
Non mi serve altro per godermi le mie sessioni di gioco. ;)

mircocatta
23-08-2017, 13:03
chiedo anche qui che magari ha più visibilità

se non ricordo male l'area del chip nudo e crudo che sta sotto il dissipatore è diversa dai "die size" dichiarati, giusto? solitamente quant'è la differenza? vorrei capire le dimensioni del gp102 delle Ti

Ren
23-08-2017, 13:06
chiedo anche qui che magari ha più visibilità

se non ricordo male l'area del chip nudo e crudo che sta sotto il dissipatore è diversa dai "die size" dichiarati, giusto? solitamente quant'è la differenza? vorrei capire le dimensioni del gp102 delle Ti

Vega ha 486mm2 (fonte amd)
Gp102 471mm2

C'è poco da aggiungere...:doh:

mircocatta
23-08-2017, 13:09
Vega ha 486mm2 (fonte amd)
Gp102 471mm2

C'è poco da aggiungere...:doh:

argh, non intendo questo, intendo la lunghezza in mm dei lati del chip! :asd: devo prendere le misure per il waterblock!

Ren
23-08-2017, 13:13
argh, non intendo questo, intendo la lunghezza in mm dei lati del chip! :asd: devo prendere le misure per il waterblock!

ah ok :D , mi spiace per quello non sono informato...

Prova nel thread della 1080ti.

bagnino89
23-08-2017, 13:23
Ma come fa il tuo occhio a notare la differenza tra 56 FPS e 60 FPS??????? :mc: :mc: :mc: :mc: :mc:Non è il valore assoluto dei FPS in quanto tali, ma la differenza repentina che noto in quanto fastidiosa...La differenza è tutta nel microstuttering, ma non tutti la notano.
Chi la nota non accetta che altri non la notino e chi non la nota percula chi la nota dicendogli che vede farfalle.
Poi qualcuno comincia a notarla e diventa più rompicoglioni di in ex-fumatore. :asd:
È una storia vecchia come i monitor LCD e l'unica verità è che non siamo tutti uguali.

Segnati il post di Crysis90, magari tra un anno comincia a notare anche lui il microstuttering e diventerà il nuovo guru del sync adattivo :DNo no, io non parlo di microstuttering. Io parlo di un vero e proprio rallentamento nell'azione, che il mio occhio percepisce immediatamente... Secondo me è per via dell'assenza di triple buffer in certi giochi (quindi uno passa da 60 a 30 FPS).

Gello
23-08-2017, 13:38
Ma se nel 2017 c'e' da giocare a 60 fps o meno con l'aggiunta di un bel paio di frame di input lag che vsyncati ci stanno sempre bene, tanto vale buttare il pc e giocare su console, si risparmia pure :)

Crysis90
23-08-2017, 13:41
Segnati il post di Crysis90, magari tra un anno comincia a notare anche lui il microstuttering e diventerà il nuovo guru del sync adattivo :D

Vieni a casa mia, ti fai una partitina multyplayer a BF1 con la mia rig. sul mio bel Samsung 48" in 4K.
Vediamo dove lo trovi il microstuttering.

Gello
23-08-2017, 13:56
Se hai 50 fps su un monitor 60hz e hai un sync non adattivo hai stuttering, micro con fastsycn, esync, borderless o vsync triple buffering, macro se hai vsync classico.
Non è un'opinione, è fisica.
Quindi a meno che casa tua non è in un universo con altre leggi fisiche si comporta come a casa mia.

Beh ci tocca andare a controllare adesso

Crysis90
23-08-2017, 14:08
Se hai 50 fps su un monitor 60hz e hai un sync non adattivo hai stuttering, micro con fastsycn, esync, borderless o vsync triple buffering, macro se hai vsync classico.
Non è un'opinione, è fisica.


Ammesso anche che sia così, gioco a 2 metri di distanza con mouse e tastiera vista la grandezza dello schermo.
Tutto maxato in Ultra HD nativo, senza AA.
Qualità eccelsa, framerate ottimo, esperienza di gioco fantastica.
Non mi serve altro.

Io gioco per giocare, non spendo 1500 euro di hardware per tenerlo lì a prendere la polvere e non mi metto di certo a 2 cm dallo schermo a cercare chissà quale "difetto" di renderizzazione.
Tante pippe mentali, mi paiono quelle.

Beh ci tocca andare a controllare adesso
Molto volentieri.
Siete i benvenuti. :D ;)

fraussantin
23-08-2017, 14:43
Ma tu li leggi i post? E se si, li capisci anche?

Io ho scritto un post spiegando che è una differenza che alcuni notano e alcuni no, non ho dato giudizi o ragioni a nessuno.
Ho scritto un post per spiegare come nessuno ha ragione o torto e che nessuno convincerà mai l'altro, perchè insisti per voler ragione?
Se ti trovi bene così sono io il primo ad aver scritto che vai bene così, vai a giocare a non preoccuparti.

Un giorno forse comincerai a notarlo anche tu e cambierai idea, ma fino a che non lo noti goditela :asd:Dipende tanto anche dal monitor. ( penso influisca molto anche il ghosting che "sottolinea" lo stuttering.)

Sul portatile 50 fps ero fluido.

Con il fisso a 57 vedo stuttering.

Poi va beh con hw prestanti 60 fps li fai quasi sempre a meno che non si giochi in 4k.

Per quello il fsync / gsync mi è sempre sembrato piú utile con hw medio bassi.

Chi ha una 1080 o una ti, è sempre e cmq fluido.

mikael84
23-08-2017, 15:09
Siamo pesantemente OT, e datevi una regolata. Per il freesync c'è il thread, dei monitor pure.
Molti confondono il thread aspettando per il bar dello sport.
Cerchiamo di tornare On prima di fare la fine dell'altro thread (chiuso). :rolleyes:

Hadar
25-08-2017, 07:28
http://www.tomshardware.com/news/nvidia-volta-gv100-gpu-ai,35297.html

Free Gordon
25-08-2017, 10:02
http://www.tomshardware.com/news/nvidia-volta-gv100-gpu-ai,35297.html


800mmq...?
Che rese può avere un chip del genere..? :stordita:

Hadar
25-08-2017, 10:22
800mmq...?
Che rese può avere un chip del genere..? :stordita:

Abbastanza risicate. Più o meno lo spiegano nel link, è molto interessante :)

fraussantin
25-08-2017, 10:40
800mmq...?
Che rese può avere un chip del genere..? :stordita:Lo prezzeranno qualche migliaio di euro in piú e recuperano.

Hadar
25-08-2017, 10:51
Penso si conteranno i wafers per chip utile invece dei chip utili per wafer, ma con il markup che hanno sopra non credo sia un problema se un chip ti costa 5-7k€.

L'unico limite vero in questa situazione sono i volumi, ma i chip delle Tesla hanno necessità di volumi irrisori rispetto ai chip inferiori, quindi non credo sia un problema manco questo.Costa 14/15k mi pare :sofico:

Crysis90
25-08-2017, 11:26
Ad una prima vista non sembra discostarsi molto da Pascal, ha il 40% in più di cuda cores e ha delle performance dichiarate in tflops del 50% maggiori.
Le novità più pesanti sembrano essere tutte orientate al DL che mi sembra di aver capito non siano poi utili in gaming.
Immagino quindi che le volta gaming per avere performance superiori alle pascal saranno un po' più grosse con più core.

E frequenze maggiori.

Legolas84
25-08-2017, 11:35
E frequenze maggiori.



Il chip sarà più grosso e forse con frequenze più alte.... speriamo sia come diceva mikael, ovvero che Pascal ha un ampissimo margine di lavoro elettrico da poter fare... e quindi nonostante gli aumenti in tutti i settori l'efficienza non subirà peggioramenti....


Inviato dal mio iPhone utilizzando Tapatalk Pro

ste-87
25-08-2017, 17:00
edit - ho visto dopo che il link dell'articolo di tom's era già stato postato

Crysis90
25-08-2017, 20:44
Sei sicuro?
Dalle informazioni che sono riuscito a reperire GV100 ha frequenze simili a GP100, mi sembra difficile quindi che le frequenze delle volta gaming saranno superiori a quelle delle pascal gaming.

Mi riferisco alla variante GV104.
GV100 ha le stesse frequenza perchè ha il 50% in più di SP.

Hadar
26-08-2017, 09:38
:doh:
Ritorna a leggere mio primo post allora.
GV100 ha il 50% in più di tflops di GP100 con il 50% in più di sp e le stesse frequenze.
Questo mi fa pensare che anche una GV104 avrà il 50% in più di sp e la stessa frequenza di una GP104 (che è maggiore di una GP100).
Cioè così a prima vista sembra che gli sp volta saranno di più alla stessa frequenza con "ipc" (so che non è il termine corretto ma è per intenderci) simile.

In realtà i core in più sono il 40% non il 50%, quindi un lieve incremento di "ipc" ci sarebbe.Magari senza i tensor core hanno più libertà di manovra e possono aumentare easy le frequenze? (Ipotesi sparata)

Free Gordon
26-08-2017, 10:52
Quel che è certo...è che se GV104 andrà come G102, sarà grosso all'incirca gli stessi mmq (magari qualcosa meno) e quindi verrà venduto ad un prezzo più alto di GP104. :D Il processo produttivo è sempre lo stesso in fondo.

Nvidia cercherà di fare un nuovo step-ahead :D di 50$...

Fino a che AMD glielo permette...ha ragione a farlo. :) Tanto l'enthusiast al lancio li caccia cmq quei 50-100$ in più.

Crysis90
26-08-2017, 11:08
:doh:
Ritorna a leggere mio primo post allora.


Bivvoz, Bivvoz, Bivvoz.
Sei troppo preso a pensare a Vega e ad AMD. :nonsifa:

Volta sarà prodotto su un nuovo PP a 12 nm.
GV100 sarà un chip enorme e diverso da GV104, anche perchè uno monterà HBM2 e l'altro monterà GDDR6.
GV104 sarà una via di mezzo tra GP104 e GP102 in termini di grandezza.
Tenendo di conto il salto di PP, è molto plausibile che le frequenze siano maggiorate rispetto a GP104. ;)

GV104 probabilmente avrà 800/1000 SP in più di GP104, quando ho detto 50% in più sono stato largo. ;)

Crysis90
26-08-2017, 12:41
e il salto di PP è praticamente inesistente da quanto ho capito.

Da quanto hai capito?
Perchè, chi l'avrebbe detto che è inesistente? :rolleyes:

Se non c'erano miglioramenti, secondo te per quale motivo avrebbero chiesto a TSMC di sviluppare un PP customizzato ad "hoc" solo per NVidia????

Perchè si annoiavano?
Perchè non sapevano come buttare nel cesso i miliardi di $ di budget R&D che hanno adesso a disposizione??
:muro:

egounix
26-08-2017, 12:52
Certo che il sabato deve essere frustrante... Non frega dei consumi, non frega del rumore, il pp si sviluppa per noia... Ehhhh guardate l'e' dura di + riuscire ad arrivare in palestra con tutta la "vega" che c'è fuori eh... Questi #sopproblemi :O saranno 3km a piedi, mooooolto "rigidi" :O

Crysis90
26-08-2017, 13:09
Se fosse possibile alzare le frequenze non lo avrebbero fatto anche con GV100?


Aridaje.
GV100 ha il 50% di SP in più.
Se alzano le frequenze, probabile che vadano fuori limite massimo col TDP.
E' probabile che sia anche solo una scelta per il contenimento dei consumi.
Hanno comunque per le mani un chip (mastodontico) da 800 mmq che (a parità di frequenza) ha il 50% di SP in più.
Non hanno bisogno di frequenze maggiori su GV100.

GV104 è un'altra storia.
Chip molto più piccolo, da vendere ad utenza consumer.
E' molto più probabile che sia GV104 ad avere frequenze maggiori su GP104, che GV100 su GP100.

mircocatta
26-08-2017, 13:14
Gv100 quanti tf in più ha rispetto a gp100?

mircocatta
26-08-2017, 14:19
50% in più.
Poi sappiamo bene che non necessariamente questo vuole dire +50% prestazioni in game, era solo per cercare di farsi un'idea a spanne.

beh però non stiamo confrontando i tf di nvidia con amd, ma siamo sempre in casa nvidia.. certo che se la stessa percentuale si presenterebbe in game sarebbe un salto simile come tra maxwell e pascal

il che vorrebbe dire che la mia 1080ti si svaluterebbe abbestia all'uscita della 2070 :asd: :doh:

mikael84
26-08-2017, 14:24
Quel che è certo...è che se GV104 andrà come G102, sarà grosso all'incirca gli stessi mmq (magari qualcosa meno) e quindi verrà venduto ad un prezzo più alto di GP104. :D Il processo produttivo è sempre lo stesso in fondo.

Nvidia cercherà di fare un nuovo step-ahead :D di 50$...

Fino a che AMD glielo permette...ha ragione a farlo. :) Tanto l'enthusiast al lancio li caccia cmq quei 50-100$ in più.

Free gordon, ma fai le domande ma non leggi le risposte.:p
Un GPC Volta aggiunge 2 TPC (128cc x 2) circa 5mmq2 x2 + 256kb l2.
Si passa dai 78,5mmq2 ad una soglia sui 100mq2 o pelo meno.
GP102 adotta una GPU a 6 rasterizzatori, GV104, una GPU a 4 rasterizzatori, questo significa risparmiare 16 cicli in rasterizzazione.
Va da se che l'uscità per triangolo passa da 0,30 a 0,36 per P.E.
Con 4 GPC si avranno circa 380/400mm2, 3584cc, 0,36 per triangolo, 10,8 m/transistor.

I clock sicuramente beneficeranno di un lavoro elettrico.
Sostituire le connessioni lente ed immettere transistor a bassa perdita spesso porta ad un 10% di efficienza, sia in termini di clock che di consumi (vedi gtx 580).
Cambia la struttura dei warp, per certe applicazioni.
Non si può del tutto paragonare un GV100 ad un GP100 Pascal, anche solo dal fatto che GV100 utilizza una porzione più elevata di cache.;)

Il chippone GV100, quadro, gaming, avranno 5370cc max, 4,5mb l2 su una base di 550mmq2 non meno.;)

mikael84
26-08-2017, 14:35
beh però non stiamo confrontando i tf di nvidia con amd, ma siamo sempre in casa nvidia.. certo che se la stessa percentuale si presenterebbe in game sarebbe un salto simile come tra maxwell e pascal

il che vorrebbe dire che la mia 1080ti si svaluterebbe abbestia all'uscita della 2070 :asd: :doh:

AMD per pareggiare una 1080ti a 1800, avrebbe bisogno di almeno 18tf (considerando che deve emularsi le unità funzionali), Nvidia le ha pronte.Dovrebbe aumentare la banda intorno ai 600/700gb/s.
Il chip AMD è basato proprio per raggiungere una 1080 non una 1080ti.
E' forte sul calcolo puro, dove per elaborare l'istruzione necessita di meno cicli, rispetto ad Nvidia, ma un un gioco che sfrutta tutte le parti della GPU la incasina, in quanto non ha la potenza necessaria.
Vega emulando le unità funzionali è come se avesse 6 TF.;)

Ren
26-08-2017, 15:02
Free gordon, ma fai le domande ma non leggi le risposte.:p

Te ne sei accorto finalmente... :D

Che vuoi fa, so notizie dolorose per i fanboy rossi, devono inquinare il thread con un pò di disinformazione per compensare (as usual)... :sofico:

kiwivda
26-08-2017, 15:15
La Titan Volta sarà davvero un mostro 'sto giro. Di solito quanto passa fra l'uscita della XX80 e della Titan?





Se la fascia "media" si sposta sempre più su potrebbe anche valer la pena di fare la cazzata e chi s'è visto s'è visto per un bel po'.



Guarda io non aspetto che quella, per ora me ne sto con la mia GM200, e aspetto, tanto non ho trovato problemi con nulla, nemmeno in VR. Però temo molto il fatto che ormai anche le Titan non sono più garanzia di avere un chippone, vedi quello che é successo con pascal. Quando uscì la prima titan x pascal, io lo dissi che era un chip scarto delle quadro e che non era da comprare, infatti poi arrivò la vera titan pascal, la Xp. Ecco io temo molto che con volta si possa ripetere la cazzata. Quindi se come me passate di chippone in chippone, uno si e uno no, verificate bene quelle che saranno le specifiche di GV100 e finché non ci sara una titan con tutti le unità attive diffidate e prendete a pugni la scimmia. Perché va bene tutto, ma vendere gli scarti come top di gamma e poi alzare la gamma per vedere il vero top e al limite della truffa. Ciò detto aspettiamo e vediamo.

mikael84
26-08-2017, 15:17
La Titan Volta sarà davvero un mostro 'sto giro. Di solito quanto passa fra l'uscita della XX80 e della Titan?

Se la fascia "media" si sposta sempre più su potrebbe anche valer la pena di fare la cazzata e chi s'è visto s'è visto per un bel po'.

Dipende dalle rese del GV102 quadro, possibile anche a metà 2018.;)

Te ne sei accorto finalmente... :D

Che vuoi fa, so notizie dolorose per i fanboy rossi, devono inquinare il thread con un pò di disinformazione per compensare (as usual)... :sofico:

Papiri di roba al vento, e che ci vuoi fare.:p

Ren
26-08-2017, 15:24
Papiri di roba al vento, e che ci vuoi fare.:p

Già.:sofico:

Certe volte inizio a scrivere un papiro tecnico, ma poi desisto perchè tanto tra supercazzole :D e lagne da fanboy mi passa la voglia...

bagnino89
26-08-2017, 15:41
Comunque è troppo divertente leggere qua e poi l'altro thread, è proprio la sagra della contraddizione :asd:

Tra le varie perle, quella che mi gusto di più è Vega che da una parte ha evidenti limiti hardware di banda passante, dall'altra è solo questione di driver e ottimizzazione!

Che meraviglia!

bagnino89
26-08-2017, 16:13
E quindi?
Sono vere entrambe le cose :asd:Da quanto ne ho capito io, il limite di banda è architetturale e non si risolverà via software.

Guai a dirlo di là :asd:

Ubro92
26-08-2017, 16:17
Comunque è troppo divertente leggere qua e poi l'altro thread, è proprio la sagra della contraddizione :asd:

Tra le varie perle, quella che mi gusto di più è Vega che da una parte ha evidenti limiti hardware di banda passante, dall'altra è solo questione di driver e ottimizzazione!

Che meraviglia!

Tradotto vorrebbe dire "ci aspettiamo che mettano delle pezze SW alle limitazioni HW" :sofico:

Comunque se volevi farti le risate dovevi seguire l'altro 3D prima dell'uscita di vega. :D

nessuno29
26-08-2017, 16:18
Comunque è troppo divertente leggere qua e poi l'altro thread, è proprio la sagra della contraddizione :asd:

Tra le varie perle, quella che mi gusto di più è Vega che da una parte ha evidenti limiti hardware di banda passante, dall'altra è solo questione di driver e ottimizzazione!

Che meraviglia!

Una cosa non esclude l'altra ;)

bagnino89
26-08-2017, 16:25
Tradotto vorrebbe dire "ci aspettiamo che mettano delle pezze SW alle limitazioni HW" :sofico:

Comunque se volevi farti le risate dovevi seguire l'altro 3D prima dell'uscita di vega. :DE credi che non lo abbia fatto? Colori, GPU azzoppate apposta, effetti rimossi dai giochi, la lista è talmente lunga che non ricordo tutto...Una cosa non esclude l'altra ;)No. Di là molti sono convinti che via driver sistemeranno tutto via driver e la GPU esprimerà così il suo massimo potenziale, ma se il limite è nell'architettura non si possono fare miracoli... Io volevo dire questo.

Ale55andr0
26-08-2017, 16:49
Comunque è troppo divertente leggere qua e poi l'altro thread, è proprio la sagra della contraddizione :asd:

Tra le varie perle, quella che mi gusto di più è Vega che da una parte ha evidenti limiti hardware di banda passante, dall'altra è solo questione di driver e ottimizzazione!

Che meraviglia!


tutto cio' è bellissimo :asd: ci sono incursioni dei verdi (ops, pure io lo sono ora :asd: ) nel thread di vega dove si postano i bench peggiori con le librerie nuove, ovviamente per pizzicare proprio li', poi ci sta gNammy che posta il titolo su 1000 dove va come la ti, ed entrambi ovviamente danno il giudizio definitivo e assoluto sulle prestazioni, da non va un cazzo a è equivalente alla ti :asd:
Per me contano molto più i pareri dei possessori, che debbo dire sto trovando davvero obiettivi :)

fraussantin
26-08-2017, 16:54
tutto cio' è bellissimo :asd: ci sono incursioni dei verdi (ops, pure io lo sono ora :asd: ) nel thread di vega dove si postano i bench peggiori con le librerie nuove, ovviamente per pizzicare proprio li', poi ci sta gNammy che posta il titolo su 1000 dove va come la ti, ed entrambi ovviamente danno il giudizio definitivo e assoluto sulle prestazioni, da non va un cazzo a è equivalente alla ti :asd:
Per me contano molto più i pareri dei possessori, che debbo dire sto trovando davvero obiettivi :)E se ti provi a dire che costa troppo spuntano fuori i venditori ambulanti di monitor, che secondo loro per farla diventare conveniente devi cacciare fuori altri 300 euro e cambiare monitor.

E i colori... ,

a proposito, tu che hai l'occhio "rosso" come li vedi i colori delle verdi? ( se usi hdmi devi sbloccare la palette completa via driver)

Ale55andr0
26-08-2017, 16:56
E credi che non lo abbia fatto? Colori, GPU azzoppate apposta, effetti rimossi dai giochi, la lista è talmente lunga che non ricordo tutto....

Sui colori venendo da AMD prima con la 290 poi con una r5 230 giusto per accomodare, devo dire che son diversi, ma non parlo di migliore o peggiore, semplicemente nvidia ha una impostazione più "bright", AMD più scura e carica. Per esempio in TW3 con nvidia non ho toccato nulla, con la AMD dovevo alzare il gamma di qualche tacca o era troppo scuro. Va da dire che ho cambiato monitor, ma è sempre un ips con pannello lg, e comunque la R5230 si vedeva molto simile alla 290, cioè sempre carica/scura out of the box quindi, sempre considerando il diverso monitor, è chiaro che l'impostazione di massima è comunque quella. Piacevolmente "sollevato" invece sulla precisione del rendering, ho impostato anisotropico 16x e filtro struttura su alta qualità ed è ottimo (per esempio sulle texture dei tessuti, le trame o le rugosità delle rocce) come del resto lo era con la 290, e qui davvero mi sono tolto un dubbio amletico visto che sul tubo girano certi video... :stordita: inoltre purtroppo sulla 290 lo scaler software per il DSR si fermava a 1800p, hanno messo il 2160p solo con le nuove polaris e le fury, con la nvidia quindi a 2160p ho una pulizia del quadro esemplare lato seghettature (ma sarebbe lo stesso su amd visto che le recenti hanno anch'esse il DSR fino a 4k ora), anche se è un lusso che so bene mi potrò permettere con una esigua minoranza di titoli (posto che a me i 60 e guai 59.9, non mi fregano ncazzo, gioco senza problemi dai 30 in su...peraltro amo i gdr e non gli spara spara, sarà per quello che non soffro)

ilcose
26-08-2017, 17:03
Quattro conti della serva che avrete fatto mille volte...

Titan
La compri a 1200, la tieni diciamo 2 anni, la rivendi a boh, 400 euro?
33 euro al mese.

XX80Ti
800 euro, la tieni 24 mesi, la rivendi a 400.
20 euro al mese.

XX60
300 euro, la tieni 12 mesi, la rivendi a 150.
12 euro al mese.

Ragionando in termini di TCO, l'affare migliore mi sembra sia la Ti.
Però con la Ti sei sempre nell'autunno dell'architettura di riferimento, mentre la Titan la compri in primavera e te la godi per tutta l'estate.

Sepcialmente se non ci sono più le mezze stagioni (se la XX80 esce 700 euro e la XX70 a 500 penso sia meglio scegliere una delle tre opzioni sopracitate).

Notare come Sky costi quanto uno SLI di Titan... :D

Prova a rivendere una 980ti a 400 euro :asd:
In generale la fascia media o medio alta (1060 e 1070 per intenderci) e' quella dove solitamente ci perdi meno

Ahahahahahahah sono un idiota, dato che non ho sky e non mi interessa potevo farmelo sto SLI di Titan :(

ilcose
26-08-2017, 17:18
Sì forse ho esagerato, più facile rivenderla a 300 una Ti dopo due anni. A questo punto però la Titan diventa sempre più sexy!

Si ma tieni conto che una titan va liquidata, e' un'offesa alla masterrace tenere quel blower :D

E poi e' difficile da rivendere ho paura, non in molti sono disposti dopo 24mesi a sborsare una tale cifra quando ormai c'e' di meglio a meno.

ste-87
26-08-2017, 17:21
tutto cio' è bellissimo :asd: ci sono incursioni dei verdi (ops, pure io lo sono ora :asd: ) nel thread di vega dove si postano i bench peggiori con le librerie nuove, ovviamente per pizzicare proprio li', poi ci sta gNammy che posta il titolo su 1000 dove va come la ti, ed entrambi ovviamente danno il giudizio definitivo e assoluto sulle prestazioni, da non va un cazzo a è equivalente alla ti :asd:
Per me contano molto più i pareri dei possessori, che debbo dire sto trovando davvero obiettivi :)

oltre a quello trovo ancor più sbagliato/fuorviante per quelli che arrivano su quel thread completamente ignari e chiedono pareri e spunta gnammy/giammy (come si chiama)

http://www.hwupgrade.it/forum/showpost.php?p=44971434&postcount=4623

poi con tutta l'oggettività del mondo ti rechi sui siti di recensione e trovi una verità completamente diversa:

https://www.techpowerup.com/reviews/AMD/Radeon_RX_Vega_56/31.html

senza voler considerare appositamente che continua imperterrito con dirt 4, 1 post ogni 2/3, l'eccezione alla regola su vega, che diventa metro di riferimento

davvero desolante....ma va bhe lasci fare, tanto non c'è neanche da provare a starne a discuterne, sarebbe tempo completamente perso visto l'andamento di quei thread, in fin dei conti c'è chi si ritiene soddisfatto di spendere 770€ per Vega 64 che va meno di una 1080ti e costa di più, sono scelte...:boh:

mikael84
26-08-2017, 17:58
Prova a rivendere una 980ti a 400 euro :asd:
In generale la fascia media o medio alta (1060 e 1070 per intenderci) e' quella dove solitamente ci perdi meno



Sì forse ho esagerato, più facile rivenderla a 300 una Ti dopo due anni. A questo punto però la Titan diventa sempre più sexy!

Le Fury usate evidentemente si vendevano bene (300 sul nuovo dopo un'anno), anche le 290/390 si vendevamo molto bene ai tempi usate. Per sopperire alla 970 (350-400 euro), le avevano messe nuove sulle 250 e neppure usate le prendevano.
Evitiamo battutine per cortesia che rischiano di creare flame su flame, inutile direi.:rolleyes:

Crysis90
26-08-2017, 18:09
E se ti provi a dire che costa troppo spuntano fuori i venditori ambulanti di monitor, che secondo loro per farla diventare conveniente devi cacciare fuori altri 300 euro e cambiare monitor.

E i colori...

Aaaaahhhhh, i colori........

:asd: :asd:

Quello è il modo di ragionare di chi deve per forza giustificare l'ingiustificabile.

Ale55andr0
26-08-2017, 19:30
E se ti provi a dire che costa troppo spuntano fuori i venditori ambulanti di monitor, che secondo loro per farla diventare conveniente devi cacciare fuori altri 300 euro e cambiare monitor.

E i colori... ,

a proposito, tu che hai l'occhio "rosso" come li vedi i colori delle verdi? ( se usi hdmi devi sbloccare la palette completa via driver)

scritto sopra sui colori ;)

fraussantin
26-08-2017, 19:43
scritto sopra sui colori ;)Ho letto. Sull'apu che ho a lavoro non noto colori scuri, anzi il contrario. I colori sono troppo vividi.( regolati poi di conseguenza)

Ma forse dipende dal monitor.

fraussantin
26-08-2017, 19:51
Alla fine dipende dal monitor, da come è stato calibrato e con cosa.
Posto che Nvidia e AMD hanno profili di colore differenti, se prendi un monitor che il produttore ha calibrato bene con una scheda Nvidia sulle AMD avrà colori sballati e viceversa.Penso anche io che sia cosí. Poi è l'occhio anche che si abitua a certi colori.

Su nvidia ho scoperto dopo 2 anni che aveva la palette castrata di default ( su hdmi) sui bianchi e sui neri.

Credevo fosse il monitor a essere meno bianco e piú grigio. Invece è bastato cambiare una impostazione basilare.

Adesso è con molto piú contrasto solo che mi fa un po "strano"

mikael84
26-08-2017, 22:45
L'intenzione non era quella di trollare... ma quella di convincermi che in fondo non costa così tanto una Titan! :D

Io son qua da relativamente poco, ma IMHO qua non è questione di tecnologia: ci sono utenti che si stanno sulle palle a vicenda, chi più chi meno, e non c'è una vera soluzione al riguardo.

Se posso permettermi, comunque, sarebbero da evitare anche le esternazioni sulla "qualità della discussione" sugli altri thread, che non hanno proprio niente di tecnico e sono puro insulto personale alle persone...

Ma tranquillo... ho ripreso voi, perchè spesso queste battutine portano al flame e poi i thread degenerano non perchè mi state antipatici o altro, e che sarebbe meglio evitare.:)
Questo chiaramente va evitato anche su altri thread, rossi, verdi, blu che siano per carità.
Più pulito è il thread più ne beneficiano tutti, anche per chi legge.:)

Free Gordon
27-08-2017, 01:40
Free gordon, ma fai le domande ma non leggi le risposte.:p

Che domande?? :stordita:
Scusa ma non ricordo, a cosa ti riferisci?

Free Gordon
27-08-2017, 01:44
Te ne sei accorto finalmente... :D
Che vuoi fa, so notizie dolorose per i fanboy rossi, devono inquinare il thread con un pò di disinformazione per compensare (as usual)... :sofico:

Mah... non so... mi sembrate un po' troppo sicuri su ste previsioni.. ;)

Se avrete ragione sarò il primo a darvela.. :)

Oltretutto penso di aver fatto 2 post in un mese in questo 3d... inquinare... :rolleyes:

Ale55andr0
27-08-2017, 11:52
Ho letto. Sull'apu che ho a lavoro non noto colori scuri, anzi il contrario. I colori sono troppo vividi.( regolati poi di conseguenza)

Ma forse dipende dal monitor.

R5 230 e 1080 sono state messe in funzione sullo stesso monitor, era la 290 con un'altro... e la r5 230 si vede più scura/carica, a pari monitor ripeto ;). Nella nvidia ho abilitato l'intera gamma colore, giusto per specificare (0-255)

Ren
27-08-2017, 12:38
Mah... non so... mi sembrate un po' troppo sicuri su ste previsioni.. ;)

Se avrete ragione sarò il primo a darvela.. :)

Oltretutto penso di aver fatto 2 post in un mese in questo 3d... inquinare... :rolleyes:

Ma quale previsioni ? :rolleyes:
Ho riportato i dati tecnici forniti da nvidia e l'efficienza energetica del V100 che è di +50% (fa male lo so :p ).
Con quel margine possono giocarsela come gli pare in nvidia... (poveri noi :( )

Ripeti lo stesso post con finte domande ogni tot pagine e fai finta di non leggere le risposte.

Abbi pazienza, ma hai un tantino scocciato...

Ren
27-08-2017, 12:51
Si beh... vedremo poi se i dati forniti da Nvidia sono veri. :)

Il V100 è fuori, basta guardare i flops/watt. :p

Guarda sorvoliamo anche su tutte le novità architetturali che hanno aggiunto :) . (nvlink6,cache l1 8x,ls doppie,tensor,mpi+,streamlined, new simt model,integer indipendenti etc...)

Il resto sono dati architetturali che nemmeno hai colto visto che ti sembra uguale a pascal (tensor a parte).;)

Mettiti l'anima in pace bivvi. :D (se scherza)

Free Gordon
27-08-2017, 13:17
Abbi pazienza, ma hai un tantino scocciato...

Mi scusi prof. ;)

Free Gordon
27-08-2017, 13:17
Si beh... vedremo poi se i dati forniti da Nvidia sono veri. :)

Quì non c'entrano nulla i dati forniti da Nvidia cmq. :)

Tra l'altro...ripeto.. penso di aver fatto due post in un mese in questo 3D :asd: con medie annue ancor più basse!! :sofico:

Poi arriva Prof. Ren e mi addita come fanboy rosso (è vero, lo ammetto... sono un fan della Ferrari... :stordita: )

Mi eclisso, scusate le sporadiche interruzioni. :fagiano: :D

Crysis90
27-08-2017, 13:24
Calmi, sennò vi scateno Gnammy. :D :O :Prrr:

Legolas84
27-08-2017, 13:34
Il V100 è fuori, basta guardare i flops/watt. :p

Guarda sorvoliamo anche su tutte le novità architetturali che hanno aggiunto :) . (nvlink6,cache l1 8x,ls doppie,tensor,mpi+,streamlined, new simt model,integer indipendenti etc...)

Il resto sono dati architetturali che nemmeno hai colto visto che ti sembra uguale a pascal (tensor a parte).;)

Mettiti l'anima in pace bivvi. :D (se scherza)

Una parte del miglioramento nell'efficienza penso l'abbiano raggiunta con le semplici ottimizzazioni elettriche visto il margine che si diceva avesse Pascal.

Riguardo a tutte quelle novità che stavi elencando sono cose di cui si godrà prevalentemente in ambito pro o influiranno positivamente anche sulla linea GeForce?

fraussantin
27-08-2017, 13:40
Il V100 è fuori, basta guardare i flops/watt. :p

Guarda sorvoliamo anche su tutte le novità architetturali che hanno aggiunto :) . (nvlink6,cache l1 8x,ls doppie,tensor,mpi+,streamlined, new simt model,integer indipendenti etc...)

Il resto sono dati architetturali che nemmeno hai colto visto che ti sembra uguale a pascal (tensor a parte).;)

Mettiti l'anima in pace bivvi. :D (se scherza)Sul fatto che volta sarà un sorprendente passo avanti non ci sono dubbi, e non ci sono mai stati.

La mia paura è che saremo sorpresi anche dal prezzo.

Saranno fuori da soli ( con pascal c'era la fury che faceva finta di contrastarla, qua vega non arriva manco lontanamente alla 1080ti e quindi alla 2080) i chip in fascia alta amd sono grossi e costosi e diverranno fascia media, i minatori della domenica non mancheranno...

Boh..

kiwivda
27-08-2017, 14:04
Ma qualcuno sa se il GV102 che equipaggerà le Titan sarà completo o uno scarto delle prime quadro?

Ren
27-08-2017, 14:25
Riguardo a tutte quelle novità che stavi elencando sono cose di cui si godrà prevalentemente in ambito pro o influiranno positivamente anche sulla linea GeForce?

Molte sono in ambito pro, ad esempio in FFT(HPC) toccano il +80% di performance.

Altre necessitano di programmazione ad hoc che si vedrà nel lungo periodo.

Nel gaming dipende dal tipo di codice, se è ricco di istruzioni indipendenti o integer+fp allora ci sarà un aumento di ipc.

cmq non è detto che utilizzino lo stesso design/rapporti nella variante gaming. Con Pascal sono parecchio differenti in termini di bw interna/cache/registri/warp (variante Pro).

Possono ad esempio (tanto per dire) aumentare le FP/blocco o variare cache e registri per aumentare la densità/mm2.

mikael84
27-08-2017, 14:27
Che domande?? :stordita:
Scusa ma non ricordo, a cosa ti riferisci?

Mah... non so... mi sembrate un po' troppo sicuri su ste previsioni.. ;)

Se avrete ragione sarò il primo a darvela.. :)

Oltretutto penso di aver fatto 2 post in un mese in questo 3d... inquinare... :rolleyes:

Mi riferisco a questo:
http://www.hwupgrade.it/forum/showpost.php?p=44944212&postcount=35992

e poi questo
http://www.hwupgrade.it/forum/showpost.php?p=44944992&postcount=36000

Discussione già presa in passato.

Se hai una GPU con 6 rasterizzatori e 32 rop's in più ti serve più spazio.
Introducendo 7 TPC su GPC, si lavora su 4 rasterizzatori sulla mid.
Un TPC con le FP64 è grande circa 7/7,5mmq2, senza fp64 meno (128 FP 32/64 FP64.
Se prendi un TPC Volta con i thread da 32, avrai considerando la l2, GPC da 95 max 100.

Questo porta ad avere un core da 380-400mmq2 max.

Le prestazioni non saranno probabilmente entusiasmanti inizialmente, ma solo in latenze guadagni notevolmente, visto che già due raster portano via 16 cicli, e spesso i dati di uscita per triangolo sono più bassi della norma.
La Titan x non arriva a 0,3 per P.E., quindi serve altro clock.
A questo aggiungi un miglioramento sulla l1 ed una miglioria quindi anche sulla l2 (le cache portano via tanti cicli).
Thread indipendenti, in grado di lavorare come un singolo warp.
A questo aggiungi un sicuro lavoro elettrico, Pascal ha 3 shunt da caduta.

Se pensi che nvidia tira una GPU, che per il 2018 sia uguale alla 1080ti a pari core, sei totalmente fuori strada.;)

mikael84
27-08-2017, 14:35
Ma qualcuno sa se il GV102 che equipaggerà le Titan sarà completo o uno scarto delle prime quadro?

Purtroppo questo non si può ancora sapere :)
Di certo per chi è ancora legato a Maxwell sarà un salto pazzesco.:p

TigerTank
27-08-2017, 14:54
Temo sia presto per dirlo... cmq sia se anche fosse "quasi" completo ti darebbe cmq le prestazioni della Ti per tutto il periodo nel quale Volta sarà l'arch di riferimento, IMHO il gioco vale cmq la candela.

Insomma, che sia Everest o K2 poco cambia, no?

Più che altro il problema di un'eventuale Titan è che poi l'anno successivo ne facciano un refresh come successo con le Pascal. E imho non è una bella cosa per i possessori della prima soprattutto se le metteranno di nuovo a 1300€ o pure di più :D
Molto meglio aspettare direttamente le Ti.

mikael84
27-08-2017, 15:05
Più che altro il problema di un'eventuale Titan è che poi l'anno successivo ne facciano un refresh come successo con le Pascal. E imho non è una bella cosa per i possessori della prima soprattutto se le metteranno di nuovo a 1300€ o pure di più :D
Molto meglio aspettare direttamente le Ti.

Senza una minima concorrenza sarà sempre peggio, e ti dirò fanno bene a farlo. Se ad oggi compri un'equivalente 1070 OC o 1080 downclockata a 6/700 euro, una Titan V a 1300 (dove si potrebbero raggiungere picchi del 100% sulla rivale) è regalata. Fa ridere ma è così.:p

Ren
27-08-2017, 15:17
Senza una minima concorrenza sarà sempre peggio, e ti dirò fanno bene a farlo. Se ad oggi compri un'equivalente 1070 OC o 1080 downclockata a 6/700 euro, una Titan V a 1300 (dove si potrebbero raggiungere picchi del 100% sulla rivale) è regalata. Fa ridere ma è così.:p

Infatti fanno benissimo. :stordita:

Vogliamo scommettere sul totoscippo 2018...:sofico:

Secondo me 1300 so pochi, facciamo 1500 per il modello castrato.:fagiano:

mikael84
27-08-2017, 15:26
Infatti fanno benissimo. :stordita:

Vogliamo scommettere sul totoscippo 2018...:sofico:

Secondo me 1300 so pochi, facciamo 1500 per il modello castrato.:fagiano:

Mah, io penso sempre che i prezzi non saranno distanti da Pascal. Riguardo la Titan, non sono scommettitore :asd: :asd: chissà che si inventano a sto giro, ma non la vedo tanto bene per i portafogli.:fiufiu: :fiufiu:
La 2070 potrebbe essere una bella schedina, prezzo a favore.

Crysis90
27-08-2017, 16:17
Se pensi che nvidia tira una GPU, che per il 2018 sia uguale alla 1080ti a pari core, sei totalmente fuori strada.;)

Esatto.
È esattamente quello che dicevo io 2 pagine fa.
La 2080 andrà di sicuro un pò più di una 1080 Ti.
Anche perché sennò non avrebbe alcun senso di esistere.
;)

fraussantin
27-08-2017, 18:59
Basta minare con le schede video...

Da oggi si mina mangiando panozzi!

http://www.newsbtc.com/2017/08/23/burger-king-russia-launches-whoppercoin-token-waves-platform/

Crysis90
27-08-2017, 22:58
Basta minare con le schede video...

Da oggi si mina mangiando panozzi!

http://www.newsbtc.com/2017/08/23/burger-king-russia-launches-whoppercoin-token-waves-platform/

:doh: :doh: :doh:

Nurabsa
28-08-2017, 09:39
Già.:sofico:

Certe volte inizio a scrivere un papiro tecnico, ma poi desisto perchè tanto tra supercazzole :D e lagne da fanboy mi passa la voglia...

scrivi pure ren. Come me tanti altri apprezzano il lavoro meticoloso dello spiegare come funziona una gpu o parti di esssa. Quindi un post di mikael o tuo saranno sempre ben graditi.

Se smettete di scrivere voi mi tocca leggere quelli che tutte le 980ti reggono 1500/8000 per ore ed ore, le fasi in piu non servo a nulla etc :cool:

TigerTank
28-08-2017, 09:48
Senza una minima concorrenza sarà sempre peggio, e ti dirò fanno bene a farlo. Se ad oggi compri un'equivalente 1070 OC o 1080 downclockata a 6/700 euro, una Titan V a 1300 (dove si potrebbero raggiungere picchi del 100% sulla rivale) è regalata. Fa ridere ma è così.:p

Più che altro sono i motivi per cui le TI escono per ultime :asd:

Ubro92
28-08-2017, 12:19
Più che altro sono i motivi per cui le TI escono per ultime :asd:

Bisogna dire che le TI sono dei bei chipponi e come rese non credo sia semplice metterle subito sul mercato, anche se con Pascal potevano fare la ti invece della titan cut ma al marketing non si comanda :D

TigerTank
28-08-2017, 14:58
Bisogna dire che le TI sono dei bei chipponi e come rese non credo sia semplice metterle subito sul mercato, anche se con Pascal potevano fare la ti invece della titan cut ma al marketing non si comanda :D

Esatto, appunto per quello. Se le Ti uscissero per prime o costerebbero uno sproposito maggiore oppure nessuno o quasi si piglierebbe una Titan o una 1080 ai prezzi di lancio da prima scheda della generazione :D

ste-87
28-08-2017, 15:25
Bisogna dire che le TI sono dei bei chipponi e come rese non credo sia semplice metterle subito sul mercato, anche se con Pascal potevano fare la ti invece della titan cut ma al marketing non si comanda :D

più che altro ha senso la loro strategia di marketing, almeno per le loro esigenze/necessità e va tutto perfettamente a braccetto:

nel periodo iniziale dove le rese dei chipponi sono basse e quindi meno esemplari riusciti e prezzi di conseguenza più sostenuti per produrle, le marchiano come Titan con relativo prezzo al pubblico.
Incominceranno a vendere il prodotto guadagnando ugualmente (e bene) e ad ingranare il meccanismo di produzione con il nuovo pp/architettura, migliorandone così man mano le rese nel tempo. Visto il prezzo alto al pubblico non avranno grandissimi numeri di richieste da soddisfare andando a braccetto con la produzione non proprio brillante.

Una volta che le rese migliorano in maniera netta col tempo, basta tirarla fuori come "xx80Ti", prezzo più contenuto per loro e per il cliente finale, maggior produzione di esemplari riusciti e vendite maggiori al mercato visto il prezzo finale più favorevole, quello che alla fine pagano quelli che acquistano le Titan nel periodo in cui sono l'unica alternativa nella fascia enthusiast è per un buon 40-50% nel prezzo del prodotto l'esclusiva temporale, niente di più.

L'eccezione l'ha fatta solo la prima Titan che sembrava la scheda perfetta (per il periodo) a cavallo tra ambito pro e gaming, ma del resto quella fu anche la prima e dovevano giustificare in qualche maniera forte la nuova fascia di prezzo creata agli occhi del mercato.

Almeno io la vedo così

mikael84
28-08-2017, 15:27
Bisogna dire che le TI sono dei bei chipponi e come rese non credo sia semplice metterle subito sul mercato, anche se con Pascal potevano fare la ti invece della titan cut ma al marketing non si comanda :D

Le TI sono solo scarti o scarti degli scarti di wafer.
Alla 1080ti per una partizione di cache fallata, gli hanno riservato il trattamento della 970, senza partizionare la memoria.
La 980ti, è stata l'equivalente della prima titan Pascal.
Su Kepler invece, la TI era il massimo tirato fuori dopo un'accurata selezione, per la paura delle 290/x.
Purtroppo Kepler pagò il fatto di avere Maxwell dietro e una non slegatura dal chip pro.:)

Più che altro sono i motivi per cui le TI escono per ultime :asd:

Come discutevo sopra con Ren, la Titan a questi livelli, per chi non guarda il portafoglio (o almeno lo ha bello gonfio e non per chi cerca la convenienza di certo) ha sempre più significato in fascia enthusiast.
Ad oggi la rivale ha tirato fuori due modelli di GPU carissime equivalenti a 1070 (la 56) e 1070 oc/1080 (la 64) downclok
Una Titan che offre il 100% o quasi rispetto a queste sopra i 1000, sopratutto per chi pilota i 4k non è più un furto, visto che per un'anno ti offre prestazioni da primato. Chi ha il portafoglio più sgonfo :D o vuole spendere meno, aspetta un'annetto.
La concorrenza purtroppo è troppo importante, non voglio andare OT, ma un 7820x 8 core oggi costa 500/600 euro, prima ci pagavi un six core per le sole linee PCI e.

Nurabsa
29-08-2017, 09:33
le titan meriterebbero una bel termico in rame e una sezione di alimentazione piu robusta per garantire clock elevati nel tempo. Versioni custom in pratica al posto delle orrende reference indigeste ad aria

Giovamas
29-08-2017, 09:48
Più che altro il problema di un'eventuale Titan è che poi l'anno successivo ne facciano un refresh come successo con le Pascal. E imho non è una bella cosa per i possessori della prima soprattutto se le metteranno di nuovo a 1300€ o pure di più :D
Molto meglio aspettare direttamente le Ti.

da ti a ti sembra forse la cosa migliore. Ma paradossalmente, secondo me, il migliore affare l'ha fatto chi ha preso la titan x al day one. Oltre un anno al top delle prestazione con un altro anno davanti.:)

Hadar
29-08-2017, 09:54
da ti a ti sembra forse la cosa migliore. Ma paradossalmente, secondo me, il migliore affare l'ha fatto chi ha preso la titan x al day one. Oltre un anno al top delle prestazione con un altro anno davanti.:)Ha speso anche il doppio, siamo sempre lì

Legolas84
29-08-2017, 10:03
È incredibile che per come è andato il mercato, con quello che ha fatto NVIDIA, e con quello che ha fatto AMD persino la Titan ha trovato quasi un senso....

TigerTank
29-08-2017, 10:25
da ti a ti sembra forse la cosa migliore. Ma paradossalmente, secondo me, il migliore affare l'ha fatto chi ha preso la titan x al day one. Oltre un anno al top delle prestazione con un altro anno davanti.:)

È incredibile che per come è andato il mercato, con quello che ha fatto NVIDIA, e con quello che ha fatto AMD persino la Titan ha trovato quasi un senso....

L'unico senso della Titan imho è che considerato lo Sli in generale e i prezzi al lancio delle X80, sia di gran lunga più "intelligente" come acquisto di inizio generazione rispetto ad uno Sli di x80.
Altrimenti come prezzo-prestazioni secondo me le combinazioni migliori sono passare da Ti a Ti oppure se proprio fare Ti-->x80-->Ti.
Poi beh...per quel che mi riguarda se il funzionamento dello Sli fosse scontato in ogni circostanza, il top prezzo-prestazioni sarebbero 2 x70 in Sli.(850-900€ vs 1300€). LINK (http://digiworthy.com/2016/10/18/gtx-1070-sli-vs-titan-x-pascal-benchmarks/).

Da considerare comunque che mancando varianti custom, per sfruttare meglio una Titan bisogna pure aggiungere la spesa di un fullcover/AIO.

Gello
29-08-2017, 10:37
Vi ricordo che i prezzi li fa il mercato e non Nvidia.

In effetti sarebbe carino vedere le super top gamma, con un allestimento che ne giustifichi un po' il prezzo: super alimentazioni, full rame, biventola, bios totalmente personalizzabile, ce ne sarebbero di cose da fare...

Ma anche li' non avendo opposizione chi glielo fa fare...

Legolas84
29-08-2017, 11:01
Ne fanno due... una classica e una in stile HOF a 500 euro in più :asd:

Non diamogli l'idea... è meglio :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

Giovamas
29-08-2017, 11:17
secondo me le combinazioni migliori sono passare da Ti a Ti oppure se proprio fare Ti-->x80-->Ti.

Da considerare comunque che mancando varianti custom, per sfruttare meglio una Titan bisogna pure aggiungere la spesa di un fullcover/AIO.

quoto :)

TigerTank
29-08-2017, 11:28
Ne fanno due... una classica e una in stile HOF a 500 euro in più :asd:

Non diamogli l'idea... è meglio :asd:



Dovrebbero prendere spunto da AMD e farne una variante con l'AIO a 1500€ tondi :cool: :D

Legolas84
29-08-2017, 11:33
Dovrebbero prendere spunto da AMD e farne una variante con l'AIO a 1500€ tondi :cool: :D

Io comunque andrei sempre di full cover.... la 1080Ti sotto full cover è impressionante... se poi lo SLI fosse come ai tempi di maxwell allora non ci sarebbe neanche da discutere.

Ren
29-08-2017, 11:36
Dovrebbero prendere spunto da AMD e farne una variante con l'AIO a 1500€ tondi :cool: :D

Meglio centellinare le prestazioni con qualche castratura, così hanno sempre un modello "più veloce" da presentare. :p

Che bello farsi concorrenza da soli vero...:doh:

egounix
29-08-2017, 12:12
Io comunque andrei sempre di full cover.... la 1080Ti sotto full cover è impressionante... se poi lo SLI fosse come ai tempi di maxwell allora non ci sarebbe neanche da discutere.

Perchè, non va più lo "slai"?

TigerTank
29-08-2017, 12:27
Io comunque andrei sempre di full cover.... la 1080Ti sotto full cover è impressionante... se poi lo SLI fosse come ai tempi di maxwell allora non ci sarebbe neanche da discutere.

Lo Sli in sè va benone, più che "come ai tempi di maxwell" sono i futuri titoli dx12 e vulkan l'incognita. Quindi non lo sli in sè ma i supporti lato giochi e drivers :)
Dove supportato le mie piccole occate viaggiano alla grande, altrimenti figurati...le avrei già cambiate con una Ti :D

Meglio centellinare le prestazioni con qualche castratura, così hanno sempre un modello "più veloce" da presentare. :p

Che bello farsi concorrenza da soli vero...:doh:

:sofico:

The_SaN
29-08-2017, 12:32
Lo scotch non va più bene, ci vuole la colla ;)

Legolas84
29-08-2017, 12:47
Lo Sli in sè va benone, più che "come ai tempi di maxwell" sono i futuri titoli dx12 e vulkan l'incognita. Quindi non lo sli in sè ma i supporti lato giochi e drivers :)
Dove supportato le mie piccole occate viaggiano alla grande, altrimenti figurati...le avrei già cambiate con una Ti :D



:sofico:



Personalmente ho cambiato lo SLI perché purtroppo vi erano dei bug inspiegabilmente presenti solo su Pascal è non su Maxwell... come ad esempio basso uso delle GPU con g-sync attivo e anche nei giochi supportati in alcuni frangenti si andava a scheda singola... come in GTA 5 dove dalla roulotte di trevor lo SLI va a scheda singola.

Problemi mai verificatisi con Maxwell. Quindi per questo ho preferito vendere lo SLI di 1080 e farmi la TI (mi sono anche avanzati soldi nel cambio).

Con VOLTA bisogna andare con i piedi di piombo, se sarà come con Maxwell allora ok, se sarà come Pascal scheda singola assolutamente.


Inviato dal mio iPhone utilizzando Tapatalk Pro

TigerTank
29-08-2017, 13:37
Se dovessi cedere alla 1080Ti poi vorrei tirarla fino alla Ti Volta, anche perchè nel 2018 vorrei prima concentrarmi su coffee lake e z370, previi confronti con le soluzioni AMD.
Di certo se iniziasse ad uscire qualche info sulle Voltine sarebbe meglio :D

eXeS
29-08-2017, 14:08
Se dovessi cedere alla 1080Ti poi vorrei tirarla fino alla Ti Volta, anche perchè nel 2018 vorrei prima concentrarmi su coffee lake e z370, previi confronti con le soluzioni AMD.
Di certo se iniziasse ad uscire qualche info sulle Voltine sarebbe meglio :D
L'evga 1080ti sc su puntoshop la trovi a poco più di 700 spedizione compresa pagamento con paypal e quindi una garanzia se non dovessero spedire, cosa improbabile visto che lo shop ha parecchi feedbak, le tue le vendi ad altrettanto, upgrade a costo zero e quando ne hai voglia liquidi :D

Giovamas
29-08-2017, 14:45
Se dovessi cedere alla 1080Ti poi vorrei tirarla fino alla Ti Volta, anche perchè nel 2018 vorrei prima concentrarmi su coffee lake e z370, previi confronti con le soluzioni AMD.
Di certo se iniziasse ad uscire qualche info sulle Voltine sarebbe meglio :D

Eh si. Se però esce Volta a marzo, hai una finestra temporale di 6 mesi di vga al top: un po' pochino per la cifra che spendi. A meno che come dice Exes non riesci a vendere bene le tue e limitare l'investimento. Io ho il dubbio coffee lake / x299, :cool:

Legolas84
29-08-2017, 15:17
Sperando che tornino a saldarle se no davvero la situazione garba poco....


Inviato dal mio iPhone utilizzando Tapatalk Pro

scorpion73
29-08-2017, 15:28
Bah, io sinceramente questa necessità di upgrade sulla CPU non ce la vedo.
I nuovi processori avranno anche più core, ma prima che i giochi li sfruttino, vista l'enorme base installata di quad core e i pochi soldi che ci sono adesso in giro in questo periodo, secondo me rimarranno non sfruttati per un bel pò.
Le software house puntano al mercato e se sanno che su 100 utenti solo 10 hanno l'esacore, non ci investono somme, non ne vale la pena...
Premesso che io ho già l'esacore, anche se è un Ivy Bridge, ma va benissimo, il mio unico desiderio è vedere come va Volta ma per un semplice motivo: ho un secondo PC con un 6700k e una 1080ti che usano i miei figli: potrei fare uno "sli" sull'esacore di 1080ti e mettere una Volta sull'altro pc (o viceversa).
Ma per farlo mi dovrà convincere per bene, nel senso che la differenza con la 1080ti dovrà essere apprezzabile, altrimenti lo si farà quando uscirà la Volta TI.
Verso Marzo penso che lo sapremo...

mikael84
29-08-2017, 15:39
le titan meriterebbero una bel termico in rame e una sezione di alimentazione piu robusta per garantire clock elevati nel tempo. Versioni custom in pratica al posto delle orrende reference indigeste ad aria

Le Titan attuali dovrebbero chiamarsi al massimo TI, perchè vendere per Titan una scheda che esce pure laserata, nel contesto fa ridere, ma anche piangere.:p
Uno scarto di un 6 GPC da 471mmq2, contro un full GF110 da 520mmq2, maggior potenza FP64 a soli $499..


Sulle fasi non è un grosso problema per via dei blocchi, ma di certo, anche reference, per un full chip sarebbe stato meglio fare un 2x8 con 8 fasi(r22) e 2 sulla ram (r33), e poi fare chip custom (in questo modo oltre ad avere una miglior suddivisione stock, abbattevi anche vari limiti PL..
Un GPC in media lavora a 45 watt/ 50watt con PL.

Quando si overvoltava le fasi facevano un lavoro eccellente, sopratutto ad altissimi voltaggi, e la KP si distingueva dalla classified per i 3 PLL.
Ora addirittura lego di downvolt, mi lacrimano gli occhi.:p

mikael84
29-08-2017, 15:47
Bah, io sinceramente questa necessità di upgrade sulla CPU non ce la vedo.
I nuovi processori avranno anche più core, ma prima che i giochi li sfruttino, vista l'enorme base installata di quad core e i pochi soldi che ci sono adesso in giro in questo periodo, secondo me rimarranno non sfruttati per un bel pò.
Le software house puntano al mercato e se sanno che su 100 utenti solo 10 hanno l'esacore, non ci investono somme, non ne vale la pena...
Premesso che io ho già l'esacore, anche se è un Ivy Bridge, ma va benissimo, il mio unico desiderio è vedere come va Volta ma per un semplice motivo: ho un secondo PC con un 6700k e una 1080ti che usano i miei figli: potrei fare uno "sli" sull'esacore di 1080ti e mettere una Volta sull'altro pc (o viceversa).
Ma per farlo mi dovrà convincere per bene, nel senso che la differenza con la 1080ti dovrà essere apprezzabile, altrimenti lo si farà quando uscirà la Volta TI.
Verso Marzo penso che lo sapremo...

Sul versante CPU se l'utilizzo è principalmente gaming, conviene seguire la fascia performance o limitarsi ai chip enthusiast moderati.
A breve ci saranno i 6 core anche in fascia performance e buon IPC.
Considerando che si sale di risoluzione, queste CPU sono sempre la scelta migliore in rapporto prezzo prestazioni.
Chiaramente se uno ci lavora o principalmente utilizza altri programmi, meglio andare di CPU più propense al MT.
In 4k oggi giochi anche con un i3.:)

TigerTank
29-08-2017, 15:54
L'evga 1080ti sc su puntoshop la trovi a poco più di 700 spedizione compresa pagamento con paypal e quindi una garanzia se non dovessero spedire, cosa improbabile visto che lo shop ha parecchi feedbak, le tue le vendi ad altrettanto, upgrade a costo zero e quando ne hai voglia liquidi :D

Eh infatti si stanno facendo interessanti (https://www.trovaprezzi.it/prezzo_schede-grafiche_evga_1080ti.aspx). Spero che sia l'inizio di un riassestamento di mercato nel corso di settembre.


Eh si. Se però esce Volta a marzo, hai una finestra temporale di 6 mesi di vga al top: un po' pochino per la cifra che spendi. A meno che come dice Exes non riesci a vendere bene le tue e limitare l'investimento. Io ho il dubbio coffee lake / x299, :cool:

No no, come scritto sopra in caso di 1080Ti cercherei di tirare fino alla Ti successiva. I chippini non credo di riprenderli....anche perchè sli di x70 non lo rifarei e le x80 saranno carucce, con subentro postumo di scimmia per la Ti Volta...

Legolas84
29-08-2017, 15:56
Per valutare bene la x80 volta bisognerà vedere un confronto in overclock con la 1080Ti... e a quel punto si potrà decidere....

Perché ho la sensazione che a default la volta andrà meglio ma in overclock la differenza diventerà più sottile...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Crysis90
29-08-2017, 16:40
Per valutare bene la x80 volta bisognerà vedere un confronto in overclock con la 1080Ti... e a quel punto si potrà decidere....

Perché ho la sensazione che a default la volta andrà meglio ma in overclock la differenza diventerà più sottile...


Secondo me invece dipenderà molto dalle (eventuali) migliorie architetturali e dal fatto che Volta sia o no un altro refresh (di Pascal in questo caso) e non una major-release come invece ci aspettiamo.

Ipotesi 1#:
- sulla carta, se la 2080 avrà gli stessi SP della 1080 Ti, ma frequenza maggiori allora andrà di più per via delle frequenze maggiori.

Ipotesi 2#:
- sempre a parità di SP, se la 2080 (oltre ad avere frequenze maggiori) avrà anche tangibili migliore architetturali, non ci sarà storia IMHO.

Ricordatevi che Pascal è stato solo un Maxwell "pompato".
I margini di miglioramento li ha avuti principalmente grazie al salto di PP ed alle frequenze uber.
Ma sempre Maxwell era.

Pascal lo vedo come un "Tick" alla Intel, mentre Volta dovrebbe essere un "Tock". ;)

Nurabsa
30-08-2017, 08:39
Le Titan attuali dovrebbero chiamarsi al massimo TI, perchè vendere per Titan una scheda che esce pure laserata, nel contesto fa ridere, ma anche piangere.:p
Uno scarto di un 6 GPC da 471mmq2, contro un full GF110 da 520mmq2, maggior potenza FP64 a soli $499..


Sulle fasi non è un grosso problema per via dei blocchi, ma di certo, anche reference, per un full chip sarebbe stato meglio fare un 2x8 con 8 fasi(r22) e 2 sulla ram (r33), e poi fare chip custom (in questo modo oltre ad avere una miglior suddivisione stock, abbattevi anche vari limiti PL..
Un GPC in media lavora a 45 watt/ 50watt con PL.

Quando si overvoltava le fasi facevano un lavoro eccellente, sopratutto ad altissimi voltaggi, e la KP si distingueva dalla classified per i 3 PLL.
Ora addirittura lego di downvolt, mi lacrimano gli occhi.:p

si ogni volta faccio il paragone con maxwell. sulle titan pascal la situazione è stata tragicomica in effetti :Prrr:
Anche sulle fasi avevo rimosso la faccenda dei blocchi alimentazione su tutta la linea pascal
vrm piu semplici taglio alle fasi risparmiare è sempre una priorità quando si tratta di una founders.

Da felice possessore gm200 custom faccio piu un ragionamento ed auspico un ritorno in stile maxwell. Schede overclockabili senza blocchi fisici sul pcb perche pascal forse è stata l unica eccezione.
Qui il caldo ha toccato punte anche di 45° ombra questa estate.La scheda lavorava tra i 60 ed i 65. Le fasi in piu suddividono il carico con enormi benefici a livello termico. Vuoi per l overvolt vuoi per la pulizia una migliore alimentazione fa sempre comodo :p

Mini-Me
30-08-2017, 12:07
Le Titan attuali dovrebbero chiamarsi al massimo TI, perchè vendere per Titan una scheda che esce pure laserata, nel contesto fa ridere, ma anche piangere.:p
Uno scarto di un 6 GPC da 471mmq2, contro un full GF110 da 520mmq2, maggior potenza FP64 a soli $499..


Sulle fasi non è un grosso problema per via dei blocchi, ma di certo, anche reference, per un full chip sarebbe stato meglio fare un 2x8 con 8 fasi(r22) e 2 sulla ram (r33), e poi fare chip custom (in questo modo oltre ad avere una miglior suddivisione stock, abbattevi anche vari limiti PL..
Un GPC in media lavora a 45 watt/ 50watt con PL.

Quando si overvoltava le fasi facevano un lavoro eccellente, sopratutto ad altissimi voltaggi, e la KP si distingueva dalla classified per i 3 PLL.
Ora addirittura lego di downvolt, mi lacrimano gli occhi.:pEsatto mikael ormai sul forum abbiamo gli esperti i dell'ultimo minuto che hanno avuto mezza VGA in croce e ne tessono le lodi non sapendo quella VGA cos'era capace di fare in altre serie (vedasi la prima kp, mostruosa).
Ormai si parla di UV, che tristezza veramente.Eh infatti si stanno facendo interessanti (https://www.trovaprezzi.it/prezzo_schede-grafiche_evga_1080ti.aspx). Spero che sia l'inizio di un riassestamento di mercato nel corso di settembre.




No no, come scritto sopra in caso di 1080Ti cercherei di tirare fino alla Ti successiva. I chippini non credo di riprenderli....anche perchè sli di x70 non lo rifarei e le x80 saranno carucce, con subentro postumo di scimmia per la Ti Volta...Tiger è una vita che lo sostengo xD
Singola uber sempre e comunque.....prima o poi tornerai tra noi!

Speriamo in una Volta super performante e che valga la pena.

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Giovamas
30-08-2017, 14:03
No no, come scritto sopra in caso di 1080Ti cercherei di tirare fino alla Ti successiva. I chippini non credo di riprenderli....anche perchè sli di x70 non lo rifarei e le x80 saranno carucce, con subentro postumo di scimmia per la Ti Volta...

allora lo scenario cambia e sottoscrivo l'approccio. E poi come me stai pensando di cambiare la cpu :D

scorpion73
30-08-2017, 15:26
Ma che ci guadagnate a dare via il 6700K?

Condivido con Mikael l'idea che non serve prendere le CPU di fascia alta (i successori del socket 2011 per capirci) soprattutto ora che Intel ha fatto la scellerata scelta di non saldarli.
Devono morire sugli scaffali quelle CPU: 1000 euro per una pasta è veramente una cosa che solo a sentirla inorridisco e se li devono trovare tutti sul groppone.

Detto questo, anche sulla fascia "gaming" sinceramente il bisogno di un esacore al momento lo sento veramente inutile: ma che senso ha? Il 6700K è granitico, basterà per anni con l'attuale andamento, o pensate che veramente le software house investiranno su codice performante per gli esacore con una base installata che sarà bassa? Secondo me conviene attendere che siano diffuse, e per allora ci saranno nuove generazioni di CPU, sia AMD che Intel.
Ve lo dico sulla base del fatto che io ho un Ivy Bridge esacore su un PC e uno Sky Lake quadcore sull'altro PC e sinceramente le differenze non le vedo per niente così massicce, e sono due generazioni diverse pure...

Hadar
30-08-2017, 15:32
Ma che ci guadagnate a dare via il 6700K?

Condivido con Mikael l'idea che non serve prendere le CPU di fascia alta (i successori del socket 2011 per capirci) soprattutto ora che Intel ha fatto la scellerata scelta di non saldarli.
Devono morire sugli scaffali quelle CPU: 1000 euro per una pasta è veramente una cosa che solo a sentirla inorridisco e se li devono trovare tutti sul groppone.

Detto questo, anche sulla fascia "gaming" sinceramente il bisogno di un esacore al momento lo sento veramente inutile: ma che senso ha? Il 6700K è granitico, basterà per anni con l'attuale andamento, o pensate che veramente le software house investiranno su codice performante per gli esacore con una base installata che sarà bassa? Secondo me conviene attendere che siano diffuse, e per allora ci saranno nuove generazioni di CPU, sia AMD che Intel.
Ve lo dico sulla base del fatto che io ho un Ivy Bridge esacore su un PC e uno Sky Lake quadcore sull'altro PC e sinceramente le differenze non le vedo per niente così massicce, e sono due generazioni diverse pure...Dipende se uno compra ex novo oppure vuole cambiare CPU..
Tu consiglieresti un quad a un nuovo acquirente oppure un esacore(cofee/ryzen) e/o octacore (ryzen) nel 2017?
Io di sicuro la seconda..

scorpion73
30-08-2017, 15:40
Dipende se uno compra ex novo oppure vuole cambiare CPU..
Tu consiglieresti un quad a un nuovo acquirente oppure un esacore(cofee/ryzen) e/o octacore (ryzen) nel 2017?
Io di sicuro la seconda..

No scusami su questo hai ragione ma io mi riferivo ai post di alcuni utenti che hanno espresso la volontà di cambiare la CPU pur avendo un 6700K nei loro PC (vedi il post prima del mio)

Hadar
30-08-2017, 15:43
No scusami su questo hai ragione ma io mi riferivo ai post di alcuni utenti che hanno espresso la volontà di cambiare la CPU pur avendo un 6700K nei loro PC (vedi il post prima del mio)Ah su quello nessun dubbio, io aspetterei altro sinceramente ( ryzen 2/icelake o tigerlake che sia) u.u
Chiudo l'ot sui proci : D

Ren
30-08-2017, 16:01
Boh, l'unica cosa certa è che cambiano il processo produttivo... mi stupirei se contestualmente facessero anche delle modifiche sostanziali all'architettura.

Guardati meglio i whitepaper di pascal e volta. ;)

Lo shader core (CUDA) è stato ridisegnato completamente.

Del resto il +50% di efficienza non cresce sugli alberi, sopratutto su silicio con nomi creativi/taroccati. :p

illidan2000
31-08-2017, 09:56
si ogni volta faccio il paragone con maxwell. sulle titan pascal la situazione è stata tragicomica in effetti :Prrr:
Anche sulle fasi avevo rimosso la faccenda dei blocchi alimentazione su tutta la linea pascal
vrm piu semplici taglio alle fasi risparmiare è sempre una priorità quando si tratta di una founders.

Da felice possessore gm200 custom faccio piu un ragionamento ed auspico un ritorno in stile maxwell. Schede overclockabili senza blocchi fisici sul pcb perche pascal forse è stata l unica eccezione.
Qui il caldo ha toccato punte anche di 45° ombra questa estate.La scheda lavorava tra i 60 ed i 65. Le fasi in piu suddividono il carico con enormi benefici a livello termico. Vuoi per l overvolt vuoi per la pulizia una migliore alimentazione fa sempre comodo :p

non penso torneranno più indietro purtroppo. Non vogliono avere più ritorni in fabbrica.
Forse qualche partner lo farà, vendendo schede senza garanzia? (così come stanno provando a fare con le schede per mining)

Nurabsa
31-08-2017, 10:33
non penso torneranno più indietro purtroppo. Non vogliono avere più ritorni in fabbrica.
Forse qualche partner lo farà, vendendo schede senza garanzia? (così come stanno provando a fare con le schede per mining)

esatto. data l incompetenza di chi aumenta tensioni o clock come quando si mette olio nella friggitrice forse non hanno tutti i torti.
Ci va di mezzo l appassionato che fa misurazioni prima di salire in frequenza. Solo al pensiero di avere una scheda blindata stile pascal mi tengo la mia ad oltranza

TigerTank
31-08-2017, 10:43
esatto. data l incompetenza di chi aumenta tensioni o clock come quando si mette olio nella friggitrice forse non hanno tutti i torti.
Ci va di mezzo l appassionato che fa misurazioni prima di salire in frequenza. Solo al pensiero di avere una scheda blindata stile pascal mi tengo la mia ad oltranza

Pensa che la tua è già blindata perchè le Classified/Kingpin precedenti erano tutt'altra cosa :)
La 1080Ti kpe è praticamente messa uguale, con la differenza che con la tua c'erano gli asic selezionati, mentre con questa garantiscono un oc di 2025MHz :D

Legolas84
31-08-2017, 10:51
Pensa che la tua è già blindata perchè le Classified/Kingpin precedenti erano tutt'altra cosa :)

La 1080Ti kpe è praticamente messa uguale, con la differenza che con la tua c'erano gli asic selezionati, mentre con questa garantiscono un oc di 2025MHz :D



Ed è comunque inutile perché la mia founders ad esempio va tranquilla a 2088...

Le supercustom torneranno interessanti quando l'overvolt tornerà a dare benefici tangibili


Inviato dal mio iPhone utilizzando Tapatalk Pro

TigerTank
31-08-2017, 11:27
Ed è comunque inutile perché la mia founders ad esempio va tranquilla a 2088...

Le supercustom torneranno interessanti quando l'overvolt tornerà a dare benefici tangibili


Esatto :)

Ubro92
31-08-2017, 11:47
Si ma pascal e maxwell per quante cose in comune abbiano sono comunque chip diversi, esistono delle HW mod per i chip pascal per riuscire a sbloccare tutte le limitazioni eppure anche con voltaggi elevati non sembra riuscire a tirare fuori molto...

Il record rimane 3ghz per una 1080ti (http://www.pcgamer.com/geforce-gtx-1080-ti-gets-overclocked-to-record-3ghz/) ma non trovo notizie sui volt necessari per questa impresa :sofico:

Sono schede già molto tirate lato clock, e più si scenderà di pp più sarà difficile, cosa visibile anche per le cpu e penso che più andremo avanti più l'oc darà sempre meno vantaggi...

Mini-Me
31-08-2017, 12:07
Pensa che la tua è già blindata perchè le Classified/Kingpin precedenti erano tutt'altra cosa :)
La 1080Ti kpe è praticamente messa uguale, con la differenza che con la tua c'erano gli asic selezionati, mentre con questa garantiscono un oc di 2025MHz :DAhahahah e pensa che lui ne sa talmente tanto che questo piccolo particolare non lo sa!
Ma fa il pippotto sul livello che aumenta le tensioni, mah....
Guarda fossi in Nvidia e vedendo il consumatore medio non mi sento assolutamente di dare torto alla loro nuova politica di blindatura.

Se solo ci ricordassimo i vecchi tempi di cosa erano capaci le multifase (ma chi non le ha provare non può assolutamente sapere il divertimento che restituivano nel tirarle a morte senza mezza incertezza da parte della VGA)
Ancora ricordo il rumore "da calabrone" della 780ti kp e Classy.....che belle VGA!

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Crysis90
31-08-2017, 12:38
https://www.tweaktown.com/articles/8310/8k-benchmarking-7680-4320-amazing-part/index.html

Già vedo lo slogan: "NVidia GTX 2080 Ti la GPU definitiva per l'8K".
Alla modica cifra di 1500 euro.

:asd: :asd: :fagiano:

Hadar
31-08-2017, 13:04
https://www.tweaktown.com/articles/8310/8k-benchmarking-7680-4320-amazing-part/index.html

Già vedo lo slogan: "NVidia GTX 2080 Ti la GPU definitiva per l'8K".
Alla modica cifra di 1500 euro.

:asd: :asd: :fagiano:8k = 4 volte il 2160p.
Magari fra una decina di anni

The_SaN
31-08-2017, 13:11
8k = 4 volte il 2160p.
Magari fra una decina di anni

Mah...preferirei che usassero tutta questa capacità di calcolo per migliorare modelli poligonali, textures e illuminazione, e non la risoluzione.

AceGranger
31-08-2017, 13:22
Mah...preferirei che usassero tutta questa capacità di calcolo per migliorare modelli poligonali, textures e illuminazione, e non la risoluzione.

esattamente.

se i modelli fossero Hi-Poly e le texture in Alta qualita, basterebbe anche il FHD per avere una qualita cinematografica.

ste-87
31-08-2017, 13:24
Mah...preferirei che usassero tutta questa capacità di calcolo per migliorare modelli poligonali, textures e illuminazione, e non la risoluzione.

idem, più effetti particellari, più fisica (sia come iterazioni che oggetti coinvolti), più dettagli anche a distanze superiori, da far sembrare il tutto sempre più completo e vicino alla realtà.

Il 4k dai 38" in giù e già una risoluzione abbondante per pulire l'immagine, se si va su diagonali superiori subentra anche il discorso "tv" invece che di monitor e le distanze di visione aumentano vanificando la necessità di usare risoluzioni maggiori per pannelli dai 40" in su

AceGranger
31-08-2017, 14:23
la nostra è una vana speranza... la grafica ha fatto la fine della risoluzione sulle fotocamere compatte :cry:

...magari fra dieci anni inizieranno a mettere "sensori più grandi" e di qualità fermandosi su questa corsa alla risoluzione vuota...

gia oggi le cose stanno migliorando perchè sta iniziando a diffondersi la fotogrammetria anche in ambito gaming, il problema è che ha costi elevati di sviluppo.

poi l'altro problema è che i giochi devono farli con grafica troppo scalabile....

Ubro92
31-08-2017, 14:52
gia oggi le cose stanno migliorando perchè sta iniziando a diffondersi la fotogrammetria anche in ambito gaming, il problema è che ha costi elevati di sviluppo.

poi l'altro problema è che i giochi devono farli con grafica troppo scalabile....

Vabbè, questione di un paio di gen, nella prossima una 980ti diventerebbe fascia media con la 2060, per poi dopo volta diventare una 3050ti, quindi tra 3-4 anni hai voglia di scalare :sofico:


Io spezzo una lancia in favore anche nella VR sperando che sia il prezzo che la qualità diventino appetibili :)

FroZen
31-08-2017, 15:45
Io uso solo quelli (ok il TX no :P) da quando ho il monitor 2k e Vega... l'effetto sfocatura che li rende inutili in fhd non si nota per niente, il calo di prestazioni nemmeno, mentre le scalettature (che già di loro in 2k son meno visibili) sono attenuate.

Mentre invece in fhd era l'esatto contrario, MSAA e SSAA tutta la vita (ma solo la 1080 o il multigpu permettevano di farlo mantenendo framerate alto) perchè altrimenti mi veniva il mal di testa.

Dpi ftw

eXeS
31-08-2017, 15:52
E l'antialiasing?
Se usassero degli antialiasing decenti invece di FXAA, TXAA o SMAA 1x o peggio T2x il 4k perderebbe buona parte della sua utilità (in gaming).

Il problema degli AA decenti tipo MSAA, è che stanno diventando sempre meno sostenibili a causa dell'aumento del polycount.

L'MSAA effettua il campionamento sui bordi dei poligoni, se aumentano quest'ultimi aumenta l'area da renderizzare a risoluzione più elevata, i pixel da campionare, con conseguente maggior drop del framerate.

Quelli invece da te citati sono a carico degli shader, lavorano in post-processing e con tempi di elaborazione proporzionali alla risoluzione e quindi con un impatto prevedibile sul target framerate che si impongono gli sviluppatori.

A mio avviso la decisione di abbandonare lentamente gli AA classici a favore di dei vari SMAA, FXAA, ecc.... presumo sia più che altro per necessità, e non una decisione presa da sviluppatori svogliati.

Inoltre con le DX12 grazie alla possibiltà di eseguire shader in modo asincrono, questi algoritmi potrebbero essere ulteriormente affinati riducendo ulteriormente l'effetto sfuocatura, senza pesare sul framerate finale.

Nurabsa
01-09-2017, 08:23
esteticamente piu è gradevole un effetto maggiore elaborazione e risorse richiederà.
Abbandonano msaa e cercano di fare altro con le risorse recuperate.

TigerTank
01-09-2017, 08:56
Io penso che a parte una "spolverata" di smaa un domani con la 4K filtri tipo msaa non siano/saranno più necessari. Se uno gioca su TV 4K da tipo 49-55" sta anche ad una certa distanza per cui non è come essere a distanza da monitor desktop. Se uno prende un monitor desktop penso che non possa andare oltre i 32-34", situazione in cui si ha una 4K ad elevata densità di pixel. Tutto a favore di un effetto antialiasing più marcato già di base.

@Bivvoz: risoluzione superiore e/o densità dei pixel saranno sempre meglio di MSAA e simili, perchè può anche succedere che quest'ultimo sia un mattone senza nemmeno agire su tutte le superfici.
Poi beh a me l'fxaa non è mai piaciuto per il motivo che hai scritto, molto meglio l'smaa settabile del reshade :)

AceGranger
01-09-2017, 09:19
se i modelli fossero Hi-Poly e le texture in alta qualita, non servirebbe l'AA, nemmeno in FHD.

Ale55andr0
01-09-2017, 09:40
idem, più effetti particellari, più fisica (sia come iterazioni che oggetti coinvolti), più dettagli anche a distanze superiori, da far sembrare il tutto sempre più completo e vicino alla realtà.

Il 4k dai 38" in giù e già una risoluzione abbondante per pulire l'immagine, se si va su diagonali superiori subentra anche il discorso "tv" invece che di monitor e le distanze di visione aumentano vanificando la necessità di usare risoluzioni maggiori per pannelli dai 40" in su

Ai miei occhi il 4k sopra i 27 a scrivania non pulisce un accidenti di niente e needo follemente buon aa.

Ale55andr0
01-09-2017, 09:41
se i modelli fossero Hi-Poly e le texture in alta qualita, non servirebbe l'AA, nemmeno in FHD.

Dissento. Noto più aliasing su modelli complessi che non con pochi poligoni.

AceGranger
01-09-2017, 11:12
Dissento. Noto più aliasing su modelli complessi che non con pochi poligoni.

:mbe: se parli di giochi, non hai mai visto un modello Hi-Poly.

Ma cosa stracappero centra? :muro:
I film non hanno bisogno di aliasing perchè l'aliasing è una caratteristica di un'elaborazione digitale e non di un filmato ripreso dal vivo.


ormai di ripreso dal vivo in un film c'è ben poco;

Ma cosa stracappero centra? :muro:
Stessa cosa per i film di animazione perchè sono girati a risoluzioni molto più alte e/o con filtri antialiasing così avanzati che usandoli in game non ti basterebbe uno sli di titan per il fullhd.

non mi sono mai informato, ma io in fase di render non uso praticamente mai l'AA; è meglio e piu veloce fare il subsamplig, e in animazione normalmente si usano filtri in post.


il problema sono solo il numero di poligoni e le texture utilizzate, misto anche alla capacita del motore real time di calcolare correttamente e dinamicamente la luce;

magnusll
01-09-2017, 13:26
Se hanno tutta 'sta potenza da scatenare, invece dell' 8K che manco col microscopio elettronico un bell' engine per videgiochi con ray tracing in tempo reale e via.

ste-87
01-09-2017, 14:14
E l'antialiasing?
Se usassero degli antialiasing decenti invece di FXAA, TXAA o SMAA 1x o peggio T2x il 4k perderebbe buona parte della sua utilità (in gaming).

concordo in parte, uso con soddisfazione SMAA o come seconda scelta l'MSAA tra il 2x o 4x se il titolo è relativamente leggero, gli altri AA sono uno peggio dell'altro, al massimo l'uso del fxaa giusto in alcuni casi dove le scalettature sono davvero minime senza antialiasing e sfoca/blurra poco visto che di vantaggioso ha il fatto di essere leggerissimo, il txaa è proprio uno schifo come resa :D

Io penso che a parte una "spolverata" di smaa un domani con la 4K filtri tipo msaa non siano/saranno più necessari. Se uno gioca su TV 4K da tipo 49-55" sta anche ad una certa distanza per cui non è come essere a distanza da monitor desktop. Se uno prende un monitor desktop penso che non possa andare oltre i 32-34", situazione in cui si ha una 4K ad elevata densità di pixel. Tutto a favore di un effetto antialiasing più marcato già di base.


giusto quello che intendevo dire precedentemente, magari spiegato meglio :asd:

Dissento. Noto più aliasing su modelli complessi che non con pochi poligoni.

ma parli per esperienza con il fullHD nativo e relativo dsr o hai provato anche un 27" a 2560x1440 ad esempio?

Perchè pure io sono passato dal fullHD su un 27" in cui facevo uso del DSR e nonostante la pulizia migliorasse con una dose di dsr elevato, l'esperienza non è paragonabile proprio sullo stesso piano ad un monitor con una res nativa.

Trovo i 3440x1440 su un 34" (21:9) molto buona, su un 38" si potrebbe andare appunto sui 3840x1600 o in caso di 16:9 il classico 4k (3840x2160) per mantenere lo stesso rapporto con una spolverata di smaa nei casi "peggiori".

Per dirti ho provato anche a giocare a 6880x2880, ma a parte vedere le diapositive a 30 fps :D non ci ho trovato quella differenza che avevo notato con il fullHD nativo portato a 1440 o sopra.

Ubro92
01-09-2017, 14:36
concordo in parte, uso con soddisfazione SMAA o come seconda scelta l'MSAA tra il 2x o 4x se il titolo è relativamente leggero, gli altri AA sono uno peggio dell'altro, al massimo l'uso del fxaa giusto in alcuni casi dove le scalettature sono davvero minime senza antialiasing e sfoca/blurra poco visto che di vantaggioso ha il fatto di essere leggerissimo, il txaa è proprio uno schifo come resa :D



giusto quello che intendevo dire precedentemente, magari spiegato meglio :asd:



ma parli per esperienza con il fullHD nativo e relativo dsr o hai provato anche un 27" a 2560x1440 ad esempio?

Perchè pure io sono passato dal fullHD su un 27" in cui facevo uso del DSR e nonostante la pulizia migliorasse con una dose di dsr elevato, l'esperienza non è paragonabile proprio sullo stesso piano ad un monitor con una res nativa.

Trovo i 3440x1440 su un 34" (21:9) molto buona, su un 38" si potrebbe andare appunto sui 3840x1600 o in caso di 16:9 il classico 4k (3840x2160) per mantenere lo stesso rapporto con una spolverata di smaa nei casi "peggiori".

Per dirti ho provato anche a giocare a 6880x2880, ma a parte vedere le diapositive a 30 fps :D non ci ho trovato quella differenza che avevo notato con il fullHD nativo portato a 1440 o sopra.


Concordo, un monitor con risoluzione nativa è tutt'altra cosa, il DSR è utile in quegli engine sopratutto vecchiotti che non hanno texture pack e filtri come si deve e aumentando la risoluzione si va ad arginare parzialmente il problema, in aggiunta a un bel reshade :sofico:

Comunque su un 38" tanto vale andare direttamente verso il 4K 21:9 che dovrebbe essere 5120x2160, un bel macinino... ma con uno sli di 1080ti forse si tira su :D

mikael84
01-09-2017, 14:46
E l'antialiasing?
Se usassero degli antialiasing decenti invece di FXAA, TXAA o SMAA 1x o peggio T2x il 4k perderebbe buona parte della sua utilità (in gaming).

Non puoi minimamente paragonare una risoluzione nativa ad una con con dei filtri.
SSAA o MSAA servono giusto a pulire l'immagine, ma impastano l'immagine con colori mischiati, senza considerare che si rimane sempre con gli stessi pixel.
Con SSAA (FSAA), i pixel vengono suddivisi in varie maschere, 2x2/4x4 etc. Un SSAA 4X (1080p/4k) è l'insieme di 16 subpixel, a cui viene mescolato il colore.
Praticamente su un 1080p, hai la stessa immagine, con l'attenuazione dell'aliasing ma, agendo anche dove non serve rischia di far perdere qualità dell'immagine finale.

Se prendi un 1440p avrai una resa nettamente superiore di un 1080p portato a 4k.
Su un 1080p per avere il peso di un 1440p serve almeno un 4x di MSAA, dove mescoli 4 pixel e 8 sub pixel (dello stesso colore), ma sempre su tali pixel rimani.

Dal mio punto di vista, per averli provati, paragonare 4k nativi a 1080p o 1440p nativi è bestemmia.:fagiano:

Hadar
01-09-2017, 14:54
Concordo, un monitor con risoluzione nativa è tutt'altra cosa, il DSR è utile in quegli engine sopratutto vecchiotti che non hanno texture pack e filtri come si deve e aumentando la risoluzione si va ad arginare parzialmente il problema, in aggiunta a un bel reshade :sofico:

Comunque su un 38" tanto vale andare direttamente verso il 4K 21:9 che dovrebbe essere 5120x2160, un bel macinino... ma con uno sli di 1080ti forse si tira su :DI 2160p 21:9 non esistono XD
I 3840*1600 il loro senso lo hanno, soprattutto se hai intenzione di guardarci i film oltre che giocarci :sofico:

Ubro92
01-09-2017, 15:15
I 2160p 21:9 non esistono XD
I 3840*1600 il loro senso lo hanno, soprattutto se hai intenzione di guardarci i film oltre che giocarci :sofico:

Si ma la densità di pixel rimarrebbe comunque inferiore a un 3840x2160, a sto punto tanto vale introdurli esattamente come 3440x1440 dove anch'essi alla prima iterazione dei 21:9 non esistevano...

mikael84
01-09-2017, 15:21
No scusa ma non è così, un SSAA usa una maschera a più campionamenti per definire in modo più preciso il colore e aumenta la qualità dell'immagine non la peggiora.
Inoltre non impastano nulla, anzi definisco maggiormente.
Che "impastano" un po' sono FXAA e SMAA perchè vanno a sfumare in maniera ignorante, MSAA e SSAA mischiano i colori in modo intelligente in modo che il colori risulti più fedele a quello che dovrebbe essere.

Che poi un 1440p nativo sia meglio di un DSR è vero.

No è così purtroppo.
Con SSAA ogni pixel viene frammentato in 4 sub pixel (4x4 16 sub pixel).
All'interno della maschera (2x2/3x3/4x4), si attua un'interpolazione, sino a ricavarne il miglior colore possibile della maschera.
I pixel con colore dipendente sono spesso quelli centrali alla submaschera, di conseguenza vengono impastati nelle varie griglie.

l'SSAA è ottimo per la pulizia dell'immagine, ma frammentando troppo si rischia di perdere in qualità dell'immagine, sopratutto quando devi fare sub maschere 4x4, dove il colore viene preso dal centro dei subpixel.

Ale55andr0
01-09-2017, 15:22
Non puoi minimamente paragonare una risoluzione nativa ad una con con dei filtri.
SSAA o MSAA servono giusto a pulire l'immagine, ma impastano l'immagine con colori mischiati, senza considerare che si rimane sempre con gli stessi pixel.
Con SSAA (FSAA), i pixel vengono suddivisi in varie maschere, 2x2/4x4 etc. Un SSAA 4X (1080p/4k) è l'insieme di 16 subpixel, a cui viene mescolato il colore.
Praticamente su un 1080p, hai la stessa immagine, con l'attenuazione dell'aliasing ma, agendo anche dove non serve rischia di far perdere qualità dell'immagine finale.

Se prendi un 1440p avrai una resa nettamente superiore di un 1080p portato a 4k.
Su un 1080p per avere il peso di un 1440p serve almeno un 4x di MSAA, dove mescoli 4 pixel e 8 sub pixel (dello stesso colore), ma sempre su tali pixel rimani.

Dal mio punto di vista, per averli provati, paragonare 4k nativi a 1080p o 1440p nativi è bestemmia.:fagiano:

SSAA2x in 1080p in metro 2033/LL ha una resa che varia fra "l'ecceziunale veramente" al "fermi tutti mi sono venuto addosso cambio intimo" :read: :O :)

Free Gordon
01-09-2017, 15:48
Mi riferisco a questo:
http://www.hwupgrade.it/forum/showpost.php?p=44944212&postcount=35992
e poi questo
http://www.hwupgrade.it/forum/showpost.php?p=44944992&postcount=36000
Discussione già presa in passato.
Se hai una GPU con 6 rasterizzatori e 32 rop's in più ti serve più spazio.
Introducendo 7 TPC su GPC, si lavora su 4 rasterizzatori sulla mid.
Un TPC con le FP64 è grande circa 7/7,5mmq2, senza fp64 meno (128 FP 32/64 FP64.
Se prendi un TPC Volta con i thread da 32, avrai considerando la l2, GPC da 95 max 100.
Questo porta ad avere un core da 380-400mmq2 max.
Le prestazioni non saranno probabilmente entusiasmanti inizialmente, ma solo in latenze guadagni notevolmente, visto che già due raster portano via 16 cicli, e spesso i dati di uscita per triangolo sono più bassi della norma.
La Titan x non arriva a 0,3 per P.E., quindi serve altro clock.
A questo aggiungi un miglioramento sulla l1 ed una miglioria quindi anche sulla l2 (le cache portano via tanti cicli).
Thread indipendenti, in grado di lavorare come un singolo warp.
A questo aggiungi un sicuro lavoro elettrico, Pascal ha 3 shunt da caduta.

Se pensi che nvidia tira una GPU, che per il 2018 sia uguale alla 1080ti a pari core, sei totalmente fuori strada.;)


Scusa ma mi ero proprio perso il tuo vecchio post.. ;)

Cmq ho affermato che GV104 sarebbe stato più grosso di GP104, ed è quello che confermi anche tu, sostanzialmente. ;)
Se son 400mmq, sarà più vicino ad un GM204 che a un GP104 e su un processo più costoso per mmq, rispetto ai 28nm rodati di Maxwell. :)

Il mio discorso cmq era più rivolto al costante incremento di prezzo delle fasce medium/high level (non enthusiast, parlo delle future 2070/2080) perpetrato da Nvidia a partire da kepler in poi (iniziato col "gioco" della 780/Ti...poi rivelatesi essere più lente di una 290... :) ) e che è chiaramente permesso dall'atteggiamento/effettiva resa di AMD nelle architetture GCN (dalla 1.2 in poi essenzialmente) che non hanno fornito il necessario contrasto alle controparti verdi. :)

mikael84
01-09-2017, 16:11
Scusa ma mi ero proprio perso il tuo vecchio post.. ;)

Cmq ho affermato che GV104 sarebbe stato più grosso di GP104, ed è quello che confermi anche tu, sostanzialmente. ;)
Se son 400mmq, sarà più vicino ad un GM204 che a un GP104 e su un processo più costoso per mmq, rispetto ai 28nm rodati di Maxwell. :)

Il mio discorso cmq era più rivolto al costante incremento di prezzo delle fasce medium/high level (non enthusiast, parlo delle future 2070/2080) perpetrato da Nvidia a partire da kepler in poi (iniziato col "gioco" della 780/Ti...poi rivelatesi essere più lente di una 290... :) ) e che è chiaramente permesso dall'atteggiamento/effettiva resa di AMD nelle architetture GCN (dalla 1.2 in poi essenzialmente) che non hanno fornito il necessario contrasto alle controparti verdi. :)


Quando non si hanno avversari si gioca come si vuole. GK110 inizialmente era una belva (ne ho avuto 2 più una 780ti, dopo le 3 7970), un chip da 550mmq2 ma che integrava le fp64 ed i vari canali di collegamento per consentire un'accesso a 384bit. In uscita una 780ti superava appena i 200gb/s su un teorico di 335gb/s. I valori rop's erano di appena 35gb/s z-buffer, con schede da review in downclock.
Parliamo di valori teorici di 10gpixel, contro i 60 di AMD in operazioni blending MSAA FP32.

AMD aveva un signor collegamento, tanto che la 290 poteva godere di 253 gb/s di BW (su 320) e 64 rop's, effettive pure in blending, una supremazia netta.

Kepler purtroppo con uscite così basse (pur andando meglio inizialmente) ha risentito tanto, anche se tutt'ora in molti titoli viaggia.

A livello ingegneristico si poteva fare poco, con maxwell alle porte. Certo, volendo slegare il chip, su un 590mmq2 potevi creare una 780ti con bus da 590mmq e bus da 512bit, dove la banda sarebbe stata ben più ampia.
Una 780 per dire, avrebbe richiesto 440mmq2 e con prestazioni superiori grazie alle 48rop's che avrebbero anche migliorato la BW (anche rispetto alla TI).

Nvidia ha capito questo e finalmente sfrutta tutte le potenzialità disaccopiando il chip.:)

Crysis90
01-09-2017, 17:57
8k = 4 volte il 2160p.
Magari fra una decina di anni

Ma a loro mica gliene frega nulla se poi fa 20 FPS. :D

Gli basta avere il pretesto per vendere.

Ale55andr0
01-09-2017, 20:07
eh si infatti in tutti i film che vediamo alla TV in HD/FHD sui 32" in su si notano delle scalettature orribili... :rolleyes:


che caspita ci azzecca un film con il rendering 3d coi bordi dei poligoni seghettati :doh: :muro:

Ale55andr0
01-09-2017, 20:10
:mbe: se parli di giochi, non hai mai visto un modello Hi-Poly.




parlo a paragone di giochi vecchissimi, tipo tomb raider 4 con lara fatta da 20 poligoni (numero a caso) a giochi moderni di oggi dove un personaggio è modellato con 10mila, nei primi si notano molto meno le scalettature, almeno ai miei occhi, nei secondi più poligoni "obliqui" vedo, più noto le schifoscalette, ovviamente senza aa attivo in entrambi

Ma cosa stracappero centra? :muro:

I film non hanno bisogno di aliasing perchè l'aliasing è una caratteristica di un'elaborazione digitale e non di un filmato ripreso dal vivo.
Stessa cosa per i film di animazione perchè sono girati a risoluzioni molto più alte e/o con filtri antialiasing così avanzati che usandoli in game non ti basterebbe uno sli di titan per il fullhd.

appunto!



Trovo i 3440x1440 su un 34" (21:9) molto buona, su un 38" si potrebbe andare appunto sui 3840x1600 o in caso di 16:9 il classico 4k (3840x2160) per mantenere lo stesso rapporto con una spolverata di smaa nei casi "peggiori".
a.


ovvio, perchè la diagonale è dovuta al fatto che è largo principalmente, e i pixel in più ampliano tale formato non facendoti perdere densità, infatti consideranda altezza e risoluzione verticale hai grossomodo la stessa densità di un 27" 1440p 16:9, che è leggermente superiore a quella di un 24" 1080p, quindi piuttosto buona, per quanto IO non potrei fare a meno dell'AA con quel contesto :fagiano:. Su un 38, parlando di videogame e distanze da scrivania per me nemmeno il 4k è LONTANAMENTE sufficiente a mascherare BENE l'aliasing. Per me lato aliasing il risultato è considerabile perfetto (o quasi...) ad esempio sul mio 24" con tw3 in DSR 4K dove effettivamente l'immagine è pulitissima lato scalette, ed è l'unica combo gioco/diagonale/risoluzione (per quanto scalata) che mi da lo stesso senso di pulizia del suddetto metro 2033 con SSAA2X.

AceGranger
01-09-2017, 21:25
parlo a paragone di giochi vecchissimi, tipo tomb raider 4 con lara fatta da 20 poligoni (numero a caso) a giochi moderni di oggi dove un personaggio è modellato con 10mila, nei primi si notano molto meno le scalettature, almeno ai miei occhi, nei secondi più poligoni "obliqui" vedo, più noto le schifoscalette, ovviamente senza aa attivo in entrambi



si ma.... 10K non è Hi-Poly e non è quello che intendevo io.

eXeS
01-09-2017, 22:56
si ma.... 10K non è Hi-Poly e non è quello che intendevo io.
Si ma se un modello ha una superficie non curva, estremizzando possiamo prendere la faccia di un cubo perpendicolare all'osservatore, puoi usare tutti i poligoni che vuoi ma ci saranno sempre angoli di rotazione per i quali senza un algoritmo di anti-aliasing le scalette non le togli.

illidan2000
04-09-2017, 09:30
parlo a paragone di giochi vecchissimi, tipo tomb raider 4 con lara fatta da 20 poligoni (numero a caso) a giochi moderni di oggi dove un personaggio è modellato con 10mila, nei primi si notano molto meno le scalettature, almeno ai miei occhi, nei secondi più poligoni "obliqui" vedo, più noto le schifoscalette, ovviamente senza aa attivo in entrambi



appunto!




ovvio, perchè la diagonale è dovuta al fatto che è largo principalmente, e i pixel in più ampliano tale formato non facendoti perdere densità, infatti consideranda altezza e risoluzione verticale hai grossomodo la stessa densità di un 27" 1440p 16:9, che è leggermente superiore a quella di un 24" 1080p, quindi piuttosto buona, per quanto IO non potrei fare a meno dell'AA con quel contesto :fagiano:. Su un 38, parlando di videogame e distanze da scrivania per me nemmeno il 4k è LONTANAMENTE sufficiente a mascherare BENE l'aliasing. Per me lato aliasing il risultato è considerabile perfetto (o quasi...) ad esempio sul mio 24" con tw3 in DSR 4K dove effettivamente l'immagine è pulitissima lato scalette, ed è l'unica combo gioco/diagonale/risoluzione (per quanto scalata) che mi da lo stesso senso di pulizia del suddetto metro 2033 con SSAA2X.

una 1080 non ti basta allora... :)

Hadar
04-09-2017, 09:37
Vabbè, Alessandro preferisce abbassare i dettagli e giocare a 30 FPS ma avere tutto pulitissimo, non fa testo ( e non sto dicendo che non ha senso, sono solo preferenze)

Ale55andr0
04-09-2017, 09:53
Vabbè, Alessandro preferisce abbassare i dettagli e giocare a 30 FPS ma avere tutto pulitissimo, non fa testo ( e non sto dicendo che non ha senso, sono solo preferenze)


Io non abbasso proprio nulla :asd:

Ubro92
04-09-2017, 10:32
Ad alessandro piace fare gli screeshot :asd:

Quindi gli piace guardare :asd:

egounix
04-09-2017, 10:34
A 30fps se mantiene, si piazza col pad, tanto i mostrilli sono sminchiosi, puoi anche fare giggi la trottola che non ti ammazzano manco a pagalli :O

La mia new postescion, dopo l'upgrade di casa sarà sul 4k anche se dovessi giocare con lo slideshow, ormai tanto l'ai è tarata per il tempo di attesa di cottura di un minestrone.

E comunque io tra poco avrò mario + rabbids... Quindi... #ntoculopureupilu :O
Oddio, c'è la rossa della sicurezza in banca che manda certe occhiate... Forse avrà capito che sono cretino... Bho :stordita:

devil_mcry
04-09-2017, 10:43
Decisamente, è stato un anno a guardare il case vuoto :asd:

In effetti dopo 1 anno a 0fps farne in 4k 20 tutto maxato deve dare una certa goduria XD

bluefrog
04-09-2017, 14:17
Ragazzi non ho capito, ma dovrebbe esserci entro l'autunno/inverno un annuncio di nvidia sulle "nuove" Pascal refresh prima di Volta? O si tratta soltanto di rumors infondati?

bluefrog
04-09-2017, 14:33
http://3.bp.blogspot.com/_k7_rVYxuhI8/TKxM2bNr-AI/AAAAAAAADEE/90OpajoXgiw/s400/quelo-guzzanti-la-seconda-che-hai-detto.gif

:D ok... perché non vedo l'ora di aggiornare scheda video e se appunto nvidia tira fuori i refresh...non vorrei incappare nell'errore di prendere ora una 1080 Ti!

AceGranger
04-09-2017, 14:43
:D ok... perché non vedo l'ora di aggiornare scheda video e se appunto nvidia tira fuori i refresh...non vorrei incappare nell'errore di prendere ora una 1080 Ti!

bè non è che cambi molto, nel Q1 2018 con buona probabilita arrivera Volta...

Ale55andr0
04-09-2017, 15:11
In effetti dopo 1 anno a 0fps farne in 4k 20 tutto maxato deve dare una certa goduria XD

20 li farai te :O

Ren
04-09-2017, 17:00
bè non è che cambi molto, nel Q1 2018 con buona probabilita arrivera Volta...

Io sarei più propenso per il Q2.

Non è detto che hynix rispetti i tempi/volumi con le GDDR6.

Questa volta il memory controller non è retro-compatibile come con le 5X.

Nvidia dovrà fare una scelta oculata sul tipo di memoria per ogni fascia in base alla disponibilità.

Le dichiarazioni di Huang (non c'è fretta per le geffo) sono la ciliegina sulla torta.

Hadar
04-09-2017, 18:17
È mai successo il lancio di una gen due anni dopo? Io ricordo sempre 1y3q(more or less)

Ubro92
04-09-2017, 19:10
Anche io mi accordo a chi opta per maggio probabile vedremo i chip 2070 e 2080 e dopo l'estate per quelli minori come 2060 e 2050/ti.

Per la titan non è detto che ne vedremo una come per Pascal nello stesso anno, anche perchè sarà un bel mostro di dimensioni e non credo che almeno inizialmente le rese siano alte... Ma mai dire mai...

Comunque aldilà di questo ci aspetta un'altra titan prettamente gaming, 2070 e 2080 sicuramente avranno 16GB di memoria, quindi GV102 dovrebbe montare 24GB e non credo arrivino a 48 per la titan, non l'anno fatto neanche per l'attuale quindi sarà solo un chip full costoso...

nessuno29
04-09-2017, 19:44
Oddio, c'è la rossa della sicurezza in banca che manda certe occhiate... Forse avrà capito che sono cretino... Bho :stordita:

O magari ha visto che lavori in banca e sei single,ti guarderei anche io in quel caso.:D :D :D

AceGranger
04-09-2017, 19:59
Io sarei più propenso per il Q2.

Non è detto che hynix rispetti i tempi/volumi con le GDDR6.

Questa volta il memory controller non è retro-compatibile come con le 5X.

Nvidia dovrà fare una scelta oculata sul tipo di memoria per ogni fascia in base alla disponibilità.

Le dichiarazioni di Huang (non c'è fretta per le geffo) sono la ciliegina sulla torta.

si in effetti, visto l'andazzo di AMD in campo gaming non ha per nulla fretta di far uscire le Volta gaming; credo proprio che la linea Pascal sara per nVIdia quella piu remunerativa di tutti i tempi.

Ubro92
04-09-2017, 21:32
Questo è un dettaglio, non spendi decine di milioni di $ in sviluppo per tenerti il prodotto nel cassetto e tenertelo per un momento imprecisato in cui potrebbe essere obsoleto :>

Ma infatti che ci sia concorrenza o meno poco importa, se le rese saranno buone nvidia metterà sul mercato tutte le soluzioni possibili, con Pascal ha venduto e stra-venduto per un intero anno senza alcuna concorrenza e considerando che le attuali Vega 56 e Vega 64 si scontrerebbero con la futura 2060, va da se che 2070 e 2080 andranno via come il pane...

AceGranger
04-09-2017, 22:49
Questo è un dettaglio, non spendi decine di milioni di $ in sviluppo per tenerti il prodotto nel cassetto e tenertelo per un momento imprecisato in cui potrebbe essere obsoleto :>

non si parla mica di anni è, ma di 1-2 mesi e sicuramente nVidia sa meglio di tutti quando lanciare i propri prodotti.

TigerTank
05-09-2017, 07:02
Anche io mi accordo a chi opta per maggio probabile vedremo i chip 2070 e 2080 e dopo l'estate per quelli minori come 2060 e 2050/ti.

Per la titan non è detto che ne vedremo una come per Pascal nello stesso anno, anche perchè sarà un bel mostro di dimensioni e non credo che almeno inizialmente le rese siano alte... Ma mai dire mai...

Comunque aldilà di questo ci aspetta un'altra titan prettamente gaming, 2070 e 2080 sicuramente avranno 16GB di memoria, quindi GV102 dovrebbe montare 24GB e non credo arrivino a 48 per la titan, non l'anno fatto neanche per l'attuale quindi sarà solo un chip full costoso...

Tranquillo che le titan le faranno sempre uscire agli inizi, perchè anche se le mettessero a 1500€ troverebbero chi le compra per fame di novità e prestazioni al top subito :)
E probabilmente faranno come per le Pascal, vendita esclusiva da sito nvidia.

Circa i 12GB non è detto perchè dipenderà anche dai costi delle ddr6. Magari sui chippini ne metteranno di nuovo 8, tanto imho mi pare siano ancora sovrabbondanti.
Titan e Ti boh...magari sulla prima ne metteranno ancora 12GB ma di HBM2 e sulla seconda idem ma di ddr6.

Pat77
05-09-2017, 10:52
Per me saranno simil Pascal, con GTX 2080 su DDR6, certo che con l'aumento del costo delle ram, potrebbero al lancio non esserci sostanziali differenze tra GV104 e eventuale GV102 (2080 ti) mesi dopo come prezzo di lancio, come successo con Pascal.

Infatti GTX 1080 la pagavi 800 euro come si è pagata successivamente 1080 ti.

Hadar
05-09-2017, 12:20
Le GDDR6 sono un ottimo motivo per pensare al Q2 per GV104. Però non mi risulta che se ne abbia notizia ufficiale, quindi potrebbero essere solo ipotesi e GV104 potrebbe stare ancorra su GDD5X e quindi diventa possibile il Q1.

Attualmente si sa solo questo:

https://videocardz.com/68948/skhynix-gddr6-for-high-end-graphics-card-in-early-2018

Hadar
05-09-2017, 14:02
Cioè quasi niente, potrebbe essere la Titan?Potrebbe essere 2080/ti e titan.. Ma anche 2070, anche se quest'ultima potrebbe avere le 5x

The_SaN
05-09-2017, 14:07
Potrebbe essere 2080/ti e titan.. Ma anche 2070, anche se quest'ultima potrebbe avere le 5x

2080 e 2070 dovranno avere le stesse RAM, avendo lo stesso chip.

Stessa cosa per 2080Ti e Titan.

Hadar
05-09-2017, 14:11
2080 e 2070 dovranno avere le stesse RAM, avendo lo stesso chip.

Stessa cosa per 2080Ti e Titan.La 1070 ha le ddr5, mentre la 1080 le ddr5x.. O alla fine sono simili?

The_SaN
05-09-2017, 14:11
La 1070 ha le ddr5, mentre la 1080 le ddr5x.. O alla fine sono simili?

Tra GDDR5 e GDDR6 cambia completamente il controller di memoria, cosa che non accadeva con le GDDR5x

Hadar
05-09-2017, 14:19
Tra GDDR5 e GDDR6 cambia completamente il controller di memoria, cosa che non accadeva con le GDDR5xAh ok, thanks :D
Secondo te che faranno allora?
**70-**80-ti e titan con le ddr6 e gv106 a scendere con ddr5/x?

The_SaN
05-09-2017, 14:21
Ah ok, thanks :D
Secondo te che faranno allora?
**70-**80-ti e titan con le ddr6 e gv106 a scendere con ddr5/x?

Secondo me dipenderà da prezzo e volumi delle GDDR6. Ovviamente loro una previsione (più o meno azzeccata) ce l'hanno già da un po'.

Con prezzi alti le vedremo solo su Titan e Ti, mentre le 2080/70 avranno GDDR5x. Sulle piccoline bastano le GDDR5.

AceGranger
05-09-2017, 14:26
Ah ok, thanks :D
Secondo te che faranno allora?
**70-**80-ti e titan con le ddr6 e gv106 a scendere con ddr5/x?

speriamo Titan HBM2

http://wccftech.com/nvidia-titan-volta-nvlink-hbm2-graphics-card-leak/

ma dubito che le vedremo.


o fanno la Titan con versioni fallate di GV100, o spero mettano 24 Gb di memoria, perchè 12 Gb stonerebbe un po contro la FE da 16 Gb.

The_SaN
05-09-2017, 14:31
speriamo Titan HBM2

http://wccftech.com/nvidia-titan-volta-nvlink-hbm2-graphics-card-leak/

ma dubito che le vedremo.


o fanno la Titan con versioni fallate di GV100, o spero mettano 24 Gb di memoria, perchè 12 Gb stonerebbe un po contro la FE da 16 Gb.

Più che altro si rischierebbe di avere, in ambito gaming, una scheda meno competitiva...non so se abbandoneranno la filosofia attuale (GP100 ---> GP102).

mikael84
05-09-2017, 14:52
Potrebbe essere 2080/ti e titan.. Ma anche 2070, anche se quest'ultima potrebbe avere le 5x

Le ddr5x sono al capolinea, la stessa Micron fabbricherà ddr6 dall'anno prossimo.
Le ddr5x lavorano ancora a canale singolo 32b e non sono concepite per fornire 2gb per MC.
L'unico modo è il classico 16b a conchiglia, ovvero doppia memoria per lato.
Le ddr6 permettono 2gb per MC ed ampiezza minima sui 14 gb/s, grazie al doppio canale 16b (dual channel).
Con la 2070 potrebbero abbassare il taglio sulla BW da 14 a 12 gb/s.


Una 2080 dovrebbe essere così composta:
3584cc (clock sopra i 1800) 64 rop's/3mbl2/ 16gb di vram a 14gb/s (448gb/s).


Riguardo le HBM, il chip gaming non può utilizzare 4 stack perchè sprecherebbe buona parte di silicio per roba inutile, che mai potrebbe sfruttare.
Il GV100 utilizza 128 rop's per collegare il 4° stack sulle 6mb l2. Il chip tesla, può processare solo 92 rop's in virtù dei due TPC di ridondanza.
Le HBM su un chip gaming dovrebbero avere 3 stack;)

mikael84
05-09-2017, 15:20
In base a taglio e necessità di banda potrebbero ancora andare di GDDR5 sulla cut o usare un bin diverso di GDDR6 a costi molto più alti.

Ma esiste qualche dato che specifichi questo, perchè io ero rimasto che tali memorie, così come le ddr5 costano uguale.
Nelle ddr5x, cambia praticamente il prefetch da 8n a 16 (che raddoppia la banda teorica) e nelle ddr6 il doppio canale 16b non single 32b.
E' come le ddr5 in cui è stato aggiunto un commando WCK. Comandi SDR in CK e indirizzi DDR in CK. Il WCK raddoppiava il rapporto in CK.:)

In ogni caso le ddr5 lisce non puoi utilizzarle nei cut perchè sarebbe un'errore ingegneristico elevato.
Praticamente la 2070 la utilizzeresti con 8gb e 288gb/s di BW, uno scempio.

Ti pare che Nvidia rilasci delle schede scempio, come enthusiast del 2018.:p