PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 [124] 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Legolas84
24-11-2016, 09:49
No credo di essermi spiegato qualche post fa.
Nvidia intende inserire nei chip pro, nvlink 2 e la banda massima data dai 32gb HBM2, nonchè più unità FP64 nel 2018.
A quale pro lanciare un chip con un IPC in istruzioni rivisto e più TPC per GPC, quando di base sai che la concorrenza è a questi livelli imbarazzanti, se non ridicoli.
Se anche lo lanciasse, si farebbe solo concorrenza interna e manderebbe totalmente out Vega.

Intel non guardarlo neppure, non ha concorrenza da anni, e dopo due anni di haswell ha migliorato il branch prediction in fascia media o performance, sai che passo.:rolleyes:




Esatto.
Ricordo che un 2600k ha 5/6 anni e da skylake 6700k ci sono state alcune migliorie via branch prediction, istruzioni, avx2, l1 doppia e una finestra istruzione superiore, ma a lato pratico ben poca cosa.
Negli scorsi 5/6 anni, ovvero nel 2006 furono presentati i Cedar mill, dei prescott a 31 stadi a 65nm. Da un P4 ad un 2600k i cambiamenti ci sono stati eccome.

E' un discorso che definirei out ma non troppo, perchè non vedo il nesso di lanciare un'architettura nuova, così in fretta.
E' vero che nvidia o AMD se hanno i chip pronti li lanciano ma sicuramente hanno stilato dei tempi, e Volta per ora è pensato sempre per il compute, Tesla.

Eppure se leggi il thread aspettando AMD sembra che vada tutto alla grande.... dopo il mito delle DX12 (di cui molti utenti non hanno ancora capito una beneamata), recentemente persino i driver AMD sono migliori dei NVIDIA... ci manca che si dica che sia meglio anche in multi-gpu e siamo a posto :asd:

Coglioni noi che speriamo in un riscatto e in un rilancio di una società che è in condizioni disastrose.... va tutto alla grande così.... :asd:

Peggio che allo stadio....

egounix
24-11-2016, 11:36
Eppure se leggi il thread aspettando AMD sembra che vada tutto alla grande.... dopo il mito delle DX12 (di cui molti utenti non hanno ancora capito una beneamata), recentemente persino i driver AMD sono migliori dei NVIDIA... ci manca che si dica che sia meglio anche in multi-gpu e siamo a posto :asd:

Coglioni noi che speriamo in un riscatto e in un rilancio di una società che è in condizioni disastrose.... va tutto alla grande così.... :asd:

Peggio che allo stadio....

Adesso è venuto fuori pure che il pannello nvidia è antidiluviano e lento come la morte.

Vabè, quando hai ormai graffiato tutto lo specchio, non resta nient'altro a cui attaccarsi :asd:

Ma dico io, perchè non andate a commentare i video scandalosi di gaetano sansone sul tubo, quelli sì che fanno orrore... Mi serve aiuto!!!

fraussantin
24-11-2016, 11:40
Adesso è venuto fuori pure che il pannello nvidia è antidiluviano e lento come la morte.



Sono una barzelletta !

fireradeon
24-11-2016, 14:49
Eppure se leggi il thread aspettando AMD sembra che vada tutto alla grande.... dopo il mito delle DX12 (di cui molti utenti non hanno ancora capito una beneamata), recentemente persino i driver AMD sono migliori dei NVIDIA... ci manca che si dica che sia meglio anche in multi-gpu e siamo a posto :asd:

Coglioni noi che speriamo in un riscatto e in un rilancio di una società che è in condizioni disastrose.... va tutto alla grande così.... :asd:

Peggio che allo stadio....

Sul discorso DX12 concordo pienamente! Io gioco a BF1 in DX11 e DX12 non cambia nulla graficamente e vanno praticamente uguale (1/2 fps sulla 1080).
A sto punto mi chiedo davvero a cosa servano. :confused:

Legolas84
24-11-2016, 14:51
Quando usciranno dei veri giochi nativi in dx12 forse potremo iniziare ad apprezzare le differenze... Per ora comunque non si è visto nulla...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Pelvix
24-11-2016, 15:19
Quando usciranno dei veri giochi nativi in dx12 forse potremo iniziare ad apprezzare le differenze... Per ora comunque non si è visto nulla...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Vero, i giochi cosiddetti "patchati" @ dx12 non andrebbero nemmeno considerati come giochi dx12

The_SaN
24-11-2016, 15:23
Sul discorso DX12 concordo pienamente! Io gioco a BF1 in DX11 e DX12 non cambia nulla graficamente e vanno praticamente uguale (1/2 fps sulla 1080).
A sto punto mi chiedo davvero a cosa servano. :confused:

Come già spiegato molte volte, Maxwell e Pascal hanno benefici più contenuti con le DX12.
GCN, a causa della sua architettura (e dei drivers DX11), riesce ad esprimersi al massimo solo con le ottimizzazioni introdotte dalle nuove librerie. Vale lo stesso discorso con Vulkan.

Se poi consideriamo che gli attuali giochi DX12 sono ancora dei DX11 rattoppati...

appleroof
24-11-2016, 15:31
Come già spiegato molte volte, Maxwell e Pascal hanno benefici più contenuti con le DX12.
GCN, a causa della sua architettura (e dei drivers DX11), riesce ad esprimersi al massimo solo con le ottimizzazioni introdotte dalle nuove librerie. Vale lo stesso discorso con Vulkan.

cut

Amd ha fatto un ottimo lavoro per sè in questo senso, ha giustamente approfittato della diffusione delle sue gpu su console per "portare" il modo di programmarle (in particolare l'AC che è uno degli aspetti delle dx12) su pc, prima con Vulkan tentativo nato morto come ogni libreria proprietaria su pc (per giunta con market share minoritario) ma che è stato propedeutico alle dx12...come dire se non riesco a progettare in tempi brevi una gpu nuova piego il sfw alle mie esigenze approfittando dell'ecosistema creato con le console, mica male davvero

detto questo, come giustamente dici le gpu nvidia attuali non soffrono molto in dx12 e comunque credo che con Volta arriveranno le opportune modifiche all'architettura (fondamentalmente l'AC in hw e poco più immagino) e quindi molto probabilmente saremo punto e a capo

Pelvix
24-11-2016, 15:39
Amd ha fatto un ottimo lavoro per sè in questo senso, ha giustamente approfittato della diffusione delle sue gpu su console per "portare" il modo di programmarle (in particolare l'AC che è uno degli aspetti delle dx12) su pc, prima con Vulkan tentativo nato morto come ogni libreria proprietaria su pc (per giunta con market share minoritario) ma che è stato propedeutico alle dx12...come dire se non riesco a progettare in tempi brevi una gpu nuova piego il sfw alle mie esigenze approfittando dell'ecosistema creato con le console, mica male davvero

detto questo, come giustamente dici le gpu nvidia attuali non soffrono molto in dx12 e comunque credo che con Volta arriveranno le opportune modifiche all'architettura (fondamentalmente l'AC in hw e poco più immagino) e quindi molto probabilmente saremo punto e a capo

Infatti se riesce a capitalizzare questa situzione di vantaggio potrebbe dare davvero del filo da torcere a nvidia, il guaio è che in AMD sono maestri a darsi le randellate sui denti da sli :doh:

Legolas84
24-11-2016, 15:39
Ma guarda che a quanto dicevano Mikael e Ren i motori async mitigano i problemi di AMD facendola rendere meglio quando l'async è implementato a dovere...

Su NVIDIA non ci sono questi problemi avendo un'architettura molto più bilanciata. Quindi mettere motori async hardware sarebbe totalmente inutile o solo marginalmente utile.

Quello che spero è che se AMD riuscirà a rendere sempre in ogni condizione in modo paragonabile a NVIDIA forse rivedremo i chip con declinazione 104 in fascia media e non in fascia alta... ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Pelvix
24-11-2016, 16:01
Ma guarda che a quanto dicevano Mikael e Ren i motori async mitigano i problemi di AMD facendola rendere meglio quando l'async è implementato a dovere...

Su NVIDIA non ci sono questi problemi avendo un'architettura molto più bilanciata. Quindi mettere motori async hardware sarebbe totalmente inutile o solo marginalmente utile.

Quello che spero è che se AMD riuscirà a rendere sempre in ogni condizione in modo paragonabile a NVIDIA forse rivedremo i chip con declinazione 104 in fascia media e non in fascia alta... ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

EEEHHHHH!
Sarebbe davvero il caso, perchè non si può vedere una 1080 a 700 euro:muro:

OvErClOck82
24-11-2016, 16:06
ve la butto lì... sarebbe bastato non comprarle :asd:
(almeno all'inizio)

Legolas84
24-11-2016, 16:09
Io mica mi sto lamentando.... Si pagano le performance e la bontà di scheda ed ecosistema non la declinazione del chip.

Se NVIDIA riesce a ottenere una fascia alta con chip piccoli buon per lei, ma mi sembra anche lecito sperare che si torni ad avere chip più grandi in fascia alta così che aumentino per tutti le performance.
E ripeto con questo non si vuole affatto dire che gp104 sia un brutto chip anzi o che sia fuori fascia... Per come è il mercato oggi (ovvero disastrato) gp104 è perfettamente allocato...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Pelvix
24-11-2016, 16:28
Io mica mi sto lamentando.... Si pagano le performance e la bontà di scheda ed ecosistema non la declinazione del chip.

Se NVIDIA riesce a ottenere una fascia alta con chip piccoli buon per lei, ma mi sembra anche lecito sperare che si torni ad avere chip più grandi in fascia alta così che aumentino per tutti le performance.
E ripeto con questo non si vuole affatto dire che gp104 sia un brutto chip anzi o che sia fuori fascia... Per come è il mercato oggi (ovvero disastrato) gp104 è perfettamente allocato...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Magari tu non ti lamenti ma io si: è una vergogna vedere i prezzi delle midrange attuali (perchè questo sono i chip 104): che poi nvidia se lo possa permettere vista la concorrenza nulla, questo è tristemente vero purtroppo:cry:

AceGranger
24-11-2016, 16:29
ve la butto lì... sarebbe bastato non comprarle :asd:
(almeno all'inizio)

purtroppo a giudicare dai fatturati non è andata cosi :fagiano:

Pelvix
24-11-2016, 16:32
purtroppo a giudicare dai fatturati non è andata cosi :fagiano:

e purtroppo hai assolutamente ragione :muro:

Legolas84
24-11-2016, 16:35
Magari tu non ti lamenti ma io si: è una vergogna vedere i prezzi delle midrange attuali (perchè questo sono i chip 104): che poi nvidia se lo possa permettere vista la concorrenza nulla, questo è tristemente vero purtroppo:cry:
Sorry ma per come è il mercato oggi no si può definire mid range una gtx 1080... Le fasce vengono fatte in base ai prezzi e alle performance cose che posizionano il gp104 in fascia alta. Certo se AMD avesse risposto per le rime a NVIDIA forse la situazione sarebbe diversa, ma con i se e con i ma...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Pelvix
24-11-2016, 16:49
Sorry ma per come è il mercato oggi no si può definire mid range una gtx 1080... Le fasce vengono fatte in base ai prezzi e alle performance cose che posizionano il gp104 in fascia alta. Certo se AMD avesse risposto per le rime a NVIDIA forse la situazione sarebbe diversa, ma con i se e con i ma...

Inviato dal mio ONE A2003 utilizzando Tapatalk

No, io penso invece che dalla 680 in avanti nvidia abbia creato una nuova fascia di mercato virtuale sfruttando la mancanza di concorrenza, riuscendo a far pagare una mid-range come una top, per poi buttare sul mercato le vere top dopo qualche mesa a prezzi ridicoli (leggasi Titan/x80 TI): il gp 104 è progettualmente e prestazionalmente un mid-range, che poi venga venduto come top non cambia.

Tradotto: una SEAT Ibiza 2000 cc 16v andrà anche come una BMW 530, ma non lo è e non lo sarà mai 8mia personalissima considerazione, sia chiaro)

Ren
24-11-2016, 21:00
Una 1070 (nativa, non di scarto) ha consumi/area/bus e memorie simili ad una rx480.

Un bel vantaggio tecnologico per rimpinguare le casse nvidia.

Nessuno gli corre dietro mi pare... (anzi nvidia conserva pure la benzina) :cry:



ps.sono curioso di scoprire i costi delle hbm2...:stordita:

Legolas84
24-11-2016, 21:26
Sono perfettamente d'accordo con voi... È la mancanza di concorrenza che ha portato a questo... Infatti come ho scritto è il mercato distrutto che configura la 1080 come scheda di fascia alta...
La 1080 oggi è fascia alta, ma se ci fosse un regime di concorrenza paritario sarebbe mid...

Inviato dal mio ONE A2003 utilizzando Tapatalk

mikael84
24-11-2016, 22:55
Eppure se leggi il thread aspettando AMD sembra che vada tutto alla grande.... dopo il mito delle DX12 (di cui molti utenti non hanno ancora capito una beneamata), recentemente persino i driver AMD sono migliori dei NVIDIA... ci manca che si dica che sia meglio anche in multi-gpu e siamo a posto :asd:

Coglioni noi che speriamo in un riscatto e in un rilancio di una società che è in condizioni disastrose.... va tutto alla grande così.... :asd:

Peggio che allo stadio....

Diciamo che le dx12 dopo le drawcall riescono a tenere attive 128 code di calcolo senza problemi ma hanno problemi con le latenze.
Il radeon dai dati ha latenze molto elevate, ma mantiene sempre costanti le code.
1. 53.32ms (31.47G pixels/s)
2. 53.48ms (31.37G pixels/s)
3. 53.90ms (31.12G pixels/s)
4. 53.62ms (31.29G pixels/s)
5. 53.37ms (31.44G pixels/s)
6. 53.66ms (31.26G pixels/s)
7. 53.31ms (31.47G pixels/s)
8. 53.72ms (31.23G pixels/s)
9. 53.44ms (31.39G pixels/s)
10. 53.66ms (31.27G pixels/s)
11. 53.50ms (31.36G pixels/s)
12. 54.45ms (30.81G pixels/s)
13. 53.93ms (31.11G pixels/s)
14. 54.35ms (30.87G pixels/s)
15. 53.54ms (31.34G pixels/s)
16. 53.22ms (31.52G pixels/s)
17. 54.44ms (30.82G pixels/s)
18. 53.18ms (31.55G pixels/s)
19. 53.66ms (31.27G pixels/s)
20. 54.32ms (30.89G pixels/s)
21. 54.90ms (30.56G pixels/s)
22. 54.28ms (30.91G pixels/s)
23. 53.20ms (31.53G pixels/s)
24. 54.42ms (30.83G pixels/s)
25. 54.35ms (30.87G pixels/s)
26. 53.92ms (31.12G pixels/s)
27. 54.10ms (31.01G pixels/s)
28. 53.95ms (31.10G pixels/s)
29. 54.26ms (30.92G pixels/s)
30. 54.01ms (31.07G pixels/s)
31. 53.50ms (31.36G pixels/s)
32. 53.72ms (31.23G pixels/s)
33. 54.15ms (30.98G pixels/s)
34. 54.16ms (30.98G pixels/s)
35. 54.29ms (30.90G pixels/s)
36. 55.49ms (30.23G pixels/s)
37. 55.94ms (29.99G pixels/s)
38. 54.42ms (30.83G pixels/s)
39. 55.66ms (30.14G pixels/s)
40. 54.31ms (30.89G pixels/s)
41. 54.34ms (30.88G pixels/s)
42. 53.11ms (31.59G pixels/s)
43. 54.35ms (30.87G pixels/s)
44. 53.23ms (31.52G pixels/s)
45. 56.28ms (29.81G pixels/s)
46. 53.88ms (31.14G pixels/s)
47. 56.09ms (29.91G pixels/s)
48. 56.73ms (29.57G pixels/s)
49. 54.20ms (30.95G pixels/s)
50. 56.27ms (29.81G pixels/s)
51. 54.77ms (30.63G pixels/s)
52. 55.94ms (29.99G pixels/s)
53. 54.19ms (30.96G pixels/s)
54. 56.65ms (29.61G pixels/s)
55. 54.60ms (30.73G pixels/s)
56. 55.36ms (30.31G pixels/s)
57. 54.31ms (30.89G pixels/s)
58. 54.90ms (30.56G pixels/s)
59. 53.29ms (31.48G pixels/s)
60. 53.50ms (31.36G pixels/s)
61. 55.05ms (30.48G pixels/s)
62. 53.10ms (31.59G pixels/s)
63. 57.00ms (29.43G pixels/s)
64. 54.74ms (30.65G pixels/s)
65. 55.56ms (30.20G pixels/s)
66. 55.61ms (30.17G pixels/s)
67. 55.68ms (30.13G pixels/s)
68. 53.59ms (31.31G pixels/s)
69. 58.97ms (28.45G pixels/s)
70. 53.31ms (31.47G pixels/s)
71. 56.08ms (29.92G pixels/s)
72. 53.12ms (31.59G pixels/s)
73. 54.91ms (30.55G pixels/s)
74. 56.46ms (29.72G pixels/s)
75. 54.63ms (30.71G pixels/s)
76. 58.35ms (28.75G pixels/s)
77. 54.81ms (30.61G pixels/s)
78. 53.07ms (31.61G pixels/s)
79. 54.51ms (30.78G pixels/s)
80. 54.40ms (30.84G pixels/s)
81. 55.64ms (30.15G pixels/s)
82. 57.77ms (29.04G pixels/s)
83. 55.78ms (30.08G pixels/s)
84. 57.56ms (29.15G pixels/s)
85. 56.06ms (29.93G pixels/s)
86. 53.34ms (31.45G pixels/s)
87. 57.99ms (28.93G pixels/s)
88. 55.18ms (30.40G pixels/s)
89. 59.28ms (28.30G pixels/s)
90. 53.72ms (31.23G pixels/s)
91. 56.42ms (29.74G pixels/s)
92. 55.42ms (30.28G pixels/s)
93. 55.06ms (30.47G pixels/s)
94. 53.45ms (31.39G pixels/s)
95. 55.74ms (30.10G pixels/s)
96. 53.76ms (31.21G pixels/s)
97. 56.34ms (29.78G pixels/s)
98. 53.65ms (31.27G pixels/s)
99. 57.34ms (29.26G pixels/s)
100. 56.76ms (29.56G pixels/s)
101. 53.55ms (31.33G pixels/s)
102. 56.84ms (29.52G pixels/s)
103. 55.35ms (30.31G pixels/s)
104. 58.31ms (28.77G pixels/s)
105. 56.89ms (29.49G pixels/s)
106. 55.64ms (30.16G pixels/s)
107. 53.35ms (31.45G pixels/s)
108. 55.53ms (30.21G pixels/s)
109. 56.98ms (29.44G pixels/s)
110. 60.04ms (27.94G pixels/s)
111. 57.09ms (29.39G pixels/s)
112. 58.69ms (28.59G pixels/s)
113. 55.15ms (30.42G pixels/s)
114. 58.21ms (28.82G pixels/s)
115. 55.72ms (30.11G pixels/s)
116. 60.84ms (27.58G pixels/s)
117. 57.01ms (29.43G pixels/s)
118. 56.55ms (29.67G pixels/s)
119. 56.45ms (29.72G pixels/s)
120. 56.20ms (29.85G pixels/s)
121. 59.73ms (28.09G pixels/s)
122. 58.50ms (28.68G pixels/s)
123. 58.53ms (28.66G pixels/s)
124. 53.60ms (31.30G pixels/s)
125. 59.90ms (28.01G pixels/s)
126. 53.69ms (31.25G pixels/s)
127. 58.86ms (28.50G pixels/s)
128. 53.30ms (31.48G pixels/s)

Nvidia ha sempre il range di latenze da rispettare ed un'architettura già ben sfruttata.

http://i.imgur.com/pJqBBDS.png

Tutto questo, chiariamo non indica che AMD è superiore sulle dx12, anzi, ha però dalla sua la possibilità di calcolare shader diretti.

In dx12 non è tanto il numero, perchè vanno verificate alcuni dettagli, come l'accesso memoria e le latenze.
http://media.gamersnexus.net/images/media/2016/game-bench/battlefield/bf1-benchmark-4k-dx11.png

http://media.gamersnexus.net/images/media/2016/game-bench/battlefield/bf1-benchmark-4k-dx12.png


Deus ex.
http://techreport.com/r.x/dxmdpreview/furyx.png

http://techreport.com/r.x/dxmdpreview/dx12furyx.png

fraussantin
24-11-2016, 22:59
a vedere quei grafici le dx12 servono solo a peggiorare . Per entrambe le marche.

mikael84
24-11-2016, 23:03
Adesso è venuto fuori pure che il pannello nvidia è antidiluviano e lento come la morte.

Vabè, quando hai ormai graffiato tutto lo specchio, non resta nient'altro a cui attaccarsi :asd:

Ma dico io, perchè non andate a commentare i video scandalosi di gaetano sansone sul tubo, quelli sì che fanno orrore... Mi serve aiuto!!!

Il pannello mi va bene così. Sinceramente sarò retrò, però mi trovo benissimo.
Alla fine con il pannello, ci carichi giusto l'anisotropico, per altro non serve.:p

Ma sta 1080Ti uscira' o no? Non mi e' ben chiaro.

Ancora non si sa nulla purtroppo. Solo rumors infondati

Sul discorso DX12 concordo pienamente! Io gioco a BF1 in DX11 e DX12 non cambia nulla graficamente e vanno praticamente uguale (1/2 fps sulla 1080).
A sto punto mi chiedo davvero a cosa servano. :confused:

Giocalo in DX11, lascia perdere dx12:)

mikael84
24-11-2016, 23:19
a vedere quei grafici le dx12 servono solo a peggiorare . Per entrambe le marche.

Per le AMD sono utili, per eliminare il Cpu limit.
http://www.hwupgrade.it/articoli/skvideo/4679/ashes_all.png

http://www.hwupgrade.it/articoli/skvideo/4676/ashes_2.png


E' come le open gl, AMD non viene sfruttata e bisogna affidarsi a vulkan.
700 euro di scheda con questi risultati
http://techreport.com/r.x/gtx1060review/doomglfps.png

Ora finalmente va meglio.
http://techreport.com/r.x/gtx1060review/doomvkfps.png


Ma non è che nVidia deve avere un boost, sono tutte tecniche per AMD che altrimenti sarebbe incasinata.;)

Legolas84
24-11-2016, 23:20
a vedere quei grafici le dx12 servono solo a peggiorare . Per entrambe le marche.

Penso sia proprio perchè non esiste niente di nativamente scritto in DX12....

Bella spiegazione come sempre mikael ;)

Legolas84
24-11-2016, 23:21
Ma non è che nVidia deve avere un boost, sono tutte tecniche per AMD che altrimenti sarebbe incasinata.;)

Esatto era questo che dicevo prima ;)

fraussantin
24-11-2016, 23:23
Per le AMD sono utili, per eliminare il Cpu limit.
http://www.hwupgrade.it/articoli/skvideo/4679/ashes_all.png

http://www.hwupgrade.it/articoli/skvideo/4676/ashes_2.png


E' come le open gl, AMD non viene sfruttata e bisogna affidarsi a vulkan.
700 euro di scheda con questi risultati
http://techreport.com/r.x/gtx1060review/doomglfps.png

Ora finalmente va meglio.
http://techreport.com/r.x/gtx1060review/doomvkfps.png


Ma non è che nVidia deve avere un boost, sono tutte tecniche per AMD che altrimenti sarebbe incasinata.;)
Si a livello teorico sarebbero utili. Ma poi di fatto i quei 2 giochi le prestazioni sono migliori con le dx11 .

Quindi meno che uno non abbia un dual core , fa meglio ad usare dx11.

In un primo momento pensavo fosse colpa dei primi porting o del giovinezza delle dx12. Ma quei 2 giochi hanno avuto 2 anni ( uno a piena diffusione) per ottimizzarle.

mikael84
24-11-2016, 23:55
Si a livello teorico sarebbero utili. Ma poi di fatto i quei 2 giochi le prestazioni sono migliori con le dx11 .

Quindi meno che uno non abbia un dual core , fa meglio ad usare dx11.

In un primo momento pensavo fosse colpa dei primi porting o del giovinezza delle dx12. Ma quei 2 giochi hanno avuto 2 anni ( uno a piena diffusione) per ottimizzarle.

Si meglio utilizzare le dx11, nVidia offre già il massimo potenziale.
Se prendiamo AoS senza programmazione vedremmo questi risultati totalmente sballati.
Graphics only: 50.75ms (33.06G pixels/s)
Graphics + compute:
1. 68.12ms (24.63G pixels/s)
2. 68.20ms (24.60G pixels/s)
3. 68.23ms (24.59G pixels/s)
4. 68.15ms (24.62G pixels/s)
5. 68.26ms (24.58G pixels/s)
6. 68.14ms (24.62G pixels/s)
7. 68.48ms (24.50G pixels/s)
8. 68.09ms (24.64G pixels/s)
9. 85.80ms (19.55G pixels/s)

Già la nona coda è sballata.

Graphics only: 17.88ms (93.82G pixels/s)
Graphics + compute:
1. 27.69ms (60.59G pixels/s)
2. 27.62ms (60.74G pixels/s)
3. 27.76ms (60.45G pixels/s)
4. 27.68ms (60.61G pixels/s)
5. 27.67ms (60.64G pixels/s)
6. 27.76ms (60.44G pixels/s)
7. 27.79ms (60.37G pixels/s)
8. 27.82ms (60.31G pixels/s)
9. 27.75ms (60.46G pixels/s)
10. 27.76ms (60.44G pixels/s)
11. 27.75ms (60.46G pixels/s)
12. 27.74ms (60.49G pixels/s)
13. 27.76ms (60.44G pixels/s)
14. 27.72ms (60.51G pixels/s)
15. 27.57ms (60.85G pixels/s)
16. 27.78ms (60.39G pixels/s)
17. 27.70ms (60.56G pixels/s)
18. 27.75ms (60.45G pixels/s)
19. 27.77ms (60.41G pixels/s)
20. 27.82ms (60.31G pixels/s)
21. 27.79ms (60.36G pixels/s)
22. 27.70ms (60.57G pixels/s)
23. 27.80ms (60.36G pixels/s)
24. 27.81ms (60.33G pixels/s)
25. 27.74ms (60.49G pixels/s)
26. 27.78ms (60.39G pixels/s)
27. 27.73ms (60.49G pixels/s)
28. 27.70ms (60.56G pixels/s)
29. 27.82ms (60.31G pixels/s)
30. 27.80ms (60.34G pixels/s)
31. 27.77ms (60.41G pixels/s)
32. 37.61ms (44.61G pixels/s)
33. 40.10ms (41.84G pixels/s)
34. 37.69ms (44.51G pixels/s)
35. 37.72ms (44.48G pixels/s)
36. 40.20ms (41.74G pixels/s)
37. 40.11ms (41.83G pixels/s)
38. 37.74ms (44.45G pixels/s)
39. 37.72ms (44.48G pixels/s)
40. 40.19ms (41.75G pixels/s)
41. 40.17ms (41.77G pixels/s)
42. 37.65ms (44.56G pixels/s)
43. 40.19ms (41.75G pixels/s)
44. 37.66ms (44.55G pixels/s)
45. 40.17ms (41.77G pixels/s)
46. 40.25ms (41.68G pixels/s)
47. 40.14ms (41.80G pixels/s)
48. 40.18ms (41.76G pixels/s)
49. 37.74ms (44.46G pixels/s)
50. 40.11ms (41.82G pixels/s)
51. 40.13ms (41.81G pixels/s)
52. 40.25ms (41.68G pixels/s)
53. 37.64ms (44.57G pixels/s)
54. 37.59ms (44.64G pixels/s)
55. 40.24ms (41.70G pixels/s)
56. 40.20ms (41.73G pixels/s)
57. 37.68ms (44.53G pixels/s)
58. 37.75ms (44.45G pixels/s)
59. 40.19ms (41.74G pixels/s)
60. 37.72ms (44.48G pixels/s)
61. 37.68ms (44.52G pixels/s)
62. 37.77ms (44.42G pixels/s)
63. 40.15ms (41.78G pixels/s)
64. 49.98ms (33.56G pixels/s)
65. 47.56ms (35.28G pixels/s)
66. 50.09ms (33.49G pixels/s)
67. 47.61ms (35.24G pixels/s)
68. 47.61ms (35.24G pixels/s)
69. 47.55ms (35.28G pixels/s)
70. 52.59ms (31.90G pixels/s)
71. 47.62ms (35.23G pixels/s)
72. 50.18ms (33.43G pixels/s)
73. 47.57ms (35.27G pixels/s)
74. 47.56ms (35.28G pixels/s)
75. 47.67ms (35.19G pixels/s)
76. 49.99ms (33.56G pixels/s)
77. 50.14ms (33.46G pixels/s)
78. 47.67ms (35.19G pixels/s)
79. 47.59ms (35.25G pixels/s)
80. 47.71ms (35.16G pixels/s)
81. 47.63ms (35.22G pixels/s)
82. 50.09ms (33.49G pixels/s)
83. 50.05ms (33.52G pixels/s)
84. 47.60ms (35.25G pixels/s)
85. 52.61ms (31.89G pixels/s)
86. 47.53ms (35.30G pixels/s)
87. 50.08ms (33.50G pixels/s)
88. 50.07ms (33.51G pixels/s)
89. 47.47ms (35.34G pixels/s)
90. 50.09ms (33.50G pixels/s)
91. 47.63ms (35.22G pixels/s)
92. 47.59ms (35.25G pixels/s)
93. 52.59ms (31.90G pixels/s)
94. 47.59ms (35.26G pixels/s)
95. 47.72ms (35.16G pixels/s)
96. 59.85ms (28.03G pixels/s)
97. 57.36ms (29.25G pixels/s)
98. 57.44ms (29.21G pixels/s)
99. 57.50ms (29.18G pixels/s)
100. 57.53ms (29.16G pixels/s)
101. 60.01ms (27.96G pixels/s)
102. 60.05ms (27.94G pixels/s)
103. 57.53ms (29.16G pixels/s)
104. 57.54ms (29.16G pixels/s)
105. 59.90ms (28.01G pixels/s)
106. 60.04ms (27.94G pixels/s)
107. 59.97ms (27.98G pixels/s)
108. 57.64ms (29.11G pixels/s)
109. 57.41ms (29.22G pixels/s)
110. 60.07ms (27.93G pixels/s)
111. 57.50ms (29.18G pixels/s)
112. 57.53ms (29.16G pixels/s)
113. 60.01ms (27.96G pixels/s)
114. 59.98ms (27.97G pixels/s)
115. 57.46ms (29.20G pixels/s)
116. 57.54ms (29.16G pixels/s)
117. 57.49ms (29.18G pixels/s)
118. 57.53ms (29.16G pixels/s)
119. 62.53ms (26.83G pixels/s)
120. 60.00ms (27.96G pixels/s)
121. 62.51ms (26.84G pixels/s)
122. 60.01ms (27.96G pixels/s)
123. 60.03ms (27.95G pixels/s)
124. 57.46ms (29.20G pixels/s)
125. 57.44ms (29.21G pixels/s)
126. 57.51ms (29.18G pixels/s)
127. 57.54ms (29.16G pixels/s)
128. 72.22ms (23.23G pixels/s)

Questa è una 980ti programmata, ma come puoi vedere dopo la 31° crolla ed aumenta la latenza, ma parte sempre meglio delle radeon.
Questo con Maxwell, con Pascal migliora sensibilmente a lato teorico ma dai bench cambia nulla o poco, se non per qualche shader in idle della 1080 a basse risoluzioni.

Le vere differenze sono per il CPU limit delle vecchie radeon, in cui AMD con le nuove ha inserito 2 HWS affianco agli ACE.:)


No, io penso invece che dalla 680 in avanti nvidia abbia creato una nuova fascia di mercato virtuale sfruttando la mancanza di concorrenza, riuscendo a far pagare una mid-range come una top, per poi buttare sul mercato le vere top dopo qualche mesa a prezzi ridicoli (leggasi Titan/x80 TI): il gp 104 è progettualmente e prestazionalmente un mid-range, che poi venga venduto come top non cambia.

Tradotto: una SEAT Ibiza 2000 cc 16v andrà anche come una BMW 530, ma non lo è e non lo sarà mai 8mia personalissima considerazione, sia chiaro)

La 1080 è ad oggi un chip di fascia alta, totalmente di fascia alta, come lo è la 1070.
Il fatto del chip è giusto un fattore tecnico, anche Vega sarà un chippino e nulla di più.
Nvidia sopratutto con Pascal ha già postato completamente il suo chip finale, con AMD è diverso, perchè devono ancora crearlo un mid chip.

Pelvix
25-11-2016, 08:16
La 1080 è ad oggi un chip di fascia alta, totalmente di fascia alta, come lo è la 1070.
Il fatto del chip è giusto un fattore tecnico, anche Vega sarà un chippino e nulla di più.
Nvidia sopratutto con Pascal ha già postato completamente il suo chip finale, con AMD è diverso, perchè devono ancora crearlo un mid chip.

No, personalmente ritengo invece che il top sia solo e soltanto ciò che al massimo di permette la tecnologia in un dato momento, tutto il resto sta sotto, ma questo ripeto, è un mio personale pensero, sia pure non condivisibile.
In merito alle tue considerazioni su Vega, intendi dire che sarà una sorta di nuova 480 oppure che sarà piccolo (quindi economico) ma comunque competitivo con le 1070 o 1080?

Pelvix
25-11-2016, 08:59
continuo a non capire cosa c'entra amd se nvidia con un chip da 315mmq a 16nm riesce a rullare meglio di un chip da 600mmq a 28nm della vecchia generazione... no davvero, o ci sono dei maghi del troll qua dentro che frozen e doberman sono dei pivelli a confronto oppure non capisco io.

gp104 fa meglio di gm200? si, quanto non ricordo di preciso ma siamo a circa +30 a def e +20% in OC? allora va bene...

cioè sto ragionamento andava bene 5 anni fa tra la 680 e la 7970, che poi sia allora come oggi che erano 300mmq vs 350mmq tutta sta differenza non la vedo in dimensioni del chip, sti cazzi oh P10 è 230mmq e gp106 è 200mmq, dati alla mano eh...

...chip medio, chip grande, chip piccolo, ma quante seghe mentali... oggi nvidia chiama 104/114 quello che prima era il g80/92 ecc ma adesso fa anche padelle da +450mmq fino a 600mmq cosa che prima non facevano con i vecchi PP, anche qui dati alla mano...

solo con i 40nm si sono fatti chip così grossi e nvidia chiamava 104 quello che prima era ad esempio il g92 e all'epoca era fascia alta (gf104 330mmq sui 40nm così come g92 320mmq sui 65nm), ma per me oggi potrebbe chiamarlo puro pippo o topolino.

magari metto qualche occhiolino anch'io che si capisce meglio il concetto ;) ;) ;)

:rolleyes:

Il paragone fra architetture di epoche diverse non centra nulla, qui si parla di Pascal Vs Vega, ergo architetture contemporanee costruite con tecnologie equivalenti.
Per ora, nvidia con il chip della 1060 è riuscita ad avere mediamente (seppur di poco) più performance consumando e scaldando pure meno del chip della 480, e se il buon giorno si vede dal mattino .....
Se invece come alcuni ritengono Vega sarà proprio un'architettura diversa, allora sarà tutto da rivalutare

Nurabsa
25-11-2016, 09:29
forza horizon 3 ricordo che gira su dx12 con schede vecchie come la 980ti si sta nella pace dei sensi del 4k e dubito che microzoz sia pro envidia :)

mikael84
25-11-2016, 09:57
No, personalmente ritengo invece che il top sia solo e soltanto ciò che al massimo di permette la tecnologia in un dato momento, tutto il resto sta sotto, ma questo ripeto, è un mio personale pensero, sia pure non condivisibile.
In merito alle tue considerazioni su Vega, intendi dire che sarà una sorta di nuova 480 oppure che sarà piccolo (quindi economico) ma comunque competitivo con le 1070 o 1080?

La suddivisione è
x106: performance/mid
x104: fascia alta
x100/x102: enthusiast

Prima della 680 era tutto invariato, solo che il chip full veniva chiamato high, ora tale fascia è passata al x104.

Vega dovrebbe essere un chip paragonabile al GP104.

Pelvix
25-11-2016, 10:09
La suddivisione è
x106: performance/mid
x104: fascia alta
x100/x102: enthusiast

Prima della 680 era tutto invariato, solo che il chip full veniva chiamato high, ora tale fascia è passata al x104.

Vega dovrebbe essere un chip paragonabile al GP104.

Se così fosse dovranno calare decisamente il prezzo (ammesso che possano), altrimenti non la venderanno, senza considerare il fatto che chi voleva/poteva simili performance la vga se la è già comprata da mesi ormai

TigerTank
25-11-2016, 10:27
Il pannello mi va bene così. Sinceramente sarò retrò, però mi trovo benissimo.
Alla fine con il pannello, ci carichi giusto l'anisotropico, per altro non serve.:p


Sì, ti quoto. A volte tentenna un pò come reattività ma bisogna considerare che deve caricare un sacco di profili. Per me va bene così com'è...che poi quando installo quelli nuovi con installazione pulita, setto gsync, Sli, 2 opzioni del profilo generale dei setting grafici(anisotropico, dsr, e poco altro) e ho finito :D
Poi c'è chi mette anche l'experience, io non lo uso. Piazzo solo drivers video, HDMI audio e physx.

Se così fosse dovranno calare decisamente il prezzo (ammesso che possano), altrimenti non la venderanno, senza considerare il fatto che chi voleva/poteva simili performance la vga se la è già comprata da mesi ormai

Sicuramente...per poter concorrere, oltre che essere competitive con le 1070/1080, dovranno anche costare qualcosa meno. Per cui qualcosa mi dice che sicuramente non avranno le HBM2 ma delle gddr5X se non delle gddr5.

Pelvix
25-11-2016, 10:47
Sì, ti quoto. A volte tentenna un pò come reattività ma bisogna considerare che deve caricare un sacco di profili. Per me va bene così com'è...che poi quando installo quelli nuovi con installazione pulita, setto gsync, Sli, 2 opzioni del profilo generale dei setting grafici(anisotropico, dsr, e poco altro) e ho finito :D
Poi c'è chi mette anche l'experience, io non lo uso. Piazzo solo drivers video, HDMI audio e physx.



Sicuramente...per poter concorrere, oltre che essere competitive con le 1070/1080, dovranno anche costare qualcosa meno. Per cui qualcosa mi dice che sicuramente non avranno le HBM2 ma delle gddr5X se non delle gddr5.

Ecco, questa tua ultima ipotesi sembra anche a me la più verosimile, anche se tutti i rumors sostengono che saranno HBM2:mbe:

TigerTank
25-11-2016, 11:27
Ecco, questa tua ultima ipotesi sembra anche a me la più verosimile, anche se tutti i rumors sostengono che saranno HBM2:mbe:

Mah, vedremo...io penso che vista la situazione attuale dei prezzi delle nvidia, delle Vega da eventuali 700€ per via delle HBM2 e con prestazioni tra le 1070 e le 1080...non so quanto possano essere appetibili.
Alla fine credo siano proprio in pochi a scegliere le vga basandosi sulle vram, piuttosto guardano alle prestazioni complessive.

Nurabsa
25-11-2016, 11:47
visto il successone delle fury puntano nuovamente sulle vram :asd:

mikael84
25-11-2016, 11:55
Se così fosse dovranno calare decisamente il prezzo (ammesso che possano), altrimenti non la venderanno, senza considerare il fatto che chi voleva/poteva simili performance la vga se la è già comprata da mesi ormai

Troppo presto per parlare di prezzi e prestazioni, purtroppo non ho uno straccio di roadmap nVidia ed allo stesso tempo alcuna informazione su Vega.
Tuttavia nVidia è sempre in posizione di vantaggio perchè avendo a disposizione i chip può gestirli come vuole, creare refresh, rebrandare, abbassare i prezzi etc.


Sì, ti quoto. A volte tentenna un pò come reattività ma bisogna considerare che deve caricare un sacco di profili. Per me va bene così com'è...che poi quando installo quelli nuovi con installazione pulita, setto gsync, Sli, 2 opzioni del profilo generale dei setting grafici(anisotropico, dsr, e poco altro) e ho finito :D
Poi c'è chi mette anche l'experience, io non lo uso. Piazzo solo drivers video, HDMI audio e physx.



Sicuramente...per poter concorrere, oltre che essere competitive con le 1070/1080, dovranno anche costare qualcosa meno. Per cui qualcosa mi dice che sicuramente non avranno le HBM2 ma delle gddr5X se non delle gddr5.

Infatti, giusto in SLI ci smanettavo un pelino in più, anche se il più delle volte via inspector.:p
Cmq niente ddr5, ma HBM2:)

scorpion73
25-11-2016, 12:44
Ma quindi Volta avrà sti benedetti async hw o no?
Cambierà solo l'architettura per avere più performance o Volta sarà compatibile con più caratteristiche delle DX12 che eventualmente oggi Pascal supporta "a modo suo"?
Ho capito che l'architettura nvidia non ha bisogno degli async perché è efficente e comunque li supporta con il balancing dinamico, ma se un gioco li prevede come saranno le prestazioni di nvidia?

Legolas84
25-11-2016, 12:49
Ma quindi Volta avrà sti benedetti async hw o no?
Cambierà solo l'architettura per avere più performance o Volta sarà compatibile con più caratteristiche delle DX12 che eventualmente oggi Pascal supporta "a modo suo"?
Ho capito che l'architettura nvidia non ha bisogno degli async perché è efficente e comunque li supporta con il balancing dinamico, ma se un gioco li prevede come saranno le prestazioni di nvidia?

Semplicemente NVIDIA andrà come è sempre andata... ne più ne meno.... ;)

fraussantin
25-11-2016, 13:23
Ma quindi Volta avrà sti benedetti async hw o no?
Cambierà solo l'architettura per avere più performance o Volta sarà compatibile con più caratteristiche delle DX12 che eventualmente oggi Pascal supporta "a modo suo"?
Ho capito che l'architettura nvidia non ha bisogno degli async perché è efficente e comunque li supporta con il balancing dinamico, ma se un gioco li prevede come saranno le prestazioni di nvidia?
Pascal non supporta" a modo suo" le dx12.
È amd che fa schifo in dx11 e sembra andare il triplo .

Se riescono a perfezionare l'architettura esistente , penso proprio che non ce le metteranno.

Se un gioco le.prevede , ma i cuda e gli shaders vanno bene pure senza non credo cambi niente.

Mickeal se puoi chiariscici il dubbio.

scorpion73
25-11-2016, 14:05
Pascal non supporta" a modo suo" le dx12.
È amd che fa schifo in dx11 e sembra andare il triplo .

Se riescono a perfezionare l'architettura esistente , penso proprio che non ce le metteranno.

Se un gioco le.prevede , ma i cuda e gli shaders vanno bene pure senza non credo cambi niente.

Mickeal se puoi chiariscici il dubbio.


Pascal supporta le DX12 da quel che so, con "a modo suo" intendevo riferirmi al fatto che ha un supporto agli async senza hw dedicato ma con un altro stratagemma, cioé il bilanciamento dinamico (diversamente da maxwell) e comunque avendo meno code (31+1 vs 128) delle Radeon.
Magari con Volta faranno solo arrivare a 128 le code anche sulle GeForce e null'altro, non so...
Che poi AMD fa schifo in DX11 mi pare talmente evidente che manco serve scriverlo...

Comunque se Mikael ci chiarisce il discorso del gioco sicuramente ne sapremo di più...

appleroof
25-11-2016, 15:25
cut

Su NVIDIA non ci sono questi problemi avendo un'architettura molto più bilanciata. Quindi mettere motori async hardware sarebbe totalmente inutile o solo marginalmente utile.

cut

probabilmente l'architettura sarà aggiornata molto più pesantemente di quanto sia stato tra Maxwell e Pascal, in tal modo FORSE occorrerà ribilanciarla con un supporto AC (che sono uno degli standard delle dx12) in hw, questo intendevo

p.s.: ignoro i rumors su Volta perchè non sto seguendo, quindi parlo totalmente per ipotesi

TigerTank
25-11-2016, 16:00
Infatti, giusto in SLI ci smanettavo un pelino in più, anche se il più delle volte via inspector.:p
Cmq niente ddr5, ma HBM2:)

Esatto...San Inspector :sofico:
Mmhhh con delle HBM2 mi sa che dovranno tagliare alla grande sui margini di profitto, altrimenti faranno la stessa fine delle Fury...

Ren
25-11-2016, 16:08
Pascal supporta le DX12 da quel che so, con "a modo suo" intendevo riferirmi al fatto che ha un supporto agli async senza hw dedicato ma con un altro stratagemma, cioé il bilanciamento dinamico (diversamente da maxwell) e comunque avendo meno code (31+1 vs 128) delle Radeon.
Magari con Volta faranno solo arrivare a 128 le code anche sulle GeForce e null'altro, non so...
Che poi AMD fa schifo in DX11 mi pare talmente evidente che manco serve scriverlo...

Comunque se Mikael ci chiarisce il discorso del gioco sicuramente ne sapremo di più...

Nvidia ha un command processor/scheduler unificato che gestisce migliaia di thread.

AMD invece aggiunge scheduler dedicati per sgravare il piccolo command processor.

Ren
25-11-2016, 16:40
sai vagante il motivo? :D

Presumo per evitare di buttare nel cesso il command processor(+setup engine) di terascale (1-2) memoria...

Tra API e scheduler dedicati hanno trovato un modo (poco elegante) per sfangarla.

Se penso al bug del geometry engine risolto solo con polaris mi viene da ridere (per non piangere)...:doh:

Ren
25-11-2016, 19:19
Se vuoi sapere del bug è documentato dai test di techreport ed anche dai paper sul frostbite.

http://techreport.com/r.x/rx480review/b3d-poly.png

Per il resto è sempre la solita solfa. Il sistema (GPC/TPC/Gigathread) nvidia, nasce per essere scalabile.

AMD ha semplicemente adattato quello che aveva in casa con terascale.

cmq sono cose ampiamente discusse...

sertopica
25-11-2016, 21:04
Ancora non si sa nulla purtroppo. Solo rumors infondati
Ecco, infatti sono le uniche news che ho trovato. :D

Grazie. :)

slide1965
28-11-2016, 04:34
Sono fuori dal forum da tempo causa impegni, mi potreste dire se ad oggi esiste uno sli di gpu in grado di gestire 3 monitor 4K nel gaming ?
Grazie

Raven
28-11-2016, 06:27
Sono fuori dal forum da tempo causa impegni, mi potreste dire se ad oggi esiste uno sli di gpu in grado di gestire 3 monitor 4K nel gaming ?
Grazie
3 monitor tutti 4k? O intendi la risoluzione "totale"?
Nel primo caso non ce la fa nemmeno uno sli di TITAN x Pascal...

slide1965
28-11-2016, 09:54
Si intendevo 3 monitor 4k.
In sostanza devo montare 3 schermi in un simulatore di guida ma essendo la dimensioni degli stessi abbastanza generosa (40 pollici) e avendo una distanza di visione ravvicinata (circa 80cm) , non volevo stare sui classici fullhd onde evitare di vedere dei pixel grossi come noci .
Una soluzione gradevole poteva essere quella di usare 3 schermi da 2560x1440 ma non esistono su quella diagonale (perlomeno che sappia io), per cui avevo pensato ai 4k, TV o monitor che sia.
Se non esiste ancora un hardware in grado di pilotarli mi sa che non ho molta scelta :rolleyes:

Gello
28-11-2016, 11:02
Si intendevo 3 monitor 4k.
In sostanza devo montare 3 schermi in un simulatore di guida ma essendo la dimensioni degli stessi abbastanza generosa (40 pollici) e avendo una distanza di visione ravvicinata (circa 80cm) , non volevo stare sui classici fullhd onde evitare di vedere dei pixel grossi come noci .
Una soluzione gradevole poteva essere quella di usare 3 schermi da 2560x1440 ma non esistono su quella diagonale (perlomeno che sappia io), per cui avevo pensato ai 4k, TV o monitor che sia.
Se non esiste ancora un hardware in grado di pilotarli mi sa che non ho molta scelta :rolleyes:

Non so le tue esigenze ma un visore in questi casi e' stra consigliato, non tornerei mai ai 3 monitor per simmare...

rossano92
28-11-2016, 11:07
Sono fuori dal forum da tempo causa impegni, mi potreste dire se ad oggi esiste uno sli di gpu in grado di gestire 3 monitor 4K nel gaming ?
Grazie
3 monitor 4k? Imho per reggerli serve uno SLI di Titan Volta. Sei in anticipo di un paio d'anni quindi con le tue richieste :D

fraussantin
28-11-2016, 11:14
3 monitor 4k? Imho per reggerli serve uno SLI di Titan Volta. Sei in anticipo di un paio d'anni quindi con le tue richieste :D
Con i game moderni non ce la fai.

Non so se uno sli di titan ( se non erro limitato a 2 vga) supporti a livello hw la risoluzione necessaria per 3 monitor 4k , ma di sicuro al massimo maxi i giochi con 1.

rossano92
28-11-2016, 11:18
Con i game moderni non ce la fai.

Non so se uno sli di titan ( se non erro limitato a 2 vga) supporti a livello hw la risoluzione necessaria per 3 monitor 4k , ma di sicuro al massimo maxi i giochi con 1.
Credo che la risoluzione finale con 3 monitor 4k non sia supportata.
Con uno andare di Titan oggi è d'obbligo, anche se io aspetterei la 1080ti che dovrebbe garantire prestazioni simili per 400euro in meno.

slide1965
28-11-2016, 11:34
Non so le tue esigenze ma un visore in questi casi e' stra consigliato, non tornerei mai ai 3 monitor per simmare...
Dipende dove li hai e di che dimensioni , se li tenevi sulla scrivania sono d'accordo con te che è meglio il visore, io mi sono costruito una postazione chiusa che replica l'abitacolo dell'auto , quando sei all'interno è come essere in macchina , gli schermi fungono da parabrezza attraverso il quale vedi l'esterno , nello specifico la pista, nella mia situazione un visore mi renderebbe meno verosimile la simulazione.

Free Gordon
28-11-2016, 11:49
sai vagante il motivo? :D

Soldi&tempo a progettarne uno nuovo.

Gello
28-11-2016, 11:50
Dipende dove li hai e di che dimensioni , se li tenevi sulla scrivania sono d'accordo con te che è meglio il visore, io mi sono costruito una postazione chiusa che replica l'abitacolo dell'auto , quando sei all'interno è come essere in macchina , gli schermi fungono da parabrezza attraverso il quale vedi l'esterno , nello specifico la pista, nella mia situazione un visore mi renderebbe meno verosimile la simulazione.

Siamo ot ma avevo postazione, la fedelta', profondita', l'adrenalina che ti da' il visore rende il monitor piatto, bidimensionale e totalmente distaccato, comprendo comunque la tua scelta "estetica", sulla verosimilitudine devi provare per credere, la sensazione di vertigini nei sali scendi e il senso di tridimensionalita' non ha eguali.

beatl
28-11-2016, 12:39
Sono fuori dal forum da tempo causa impegni, mi potreste dire se ad oggi esiste uno sli di gpu in grado di gestire 3 monitor 4K nel gaming ?
Grazie

Attualmente no .. Una TitanX Pascal tiene il 4k nella maggior parte dei titoli, ma non proprio tutti.

Dovrai aspettare Volta (full chip suppongo) oppure scendere di risoluzione

Raven
28-11-2016, 12:43
Si intendevo 3 monitor 4k.


Allora non ce la fai... ;)
Con lo SLI di titan X Pascal riesci a pilotare in maniera buona/ottima il singolo monitor 4k sui giochi più moderni ed esigenti (ma solo quando lo SLI è supportato... altrimenti con la singola TitanX, a 4K, con alcuni giochi recenti e maxati, non ce la si fa!)

Giustaf
28-11-2016, 13:12
Siamo ot ma avevo postazione, la fedelta', profondita', l'adrenalina che ti da' il visore rende il monitor piatto, bidimensionale e totalmente distaccato, comprendo comunque la tua scelta "estetica", sulla verosimilitudine devi provare per credere, la sensazione di vertigini nei sali scendi e il senso di tridimensionalita' non ha eguali.

pure io non avrei dubbi, 3 monitor non potranno mai riprodurre l'immersività che regala un visore.

Forum Rift
28-11-2016, 13:31
Sono fuori dal forum da tempo causa impegni, mi potreste dire se ad oggi esiste uno sli di gpu in grado di gestire 3 monitor 4K nel gaming ?
Grazie

lo sli è morto nei nuovi giochi.

della serie... cambia progetti.

rossano92
28-11-2016, 14:07
lo sli è morto nei nuovi giochi.

della serie... cambia progetti.

Concordo. Lo SLI, o comunque soluzioni multi gpu, non viene adottato più nemmeno da Nvidia stessa visto che ha troncato lo sviluppo di soluzioni dual gpu dalla 690 in poi. Certo ora rubano soldi con la Titan ma almeno è una gpu singola e non uno sli di x70 con downclock delle frequenze :D

mikael84
28-11-2016, 14:44
Pascal supporta le DX12 da quel che so, con "a modo suo" intendevo riferirmi al fatto che ha un supporto agli async senza hw dedicato ma con un altro stratagemma, cioé il bilanciamento dinamico (diversamente da maxwell) e comunque avendo meno code (31+1 vs 128) delle Radeon.
Magari con Volta faranno solo arrivare a 128 le code anche sulle GeForce e null'altro, non so...
Che poi AMD fa schifo in DX11 mi pare talmente evidente che manco serve scriverlo...

Comunque se Mikael ci chiarisce il discorso del gioco sicuramente ne sapremo di più...

Sinceramente non so come Nvidia possa strutturare la nuova architettura. Io ho alcune idee speculative (già spesso espresse che riguardano sopratutto il rapporto tra la LDS-istruzioni e sgravo della cache per contenere più code) ma solo chi ha progettato il codice sa come lavorerà la nuova architettura.:)

Soldi&tempo a progettarne uno nuovo.

Nvidia ha la vita semplice. Il gigathread prepara tutti i thread e gli assegna ai GPC.
Il lavoro svolto dalla CPU viene letto attraverso l´intefaccia host (Host Interface) mentre il GigaThread Engine raccoglie i dati necessari dalla memoria di sistema e li copia nel framebuffer passando dai controller delle memorie.
Ora il gigathread può preparare tutti i thread verso i GPC e gli SM. Sul SM vengono lavorati e tramite gli sheduler i cuda vengono affiancati alla LDS-sfu. Ogni SM lavora geometricamente con 5 stadi sul P.E. Tutti i dati dei vari P.E. passano al raster in cui gli spettano altri 3 stadi, dove si esegue il backfaceculling (heaven e valley sono basati su questo) e lo stadio finale, ovvero lo z-cull.
Il gigathread si occupa di tutto, anche del lavoro sulle pipeline.




lo sli è morto nei nuovi giochi.

della serie... cambia progetti.

Ora come ora la situazione non è delle migliori:rolleyes:
https://abload.de/img/slitvbk9f.png

majinbu7
28-11-2016, 16:31
Sinceramente non so come Nvidia possa strutturare la nuova architettura. Io ho alcune idee speculative (già spesso espresse che riguardano sopratutto il rapporto tra la LDS-istruzioni e sgravo della cache per contenere più code) ma solo chi ha progettato il codice sa come lavorerà la nuova architettura.:)



Nvidia ha la vita semplice. Il gigathread prepara tutti i thread e gli assegna ai GPC.
Il lavoro svolto dalla CPU viene letto attraverso l´intefaccia host (Host Interface) mentre il GigaThread Engine raccoglie i dati necessari dalla memoria di sistema e li copia nel framebuffer passando dai controller delle memorie.
Ora il gigathread può preparare tutti i thread verso i GPC e gli SM. Sul SM vengono lavorati e tramite gli sheduler i cuda vengono affiancati alla LDS-sfu. Ogni SM lavora geometricamente con 5 stadi sul P.E. Tutti i dati dei vari P.E. passano al raster in cui gli spettano altri 3 stadi, dove si esegue il backfaceculling (heaven e valley sono basati su questo) e lo stadio finale, ovvero lo z-cull.
Il gigathread si occupa di tutto, anche del lavoro sulle pipeline.






Ora come ora la situazione non è delle migliori:rolleyes:
https://abload.de/img/slitvbk9f.png

Beh non potevamo aspettarci che uno scenario simile, e con il futuro sarà sempre peggio, dato che le piattaforme base di programmazione sono le scatolette...MultyGPU R.I.P

illidan2000
28-11-2016, 16:51
Sinceramente non so come Nvidia possa strutturare la nuova architettura. Io ho alcune idee speculative (già spesso espresse che riguardano sopratutto il rapporto tra la LDS-istruzioni e sgravo della cache per contenere più code) ma solo chi ha progettato il codice sa come lavorerà la nuova architettura.:)



Nvidia ha la vita semplice. Il gigathread prepara tutti i thread e gli assegna ai GPC.
Il lavoro svolto dalla CPU viene letto attraverso l´intefaccia host (Host Interface) mentre il GigaThread Engine raccoglie i dati necessari dalla memoria di sistema e li copia nel framebuffer passando dai controller delle memorie.
Ora il gigathread può preparare tutti i thread verso i GPC e gli SM. Sul SM vengono lavorati e tramite gli sheduler i cuda vengono affiancati alla LDS-sfu. Ogni SM lavora geometricamente con 5 stadi sul P.E. Tutti i dati dei vari P.E. passano al raster in cui gli spettano altri 3 stadi, dove si esegue il backfaceculling (heaven e valley sono basati su questo) e lo stadio finale, ovvero lo z-cull.
Il gigathread si occupa di tutto, anche del lavoro sulle pipeline.






Ora come ora la situazione non è delle migliori:rolleyes:
https://abload.de/img/slitvbk9f.png
ma civ6 mica è ancora uscito? dishonored 2 non lo supporterà manco in futuro!??!?!

ste-87
28-11-2016, 16:57
Beh non potevamo aspettarci che uno scenario simile, e con il futuro sarà sempre peggio, dato che le piattaforme base di programmazione sono le scatolette...MultyGPU R.I.P

perchè negli anni precedenti le piattaforme base di programmazione erano i pc per il 90% dei giochi?

personalmente più che sbandierare il solito "lo SLI è morto" sbandiererei "la programmazione decente dei giochi è morta", non è neanche una cosa tanto recente e conta poche eccezioni, il tutto nonostante il mondo console si sia avvicinato moltissimo al mondo pc rispetto a 5-6 anni fa

Legolas84
28-11-2016, 17:08
ma civ6 mica è ancora uscito? dishonored 2 non lo supporterà manco in futuro!??!?!

Come no? mi ci spacco da un pò :D

Controlla Steam ;)

fraussantin
29-11-2016, 03:59
Arrivato il nuovo mattone


In pratica serve pascal per il 1080p ...


http://uploads.tapatalk-cdn.com/20161129/831db2446b7f7c0b49d0773e95528914.jpg

Perchè in 1440p arranca.

http://uploads.tapatalk-cdn.com/20161129/6ff821dab5cb2a0872171c0b334de674.jpg

E meno male che consigliavano la 970 ..

Ubi sempre la stessa.


Non ho capito se è dx12 o 11.

Ma a vedere la furyx che va come una 980 ( in pratica) penso dx11.

ste-87
29-11-2016, 04:57
Arrivato il nuovo mattone


In pratica serve pascal per il 1080p ...




Perchè in 1440p arranca.


E meno male che consigliavano la 970 ..

Ubi sempre la stessa.


Non ho capito se è dx12 o 11.

Ma a vedere la furyx che va come una 980 ( in pratica) penso dx11.

ma più che altro è un impressione solo mia o ad eccezione di alcuni scorci/inquadrature dove è vagamente accettabile, il livello tecnico è decisamente mediocre per non dire proprio penoso?

GTAV mi sembra generalmente sopra già in versione vanilla e con la redux è 20 scalini sopra, se quello è il gioco base neanche una mod importante può fare un miracolo...poi va bhe le prestazioni si argomentano da sole

mikael84
29-11-2016, 10:46
Arrivato il nuovo mattone


In pratica serve pascal per il 1080p ...




E' un mattone ma ha pure tanti parametri mangia fps.
http://www.geforce.com/whats-new/guides/watch-dogs-2-graphics-and-performance-guide

Supporta sin da subito SLI e Cross.

freddye78
29-11-2016, 11:04
Anche il primo watch dogs all'uscita era ottimizzato con i piedi, poi con varie patch hanno sistemato quindi probabilmente seguirà lo stesso iter anche il seguito

majinbu7
29-11-2016, 11:11
perchè negli anni precedenti le piattaforme base di programmazione erano i pc per il 90% dei giochi?

personalmente più che sbandierare il solito "lo SLI è morto" sbandiererei "la programmazione decente dei giochi è morta", non è neanche una cosa tanto recente e conta poche eccezioni, il tutto nonostante il mondo console si sia avvicinato moltissimo al mondo pc rispetto a 5-6 anni fa

Non prenderlo come un'attacco personale, ho solo evidenziato uno scenario che si sta proponendo sempre più spesso e pare sarà sempre peggio, scusa ma è palese che lo SLI/CrossFire muore a causa del non supporto da parte dei programmatori, la prossima volta scriverò SLI R.I.P (a causa dei programmatori) se ti fa sentire meglio :D

egounix
29-11-2016, 11:16
Non prenderlo come un'attacco personale, ho solo evidenziato uno scenario che si sta proponendo sempre più spesso e pare sarà sempre peggio, scusa ma è palese che lo SLI/CrossFire muore a causa del non supporto da parte dei programmatori, la prossima volta scriverò SLI R.I.P (a causa dei programmatori) se ti fa sentire meglio :D

No, lo sli non morirà mai, perchè fa figo avere due nvidia in sli sotto liquido :O

Legolas84
29-11-2016, 12:27
Io personalmente nei titoli pesanti (dove quindi lo SLI serve, perché in titoli come doom che vanno a 100fps tutto al massimo con una scheda lo SLI nemmeno serve) che ho giocato ho sempre trovato un buon supporto... Quindi attualmente ne sono soddisfatto sinceramente...

Inviato dal mio ONE A2003 utilizzando Tapatalk

majinbu7
29-11-2016, 14:35
Ragazzi lo sli l'ho sempre avuto anch'io, l'ultimo era con 2 970 G1 , e dove correttamente supportato è una manna dal cielo...ma purtroppo ultimamente i giochi che appunto lo supportano sono sempre meno, io ho venduto la seconda 970 appena è uscito The division, e adesso col monitor gsync e 1070 vado alla grande.

Legolas84
29-11-2016, 14:38
Si vede che io per ora sono sempre stato fortunato con i titoli che ho giocato e sto giocando :D

Volevo solo riportare la mia esperienza ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

ste-87
29-11-2016, 15:09
Non prenderlo come un'attacco personale, ho solo evidenziato uno scenario che si sta proponendo sempre più spesso e pare sarà sempre peggio, scusa ma è palese che lo SLI/CrossFire muore a causa del non supporto da parte dei programmatori, la prossima volta scriverò SLI R.I.P (a causa dei programmatori) se ti fa sentire meglio :D

nessun attacco personale non ho mai avuto un SLI o Cross, solo che questa storia del "SLI è morto" sembra la frase di tendenza di queste ultime settimane perchè evidentemente per alcuni fa figo (non nello specifico te, sei stato solo l'ennesimo e l'ultimo a dirlo) al dì la del fatto che molti giochi non lo supportino, la ragione mi sembra decisamente altro dal supporto SLI in se:
programmazione dei titoli fatta con il :ciapet: che hanno problemi anche in singola, figurarsi in multi-gpu o windows store = SLI impossibile a prescindere perchè microsoft ha deciso così, punto e basta, come dicevo prima e semplificare e ripetere sempre "SLi r.i.p." "sli è morto" mi sembra sbagliato

Ragazzi lo sli l'ho sempre avuto anch'io, l'ultimo era con 2 970 G1 , e dove correttamente supportato è una manna dal cielo...ma purtroppo ultimamente i giochi che appunto lo supportano sono sempre meno, io ho venduto la seconda 970 appena è uscito The division, e adesso col monitor gsync e 1070 vado alla grande.

ecco su questo mi trovi d'accordo, il g-sync si stà rivelando una cosa più utile di quanto avessi preventivato, a meno di non scendere come medie sotto i 45 fps (ideali) non ti fa alcuna differenza avere una scheda che vada solo un 15-20% in più dato che non si noterebbe differenza senza contatore degli fps, a tutto beneficio del portafoglio e della massima giocabilità

Ren
29-11-2016, 15:27
E' un mattone ma ha pure tanti parametri mangia fps.
http://www.geforce.com/whats-new/guides/watch-dogs-2-graphics-and-performance-guide

Supporta sin da subito SLI e Cross.

Già uscita l'ottima guida nvidia :eek:. Con le scelte giuste non è poi tutto questo mattone...

Integra anche checkerboard rendering (sotto il nome temporal filtering) delle console finte 4K.:eek:

http://images.nvidia.com/geforce-com/international/images/watch-dogs-2/watch-dogs-2-temporal-filtering-performance-640px.png

TigerTank
29-11-2016, 15:53
Già uscita l'ottima guida nvidia :eek:. Con le scelte giuste non è poi tutto questo mattone...

Ah beh ma questo ormai è un classico, in gran parte sono sempre dei mattonazzi assurdi se vediamo i test già in fullHD con tutto maxato.
Poi basta applicare un pò di strategia di settaggio ed ecco che tagliando un pò qui e un pò là(spesso con una minima se non nulla rinuncia visiva) si guadagnano un sacco di fps :D

appleroof
29-11-2016, 15:55
Già uscita l'ottima guida nvidia :eek:. Con le scelte giuste non è poi tutto questo mattone...

Integra anche checkerboard rendering (sotto il nome temporal filtering) delle console finte 4K.:eek:



Eppure già Ubisoft ne aveva implementato una sua versione in Rainbow Six Siege oltre un anno fa. Che ci crediate o meno, il first person shooter tattico della casa francese viene renderizzato nativamente su Ps4 alla risoluzione di appena 960x540 pixel, e poi upscalato fino a 1920x1080 con risultati davvero ottimi

http://www.everyeye.it/articoli/speciale-ps4-pro-4k-nativo-con-upscale-ecco-come-funziona-checkerboard-rendering-31445.html

:read:

Legolas84
29-11-2016, 16:00
Risultati ottimi per una console :D

Sinceramente su pc vorrei un rendering alla risoluzione impostata....

Inviato dal mio ONE A2003 utilizzando Tapatalk

appleroof
29-11-2016, 16:02
Risultati ottimi per una console :D

Sinceramente su pc vorrei un rendering alla risoluzione impostata....

Inviato dal mio ONE A2003 utilizzando Tapatalk

assolutamente d'accordo, infatti credo (sto finendo di scaricarlo) che sia possibile escludere quella impostazione :fagiano:

egounix
29-11-2016, 16:21
Ma co sti giochi in uscita, anche con cpu-field1, chi se li caga più i 4+4... Adios quadigos!!!

FroZen
29-11-2016, 17:55
Ma co sti giochi in uscita, anche con cpu-field1, chi se li caga più i 4+4... Adios quadigos!!!

Ho visto l'84% di utilizzo su bf1 64 player sul fx a 4,7 :stordita:

egounix
29-11-2016, 18:02
Ho visto l'84% di utilizzo su bf1 64 player sul fx a 4,7 :stordita:

Bf conta quanto un canarino in calore su una mucca.

Ho detto una cosa volutamente sbagliata per attendere una tua replica :O

"Tuscè"!!!

athlon xp 2400
29-11-2016, 18:09
Ma co sti giochi in uscita, anche con cpu-field1, chi se li caga più i 4+4... Adios quadigos!!!

Menomale ho preso il 6850 k e nn il 6700

mikael84
29-11-2016, 18:28
Già uscita l'ottima guida nvidia :eek:. Con le scelte giuste non è poi tutto questo mattone...

Integra anche checkerboard rendering (sotto il nome temporal filtering) delle console finte 4K.:eek:


:sbonk: :sbonk:

Povera banda passante con questo gioco.

Menomale ho preso il 6850 k e nn il 6700

Considera che tu giochi a 3440x1440 con una scheda singola (seppur molto potente). Quel grafico è relativo.:)

Hadar
29-11-2016, 18:51
A risoluzioni maggiori probabilmente le differenze sono minime..

athlon xp 2400
29-11-2016, 18:56
Sì certo ma in ottica futura
La CPU la cambio meno delle vga lol

Gello
29-11-2016, 20:54
Sli di 1080 testate in full hd ? LoL

Nurabsa
30-11-2016, 07:29
e magari scala anche in uhd,
alla fine un six si è rivelato investimento per il futuro almeno

sertopica
30-11-2016, 08:27
Watch Dogs 2 l'ho preso e vi assicuro che sì, il Temporal Filtering fa miracoli con le prestazioni, ma la nitidezza dell'immagine ne risente (mai quanto in Quantum Break comunque) ed il filtro MSAA2x applicato all'immagine upscalata non basta per rimuovere le onnipresenti scalettature. SMAA e FXAA inoltre non servono quasi a nulla, solo il primo è un pelo più efficace. L'unica soluzione per liberarsi dell'aliasing è il TXAA, ma ammazza le prestazioni e non è attivabile con il Filtro Temporale in azione.

rossano92
30-11-2016, 09:10
Titolo ottimizzato con i piedi.

Nurabsa
30-11-2016, 09:22
Watch Dogs 2 l'ho preso e vi assicuro che sì, il Temporal Filtering fa miracoli con le prestazioni, ma la nitidezza dell'immagine ne risente (mai quanto in Quantum Break comunque) ed il filtro MSAA2x applicato all'immagine upscalata non basta per rimuovere le onnipresenti scalettature. SMAA e FXAA inoltre non servono quasi a nulla, solo il primo è un pelo più efficace. L'unica soluzione per liberarsi dell'aliasing è il TXAA, ma ammazza le prestazioni e non è attivabile con il Filtro Temporale in azione.

passa al 4k e scordati pure msaa quello che perdi in fps lo recuperi grazie ai filtri spenti :)

sertopica
30-11-2016, 10:07
Resta purtroppo ancora uno spiacevole shimmering su moltissime superfici. In questo gioco sono presenti molte superfici metalliche, piccoli dettagli che ad ogni movimento formicolano. E' un problema che si portano avanti da Assassin's Creed III, guardacaso da quando e' stato introdotto il TXAA. Ci sono soluzioni di AA temporale molto efficaci e assai meno pesanti ormai (vedi Doom ad esempio) ma per qualche motivo non le hanno volute implementare.

Jeetkundo
30-11-2016, 11:23
Eppure già Ubisoft ne aveva implementato una sua versione in Rainbow Six Siege oltre un anno fa. Che ci crediate o meno, il first person shooter tattico della casa francese viene renderizzato nativamente su Ps4 alla risoluzione di appena 960x540 pixel, e poi upscalato fino a 1920x1080 con risultati davvero ottimi

http://www.everyeye.it/articoli/speciale-ps4-pro-4k-nativo-con-upscale-ecco-come-funziona-checkerboard-rendering-31445.html

:read:

Ma quindi come funziona questa impostazione di WD2? Se uno mette temporal filtering ON in pratica il gioco esegue il tutto ad una risoluzione inferiore (720p?) per poi riadattarlo alla nativa impostata dal giocatore?

sertopica
30-11-2016, 11:55
Non è ben chiaro, dovrebbe segare in due la risoluzione orizzontale lasciando invariata la verticale e applicando un filtro MSAA 2x. Ciò che è perduto nell'upscaling viene ricostruito dall'engine calcolando la posizione del frame precedente o qualcosa del genere. :asd: Non sono abbastanza esperto da poterlo spiegare chiaramente.

fraussantin
30-11-2016, 12:01
Ma l'immagine è nitida?oppure offuscata.

Ren
30-11-2016, 13:16
Non è ben chiaro, dovrebbe segare in due la risoluzione orizzontale lasciando invariata la verticale e applicando un filtro MSAA 2x. Ciò che è perduto nell'upscaling viene ricostruito dall'engine calcolando la posizione del frame precedente o qualcosa del genere. :asd: Non sono abbastanza esperto da poterlo spiegare chiaramente.

Lo hai spiegato bene invece...:)

MSAA credo non sia obbligatorio.

Curioso di vedere la resa "in movimento" su monitor.

Jeetkundo
30-11-2016, 13:54
Non è ben chiaro, dovrebbe segare in due la risoluzione orizzontale lasciando invariata la verticale e applicando un filtro MSAA 2x. Ciò che è perduto nell'upscaling viene ricostruito dall'engine calcolando la posizione del frame precedente o qualcosa del genere. :asd: Non sono abbastanza esperto da poterlo spiegare chiaramente.
Ottimo, grazie per la spiegazione. In pratica, siccome l'engine è un mattone clamoroso, tocca eseguirlo a 960x1080 per fare 80-100 fps con la 1080? :D Disattivandolo si crolla a 65 circa afferma la guida ufficiale Nvidia... Che pena ci trattano ormai da schifo le software house

Sent from my Nexus 7 using Tapatalk

muppo
30-11-2016, 14:16
Lo hai spiegato bene invece...:)

MSAA credo non sia obbligatorio.

Curioso di vedere la resa "in movimento" su monitor.

La resa per quanto buona da un senso di interlacciato, cosa che alla fine altro non è anche se adattata.

Giustaf
30-11-2016, 14:21
:
Considera che tu giochi a 3440x1440 con una scheda singola (seppur molto potente). Quel grafico è relativo.:)

A risoluzioni maggiori probabilmente le differenze sono minime..

Eh infatti, sli di 1080 a 1920x1080 :fagiano:

TigerTank
30-11-2016, 16:40
Lo hai spiegato bene invece...:)

MSAA credo non sia obbligatorio.

Curioso di vedere la resa "in movimento" su monitor.

IMHO smaa maxato del reshade e/o dsr tutta la vita. Per me l'msaa è morto e defunto, salvo sia proprio l'unica scelta funzionante.

Eh infatti, sli di 1080 a 1920x1080 :fagiano:

La fullHD sta allo Sli di 1080 come il timone sottodimensionato stava al Titanic :asd:

killeragosta90
30-11-2016, 22:34
IMHO smaa maxato del reshade e/o dsr tutta la vita. Per me l'msaa è morto e defunto, salvo sia proprio l'unica scelta funzionante.


Tiger scusa la domanda (tanto tanto tanto) ignorante ma potrei usare il reshade "liscio" per applicare il solo SMAA?

Te lo chiedo perchè ad esempio ad usare lo SMAA Injector con i giochi Steam si rischia il VAC BAN, quindi sempre con questa paura manco lo provo :doh:

P.S. Non ho mai usato Reshade :stordita:

sertopica
01-12-2016, 08:00
Lo hai spiegato bene invece...:)

MSAA credo non sia obbligatorio.

Curioso di vedere la resa "in movimento" su monitor.
Ottimo. :D
In movimento rende a tratti bene e a tratti male (c'e' troppo aliasing talvolta, e con un occhio piu' clinico ti accorgi che si sta giocando ad una res upscalata), diciamo che a fronte del guadagno prestazionale quel calo di qualita' lo si puo' giustificare. Il modo migliore e' giocare con questo filtro attivo e regolare la pixel density (altro non e' che un downsampling interno).
Ottimo, grazie per la spiegazione. In pratica, siccome l'engine è un mattone clamoroso, tocca eseguirlo a 960x1080 per fare 80-100 fps con la 1080? :D Disattivandolo si crolla a 65 circa afferma la guida ufficiale Nvidia... Che pena ci trattano ormai da schifo le software house

Sent from my Nexus 7 using Tapatalk
Gia', tutto corretto. :asd:

TigerTank
01-12-2016, 08:41
Tiger scusa la domanda (tanto tanto tanto) ignorante ma potrei usare il reshade "liscio" per applicare il solo SMAA?

Te lo chiedo perchè ad esempio ad usare lo SMAA Injector con i giochi Steam si rischia il VAC BAN, quindi sempre con questa paura manco lo provo :doh:

P.S. Non ho mai usato Reshade :stordita:

Certamente, puoi usare solo i filtri che vuoi.
Inoltre ora consente anche di installare solo i filtri che ti servono, quindi se ti interessa il solo smaa, in fase di installazione fai caricare solo quello, togliendo la spunta a tutti gli altri :)
Per me è una manna dal cielo, considerando appunto la costante: vga nuove = nuovi giochi sempre più mattoni al punto da ammazzare le vga nuove.

rossano92
01-12-2016, 08:59
Ottimo, grazie per la spiegazione. In pratica, siccome l'engine è un mattone clamoroso, tocca eseguirlo a 960x1080 per fare 80-100 fps con la 1080? :D Disattivandolo si crolla a 65 circa afferma la guida ufficiale Nvidia... Che pena ci trattano ormai da schifo le software house

Sent from my Nexus 7 using Tapatalk
Più che altro sanno bene che così facendo ci costringono ogni 2 anni a cambiare scheda, con Nvidia che se la ride dietro le quinte :D
The same old story...

Vul
01-12-2016, 13:02
Ottimo, grazie per la spiegazione. In pratica, siccome l'engine è un mattone clamoroso, tocca eseguirlo a 960x1080 per fare 80-100 fps con la 1080? :D Disattivandolo si crolla a 65 circa afferma la guida ufficiale Nvidia... Che pena ci trattano ormai da schifo le software house

Sent from my Nexus 7 using Tapatalk

E tu non comprare il gioco, semplice.

Legolas84
01-12-2016, 13:06
In teoria se a uno proprio dovesse piacere tanto basta rinunciare a qualche dettaglio e goderselo...

Io adoro deus ex che è un altro esempio di programmazione da cani ma quando lo troverò ultra scontato lo prenderò e lo giocherò alla bene e meglio è amen....

L'importante è non pagarli a prezzo pieno i giochi programmati da cani... Non tutti sono cd Project che si merita i soldi a scatola chiusa!

Inviato dal mio ONE A2003 utilizzando Tapatalk

Nurabsa
01-12-2016, 13:12
salire di risoluzione e texture,

scendere di effetti e filtri quella è la ricetta per godersi un'ottima scheda a lungo

Ren
01-12-2016, 14:35
In teoria se a uno proprio dovesse piacere tanto basta rinunciare a qualche dettaglio e goderselo...

Io adoro deus ex che è un altro esempio di programmazione da cani ma quando lo troverò ultra scontato lo prenderò e lo giocherò alla bene e meglio è amen....

Togli MSAA ed hai risolto metà dei problemi. :fagiano:

Su alcuni engine deferred è meglio evitarlo come la pesta. Se implementato alla cxzzo di cane richiede un mare di banda passante.

mikael84
01-12-2016, 14:57
Togli MSAA ed hai risolto metà dei problemi. :fagiano:

Su alcuni engine deferred è meglio evitarlo come la pesta. Se implementato alla cxzzo di cane richiede un mare di banda passante.

Esatto.
Misurato, passa dai 115-120gb/s ai picchi di 280gb/s.
In più bisogna abbassare o levare il CHS, che si ruba oltre 15 fps in base alle zone.
Basta solo ottimizzarlo un pochino.

Ren
01-12-2016, 15:12
Esatto.
Misurato, passa dai 115-120gb/s ai picchi di 280gb/s.
In più bisogna abbassare o levare il CHS, che si ruba oltre 15 fps in base alle zone.
Basta solo ottimizzarlo un pochino.

Da abbassare anche luci volumetriche.

Attivate Full Screen esclusiva (+10% circa).

Nvidia con le sue guide ci fa un baffo mike... :sofico:

TigerTank
01-12-2016, 16:38
Esatto.
Misurato, passa dai 115-120gb/s ai picchi di 280gb/s.
In più bisogna abbassare o levare il CHS, che si ruba oltre 15 fps in base alle zone.
Basta solo ottimizzarlo un pochino.

Questa è la verità maxima di tutto quanto :D
Inutile ostinarsi a voler giocare maxato se un'implementazione fatta male si succhia via troppe risorse per un plus visivo marginale.

ancora un po' che si abbassa questo, si toglie quello o si leva quell'altro, diventa un altro gioco :D

Se un gioco è bello non ci fai nemmeno caso. Ombre "avanzate" mattonazze in primis :D

mikael84
01-12-2016, 17:03
Da abbassare anche luci volumetriche.

Attivate Full Screen esclusiva (+10% circa).

Nvidia con le sue guide ci fa un baffo mike... :sofico:

Infatti, io inoltre sono fiscale, il primo approccio è il setting personalizzato.:)
Anche in SLI e ampia potenza di margine. Le guide sono davvero utilissime anche per gli smanettoni.:)

ancora un po' che si abbassa questo, si toglie quello o si leva quell'altro, diventa un altro gioco :D

I giochi attuali anche se levi tutto a livello visivo non perdono tanto. I riflessi da extreme ad ultra o le PCSS da ultra a base li puoi sacrificare.
Un tempo si che i giochi li smontavi abbassando dettagli (tutti importanti):p
https://www.youtube.com/watch?v=i5Dp5q8p7_w

Questa è la verità maxima di tutto quanto :D
Inutile ostinarsi a voler giocare maxato se un'implementazione fatta male si succhia via troppe risorse per un plus visivo marginale.



Se un gioco è bello non ci fai nemmeno caso. Ombre "avanzate" mattonazze in primis :D

Quoto, ottimizzando al meglio i parametri, alcuni mattoni vanno via lisci. Alcuni effetti inoltre sono implementati malissimo per via dell'engine.:)

Ren
01-12-2016, 17:04
ancora un po' che si abbassa questo, si toglie quello o si leva quell'altro, diventa un altro gioco :D

Se devi trovare le differenze con il lanternino :D puoi anche evitare di sparare su Ultra.

Poi se provi un piacere irrazionale nel mettere tutto su max, de gustibus...:p

Inutile ostinarsi a voler giocare maxato se un'implementazione fatta male si succhia via troppe risorse per un plus visivo marginale.


Appunto, deve'esserci un bel plus visivo. In deus ex c'è poca roba.

Gli hairwors (witcher3) ad esempio sono una mattonata, ma almeno vedi qualcosa (chiu pilu per tutti :asd: )... :sofico:

Ren
01-12-2016, 17:12
Infatti, io inoltre sono fiscale, il primo approccio è il setting personalizzato.:)
Anche in SLI e ampia potenza di margine. Le guide sono davvero utilissime anche per gli smanettoni.:)

Fa parte del divertimento...:fagiano:



Quoto, ottimizzando al meglio i parametri, alcuni mattoni vanno via lisci. Alcuni effetti inoltre sono implementati malissimo per via dell'engine.:)

Già, spesso il preset ultra è uno specchietto per le allodole...:doh:

killeragosta90
01-12-2016, 21:36
Certamente, puoi usare solo i filtri che vuoi.
Inoltre ora consente anche di installare solo i filtri che ti servono, quindi se ti interessa il solo smaa, in fase di installazione fai caricare solo quello, togliendo la spunta a tutti gli altri :)
Per me è una manna dal cielo, considerando appunto la costante: vga nuove = nuovi giochi sempre più mattoni al punto da ammazzare le vga nuove.

Mi hai appena aperto un mondo, davvero. Diamine non sapevo si potesse usare il solo SMAA! Lo devo provare con Total War Warhammer, è un mattone allucinante, piega tranquillamente la 980 Ti in FullHD (75Hz) con FXAA!! Non c'è impostazione che tenga...

Ma per il SMAA c'è la possibilità di settare la qualità?
So che nell'Injector ci sono quattro livelli, che di predefinito è sul terzo (livello alto) perchè il quarto (extreme se non erro) è quasi inutile rispetto al terzo ed impatta molto di più.

Sucsa se ne approfitto, ma approfitto per chiederti anche se con ReShade c'è qualche rischio di ban con steam? Bisogna fare attenzione o vado tranquillo?

Grazie tiger! :)

TigerTank
01-12-2016, 22:28
Ti rispondo in pvt, altrimenti qui andiamo troppo ot ;)

VanCleef
02-12-2016, 09:56
Nessuno ha ancora aperto la discussione dedicata alle 1050/1050 ti?

appleroof
05-12-2016, 15:37
Nessuno ha ancora aperto la discussione dedicata alle 1050/1050 ti?

se ti interessa potresti farlo tu :)

VanCleef
07-12-2016, 14:10
se ti interessa potresti farlo tu :)
credevo servisse un certo "status" e magari possederla pure :D

appleroof
07-12-2016, 16:31
credevo servisse un certo "status" e magari possederla pure :D

ci mancherebbe :D....se ti riferisci ad essere senior member però forse hai ragione, adesso non ricordo....sul possederla non c'entra nulla, basta avere la passione per l'argomento specifico io stesso ho aperto TU su schede che non avevo :)

frafelix
09-12-2016, 21:48
Ciao a tutti, ho un problema e non so se dipende dall'ali, dalla scheda madre o dalla scheda video... Il pc si spegne improvvisamente anche diverse volte in un'ora, in idle o full load è indifferente.
Ho fatto sostituire l'ali che era in garanzia e la situazione è addirittura peggiorata.
Da evga precision ho sempre dovuto utilizzare il k-boost per l'overvolt (solo nei giochi) altrimenti dopo poco che la scheda era sotto sforzo saltavano i driver video e mi si resettava il voltaggio, ora ho notato che sia evga precision che gpuz col k-boost attivo non rilevano il sensore gpu load, mentre se disattivo il k-boost il sensore viene visto regolarmente; inoltre la scheda video non regge più l'oc che reggeva qualche tempo fa, cioè 1200mhz con 1.2v e 1700mhz per le memorie, ora ho dovuto abbassare a 1150mhz e 1600mhz per le memorie.

Secondo voi i vari spegnimenti possono dipendere dalla scheda video?
Nel caso qualcuno sa quando sono previste le uscite delle prossime schede video?

fraussantin
09-12-2016, 22:00
Il 3d non è quello giusto, ma intanto inizierei a togliere oc a tutto.

A me è capitata una cosa simile, ed era l' alimentatore.

Ma se te lo hanno sostituito ( sicuro che non ti abbiano ridato il solito perchè a me ci han provato 2 volte, e poi me lo sono ricomprato).

Driver reinstallalo con ddu.

Cmq per mia esperienza a pelle le cause dello spegnimento del pc sono o i termometri sulla mobo ( magari guasti) , spesso disattivabili, o l'ali.

Se fosse un guasto alla Cpu o alle vrm dovrebbe dare bsod.

Se fosse alla. Vrm, o ram della Gpu avresti artefatti o se non ricordo male. Si spegne quella ( almeno su un vecchio note mi capitava quello pc acceso, ma. Schermo spento).

frafelix
10-12-2016, 08:25
Già provato a togliere l'oc e non serve... se il pc non si spegne (e lo fa anche in idle) i vari stress test li passa senza dare segni di cedimento.
Il pc l'ho formattato appena ripreso l'ali in modo da aver driver aggiornati e sistema pulito per togliere ogni problema software.
I sensori della scheda madre mi sembrano corretti, ora in idle mi da vrm 45°, pch 36°, motherboard 29°, cpu 41° ed il mio case è insonorizzato quindi temp leggermente più alte sono nella norma con le ventole al minimo.
Anch'io pensavo all'ali, ma mi dava da pensare il sensore del gpu load che con k-boost attivo non funziona ed il fatto che ora la scheda video non regge più l'oc che reggeva prima.
Per questo chiedevo se poteva essere questa il problema e nel caso quando escono le schede video nuove

Nurabsa
10-12-2016, 08:34
si ma devi chiederlo nel thread di maxwell o quello che è la tua titan

qui solo news sulle neonate :)

frafelix
10-12-2016, 08:42
Per questo chiedevo se poteva essere questa il problema e nel caso quando escono le schede video nuove

fraussantin
10-12-2016, 08:51
Già provato a togliere l'oc e non serve... se il pc non si spegne (e lo fa anche in idle) i vari stress test li passa senza dare segni di cedimento.
Il pc l'ho formattato appena ripreso l'ali in modo da aver driver aggiornati e sistema pulito per togliere ogni problema software.
I sensori della scheda madre mi sembrano corretti, ora in idle mi da vrm 45°, pch 36°, motherboard 29°, cpu 41° ed il mio case è insonorizzato quindi temp leggermente più alte sono nella norma con le ventole al minimo.
Anch'io pensavo all'ali, ma mi dava da pensare il sensore del gpu load che con k-boost attivo non funziona ed il fatto che ora la scheda video non regge più l'oc che reggeva prima.
Per questo chiedevo se poteva essere questa il problema e nel caso quando escono le schede video nuove
Il fatto che l' oc non regga può dipendere anche dall' ali.

Ripropongo la Domanda : è un altro o è il solito ' revisionato'?

Altrimenti devi provare a toglierla e fare i test con quella integrata alla. Cpu.

frafelix
10-12-2016, 08:53
Bella domando, non lo so, so solo che è arrivato direttamente da hong kong.
La mia piattaforma non ha la scheda video integrata...

fraussantin
10-12-2016, 10:07
Gusto (da tapa non vedo le firme) .

Dovresti provare a chiedere nel 3d della vga.

Ma ad istinto direi di provare a cambiare una VGA o un ali di un amico.

Ubro92
10-12-2016, 11:13
L'ideale sarebbe testare la scheda in un altro pc, se tutto funge senza problemi, escludendo eventuali problemi SW, i problemi si riducono alla mobo dato che l'ali è stato già sostituito.

muppo
10-12-2016, 12:38
se da errori di driver video e devi downcloccarla o è uno (sk video) o l'altro (ali), almeno secondo logica a meno che i problemi sulkla scheda video non siano un riflesso che viene dalla scheda madre. Io propendo più per la scheda video, ma per spegnere il pc mi sembra una cosa un pò strana, magari voltaggi sballati sul pci express?

frafelix
10-12-2016, 13:27
Boh, adesso sto facendo anche tutti i test di oc per processore e ram... Comunque si sa niente sull'uscita delle nuove schede video post 1080?

Ren
10-12-2016, 13:48
Parecchi indizi indicano che nvidia si butterà sui 10nm LPP di samsung con prodotti in uscita per il 2018...

Samsung cerca clienti per le sue fonderie ed è l'unica con un silicio 10nm adatto ad una GPU.

fraussantin
10-12-2016, 13:49
Parecchi indizi indicano che nvidia si butterà sui 10nm LPP di samsung con prodotti in uscita per il 2018...

Samsung cerca clienti per le sue fonderie ed è l'unica con un silicio 10nm adatto ad una GPU.
Quindi arriverà un refresh di pascal?

Ren
10-12-2016, 13:52
Quindi arriverà un refresh di pascal?

Intendi sul 16/14nm ?

frafelix
10-12-2016, 15:38
Scusate ma schede consumer con memoria hbm derivanti dal gp100 non sono previste?

ste-87
10-12-2016, 18:07
Scusate ma schede consumer con memoria hbm derivanti dal gp100 non sono previste?

no e non se ne sente neanche l'esigenza impellente, di banda passante ce nè "a pacchi" già con le gddr5x e un bus idoneo (320-384bit) e i consumi per nvidia non sono un problema (anche perchè stiamo parlando di 20Watt se va bene tra hbm e gddr sai che risparmio)

frafelix
10-12-2016, 18:33
Beh oddio di potenza non ce né mai abbastanza... In realtà pensavo a non comprare una 1080 se fra qualche mese esce una nuova serie basata sullo stesso progetto

fraussantin
10-12-2016, 18:40
Intendi sul 16/14nm ?
Si magari con un po di clock in più..

Insomma che allunghino volts al 2018 e stiano un anno fermi?

Han fatto uscire a corsa le titan e tutto il resto, non sono andati lenti come con maxwell


Edit: magari HBM

Telstar
10-12-2016, 18:51
In realtà pensavo a non comprare una 1080 se fra qualche mese esce una nuova serie basata sullo stesso progetto

Io proprio quello sto aspettando per comprare la 1080 ad un prezzo più basso :)

ste-87
12-12-2016, 23:41
Beh oddio di potenza non ce né mai abbastanza... In realtà pensavo a non comprare una 1080 se fra qualche mese esce una nuova serie basata sullo stesso progetto

Come ha analizzato più volte Mikael, Pascal può essere affinato parecchio volendo, proponendo un refresh su stessa architettura e sotto l'affinamento l'uso nello specifico di hbm può essere tranquillamente trascurato/ignorato visto che si potrebbero usare gddr5x a 12-14Gbps addirittura si parlava anche di Samsung gddr6 da 14-16Gbps per il futuro prossimo

A titolo di confronto, oggi siamo con delle gddr5x con 10Gbps che su un bus da 384bit, come su Titan X pascal, garantiscono comunque 480Gb/s di banda (in oc anche 530-535Gb/s a seconda di quanto salgono le memorie)

MrBrillio
18-12-2016, 19:08
http://videocardz.com/64776/nvidia-geforce-gtx-980-ti-users-to-get-first-spot-in-line-for-1080-ti-pre-orders

O.o Si batte la fiacca?!!! Aluraaaaaa :asd:

Legolas84
18-12-2016, 19:33
Oh finalmente io sinceramente spero che Vega vada quanto questa scheda così da fare una bella guerra di prezzo ;)


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ale55andr0
18-12-2016, 19:44
Insomma che allunghino vega al 2018 e stiano un anno fermi?



Aho, ma che stai a delirà?! :eek: :mad: :muro: :cry:

Crysis90
18-12-2016, 20:53
Intanto:

http://wccftech.com/nvidia-pascal-gpu-frequency-world-record-3-ghz/

"GALAX GTX 1060 HOF GOC Achieves 3010 MHz GPU Clock."

:eek: :eek: :eek: :eek: :eek: :eek: :eek:

fraussantin
18-12-2016, 21:04
Aho, ma che stai a delirà?! :eek: :mad: :muro: :cry:
Volevo scrivere volta, scusate.

Legolas84
18-12-2016, 23:12
Ormai stai delirando, seguire l'altro thread ti fa male :asd: io ho tolto sottoscrizione, davvero sembra una setta... guai se esci dal coro di lode e gloria al loro marchio :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
18-12-2016, 23:26
http://videocardz.com/64776/nvidia-geforce-gtx-980-ti-users-to-get-first-spot-in-line-for-1080-ti-pre-orders

O.o Si batte la fiacca?!!! Aluraaaaaa :asd:

Sono solo rumors, ancora rimane da verificare i 10gb della 1080ti, che vorrebbe dire bus da 320bit e 3200cc.
Un contentino misero, per una scheda che letteralmente si vale meno di una 570, ma non dovrebbe avere concorrenza, se non una dual AMD.

Legolas84
18-12-2016, 23:46
Dici che nemmeno VEGA potrà competere con la 1080ti????


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
18-12-2016, 23:57
Dici che nemmeno VEGA potrà competere con la 1080ti????


Inviato dal mio iPhone utilizzando Tapatalk Pro

Vega sarà un chip di fascia media (1070-1080), non ci sarà alcun chip di fascia enthusiast per AMD, se non una dual GPU.

Legolas84
19-12-2016, 00:03
Questa volta spero che ti sbagli, il mercato ha bisogno di concorrenza su tutte le fasce...


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
19-12-2016, 00:37
Questa volta spero che ti sbagli, il mercato ha bisogno di concorrenza su tutte le fasce...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Non centra nulla. Vega parte per essere un chip medio pari a gp104, poi può pure batterlo su deus ex o hitman e prenderle pesantemente sui vari watch dogs, ma il chip è quello.
Non ci sarà alcun chip enthusiast (6144st) AMD, ma probabilmente un dual GPU.;)

Intanto:

http://wccftech.com/nvidia-pascal-gpu-frequency-world-record-3-ghz/

"GALAX GTX 1060 HOF GOC Achieves 3010 MHz GPU Clock."

:eek: :eek: :eek: :eek: :eek: :eek: :eek:



Certo che vedere 3ghz su una GPU è pazzesco. Già anni fa era un lusso sulle CPU.

Vul
19-12-2016, 02:01
Questa volta spero che ti sbagli, il mercato ha bisogno di concorrenza su tutte le fasce...


Inviato dal mio iPhone utilizzando Tapatalk Pro

AMD non vende in quella fascia, è inutile per loro produrre una scheda oltre i 500 euro, non le vendono.

MrBrillio
19-12-2016, 06:09
La cosa strana della news che ho postato non è tanto il fatto della 1080ti, quanto quello di nvidia che gestisce una sorta di step up per chi ha acquistato una 980ti. Cioè.. Prima la vendita esclusiva della Titan X, ora questo... Cioè che caspita hanno in mente questi? E anche la sottoscrizione ad un servizio di 10$ al mese.. Mah.

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

OvErClOck82
19-12-2016, 06:59
Ormai stai delirando, seguire l'altro thread ti fa male :asd: io ho tolto sottoscrizione, davvero sembra una setta... guai se esci dal coro di lode e gloria al loro marchio :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro



Essí guai a dire che nonostante le minchiate epocali di questi anni sembra che la strada sia finalmente quella giusta, meglio ribattere sul market share o sui 4gb della fury x :asd:


Inviato dal mio iPhone utilizzando Tapatalk

fraussantin
19-12-2016, 07:34
Ormai stai delirando, seguire l'altro thread ti fa male :asd: io ho tolto sottoscrizione, davvero sembra una setta... guai se esci dal coro di lode e gloria al loro marchio :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro
:asd:

fireradeon
19-12-2016, 07:38
La cosa strana della news che ho postato non è tanto il fatto della 1080ti, quanto quello di nvidia che gestisce una sorta di step up per chi ha acquistato una 980ti. Cioè.. Prima la vendita esclusiva della Titan X, ora questo... Cioè che caspita hanno in mente questi? E anche la sottoscrizione ad un servizio di 10$ al mese.. Mah.

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Cioè? Questa cosa mi è sfuggita! :confused:

fraussantin
19-12-2016, 07:53
La cosa strana della news che ho postato non è tanto il fatto della 1080ti, quanto quello di nvidia che gestisce una sorta di step up per chi ha acquistato una 980ti. Cioè.. Prima la vendita esclusiva della Titan X, ora questo... Cioè che caspita hanno in mente questi? E anche la sottoscrizione ad un servizio di 10$ al mese.. Mah.

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
Hanno in mente i $$$$.

Cercano di sfruttare la situazione e la mancanza di alternative.

Pelvix
19-12-2016, 08:49
AMD non vende in quella fascia, è inutile per loro produrre una scheda oltre i 500 euro, non le vendono.

Le schede top AMD non le vende semplicemente perchè sono meno top della cncorrenza (Fury docet).

Quando AMD (Ati al tempo) faceva vere top competitive le vendeva come il pane anche se nettamente più costose: ti ricordi le 9700-9800 pro?

Nvidia con la sua serie 5 rimase al palo fino alla generazione successiva.

Se il prodotto è buono lo vendi, se no no, questa è l'unica (ed ovvia) legge del mercato, tutto il resto sono favolette.

Legolas84
19-12-2016, 08:57
Per questo spero che questa volta il loro prodotto sia buono altrimenti rischiamo di trovarci un'intera fascia scoperta... e per chi punta alle schede top i prezzi saranno per l'ennesima volta fuori di testa...

Una dual sarebbe un suicidio, contando che storicamente una scheda dual non è mai stata una buona soluzione per contrastare una scheda singola di pari prestazioni.

Senza contare tutti i problemi che si tira dietro il crossfire....


Inviato dal mio iPhone utilizzando Tapatalk Pro

fraussantin
19-12-2016, 08:58
Piu che altro il dual non lo supporta più nessuno gioco o quasi

MrBrillio
19-12-2016, 08:58
Cioè? Questa cosa mi è sfuggita! :confused:


Most Recent Geforce Rewards Product/Program Description
I think of GFE Rewards as more than giveaways — it’s a Club with exclusive benefits for GFE users.
Through the Club we can help improve our customer’s gaming experience and build a GeForce/GFE community.

Annual Benefits To All GFE Users

“Club GeForce” should provide 3 classes of rewards to GFE users:

Free full copy of exclusive Indie game (1x/year)
Free custom skin or in-game item for AAA game (1x/qtr)
Early beta access for Talos and NVIDIA 1st party content
Exclusive hardware discounts for gaming gear

Weekly Giveaways And Prizes

Free AAA game codes and In-game currency
Early beta access to AAA games
Accessories to help gamers enjoy gaming better (HMDs, SHIELDs, Keyboards, etc)
Golden tickets to gaming events (Blizzcon, PAX, etc)

Targeted Spot Prizes To Drive Sentiment, Reward Behavior, And Grow Advocates

Free game codes for users who report a confirmed bug or contribute useful feature enhancement requests
Free game codes to our most active Share and GeForce Forum users
Free game codes to users who rank most negative and most positive on our sentiment tools
980 Ti users get first spot in line for 1080 Ti pre-orders, or “Step Up” offer

Club GeForce Also Provides Benefits Outside Of GFE

Early Registration and Invitations to Club GeForce Meetups, GeForce LAN and Community Events
GeForce Forum badges and rankings based on years in the Club

As The Program Develops, We Introduce ‘Club GeForce Elite’ — Which Has a $10/mth Fee And Gives Gamers

Rotating bundle of free games from our GFE app store (4x games per quarter)
Free GeForce PC in the cloud subscription
Exclusive skins, in-game items, and GeForce Gear


Ecco...tutta sta roba qui...poi veramente la storia di chi ha una 980ti può avere prima la 1080ti (immagino si riferisca a chi acquista direttamente da loro)...mah! Son curioso di sentire come evolve la cosa, perchè se inizia a diventare così tanto commerciale la cosa, e quindi per prendere le VGA devi aspettare mesi per le proposte dei partners per me possono anche andarsene dove dico io :D

Pelvix
19-12-2016, 09:23
Per questo spero che questa volta il loro prodotto sia buono altrimenti rischiamo di trovarci un'intera fascia scoperta... e per chi punta alle schede top i prezzi saranno per l'ennesima volta fuori di testa...

Una dual sarebbe un suicidio, contando che storicamente una scheda dual non è mai stata una buona soluzione per contrastare una scheda singola di pari prestazioni.

Senza contare tutti i problemi che si tira dietro il crossfire....


Inviato dal mio iPhone utilizzando Tapatalk Pro

No, anche questa volta nessuna top AMD, temo sia proprio un settore di mercato che non interessa più ad AMD, che non si rende conto che così facendo, oltre a lasciare scoperta la fascia di mercato dove hai i margini maggiori, conferma la nomea che ormai si è meritatamente guadagnata di "seconda scelta a prescindere" :muro:

Pelvix
19-12-2016, 09:25
Ecco...tutta sta roba qui...poi veramente la storia di chi ha una 980ti può avere prima la 1080ti (immagino si riferisca a chi acquista direttamente da loro)...mah! Son curioso di sentire come evolve la cosa, perchè se inizia a diventare così tanto commerciale la cosa, e quindi per prendere le VGA devi aspettare mesi per le proposte dei partners per me possono anche andarsene dove dico io :D

Basterebbe non acquistarle, certo è che finchè ci saranno dei fenomeni che si accapigliano per essere i primi ad esser presi per il naso (ad esser gentile) le aziende faranno questo ed altro.:muro:

MrBrillio
19-12-2016, 09:28
Basterebbe non acquistarle, certo è che finchè ci saranno dei fenomeni che si accapigliano per essere i primi ad esser presi per il naso (ad esser gentile) le aziende faranno questo ed altro.:muro:

Risparmierei volentieri i soldi se ci fosse qualcuno che tirasse fuori schede video alla pari...ma purtroppo da 2 anni a questa parte o Nvidia o nada...e su risoluzioni alte purtroppo manco lo SLi ci salva più :(

sertopica
19-12-2016, 09:38
Ecco...tutta sta roba qui...poi veramente la storia di chi ha una 980ti può avere prima la 1080ti (immagino si riferisca a chi acquista direttamente da loro)...mah! Son curioso di sentire come evolve la cosa, perchè se inizia a diventare così tanto commerciale la cosa, e quindi per prendere le VGA devi aspettare mesi per le proposte dei partners per me possono anche andarsene dove dico io :D

Stanno sfumando sempre piu' i confini fra hardware e software in un'ottica strettamente relativa al marketing, cosa piuttosto insulsa a mio avviso... Tanta roba inutile che dovrebbe farti sentire un privilegiato perche' hai nel case una scheda video di fascia alta, manco fossimo al golf club. :asd:

Che si concentrino sulla qualita' effettiva dei loro prodotti, temo sempre piu' che spareranno prezzi assurdi per sta scheda.

MrBrillio
19-12-2016, 09:42
Stanno sfumando sempre piu' i confini fra hardware e software in un'ottica strettamente relativa al marketing, cosa piuttosto insulsa a mio avviso... Tanta roba inutile che dovrebbe farti sentire un privilegiato perche' hai nel case una scheda video di fascia alta, manco fossimo al golf club. :asd:

Che si concentrino sulla qualita' effettiva dei loro prodotti, temo sempre piu' che spareranno prezzi assurdi per sta scheda.

Ultimamente mi sono riavvicinato al mondo console con la ps4 pro...se va avanti così lascio il PC ai soli FPS online e poco più..alla fine su console sto riscoprendo un po' il piacere di giocare a un titolo senza sbattere troppo la testa su settaggi grafici per trovare il giusto compromesso tra prestazioni e qualità...lì almeno come lo hanno fatto te lo becchi e stop :asd:

Legolas84
19-12-2016, 10:07
Ultimamente mi sono riavvicinato al mondo console con la ps4 pro...se va avanti così lascio il PC ai soli FPS online e poco più..alla fine su console sto riscoprendo un po' il piacere di giocare a un titolo senza sbattere troppo la testa su settaggi grafici per trovare il giusto compromesso tra prestazioni e qualità...lì almeno come lo hanno fatto te lo becchi e stop :asd:

Per me questo non è mai stato un problema ma se mai una parte del piacere... :D

Su console ci gioco e ci ho giocato tanto, ma il PC soprattutto per alcune esclusive per me è imprescindibile.

Personalmente lo SLI per i giochi che sto giocando attualmente mi sta soddisfacendo, quindi per ora vado avanti così.... con Volta valuterò il da farsi, e nel caso prenderò la presunta 2080Ti al posto dello SLI di 2080... Molto dipende dal comportamento con i prossimi giochi che giocherò... ;)

sertopica
19-12-2016, 10:35
Ultimamente mi sono riavvicinato al mondo console con la ps4 pro...se va avanti così lascio il PC ai soli FPS online e poco più..alla fine su console sto riscoprendo un po' il piacere di giocare a un titolo senza sbattere troppo la testa su settaggi grafici per trovare il giusto compromesso tra prestazioni e qualità...lì almeno come lo hanno fatto te lo becchi e stop :asd:

Ma fai bene, io resto al PC perche' la spesa per un buon televisore ed una console non voglio al momento affrontarla ma chissa', forse in futuro... Tanto ormai questa e' l'andazzo, se un gioco mi va male abbasso i settings e pace.

Nurabsa
19-12-2016, 10:43
da un po di mesi son tornato al mio primo amore l audio,

quello si che da soddisfazioni condensatori resistenze ceramiche induttanze tutto vero in carne ed ossa, ho rifatto i filtri.
Andrà a finire che le vga saranno delle console pcie da mettere sullo slot niente piu oc niente piu ov ninete piu paramentri da configurare che tristezza

Gello
19-12-2016, 11:57
Io sono tornato al Grillo parlante clementoni, quante ne sa, non potete capire!

appleroof
19-12-2016, 12:00
Chissà come si concretizzerà il discorso step up, mi sa che rimarrà più conveniente eventualmente il classico vendere usato..... Seguo interessato :D

MrBrillio
19-12-2016, 12:04
Io sono tornato al Grillo parlante clementoni, quante ne sa, non potete capire!
Ahahahha no per giocare sono meglio i gig Tiger!!

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Legolas84
19-12-2016, 12:28
Fantastici i gig tiger.... ci mettiamo sotto una 1080 :asd:


Inviato dal mio iPhone utilizzando Tapatalk Pro

Gello
19-12-2016, 12:37
Questi step up program, abbonamenti "hardware" e quant'altro sono la nuova frontiera del marketing che cerca di legare quanto piu' possibile hardware e software, creando ecosistemi, cercando una base stabile di introiti e di clienti fidelizzati.

Anche Apple e altri fanno cose analoghe in US se non erro.

Alla lunga l'hardware e' la cosa meno remunerativa, ricerca e sviluppo costano tanto e c'e' sempre il rischio che qualcuno dietro l'angolo riesca a produrre con minor costi (non in questo specifico caso sia chiaro).

Ai big della stampa e' succeso gia' un 10/15 anni fa, fare lo switch fra hardware e servizi.

Qua certo sara' piu' complicato per nvidia avere un competitor che fa schede alla meta' del prezzo, quindi sara' piu' un "contorno" almeno i primi anni.

Anche da queste cose si vede quanto Nvidia cavalchi presente e futuro, sanno bene che rimanere ancorati all'hardware per quanto diversificato nelle applicazioni, e' un grosso rischio.

Ale55andr0
19-12-2016, 12:45
No, anche questa volta nessuna top AMD

Non è che una vga con 8-16gb di hbm2 la fanno per coprire la fascia dei 100 euro :stordita: A meno che per top intendi la fascia dei 700+....a oggi a parte la fascia della titan ha sempre ribattuto e solo vega è in ritardo mostruoso (sulla concorrenza non sulla roadmap). Posto che con la 290 ha portato performance di fascia titan (dell'epoca ) a 400 cartoni...
Che debbano svegliarsi è pacifico, ma non credo affatto che abbiano abbandonato il settore top

XEV
19-12-2016, 12:48
https://www.tomshw.it/gtx-1080-ti-chi-ha-una-gtx-980-ti-potra-acquistarla-prima-82166


:asd: utente ELITE :asd:


preferisco farmi l'abbonamento a famiglia cristiana .

ste-87
19-12-2016, 12:58
Ultimamente mi sono riavvicinato al mondo console con la ps4 pro...se va avanti così lascio il PC ai soli FPS online e poco più..alla fine su console sto riscoprendo un po' il piacere di giocare a un titolo senza sbattere troppo la testa su settaggi grafici per trovare il giusto compromesso tra prestazioni e qualità...lì almeno come lo hanno fatto te lo becchi e stop :asd:

sbattere la testa sui settaggi? :mbe: da 30 secondi a 5 minuti a seconda del titolo e/o magari giocando un pò fai l'ultimo aggiustamento, io addirittura guardo volentieri anche le guide nvidia dei vari titoli tripla A dove mostrano l'impatto allo scalare di ogni singolo setting e la differenza di impatto visivo con il confronto degli screen, posso capire se ti ritrovi nella fascia low/mid dove ogni minima limatura sui setting è oro colato per ogni fps guadagnato...

Non è che una vga con 8-16gb di hbm2 la fanno per coprire la fascia dei 100 euro :stordita: A meno che per top intendi la fascia dei 700+....a oggi a parte la fascia della titan ha sempre ribattuto e solo vega è in ritardo mostruoso (sulla concorrenza non sulla roadmap). Posto che con la 290 ha portato performance di fascia titan (dell'epoca ) a 400 cartoni...
Che debbano svegliarsi è pacifico, ma non credo affatto che abbiano abbandonato il settore top

credo si intenda fascia top più per prestazioni oltre che per prezzo (che diventa una conseguenza) considerando la x80ti prevalentemente e solo secondariamente la titan X (visti i diversi prezzi) che non hanno una controparte nel mondo AMD...sul lato prestazionale è un pò come paragonare due marchi di auto dove la prima fa macchine che al massimo montano 4 marce e l'altra 5 permettendo di allungare sul fronte prestazioni

Ale55andr0
19-12-2016, 13:33
credo si intenda fascia top più per prestazioni oltre che per prezzo

E per quello ha fatto la fury x che andava meno in 1080 ma era simile dal 1440 in su. A meno che tu intenda per top battere comunque la rivale anche di un 1%. Per quello allora vi do ragione: una top amd che si posizioni mediamente avanti alla top rivale nella maggior parte dei giochi non credo la vedremo facilmente. Per farlo vega dovrebbe star avanti alla titan/1080ti e la vedo durissima se si considera il potenziale assoluto in oc delle verdi, nonostante i chipponi, che le distanziano ulteriormente.

MrBrillio
19-12-2016, 13:46
sbattere la testa sui settaggi? :mbe: da 30 secondi a 5 minuti a seconda del titolo e/o magari giocando un pò fai l'ultimo aggiustamento, io addirittura guardo volentieri anche le guide nvidia dei vari titoli tripla A dove mostrano l'impatto allo scalare di ogni singolo setting e la differenza di impatto visivo con il confronto degli screen, posso capire se ti ritrovi nella fascia low/mid dove ogni minima limatura sui setting è oro colato per ogni fps guadagnato...


No spe mi sono espresso male forse...intendevo dire che l'avere sotto mano mille settaggi mi porta sempre a cercare di maxarli tutti, e conseguentemente spendere un botto per avere grossomodo l'effetto che ho giocando con una console. Cioè su PC ormai sto lì a guardarmi di più l'aspetto tecnico che a godermi i giochi...infatti ho la libreria piena di giochi (ottimi) che uso alla stregua di un benchmark. Non dico che tutti quelli che giocano su pc sono come me eh, però su console metto e mi godo il gioco senza pensare a se tengo i 60 fps, e all' illuminazione che è bella ma mi ammazza i frame, alle texture in ultra....bla bla...
Poi anche io son conscio del fatto che bastano 5 minuti per regolarsi ad hoc un titolo, però ultimamente ho perso il mordente che sta alla base del motivo per cui mi siedo davanti al PC: divertirsi giocando, o rosikando a seconda dei giochi :asd: Ma sto andando OT sorry :(

appleroof
19-12-2016, 15:43
No spe mi sono espresso male forse...intendevo dire che l'avere sotto mano mille settaggi mi porta sempre a cercare di maxarli tutti, e conseguentemente spendere un botto per avere grossomodo l'effetto che ho giocando con una console. Cioè su PC ormai sto lì a guardarmi di più l'aspetto tecnico che a godermi i giochi...infatti ho la libreria piena di giochi (ottimi) che uso alla stregua di un benchmark. Non dico che tutti quelli che giocano su pc sono come me eh, però su console metto e mi godo il gioco senza pensare a se tengo i 60 fps, e all' illuminazione che è bella ma mi ammazza i frame, alle texture in ultra....bla bla...
Poi anche io son conscio del fatto che bastano 5 minuti per regolarsi ad hoc un titolo, però ultimamente ho perso il mordente che sta alla base del motivo per cui mi siedo davanti al PC: divertirsi giocando, o rosikando a seconda dei giochi :asd: Ma sto andando OT sorry :(

meno male che hai un monitor g-sync :sofico: :asd:

Legolas84
19-12-2016, 15:50
No spe mi sono espresso male forse...intendevo dire che l'avere sotto mano mille settaggi mi porta sempre a cercare di maxarli tutti, e conseguentemente spendere un botto per avere grossomodo l'effetto che ho giocando con una console. Cioè su PC ormai sto lì a guardarmi di più l'aspetto tecnico che a godermi i giochi...infatti ho la libreria piena di giochi (ottimi) che uso alla stregua di un benchmark. Non dico che tutti quelli che giocano su pc sono come me eh, però su console metto e mi godo il gioco senza pensare a se tengo i 60 fps, e all' illuminazione che è bella ma mi ammazza i frame, alle texture in ultra....bla bla...

Poi anche io son conscio del fatto che bastano 5 minuti per regolarsi ad hoc un titolo, però ultimamente ho perso il mordente che sta alla base del motivo per cui mi siedo davanti al PC: divertirsi giocando, o rosikando a seconda dei giochi :asd: Ma sto andando OT sorry :(



Ritengo sia una situazione tua personale... forse hai più bisogno di cambiare piattaforma per sentire una ventata di aria fresca più che per reale necessità...

Io ad esempio abituato ad essere un pc gamer da sempre non riuscirei mai a giocare ad esempio ad in the witcher 3 su console a un frame rate ridicolo e con un dettaglio per il mio occhio nettamente insufficiente....

Poi ovvio se facciamo un discorso di costi anche io vorrei tornare ai bei tempi in cui il massimo costava 650 euro massimo.... ma per tornare a quel periodo bisogna assolutamente che VEGA sia una scheda vincente in stile 9700pro... altrimenti NVIDIA continuerà a giocare come il gatto con il topo e il mercato continuerà a delirare...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
19-12-2016, 15:52
Scusate per il post precedente, è scritto in italiano pessimo. Purtroppo l'ho composto a più riprese e Tapatalk non mi lascia editare per sistemarlo :(


Inviato dal mio iPhone utilizzando Tapatalk Pro

appleroof
19-12-2016, 15:56
Ritengo sia una situazione tua personale... forse hai più bisogno di cambiare piattaforma per sentire una ventata di aria fresca più che per reale necessità...

Io ad esempio abituato ad essere un pc gamer da sempre non riuscirei mai a giocare ad esempio ad in the witcher 3 su console a un frame rate ridicolo e con un dettaglio per il mio occhio nettamente insufficiente....

Poi ovvio se facciamo un discorso di costi anche io vorrei tornare ai bei tempi in cui il massimo costava 650 euro massimo.... ma per tornare a quel periodo bisogna assolutamente che VEGA sia una scheda vincente in stile 9700pro... altrimenti NVIDIA continuerà a giocare come il gatto con il topo e il mercato continuerà a delirare...


Inviato dal mio iPhone utilizzando Tapatalk Pro

vedi Intel...se davvero l'8 core Amd nuovo se la vede con quello Intel da 1000 euro, e se è vero che quello Amd costerà molto meno, mi aspetto finalmente una svolta in quel campo che stagna anche da più anni che quello vga dove tutto sommato la competizione è stata relativamente più serrata

non che mi riguardi, ho intenzione di tenere il 5820k* ancora a lungo :D però in generale

*leggo sul TU che WD2 spreme i quad core Intel anche al 100% (per via dell'anticheat credo, più che per il codice strettamente di gioco), il mio è sfruttato al 50% su tutti i core compresi quelli virtuali, per dire

Ren
19-12-2016, 16:29
bisogna assolutamente che VEGA sia una scheda vincente in stile 9700pro... altrimenti NVIDIA continuerà a giocare come il gatto con il topo e il mercato continuerà a delirare...

Adesso pretendi troppo... :sofico:

In quel periodo nvidia fece una cammellata tripla carpiata con la 5800. :p

Un mix esplosivo irripetibile.:sofico:

Ale55andr0
19-12-2016, 16:38
Poi ovvio se facciamo un discorso di costi anche io vorrei tornare ai bei tempi in cui il massimo costava 650 euro massimo.... ma per tornare a quel periodo bisogna assolutamente che VEGA sia una scheda vincente in stile 9700pro... altrimenti NVIDIA continuerà a giocare come il gatto con il topo e il mercato continuerà a delirare...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ma che 9700 e 9700...le vere schede da rimpiangere sono lo 4870 che andavano abbestia e costavano niente :cry:

Legolas84
19-12-2016, 17:00
Adesso pretendi troppo... :sofico:



In quel periodo nvidia fece una cammellata tripla carpiata con la 5800. :p



Un mix esplosivo irripetibile.:sofico:



Ok, vero.

Ma almeno ATi ha avuto la carta vincente da giocare, R300 a parte i driver era un grande chip... ora è quello che servirebbe almeno i fanboy AMD magari la comprerebbero oltre a stare sui forum a dire che va tutto alla grande ;)


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ren
19-12-2016, 18:18
Ok, vero.

Ma almeno ATi ha avuto la carta vincente da giocare, R300 a parte i driver era un grande chip... ora è quello che servirebbe almeno i fanboy AMD magari la comprerebbero oltre a stare sui forum a dire che va tutto alla grande ;)


Inviato dal mio iPhone utilizzando Tapatalk Pro

Bei tempi quelli di R300.

Dave Orton con la sua società (artX) portò Ati su un altro livello.

Di quello storico team rimane ben poco. Anche Demers "l'ideatore di GCN" ha preso il volo (verso qualcomm).

ps. Tutti ex SGI(anche JHH:D )...

Vul
19-12-2016, 18:28
Le schede top AMD non le vende semplicemente perchè sono meno top della cncorrenza (Fury docet).

Quando AMD (Ati al tempo) faceva vere top competitive le vendeva come il pane anche se nettamente più costose: ti ricordi le 9700-9800 pro?

Nvidia con la sua serie 5 rimase al palo fino alla generazione successiva.

Se il prodotto è buono lo vendi, se no no, questa è l'unica (ed ovvia) legge del mercato, tutto il resto sono favolette.

Anche nell'era più buia di Nvidia (280-480) Nvidia generava 10 volte gli utili che generava AMD e aveva un market share estremamente più grande.

E questo nonostante le schede amd fossero molto migliori sia perprezzo che per prestazioni. Non ci scordiamo quanto ha venduto la 260 rispetto alla 5850.

Per AMD non ha senso proporre schede in certe fasce, sono totalmente ignorate.

P.s.La 9700 costava 299 dollari al lancio, in un era in cui l'hardware era molto più costoso di oggi, nonostante l'inflazione.

Legolas84
19-12-2016, 18:42
La 9700 pro costava un botto pagata 600 euro la Hercules ai tempi...

Comunque Ren, anche i fondatori di 3dfx Gary tarolli, scott sellers, Gordon Campbell e Ross smith erano ex SGI....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ren
19-12-2016, 18:49
La 9700 pro costava un botto pagata 600 euro la Hercules ai tempi...

Comunque Ren, anche i fondatori di 3dfx Gary tarolli, scott sellers, Gordon Campbell e Ross smith erano ex SGI....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Lo so.;)

Il CTO (tarolli) di 3dfx è passato in nvidia dopo l'acquisizione...;)

Scusate OT.

mikael84
19-12-2016, 23:20
Ma che 9700 e 9700...le vere schede da rimpiangere sono lo 4870 che andavano abbestia e costavano niente :cry:

Costavano niente perchè progettate su un 260mm2, chip pari pari a quello della 250 che rebrandava la 9800gtx+.
AMD con la 4850 pareggiava la 250, la svolta è stata quella di tirarla al limite e di inserire il doppio commando WCK, che raddoppiava l'ampiezza di banda (ddr5).
Comandi (900)-indirizzi(900)-dati (WCK).
Tralasciando questi dettagli, fu una genialata, bisogna riconoscerlo, una delle migliori schede AMD.
La 260 base era uno scarto di un chip gigante da 576mm2 a 65nm e chiaramente i costi erano realmente molto alti.

Cmq chiudiamo l'OT e continuiamo a parlare di 1080ti;)

Nurabsa
20-12-2016, 08:55
come ho sempre detto si facesse le sue hof amd e partner, le sue kpe,

insomma devi creare un' immagine prima di proporre una super scheda da 1000 euri.
Ricordo uno dei tanti motivi per cui scartai la furyx è che sembra la pietà
messa sul banchetto.

In amd devono cambiare testa piu che architettura :asd:

Legolas84
20-12-2016, 09:02
In AMD devono cambiare tutto... e spero che VEGA sia questa svolta!


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ubro92
20-12-2016, 11:13
Costavano niente perchè progettate su un 260mm2, chip pari pari a quello della 250 che rebrandava la 9800gtx+.
AMD con la 4850 pareggiava la 250, la svolta è stata quella di tirarla al limite e di inserire il doppio commando WCK, che raddoppiava l'ampiezza di banda (ddr5).
Comandi (900)-indirizzi(900)-dati (WCK).
Tralasciando questi dettagli, fu una genialata, bisogna riconoscerlo, una delle migliori schede AMD.
La 260 base era uno scarto di un chip gigante da 576mm2 a 65nm e chiaramente i costi erano realmente molto alti.

Cmq chiudiamo l'OT e continuiamo a parlare di 1080ti;)

Dico la mia e stop giusto per ricordare i bei tempi :D

Quale 260?
192sp 65nm
216sp 65nm
216sp 55nm

:sofico:

Però la 4870 scaldava parecchio, io ho avuto sia la 260 nella sua prima variante che la 4870, prestazionalmente la 4870 tirava piu ma anche le temperature erano belle alte ricordo che a def senza oc dovevo impostare un regime delle ventole bello tosto per tenerla sotto gli 80° e sembrava quasi un elicottero, mentre la 260 anche in oc con dissi reference aveva ottime temperature...

Per me la migliore generazione di AMD rimane la serie 5000 con la 5870 li ci fu un vero salto con temperature e consumi ottimi e sopratutto superiori a Nvidia che con la serie GTX 4xx non solo ebbe un ritardo di 6-7 mesi ma avevano consumi e temperature allucinanti...

Legolas84
20-12-2016, 11:16
Fermi è stata una bella lezione per NVIDIA... anche se a parte consumi e calore esagerati era una buona scheda... io ho avuto la 480 e me la sono goduta soprattutto perché io liquido sempre tutto, ma per chi l'ha tenuta reference era una bestia dura da domare.

Fortuna che Kepler è stato una svolta...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ubro92
20-12-2016, 11:25
Fermi è stata una bella lezione per NVIDIA... anche se a parte consumi e calore esagerati era una buona scheda... io ho avuto la 480 e me la sono goduta soprattutto perché io liquido sempre tutto, ma per chi l'ha tenuta reference era una bestia dura da domare.

Fortuna che Kepler è stato una svolta...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Si ma devo dire che già con la 5xx recuperarono, infatti la 570 rispetto la 480 è tutto un altro mondo sul fronte temperature ma arrivarono tardi e recuperarono solo in parte... Attualmente poi lo scenario si è ribaltato perchè il supporto driver di 5870/6970 è morto praticamente, invece l'architettura fermi supporta tutte le recenti implementazioni driver ufficiali

Per kepler si, hanno puntato su un architettura scalabile che in teoria aveva ancora margine ma il salto con maxwell fu decisivo e si è rivelata una mossa vincente anche in termini di costi di produzione...

Ora stiamo a vedere, nvidia ha tutto pronto, e se vuole puo anche fare tranquillamente dei refresh se ne avesse bisogno, per ora il mercato è molto preso da un eventuale mossa di AMD e con vega potrebbe offrire soluzioni estremamente interessanti, già con cpu ryzen ha guadagnato molta considerazione e gennaio sarà un mese decisivo per il suo mercato.

mikael84
20-12-2016, 11:59
Dico la mia e stop giusto per ricordare i bei tempi :D

Quale 260?
192sp 65nm
216sp 65nm
216sp 55nm

:sofico:

Però la 4870 scaldava parecchio, io ho avuto sia la 260 nella sua prima variante che la 4870, prestazionalmente la 4870 tirava piu ma anche le temperature erano belle alte ricordo che a def senza oc dovevo impostare un regime delle ventole bello tosto per tenerla sotto gli 80° e sembrava quasi un elicottero, mentre la 260 anche in oc con dissi reference aveva ottime temperature...

Per me la migliore generazione di AMD rimane la serie 5000 con la 5870 li ci fu un vero salto con temperature e consumi ottimi e sopratutto superiori a Nvidia che con la serie GTX 4xx non solo ebbe un ritardo di 6-7 mesi ma avevano consumi e temperature allucinanti...

Dici bene, la 260 è stata prodotta su due nodi, a 65nm e 55nm:)

Essenzialmente questi chip erano delle versioni allungate di G80.

Ovvero un SPC (Scalable Processor Array) composto da 8 TPC e 2 SM per TPC.
Ogni SM integrava 8 ALU, su 2 SM totalizzavano 16 ALU per TPC.
16 ALU per 8 TPC = 128cuda.

GT 200 inizialmente non aveva ottime rese ed era stato costruito a 65nm, clock bassi ma potenza bruta, tipo un 512bit ddr3.
L'architettura era simile, solo che i TPC passavano da 8 a 10 e gli SM da 2 a 3, quindi ogni TPC conteneva ben 24 ALU.
24 x 10 TPC = 240 cuda.

La 260 a 65nm, purtroppo aveva ben 2 TPC spenti (48 cuda in meno).

La versione da 55 uscita dopo qualche mese, ha permesso, prima di miniaturizzare il core da 576 a 470mmq2 e di abilitare il nono TPC che sbloccava gli altri 24 ALU.
Quindi 9 x 24 = 216 cuda.

Ho menzionato questa serie che forse non tutti conoscono bene, ma in questo caso parliamo di un refresh e di un cambio di nodo.:)

Prima però avevamo a disposizione molte più serie e più scelta.
GT200 aveva come serie, la 260 216, la 275 ,la 285 e la 295.
La 260 216 sarebbe teoricamente la 1080ti di ora :D

Crysis90
20-12-2016, 14:04
http://wccftech.com/nvidia-volta-gv100-gpu-fast-pascal-gp100/

"NVIDIA Volta GV100 GPU Chip For Summit Supercomputer Twice as Fast as Pascal P100"

:eek: :eek: :eek:

Ren
20-12-2016, 14:26
http://wccftech.com/nvidia-volta-gv100-gpu-fast-pascal-gp100/

"NVIDIA Volta GV100 GPU Chip For Summit Supercomputer Twice as Fast as Pascal P100"

:eek: :eek: :eek:

La confusione nelle roadmap nvidia regna sovrana.

cmq sono 40tf con 6gpu e 2power9.

Da dove hanno estrapolato 9.5dp-flops per GPU...:confused:

edit:

Sono proiezioni "maccheroniche" :p partendo dalle sgemm...:sofico:

mikael84
20-12-2016, 14:35
si ma non è un bel paragone, cioè non è la 1080ti che sarà piazzata male con i suoi 470mmq (scarto del chippone), ma era la 260 con 570(65nm) e 470(55nm) mmq ad esserlo...
ma dopotutto le ati era only gaming e le nvidia gpgpu e vuoi il die e vuoi il gpgpu appunto consumavano di più, il contrario di oggi, e sopratutto erano sempre con uno step indietro nel silicio...
ma la peggiore di tutte era la 280 :D

Tecnicamente la 260 è il chip castrato della 280 chip full, così come lo sarà la 1080ti.
A 65nm o a 55nm torniamo sempre li.:)

La confusione nelle roadmap nvidia regna sovrana.

cmq sono 40tf con 6gpu e 2power9.

Da dove hanno estrapolato 9.5dp-flops per GPU...:confused:


Tecnicamente non dice nulla, ribadisce quello che dico sempre, FP64 maggiorate, nvlink 2 ed HBM più spinte.
Non si conosce ne il nodo, ne i valori stimati in rapporto flop per watt.:mc:

Ren
20-12-2016, 14:37
Tecnicamente non dice nulla, ribadisce quello che dico sempre, FP64 maggiorate, nvlink 2 ed HBM più spinte.
Non si conosce ne il nodo, ne i valori stimati in rapporto flop per watt.:mc:

Stendiamo un velo pietoso.

Hanno interpretato i valori delle sgemm alla cazzo di cane.

Aspettiamo il GTC...

MrBrillio
20-12-2016, 15:31
http://wccftech.com/nvidia-volta-gv100-gpu-fast-pascal-gp100/

"NVIDIA Volta GV100 GPU Chip For Summit Supercomputer Twice as Fast as Pascal P100"

:eek: :eek: :eek:

Ormai i confronti di Nvidia tra le varie tecnologie vanno interpretati...come la 1080 che doveva essere 2x la titan X in VR...sì come no....

Ren
20-12-2016, 18:25
Ormai i confronti di Nvidia tra le varie tecnologie vanno interpretati...come la 1080 che doveva essere 2x la titan X in VR...sì come no....

Le slide del reparto marketing vanno sempre interpretate...:sofico:

cmq il 2X si riferiva con Lens Matched Shading attivo. Una tecnologia implementata in hardware che elimina il calcolo di pixel/triangoli superflui.

Provate Everest VR. Vediamo se funziona...;)

Ubro92
20-12-2016, 21:14
si, ma infatti la 1080ti oggi non si chiama x60 con 250watt di TDP, meno male, e la vera x60 (fascia media) non costa un rene... ovvio è un chip più castrato, nel senso che è dimensionato il giusto e posizionato in modo eccellente.
gli anni più bui di nvidia non per altro sono stati quelli assieme alle 5000...


Non puoi dirlo, perchè all'epoca non esisteva una x70 ma solo x60 e x80, successivamente poi come ha gia ben chiarito mikael furono introdotte altre varianti come la 275 e 285 nel passaggio a 55nm ma non rappresentavano le attuali x70...

Solo con la serie successiva ovvero fermi si fece un pò di ordine con le nomenclature... E possiamo anche dire che con Maxwell la sostituzione delle dual gpu con i chipponi...

Sui prezzi tieni anche conto del cambio dollaro euro, all'epoca l'euro aveva un valore nettamente piu elevato non dico il doppio ma poco ci manca ora invece è quasi 1 a 1 il che non aiuta di certo...

Considera che la 1070 costa 379$ di listino ma tra tasse e quotazione euro dollaro ci ritroviamo gli attuali prezzi cosi come la blasonata titan che ha sempre un prezzo di 999$ e dalla prima serie è rimasto immutato...

scorpion73
20-12-2016, 21:54
Sono curioso di vedere queste 1080ti all'opera, non tanto perché mi interessi prenderla avendo già la Titan ma per vedere che differenza si va a toccare.

mikael84
20-12-2016, 23:01
vedi Intel...se davvero l'8 core Amd nuovo se la vede con quello Intel da 1000 euro, e se è vero che quello Amd costerà molto meno, mi aspetto finalmente una svolta in quel campo che stagna anche da più anni che quello vga dove tutto sommato la competizione è stata relativamente più serrata

non che mi riguardi, ho intenzione di tenere il 5820k* ancora a lungo :D però in generale

*leggo sul TU che WD2 spreme i quad core Intel anche al 100% (per via dell'anticheat credo, più che per il codice strettamente di gioco), il mio è sfruttato al 50% su tutti i core compresi quelli virtuali, per dire

Apple mi sembra di aver letto che hai preso WD2.
http://media.gamersnexus.net/images/media/2016/game-bench/watch-dogs2/watch-dogs-2-gpu-1440-ultra.png

Davvero ci vuole una TI/titan per stare a 60?:mc:

Sono curioso di vedere queste 1080ti all'opera, non tanto perché mi interessi prenderla avendo già la Titan ma per vedere che differenza si va a toccare.

Rimane il mistero 10gb. Ciò significa 3200cc, e 320bit, quindi una differenza non così piccola con la Titan. Se invece integra 384bit, potrebbe avere 3328cc e quindi avere una differenze simile ed addirittura pelo meno di quella tra 980ti/titan maxwell.

scorpion73
20-12-2016, 23:45
Rimane il mistero 10gb. Ciò significa 3200cc, e 320bit, quindi una differenza non così piccola con la Titan. Se invece integra 384bit, potrebbe avere 3328cc e quindi avere una differenze simile ed addirittura pelo meno di quella tra 980ti/titan maxwell.

Già, speriamo non facciano sta vaccata, nel senso che sarebbe secondo me a quel punto una scheda da non comprare.
Per il costo che ha, meglio una 1080 o la Titan a sto punto, almeno hai una scheda per come deve essere e non azzoppata forzatamente

Arrow0309
21-12-2016, 07:19
Apple mi sembra di aver letto che hai preso WD2.
http://media.gamersnexus.net/images/media/2016/game-bench/watch-dogs2/watch-dogs-2-gpu-1440-ultra.png

Davvero ci vuole una TI/titan per stare a 60?:mc:




Si, ed io l'ultima volta che provai (tipo 10 giorni fa) stavo pure a 2150/11k

ste-87
21-12-2016, 16:31
Già, speriamo non facciano sta vaccata, nel senso che sarebbe secondo me a quel punto una scheda da non comprare.
Per il costo che ha, meglio una 1080 o la Titan a sto punto, almeno hai una scheda per come deve essere e non azzoppata forzatamente


Ragiono per logica:

Se tanto mi da tanto e tra una gtx 1070 e una gtx 1080 ci corre un 25% esagerando a parita di chip e specifiche, ad eccezione di 640cc in meno per la prima e ram meno veloci, significa che a spanne (neanche troppo approssimative) tra una possibile 1080ti decurtata anche a 3200 nel peggiore dei casi, perderebbe un esageratissimo 5% di prestazioni rispetto alla seconda possibile variante ipotizzata a 3328cc :stordita:

Com'è possibile che una variazione di un 5% in piu o meno, su una forbice del 40% tra titan x pascal e 1080 a pari frequenze (~1950Mhz) renda una 1080ti una "vaccata, scheda da non comprare" -cit attestandosi su un +25 o +30% dalla 1080 e quindi un -15 o -10% da titan x?

considerando un possibile prezzo di 950€, differendo dalla prima (1080) per 300€ in più e dalla seconda (titan x) per 370€ meno, con i margini di prestazioni che separano i 3 modelli sopra esposti, come valuti l'acquisto di una titan x?

Se poi esce la variante da 3328cc tanto meglio, ma va solo a scapito di titan x alla fine.

Considerazioni personali:

Anche fosse un bus da 320bit di sicuro non creerebbe limiti alla scheda dato che a quel punto vuol dire che 1070 e 1080, che costituiscono il grosso del mercato a differenza di 1080ti e titan x di nicchia, affogherebbero letteralmente con il bus da 256 a prescindere da gddr o gddr5x

A prescindere da tutto trovo "azzardato" anche l'acquisto di una 1080ti, poco importa in che variante, considerando la possibile spesa e quello che può uscire di qui a 7-8 mesi (vedi possibile refresh)

scorpion73
21-12-2016, 16:44
Perché un bus da 320bit su una GPU disegnata per un bus a 384bit è esattamente quello che non deve essere fatto perché la GPU la tronchi e hai una scheda che è sottopotenziata rispetto alla capacità della GPU.
Non si tratta di confrontare la scheda con la 1080 ma di vedere come stravolgono quella GPU semplicemente per dare meno memoria.
A me questa operazione sa di vaccata, lo ribadisco, deturpare così una GPU potente non si può siceramente vedere.
E siccome ci sono modi per rendere la scheda meno potente della Titan non alterando la capacità del bus per cui è pensata ritengo che adottare questa strategia sia solo una mera marketingata

Ale55andr0
21-12-2016, 17:34
Se poi esce la variante da 3328cc tanto meglio, ma va solo a scapito di titan x alla fine.



Non sarebbe una novità

mikael84
21-12-2016, 18:00
Ragiono per logica:

Se tanto mi da tanto e tra una gtx 1070 e una gtx 1080 ci corre un 25% esagerando a parita di chip e specifiche, ad eccezione di 640cc in meno per la prima e ram meno veloci, significa che a spanne (neanche troppo approssimative) tra una possibile 1080ti decurtata anche a 3200 nel peggiore dei casi, perderebbe un esageratissimo 5% di prestazioni rispetto alla seconda possibile variante ipotizzata a 3328cc :stordita:

Com'è possibile che una variazione di un 5% in piu o meno, su una forbice del 40% tra titan x pascal e 1080 a pari frequenze (~1950Mhz) renda una 1080ti una "vaccata, scheda da non comprare" -cit attestandosi su un +25 o +30% dalla 1080 e quindi un -15 o -10% da titan x?

considerando un possibile prezzo di 950€, differendo dalla prima (1080) per 300€ in più e dalla seconda (titan x) per 370€ meno, con i margini di prestazioni che separano i 3 modelli sopra esposti, come valuti l'acquisto di una titan x?

Se poi esce la variante da 3328cc tanto meglio, ma va solo a scapito di titan x alla fine.

Considerazioni personali:

Anche fosse un bus da 320bit di sicuro non creerebbe limiti alla scheda dato che a quel punto vuol dire che 1070 e 1080, che costituiscono il grosso del mercato a differenza di 1080ti e titan x di nicchia, affogherebbero letteralmente con il bus da 256 a prescindere da gddr o gddr5x

A prescindere da tutto trovo "azzardato" anche l'acquisto di una 1080ti, poco importa in che variante, considerando la possibile spesa e quello che può uscire di qui a 7-8 mesi (vedi possibile refresh)

E' tutto da vedere, purtroppo le uniche news sono dei classici acchiappa click, privi di una minima conoscenza tecnica. Spesso si confonde anche 10gb/s con 10gb di ram.
I 10gb li confermano dando per scontato un 384bit, ma solo con un 320bit puoi ottenerli.
Per creare i 320bit devi levare completamente un GPC, le rop's e la cache.
3328cc che ormai danno per scontato, necessitano per forza del collegamento completo, cambia solo il rapporto rop's tra 80/84 pixel e la banda effettiva (non teorica) che ne risente un pochino.

C'è un'ipotesi da non scartare del tutto, ovvero che il chip finale sia in versione ddr5 lisce su un 384bit, raggiungendo i 384gb/s, ancora meno del bus a 320bit.
Una quadro è stata costruita così, quindi non è del tutto impossibile.

Io per ora continuo a vedere una Titan con 2 SM in meno.
Vendere salatissimo un chip a 320bit, non è un dramma a livello di prestazioni, ma è un dramma vedere a certe cifre un chip in quelle condizioni, con tutto un GPC e collegamento disattivo.:rolleyes:

TigerTank
21-12-2016, 18:08
...
Io per ora continuo a vedere una Titan con 2 SM in meno.
Vendere salatissimo un chip a 320bit, non è un dramma a livello di prestazioni, ma è un dramma vedere a certe cifre un chip in quelle condizioni, con tutto un GPC e collegamento disattivo.:rolleyes:

Ma tanto la stragrande maggioranza dei potenziali acquirenti vede solo "va più veloce" :D

ste-87
21-12-2016, 18:14
Perché un bus da 320bit su una GPU disegnata per un bus a 384bit è esattamente quello che non deve essere fatto perché la GPU la tronchi e hai una scheda che è sottopotenziata rispetto alla capacità della GPU.


mi puoi linkare qualcosa che dimostri questo possibile stroncamento per via del bus da 320 a 384? anche se non nello specifico caso, dato che è impossibile, immagino che la tua non sia solo una sensazione basata sul nulla ma abbia qualche prova/test/numeri oggettivi su qualcosa di analogo che dimostri la tua affermazione

Io per ora continuo a vedere una Titan con 2 SM in meno.
Vendere salatissimo un chip a 320bit, non è un dramma a livello di prestazioni, ma è un dramma vedere a certe cifre un chip in quelle condizioni, con tutto un GPC e collegamento disattivo.:rolleyes:

sono d'accordo che sono tutte speculazioni e niente di confermato, basandomi comunque su quanto può offrire una 1080 tirata in oc a +500 sulle memorie si arriva a 352Gb/s dai 320 stock, almeno le gddr5x credo che verranno usate su questa 1080ti, non credo abbiano bisogno di "raschiare il fondo barile" con le gddr5 classiche considerando anche il prezzo ipotizzato. A conti fatti sarebbero 400Gb/s di banda passante con bus a 320bit (in oc +500, 440Gb/s) che rimane comunque l'ipotesi peggiore a fronte di 480 per la Titan X. Ci son giochi, anche i meno ottimizzati giusto per conoscere lo scenario peggiore, che si avvicinano ad oggi ad occupare completamente queste bande passanti?

Il dramma purtroppo lo fa di base la Titan X, se ci si fa caso, tutti i prezzi anche solo ipotizzati scalano appunto da quello assurdo dei 1329€

scorpion73
23-12-2016, 21:35
mi puoi linkare qualcosa che dimostri questo possibile stroncamento per via del bus da 320 a 384? anche se non nello specifico caso, dato che è impossibile, immagino che la tua non sia solo una sensazione basata sul nulla ma abbia qualche prova/test/numeri oggettivi su qualcosa di analogo che dimostri la tua affermazione


Non hai capito quel che intendo dire: probabilmente a livello prestazionale si avranno prestazioni alte lo stesso, ma per me è proprio l'idea di deformare una GPU disegnata per un 384bit per ottenere un 320bit a prezzi comunque alti la vaccata.
Infatti, come diceva mikael, levando un canale e un GPC si crea di per se una GPU depotenziata rispetto a quella di partenza, ma a me sa una vaccata di marketing proprio l'idea di avere una GPU stravolta così. E' come menomarla a livello di progettazione, capito che dico? Non è mai successo nella storia delle nvidia questo tipo di trattamento ad una GPU.
E il tutto solo per mettere 2gb di memoria in meno... se per te va bene ok, ma a me non piace.

scorpion73
24-12-2016, 19:59
Comunque in giro (purtroppo ho perso il link per un errore nel copia e incolla) ho letto che chiphell avrebbe postato una foto in cui si evince che il GP102 usato per la GTX 1080ti avrebbe 3200 cuda con bus 320 bit.
Quindi le voci sembrerebbero confermate, e a questo punto sono curioso di vedere le performance di questa scheda.
Se si pensa alla struttura attuale di quella GPU la cosa è possibile: la 1080 è infatti un "GP102 con 4 GPC", la Titan ne ha quasi 6 di GPC, la 1080TI ne ha 5. Una eventuale 1080ti con più cuda sarebbe troppo simile alla titan ripetendo di fatto uno scenario come quello di Kepler e Maxwell che non penso nvidia voglia ripetere.
Se fosse così, penso però che il distacco con la Titan ci sia e non sia una situazione come quella di Maxwell.
Mikael, mi sbaglio?

mikael84
25-12-2016, 16:49
sono d'accordo che sono tutte speculazioni e niente di confermato, basandomi comunque su quanto può offrire una 1080 tirata in oc a +500 sulle memorie si arriva a 352Gb/s dai 320 stock, almeno le gddr5x credo che verranno usate su questa 1080ti, non credo abbiano bisogno di "raschiare il fondo barile" con le gddr5 classiche considerando anche il prezzo ipotizzato. A conti fatti sarebbero 400Gb/s di banda passante con bus a 320bit (in oc +500, 440Gb/s) che rimane comunque l'ipotesi peggiore a fronte di 480 per la Titan X. Ci son giochi, anche i meno ottimizzati giusto per conoscere lo scenario peggiore, che si avvicinano ad oggi ad occupare completamente queste bande passanti?



Nvidia non satura mai la banda, ed i giochi mal ottimizzati non sono indice di BW elevata. Tutte le unità in gioco (ALU), occupano una porzione di banda media e naturalmente più ALU ci sono più porzione di banda viene occupata. Una Titan x occupa una porzione di banda maggiore rispetto ad una 1080.
Attualmente siamo tra i 100 e di 200gb/s, salvo alcuni con MSAA (vedi WD) che arriva a anche a 270gb/s.
La differenza è che malgrado lo spazio richiesto in banda, una memoria più veloce su alcuni giochi è sempre un beneficio in termini prestazionali, considerando che si velocizza il traffico di dati e istruzioni e lo scambio di questi.
La differenza in questo caso potrebbe verificarsi in 4k dove le 12 rop's ed 80gb/s qualche frame in meno lo portano. Gli 80 gb/s diventano oltre 100 a livello effettivo e non teorico.

Non hai capito quel che intendo dire: probabilmente a livello prestazionale si avranno prestazioni alte lo stesso, ma per me è proprio l'idea di deformare una GPU disegnata per un 384bit per ottenere un 320bit a prezzi comunque alti la vaccata.
Infatti, come diceva mikael, levando un canale e un GPC si crea di per se una GPU depotenziata rispetto a quella di partenza, ma a me sa una vaccata di marketing proprio l'idea di avere una GPU stravolta così. E' come menomarla a livello di progettazione, capito che dico? Non è mai successo nella storia delle nvidia questo tipo di trattamento ad una GPU.
E il tutto solo per mettere 2gb di memoria in meno... se per te va bene ok, ma a me non piace.

Bisogna sempre vedere che non abbiamo chip con parti di chip fallate, ed in questo caso levano direttamente tutto il collegamento.
Sulla 1070 hanno fatto così, solo che hanno lasciato il collegamento.
nella 780 addirittura hanno lasciato due canali di collegamento a vuoto, solo per alimentare il 384bit (totalmente fasullo a numeri veri).

Comunque in giro (purtroppo ho perso il link per un errore nel copia e incolla) ho letto che chiphell avrebbe postato una foto in cui si evince che il GP102 usato per la GTX 1080ti avrebbe 3200 cuda con bus 320 bit.
Quindi le voci sembrerebbero confermate, e a questo punto sono curioso di vedere le performance di questa scheda.
Se si pensa alla struttura attuale di quella GPU la cosa è possibile: la 1080 è infatti un "GP102 con 4 GPC", la Titan ne ha quasi 6 di GPC, la 1080TI ne ha 5. Una eventuale 1080ti con più cuda sarebbe troppo simile alla titan ripetendo di fatto uno scenario come quello di Kepler e Maxwell che non penso nvidia voglia ripetere.
Se fosse così, penso però che il distacco con la Titan ci sia e non sia una situazione come quella di Maxwell.
Mikael, mi sbaglio?

La 1080, non è propriamente corretto chiamarla GP102, perchè non è un chip decurtato, ma un chip disegnato a parte.
Una 1080ti se decurtata a 5 GPC finali e senza collegamento, si poteva creare pure su un 400mmq2, ovvero lo stesso core della 980-970 (facciamoci due conti, quando spareranno 1000 euro).

Il distacco senza il bus finale, rispetto alla Titan si vedrà sopratutto in 4k, e li si raggiungerà il maggior distacco, anche se spesso in base ai giochi non cambierà poi molto.
Di certo se uno ha speso 1300, e una 1080ti a 320bit ne costa 1000, a sto giro avrà meno delusione, perchè alla fine la differenza a numeri ci sarà.

Arrow0309
25-12-2016, 21:18
Vedremo se sarà o non sarà così, anch'io credo in questo scenario della 1080ti da 1000 euro (più o meno).
E sono sempre più convinto di prendermi una TitanX anch'io per le massime prestazioni in singola.
Ma credo che una TitanX Pascal a sto giro svaluterà anche molto di meno (prima perché è una Titan e secondo perché è un'esclusiva Nvidia stavolta) :cool:

Spider-Mans
25-12-2016, 21:49
Vedremo se sarà o non sarà così, anch'io credo in questo scenario della 1080ti da 1000 euro (più o meno).
E sono sempre più convinto di prendermi una TitanX anch'io per le massime prestazioni in singola.
Ma credo che una TitanX Pascal a sto giro svaluterà anche molto di meno (prima perché è una Titan e secondo perché è un'esclusiva Nvidia stavolta) :cool:per me riposizionano i prezzi delle 1070 ..sulle 350.400...e 1080 sulle 500.550...con 1080ti sulle 800.750 euro a scendere ...spero :asd:

athlon xp 2400
25-12-2016, 22:09
Vedremo se sarà o non sarà così, anch'io credo in questo scenario della 1080ti da 1000 euro (più o meno).
E sono sempre più convinto di prendermi una TitanX anch'io per le massime prestazioni in singola.
Ma credo che una TitanX Pascal a sto giro svaluterà anche molto di meno (prima perché è una Titan e secondo perché è un'esclusiva Nvidia stavolta) :cool:

La X e' una belva , mi son fatto tomb raider maxato nn ha battuto ciglio. Solo tw3 mi stuttera random e ho il gsync.. che gioco di merda

egounix
25-12-2016, 22:10
Ce l'abbiamo solo noi! Titan titan!!!!

Legolas84
25-12-2016, 22:12
La X e' una belva , mi son fatto tomb raider maxato nn ha battuto ciglio. Solo tw3 mi stuttera random e ho il gsync.. che gioco di merda

Stranissimo.... io con lo SLI di 1080 non ho problemi con TW.... prova a fare come me, togli l'AA del gioco post-processing e applica l'8x da pannelo NVIDIA...

athlon xp 2400
25-12-2016, 22:28
Stranissimo.... io con lo SLI di 1080 non ho problemi con TW.... prova a fare come me, togli l'AA del gioco post-processing e applica l'8x da pannelo NVIDIA...

guarda le ho provate di tutte e ' 1anno che ci sono dietro ho cambiato 2 configurazioni di pc .. i problemi sono peggiorati con il rog sopra i 60hz:mc: in alcuni punti tipo villaggio bianco frutteto, o novigard a volte random stuttera di brutto..:sofico: ...se metto 60hz il problema sembra molto minore... solo in sto gioco ho problemi nn capisco

con le 2 1080 e gsync in alcuni punti facevo frame bassi rispetto a vsync o c'e il gsync un po buggato o non saprei.. le ho provate tutte

Legolas84
25-12-2016, 22:33
Si il problema dei frame bassi rispetto al V-sync si risolve appunto cambiando il tipo di AA... però bo io problemi di stuttering non ne ho avuti e ho anche io il rog.... strano


Inviato dal mio iPhone utilizzando Tapatalk Pro

athlon xp 2400
25-12-2016, 22:36
Si il problema dei frame bassi rispetto al V-sync si risolve appunto cambiando il tipo di AA... però bo io problemi di stuttering non ne ho avuti e ho anche io il rog.... strano


Inviato dal mio iPhone utilizzando Tapatalk Pro

leggendo su internet lo stuttering su tw3 e' un macello e cambia da configurazione a configurazione... me lo fa in punti precisi e non sempre :sofico: quindi molto più strano .. nn c'e da dire manco ho il pc rotto l'ho cambiato a luglio..:sofico: ho giocato tomb raider non ho visto un filo di stutttering

quindi AA del gioco e bacato?

che antialiasing applica il gioco?

mikael84
25-12-2016, 22:47
Vedremo se sarà o non sarà così, anch'io credo in questo scenario della 1080ti da 1000 euro (più o meno).
E sono sempre più convinto di prendermi una TitanX anch'io per le massime prestazioni in singola.
Ma credo che una TitanX Pascal a sto giro svaluterà anche molto di meno (prima perché è una Titan e secondo perché è un'esclusiva Nvidia stavolta) :cool:

1300 euro di scheda li spendi per volere il massimo e basta, però non posso che disilludere, su chi pensa di fare un'affare. :)
Basterebbe anche un 10nm per portare 3584cc e 2,2hghz di clock su GV104, considerando che su tale chip verrà rivisto tutto il sistema istruzioni e parallelizzazione dx12.:)

Legolas84
25-12-2016, 22:54
leggendo su internet lo stuttering su tw3 e' un macello e cambia da configurazione a configurazione... me lo fa in punti precisi e non sempre :sofico: quindi molto più strano .. nn c'e da dire manco ho il pc rotto l'ho cambiato a luglio..:sofico: ho giocato tomb raider non ho visto un filo di stutttering

quindi AA del gioco e bacato?

che antialiasing applica il gioco?



Applica un AA in post processing che da fastidio allo SLI.... con l'aa standard dei driver invece funziona tutto normalmente...


Inviato dal mio iPhone utilizzando Tapatalk Pro

athlon xp 2400
25-12-2016, 22:58
Applica un AA in post processing che da fastidio allo SLI.... con l'aa standard dei driver invece funziona tutto normalmente...


Inviato dal mio iPhone utilizzando Tapatalk Pro

a cosa equivale come antialiasing quello del gioco?

Legolas84
25-12-2016, 23:07
Non ne ho idea sinceramente...


Inviato dal mio iPhone utilizzando Tapatalk Pro

athlon xp 2400
25-12-2016, 23:31
Comq me lo fa a volte dopo il caricamento del livello bo

Arrow0309
26-12-2016, 09:21
1300 euro di scheda li spendi per volere il massimo e basta, però non posso che disilludere, su chi pensa di fare un'affare. :)
Basterebbe anche un 10nm per portare 3584cc e 2,2hghz di clock su GV104, considerando che su tale chip verrà rivisto tutto il sistema istruzioni e parallelizzazione dx12.:)

Ma tra un 1080 Strix Sli e una TitanX te che preferiresti?
Sono tanti i giochi che non supportano lo sli?
In dx12 quale soluzione andrebbe meglio (senza guarda le spese)?
Btw: contando anche il resto del sistema che abbiamo (magari quando esce Zen ci si ripensa, per ora va bene) ;)

athlon xp 2400
26-12-2016, 09:47
Ma tra un 1080 Strix Sli e una TitanX te che preferiresti?
Sono tanti i giochi che non supportano lo sli?
In dx12 quale soluzione andrebbe meglio (senza guarda le spese)?
Btw: contando anche il resto del sistema che abbiamo (magari quando esce Zen ci si ripensa, per ora va bene) ;)

Son proprio i titoli dx 12 che vanno a merda sullo sli

mikael84
26-12-2016, 10:51
Ma tra un 1080 Strix Sli e una TitanX te che preferiresti?
Sono tanti i giochi che non supportano lo sli?
In dx12 quale soluzione andrebbe meglio (senza guarda le spese)?
Btw: contando anche il resto del sistema che abbiamo (magari quando esce Zen ci si ripensa, per ora va bene) ;)

1080ti, tanto ormai il mese prossimo dovremmo sapere tutto.:)
Inutile per ora prendere la Titan ora con l'incognita TI, che penso seriamente sia molto simile alla Titan.

Arrow0309
26-12-2016, 10:53
Son proprio i titoli dx 12 che vanno a merda sullo sli

Massi' devo fa sto sforzo e prendere la Titan X.
Anche economicamente mi conviene (prenderla da nvidia.co.uk allo stesso prezzo di 1.099 £) visto che dopo il Brexit la sterlina e' andata giù rispetto al dollaro US da un rapporto di quasi 1.50 l'estate scorso ai 1.22-1.23 di oggi.
Non ci fosse disponibile da nvidia.co.uk non ci avrei nemmeno pensato di prenderla ma cosi' (visto che vivo e lavoro li) mi conviene direi.

1080ti, tanto ormai il mese prossimo dovremmo sapere tutto.:)
Inutile per ora prendere la Titan ora con l'incognita TI, che penso seriamente sia molto simile alla Titan.

Se prima di 10 gennaio sento che c'e' un possibile refresh a 14nm per la 1080ti molto vicina alla Titan X (ma non ci credo sinceramente) ci faccio un pensierino altrimenti la Titan sara' aggiudicata :cool:

Spider-Mans
26-12-2016, 13:33
Ma tra un 1080 Strix Sli e una TitanX te che preferiresti?
Sono tanti i giochi che non supportano lo sli?
In dx12 quale soluzione andrebbe meglio (senza guarda le spese)?
Btw: contando anche il resto del sistema che abbiamo (magari quando esce Zen ci si ripensa, per ora va bene) ;)

Se resti ad aria la titan x non la comprerei mai... col dissy stock

1080ti custom tutta la vita anche rispetto ad uno sli che non ė sempre perfetto in ogni gioco..anzi

Io volevo prendere la 1080 gtx ma visto che la pascal Ti ė imminente ...aspetto e vedo i prezzi..delle due..e scegliero

Ho deciso di passare entro breve ai 4k/60 uhd tvhd..dai fullhd/60 attuali che sfrutto col dsr2k

Arrow0309
26-12-2016, 13:45
Se resti ad aria la titan x non la comprerei mai... col dissy stock

1080ti custom tutta la vita anche rispetto ad uno sli che non ė sempre perfetto in ogni gioco..anzi

Io volevo prendere la 1080 ma visto che la ti e imminente aspetto e vedo i prezzi..delle due..e scegliero

Ho deciso di passare entro breve ai 4k tvhd..dai 1080 attuali che sfrutto col dsr2k
Ovv la liquido come ho sempre fatto con le ultime 4 generazioni di vga (290, 980, 980ti e 1080).
L'unico dubbio (o meglio incertezza) è di farlo un secondo momento (come ho sempre fatto, "gustandomi" un po' anche il suo fascino stock, notando l'eventuale bontà in oc ad aria, nonché affrontando pure più facilmente la spesona) oppure subito visto che i wb e bp già si trovano, risparmiandomi così un prezioso tempo dedicato all'installazione al liquido, spurgo, e leak test di almeno 12h. :fagiano:

mikael84
26-12-2016, 13:58
Massi' devo fa sto sforzo e prendere la Titan X.
Anche economicamente mi conviene (prenderla da nvidia.co.uk allo stesso prezzo di 1.099 £) visto che dopo il Brexit la sterlina e' andata giù rispetto al dollaro US da un rapporto di quasi 1.50 l'estate scorso ai 1.22-1.23 di oggi.
Non ci fosse disponibile da nvidia.co.uk non ci avrei nemmeno pensato di prenderla ma cosi' (visto che vivo e lavoro li) mi conviene direi.



Se prima di 10 gennaio sento che c'e' un possibile refresh a 14nm per la 1080ti molto vicina alla Titan X (ma non ci credo sinceramente) ci faccio un pensierino altrimenti la Titan sara' aggiudicata :cool:

Sui refresh e sullo step non si sa nulla, ma la 1080ti è ormai una sicurezza, e sarà basata su GP102. Resta solo da vedere quanto sarà castrata.:)
Ciò che ancora non è stimabile è il prezzo, potrebbe essere 1000 (più quotato) ma con il debutto di AMD, le cose potrebbero anche cambiare.
Nvidia ci mette poco a far crollare la 1080 e posizionarci la 1080ti al suo posto, vedi 780-780ti.:) .
Ricordiamoci che sono chip che non si valgono neppure lontanamente il prezzo di acquisto.

Ren
26-12-2016, 14:52
Sono curioso soprattutto dei clock della TI, dato che la Titan è castrata pesantemente lato TDP/dissipatore in maniera intenzionale.

Se alzano il TDP raggiungere la titan è fattibile anche per una variante azzoppata nei CUDA.

ste-87
26-12-2016, 14:55
Nvidia ci mette poco a far crollare la 1080 e posizionarci la 1080ti al suo posto, vedi 780-780ti.:) .
Ricordiamoci che sono chip che non si valgono neppure lontanamente il prezzo di acquisto.

magari fosse vero :) volendo fantasticare, una 1080Ti a 700-750€ street price e con il taglio peggiore ipotizzato (3200cc, 320bit di bus) porterebbe tutti a valutare l'acquisto o cambiare scheda video.

Credo che anche buonissima parte di chi è solito acquistare la xx70 nelle varie serie, cercando il miglior compromesso prezzo/prestazioni possibili,potrebbe una volta tanto valutare seriamente un cambio di tendenza

ovviamente rimarrà tutto rilegato alla sola fantasia però :asd:

fraussantin
26-12-2016, 15:00
1080ti e 700 euro nella stessa riga non si possono scrivere :D

Legolas84
26-12-2016, 15:05
In realtà credo dipenderà tutto da Vega...


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
26-12-2016, 15:34
Sono curioso soprattutto dei clock della TI, dato che la Titan è castrata pesantemente lato TDP/dissipatore in maniera intenzionale.

Se alzano il TDP raggiungere la titan è fattibile anche per una variante azzoppata nei CUDA.

Probabilmente ci saranno già belle custom più pompate a livello di TDP e clock, già immagino la Giga con i suoi 300watt base + PL.
Il problema è quanto raggiungono in OC, perchè alla fine, arrivano sempre li.:p

magari fosse vero :) volendo fantasticare, una 1080Ti a 700-750€ street price e con il taglio peggiore ipotizzato (3200cc, 320bit di bus) porterebbe tutti a valutare l'acquisto o cambiare scheda video.

Credo che anche buonissima parte di chi è solito acquistare la xx70 nelle varie serie, cercando il miglior compromesso prezzo/prestazioni possibili,potrebbe una volta tanto valutare seriamente un cambio di tendenza

ovviamente rimarrà tutto rilegato alla sola fantasia però :asd:

Tecnicamente 800/850 euro è già buono, considerando che hai la potenza di uno SLI di 1070 ma a scheda singola.
Sempre sperando che non la vendano come la Titan, e solo reference sui 1000.:mc:

In realtà credo dipenderà tutto da Vega...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Con Vega la 1080 potrebbe calare di quei 100 euro per il posizionamento della 1080ti, come fascia leader.
Vega potrebbe incidere non poco, ricordo sempre che successe con le 780.

Legolas84
26-12-2016, 15:58
Io spero che VEGA concorra efficacemente anche con GP102 così da costringere NVIDIA a darsi una svegliata a 360 gradi... e a riavere prezzi allineati....

Spider-Mans
26-12-2016, 16:06
Sui refresh e sullo step non si sa nulla, ma la 1080ti è ormai una sicurezza, e sarà basata su GP102. Resta solo da vedere quanto sarà castrata.:)
Ciò che ancora non è stimabile è il prezzo, potrebbe essere 1000 (più quotato) ma con il debutto di AMD, le cose potrebbero anche cambiare.
Nvidia ci mette poco a far crollare la 1080 e posizionarci la 1080ti al suo posto, vedi 780-780ti.:) .
Ricordiamoci che sono chip che non si valgono neppure lontanamente il prezzo di acquisto.

Quello che spero...

Spider-Mans
26-12-2016, 16:06
1080ti e 700 euro nella stessa riga non si possono scrivere :D

Ahahha lasciaci sognare... daje amd :asd: renditi utile

Arrow0309
26-12-2016, 18:10
Probabilmente ci saranno già belle custom più pompate a livello di TDP e clock, già immagino la Giga con i suoi 300watt base + PL.
Il problema è quanto raggiungono in OC, perchè alla fine, arrivano sempre li.:p

... ...

Se usciranno le supercustom multifase e tdp a 300+ sono sicuro che avremo (troveremo) pure dei Bios moddati x le Titan X :cool: