PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 [93] 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

TigerTank
12-04-2016, 12:36
I PCB saranno di conseguenza miseri, con le classiche 4+1 con almeno 40A stabili le alimenti bene, cambierà sicuramente sulla x80 che seppur consumando nulla non si farà mancare le varie multifase (anche KP).:)
No, no...io me ne ritorno ad una reference, salvo modelli custom non estremi(tipo gigabyte) per cui escano nel breve tempo dei fullcover. Inoltre l'overvolt è supportato fin da subito da AB, senza dover ricorrere per forza a precisionX o peggio a tools amatoriali. :)
Sempre che ci sia margine di ov/oc.

mmmh... se le reference costassero molto meno, vado di AIO pure per loro...
tanto il case l'ho cambiato, e ce ne stanno pure altri due di radiatori!

Direi sia l'occasione giusta per un bell'impiantino tanto tu con 2 1070 poi tiri fino alla nuova generazione per cui 2 fullcover sarebbero un buon investimento ;)

Pelvix
12-04-2016, 12:58
C'è una cosa che non mi è chiara però.

Se è vero che anche i cuda-core dp sono costosi da produrre (perchè implicano una gpu più grande) e non servono a nulla in campo gamin (ovvero il target delle varie G-Force), perchè non toglierli dl tutto allora?

Così si avrebbereo gpu ugualmente performanti ma più economiche, oppure perchè non utilizzare tale silicio "sprecato" (sempre in riferimento al gaming) per incorporare più cuda-core sp? :mbe:

Così, a parità di costi produttivi, si avrebbero maggiori performance no?:mbe: :mbe: :mbe:

illidan2000
12-04-2016, 13:07
Direi sia l'occasione giusta per un bell'impiantino tanto tu con 2 1070 poi tiri fino alla nuova generazione per cui 2 fullcover sarebbero un buon investimento ;)

da valutare... è una bella spesa.
Le schede già con AIO incluso vengono un cento euro più delle altre. Valore del solo waterblock fullcover
C'è una cosa che non mi è chiara però.

Se è vero che anche i cuda-core dp sono costosi da produrre (perchè implicano una gpu più grande) e non servono a nulla in campo gamin (ovvero il target delle varie G-Force), perchè non toglierli dl tutto allora?

Così si avrebbereo gpu ugualmente performanti ma più economiche, oppure perchè non utilizzare tale silicio "sprecato" (sempre in riferimento al gaming) per incorporare più cuda-core sp? :mbe:

Così, a parità di costi produttivi, si avrebbero maggiori performance no?:mbe: :mbe: :mbe:
perché cambi proprio architettura... Costa più a ridisegnare tutto che non a laserare

maurilio968
12-04-2016, 13:14
Tabellina riassuntiva su cosa è più probabile a breve:

x1070 = GP104-200 8gb ddr5 cuda decurtati a 1664?
x1080 = GP104-400 8gb ddr5x con 2048 cuda ?

i chip ddr5x sono poi di tre tipi: da 10Gbps, 11Gbps e 12Gbps.
Da qui il range 320-384 sulla Bandwidth della x1080.

https://s29.postimg.org/oitj776nr/Immagine2.jpg

presa da

http://wccftech.com/rumor-nvidia-pascal-gtx-1080-gddr5x-gtx-1070-f-gddr5/

Da quello che ho letto in giro per ora si suppone che le schede gaming con hbm2 avranno queste tempistiche:

Titan-Pascal febbraio 2017

x80Ti giugno 2017

illidan2000
12-04-2016, 13:28
mah, possono pure fare una 1070 a 384bit da 6gb a sto punto, facendola uscire più tardi, ovviamente, con un fantomatico gp105

ste-87
12-04-2016, 13:29
si va bhe wccftech lo seguo da tanto tempo, così come altre fonti per trovare leak, ma va anche preso per quel che è e valutare le notizie epr attendibili o meno...fanno uscire 2-3 notizie al giorno quando c'è momento di hype con tabelle senza senso

maurilio968
12-04-2016, 13:32
si va bhe wccftech lo seguo da tanto tempo, così come altre fonti per trovare leak, ma va anche preso per quel che è e valutare le notizie epr attendibili o meno...fanno uscire 2-3 notizie al giorno quando c'è momento di hype con tabelle senza senso

Tu invece che idea ti sei fatto ?

fraussantin
12-04-2016, 13:33
C'è una cosa che non mi è chiara però.

Se è vero che anche i cuda-core dp sono costosi da produrre (perchè implicano una gpu più grande) e non servono a nulla in campo gamin (ovvero il target delle varie G-Force), perchè non toglierli dl tutto allora?

Così si avrebbereo gpu ugualmente performanti ma più economiche, oppure perchè non utilizzare tale silicio "sprecato" (sempre in riferimento al gaming) per incorporare più cuda-core sp? :mbe:

Così, a parità di costi produttivi, si avrebbero maggiori performance no?:mbe: :mbe: :mbe:





perché cambi proprio architettura... Costa più a ridisegnare tutto che non a laserare

È perché riciclano tutto , dai wafer venuti male ai macchinari per produrli. ( in teoria non devi ridisegnate niente , basta semplicemente invece che laserare , non mettere, solo che ricreare tutto il processo produttivo senza evidentemente costa di più . )

Quello che c'è da dire è che il materiale non deve poi costare molto. Questi comportamenti danno da pensare che i costi siano perlopiù fissi.

mikael84
12-04-2016, 13:51
No, no...io me ne ritorno ad una reference, salvo modelli custom non estremi(tipo gigabyte) per cui escano nel breve tempo dei fullcover. Inoltre l'overvolt è supportato fin da subito da AB, senza dover ricorrere per forza a precisionX o peggio a tools amatoriali. :)
Sempre che ci sia margine di ov/oc.



Le x80, scheda che magari ambisci tu sarà prodotta con buone custom, non mi stupirei se la Asus o la MSI installassero 8 fasi da 60 (Sap2/military) con 40 A belli stabili. La gigabyte utilizzerà le classiche low profile r15. Interessante però sapere se si va a purezza del silicio o si potrà overvoltare, almeno su questi chip.

Tabellina riassuntiva su cosa è più probabile a breve:

x1070 = GP104-200 8gb ddr5 cuda decurtati a 1664?
x1080 = GP104-400 8gb ddr5x con 2048 cuda ?

i chip ddr5x sono poi di tre tipi: da 10Gbps, 11Gbps e 12Gbps.
Da qui il range 320-384 sulla Bandwidth della x1080.

https://s29.postimg.org/oitj776nr/Immagine2.jpg

presa da

http://wccftech.com/rumor-nvidia-pascal-gtx-1080-gddr5x-gtx-1070-f-gddr5/

Da quello che ho letto in giro per ora si suppone che le schede gaming con hbm2 avranno queste tempistiche:

Titan-Pascal febbraio 2017

x80Ti giugno 2017

Ciao Maurilio, ho letto ma è una balla, ho notato aimè che l'architettura non la conoscono bene.
Questo è un sito che sembra seguire i miei schemi.
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1070

L'unico che ipotizza due accessi con 2 scheduler rop, gli stessi che ho analizzato io dal principio, anche Hardware fr sballa completamente.:rolleyes:


1664 cuda sono impossibili su x70.
http://i68.tinypic.com/34grlv7.png

Scusa il disegno fatto su 2 piedi, ma per 1664 cuda devi utilizzare un 192bit non 256bit, visto che hai solo 3 back-end (gpc) attivi.

Quindi meno di 2048 cuda per x70 non scendi.

La x80 avrà tutti i GPC attivi e 2560 cuda, magari qualcuno è ridondante ma poco cambia.

ste-87
12-04-2016, 13:56
Tu invece che idea ti sei fatto ?

per quanto riguarda le specifiche tecniche seguo/sono d'accordo con quanto ha calcolato e riportato mikael dalla presentazione della tesla, che di sicuro convincono di più e sono più ragionati di quanto sparano le testate in questione con i loro leak

Per le memorie si vedrà, stanno facendo davvero un sacco di confusione tra l'altro con notizie contraddittorie/discordanti tra loro a distanza di poche ore tra una notizia e l'altra giusto per aumentare i click...mi metto il cuore in pace e aspetto questi 20 giorni o poco più che ci separano dal computex per vederle direttamente...che facciano addirittura 3 gp104 solo per un ritardo delle gddr5x di scarto di pochi mesi rispetto alla presentazione/lancio mi sembra quanto meno improbabile

mikael84
12-04-2016, 14:00
si va bhe wccftech lo seguo da tanto tempo, così come altre fonti per trovare leak, ma va anche preso per quel che è e valutare le notizie epr attendibili o meno...fanno uscire 2-3 notizie al giorno quando c'è momento di hype con tabelle senza senso

Ultimamente sto notando come varie testate serie, sembra non abbiano una minima conoscenza della micro architettura, possibile che non ti fai 2 domande o punti solo ai click.

Faccio ancora i miei complimenti a Corsini che non so se mi abbia letto ma è stato l'unico a sbugiardare certi rumors totalmente infondati.

mikael84
12-04-2016, 14:21
per quello che dicevo prima
http://wccftech.com/nvidia-pascal-gp104-gpu-skus-june/
http://videocardz.com/59009/rumor-nvidia-plans-three-gp104-skus-in-june

però in effetti potrebbero essere: 1080 1070 e 1060ti

Un' ipotetica x60ti (come la 660ti) sarebbe l'unica soluzione se si utilizzassero 3 back-end ed un bus a 192bit sempre su GP104 con appunto 1664 cuda, ma con oltre 1920 cuda sei su un 256 bit e 4 GPC.
Questa scheda avrebbe senso per i 1664cuda e 192bit (6gb) e prezzo sui 2/300 euro.:fagiano:

fireradeon
12-04-2016, 14:32
http://videocardz.com/59013/nvidia-already-sending-invitations-for-pascal-launch-to-the-press

Ci avviciniamo

illidan2000
12-04-2016, 14:33
Un' ipotetica x60ti (come la 660ti) sarebbe l'unica soluzione se si utilizzassero 3 back-end ed un bus a 192bit sempre su GP104 con appunto 1664 cuda, ma con oltre 1920 cuda sei su un 256 bit e 4 GPC.
Questa scheda avrebbe senso per i 1664cuda e 192bit (6gb) e prezzo sui 2/300 euro.:fagiano:

i 384bit/12gb per una 1090 sarebbero forse fattibili... ma con gp100 (gp102), avrebbe poco senso

mikael84
12-04-2016, 14:43
i 384bit/12gb per una 1090 sarebbero forse fattibili... ma con gp100 (gp102), avrebbe poco senso

Per quale motivo? Raddoppi sia la ram che la banda rispetto alla 980ti.
Se devi creare più PCB tanto vale crearne uno a 384bit, core più piccolo, no dp, meno consumi e tante prestazioni.:)
Considera che GP104 non avrà DP e saranno SM da 64 elementi su un TDP da 145watt e core da circa 290mmm2 contro i ben 400mm2 di GM204

illidan2000
12-04-2016, 15:11
Per quale motivo? Raddoppi sia la ram che la banda rispetto alla 980ti.
Se devi creare più PCB tanto vale crearne uno a 384bit, core più piccolo, no dp, meno consumi e tante prestazioni.:)
Considera che GP104 non avrà DP e saranno SM da 64 elementi su un TDP da 145watt e core da circa 290mmm2 contro i ben 400mm2 di GM204

quindi avalli la tesi?
io dicevo poco senso, per i fini commerciali. Non certo ludici :D

mikael84
12-04-2016, 15:51
quindi avalli la tesi?
io dicevo poco senso, per i fini commerciali. Non certo ludici :D

Si Illi potrebbe essere così.:)
Pensaci, GP104 e GP102 senza DP rispettivamente da 290mm2 e 400/450mm2 potrebbe lasciare il posto ad un uber chippone completamente full con oltre 4000 cuda FP32.

Questo è OT ma la scheda che andrebbe contro Vega è proprio la GP100/GP102

http://i64.tinypic.com/s13pug.png


Guardando le ipotesi per core di AMD non mi stupirei se facessero un passo simile.

Polaris 10 andrà a competere proprio con GP104 e GP100/102 con Vega 4096 ST.

illidan2000
12-04-2016, 16:10
vega 10 con hbm2 va a soli 500mb/s di banda?
quindi ci sono pure hbm2 più lente? (leggo 2048bit)

mikael84
12-04-2016, 16:31
vega 10 con hbm2 va a soli 500mb/s di banda?
quindi ci sono pure hbm2 più lente? (leggo 2048bit)

Lo schema era giusto per identificare un possibile uber chippone basato su probabili declinazioni ma non guardare quei dati specifici che sono messi così.:)
8gb hbm2 significano 2 stack da 4gb (256x2= 512gb/s), ovvero la metà di quello che si ipotizzava con big Pascal (256gb x4 [16gb]=1,024Tb/s)ma tale ampiezza potrebbe richiedere sino a 60watt e per ora sembra si tengano più bassi, non a caso gli stack di big pascal sembrano configurati per 700gb/s circa:)

Giovamas
12-04-2016, 17:48
I PCB saranno di conseguenza miseri, con le classiche 4+1 con almeno 40A stabili le alimenti bene, cambierà sicuramente sulla x80 che seppur consumando nulla non si farà mancare le varie multifase (anche KP).:)

Aspetterò una bella custom. Spero in MSI :)

alex oceano
12-04-2016, 19:05
Aspetterò una bella custom. Spero in MSI :)

tipo gtx 970 msi gaming??:D

fraussantin
12-04-2016, 20:23
tipo gtx 970 msi gaming??:D
O la g1 giga!

Fa a roba!

alex oceano
12-04-2016, 20:29
O la g1 giga!

Fa a roba!

io sarei quasi èpornto a sostituire le 2 vga:

gtx 970 msi gaming
e
gtx 970 gigabyte g1 gaming

con le 1070 soliti brand di ora

Kingdemon
12-04-2016, 20:50
La Msi gaming piace parecchio anche a me.. come 970 prenderei quella quindi se la ripropongono come 1070/1080 potrebbe essere mia :)
Sul mercatino oggi piovono le 970/980 a prezzi folli ma l'offerta cresce.. sarà colpa dei rumors?

AceGranger
12-04-2016, 20:54
Guardando le ipotesi per core di AMD non mi stupirei se facessero un passo simile.

Polaris 10 andrà a competere proprio con GP104 e GP100/102 con Vega 4096 ST.


ma scusa, da quella tabella Polaris 10 dovrebbe avere le prestazioni di una 390X, mentre GP 104 della 1080 dovrebbe andare mica un 20% in piu della Ti?

anche GP100 dovrebbe mangiarselo Vega 10 che è dato solo un 30% in piu della Fury X, visto che solo di TFLOPs è il 70% in piu della Titan X.

GP100 dovrebbe vedersela testa a testa con VEGA 11

Thunder-74
12-04-2016, 21:17
Scusate ragazzi, volevo condividere una cosa con voi
In questo LINK (https://forums.geforce.com/default/topic/927078/geforce-drivers/official-364-72-game-ready-whql-display-driver-feedback-thread-released-3-28-16-/53/) trovate il post di un utente sul forum nvidia, il quale con una vecchia scheda 570, mostra come i frames su dark soul 3 e GTA V, vengano ridotti passando dai vecchi drivers 314.22 agli attuali 364.72.... Incredibile ...

TigerTank
12-04-2016, 21:53
Scusate ragazzi, volevo condividere una cosa con voi
In questo LINK (https://forums.geforce.com/default/topic/927078/geforce-drivers/official-364-72-game-ready-whql-display-driver-feedback-thread-released-3-28-16-/53/) trovate il post di un utente sul forum nvidia, il quale con una vecchia scheda 570, mostra come i frames su dark soul 3 e GTA V, vengano ridotti passando dai vecchi drivers 314.22 agli attuali 364.72.... Incredibile ...

Lol, mi verrebbe da pensare a 2 cose:
-presa per i fondelli colossale.
-i vecchi drivers non supportano certi effetti grafici di ultima generazione per cui i giochi risultano apparentemente più leggeri.

beatl
12-04-2016, 21:56
Oppure obsolescenza programmata :mc:

fraussantin
12-04-2016, 21:58
Oppure obsolescenza programmata :mc:
Se basta tenersi i driver vecchi ....

mikael84
12-04-2016, 22:00
ma scusa, da quella tabella Polaris 10 dovrebbe avere le prestazioni di una 390X, mentre GP 104 della 1080 dovrebbe andare mica un 20% in piu della Ti?

anche GP100 dovrebbe mangiarselo Vega 10 che è dato solo un 30% in piu della Fury X, visto che solo di TFLOPs è il 70% in piu della Titan X.

GP100 dovrebbe vedersela testa a testa con VEGA 11

Diciamo che ha gli shader di una 390-x ma a questo girò AMD avrà un'architettura completamente rivista in GCN 4, compressione rops, miglior rapporto geometrico, livelli di cache e istruzioni più elevate.
Purtroppo non ti so dire come possa andare di preciso questa architettura , in quanto non ho nessun schema anche per provare a fare un'ipotesi sensata.
I primi test a detta loro sono molto incoraggianti e con soli 800mhz sono al livello di un GK110
http://wccftech.com/amd-polaris-10-gpu-specs-leaked/

Tieni presente che con il nuovo PP, non sarà strano vederle lavorare anche a 1300/1400mhz se non di più.

Con un cambio di architettura la potenza matematica non sarà tutto, considera che una 980ti ha la stessa potenza aritmetica di una 780ti ma va a seconda del gioco la metà.
Diverso però se utilizzi la stessa architettura e ne aumenti il clock come successo con Pascal.

Come la fury Polaris 10 avrà un rapporto rops-banda-cache decisamente superiore di una 390.

Quindi salvo cambi di scena improvvisi Polaris 10 se la vedrà con la x70 e Polaris 10 (x) con la x80
Vega 10 con GP100/102, non a caso sono entrambe date per il 2017.

TigerTank
12-04-2016, 22:00
Oppure obsolescenza programmata :mc:

Che in pratica è un sinonimo del mio primo punto scritto sopra :asd:

AceGranger
12-04-2016, 22:19
Diciamo che ha gli shader di una 390-x ma a questo girò AMD avrà un'architettura completamente rivista in GCN 4, compressione rops, miglior rapporto geometrico, livelli di cache e istruzioni più elevate.
Purtroppo non ti so dire come possa andare di preciso questa architettura , in quanto non ho nessun schema anche per provare a fare un'ipotesi sensata.
I primi test a detta loro sono molto incoraggianti e con soli 800mhz sono al livello di un GK110
http://wccftech.com/amd-polaris-10-gpu-specs-leaked/

Tieni presente che con il nuovo PP, non sarà strano vederle lavorare anche a 1300/1400mhz se non di più.

Con un cambio di architettura la potenza matematica non sarà tutto, considera che una 980ti ha la stessa potenza aritmetica di una 780ti ma va a seconda del gioco la metà.
Diverso però se utilizzi la stessa architettura e ne aumenti il clock come successo con Pascal.

Come la fury Polaris 10 avrà un rapporto rops-banda-cache decisamente superiore di una 390.

Quindi salvo cambi di scena improvvisi Polaris 10 se la vedrà con la x70 e Polaris 10 (x) con la x80
Vega 10 con GP100/102, non a caso sono entrambe date per il 2017.

quindi allora le previsioni di quella tabella riguardano lo le ipotetiche potenze aritmetiche e non la stima della prestazioni?

mikael84
12-04-2016, 22:36
quindi allora le previsioni di quella tabella riguardano lo le ipotetiche potenze aritmetiche e non la stima della prestazioni?

La stima delle prestazioni del grafico lascia il tempo che trova attualmente, l'unica cosa semi sicura e che Polaris sarà diretta rivale di GP104 e vega di GP100/102 (entrambe sono date per il 2017).
Purtroppo non so quanto sia realmente potente tale architettura, se non per rumors e slide, quindi difficile per ora fare stime. Appena ho qualcosa di concreto, gli farò pelo e contropelo.:read:

Ho preso però come riferimento questa tabella perchè come mostrato ci potrebbe essere un chippone con grosse specifiche dopo vega e che in questo caso Nvidia potrebbe ricorrere ad un chip enorme senza DP con ben oltre 4000 cuda ed 8 GPC.
Questi due esempi, sia AMD che Nvidia rimangono solo speculazioni per il momento.

mikael84
12-04-2016, 22:58
Cmq a questo giro la situazione sembra differire

http://i66.tinypic.com/2la7wxy.png


Molto probabilmente con GP104 fanno 3 esemplari ed uno di questi avrà al 99% GDDR5 base, ovvero le nuove samsung K4G80325FB-HC25 8gb (quindi su 256bit sono 256gb/s su un 192bit 192gb/s).

Con un 256 bit i GPC sono 4, quindi la x80-400 A1 sarà full 2560 cuda, x80 200-A1 con una laserata di 384 cuda almeno ed una x70 in questo caso che spiazza, perchè se fossero 1664 cuda perderebbe completamente un GPC.
Quindi ci potrebbe realmente essere una x60TI a 192bit con un canale ram e gpc laserato

illidan2000
12-04-2016, 23:09
Cmq a questo giro la situazione sembra differire

http://i66.tinypic.com/2la7wxy.png


Molto probabilmente con GP104 fanno 3 esemplari ed uno di questi avrà al 99% GDDR5 base, ovvero le nuove samsung K4G80325FB-HC25 8gb (quindi su 256bit sono 256gb/s su un 192bit 192gb/s).

Con un 256 bit i GPC sono 4, quindi la x80-400 A1 sarà full 2560 cuda, x80 200-A1 con una laserata di 384 cuda almeno ed una x70 in questo caso che spiazza, perchè se fossero 1664 cuda perderebbe completamente un GPC.
Quindi ci potrebbe realmente essere una x60TI a 192bit con un canale ram e gpc laserato
lo spero... se facessero la x70 da 1664cuda, andrebbe meno della 980ti...
10-15% in meno?

maurilio968
12-04-2016, 23:15
Cmq a questo giro la situazione sembra differire

http://i66.tinypic.com/2la7wxy.png


Molto probabilmente con GP104 fanno 3 esemplari ed uno di questi avrà al 99% GDDR5 base, ovvero le nuove samsung K4G80325FB-HC25 8gb (quindi su 256bit sono 256gb/s su un 192bit 192gb/s).

Con un 256 bit i GPC sono 4, quindi la x80-400 A1 sarà full 2560 cuda, x80 200-A1 con una laserata di 384 cuda almeno ed una x70 in questo caso che spiazza, perchè se fossero 1664 cuda perderebbe completamente un GPC.
Quindi ci potrebbe realmente essere una x60TI a 192bit con un canale ram e gpc laserato

E' tornata possibile la x1070 a 1664 cuda ?

Nun ce sto a capì più na ....(omissis).

Devo reggere fino al computex.

Non cercherò più notizie fino ad allora...

http://www.bitchyf.it/wp-content/uploads/2015/02/Gianni-Sperti-uomini-e-donne.gif

mikael84
12-04-2016, 23:28
lo spero... se facessero la x70 da 1664cuda, andrebbe meno della 980ti...
10-15% in meno?

Questo comincia ad essere un problema, almeno per fascia di prezzo.
Perchè:

X80 full 2560 cuda/80rops e prende il posto della TI (magari anche nel prezzo)
X80 castrata a 2176 circa e potrebbe essere la vera x70 (450euro?)
X70 o X60TI si ritroverebbe un GPC in meno quindi un i cuda sarebbero nell'ordine di 1664-1920 ma in questo modo c'è il serio rischio di integrare un 192bit (ma possono collegarlo ugualmente al 256bit volendo, prezzo 300-350?).

1664 cuda Pascal sono 2304 cuda Maxwell
1920 però sono pari a quelli della 980ti.
Levando un GPC ne rimangono precisamente 1920.

Nvidia ha già creato una soluzione così su Maxwell, la 970m che doveva essere integrata desktop come 960TI. Questo chip ha 1280 cuda e chiaramente un 192bit, perchè perde un GPC ed un canale a 64 bit.

Free Gordon
13-04-2016, 01:00
Scusate ragazzi, volevo condividere una cosa con voi
In questo LINK (https://forums.geforce.com/default/topic/927078/geforce-drivers/official-364-72-game-ready-whql-display-driver-feedback-thread-released-3-28-16-/53/) trovate il post di un utente sul forum nvidia, il quale con una vecchia scheda 570, mostra come i frames su dark soul 3 e GTA V, vengano ridotti passando dai vecchi drivers 314.22 agli attuali 364.72.... Incredibile ...


Non è una cosa che accade di rado, spesso è successo che release successive di driver (su schede vecchie), comportassero dei cali nelle performance. ;)

Lo sviluppo driver per le 5xx è terminato da tempo, gli attuali sono compatibili..ma è facile che, per aumentare le perf su Maxwell & co., schede vecchie possano essere danneggiate. ;)

Ma questa non è una questione di politica, è una questione fisiologica...e succede anche ad AMD. Il vero problema è, da sempre, avere driver unificati :sofico: che girano su generazioni di schede completamente differenti...

Questa cosa se l'è inventata il marketing Nvidia negli anni passati ma non ha alcun senso e nessun risvolto pratico. Ma è figo dire: abbiamo i drivers unificati. :D

Thunder-74
13-04-2016, 06:16
Non è una cosa che accade di rado, spesso è successo che release successive di driver (su schede vecchie), comportassero dei cali nelle performance. ;)

Lo sviluppo driver per le 5xx è terminato da tempo, gli attuali sono compatibili..ma è facile che, per aumentare le perf su Maxwell & co., schede vecchie possano essere danneggiate. ;)

Ma questa non è una questione di politica, è una questione fisiologica...e succede anche ad AMD. Il vero problema è, da sempre, avere driver unificati :sofico: che girano su generazioni di schede completamente differenti...

Questa cosa se l'è inventata il marketing Nvidia negli anni passati ma non ha alcun senso e nessun risvolto pratico. Ma è figo dire: abbiamo i drivers unificati. :D

Ora non so se il tipo del post abbia scelto un driver a caso di tre anni fa, oppure abbia osservato che dal successivo in poi le prestazioni sono calate. Certo la seconda ipotesi sarebbe triste, perché il supporto a Fermi è poi durato per altro tempo... Visto l'uscita di Pascal, probabilmente dal suo avvento in avanti , mi farò un foglio di Excel con i test di alcuni bench, per vedere il trend delle prestazioni delle mie Maxwell... Sono curioso...

Giovamas
13-04-2016, 07:51
La Msi gaming piace parecchio anche a me.. come 970 prenderei quella quindi se la ripropongono come 1070/1080 potrebbe essere mia :)
Sul mercatino oggi piovono le 970/980 a prezzi folli ma l'offerta cresce.. sarà colpa dei rumors?

Beh si. Se non attendo la 1080ti sarà 1080 msi gaming mi sono trovato bene con questo brand. La mia 980ti ci andrà nel mercatino quando avrò la nuova non prima. Non rimango senza scheda per dei rumors :)

Kingdemon
13-04-2016, 07:52
In rete iniziano a girare sempre più indiscrezioni che danno una 1080 Gddr5x con prestazioni paragonabili alla 980 ti ed una 1070 Gddr5 con memorie Samsung pari alla 980.. molto meno di quanto ci aspettiamo

Inviato dal mio Galaxy Nexus utilizzando Tapatalk

beatl
13-04-2016, 07:56
In rete iniziano a girare sempre più indiscrezioni che danno una 1080 Gddr5x con prestazioni paragonabili alla 980 ti ed una 1070 Gddr5 con memorie Samsung pari alla 980.. molto meno di quanto ci aspettiamo

Inviato dal mio Galaxy Nexus utilizzando Tapatalk

Vedremo .... lunga vita alla 980ti:D

Iceman69
13-04-2016, 08:15
In rete iniziano a girare sempre più indiscrezioni che danno una 1080 Gddr5x con prestazioni paragonabili alla 980 ti ed una 1070 Gddr5 con memorie Samsung pari alla 980.. molto meno di quanto ci aspettiamo

Inviato dal mio Galaxy Nexus utilizzando Tapatalk

E' molto probabile, non credo che la 1080 andrà molto più della 980ti, se non in alcuni titoli particolarmente favorevoli alla nuova architettura, come è capitato con il passaggio della precedente generazione e questo per scelta di Nvidia non perché tecnicamente non sia possibile. Spero solo che la 1080 abbia prezzi allineati alla 980 e non alla 980ti.
Tutto salvo che AMD tiri fuori qualche cosa di nuovo molto prestazionale, in questo caso le cose potrebbero andare diversamente.

Kingdemon
13-04-2016, 09:05
Se fosse così chi ha una 980 ti può tranquillamente aspettare la ti nel 2017 mentre chi ha 970/980 potrebbe passare a 1080. La 1070 resterebbe appetibile solo per chi arriva da vga inferiori o la compra ex novo. Tutto dipenderà dai prezzi ma se l'aumento di prestazioni non sarà molto alto difficilmente assisteremo ad un aumento.

Inviato dal mio Galaxy Nexus utilizzando Tapatalk

Spider-Mans
13-04-2016, 09:07
In rete iniziano a girare sempre più indiscrezioni che danno una 1080 Gddr5x con prestazioni paragonabili alla 980 ti ed una 1070 Gddr5 con memorie Samsung pari alla 980.. molto meno di quanto ci aspettiamo

Inviato dal mio Galaxy Nexus utilizzando Tapatalk

1070 pari alla 980
non ci credo manco s elo vedo
basta occare la 970 :asd:

1070 =/> 980ti quasi sicuramente

YesManYes
13-04-2016, 09:09
In rete iniziano a girare sempre più indiscrezioni che danno una 1080 Gddr5x con prestazioni paragonabili alla 980 ti ed una 1070 Gddr5 con memorie Samsung pari alla 980.. molto meno di quanto ci aspettiamo

Inviato dal mio Galaxy Nexus utilizzando Tapatalk
mah non credo proprio...
secondo me la 1080 andrà piu di tutte le schede uscite fino ad oggi ma addirittura di pochino ci riuscirà anche la 1070 che per il fatto che avrà ben 8GB di vram a bordo, una performance per watt straordinaria ( immagino consumi da 970 e prestazioni un pizzico meglio di una 980ti ), il supporto completo alle
dx12 ed alcune nuove feature la renderanno un acquisto obbligato per tutti gli appassionati che ci scommetterei si fionderanno ad acquistare queste nuove schede che come al solito venderanno moltissimo....

Legolas84
13-04-2016, 09:43
Ormai ogni sito (soprattutto i sitarelli) spara la sua :asd:

Probabilmente ci stiamo avvicinando, ma NVIDIA come sempre è brava a non far trapelare nulla... poi però dopo l'uscita qualche sitarello dirà che aveva detto giusto... si ovvio ha sparato 100 min*****e e magari una o due le ha prese :asd:

Kingdemon
13-04-2016, 10:19
Quello sì.. Potremmo aprire un sito apposta con Mikael come tecnico esperto!
Sbaraglieremmo la concorrenza



Inviato dal mio Galaxy Nexus utilizzando Tapatalk

sertopica
13-04-2016, 10:23
Vedremo .... lunga vita alla 980ti:D

Tanto lunga non direi, massimo un anno e mezzo. :D

mikael84
13-04-2016, 10:39
Scusate ragazzi, volevo condividere una cosa con voi
In questo LINK (https://forums.geforce.com/default/topic/927078/geforce-drivers/official-364-72-game-ready-whql-display-driver-feedback-thread-released-3-28-16-/53/) trovate il post di un utente sul forum nvidia, il quale con una vecchia scheda 570, mostra come i frames su dark soul 3 e GTA V, vengano ridotti passando dai vecchi drivers 314.22 agli attuali 364.72.... Incredibile ...

Scusa thunder ma non ti avevo visto.
Cmq è naturale, Fermi non ha più alcuna ottimizzazione, ora il driver è ottimizzato per fare 4 chiamate verso Maxwell (4x32 cuda).
Fermi ha core da 32 unità, divisi in 2x16, quindi se il driver chiama solo una unità, praticamente usa metà delle risorse.
Ecco perchè il frame si dimezza.

Lo stesso succede con Kepler dove se chiami 4 unità da 32, 64 cuda non vengono sfruttati.

GCN invece è diverso mantiene sempre la stessa struttura.

La struttura fermi è così.

16 CUDA cores (#1)
16 CUDA cores (#2)
16 Load/Store Units
16 Interpolation SFUs
8 Special Function SFUs
8 Texture Units

Questa potrebbe essere una seria causa sul suo dimezzamento prestazionale

Legolas84
13-04-2016, 10:40
Quello sì.. Potremmo aprire un sito apposta con Mikael come tecnico esperto!
Sbaraglieremmo la concorrenza



Inviato dal mio Galaxy Nexus utilizzando Tapatalk

Questo sicuramente, ma già hwupgrade è un ottimo riferimento, penso forse l'unico in Italia... infatti sbugiardò alla grande quella famosa indiscrezione totalmente incoerente.... ;)

Poi bisognerebbe affidarsi ai soliti noti come Anandtech, hardwarecanucks e siti così.... ;) I sitarelli farebbero qualsiasi cosa per prendere una decina di click in più, alla fine è con quelli che stanno a galla....

Il meglio è quando questi siti citano "secondo le indiscrezioni delle nostri fonti" :asd:

J9AnGe
13-04-2016, 10:40
Vedremo .... lunga vita alla 980ti:D

Con una 980ti farai girare a parte qualche eccezione i giochi che usciranno nei prossimi 3 anni , certo rinunciando a qualcosa ma di sicuro sempre avendo una grafica "notevole" , vedi la 7950 di amd che ho su un'altro pc fa girare far cry 4 tra alto ed ultra con smaa restando fluida , il gioco rimane molto bello da vedere lo stesso , quindi a meno che uno non sia un purista e voglia mettere sempre tutto a palla la 980ti gli durera' un bel po' :)

Thunder-74
13-04-2016, 10:52
Scusa thunder ma non ti avevo visto.
Cmq è naturale, Fermi non ha più alcuna ottimizzazione, ora il driver è ottimizzato per fare 4 chiamate verso Maxwell (4x32 cuda).
Fermi ha core da 32 unità, divisi in 2x16, quindi se il driver chiama solo una unità, praticamente usa metà delle risorse.
Ecco perchè il frame si dimezza.

Lo stesso succede con Kepler dove se chiami 4 unità da 32, 64 cuda non vengono sfruttati.

GCN invece è diverso mantiene sempre la stessa struttura.

La struttura fermi è così.

16 CUDA cores (#1)
16 CUDA cores (#2)
16 Load/Store Units
16 Interpolation SFUs
8 Special Function SFUs
8 Texture Units

Questa potrebbe essere una seria causa sul suo dimezzamento prestazionale

Ok il mancato sviluppo, quindi posso non aspettarmi un miglioramento delle prestazioni o supporti vari, ma un drivers universale dovrebbe essere un contenitore nel quale risiedono i drivers per il singolo modello o gruppo di appartenenza (fermi/kepler/maxwell ecc). Invece da quello che mi dici, il driver è unico e veramente universale, programmato una volta per supportare una tecnologia, per poi spostare nel tempo l'attenzione ad un'altra tecnologia, pur rimanendo utilizzabile per le precedenti. Anche perché questi pacchetti scompattati arrivano al mezzo giga di roba...

appleroof
13-04-2016, 10:56
Capito, cmq in sostanza non cambia nulla da Kepler, le FP64 vengono utilizzate in altri campi e le FP32 in game.
Il chip come il big Pascal è composto da 3840 cuda FP32 e 1920 cuda FP64, quindi se compri una Titan giochi con 3840 cuda a ben 1480 mhz base, oppure abiliti la DP per altri utilizzi.
Funziona uguale uguale a Kepler, dove il chip integrava 3840 cuda, 2880 cuda erano FP32, 960 per calcoli DP.
Sembra differire questo chip perchè Maxwell non integrava DP ma a livello di game usi solo i 3840cuda (4 SM sono ridondanti quindi 3584 finali)
3584 che per clock equivalgono a 5120 cuda maxwell.:)

Rimane però da definire bene che intenzioni hanno sul chippone, se utilizzare quello come Kepler oppure levare la DP recuperare spazio sul die e utilizzare ancora bus tradizionali e lasciare le hbm ed nvlink solo per utilizzi pro (titan-tesla).

Questo metodo è interessante perchè risparmiando spazio sul core, riusciresti a tirare fuori un 600/610mm2 con oltre 4000 cuda (no DP) e creare un Pascal refresh.:)


Cut.

Grazie del riassunto ;) Molto interessante, ci deve essere un mio post vecchissimo dei tempi di Fermi dove auspicavo che prima o poi Nvidia avrebbe differenziato i chip pro da quelli gaming, anche se difficile da sostenere lato costi /r&s etc ma pare che forse la direzione sia quella, stiamo a vedere...

mikael84
13-04-2016, 11:04
Ok il mancato sviluppo, quindi posso non aspettarmi un miglioramento delle prestazioni o supporti vari, ma un drivers universale dovrebbe essere un contenitore nel quale risiedono i drivers per il singolo modello o gruppo di appartenenza (fermi/kepler/maxwell ecc). Invece da quello che mi dici, il driver è unico e veramente universale, programmato una volta per supportare una tecnologia, per poi spostare nel tempo l'attenzione ad un'altra tecnologia, pur rimanendo utilizzabile per le precedenti... Minchiata... Anche perché questi pacchetti scompattati arrivano al mezzo giga di roba...

Questo è il casotto di avere mille architetture completamente diverse. Il driver è sempre quello ma se non ottimizzato per una tale architettura ma per un'altra si rischia appunto questo.
GCN di AMD invece è diversa, architettura vettoriale dotata di 4 VU (unità vettoriale con 16 ALU) 4x16 =64.
Questo spiega anche perchè Nvidia con Pascal abbia deciso di programmare l'architettura a 64 elementi in stile GCN.;)

Giovamas
13-04-2016, 11:12
Vedremo .... lunga vita alla 980ti:D

Quoto. Beh se è come dice l'utente sopra, meglio così. Lunga vita alla 980ti :D

TigerTank
13-04-2016, 11:15
Questo è il casotto di avere mille architetture completamente diverse. Il driver è sempre quello ma se non ottimizzato per una tale architettura ma per un'altra si rischia appunto questo.
GCN di AMD invece è diversa, architettura vettoriale dotata di 4 VU (unità vettoriale con 16 ALU) 4x16 =64.
Questo spiega anche perchè Nvidia con Pascal abbia deciso di programmare l'architettura a 64 elementi in stile GCN.;)

Che comunque dal punto di vista del marketing è una cosa che a loro va benone in quanto spinta all'upgrade verso il nuovo causa obsolescenza programmata.
Ecco perchè circa i discorsi della longevità della gtx980TI imho dipenderà tutto dall'entità delle ottimizzazioni pro pascal nei futuri titoli e nei drivers.
Cosa già vista ad esempio con la gtx970 vs gtx780Ti.

maurilio968
13-04-2016, 11:21
mah non credo proprio...
secondo me la 1080 andrà piu di tutte le schede uscite fino ad oggi ma addirittura di pochino ci riuscirà anche la 1070 che per il fatto che avrà ben 8GB di vram a bordo, una performance per watt straordinaria ( immagino consumi da 970 e prestazioni un pizzico meglio di una 980ti ), il supporto completo alle
dx12 ed alcune nuove feature la renderanno un acquisto obbligato per tutti gli appassionati che ci scommetterei si fionderanno ad acquistare queste nuove schede che come al solito venderanno moltissimo....

Guarda che il supporto "completo" alle dx12 non ci sarà nemmeno sulla nuova titan derivata da pascal.
Se rileggi la discussione con mikael84 capisci che l'architettura pascal lato gaming è solo (per quanto ottimo) un affinamento di maxwell.
Manca ,per dirne una, l'async compute engine.

Così come lato AMD sono indietro sulla parte geometrica.

Quindi come al solito molto dipenderà da come verranno "indirixzzati" i giochi dagli sviluppatori.

Che poi magari le schede avranno ottime prestazioni e venderanno moltissimo è molto probabile.

YesManYes
13-04-2016, 15:22
Guarda che il supporto "completo" alle dx12 non ci sarà nemmeno sulla nuova titan derivata da pascal.

ne sei sicuro? c'è un link dove è scritto che è ufficiale (non un rumors di un sito di mer*a) il fatto che sicuramente con le nuove Pascal non ci sarà un supporto completo di tutte le funzioni delle DX12?


Se rileggi la discussione con mikael84 capisci che l'architettura pascal lato gaming è solo (per quanto ottimo) un affinamento di maxwell.
Manca ,per dirne una, l'async compute engine.

un affinamento di maxwell che potrebbe migliorare anche nel supporto alle dx12.
e da quello che ho letto nemmeno lui è sicuro se su gpu Pascal ci sarà oppure no async compute engine.
se non ho compreso male la discussione questo è un problema dell'attuale architettura Maxwell (che però lavora meglio in altre cricostanze rispetto ad amd)


Ma poi anche se non fosse così non cambierebbe quello che penso nel post che ho scritto prima per quanto riguarda le gpu 1070 e 1080.

Free Gordon
13-04-2016, 15:49
Questa potrebbe essere una seria causa sul suo dimezzamento prestazionale

Perfetto, il discorso fila. :)

Free Gordon
13-04-2016, 15:54
Tutto salvo che AMD tiri fuori qualche cosa di nuovo molto prestazionale, in questo caso le cose potrebbero andare diversamente.


Al contrario, credo che AMD con le prime Polaris 10 e 11, andrà a sostituire la 380/X e la 390/X e null'altro.. ;)

Saranno schede da 130W di TDP...

Thunder-74
13-04-2016, 16:44
Per me ragazzi, o "Pasqualone" o niente :D

http://www.futuraingrosso.it/public/dir_prodotti/super%20pasqualone%20boy%206589319.JPG

illidan2000
13-04-2016, 17:18
Per me ragazzi, o "Pasqualone" o niente :D


pasqualone consumerà quanto le TI....

Giovamas
13-04-2016, 17:40
I gormiti no please!!! per anni me li sono trovati anche nel letto! LoL

killeragosta90
13-04-2016, 19:25
Per me ragazzi, o "Pasqualone" o niente :D

http://www.futuraingrosso.it/public/dir_prodotti/super%20pasqualone%20boy%206589319.JPG

Oddio!! Ma esiste ancora?? ahahah :p

nico88desmo
13-04-2016, 19:52
Guarda che il supporto "completo" alle dx12 non ci sarà nemmeno sulla nuova titan derivata da pascal.
Se rileggi la discussione con mikael84 capisci che l'architettura pascal lato gaming è solo (per quanto ottimo) un affinamento di maxwell.
Manca ,per dirne una, l'async compute engine.

Così come lato AMD sono indietro sulla parte geometrica.

Quindi come al solito molto dipenderà da come verranno "indirixzzati" i giochi dagli sviluppatori.

Che poi magari le schede avranno ottime prestazioni e venderanno moltissimo è molto probabile.

Per quanto riguarda l'async compute engine, in Pascal sarà introdotta una nuova funzionalità chiamata compute preemption.
Da questo link: http://www.pcgamer.com/nvidia-pascal-p100-architecture-deep-dive/


...
Finally, there are other elements of the Pascal architecture that weren't really covered in much detail. One of these is particularly interesting, however: compute preemption. With Pascal, Nvidia has added the ability to preempt at the instruction level, so it's possible to switch tasks at any time to run a different workload. This could be beneficial for things like VR and asynchronous time warp
...


sembra che questa funzionalità agevoli il context switching delle istruzioni da svolgere; sinceramente non ho capito se questo async compute possa aver a che fare con la gestione degli async shader, purtoppo non si trovano ancora molte informazioni riguardo questa funzionalità in pascal (bisognerà attendere il rilascio delle schede).

illidan2000
13-04-2016, 22:13
quindi le attuali operazioni non supportano la preemption? strano...

mircocatta
14-04-2016, 00:31
Ora non so se il tipo del post abbia scelto un driver a caso di tre anni fa, oppure abbia osservato che dal successivo in poi le prestazioni sono calate. Certo la seconda ipotesi sarebbe triste, perché il supporto a Fermi è poi durato per altro tempo... Visto l'uscita di Pascal, probabilmente dal suo avvento in avanti , mi farò un foglio di Excel con i test di alcuni bench, per vedere il trend delle prestazioni delle mie Maxwell... Sono curioso...

ma di cosa ti stupisci? nvidia non è nuova a ste porcate, guarda le kepler, poverette, son diventate dei fermacarte

per questo aspetterò anche io per vedere che fine faranno le mie maxwell..

Ale55andr0
14-04-2016, 00:39
...e vedere se tornare ad amd che queste nette porcate non le fa


in parte anche perchè sono un paio di milioni di anni che stanno sempre su gcn, ovvio che non manchi il supporto driver :asd:

Thunder-74
14-04-2016, 06:35
ma di cosa ti stupisci? nvidia non è nuova a ste porcate, guarda le kepler, poverette, son diventate dei fermacarte

per questo aspetterò anche io per vedere che fine faranno le mie maxwell..

Ci sono rimasto perché il taglio dei frames è del 50%. Sapevo, ma non così tanto

Legolas84
14-04-2016, 06:43
Se andate indietro c'é un post di Mikael che spiega nel dettaglio la cosa...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Nelson Muntz
14-04-2016, 07:18
Se andate indietro c'é un post di Mikael che spiega nel dettaglio la cosa...


E quindi ? Anche data per buona la spiegazione , questo non la rende certo una cosa giustificabile : si tratta di una PORCATA !
Se fai un driver dichiarato compatabile con una scheda NON PUOI castrarla della meta' solo perche' le architetture successive hanno un hardware diverso ! Allora o fai driver separati (magari anche con aggiornamenti piu' dilazionati nel tempo) , o li fai che contengano i file con le ottimizzazioni specifiche per TUTTE le schede o non li fai proprio , per le vecchie schede !

E per chi dice : 'basta che non aggiorni !' , sapete bene che anche qua a volte non e' possibile . Supponiamo ad esempio che esce un Dark Souls 3 e voglio giocarlo con una 580 (in HD o fullhd limando sulla grafica) e supponiamo che magari coi vecchi driver non va proprio , che si fa ? Si aggiorna ! Toh , il gioco parte , toh , vado alla metà in qualsiasi gioco !

UNA PORCATA , ripeto .

fraussantin
14-04-2016, 07:31
E quindi ? Anche data per buona la spiegazione , questo non la rende certo una cosa giustificabile : si tratta di una PORCATA !
Se fai un driver dichiarato compatabile con una scheda NON PUOI castrarla della meta' solo perche' le architetture successive hanno un hardware diverso ! Allora o fai driver separati (magari anche con aggiornamenti piu' dilazionati nel tempo) , o li fai che contengano i file con le ottimizzazioni specifiche per TUTTE le schede o non li fai proprio , per le vecchie schede !

E per chi dice : 'basta che non aggiorni !' , sapete bene che anche qua a volte non e' possibile . Supponiamo ad esempio che esce un Dark Souls 3 e voglio giocarlo con una 580 (in HD o fullhd limando sulla grafica) e supponiamo che magari coi vecchi driver non va proprio , che si fa ? Si aggiorna ! Toh , il gioco parte , toh , vado alla metà in qualsiasi gioco !

UNA PORCATA , ripeto .
Oppure non fai il driver.come avviene per il 90% dei dispositivi in commercio

Amd ha il vantaggio di rebrandizzare tutte le sue vga a ciclo continuo. Quindi per forza sono ottimizzate.

Se con polaris i rebrand non ci saranno allora potrebbe accadere anche con quelle.

Legolas84
14-04-2016, 07:34
Sicuramente ma é inutile puntare il dito in questo modo ossessivo... Tutti fanno porcate inverosimili.. Vogliamo parlare del supporto crossfire? O del fatto che le schede AMD fossero le regine dello stuttering fino a che nvidia non ha trovato il modo di misurarlo con i test fcat che hanno costretto AMD a mettere in fretta una pezza alla bene e meglio? Eppure fino ad allora i fanboy erano pronti a dirti che non era vero che le loro schede stutteravano come se non ci fosse un domani (e spesso lo fanno ancora specie nel multi gpu)...

Le porcate le fanno tutti basta scegliere quelle che si preferiscono :asd: e basta non essere fanboy e affrontare a volte le cose un po' più dal lato tecnico che sensazionalistico ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

J9AnGe
14-04-2016, 07:34
Si ma la 7950 è gcn ancora utilizzata ed ottimizzata, Maxwell invece come Kepler probabilmente soffrirà della nuova architettura pascal che è ben diversa.

Vero ! ma basta mettere driver antecedenti ottimizzati maxwell e non installare geforce experience che continua a dirti di aggiornarli ed il gioco e' fatto :) , io faro' cosi' , non lascero' che mi dimezzino le prestazioni :)

J9AnGe
14-04-2016, 07:39
E quindi ? Anche data per buona la spiegazione , questo non la rende certo una cosa giustificabile : si tratta di una PORCATA !
Se fai un driver dichiarato compatabile con una scheda NON PUOI castrarla della meta' solo perche' le architetture successive hanno un hardware diverso ! Allora o fai driver separati (magari anche con aggiornamenti piu' dilazionati nel tempo) , o li fai che contengano i file con le ottimizzazioni specifiche per TUTTE le schede o non li fai proprio , per le vecchie schede !

E per chi dice : 'basta che non aggiorni !' , sapete bene che anche qua a volte non e' possibile . Supponiamo ad esempio che esce un Dark Souls 3 e voglio giocarlo con una 580 (in HD o fullhd limando sulla grafica) e supponiamo che magari coi vecchi driver non va proprio , che si fa ? Si aggiorna ! Toh , il gioco parte , toh , vado alla metà in qualsiasi gioco !

UNA PORCATA , ripeto .

Vero anche questo , ma di solito partono tutti anche con driver datati , magari ti dice di aggiornarli ma partire parte , e cmq sia se mi dimezzano le prestazioni metto quelli datati lo stesso ... che faccio mi tengo un gtx 970 che va come un 960? non credo propio :)

Nelson Muntz
14-04-2016, 07:39
Oppure non fai il driver.come avviene per il 90% dei dispositivi in commercio


Ecco, piuttosto NON li fai ! Lo avevo anche scritto !

fraussantin
14-04-2016, 07:40
Vero anche questo , ma di solito partono tutti anche con driver datati , magari ti dice di aggiornarli ma partire parte , e cmq sia se mi dimezzano le prestazioni metto quelli datati lo stesso ... che faccio mi tengo un gtx 970 che va come un 960? non credo propio :)
Anche se non credo che avverrà ..

Legolas84
14-04-2016, 07:50
Che poi é tutto da verificare quindi relax... Questa cosa avviene solo in determinati titoli e in determinate condizioni. È solo che se ne sta facendo un caso mediatico per ovvi motivi :)

Io ebbi problemi con fermi con un gioco vecchio e scrivendo direttamente a nvidia segnalando la cosa ricevetti un fix apposito in una release di driver successiva... Quindi bisogna sempre valutare le cose in modo imparziale e lucido...

Inviato dal mio ONE A2003 utilizzando Tapatalk

fraussantin
14-04-2016, 07:55
È solo che se ne sta facendo un caso mediatico per ovvi motivi :)

Esatto e per questo motivo imho non avverrà.

Eccetto che per i titoli dx12. Quelli purtroppo su Maxwell1 non credo saranno mai ottimizzati. Ma io mi sento sicuro di arrivare a vega tranquillo con la mia 970

Legolas84
14-04-2016, 07:59
La 970 é una grandissima scheda ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

YesManYes
14-04-2016, 08:12
Esatto e per questo motivo imho non avverrà.

Eccetto che per i titoli dx12. Quelli purtroppo su Maxwell1 non credo saranno mai ottimizzati. Ma io mi sento sicuro di arrivare a vega tranquillo con la mia 970

anche fossero ottimizzati su Maxwell 1 ci andresti poco lontano pure in dx11 visto che l'unica gpu che hanno realizzato è di fascia bassa, la GM107 GTX 750-750Ti

fraussantin
14-04-2016, 08:21
anche fossero ottimizzati su Maxwell 1 ci andresti poco lontano pure in dx11 visto che l'unica gpu che hanno realizzato è di fascia bassa, la GM107 GTX 750-750Ti

Non hai seguito il mio discorso. ( intendevo 1 gen maxwell 970 980) le ti imho li spingeranno pure un dx12
Imho non si ripeterà ,

E cmq se proprio sarà "maiala"( cit fiorentina) resto con i driver vecchi. Quindi non penso di avere problemi.

YesManYes
14-04-2016, 08:47
Non hai seguito il mio discorso. ( intendevo 1 gen maxwell 970 980) le ti imho li spingeranno pure un dx12
Imho non si ripeterà ,

E cmq se proprio sarà "maiala"( cit fiorentina) resto con i driver vecchi. Quindi non penso di avere problemi.

adesso ho capito cosa intendevi...
ma la prima gen Maxwell sarebbe quella che ti ho scritto io, GM107 e GM108
Invece la seconda generazione con architettura Maxwell sono i GM200 - 204 - 206
GTX 970 e 980 sono Maxwell 2.0 come GTX 980 Ti e Titan X

illidan2000
14-04-2016, 08:49
Non hai seguito il mio discorso. ( intendevo 1 gen maxwell 970 980) le ti imho li spingeranno pure un dx12
Imho non si ripeterà ,

E cmq se proprio sarà "maiala"( cit fiorentina) resto con i driver vecchi. Quindi non penso di avere problemi.

lo dovrebbero proprio fare apposta. Non credo succederà-
l'architettura è uguale. 970,980 e 980ti (e titan x) verranno ugualmente supportate dai driver. La famiglia è la stessa.
Tranne se mettono qualcosa tipo

if(nome_scheda == "970") supporto_dx12 = false;

fireradeon
14-04-2016, 08:52
E quindi ? Anche data per buona la spiegazione , questo non la rende certo una cosa giustificabile : si tratta di una PORCATA !
Se fai un driver dichiarato compatabile con una scheda NON PUOI castrarla della meta' solo perche' le architetture successive hanno un hardware diverso ! Allora o fai driver separati (magari anche con aggiornamenti piu' dilazionati nel tempo) , o li fai che contengano i file con le ottimizzazioni specifiche per TUTTE le schede o non li fai proprio , per le vecchie schede !

E per chi dice : 'basta che non aggiorni !' , sapete bene che anche qua a volte non e' possibile . Supponiamo ad esempio che esce un Dark Souls 3 e voglio giocarlo con una 580 (in HD o fullhd limando sulla grafica) e supponiamo che magari coi vecchi driver non va proprio , che si fa ? Si aggiorna ! Toh , il gioco parte , toh , vado alla metà in qualsiasi gioco !

UNA PORCATA , ripeto .

Obiettivamente ha ragione. Se dovesse essere una cosa voluta é anche peggio. Non é un comportamento serio se chi ha la quelle schede non viene seguito con driver adhoc.
Io non ho provato direttamente il problema ma immagino che se le lamentele sono tante non sia un problema da poco.

paolox86
14-04-2016, 09:40
Io da quando Nvidia ha proposto l'architettura a shader unificati (8800 GTX) ho sempre cambiato la scheda nei pressi del D1 con il modello successivo. Per questo non ho mai potuto constatare questo problema. Detto ciò però, non è affatto detto che tutti possano cambiare la scheda ogni 1/2 anni e quindi trovo questa politica assai discutibile.
Tra l'altro mi sembra impossibile che non si possa lasciare nei nuovi driver, che non dovrebbero chiamarsi unificati a caso, delle ottimizzazioni per le architetture precedenti. Altrimenti che sviluppino set di driver appositi almeno per la famiglia precedente


Inviato dal mio iPhone utilizzando Tapatalk

fireradeon
14-04-2016, 11:15
http://wccftech.com/nvidia-launch-pascal-editors-event-may/

Ottimo metà Maggio. Forse peró saranno ddr5 mi sa, non ci siamo con i tempi delle ddr5x o sbaglio?
A questo punto penso che fine Maggio metà Giugno sia la data di uscita in commercio.

fraussantin
14-04-2016, 11:20
giusto perché ne stavate discutendo vi riporto questa notizia:
http://www.bitsandchips.it/52-english-news/6871-are-you-waiting-for-dx12-fermi-drivers-time-wasted-fermi-is-eol

a parte i driver dx12 prima promessi e poi cancellati, che ci può stare, quello che fa incaxxare è questo:

"An astonishing news if we think that NVIDIA pressured Microsoft to change the DX12 features in order to support Fermi, the most used uArch at the time (Over 20% of market share).
If Fermi hadn't been supported, the DX12 would have been a lot different. Fermi was the highest common denominator during DX12 develpment, mainly because the Fermi cards were the bestselling."

Secondo me queste notizie nascono da trollate lette sui forum ...

A furia di riportarle non si sa più se sono reali o no e diventano news.

Un po come il nome 1080 ....


Nel passare dei mesi da essere riportata come ipotesi è diventata ufficiale , senza che lo sia...

Legolas84
14-04-2016, 11:22
Ragazzi... Bisogna affidarsi solo a siti autorevoli non mi stancherò mai di ribadirlo...

Inviato dal mio ONE A2003 utilizzando Tapatalk

illidan2000
14-04-2016, 11:38
va beh, una sorta di geforce experience, che in pochi usano...

Theodorakis
14-04-2016, 11:42
In realtà si tratta del debugger/profiler che usano le softwrae house per testare programmi e videogiochi. Come si fa a testare il proprio videogioco con Fermi, se non è supportata dal debugger/profiler? :ciapet:

TigerTank
14-04-2016, 12:33
From official NVIDIA doc:
"Starting with the next release of NVIDIA Nsight, Fermi GPUs will no longer be supported".

Ma alla fine penso che qui dentro non importi a nessuno se Fermi non viene più supportata. Con l'uscita delle Pascal parliamo di 3 generazioni indietro, roba del 2010. Cioè anche se fosse quanti gamers del nostro livello sarebbero lì ancora con quelle schede? :)
Discorso diverso invece se con l'uscita di pascal iniziassero a "penalizzare" maxwell, qui sì che sarebbe lecita l'incazzatura :)

mr.jack74
14-04-2016, 12:38
Comunque, ci auguro a tutti almeno questa volta, che con le future 1080 Ti/Titan (se questo sarà il nome giusto) potremo gicare in 4K o 3440 21:9 con alti fps con singola vga, senza dover ricorrere allo sli. Lo spero vivamente.

TigerTank
14-04-2016, 12:41
Comunque, ci auguro tutti che almeno questa volta, che con le future 1080 Ti/Titan (se questo sarà il nome giusto) potremo gicare in 4K o 3440 21:9 con singola vga senza dover ricorrere allo sli. Lo spero vivamente.

Questo è un discorso relativo perchè oltre che dalla pesantezza dei giochi/ottimizzazione dei motori di gioco, dipende tutto dai "sacrifici" grafici a cui sei disposto e/o dal minimo framerate per te accettabile.
Per dire...se vuoi giocare sempre e comunque maxato a prescindere, comprese le nuove ombre e simili, la vedo molto dura, specialmente su 4K...se intendiamo un framerate da 60fps minimi.
Se invece non disdegni di scendere a compromessi in caso di situazioni troppo pesanti in rapporto al plus visivo, allora ci si potrà stare dentro, almeno sul 21:9.
Considera anche che purtroppo la pesantezza di certi titoli tende ad aumentare proporzionalmente alla maggior potenza delle vga, vedi ad esempio gli assassin's Creed e simili....ogni volta mattoni di turno.

fireradeon
14-04-2016, 12:42
Comunque, ci auguro a tutti almeno questa volta, che con le future 1080 Ti/Titan (se questo sarà il nome giusto) potremo gicare in 4K o 3440 21:9 con alti fps con singola vga, senza dover ricorrere allo sli. Lo spero vivamente.

Se continuano a peogrammare come fanno ora..... (vedi Quantum Break)

J9AnGe
14-04-2016, 13:21
Eh ma se ci sono bug risolti solo dagli ultimi driver, ed ormai i giochi escono totalmente buggati, ti attacchi, inoltre non è bello per un possessore di ti dover ricorrere a certe cose... Insomma spero che nvidia faccia qualcosa sulla sua tanto decantata architettura ottimizzata gaming, Maxwell....

Sono d'accordo con te , cmq io fossi in quelli della nvidia non penalizzerei tramite driver architetture precedenti , questo potrebbe dare in GROSSO vantaggio ad AMD sulle vendite , specie ora che i driver amd vanno bene e schede datate vanno molto meglio di quando sono uscite , lo dico da imparziale in quanto in anni o preso sia Nvidia che ati/amd pressapoco in egual misura e penso che la fetta piu' grande di mercato non sia composta da fanboy , quindi fossi in loro valuterei attentamente di non fare mosse azzardate :)

fraussantin
14-04-2016, 13:27
Sono d'accordo con te , cmq io fossi in quelli della nvidia non penalizzerei tramite driver architetture precedenti , questo potrebbe dare in GROSSO vantaggio ad AMD sulle vendite , specie ora che i driver amd vanno bene e schede datate vanno molto meglio di quando sono uscite , lo dico da imparziale in quanto in anni o preso sia Nvidia che ati/amd pressapoco in egual misura e penso che la fetta piu' grande di mercato non sia composta da fanboy , quindi fossi in loro valuterei attentamente di non fare mosse azzardate :)
Esatto.

Quello che è successo alla serie 5,6 7 è successa perché chi si ritrovava a cambiare gpu per giocare a tw3 o a gta5 non aveva valide alternative dalle rosse che vendevano le solite minestre ( a caro prezzo)e pure riscaldate male.

Adesso non è così scontato che chi vende maxwell , comprerà pascal.

Cmq le dx 12 imho saranno un problema. Ma tanto prima di vederle su un titolo buono ci vorranno 2 anni.

mr.jack74
14-04-2016, 13:43
Questo è un discorso relativo perchè oltre che dalla pesantezza dei giochi/ottimizzazione dei motori di gioco, dipende tutto dai "sacrifici" grafici a cui sei disposto e/o dal minimo framerate per te accettabile.
Per dire...se vuoi giocare sempre e comunque maxato a prescindere, comprese le nuove ombre e simili, la vedo molto dura, specialmente su 4K...se intendiamo un framerate da 60fps minimi.
Se invece non disdegni di scendere a compromessi in caso di situazioni troppo pesanti in rapporto al plus visivo, allora ci si potrà stare dentro, almeno sul 21:9.
Considera anche che purtroppo la pesantezza di certi titoli tende ad aumentare proporzionalmente alla maggior potenza delle vga, vedi ad esempio gli assassin's Creed e simili....ogni volta mattoni di turno.Si non l'ho specificato ma la tendenza è quella di mettere i dettagli su ultra, comprese ombre etc ed AA a 2x o 4X, a seconda del framerate. Del quale mi piace che si avvicini sempre al refresh del monitor, nel mio caso quindi 100 fps, diciamo compreso tra 80 e 100 frame. La densità di pixel del 4K per ora non mi interessa, è pesantissimo con le tecnologie attuali e preferisco l'angolo di campo maggiore del 21:9 ed avere refresh più elevati. Per ottenere questo risultato oggi, uno sli di 980 Ti è indispensabile. Spero infatti che Pascal, nella sua versione più spinta (GP100), porti la potenza elaborativa ad un livello tale da essere sufficiente per utilizzare a fondo questi nuovi schermi senza dover per forza esborsare grandi cifre per l'acquisto di uno sli. Magari spero in qualcosa di troppo ma non si sa mai..:D

Se continuano a peogrammare come fanno ora..... (vedi Quantum Break)Ho letto qualcosa in giro ed è una roba disastrosa in effetti..

npole
14-04-2016, 13:45
http://wccftech.com/nvidia-launch-pascal-editors-event-may/

Ottimo metà Maggio. Forse peró saranno ddr5 mi sa, non ci siamo con i tempi delle ddr5x o sbaglio?
A questo punto penso che fine Maggio metà Giugno sia la data di uscita in commercio.

Verranno ufficializzate il 6 Maggio.

J9AnGe
14-04-2016, 13:50
Esatto.

Quello che è successo alla serie 5,6 7 è successa perché chi si ritrovava a cambiare gpu per giocare a tw3 o a gta5 non aveva valide alternative dalle rosse che vendevano le solite minestre ( a caro prezzo)e pure riscaldate male.

Adesso non è così scontato che chi vende maxwell , comprerà pascal.

Cmq le dx 12 imho saranno un problema. Ma tanto prima di vederle su un titolo buono ci vorranno 2 anni.

infatti , non e' propio scontato che la mia prossima gpu sia pascal anche perche' sembra che POLARIS scaldi e consumi poco , ok e' relativo ma non avere un forno a micro onde nel case e' piacevole :) , quindi sulla prossima generazione probabilmente vedremo un AMD decisamente piu' appetibile all'acquisto e forte sul mercato , questo non toglie che con gtx 970 mi trovi benissimo anche lato driver "per ora" e che asus con la strix che ferma le ventole fino a 60° abbia fatto un ottimo lavoro lato silenzio , io che giocando in rete ascolto bene anche i passi e non ho voglia di mettere le cuffie la trovo fantastica :)

mikael84
14-04-2016, 13:54
Comunque, ci auguro a tutti almeno questa volta, che con le future 1080 Ti/Titan (se questo sarà il nome giusto) potremo gicare in 4K o 3440 21:9 con alti fps con singola vga, senza dover ricorrere allo sli. Lo spero vivamente.

Ciao mr.
Per ora sino al 2017 i 4 rendere back end di GP104 permetteranno un buon 30% oltre maxwell 980ti/titan x, poi ci saranno miglioramenti grazie all'architettura predisposta in stile GCN.
Per i giochi DX12, Pascal ricorre ad una sorta di code ma della quale ancora non si sa bene come funziona (tralascio rumors inutili non c'è nulla di ufficiale) ma non integrerà ACE come AMD, in virtù di un'architettura diversa (scalare contro vettoriale).:)

Ubro92
14-04-2016, 13:54
Il supporto delle dx12 per le vecchie schede a partire da fermi è fondamentale per quei titoli futuri che saranno full dx12, e sopratutto in ambito mobile dove ci sono schede 6xx e 7xx con architettura fermi, quindi per evitare di creare scompigli tra la maggior parte degli utenti è bene supportare anche se solo in modo parziale o per lo più come appannaggio.

mikael84
14-04-2016, 14:21
Ma alla fine penso che qui dentro non importi a nessuno se Fermi non viene più supportata. Con l'uscita delle Pascal parliamo di 3 generazioni indietro, roba del 2010. Cioè anche se fosse quanti gamers del nostro livello sarebbero lì ancora con quelle schede? :)
Discorso diverso invece se con l'uscita di pascal iniziassero a "penalizzare" maxwell, qui sì che sarebbe lecita l'incazzatura :)

Si succederà così tranquillo, altrimenti per Pascal non avrebbero rivisto l'architettura a 64 elementi.
Kepler è a 192 elementi(6x32), Maxwell a 128(4x32), Pascal a 64(2 scheduler per 32).
A questo aggiungi la gestione hyper threading delle dx12 con relative code migliorate ed il gioco è fatto.;)

Meglio dirle direttamente che illudere alla fine.

fraussantin
14-04-2016, 14:22
Eh ma se già sui titoli "scarsi" le dx12 sembrano ammazzare Maxwell.... Arrivare ai buoni sarebbe un suicidio. Boh la vedo almeno grigia...

si ma non mi hai capito , se non esce un titolo meritevole in dx 12 alla fine chisse...

quelli in uscita sembra che saranno tutti dx 11..

mr.jack74
14-04-2016, 14:23
Ciao mr.
Per ora sino al 2017 i 4 rendere back end di GP104 permetteranno un buon 30% oltre maxwell 980ti/titan x, poi ci saranno miglioramenti grazie all'architettura predisposta in stile GCN.
Per i giochi DX12, Pascal ricorre ad una sorta di code ma della quale ancora non si sa bene come funziona (tralascio rumors inutili non c'è nulla di ufficiale) ma non integrerà ACE come AMD, in virtù di un'architettura diversa (scalare contro vettoriale).:)
Ciao Miguel, grazie delle info. Ed io che ero già pronto a provare le DX12 :D ...ho provato Hitman (2016) in DX12 pensando a chi sa cosa e invece graficamente non cambia una mazza rispetto a giocarlo in dx11 e non capivo il motivo..

gaevulk
14-04-2016, 14:27
Io stavolta aspetto tranquillo tranquillo,non ho nessuna fretta proprio :read:

illidan2000
14-04-2016, 14:33
Io stavolta aspetto tranquillo tranquillo,non ho nessuna fretta proprio :read:

che monitor hai?

gaevulk
14-04-2016, 14:33
che monitor hai?

ho un trimonitor

gaevulk
14-04-2016, 14:35
che monitor hai?

ho un trimonitor,capisco cosa vuoi dire ma,io ho raggiunto la pace dei sensi con la mia 980 ti evga e se mai la cambiero' lo faro' solo a "giochi fatti",nessuna scommessa stavolta.

mikael84
14-04-2016, 14:37
Ciao Miguel, grazie delle info. Ed io che ero già pronto a provare le DX12 :D ...ho provato Hitman (2016) in DX12 pensando a chi sa cosa e invece graficamente non cambia una mazza rispetto a giocarlo in dx11 e non capivo il motivo..

Infatti non cambia nulla, solo che AMD grazie agli ACE riesce a processare parallelamente meglio diversi tipi di effetti. Il motore di hitman è dx11 ma sfrutta meglio l'architettura GCN di AMD, così come il vecchio absolution.:) :)
Bisogna vedere cosa succederà con i titoli tripla A, per capire realmente dove Nvidia avrà limiti.

TigerTank
14-04-2016, 14:48
Quello che invece c'è di importante è il fatto che le dx12 hanno subito modifiche per girare pure sulle fermi in quanto avevano un grosso share di mercato nel 2014, circa il 20%, e che quindi probabilmente sarebbero arrivate un anno prima e con un livello superiore di feature... vediamo come andrà a finire...
Diciamo che hanno sempre sfruttato la carta "supporto dx" in anticipo a livello di marketing, non solo con le dx12 ma anche con le 11...con schede date per compatibili sulla scatola già quando tutti i giochi erano ancora in dx9...o dx9 farciti di qualche effetto dx11, vedi unreal engine 3 :D
Tralasciando le dx10 che sono state un mezzo fail.

Si succederà così tranquillo, altrimenti per Pascal non avrebbero rivisto l'architettura a 64 elementi.
Kepler è a 192 elementi(6x32), Maxwell a 128(4x32), Pascal a 64(2 scheduler per 32).
A questo aggiungi la gestione hyper threading delle dx12 con relative code migliorate ed il gioco è fatto.;)

Meglio dirle direttamente che illudere alla fine.
Ecco :sofico:

mikael84
14-04-2016, 15:28
Sicuramente ma é inutile puntare il dito in questo modo ossessivo... Tutti fanno porcate inverosimili.. Vogliamo parlare del supporto crossfire? O del fatto che le schede AMD fossero le regine dello stuttering fino a che nvidia non ha trovato il modo di misurarlo con i test fcat che hanno costretto AMD a mettere in fretta una pezza alla bene e meglio? Eppure fino ad allora i fanboy erano pronti a dirti che non era vero che le loro schede stutteravano come se non ci fosse un domani (e spesso lo fanno ancora specie nel multi gpu)...

Le porcate le fanno tutti basta scegliere quelle che si preferiscono :asd: e basta non essere fanboy e affrontare a volte le cose un po' più dal lato tecnico che sensazionalistico ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Spari alla croce rossa, molti purtroppo non le hanno viste realmente queste cose.
http://www.tomshw.it/articoli/amd-radeon-in-crossfire-e-driver-catalyst-i-miglioramenti-di-amd-51375-p8

La 7970 l'hanno sistemata negli anni.

Questa era la situazione nello stesso periodo con Kepler gk110 e gtx 780
http://www.guru3d.com/articles_pages/palit_geforce_gtx_780_super_jetstream_review,11.html

Io dalle 7970 alle 780 avevo notato quasi un raddoppio dei frame ed una fluidità nettamente migliore, non mi sembrava vero.

Ora AMD ha migliorato notevolmente la situazione ed è ottima in tutto e gode di più longevità vista l'architettura simile.

Diciamo che per noi che cambiano almeno ogni 2 anni (anche meno) ci godiamo il massimo dell'esperienza, diverso magari per chi tiene le schede svariati anni e ad oggi si ritrova in pratica catorci.

Certo, poi 7970-780 ad oggi se guardiamo un 1440p sono entrambe inutili

YesManYes
14-04-2016, 16:29
Si non l'ho specificato ma la tendenza è quella di mettere i dettagli su ultra, comprese ombre etc ed AA a 2x o 4X, a seconda del framerate. Del quale mi piace che si avvicini sempre al refresh del monitor, nel mio caso quindi 100 fps, diciamo compreso tra 80 e 100 frame. La densità di pixel del 4K per ora non mi interessa, è pesantissimo con le tecnologie attuali e preferisco l'angolo di campo maggiore del 21:9 ed avere refresh più elevati.

anche un 21:9 di quelli con la risoluzione più alta e con un frames da sostenere di 80 - 100 non sono uno scherzo... saranno vicini o pari ad un 4K e 60fps come pesantezza
Per ottenere questo risultato oggi, uno sli di 980 Ti è indispensabile. Spero infatti che Pascal, nella sua versione più spinta (GP100), porti la potenza elaborativa ad un livello tale da essere sufficiente per utilizzare a fondo questi nuovi schermi senza dover per forza esborsare grandi cifre per l'acquisto di uno sli. Magari spero in qualcosa di troppo ma non si sa mai..:D

Ho letto qualcosa in giro ed è una roba disastrosa in effetti..

ci farei una scommessa che il GP100 avrà prestazioni vicine ad uno sli di 980ti :asd: ma penso che nel periodo che sarà uscita questa scheda poi ci saranno ancora una volta alcuni giochi tripla A che con le esigenze che hai tu richiederanno uno sli di GP100.... ;)

mr.jack74
14-04-2016, 16:42
anche un 21:9 di quelli con la risoluzione più alta e con un frames da sostenere di 80 - 100 non sono uno scherzo... saranno vicini o pari ad un 4K e 60fps come pesantezza


ci farei una scommessa che il GP100 avrà prestazioni vicine ad uno sli di 980ti :asd: ma penso che nel periodo che sarà uscita questa scheda poi ci saranno ancora una volta alcuni giochi tripla A che con le esigenze che hai tu richiederanno uno sli di GP100.... ;)
Speriamo di no ma può darsi benissimo. Insomma il risultato della nostra fine non cambia, dobbiamo dissanguarci :D

Vediamo, per ora ci godiamo le 980 ti che vanno benissimo..

illidan2000
14-04-2016, 16:54
Certo, poi 7970-780 ad oggi se guardiamo un 1440p sono entrambe inutili

quoto. Ma una sola 970 ormai non basta nemmeno

YesManYes
14-04-2016, 16:58
Insomma il risultato della nostra fine non cambia, dobbiamo dissanguarci :D

specialmente se stai dietro ad Nvidia... :asd:
Vediamo, per ora ci godiamo le 980 ti che vanno benissimo..

ma le 1080 su GP104 andranno meglio ancora...ed allora forse, se sei il classico appassionato che cambia per il modello nuovo e più veloce, tra non molto le sostituirai per un nuovo SLI... :D

fireradeon
14-04-2016, 17:02
Verranno ufficializzate il 6 Maggio.

Grandissimo!!! Grazie per l'informazione!! :)

appleroof
14-04-2016, 20:56
http://www.techpowerup.com/221677/nvidia-readies-three-gp104-pascal-based-skus-for-june-2016

Non so se postata

mikael84
14-04-2016, 21:39
http://www.techpowerup.com/221677/nvidia-readies-three-gp104-pascal-based-skus-for-june-2016

Non so se postata

Si Apple a questo giro sembrano 3, ho speculato un tantino su questi due post:)

http://www.hwupgrade.it/forum/showpost.php?p=43569548&postcount=23497

http://www.hwupgrade.it/forum/showpost.php?p=43569597&postcount=23500

Una scheda, in seguito alla decurtazione perderebbe un GPC e probabilmente si va per i 192bit ad un buon prezzo con le nuove samsung.
Teoricamente ci dovrebbe essere una x60ti o meglio, come in maxwell quella che sarebbe dovuta diventare una 960ti con un GPC disattivato.

Disattivare un GPC, senza altre decurtazioni porterebbe i cuda a 1920, tradotto, vanno come i 2816 maxwell ma c'è una seria ipotesi (speculati) di tagliare a 1664cc, quindi 2304 cuda.

Rimangono però due schede, una full GP104 con 4 gpc ed una che seguirà leggermente decurtata (entrambe superiori a 980ti).:)

Spider-Mans
14-04-2016, 21:49
insomma tirando a ipotizzare

x70 e x80 sono piu probabili a giugno o a settembre? :D

vai mikael illuminaci con una tua previsione

fireradeon
15-04-2016, 10:25
insomma tirando a ipotizzare

x70 e x80 sono piu probabili a giugno o a settembre? :D

vai mikael illuminaci con una tua previsione

giugno c'è scritto sopra

Cmq riguardo il discoro AMD nVidia ormai per scegliere quale comprare non ci basiamo più soltanto sulle preferenze, ma siamo vincolati anche dal monitor, io ad esempio ho un gsynch e prenderò un altro gsynch, ovvio che devo andare di nvidia altrimenti che faccio butto soldi spesi sul monitor?
Putroppo se avevano uno standard comune era meglio.

mircocatta
15-04-2016, 10:53
giugno c'è scritto sopra

Cmq riguardo il discoro AMD nVidia ormai per scegliere quale comprare non ci basiamo più soltanto sulle preferenze, ma siamo vincolati anche dal monitor, io ad esempio ho un gsynch e prenderò un altro gsynch, ovvio che devo andare di nvidia altrimenti che faccio butto soldi spesi sul monitor?
Putroppo se avevano uno standard comune era meglio.

lo standard comune ci sarebbe, il problema sappiamo qual'è

Ubro92
15-04-2016, 12:50
giugno c'è scritto sopra

Cmq riguardo il discoro AMD nVidia ormai per scegliere quale comprare non ci basiamo più soltanto sulle preferenze, ma siamo vincolati anche dal monitor, io ad esempio ho un gsynch e prenderò un altro gsynch, ovvio che devo andare di nvidia altrimenti che faccio butto soldi spesi sul monitor?
Putroppo se avevano uno standard comune era meglio.

Infatti questa cosa dei monitor è veramente un grosso limite, o almeno allo stato attuale, però il costo dei monitor freesync e gsync è cosi alto rispetto a quelli "normali" che obiettivamente è un non problema per la maggior parte degli utenti. Quando diventeranno commerciali e ci sarà maggior domanda di sicuro potrebbe spuntare qualche soluzione che non ti obbliga a cambiare tutto, da vedere anche il discorso DX12 dove ipoteticamente schede amd e nvidia potrebbero lavorare contemporaneamente... (sempre ragionando su se e ma...)

Giovamas
15-04-2016, 13:03
Grandissimo!!! Grazie per l'informazione!! :)

Uhm... leggendo per bene anche io ci sto facendo più di un pensierino. Ma aspetterò la presentazione e qualche volta. Non vendo più prima di cose ufficiali. :)

fireradeon
15-04-2016, 15:18
lo standard comune ci sarebbe, il problema sappiamo qual'è

Infatti questa cosa dei monitor è veramente un grosso limite, o almeno allo stato attuale, però il costo dei monitor freesync e gsync è cosi alto rispetto a quelli "normali" che obiettivamente è un non problema per la maggior parte degli utenti. Quando diventeranno commerciali e ci sarà maggior domanda di sicuro potrebbe spuntare qualche soluzione che non ti obbliga a cambiare tutto, da vedere anche il discorso DX12 dove ipoteticamente schede amd e nvidia potrebbero lavorare contemporaneamente... (sempre ragionando su se e ma...)

Ovvio e ci rimettiamo tutti, perchè poi (almeno così ho sentito) il freesync non funziona bene quanto il gsynch e cmq anche li per sfruttare il freesync mi sembra ci voglia una AMD e con le nVidia non puoi.
Ma se uno ad esempio vuole un monitor 21:9 buono, attualmente il migliore sembra essere l'Asus pg348q (che per l'appunto è quello che sto per prendere io) essendo gsynch la scelta è obbligata.
Per carità io mi trovo da dio con il gsynch quindi sono anche contento, ma mettete che esce una AMD super che va una bomba e costa pure meno delle nvidia, non la posso prendere perchè devo cambiare anche il monitor, ma se anche fossi così pazzo da farlo, magari non posso perchè non esiste uno con le stesse caratteristiche. Ormai siamo nell'assurdo, tutto a causa di un semi-monopolio nelle vga, perchè nVidia se lo può permettere visto che, volente o nolente, detta legge nelle vga desktop, mentre AMD la fa da padrona nel mercato console.

Luca T
15-04-2016, 15:23
Scusate l'OT ma un monitor Gsynch con un AMD crea proprio problemi? o semplicemente si comporta come un monitor normale che con refresh bloccato?

mircocatta
15-04-2016, 15:41
Ovvio e ci rimettiamo tutti, perchè poi (almeno così ho sentito) il freesync non funziona bene quanto il gsynch e cmq anche li per sfruttare il freesync mi sembra ci voglia una AMD e con le nVidia non puoi.


le nvidia potrebbero eccome, il problema è che non vuole! capisco che gsync funziona meglio, ma obbliga anche a chi possiede un freesync, di non acquistare una vga nvidia o al contrario, obbliga a fare anche cambio monitor..Scusate l'OT ma un monitor Gsynch con un AMD crea proprio problemi? o semplicemente si comporta come un monitor normale che con refresh bloccato?
no credo semplicemente che non funzioni

illidan2000
15-04-2016, 17:05
Scusate l'OT ma un monitor Gsynch con un AMD crea proprio problemi? o semplicemente si comporta come un monitor normale che con refresh bloccato?

le nvidia potrebbero eccome, il problema è che non vuole! capisco che gsync funziona meglio, ma obbliga anche a chi possiede un freesync, di non acquistare una vga nvidia o al contrario, obbliga a fare anche cambio monitor..
no credo semplicemente che non funzioni

funziona come un normale monitor, senza sync, ma refresh bloccato

Spider-Mans
15-04-2016, 17:21
giugno c'è scritto sopra



giugno? bene..ottimo

ma a tanti interessano le custom...
delle versioni reference tranne per chi liquida..frega poco xD

tanto dipendera anche dalla domanda.....immagino molto alta..e quanto consistente saranno le quantita offerta al lancio...

fraussantin
15-04-2016, 17:28
Ancora con sta cagata del gsynch che funziona meglio?
Con gsynch si è solo più sicuri che sia stato implementato bene mentre con freesync bisogna accertarsi che il produttore del monitor lo abbia fatto bene.
Allo stato dell'arte funzionano bene entrambi.
Comprare un monitor è diventato più complicato che assemblarsi un pc.

A meno di non cacciare fuori cifre esorbitanti( ed a volte non è escluso) l'in:ciapet:ta è sempre pronta.

Poi ci si domanda perché la gente compra verde.

fraussantin
15-04-2016, 17:43
In realtà l'unica cosa su cui vai sul sicuro con gsync è l'overdrive, devi comunque informarti sulle frequenze, sui tempi di risposta e mille altre cose esattamente come su tutti gli altri monitor.
Curiosità , ma l'overdrive lo calcola bene anche se non c'è una VGA verde ?

Luca T
15-04-2016, 17:58
funziona come un normale monitor, senza sync, ma refresh bloccato

Ah ok, allora nel caso poi mi funziona normalmente.

Quindi al momento il dilemma mi rimane se passare al 21:9 oppure rimanere col 4K

Legolas84
15-04-2016, 19:13
le nvidia potrebbero eccome, il problema è che non vuole! capisco che gsync funziona meglio, ma obbliga anche a chi possiede un freesync, di non acquistare una vga nvidia o al contrario, obbliga a fare anche cambio monitor..
no credo semplicemente che non funzioni

Purtroppo il prezzo da pagare in questo caso per avere un sistema che funziona meglio è che sia chiuso e che NVIDIA abbia il totale controllo dello stesso.... altrimenti sarebbe come con il FreeSync....

Luca T
15-04-2016, 22:43
io per si e per no ho venduto, ancora che si riesce a vendere bene e con una vga muletto aspetto comodo comodo sia nvidia che amd :O

Però non giochi per 3 mesi :Prrr:

TigerTank
15-04-2016, 22:47
Però non giochi per 3 mesi :Prrr:

Infatti io sinceramente non riuscirei mai a fare così...vendere adesso significa aspettare 2 mesi. Se poi vuoi evitare di lanciarti sui primi lotti al day one ma prima vedere tutti i vari modelli custom, far maturare un minimo i drivers e accertarti che non ci siano sorpresine sgradite(tipo regolatori di voltaggio bloccati, overvolt inutili, ecc...) passano altri 2-3 mesi.

Luca T
15-04-2016, 22:53
Infatti io sinceramente non riuscirei mai a fare così...vendere adesso significa aspettare 2 mesi. Se poi vuoi evitare di lanciarti sui primi lotti al day one ma prima vedere tutti i vari modelli custom, far maturare un minimo i drivers e accertarti che non ci siano sorpresine sgradite(tipo regolatori di voltaggio bloccati, overvolt inutili, ecc...) passano altri 2-3 mesi.

Ogni volta dico sempre di vendere prima dell'uscita per ottimizzare le perdite ed alla fine non lo faccio mai! :cry:

Poi non so se aspettare direttamente Pasqualone, anche se Mikael spesso mi tenta!

TigerTank
15-04-2016, 23:05
Ogni volta dico sempre di vendere prima dell'uscita per ottimizzare le perdite ed alla fine non lo faccio mai! :cry:

Poi non so se aspettare direttamente Pasqualone, anche se Mikael spesso mi tenta!

Nemmeno io...ma perlomeno ti eviti dei mesi di magra forzata e di restarci ulteriormente se ti arriva una nuova vga difettosa. Io sinceramente compro prima il nuovo anche per questo.
Circa pasqualone spero esca qualche informazione attendibile per tempo, perchè se per dire prendessi una gtx1080 e dopo 6 mesi mi uscisse la Ti, cioè la scheda che mi interessa di più, mi scoccerebbe non poco...e a quel punto a saperlo in anticipo, svalutazione per svalutazione, tanto varrebbe tirare con l'attuale Ti fino alla nuova Ti, smaltendo un pò di titoli arretrati.

Luca T
15-04-2016, 23:22
Nemmeno io...ma perlomeno ti eviti dei mesi di magra forzata e di restarci ulteriormente se ti arriva una nuova vga difettosa. Io sinceramente compro prima il nuovo anche per questo.
Circa pasqualone spero esca qualche informazione attendibile per tempo, perchè se per dire prendessi una gtx1080 e dopo 6 mesi mi uscisse la Ti, cioè la scheda che mi interessa di più, mi scoccerebbe non poco...e a quel punto a saperlo in anticipo, svalutazione per svalutazione, tanto varrebbe tirare con l'attuale Ti fino alla nuova Ti, smaltendo un pò di titoli arretrati.

Io devo smaltire anche almeno una decina di titoli per PS3 e PS4 solo che stare da qui a Q1 2017 senza PC mi scassa

illidan2000
15-04-2016, 23:30
Io devo smaltire anche almeno una decina di titoli per PS3 e PS4 solo che stare da qui a Q1 2017 senza PC mi scassa

pigliati una 670 dal mercatino e tiri avanti... :)

mikael84
15-04-2016, 23:36
pigliati una 670 dal mercatino e tiri avanti... :)

Venderle dopo Pascal significa buttare 300 euro almeno, venderle prima significa farsi almeno 2/3 mesi con una VGA provvisoria.

Luca T
15-04-2016, 23:39
pigliati una 670 dal mercatino e tiri avanti... :)

Si a 4K la uso per Pacman :D

Venderle dopo Pascal significa buttare 300 euro almeno, venderle prima significa farsi almeno 2/3 mesi con una VGA provvisoria.

Eh ma 2/3 Per le 1080 per le 1080Ti almeno 6/7 (se escono q1-2017 sono anche 8-9 mesi)

mikael84
15-04-2016, 23:52
Si a 4K la uso per Pacman :D



Eh ma 2/3 Per le 1080 per le 1080Ti almeno 6/7 (se escono q1-2017 sono anche 8-9 mesi)

Per le 1080ti non prima del 2017. Inoltre qua bisogna vedere, se disegnano un 384bit 12gb o anche questo sarà completamente con HBM come gp100 pro.
Una cosà sarà sicura, GP100/102 gaming spingerà tanto, ma talmente tanto che per via dei clock doppierà due 980ti (salvo pesanti decurtazioni).

Luca T
15-04-2016, 23:54
Per le 1080ti non prima del 2017. Inoltre qua bisogna vedere, se disegnano un 384bit 12gb o anche questo sarà completamente con HBM come gp100 pro.
Una cosà sarà sicura, GP100/102 gaming spingerà tanto, ma talmente tanto che per via dei clock doppierà due 980ti (salvo pesanti decurtazioni).

Certo che te a tentare la gente ti viene proprio bene eh :D

mikael84
16-04-2016, 00:00
Certo che te a tentare la gente ti viene proprio bene eh :D

Vi dico le cose come stanno, poi chiaramente la scimmia sale di conseguenza.
I clock inoltre saranno molto molto elevati, non mi stupirei di vedere toccare i 2ghz con qualche multifase (o almeno avvicinarsi).

Luca T
16-04-2016, 00:14
Vi dico le cose come stanno, poi chiaramente la scimmia sale di conseguenza.
I clock inoltre saranno molto molto elevati, non mi stupirei di vedere toccare i 2ghz con qualche multifase (o almeno avvicinarsi).

Azzarola! :eek:

Secondo te guadagno rispetto allo SLI di 980Ti?

mr.jack74
16-04-2016, 00:23
Lo so che forse confido in troppo, ma comunque mi piace pensare di potermi fare in futuro (diciamo fine anno)un bel mini itx che va come il mio ATX con sli di TI oggi. Credo anch'io che non ci sarà molta differenza casomai. Le prerogative per il decollo delle prestazioni ci sono tutte..

YesManYes
16-04-2016, 08:47
mi piace pensare di potermi fare in futuro (diciamo fine anno)

magari si... ma come GP100 dovresti comprare una Titan... mentre quella che sostituirà la 980Ti penso che uscirà durante i primi mesi del 2017

secondo me le GP104 come minimo, avranno almeno 8 mesi di vita da top di gamma incontrastate...

fraussantin
16-04-2016, 10:22
NVidia non mi sembra intenzionata a fixare via SW le carenze architetturali di Maxwell ne tanto meno a farne driver specifici ora che a breve butta fuori pascal con architettura ben diversa. Le 980ti non faranno schifo, ovvio, ma vederle insediate da gcn di qualche anno fa mi farebbe girare non poco le scatole, quindi per ora che si monetizza bene, ho venduto. Tra due mesi si rischia che valgano 350€, magari no, ma non sono disposto a correre il rischio....

Una rondine non fa primavera ma ogni giorno esce unbench nuovo dx12 (per altro alle prime implementazioni) e Maxwell non lo vedo bene
Maxwell non andrà bene in dx 12. È un dato di fatto e si sapeva.

Imho spingeranno le ti e le titan ( aiutandole anche col driver ) perchè possono recuperare avendo potenza da vendere.

Ma le 970 e le 980 non credo che andranno bene. ( spinta o non spinta)

Ma Magari togliendo effetti particolari e cavolate ,60 fps si faranno cmq.

Io non mi fascerei la testa prima di picchiarla perche imho quando ci saranno titoli dx 12 meritevoli staremo già parlando di come sarà vega.

mikael84
16-04-2016, 11:04
Azzarola! :eek:

Secondo te guadagno rispetto allo SLI di 980Ti?

Lo so che forse confido in troppo, ma comunque mi piace pensare di potermi fare in futuro (diciamo fine anno)un bel mini itx che va come il mio ATX con sli di TI oggi. Credo anch'io che non ci sarà molta differenza casomai. Le prerogative per il decollo delle prestazioni ci sono tutte..


Vi aggiungo un'altro dato.

Prendete una 980ti portatela a 1900mhz con il boost base (impossibile ok), ecco avrete la stessa potenza matematica di GP100 full 3584cuda.
Questo è solo un dato a pari architettura, a cui si aggiungono migliorie ai registri, alla cache, alla banda, ecc.
Non da meno e decisamente importante, le ottimizzazioni per Pascal.
Quando debutterà questo chip, sicuramente alcuni giochi saranno avvantaggiati da tale posizionamento architetturale.

Arrow0309
16-04-2016, 11:48
Vi aggiungo un'altro dato.

Prendete una 980ti portatela a 1900mhz con il boost base (impossibile ok), ecco avrete la stessa potenza matematica di GP100 full 3584cuda.
Questo è solo un dato a pari architettura, a cui si aggiungono migliorie ai registri, alla cache, alla banda, ecc.
Non da meno e decisamente importante, le ottimizzazioni per Pascal.
Quando debutterà questo chip, sicuramente alcuni giochi saranno avvantaggiati da tale posizionamento architetturale.

Secondo te una 1080 con GDDR5X (anche reference) + un wubbo (quello che esce prima, l'EK insomma) quando la potrei comprare qui in UK come previsione minima? :p

Obrigado
16-04-2016, 11:49
Secondo te una 1080 con GDDR5X (anche reference) + un wubbo (quello che esce prima, l'EK insomma) quando la potrei comprare qui in UK come previsione minima? :p

700€

mikael84
16-04-2016, 11:53
Secondo te una 1080 con GDDR5X (anche reference) + un wubbo (quello che esce prima, l'EK insomma) quando la potrei comprare qui in UK come previsione minima? :p

Le dovrebbero ufficializzare il 6 maggio (almeno è quanto riportato da qualcuno). La vendita dovrebbe partire da giugno-luglio e quindi anche in UK.

Marscorpion
16-04-2016, 12:55
700€

Quoto, 550 € circa di vga + un 150 € tra waterblock e bacplate !

Legolas84
16-04-2016, 13:04
Io spero che escano le strix sbloccate come accade in principio per gm204... (le bloccarono successivamente)...

Inviato dal mio ONE A2003 utilizzando Tapatalk

fireradeon
16-04-2016, 13:55
Il wb della gigabyte g1 gaming 980ti costa 104 euro da ek e parliamo di full cover. Immagino che sia sempre li anche per la 1080.
La 1080 costerá 550 euro senza le ddr5x ma con le ddr5x secondo me la mettono a 650 in partenza se va piú di una 980ti e ha 8gb difficile costi meno!

ste-87
16-04-2016, 14:43
La 1080 costerá 550 euro senza le ddr5x ma con le ddr5x secondo me la mettono a 650 in partenza se va piú di una 980ti e ha 8gb difficile costi meno!

credo che 550€ sia un prezzo di listino molto papabile guardando alle ultime 4-5 generazioni di schede video per la fascia che ricopre, con le gddr5x che alla fine a loro non costeranno quasi niente di più delle vecchie e normali gddr5

Che poi, tra dissipatori/pcb multifase custom si possa arrivare poi a 600-650€ a seconda dei modelli/brand ci stà, specialmente per i primi mesi, ma non a 650 di partenza come listino solo perchè monta memorie migliori ma dalla differenza di costo per loro irrisoria...

fireradeon
16-04-2016, 14:50
credo che 550€ sia un prezzo di listino molto papabile guardando alle ultime 4-5 generazioni di schede video per la fascia che ricopre, con le gddr5x che alla fine a loro non costeranno quasi niente di più delle vecchie e normali gddr5

Che poi, tra dissipatori/pcb multifase custom si possa arrivare poi a 600-650€ a seconda dei modelli/brand ci stà, specialmente per i primi mesi, ma non a 650 di partenza come listino solo perchè monta memorie migliori ma dalla differenza di costo per loro irrisoria...

Dimentichi il nuovo processo produttivo e che monta 8GB andando anche più della 980Ti, mettici anche l'effetto novità e il trend al rialzo degli ultimi anni, quindi credo che 600/650 sia la partenza (poi si assesterà sui 550 dopo il solito mese), meno lo vedo difficile.
Poi se hai ragione tu e siamo a 550 all'uscita ci metterei la firma anche io, conta che se i rumor e le supposizioni fatte qui sul forum sono indovinate, mi faccio un bello sli quindi meno costa meglio è per me.

Nurabsa
16-04-2016, 15:05
Vi dico le cose come stanno, poi chiaramente la scimmia sale di conseguenza.
I clock inoltre saranno molto molto elevati, non mi stupirei di vedere toccare i 2ghz con qualche multifase (o almeno avvicinarsi).

mi sembra tanto anche per una super custom se parliamo di aria
per il totoGhz sarei piu per i 1700 a straculoasic è chiaro ;)

mikael84
16-04-2016, 15:10
mi sembra tanto anche per una super custom se parliamo di aria
per il totoGhz sarei piu per i 1700 a straculoasic è chiaro ;)

GP 104 parte da 1480 in boost base, quindi boosterà in 2,0 ad almeno 1600 reference. Chip da 610mm2 e con rese ancora da verificare (e questo è già stato comunicato).

GP104 essendo chip molto più piccoli, meno della metà sicuramente partiranno in boost base da almeno 1550, ciò si traduce in almeno 1650 reference.;)

Le classified GM204 in overvolt tenevano i 1700-1800, guarda nel mio thread 3dmark.

Se boostano reference a 1600 o sopra, tieni presente il divario custom e il relativo OC che non sarà di 50 mhz.

Dopo anni c'è un cambio PP.;)

eXeS
16-04-2016, 15:11
Dimentichi il nuovo processo produttivo e che monta 8GB andando anche più della 980Ti, mettici anche l'effetto novità e il trend al rialzo degli ultimi anni, quindi credo che 600/650 sia la partenza (poi si assesterà sui 550 dopo il solito mese), meno lo vedo difficile.
Poi se hai ragione tu e siamo a 550 all'uscita ci metterei la firma anche io, conta che se i rumor e le supposizioni fatte qui sul forum sono indovinate, mi faccio un bello sli quindi meno costa meglio è per me.

In effetti è difficile fare una previsione, visto che le variabili sono tante, al lancio di kepler la 680 aveva un MRSP di 499$ esattamente come quello della 580, se ripetono la stessa cosa la 1080 potrebbe avere un MRSP di 649$, come quello della 980ti, e quindi se 4 anni fa una scheda con una GPU con die-size analogo a quello di GF104 e GF114 riuscirono a venderla al doppio, GF104 e 114 erano su schede di fascia 249$, oggi riuscirebbero a lucrarci un ulteriore 30% rispetto a GK104 :muro:

Obrigado
16-04-2016, 15:20
In effetti è difficile fare una previsione, visto che le variabili sono tante, al lancio di kepler la 680 aveva un MRSP di 499$ esattamente come quello della 580, se ripetono la stessa cosa la 1080 potrebbe avere un MRSP di 649$, come quello della 980ti, e quindi se 4 anni fa una scheda con una GPU con die-size analogo a quello di GF104 e GF114 riuscirono a venderla al doppio, GF104 e 114 erano su schede di fascia 249$, oggi riuscirebbero a lucrarci un ulteriore 30% rispetto a GK104 :muro:

esatto.....

triste cosa...

Nurabsa
16-04-2016, 15:30
GP 104 parte da 1480 in boost base, quindi boosterà in 2,0 ad almeno 1600 reference. Chip da 610mm2 e con rese ancora da verificare (e questo è già stato comunicato).

GP104 essendo chip molto più piccoli, meno della metà sicuramente partiranno in boost base da almeno 1550, ciò si traduce in almeno 1650 reference.;)

Le classified GM204 in overvolt tenevano i 1700-1800, guarda nel mio thread 3dmark.

Se boostano reference a 1600 o sopra, tieni presente il divario custom e il relativo OC che non sarà di 50 mhz.

Dopo anni c'è un cambio PP.;)

ti aggiorno appena mi arriva pascal ti kpe :p

anche fermi era cambio pp tutto bello sulla carta, fin che non esce non mi fido.
A naso punterei piu su Volta lo vedo come la 580 o fermi 2.0 ai tempi, anche se pascal è un maxwell più dx12 friendly.

Luca T
16-04-2016, 15:32
Se come muletto ha una HD5870 come mi pare di capire può giocare benissimo ad un sacco di giochi, certo non i tripla a della grafica degli ultimi anni, ma non ci sono solo quelli.

Si ma a che res?

Da qualche parte la vecchia 5870 ce l'ho sempre e sul muretto c'e un cross di 7970 ma a 4K che ci faccio?

NVidia non mi sembra intenzionata a fixare via SW le carenze architetturali di Maxwell ne tanto meno a farne driver specifici ora che a breve butta fuori pascal con architettura ben diversa. Le 980ti non faranno schifo, ovvio, ma vederle insediate da gcn di qualche anno fa mi farebbe girare non poco le scatole, quindi per ora che si monetizza bene, ho venduto. Tra due mesi si rischia che valgano 350€, magari no, ma non sono disposto a correre il rischio....

Una rondine non fa primavera ma ogni giorno esce unbench nuovo dx12 (per altro alle prime implementazioni) e Maxwell non lo vedo bene

Scusa ma al momento le 980Ti usate a quanto stanno?

mikael84
16-04-2016, 15:40
ti aggiorno appena mi arriva pascal ti kpe :p

anche fermi era cambio pp tutto bello sulla carta, fin che non esce non mi fido.
A naso punterei piu su Volta lo vedo come la 580 o fermi 2.0 ai tempi, anche se pascal è un maxwell più dx12 friendly.

Fermi era un mostro, tralasciando calore e consumi e con l'affinamento (gtx 580) hanno fatto un'ottimo lavoro.:)
Con Pascal, le rese ancora non si conoscono ma i clock saranno molto molto alti.
Già con i 28hpm Maxwell hanno fatto miracoli, schede che arrivano anche a 1600, quando Kepler arrivava a 1200-1300.

fraussantin
16-04-2016, 16:14
Secondo me se uno ha i soldi per godersi un 4k e 1000 euro di schede , non dovrebbe stare a soffrire per 3 mesi per speculare al massimo 100 euro sull'usato.

Questa a casa mia la chiamano tirchieria.

Luca T
16-04-2016, 16:16
Si in effetti hai fatto una mossa furba :)



AMD questa volta a fatto schede molto più longeve, non è detto che sarà ancora così però si parla ancora di GCN :D



Ma che scoperte, è ovvio che non si parla di giocare a 4k, però in fullhd non se la cavano male.
Ora non ricordo le serie 5000 ma le 6000 che sono un'architettura simile hanno un pixel rate più alto rispetto alle nuove generazioni con prestazioni simili, per cui giocare in fullhd non è certo un problema.

Se ero sempre in fullHD non avrei preso uno SLI di 980Ti

Luca T
16-04-2016, 16:17
Secondo me se uno ha i soldi per godersi un 4k e 1000 euro di schede , non dovrebbe stare a soffrire per 3 mesi per speculare al massimo 100 euro sull'usato.

Questa a casa mia la chiamano tirchieria.

Se uno i soldi li butta via quando può risparmiarli non li metterà mai da parte ;)

Non è un discorso di averli, non averli o tirchieria ma di principio

YesManYes
16-04-2016, 16:38
hai fatto una cosa logica

Luca T
16-04-2016, 16:54
Ma di che stiamo parlando? Te lo hai capito?
Ha venduto la sua 980ti adesso perché sono ancora ad un buon prezzo, chiaro che nel frattempo si accontenta del fullhd.

Se vuoi continuare a giocare in 4k tieniti le 980ti chi ti ha detto di fare altrimenti?

Sorvolando sul fatto che in media i possessori di 980Ti non stiano più in fullHD, una 5870 non basta nemmeno per un fullHD (ovviamente a 60fps) a meno di giochi di svariati anni fa!
Ps:e lui è a 2560 x 1080

ah ovvio, ma per sfortuna non ho ne i soldi, ne il 4k, ne posso permettermi 1000 euro di schede. Mi tengo ben alla larga da 4k o altro perchè significherebbe dover buttare soldoni sul pc per poter gestire bene quelle risoluzioni, 1080p 60fps mi vanno benissimo. se poi ho una vga tosta che mi permette di caricare tutti i filtri ed i dettagli al massimo mi va ancora meglio :)

sono arrivato alla 980ti nel seguente modo.

a settembre 2015 ho comprato una 970 usata a 270€, l'ho rivenduta dopo un pò per comprare una 980 sermpre usata mettendo la differenza. La 980 dopo un pò l'ho scambiata con la 980ti mettendo la differenza. Oggi ho venduto la 980ti. Tra quanto ho speso dalla 970 + le differenze per arrivare alla 980ti a quanto ho guadagnato vendendo la 980ti, ci ho rimesso, da settembre 2015 la bellezza di 50€... 50€ spalmati in 6 o 7 mesi per godere di belle schedozze, capirai...penso mi sia convenuto no? :)

oh cmq qua non voglio convincere nessuno, ho solo detto quello che ho fatto, se volete tenerle tanto meglio per voi, io ho preferito vendere e con una vga muletto mi accontento per qualche mese, anche perchè come ho già detto quello che mi dovevo finire lo ho finito e gioco soltanto a rocket league che gira alla grande anche con la 5870 :D

Era un ragionamento in generale, non si è certo qui per fare i conti in tasca a nessuno ne per farsi i cavoli privati di nessuno :D

ste-87
16-04-2016, 17:14
Dimentichi il nuovo processo produttivo e che monta 8GB andando anche più della 980Ti, mettici anche l'effetto novità e il trend al rialzo degli ultimi anni, quindi credo che 600/650 sia la partenza (poi si assesterà sui 550 dopo il solito mese), meno lo vedo difficile.
Poi se hai ragione tu e siamo a 550 all'uscita ci metterei la firma anche io, conta che se i rumor e le supposizioni fatte qui sul forum sono indovinate, mi faccio un bello sli quindi meno costa meglio è per me.

parlo di prezzo di listino a 549$ che dovrebbe riflette il valore indicativo delle reference una volta stabilizzato il prezzo, poi come detto sopra tra effetto novità/speculazione, il fatto che sia la top (temporanea dato che non va a sostituire direttamente la 980Ti, ma la 980), dissipatori/pcb custom, etc ad arrivare a 600-650€ di street price per comprarla ci si arriva per carità...se partissero da 650€ di listino considerando i fattori sopra a meno di 700-750€ non si comprerebbe nulla all'atto pratico e non si sono mai trovati questi prezzi nelle altre generazioni per una scheda della sua fascia di appartenenza, nonostante ciclicamente ci sia il solito timore che andando di più, dovrà costare di più rispetto a quello che stà sorpassando in prestazioni.

Alla fine basta scrivere "geforce 4xx/5xx/6xx/7xx/9xx wiki" e vedi a quanto venivano prezzate di listino al lancio le schede di 5 generazioni differenti...ti rendi conto da solo che, salvo variazioni minime (in basso o in alto) c'è un range entro il quale sono sempre stati i prezzi per ogni fascia di appartenenza delle schede

GP 104 parte da 1480 in boost base, quindi boosterà in 2,0 ad almeno 1600 reference. Chip da 610mm2 e con rese ancora da verificare (e questo è già stato comunicato).

GP104 essendo chip molto più piccoli, meno della metà sicuramente partiranno in boost base da almeno 1550, ciò si traduce in almeno 1650 reference.;)

Le classified GM204 in overvolt tenevano i 1700-1800, guarda nel mio thread 3dmark.

Se boostano reference a 1600 o sopra, tieni presente il divario custom e il relativo OC che non sarà di 50 mhz.

Dopo anni c'è un cambio PP.;)

perfettamente d'accordo, considerando che una custom 970 in oc daily use stà sui 1500-1550 effettivi sul core partendo da un 1178Mhz di base boost clock delle reference, se si considera uno scarto analogo è facile arrivare ai 1800-1850Mhz

deadbeef
16-04-2016, 17:26
una 970 in oc daily a 1600-1650? Forse avresti dovuto scrivere "considerando che la mia.."

Luca T
16-04-2016, 17:27
E infatti cosa ho scritto io?

Si ma secondo te per quali giochi gli può bastare a quella risoluzione? Indie?

ste-87
16-04-2016, 17:30
una 970 in oc daily a 1600-1650? Forse avresti dovuto scrivere "considerando che la mia.."


errore di battitura 1500-1550...correggo :sofico:

Luca T
16-04-2016, 17:40
Ma perché ci dannate se la 5870 mi basta o no lol, è come andare dal gelataio chiedere un cono bigusto e sentirsi dire "non ci sta" ma caxxo me lo devo mangiare io o tu lol

Hahahha si sì ovvio, rispondevo solo a lui che sosteneva in scioltezza che basta per un sacco di giochi

Arrow0309
16-04-2016, 18:15
Si ma a che res?

Da qualche parte la vecchia 5870 ce l'ho sempre e sul muretto c'e un cross di 7970 ma a 4K che ci faccio?



Scusa ma al momento le 980Ti usate a quanto stanno?
Ma vuoi paragonare il cross di 7970 alla 5870 singola, lol
La risposta per il 4K e' semplice, ci si gioca anche a 1440p lo stesso :asd:

Luca T
16-04-2016, 18:21
altra alternativa potrei dare via una 7970 ed una 980 ti e mettere nel muletto la 980ti rimanente :D

Devourer88
16-04-2016, 20:55
Io attendo la nuova titan perché quasi tutti i videogame di oggi purtroppo non sopportano più lo sli (console porting) e quindi a risoluzione piena di 5mpx me ne faccio ben poco di una singola pascal castrata, anche se di poco. La tendenza è questa e come la memoria ram anche i gb di vram adesso servono come il pane. Batman mi stuttera perché satura la vram occata ed arriva a 4,3gb di utilizzo.

La titan avrà sicuro l'hmb2?

Obrigado
16-04-2016, 21:03
Io attendo la nuova titan perché quasi tutti i videogame di oggi purtroppo non sopportano più lo sli (console porting) e quindi a risoluzione piena di 5mpx me ne faccio ben poco di una singola pascal castrata, anche se di poco. La tendenza è questa e come la memoria ram anche i gb di vram adesso servono come il pane. Batman mi stuttera perché satura la vram occata ed arriva a 4,3gb di utilizzo.

La titan avrà sicuro l'hmb2?

si, e cmq hai tristemente ragione.

Crysis90
16-04-2016, 21:32
Io attendo la nuova titan perché quasi tutti i videogame di oggi purtroppo non sopportano più lo sli (console porting) e quindi a risoluzione piena di 5mpx me ne faccio ben poco di una singola pascal castrata, anche se di poco. La tendenza è questa e come la memoria ram anche i gb di vram adesso servono come il pane. Batman mi stuttera perché satura la vram occata ed arriva a 4,3gb di utilizzo.

La titan avrà sicuro l'hmb2?

Ringrazia le scatolette e Microsoft. Siamo costretti a sborsare fortune per riuscire a far girare decentemente dei porting che sulle console, per assurdo, girano anche meglio. :mc: :mc: :doh:

fraussantin
16-04-2016, 21:36
e pensa le 970 che fine hanno già fatto con il loro problemuccio sulla gestione della vram..
Che fine hanno fatto?

beatl
16-04-2016, 21:39
Io attendo la nuova titan perché quasi tutti i videogame di oggi purtroppo non sopportano più lo sli (console porting) e quindi a risoluzione piena di 5mpx me ne faccio ben poco di una singola pascal castrata, anche se di poco. La tendenza è questa e come la memoria ram anche i gb di vram adesso servono come il pane. Batman mi stuttera perché satura la vram occata ed arriva a 4,3gb di utilizzo.

La titan avrà sicuro l'hmb2?


Quasi tutti non direi .. anzi, i titoli che non lo supportano sono una minoranza.

Devourer88
16-04-2016, 21:50
Quasi tutti non direi .. anzi, i titoli che non lo supportano sono una minoranza.

Bho il 3dvision è morto silenziosamente. Chi te lo dice che non succederà la stessa cosa con lo sli?
Tutto successe così..... Prima ci furono titoli ben ottimizzati..... poi arrivarono i titoli che avevano una scalabilità media ed ora non li supportano proprio (vedi quantum break o batman 4)

Marscorpion
16-04-2016, 22:07
Bho il 3dvision è morto silenziosamente. Chi te lo dice che non succederà la stessa cosa con lo sli?
Tutto successe così..... Prima ci furono titoli ben ottimizzati..... poi arrivarono i titoli che avevano una scalabilità media ed ora non li supportano proprio (vedi quantum break o batman 4)

Stavo facendo l'altro giorno lo stesso ragionamento; ho controllato i giochi a cui ho giocato nell'ultimo anno e su 25 titoli 7 non supportavano lo SLI e 13 supportavano lo SLI ma avrei potuto giocare al massimo degli fps del mio monitor ( ROG PG278Q) anche con una sola GTX980.
Quindi alla fine ho beneficiato dello SLI solo in 5 titoli su 25; un po' poco se paragonato ad una spesa di 500 e passa € che mi è costata la seconda vga all'epoca.
Stò pensando seriamente di passare a singola vga dopo vari anni di SLI e crossfire.

fraussantin
16-04-2016, 22:18
la fine che ormai sono molti i titoli (vuoi perchè non ottimizzati o perchè pesanti) che già in fullhd maxato si tirano 4gb di vram o più o perchè la saturano proprio o perchè la allocano. Ed avere 3.5gb di vram veloci e 512mb lenti, ti darà forse gli stessi fps (la furbata di usare fraps dopo averla menata con fcat per dimostrare che "gli fps sono gli stessi") ma non la stessa fluidità di >4gb di vram.

vedi dying light, tomb rider, batman, cod black ops 3 etc etc etc, non certo giochini.

ora mettici pure che maxwell fa la fine che deve fare... queste 970, A MIO PARERE (nota bene, il mio parere non vuole essere verità insindacabile ne non vuole offendere nessuno, esprime solo una mia considerazione sulla base del fatto che ho anche io avuto una 970 ed ho avuto modo di testarla), sono durate pochino, adesso per quanto mi riguarda sono vga molto limitate che non consentono neanche di fare uno sli buono visto che se fai uno sli lo fai per giocare oltre il fullhd e già qui molti giochi la mettono in difficoltà lato vram...

poi oh vale sempre il detto, se siete soddisfatti, lo siamo tutti, come ho già detto è il mio parere.... quando dissi che mantle era una sorta di cavallo di troia di amd per pilotare lo sviluppo delle api close to metal mi dissero che mantle era un fail (e mantle è stato sviluppato fino a diventare vulkan), quando dissi che le dx12 erano quasi una copia di mantle mi dissero che nvidia ci lavorava da 3 anni sulle dx12 (e stiamo vedendo con che risultati....forse avevano una loro copia speciale mai implementata e pascal non sembra implementare gli ACE), quando dissi che le console su base amd avrebbero pilotato gli engine a girare bene su gcn mi dissero che era fuffa (e siamo passati dai driver amd hotfix ad i driver nvidia gameready che prima non c'erano...), quando dissi che la xbox one avendo hw amd ed avendo da implementare anche solo per ragioni di marketing le dx12 avrebbe sfruttato le caratteristiche di gcn come base per definirle mi dissero che era fantascienza...

io dico solo la mia, il tempo mi darà o non mi darà ragione o torto.
In full hd non li superi. Ed anche se li superi non struttura piu con gli ultimi driver. I problemi son altri.

Ci tenevo a specificare perche questa disinformazione che si è creata attorno a quel mezzo giga mi aveva messo in dubbio anche a me prima di comprarla.

In realtà con una vga singola il problema a non si pone. ( con 2 a risoluzioni alt3 probabilmente si )


http://uploads.tapatalk-cdn.com/20160416/5b088a79b7e5aa3a1f1579c3642dce8a.jpg
http://uploads.tapatalk-cdn.com/20160416/f341b1412ac66871b30c296bf7ce2d62.jpg

Come vedi in tutto il video sta su 3.5 giga .

Ma non li usa tutti. Se ci sono i cali ci sono perché la vga sta al 99% per via dei filtri pesantissimi.

Quindi evitiamo di fare disinformazione.

jok3r87
16-04-2016, 22:27
la fine che ormai sono molti i titoli (vuoi perchè non ottimizzati o perchè pesanti) che già in fullhd maxato si tirano 4gb di vram o più o perchè la saturano proprio o perchè la allocano. Ed avere 3.5gb di vram veloci e 512mb lenti, ti darà forse gli stessi fps (la furbata di usare fraps dopo averla menata con fcat per dimostrare che "gli fps sono gli stessi") ma non la stessa fluidità di >4gb di vram.

vedi dying light, tomb rider, batman, cod black ops 3 etc etc etc, non certo giochini.

ora mettici pure che maxwell fa la fine che deve fare... queste 970, A MIO PARERE (nota bene, il mio parere non vuole essere verità insindacabile ne non vuole offendere nessuno, esprime solo una mia considerazione sulla base del fatto che ho anche io avuto una 970 ed ho avuto modo di testarla), sono durate pochino, adesso per quanto mi riguarda sono vga molto limitate che non consentono neanche di fare uno sli buono visto che se fai uno sli lo fai per giocare oltre il fullhd e già qui molti giochi la mettono in difficoltà lato vram...

poi oh vale sempre il detto, se siete soddisfatti, lo siamo tutti, come ho già detto è il mio parere.... quando dissi che mantle era una sorta di cavallo di troia di amd per pilotare lo sviluppo delle api close to metal mi dissero che mantle era un fail (e mantle è stato sviluppato fino a diventare vulkan), quando dissi che le dx12 erano quasi una copia di mantle mi dissero che nvidia ci lavorava da 3 anni sulle dx12 (e stiamo vedendo con che risultati....forse avevano una loro copia speciale mai implementata e pascal non sembra implementare gli ACE), quando dissi che le console su base amd avrebbero pilotato gli engine a girare bene su gcn mi dissero che era fuffa (e siamo passati dai driver amd hotfix ad i driver nvidia gameready che prima non c'erano...), quando dissi che la xbox one avendo hw amd ed avendo da implementare anche solo per ragioni di marketing le dx12 avrebbe sfruttato le caratteristiche di gcn come base per definirle mi dissero che era fantascienza...

io dico solo la mia, il tempo mi darà o non mi darà ragione o torto.
All'epoca del uscita delle 9x0 amd aveva le 2x0 e mi sembra che le nvidia andassero meglio solo ultimamente il gap si è ridotto. Ma ora che i primi giochi dx12 stanno uscendo, nvidia presenta delle schede con un'architettura e una potenza adatta a nuovi giochi. Le 290 e le fury avranno anche il gcn ma non la potenza per restare al top con i nuovi giochi. Inoltre le fury sono uscite dopo le 980quindi non potevi scegliere tra le due.

Inviato dal mio SM-G920F utilizzando Tapatalk

fraussantin
16-04-2016, 22:32
prova i giochi che ti ho detto e vedi che li superi se spari il fullhd maxato...

https://scontent-mxp1-1.xx.fbcdn.net/hphotos-xpa1/t31.0-8/s2048x2048/12916943_999320200150035_4802032572522734810_o.jpg

questo è mxgp2, maxato (sulla ti) in 2560x1080... un giochino del menga e guarda a quanto è la vram...(ma qui non ti da problemi perchè il gioco è leggero) è chiaro che il non-problema non sempre si manifesta in modo evidente o su tutti i giochi che sforano i 3.5gb di vram... però certo non è bello giocare alla roulette russa. Non è questione di driver, il driver può al massimo limitare l'accesso alla parte "lenta" facendo un magheggio con buoni risultati per certi aspetti, ma il problema sta in hardware
2560 x1080 non è full hd XD

E potresti avere il problema.

Ma sicuramente i cali li avrai perché la vga non basta con tutto maxato. . Come non basta una 290 .

fraussantin
16-04-2016, 22:37
finiamola qua, mi da fastidio ad essere chiamato disinformatore, io ho avuto 3 maxwell (970, 980 e 980ti, impostate tutte alle stesse frequenze) e le ho comparate tutte con i miei occhi. Goditi la tua vga e bon.
Non ti volevo offendere.
Solo che quando dovevo comprare la vga 1 anno fa sembrava che dovesse laggare con tutto. Invece mi sono reso conto che lagga solo se la vga sta al 99 %. Per altri motivi

J9AnGe
17-04-2016, 08:09
Appena testato DOOM Open Beta con gtx 970 , setting 1920x1080 TSSAA , la grafica e bellissima ed il giocho gira molto fluido "tipo quake 3" , la gtx 970 con il nuovo DOOM ce la fa' alla grande :)

fraussantin
17-04-2016, 08:15
Appena testato DOOM Open Beta con gtx 970 , setting 1920x1080 TSSAA , la grafica e bellissima ed il giocho gira molto fluido "tipo quake 3" , la gtx 970 con il nuovo DOOM ce la fa' alla grande :)
Ottimo !

Raven
17-04-2016, 08:38
Credo che sia più che altro "merito" di un motore alla fin fine molto leggero (considerando la qualità grafica complessiva)... gira fluido in fullHD anche sulla mia 7970ghz...

Kingdemon
17-04-2016, 08:51
La beta di Doom però gira con le impostazioni minime.. il gioco full sarà un pò diverso.
Così ce la fa anche la mia 670.. Ho guardato un pò l'osd di ab e sta sopra i 50 frame

sertopica
17-04-2016, 08:51
Vi ricordo che tutti i setting sono lockati su low eh... :D

edit: post contemporaneo! Haha

Luca T
17-04-2016, 08:53
La beta di Doom però gira con le impostazioni minime.. il gioco full sarà un pò diverso.
Così ce la fa anche la mia 670.. Ho guardato un pò l'osd di ab e sta sopra i 50 frame

Vi ricordo che tutti i setting sono lockati su low eh... :D

edit: post contemporaneo! Haha

Ah ecco :D

J9AnGe
17-04-2016, 08:59
beh insomma TSSAA e fullhd mi sembra buono , la grafica e' ottima

Kingdemon
17-04-2016, 09:00
:D

Poi fa comunque ben sperare non credo sarà pesantissimo anche perchè le mappe sono piccole. La 970 è la consigliata per il full hd e non credo che avrà problemi.
The Division che ho provato in beta a dettagli medio/bassi faceva invece soffrire la 670 con una resa visiva bella ma non eccezionale.
In questi giorni ho ripreso Gta V che gira benissimo ed è veramente stupendo ed enorme.
Tutto sta nel come un gioco è programmato ed ottimizzato.

sertopica
17-04-2016, 09:13
^ Quoto.
beh insomma TSSAA e fullhd mi sembra buono , la grafica e' ottima
Senz'altro, visivamente non e' male, ho provato l'open beta ieri brevemente ma sono un tipo da single player. :O

Ci saranno come sempre le opzioni killer da disattivare eventualmente e via.

Raven
17-04-2016, 09:21
La beta di Doom però gira con le impostazioni minime.. il gioco full sarà un pò diverso.

ah beh, allora stiamo parlando di aria fritta!... gira bene anche su una 460/5850! :O

:sofico:

paolox86
17-04-2016, 10:05
Poi la grafica di un gioco si giudica solo in single player poiché è sempre più spinta

egounix
17-04-2016, 10:18
ah beh, allora stiamo parlando di aria fritta!... gira bene anche su una 460/5850! :O

:sofico:

Raven! Segna!

fraussantin
17-04-2016, 10:33
Queste sono scelte personali, non siamo costretti.
Se alcuni giochi sono fatti male nessuno ci obbliga a comprarli e a comprare schede costose per farli girare.
Se però un gioco piace( al di la della grafica ) , si.

°Phenom°
17-04-2016, 12:01
Vi ricordo che tutti i setting sono lockati su low eh... :D

edit: post contemporaneo! Haha
Ah, ecco svelato l'arcano, per questo allora è cosi "brutto" e blurroso graficamente. Poi nella release finale spero almeno si degnino di levare il cap a 60 fps, su un gioco del genere indecente.

Nurabsa
17-04-2016, 13:27
Fermi era un mostro, tralasciando calore e consumi e con l'affinamento (gtx 580) hanno fatto un'ottimo lavoro.:)
Con Pascal, le rese ancora non si conoscono ma i clock saranno molto molto alti.
Già con i 28hpm Maxwell hanno fatto miracoli, schede che arrivano anche a 1600, quando Kepler arrivava a 1200-1300.

concordo sul mostro,

con quello che si spendeva all epoca per una gtx480 ci si aspettava che il termine mostro fosse anche lato termico.
Per citare un esempio in famiglia la kpe mi è costata un rene ma come ho sempre detto se la casa madre ci ha speso tanta cura sul termico è perche offre ottime prestazioni termiche cosi comè uscita dallo scatolo, cosa che non accadeva un po con tutte le fermi.
Uno conto è raffreddare ad aria la mia a 1500 tutt altro è farlo sopra i 1530, idem lato vram a 8000 influisce poco sopra 8300 diventa una fornace.
L unione oc di gpu+vram rende la scheda ai livelli di fermi come calore emesso ad aria :)
Pascal che sia 1700 o 1800 poco cambia ci vorranno soluzioni iper efficienti per raggiungerle ad aria.
Queste nuove schede bisogna farle uscire e testare prima di comprarle e vedere realmente quanto hanno innovato lato performance gpu ma soprattutto prestazioni termiche.

fraussantin
17-04-2016, 13:33
concordo sul mostro,

con quello che si spendeva all epoca per una gtx480 ci si aspettava che il termine mostro fosse anche lato termico.
Per citare un esempio in famiglia la kpe mi è costata un rene ma come ho sempre detto se la casa madre ci ha speso tanta cura sul termico è perche offre ottime prestazioni termiche cosi comè uscita dallo scatolo, cosa che non accadeva un po con tutte le fermi.
Uno conto è raffreddare ad aria la mia a 1500 tutt altro è farlo sopra i 1530, idem lato vram a 8000 influisce poco sopra 8300 diventa una fornace.
L unione oc di gpu+vram rende la scheda ai livelli di fermi come calore emesso ad aria :)
Pascal che sia 1700 o 1800 poco cambia ci vorranno soluzioni iper efficienti per raggiungerle ad aria.
Queste nuove schede bisogna farle uscire e testare prima di comprarle e vedere realmente quanto hanno innovato lato performance gpu ma soprattutto prestazioni termiche.
Cacchio se però hanno quelle frequenze e di conseguenza performance elevate , amd deve davvero fare un voto alla santa ottimizzatrice per eguagliarle . Forse hanno un asso nella manica con delle superACE ... E non gli serve potenza.

Sarebbe una bella svolta. Ma altrimenti la concorrenza è finita.

mikael84
17-04-2016, 13:56
concordo sul mostro,

con quello che si spendeva all epoca per una gtx480 ci si aspettava che il termine mostro fosse anche lato termico.
Per citare un esempio in famiglia la kpe mi è costata un rene ma come ho sempre detto se la casa madre ci ha speso tanta cura sul termico è perche offre ottime prestazioni termiche cosi comè uscita dallo scatolo, cosa che non accadeva un po con tutte le fermi.
Uno conto è raffreddare ad aria la mia a 1500 tutt altro è farlo sopra i 1530, idem lato vram a 8000 influisce poco sopra 8300 diventa una fornace.
L unione oc di gpu+vram rende la scheda ai livelli di fermi come calore emesso ad aria :)
Pascal che sia 1700 o 1800 poco cambia ci vorranno soluzioni iper efficienti per raggiungerle ad aria.
Queste nuove schede bisogna farle uscire e testare prima di comprarle e vedere realmente quanto hanno innovato lato performance gpu ma soprattutto prestazioni termiche.

Fermi non aveva Kp ma aveva buone custom, io avevo la AMP della zotac ed era molto fresca. Chiaramente la KP o anche la Matrix sono schede senza dubbio diversi gradini sopra, ed in tutto se guardiamo il lato termico e di complessità PCB. A questo giro l'overvolt ha pochi o nulli benefici, altrimenti anche a liquido la differenza si sarebbe vista.

Sono schede però rivolte agli azotatori ma allo stesso tempo a chi cerchi il top qualitativo, senza compromessi.:)

Riguardo i clock delle prossime, non è una mia stima ma il passaggio dai 28hpm ai 16nm permetterà grosse migliorie lato clock. GP100 è già stato annunciato e con questi chip e con le prime rese i clock potrebbero essere anche conservativi (guarda la titan 1° versione con la 680).
Attualmente GP100 boosterà a 1480mhz base ed in 2,0 intorno ai 1600.

GP102 sarà un chip da 290/310mm2 (contro i 400mm2 di gm204) con un TDP da 145watt e chiaramente potrebbe partire anche da base boost più elevati.

Questo è dovuto al processo produttivo, un qualcosa di sbalorditivo, visto che i 14nm di AMD sembrano essere lanciati a soli 1ghz.
Quindi i 1600 a 145watt della x80 potrebbero saranno alimentati tranquillamente da alcune fasi con 40/50A in saturazione.

Arrivare a 1800 non sarà sicuramente difficile, rese permettendo, e la KP x80 sarà il gioiello di punta per azotatori e per appassionati che potranno sbancare letteralmente tutto e raggiungere nuove vette in OC.:)

deadbeef
17-04-2016, 14:23
questo thread mi mette sempre allegria

Free Gordon
17-04-2016, 14:41
Ma altrimenti la concorrenza è finita.

:sofico: :sofico: :sofico:

Arrow0309
17-04-2016, 14:55
Fermi non aveva Kp ma aveva buone custom, io avevo la AMP della zotac ed era molto fresca. Chiaramente la KP o anche la Matrix sono schede senza dubbio diversi gradini sopra, ed in tutto se guardiamo il lato termico e di complessità PCB. A questo giro l'overvolt ha pochi o nulli benefici, altrimenti anche a liquido la differenza si sarebbe vista.

Sono schede però rivolte agli azotatori ma allo stesso tempo a chi cerchi il top qualitativo, senza compromessi.:)

Riguardo i clock delle prossime, non è una mia stima ma il passaggio dai 28hpm ai 16nm permetterà grosse migliorie lato clock. GP100 è già stato annunciato e con questi chip e con le prime rese i clock potrebbero essere anche conservativi (guarda la titan 1° versione con la 680).
Attualmente GP100 boosterà a 1480mhz base ed in 2,0 intorno ai 1600.

GP102 sarà un chip da 290/310mm2 (contro i 400mm2 di gm204) con un TDP da 145watt e chiaramente potrebbe partire anche da base boost più elevati.

Questo è dovuto al processo produttivo, un qualcosa di sbalorditivo, visto che i 14nm di AMD sembrano essere lanciati a soli 1ghz.
Quindi i 1600 a 145watt della x80 potrebbero saranno alimentati tranquillamente da alcune fasi con 40/50A in saturazione.

Arrivare a 1800 non sarà sicuramente difficile, rese permettendo, e la KP x80 sarà il gioiello di punta per azotatori e per appassionati che potranno sbancare letteralmente tutto e raggiungere nuove vette in OC.:)

Ma come, nvidia a 16nm FinFet andrà a 1.8+ ghz mentre amd, a 14nm, sempre FinFet a soli 1ghz?

questo thread mi mette sempre allegria

Dai, spiegaci il perché :p

mikael84
17-04-2016, 15:07
Ma come, nvidia a 16nm FinFet andrà a 1.8+ ghz mentre amd, a 14nm, sempre FinFet a soli 1ghz?



Questo è l'ultimo comunicato, infatti non so come intenda competere con un potente x80.
A clock default i 2860st di AMD vanno quanto i 2048 maxwell, questo significa che per raggiungere x80 dovrebbe aumentare solo di IPC il 75% (qualcosa di assurdo). Avrà le 64 rops in compressione ma sono davvero nulla in confronto ai 118gpixel della x80 che praticamente hanno capacità di calcolo doppia.
Considerando che il 75% di IPC pareggerebbe una situazione post maxwell ma non tiene presente che l'IPC di Pascal è totalmente migliorato, visto che ora ogni singolo cuda può avere accesso a 1024 registri contro i 512 di maxwell.
Quindi avere l'istruzione pronta senza pescarla sulla cache sarà un vantaggio, come lo è avere la possibilità di avere il doppio di istruzioni.

Riepilogando, o Polaris tira fuori i 4096ST previsti in vega, oppure avrà un'IPC mostruoso, oppure ancora saranno schede che riprenderanno le Tonga sulla fascia da 200/250 euro e di conseguenza Pascal andrà da solo.:)

killeragosta90
17-04-2016, 15:13
Dai, spiegaci il perché :p

Già, sono curioso pure io. Mi pare giusto un po' "provocatorio"...

Legolas84
17-04-2016, 15:28
Pascal andrà da solo.:)

Tutto quello che hai detto, ma non questo....

AMD è già ora con l'acqua alla gola in tutti i sensi.... non può permettersi di non competere con Pascal.

mikael84
17-04-2016, 15:44
Tutto quello che hai detto, ma non questo....

AMD è già ora con l'acqua alla gola in tutti i sensi.... non può permettersi di non competere con Pascal.

Speriamo di vederci chiaro il prima possibile su le polaris ma attualmente o tiri fuori un'IPC mostruoso o non so come vuoi competere con chip clockati a 1500 di base.
Se già prendiamo una 980 a 1500 (clock base GP100), vai quanto una fury 4096st.

Pascal avrà 2560cc pari a 3584cc Maxwell, o hai un' IPC mostruoso o non ne esci.

Magari competerà al meglio ma sulla fascia da 2/300 euro, dove alla fine fai soldi.

Non ci resta che vedere l'architettura, almeno per provare a fare due stime, ma se i clock in 14nm sono quelli, sarà molto dura.

mikael84
17-04-2016, 15:57
Mikael84 secondo me AMD adesso tira fuori qualcosa di molto competitivo sulla fascia media lasciando la furyx a top gamma e cosi si spiega come mai ha tirato fuori adesso la pro duo... E poi verso settembre o magari gennaio butta giú una vga che sarà in grado di rivaleggiare con il futuro (giugno 2017) gp100 full spec.

Del resto consumi a parte gcn in derivazione fury è e sarà super competitivo (soprattutto se cala di prezzo), la dual GPU serve a dire che lo ha più lungo e la fascia media competitiva serve a cercare di far numeri.

AMD ha bisogno di soldi e questi non li fai se ti metti in competizione sulla fascia alta di nvidia nello stesso momento, per questo forse vuole uscire con un best buy irrinunciabile su fascia media da buone prestazioni, per piazzarne il più possibile (e monetizzare) e poi uscire con la top quando ormai gp104 è fuori da un po e gp100 è ancora lontano...

E' proprio il ragionamento che sto facendo io alla fine, in base ai primi dati.
Sarà un caso, questa 3° scheda? Magari Nvidia lancia proprio 2 top sulla fascia alta ed una da dedicare proprio a quella fascia di prezzo.
Se laseri un GPC, ti ritrovi con almeno 1920cc (che sono 2816 della 980ti), rops che avrebbero la stessa capacità, anche se in quantità minore (64) ed un bus a 192 caricato ad 8ghz con le nuove samsung (192gb/s).

Questa potrebbe essere proprio la scheda per polaris, visto che se AMD non ricorre alle ddr5x, avrà lo stesso identico bus.

Questa potrebbe essere una scelta ben precisa, visto che Nvidia non lancerà subito GP106 e la fascia da 2/300 euro potrebbe essere sua.
In ogni caso AMD non sarebbe fuori dai giochi, perchè potrebbe sempre giocare con core più grandi, e se l'IPC è valido, tentarsi anche un 500/600mm2 come ultima carta.

Legolas84
17-04-2016, 16:48
Speriamo di vederci chiaro il prima possibile su le polaris ma attualmente o tiri fuori un'IPC mostruoso o non so come vuoi competere con chip clockati a 1500 di base.
Se già prendiamo una 980 a 1500 (clock base GP100), vai quanto una fury 4096st.

Pascal avrà 2560cc pari a 3584cc Maxwell, o hai un' IPC mostruoso o non ne esci.

Magari competerà al meglio ma sulla fascia da 2/300 euro, dove alla fine fai soldi.

Non ci resta che vedere l'architettura, almeno per provare a fare due stime, ma se i clock in 14nm sono quelli, sarà molto dura.
Il problema é che se non hai una ammiraglia che galoppa a dirigere la tua lineup, perdi tantissimo a livello di immagine... E ne risente di conseguenza anche la fascia media e bassa.

E già AMD come immagine é messa tutt'altro che bene.

Inviato dal mio ONE A2003 utilizzando Tapatalk

Legolas84
17-04-2016, 16:58
L'ammiraglia di rappresentanza è la pro duo che sarà più veloce.della 1080, è sponsorizzata VR ready ed ha un'architettura che ancora deve dare il meglio. Ad AMD non conviene mettersi in diretto confronto...

Auguri se l'ammiraglia è una dual gpu che monta gpu vecchie di quasi un anno... davvero una bellissima immagine :asd:

Soprattutto con il supporto multi-gpu di AMD....

Luca T
17-04-2016, 17:03
Auguri se l'ammiraglia è una dual gpu che monta gpu vecchie di quasi un anno... davvero una bellissima immagine :asd:

Soprattutto con il supporto multi-gpu di AMD....

A me fanno ancora più inc@xx@re le case che nel 2016 fanno i giochi che non supportano il multi-gpu, ora dimmi te se uno deve prendere Quantum break per console

Legolas84
17-04-2016, 17:08
A me fanno ancora più inc@xx@re le case che nel 2016 fanno i giochi che non supportano il multi-gpu, ora dimmi te se uno deve prendere Quantum break per console

Sono perfettamente daccordo con te guarda.... un vero scandalo... :muro:

Ma l'ammiraglia come hai detto tu è di rappresentanza e di certo nei bench non mancherà di bastonare. Poi ricordi come le 7970 vecchie come il cucco e le Hawaii vecchie pure loro stanno dicendo la loro anche contro le "ottimizzate gaming" Maxwell... E dimentichi che ancora il potenziale di gcn non lo abbiamo visto, ma solo intuito dai primi bench simil dx12. Inoltre se davvero il multigpu in dx12 sarà quello che dicono (compresa la possibilità della somma della vram), il problema dual GPU sarà minore.

Ma ripeto, prestazioni a parte, la pro duo sarà l'ammiraglia e probabilmente la vga più veloce ancora per un po


Mi fa piacere che sei così fiducioso.... per me se davvero pensano di usare la dual come top di gamma perchè non riusciranno a contrastare GP104 con Polaris, passeranno altri periodi di magra per AMD.

E non penso proprio che il Crossfire raggiungerà lo SLI in tempi brevi, nemmeno con le dx12.

Mi auguro davvero che contrastino GP104 con qualcosa di nuovo e concreto, altrimenti la musica non cambierà.

Oirasor_84
17-04-2016, 17:12
Auguri se l'ammiraglia è una dual gpu che monta gpu vecchie di quasi un anno... davvero una bellissima immagine :asd:

Soprattutto con il supporto multi-gpu di AMD....
Talmente vecchie che supportano meglio le dx12 e gestiscono più registri,cos'è pascal l'hanno creata nel futuro e spedita nel passato non mi pare, e dalle specifiche non è altro che maxwell un pò più pompata,il tutto dando già per scontato che gp104 andrà il 30% in più di gm200 senza sapere le specifiche esatte,quindi il concetto di vecchio è relativo e lascia il tempo che trova imho

Luca T
17-04-2016, 17:17
Talmente vecchie che supportano meglio le dx12 e gestiscono più registri,cos'è pascal l'hanno creata nel futuro e spedita nel passato non mi pare, e dalle specifiche non è altro che maxwell un pò più pompata,il tutto dando già per scontato che gp104 andrà il 30% in più di gm200 senza sapere le specifiche esatte,quindi il concetto di vecchio è relativo e lascia il tempo che trova imho

tu si che ci capisci :asd::asd:

Legolas84
17-04-2016, 17:19
Beh ma allora tu o non leggi o non hai capito. Secondo me AMD non ha alcuna intenzione di contrastare adesso sulla fascia alta nvidia (se non con robba che ha già), per questo probabilmente ha tirato fuori adesso (a ridosso di polaris) la pro duo e polaris si infilerà sulla fascia media si spera con buone prestazioni e prezzo da best buy, per fare cassa. Quando si calmeranno le acque su pascal e quando ancora il pascal pieno sarà lontano, usciranno con il polaris full spec che dovrà vedersela da li a pochi mesi con pascal full spec, nella.speranza che nel frattempo i primi polaris abbiano venduto bene. Cosi è chiaro? La pro duo serve solo a dire "nonostante pascal abbiamo la vga singola più veloce" chiaro che non sarà una vga competitiva.

Sisi ho inteso benissimo.

Quello che dico è che spero per AMD che non vada così.

Perchè la pro duo è una scheda inutile. Magari andrà anche più di GP104, ma poi quando la gente guarderà il frametime (è i siti seri lo testano) e si vedrà che stuttera chi la sceglierà? Oltre al minor supporto generale che ha il Crossfire rispetto allo SLI.....

GP104 non sarà il chip full, ma sará il top di gamma NVIDIA per un anno.

Luca T
17-04-2016, 17:22
Sisi ho inteso benissimo.

Quello che dico è che spero per AMD che non vada così.

Perchè la pro duo è una scheda inutile. Magari andrà anche più di GP104, ma poi quando la gente guarderà il frametime (è i siti seri lo testano) e si vedrà che stuttera chi la sceglierà? Oltre al minor supporto generale che ha il Crossfire rispetto allo SLI.....

GP104 non sarà il chip full, ma sará il top di gamma NVIDIA per un anno.

Io comunque ripeto che (sara perché con i giochi ero sempre indietro di 6 mesi un annetto) col crossfire di 7970 lo stutter non lo notavo :boh:

Legolas84
17-04-2016, 17:24
Io comunque ripeto che (sara perché con i giochi ero sempre indietro di 6 mesi un annetto) col crossfire di 7970 lo stutter non lo notavo :boh:

Sono in tanti che sarebbero pronti a giurare quanto dici... in realtà i test del FrameTime hanno permesso di misurare come lo SLI si comporti molto meglio sotto questo aspetto.

Probabilmente tu non lo noti... e sei fortunato di questa cosa!

:) ;)

YesManYes
17-04-2016, 17:25
Tutto quello che hai detto, ma non questo....

AMD è già ora con l'acqua alla gola in tutti i sensi.... non può permettersi di non competere con Pascal.

ma credo che AMD abbia la capacità di lanciare delle gpu che siano in competizione con le 1080 e 1070...e che migliorino le prestazioni delle precedenti top di gamma con pp vecchio
ci riuscì con la serie 4000 a 55nm, 5000 a 40nm, 7000 a 28nm ( ricordiamoci della HD 7970) e ce la farà anche a questo giro vedrai...

Legolas84
17-04-2016, 17:26
ma credo che AMD abbia la capacità di lanciare delle gpu che siano in competizione con le 1080 e 1070...e che migliorino le prestazioni delle precedenti top di gamma con pp vecchio
ci riuscì con la serie 4000 a 55nm, 5000 a 40nm, 7000 a 28nm ( ricordiamoci della HD 7970) e ce la farà anche a questo giro vedrai...

Sinceramente lo credo anche io ;)

È la sua unica speranza se vuole modificare gli impietosi dati di market share attuali.

Oirasor_84
17-04-2016, 17:26
tu si che ci capisci :asd::asd:
Mi trolli o sei serio? :mbe: :)

Legolas84
17-04-2016, 17:29
Ed invece non hai capito continui a disquisire sulle performance della pro duo che è solo una scheda di rappresentanza. AMD mira alla fascia media, la pro duo la aveva e la ha buttata fuori per poter tergiversare e buttar fuori il chippone lontano sia da gp104 che da gp100.

Bo... non so come sia possibile, ma non riesco a spiegarti il mio punto di vista.

L'ho scritto chiaramente all'inizio.

Se butta fuori la fascia media anche decente, e lascia la PRO DUO come top a scontrarsi con il nuovo GP104, la gente dirà che AMD sta come sempre rincorrendo e avrà un danno di immagine che si ripercuoterà anche sulla fascia media.

Io questo sto dicendo.

Se invece butta fuori un nuovo chip che si scontra con GP104, la sensazione sarà che si sta giocando alla "pari" (più o meno).

Poi quello a cui punta AMD io non lo so sinceramente, e credo nemmeno tu.

Con questo chiudo. E ripeto che questo è il mio punto di vista.

Legolas84
17-04-2016, 17:31
Mi trolli o sei serio? :mbe: :)

sinceramente stavo per risponderti così al tuo precedente post.... ma poi ho letto imho in fondo... e quindi essendo un'opinione personale è ovviamente insindacabile :)

beatl
17-04-2016, 17:35
Bho il 3dvision è morto silenziosamente. Chi te lo dice che non succederà la stessa cosa con lo sli?
Tutto successe così..... Prima ci furono titoli ben ottimizzati..... poi arrivarono i titoli che avevano una scalabilità media ed ora non li supportano proprio (vedi quantum break o batman 4)

Stavo facendo l'altro giorno lo stesso ragionamento; ho controllato i giochi a cui ho giocato nell'ultimo anno e su 25 titoli 7 non supportavano lo SLI e 13 supportavano lo SLI ma avrei potuto giocare al massimo degli fps del mio monitor ( ROG PG278Q) anche con una sola GTX980.
Quindi alla fine ho beneficiato dello SLI solo in 5 titoli su 25; un po' poco se paragonato ad una spesa di 500 e passa € che mi è costata la seconda vga all'epoca.
Stò pensando seriamente di passare a singola vga dopo vari anni di SLI e crossfire.

A mio parere lo SLI da quando è stato introdotto ha fatto passi da gigante ... a differenza del 3D visione come dici giustamente tu.
Non credo farà la stessa fine anzi .. In 4K è indispensabile non credo che anche full Pascal sarà pienamente sufficiente (a meno che non vada più del doppio di una 980ti ma non credo .. ben che vada andrà il doppio).

Oirasor_84
17-04-2016, 17:36
sinceramente stavo per risponderti così al tuo precedente post.... ma poi ho letto imho in fondo... e quindi essendo un'opinione personale è ovviamente insindacabile :)
La mia personale opinione è legata al concetto di vecchio,ma che cgn supporti meglio le dx12 e gestisce più registri di maxwell e che ha uno scheduler hardware più avanzato è un dato di fatto non una mia opinione,infatti con pascal hanno rivisto un pò questo lato di maxwell ma nulla di nuovo:D

YesManYes
17-04-2016, 17:45
A mio parere lo SLI da quando è stato introdotto ha fatto passi da gigante ... a differenza del 3D visione come dici giustamente tu.
Non credo farà la stessa fine anzi .. In 4K è indispensabile non credo che anche full Pascal sarà pienamente sufficiente (a meno che non vada più del doppio di una 980ti ma non credo .. ben che vada andrà il doppio).
Magari con un gran OC una 1080ti potrà andare un 80 - 90% in + di una 980ti

athlon xp 2400
17-04-2016, 17:46
A me fanno ancora più inc@xx@re le case che nel 2016 fanno i giochi che non supportano il multi-gpu, ora dimmi te se uno deve prendere Quantum break per console


Vogliamo parlare dei giochi nuovi senza supporto al 21:9?!lol

beatl
17-04-2016, 17:47
Magari con un gran OC una 1080ti potrà andare un 80 - 90% in + di una 980ti

Ecco .. Questo è uno scenario possibile...

mikael84
17-04-2016, 17:48
ma credo che AMD abbia la capacità di lanciare delle gpu che siano in competizione con le 1080 e 1070...e che migliorino le prestazioni delle precedenti top di gamma con pp vecchio
ci riuscì con la serie 4000 a 55nm, 5000 a 40nm, 7000 a 28nm ( ricordiamoci della HD 7970) e ce la farà anche a questo giro vedrai...

Vero ma in questi casi non raggiunse mai la vera top (almeno a livello di potenza bruta).
La 4870 se la giocava con la 260 perchè avevano introdotto un nuovo comando WCK che raddoppiava i comandi e dati DDR (ddr5) permettendo una banda del tutto simile a quella grossa dei bus a 448/512bit delle 260/280.
Senza questo bus, diventato lo standard, la 4800 a livello di shader era pari ad una 250.

La 5870, gran bella mossa ma anche qua stava sempre sotto, idem con le 6000.

Questo è uno scenario che mi aspetto, con le nuove Polaris. Non saranno certo di scarto, anzi AMD era davvero un best, quando lottava su queste fasce.

Legolas84
17-04-2016, 17:52
La mia personale opinione è legata al concetto di vecchio,ma che cgn supporti meglio le dx12 e gestisce più registri di maxwell e che ha uno scheduler hardware più avanzato è un dato di fatto non una mia opinione,infatti con pascal hanno rivisto un pò questo lato di maxwell ma nulla di nuovo:D
Se la metti così puoi dire quello ho vuoi ma la 980ti é meglio di qualsiasi scheda AMD sia mai uscita.

Quindi alla fine le considerazioni che hai fatto lasciano il tempo che trovano. Senza contare che ne io ne te possiamo sapere per ora le migliorie di pascal rispetto a maxwell.

Inviato dal mio ONE A2003 utilizzando Tapatalk

Luca T
17-04-2016, 18:02
Mi trolli o sei serio? :mbe: :)

La mia personale opinione è legata al concetto di vecchio,ma che cgn supporti meglio le dx12 e gestisce più registri di maxwell e che ha uno scheduler hardware più avanzato è un dato di fatto non una mia opinione,infatti con pascal hanno rivisto un pò questo lato di maxwell ma nulla di nuovo:D

Ovviamente scherzavo, ma dire che Pascal è un Maxwell pompato quando c'è una architettura completamente nuova e fra l'altro da come ci diceva Mikael (se ho capito bene) stravolta rispetto a Maxwell e con nuovo PP mi fa sorridere :D

fraussantin
17-04-2016, 18:05
Magari con un gran OC una 1080ti potrà andare un 80 - 90% in + di una 980ti
Se amd dorme come ha fatto capire .. Nvidia non spingerà troppo. Non ha interesse.


Perche noi non sappiamo niente , ma loro sanno già tutto.

deadbeef
17-04-2016, 18:10
mi sono perso un pò di passaggi:

- quello in cui Pascal è diventata una nuova architettura nella fascia consumer
- quello in cui AMD ha fatto capire che dorme
- quello in cui AMD ha rilasciato un comunicato in cui si dice che il clock sarà di 1ghz

Oirasor_84
17-04-2016, 18:10
Ovviamente scherzavo, ma dire che Pascal è un Maxwell pompato quando c'è una architettura completamente nuova e fra l'altro da come ci diceva Mikael (se ho capito bene) stravolta rispetto a Maxwell e con nuovo PP mi fa sorridere :D
Mikael non ha mai scritto che pascal è uno stravolgimento e non lo potrebbe mai dire visto che i dettagli dell'architettura si conoscono perchè hanno presentato la tesla pascal,ed hanno apportato alcune modifiche rispetto a maxwell ma la base è quella non è uno stravolgimento.

Luca T
17-04-2016, 18:12
Mikael non ha mai scritto che pascal è uno stravolgimento e non lo potrebbe mai dire visto che i dettagli dell'architettura si conoscono perchè hanno presentato la tesla pascal,ed hanno apportato alcune modifiche rispetto a maxwell ma la base è quella non è uno stravolgimento.

Per le considerazioni tecniche più specifiche mi rimetto ad un intervento di Mikael

mikael84
17-04-2016, 18:15
Chissà che AMD con le prime polaris non voglia ripetere in un certo qual modo la storia delle 4870... Qui tutti vogliono il sangue ed uno scontro al vertice, ma per AMD con l'acqua alla gola andare ad affrontare a muso duro nvidia sul terreno delle top gamma nello stesso periodo è un suicidio, non venderebbe più di nvdia anche se presentasse un prodotto superiore....recuperare e rifidelizzare la clientela con un ipotetico best buy sulla fascia media sarebbe una gran mossa per poi presentare, da sola, la top lontana da gp100.

Infatti non la vedo poi male come ipotesi, anzi........:)
Se ad una x80 full gli levi un GPC, vai quanto una 980ti circa ma con bus più piccolo. Questo però non significa che le schede saranno simili perchè Pascal avrà notevoli migliorie per cuda e la predisposizione alla gcn potrebbe anche staccare Maxwell il più delle volte.
Ci sono giochi pro GCN come Hitman dove maxwell insegue a pari condizioni.

Ovviamente scherzavo, ma dire che Pascal è un Maxwell pompato quando c'è una architettura completamente nuova e fra l'altro da come ci diceva Mikael (se ho capito bene) stravolta rispetto a Maxwell e con nuovo PP mi fa sorridere :D

E' stata stravolta la predisposizione interna, raggruppata in 2 scheduler da 32 e non 4 da 32 per SM ma sostanzialmente riprende completamente maxwell.
Ovviamente ogni cuda ora è il doppio più efficiente, legge il doppio dei registri ma il resto non cambia poi molto:)
Quello che veramente cambia è il clock, oltre all'efficienza per cuda.

Luca T
17-04-2016, 18:15
Vogliamo parlare dei giochi nuovi senza supporto al 21:9?!lol

Seeee ci sono ancora titoli di punta che non lo supportano???

fraussantin
17-04-2016, 18:17
mi sono perso un pò di passaggi:

- quello in cui Pascal è diventata una nuova architettura nella fascia consumer
- quello in cui AMD ha fatto capire che dorme
- quello in cui AMD ha rilasciato un comunicato in cui si dice che il clock sarà di 1ghz
Te li sei persi perché ti sei distratto a ridere. :asd:

Luca T
17-04-2016, 18:17
Infatti non la vedo poi male come ipotesi, anzi........:)
Se ad una x80 full gli levi un GPC, vai quanto una 980ti circa ma con bus più piccolo. Questo però non significa che le schede saranno simili perchè Pascal avrà notevoli migliorie per cuda e la predisposizione alla gcn potrebbe anche staccare Maxwell il più delle volte.
Ci sono giochi pro GCN come Hitman dove maxwell insegue a pari condizioni.



E' stata stravolta la predisposizione interna, raggruppata in 2 scheduler da 32 e non 4 da 32 per SM ma sostanzialmente riprende completamente maxwell.
Ovviamente ogni cuda ora è il doppio più efficiente, legge il doppio dei registri ma il resto non cambia poi molto:)
Quello che veramente cambia è il clock, oltre all'efficienza per cuda.

Ah ok allora avevo capito male io, grazie Mikael

Oirasor_84
17-04-2016, 18:21
Ah ok allora avevo capito male io, grazie Mikael
Che fai ringrazi solo Mikael :D se te lo scrivo io non va bene anzi mi vai contro :nonsifa: :D

davo30
17-04-2016, 18:23
Chiedo a voi, visto che ormai ogni sito dice la sua e non ci si capisce più niente. Quale posizionamento è più probabile per P10, P11, GP106 e 104? Voglio dire, che scaletta prevedete avranno le due case e quali saranno le fasce e i modelli che andranno a coprire questi chip?

Inviato dal mio XT1092 utilizzando Tapatalk

Luca T
17-04-2016, 18:23
Che fai ringrazi solo Mikael :D se te lo scrivo io non va bene anzi mi vai contro :nonsifa: :D

A te devo chiedere scusa non ringraziarti :Prrr:
:D

Legolas84
17-04-2016, 18:27
Io credo che ci siano un po' troppe modifiche soprattutto nell'efficienza dei cuda per parlare di un semplice maxwell potenziato...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Luca T
17-04-2016, 18:29
Io credo che ci siano un po' troppe modifiche soprattutto nell'efficienza dei cuda per parlare di un semplice maxwell potenziato...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Si ma se alla fine l'architettura di base è quella è un ottimizzazione

Arrow0309
17-04-2016, 18:40
Chiedo a voi, visto che ormai ogni sito dice la sua e non ci si capisce più niente. Quale posizionamento è più probabile per P10, P11, GP106 e 104? Voglio dire, che scaletta prevedete avranno le due case e quali saranno le fasce e i modelli che andranno a coprire questi chip?

Inviato dal mio XT1092 utilizzando Tapatalk

Secondo le ultime preview sono questi i dati:
- Lato nvidia:

http://www.techpowerup.com/221677/nvidia-readies-three-gp104-pascal-based-skus-for-june-2016

"GP104-400-A1," "GP104-200-A1" e "GP104-150-A1." che doverebbero essere le 1080, 1070 e 1060Ti??

- Lato AMD:

http://www.techpowerup.com/221720/amd-to-launch-radeon-r7-470-and-r9-480-at-computex

Radeon R9 480 (Polaris 10) e Radeon R7 470 (Polaris 11) che andranno a competere imao con le 1070 e "1060Ti"
Niente notizie della R9 490 ancora, vediamo le prossime sett.

Luca T
17-04-2016, 18:43
Secondo le ultime preview sono questi i dati:
- Lato nvidia:

http://www.techpowerup.com/221677/nvidia-readies-three-gp104-pascal-based-skus-for-june-2016

"GP104-400-A1," "GP104-200-A1" e "GP104-150-A1." che doverebbero essere le 1080, 1070 e 1060Ti??

- Lato AMD:

http://www.techpowerup.com/221720/amd-to-launch-radeon-r7-470-and-r9-480-at-computex

Radeon R9 480 (Polaris 10) e Radeon R7 470 (Polaris 11) che andranno a competere imao con le 1070 e "1060Ti"
Niente notizie della R9 490 ancora, vediamo le prossime sett.

Per AMD sono invertite rispetto al progressivo, Polaris 10 è superiore a Polaris 11?