PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 [100] 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

TigerTank
08-05-2016, 10:22
considerato che il core di vulkan è mantle

http://www.tomshw.it/news/nvidia-non-supportera-amd-mantle-non-ci-sono-benefici-59986

cmq dal punto di vista tecnico sembra ottimo, vedremo :D

Vulkan non è Mantle, piuttosto è quello che sarebbe dovuto essere Mantle.
Evidentemente se ora invece supporta Vulkan (https://developer.nvidia.com/Vulkan) (cosa già inclusa negli ultimi drivers Nvidia attuali) è perchè da 2 anni a questa parte qualcosa è cambiato :D

TigerTank
08-05-2016, 10:36
Non è colpa mia se chi ha creato una tecnologia poi non ha saputo svilupparla a dovere e hanno dovuto farlo altri.
La situazione è quella che è per cui direi che sia inutile arrampicarsi sugli specchi riportando articoli vecchi di 2 anni altrimenti a quest'ora avremmo avuto un Mantle targato AMD che spaccava, invece di un Vulkan targato Khronos, di cui beneficeranno anche le nvidia a partire da Doom ;)

Amph
08-05-2016, 10:38
la memory bandwidth e l'accesso alla memoria di una 1070 di quanto sono migliori rispetto alla 970?

kiwivda
08-05-2016, 10:41
Non è colpa mia se chi ha creato una tecnologia poi non ha saputo svilupparla a dovere e hanno dovuto farlo altri.
La situazione è quella che è per cui direi che sia inutile arrampicarsi sugli specchi riportando articoli vecchi di 2 anni altrimenti a quest'ora avremmo avuto un Mantle targato AMD che spaccava, invece di un Vulkan targato Khronos, di cui beneficeranno anche le nvidia a partire con Doom ;)

Concordo la questione è complicata ma riassumendo potremmo dire che in AMD sono dei grandi visionari e non temono di innovare e scoprire cose nuove anche a discapito del profitto, gli altri sono invece più bravi nello sviluppo seguente e nell'ottimizzazione.

TigerTank
08-05-2016, 10:46
Hai dimenticato di dire che a quest'ora senza mantle avremmo un vulkan ancora migliore!

Lol, certo che no :D

Concordo la questione è complicata ma riassumendo potremmo dire che in AMD sono dei grandi visionari e non temono di innovare e scoprire cose nuove anche a discapito del profitto, gli altri sono invece più bravi nello sviluppo seguente e nell'ottimizzazione.

Esatto, proprio così.
Il problema è che come al solito i pro-amd devono trollare...e di sicuro se le nuove nvidia faranno il botto partendo appunto dalle prestazioni tramite Vulkan di un titolo di richiamo come Doom, arriveranno a sottolineare più e più volte che Vulkan è Mantle e che Mantle l'ha creato AMD.
Ma sarebbe appunto una precisazione comica visto che ormai è appunto Vulkan e già in questo momento Nvidia sta sfruttando il tutto alla grande per incensare la 1080 prima ancora che siano arrivate le schede :asd:

mikael84
08-05-2016, 10:48
tasto dolente,

anche mike parlava di clock stranamente ben oltre le aspettative, non caso gp100 è partito a 1450.
Hanno tirato il collo al chippino che andrà forte, ed è l unico modo per superare grandi schede come le nostre con un silicio grande la metà :)

Tieni presente che il GP100 in versione Tesla deve alimentare completamente la circuiteria DP e per forza di cose si deve contenere con i clock, altrimenti diventa una stufa:)
Mediamente calcolavo sempre intorno ai 1550-1580 ma non 1733 che nel caso della 1070 sembrano essere ben più bassi di quelli della 1080.:)

Il gp100 in versione geforce avra quasi le stesse frequenze di una 1080

Dipende, sarà sempre un chip complesso, è con gran parte di circuiteria DP spenta. Guarda anche la situazione tra 680-780.

Quello che mi lascia perplesso è la virgola mobile della 1070. Per ottenere i 6,5TF devi partire in boost da "soli" 1600, oppure hanno fatto un taglio alla 980m e 760, dove hanno decurtato più SM/SMX lasciando l'ultimo canale collegato.
Quindi con 1920cc attivi e 1700 ti ritrovi a 6,5TF esatti.
Sarebbe una pessima soluzione perchè praticamente perdi un GPC completo di calcolo, comprese 20 rop's che verranno dichiarate sempre come 80.

muppo
08-05-2016, 10:49
Concordo la questione è complicata ma riassumendo potremmo dire che in AMD sono dei grandi visionari e non temono di innovare e scoprire cose nuove anche a discapito del profitto, gli altri sono invece più bravi nello sviluppo seguente e nell'ottimizzazione.

io sono molto felice di queste nuove nvidia e non vedo l'ora di averne una, anche se cmq non do per scontato amd, se polaris segue le orme di nvidia da quanto mi pare di aver capito, forse con le nuove amd chip medio si avranno prestazioni simili ad una 980ti , ben venga questa volta potrei anche prendere una amd sin dall'inizio d'altronde anche con l'esperienza delle 290 è stata piacevole, specie se i prezzi sono quelli sbandierati questo giro prenderò la scheda che da più soddisfazioni in oc, tanto x me ormai la potenza comincia ad essere più che sufficiente per gestire i 1440p con potenze simili alle ti. giochi che sfruttano appieno le nuove gpu all'orizzonte non ne vedo poi cosi tanto bf1 a parte, che tra l'altro non mi entusiasma più di tanto come setting.

eXeS
08-05-2016, 11:01
la memory bandwidth e l'accesso alla memoria di una 1070 di quanto sono migliori rispetto alla 970?
La 1070 dovrebbe essere un 256bit pieni a differenza della 970 che è un 192+64, quindi, a parità di frequenza delle ddr un 33% in più di banda si avrà sicuramente.

Colgo l'occasione per riaprire il discorso "quanto andrà di più rispetto ad una 970" ho letto il doppio, o quasi il doppio, e questo sulla base del confronto tra sli di 980 e 1080.

Se la 1070 andrà circa quanto una 980ti andrà mediamente il 50% in più, http://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/4/#diagramm-rating-2560-1440-hohe-qualitaet, il 50% in più = 1,5 volte, quindi il doppio mi sembra un pochino esagerato, a meno di situazioni particolari tipo VR o altro, ma credo che le comparazioni debbano essere fatte su dati medi ;)

YesManYes
08-05-2016, 11:09
Tieni presente che il GP100 in versione Tesla deve alimentare completamente la circuiteria DP e per forza di cose si deve contenere con i clock, altrimenti diventa una stufa:)
Mediamente calcolavo sempre intorno ai 1550-1580 ma non 1733 che nel caso della 1070 sembrano essere ben più bassi di quelli della 1080.:)



Dipende, sarà sempre un chip complesso, è con gran parte di circuiteria DP spenta. Guarda anche la situazione tra 680-780.
Come era un chip più complesso quello della 780, e c'era una differenza di solo il 10% delle frequenze.... per non parlare tra gm 204 e 200, dove ladifferenza era praticamente nulla.
Quindi la mia ipotesi è probabilissima.

Per la 1070 credo che per differenziarla ancor di piu abbia un boost piu basso di quello delle 1080.... quindi una finira per boostare sopra i 1800, l'altra sopra i 1700...
Anche tra 670 e 680 c'era quasi 100mhz di differenza

mikael84
08-05-2016, 11:14
La 1070 dovrebbe essere un 256bit pieni a differenza della 970 che è un 192+64, quindi, a parità di frequenza delle ddr un 33% in più di banda si avrà sicuramente.

Colgo l'occasione per riaprire il discorso "quanto andrà di più rispetto ad una 970" ho letto il doppio, o quasi il doppio, e questo sulla base del confronto tra sli di 980 e 1080.

Se la 1070 andrà circa quanto una 980ti andrà mediamente il 50% in più, http://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/4/#diagramm-rating-2560-1440-hohe-qualitaet, il 50% in più = 1,5 volte, quindi il doppio mi sembra un pochino esagerato, a meno di situazioni particolari tipo VR o altro, ma credo che le comparazioni debbano essere fatte su dati medi ;)

Penso intendesse un raddoppio in teraflops per entrambe le schede. La 980 performa 4,5TF, la 1080 9TF, così circa per 1070 e 1080ti

YesManYes
08-05-2016, 11:19
una 1080 @2400mhz darebbe + di 12tflops di potenza ed anche se le sp non fossero migliorate come prestazioni rispetto a maxwell,sarebbe cmq paragonabile ad una maxwell con 5120sp a 1200mhz

eXeS
08-05-2016, 11:31
Penso intendesse un raddoppio in teraflops per entrambe le schede. La 980 performa 4,5TF, la 1080 9TF, così circa per 1070 e 1080ti
Può essere, ma l'utente medio e videogiocatore ragiona in termini di FPS e non di TFs, e in termini di FPS non andranno sicuramente il doppio.

TigerTank
08-05-2016, 11:33
Tiger mi dici dove io ho scritto che vulkan è mantle? Io ho scritto che il core di vulkan ê mantle e sulla base di questo kronos ci ha sviluppato sopra. Sbaglio qualcosa?

Sì ma infatti è così in origine, solo che è stato completamente rielaborato per cui diciamo che probabilmente resta solo il progetto di partenza :)
Comunque vabbè...in ogni caso da qualsiasi punto la si voglia vedere quello che conta per noi è che vulkan sia un bel passo avanti rispetto alle openGL e su entrambi i fronti, anche se al momento è Nvidia ad approfittarne tra lancio di nuove schede e arrivo del primo titolo, oltretutto di forte richiamo, che appunto sfrutta queste nuove API. ;)
Le directx12 d'altra parte imho non è che siano partite proprio in pompa magna :D

Spider-Mans
08-05-2016, 11:35
Hai dimenticato di dire che a quest'ora senza mantle avremmo un vulkan ancora migliore!

Amd salvaci tu

Bastaaaaaaa xD :asd:

Spider-Mans
08-05-2016, 11:39
Tiger io dubito che una 980ti su banchetto guadagni in full super overclock 15 temp in meno... pascal èe decisamente piu fresco..ma era prevedibile...il processo produttivo nettamente migliore e ulteriori affinamenti che gia maxwell aveva introdotto in ottica consumi minori ..del resto c e un raddoppio prestazioni / watt..quindi :D

Cmq io ho un case banchetto XD freschissimo ma se occo la 970 le temp salgono

YesManYes
08-05-2016, 11:41
Può essere, ma l'utente medio e videogiocatore ragiona in termini di FPS e non di TFs, e in termini di FPS non andranno sicuramente il doppio.

A parte questo poi se l'architettura è cambiata non sono nemmeno più tanto confrontabili.
Vedi la 780ti che alla massima velocità ha quasi un tflops più di una 980 alla sua massima velocità, eppure la 980 va di piu

Simedan1985
08-05-2016, 11:43
è innegabile che ad amd va riconosciuto il fatto di aver guardato oltre il muro delle convenzionali DX...e penso che è una cosa che abbia fatto bene a tutti !! Anche a microsoft stessa che ha capito che non esiste solo lei sulle Api!

Gello
08-05-2016, 11:49
Sbaglio o sta 1080 mi sembra decisamente piu' lunga della 980? Prevedo gia' bestemmie per integrarla a dovere nella mia build.

PS: FYI: Embargo for all the PASCAL info we're getting today and @nvidia GTX 1080 reviews is May 17th

mikael84
08-05-2016, 11:52
Come era un chip più complesso quello della 780, e c'era una differenza di solo il 10% delle frequenze.... per non parlare tra gm 204 e 200, dove ladifferenza era praticamente nulla.
Quindi la mia ipotesi è probabilissima.

Per la 1070 credo che per differenziarla ancor di piu abbia un boost piu basso di quello delle 1080.... quindi una finira per boostare sopra i 1800, l'altra sopra i 1700...
Anche tra 670 e 680 c'era quasi 100mhz di differenza

Non ci siamo capiti, o meglio non è proprio quello che intendevo io. Tralasciando i clock del diverso PP.
La prima Titan a basse rese, aveva un base boost (perchè di questo si parla) di 876, la 780 di 900 (+2,6 circa) ed in seguito con il chip selezionato della TI sono arrivati a 928 (+5,9).
Tutte però avevano clock per volt effettivo di circa 993/1006, 1020 con la TI.

Per questo mi viene difficile ipotizzare un GP100 gaming o Titan a clock da 1080 (meglio tra i 1575-1600).
Chiaramente poi è da vedere, magari si spingono pure ben oltre

Può essere, ma l'utente medio e videogiocatore ragiona in termini di FPS e non di TFs, e in termini di FPS non andranno sicuramente il doppio.

Infatti è sbagliato il modo in cui l'ha detto. Chiaramente nessuno ragiona in flops, ma penso si riferisse a quello, in quanto sembra informato dall'interno.
La tua precisazione è giusta e la condivido appieno.

A parte questo poi se l'architettura è cambiata non sono nemmeno più tanto confrontabili.
Vedi la 780ti che alla massima velocità ha quasi un tflops più di una 980 alla sua massima velocità, eppure la 980 va di piu

I flops indicano solo potenza teorica del chip, l'unica differenza che rappresenta è tra la stessa architettura.
Pascal e Maxwell sono li, ma per l'appunto rimangono solo dati teorici, quindi effettivamente, dire va il doppio è un tantino azzardato sotto gli occhi di molti.

fireradeon
08-05-2016, 11:53
Tendo a pensare che sia fuffa, anche perché non ho mai visto analisi circa il fatto che il vecchio ponticello fosse limitante, non so se altri possano dire qualcosa in merito, poi magari esce qualche review tecnica in merito spero

Discorso bridge Sli , già erano stati rivisti i precedenti ponti, uscendo sul mercato alcuni più performanti (EVGA, ROG,MSI), ma da analisi non mi pare portassero chissà quali benefici. Certo questo nuovo, utilizza le due connessioni poste sulla scheda in modo parallelo. Sarà interessante vedere cosa apporta nel concreto.
Volevo chiedere se qualcuno ha capito se l'introduzione del miglior supporto dei monitor in sourround o curvi, è appannaggio di Pascal oppure sono introdotti via drivers, per tutte le schede. Grazie

C'è davvero un nuovo ponte
http://m.imgur.com/94X1aAm

Quindi da questo nuovo ponte potremmo aspettarci anche una maggiore scalabilità dei sistemi sli ? Mi piacerebbe sapere quanto impegno ci metteranno le software house ed nvidia stessa nel supportare i nuovi titoli!

Hum nuovo ponticello , evidentemente hanno un fabbisogno di banda piu' elevato , non è che serve un i7-6950x per sfruttare ste nuove schede ? :stordita: .

C'è da capire se cambia proprio attacco sli o se cambiano solo il ponte

Pare compatibile solo con Pascal quindi credo cambiano il connettore sulle schede e i vecchi ponti nn sono più compatibili con le nuove uscite credo

Purtroppo la scalabilità e il funzionamento al meglio dello SLI spesso è dato dal gioco stesso e dal supporto agli sviluppatori all'elaborazione multi-gpu.
Oltre ovviamente ai driver.

Un ponticello che ottimizza la banda passante non fa miracoli in altro senso.

Se ti danno un Batman Arkam Knight puoi metterci tutti i ponticelli atomici che vuoi che intanto lo SLI non va :asd:

Allora, per quanto riguarda il ponte sapevo già ci fosse il nuovo, si era visto sia sul sito che in un video postato ieri.
Ora bisogna capire se questo nuovo ponticello è DIVERSO dai vecchi e quindi chi ha il ponticello EVGA, ROG, MSI lo può buttare (dopo aver speso anche un pò) oppure se SOLO per sfruttare la nuova banda ci vorrà il nuovo ponticello (che immagino EVGA, ROG, MSI poi faranno personalizzato e quindi doppia spesa).
Inoltre mi chiedo, ma se io prendo 2 schede per lo SLI, questo nuovo ponticello dove lo trovo? Perchè se i vecchi non sono compatibli, in pratica ad oggi non lo ha nessuno (quelli della mobo non vanno bene, i vecchi EVGA, ROG etc. nemmeno). Io penso che saranno compatibili i vecchi ma se vuoi il massimo della banda passante devi poi comprarti il nuovo, altrimenti sarebbe stato sottolineato anche sul sito nvidia, invece dice solo che SOLO le 1080 sfruttano questo nuovo sistema della doppia banda, non che i vecchi sli bridge non sono compatibli perchè l'attacco è diverso (sono due cose ben distinte e che andrebbero dette chiaramente, perchè in pratica non funzionerebbe lo sli senza il nuovo ponticello).

GUARDATE LA FOTO DELLA SCHEDA DI PROFILO http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72560-nvidias-gtx-1080-gtx-1070-detailed.html
a me sembra identica a quelle attuali, quindi secondo me saranno compatibili con i vecchi, voi che dite?

Sbaglio o sta 1080 mi sembra decisamente piu' lunga della 980? Prevedo gia' bestemmie per integrarla a dovere nella mia build.

PS: FYI: Embargo for all the PASCAL info we're getting today and @nvidia GTX 1080 reviews is May 17th

OTTIMO quindi recensioni il 17!!!! Il giorno prima del mio compleanno!! :D

Lo hanno scritto 2 differenti reviewers su twitter e poi hanno rimosso il messaggio, quindi penso sia quasi sicuro il rumor.

mikael84
08-05-2016, 12:11
una 1080 @2400mhz darebbe + di 12tflops di potenza ed anche se le sp non fossero migliorate come prestazioni rispetto a maxwell,sarebbe cmq paragonabile ad una maxwell con 5120sp a 1200mhz

Chissà a che livelli si arriverà realmente con questi chip, una cosa è certa, solo ragionando a numeri una 980ti a 1500 (che è un silicio neppure per tutti) non arriva neppure alle prestazioni di un boost 1080 base. Questo senza considerare le varie migliorie interne tra cui i registri, la cache e così via....

YesManYes
08-05-2016, 12:16
mikael io invece parlavo di frequenza massima, non di base clock.
E facevo il confronto tra la piccola gpu vs big gpu, dove la frequenza in boost max è cambiata di poco o niente.
Inoltre le tesla hanno sempre avuto clock parrecchio più bassi rispetto alla versione geforce del solito chip.... ricordo la prima tesla su gk110 aveva un base clock di 700mhz... e boost max idem più basso.
Per questo,credo, come dicevo prima, che un gp100 avrà frequenze quasi uguali alla 1080.

Spider-Mans
08-05-2016, 12:20
Chissà a che livelli si arriverà realmente con questi chip, una cosa è certa, solo ragionando a numeri una 980ti a 1500 (che è un silicio neppure per tutti) non arriva neppure alle prestazioni di un boost 1080 base. Questo senza considerare le varie migliorie interne tra cui i registri, la cache e così via....

E con che temperature...aspettando le review..certo xD

YesManYes
08-05-2016, 12:31
C è anche un altro motivo che mi fa supporre frequenze elevate per gp100 1080ti.... il fatto che se fosse castrata di molto nelle frequenze,poi con quelle spech non farebbe neanche il 30% di differenza con la 1080....
Se pensiamo che tra 980 e 980ti c è una differenza hw paragonabile, ed a parità di frequenze ( boost max a 1200/1200+) la differenza prestazionale è mediamente del 35%....

YesManYes
08-05-2016, 12:36
Chissà a che livelli si arriverà realmente con questi chip, una cosa è certa, solo ragionando a numeri una 980ti a 1500 (che è un silicio neppure per tutti) non arriva neppure alle prestazioni di un boost 1080 base. Questo senza considerare le varie migliorie interne tra cui i registri, la cache e così via....

Io credo nel fatto che anche una 1070 andrà più forte di una titanx....
E più si andrà avanti e più con i nuovi giochi la differenza aumenterà...., perché nv ottimizzera' solo per l'ultima serie di gpu, cioè quella che sta vendendo.
Anche per questo motivo per me il chippettone finale non vale piu la pena.
Meglio una 1080 o 2x 1070 ad inizio del ciclo vitale della nuova architettura, così per quasi due anni hai il massimo supporto

Crysis90
08-05-2016, 12:40
Intanto sul mercatino spuntano in vendita le 980 Ti come fossero funghi al bosco dopo 7 giorni di pioggia continua. :D :asd: :asd:
Addirittura anche qualche Titan X...
Il gorilla ha definitivamente avuto la meglio. :O :stordita: :asd:

scorpion73
08-05-2016, 12:47
Chissà da quando saranno prenotabili negli shop

nicola1283
08-05-2016, 13:05
Io credo nel fatto che anche una 1070 andrà più forte di una titanx....
E più si andrà avanti e più con i nuovi giochi la differenza aumenterà...., perché nv ottimizzera' solo per l'ultima serie di gpu, cioè quella che sta vendendo.
Anche per questo motivo per me il chippettone finale non vale piu la pena.
Meglio una 1080 o 2x 1070 ad inizio del ciclo vitale della nuova architettura, così per quasi due anni hai il massimo supporto

L'ho pensata esattamente come te, con maxwell le 2 970 mi sono costate quanto una 980 ed in questo caso ci ho guadagnato molto per 2 anni ;) vediamo se la cosa si ripete con pascal, cioe' poco divario in termini di prestazioni tra 1070 e 1080, ma tanta differenza di prezzo.

Spider-Mans
08-05-2016, 13:06
Intanto sul mercatino spuntano in vendita le 980 Ti come fossero funghi al bosco dopo 7 giorni di pioggia continua. :D :asd: :asd:
Addirittura anche qualche Titan X...
Il gorilla ha definitivamente avuto la meglio. :O :stordita: :asd:

Aspertiamo le recensioni :asd:

Nurabsa
08-05-2016, 13:15
si provano a vendere ma c'è desolazione,

vendere adesso è sbagliato perche la gente aspetta le review dx non vulkan
E poi chi ha una custom che fa si piglia il sarcofago il 27? ma non scherziamo
Sul discorso conviene il cippino per due anni rispondo dopo il 17 chissà magari mi converto anch io se stracciano le maxwell

TigerTank
08-05-2016, 13:16
Tiger io dubito che una 980ti su banchetto guadagni in full super overclock 15 temp in meno... pascal èe decisamente piu fresco..ma era prevedibile...il processo produttivo nettamente migliore e ulteriori affinamenti che gia maxwell aveva introdotto in ottica consumi minori ..del resto c e un raddoppio prestazioni / watt..quindi :D

Cmq io ho un case banchetto XD freschissimo ma se occo la 970 le temp salgono

temperatura ambiente + uso esterno o interno, possono cambiare parecchio le cose.
Diciamo che quando avremo un pò di recensioni da consultare avremo un quadro più chiaro e completo! ;)
O meglio ancora appunto le esperienze dirette degli utenti qui.

mikael84
08-05-2016, 13:59
mikael io invece parlavo di frequenza massima, non di base clock.
E facevo il confronto tra la piccola gpu vs big gpu, dove la frequenza in boost max è cambiata di poco o niente.
Inoltre le tesla hanno sempre avuto clock parrecchio più bassi rispetto alla versione geforce del solito chip.... ricordo la prima tesla su gk110 aveva un base clock di 700mhz... e boost max idem più basso.
Per questo,credo, come dicevo prima, che un gp100 avrà frequenze quasi uguali alla 1080.

Attenzione che le tesla non boostano in 2,0 ma in core clock e base boost per limitare i consumi.
Cmq avremmo clock più alti di tesla, questo è chiaro ma se già la 1070 parte a 1600 di base, difficilmente avremmo valori simil 1080.
Chiaramente poi come ben sai, bisogna vedere i vari silici e quanto si potrà raggiungere in OC, perchè alla fine se parti 100mhz in meno, alla fine poco cambia se il silicio permette buoni OC.
Le 780ti con circuito dp in parte spento e silici selezionati per garantire i 2880cc (dove ogni SMX aveva solo 8 unità DP su 48) raggiungeva sotto liquido valori sopra la 680.
Come ben sai dipende anche dall'affinità del processo produttivo

C è anche un altro motivo che mi fa supporre frequenze elevate per gp100 1080ti.... il fatto che se fosse castrata di molto nelle frequenze,poi con quelle spech non farebbe neanche il 30% di differenza con la 1080....
Se pensiamo che tra 980 e 980ti c è una differenza hw paragonabile, ed a parità di frequenze ( boost max a 1200/1200+) la differenza prestazionale è mediamente del 35%....

La titan x rispetto alla 980 ha il 50% di prestazioni su rops, tmu, triangle in drawn e culling (bestia nera di AMD) e pipeline a 6 stadi.
Tra 980 e 980ti ci scorre il 37,5%.
Quindi teoricamente hai ragione, ed il tuo calcolo è giusto, vedremmo un 30% circa, considerando che la x80ti potrebbe avere qualche TPC decurtato e partire da 3328cc ma in caso di HBM partire da un bandwidth ben più elevato.
Sulla questione ram, penso che qualcosa taglieranno per far comprare la Titan (brutti termini ma è meglio dirle schiette le cose). Se tagli a 12gb con 3 stack ti ritrovi 580gb/s contro i 4 stack a 720gb/s ma 16gb.:)

YesManYes
08-05-2016, 14:08
Mikael x quanto riguarda la banda passante di 720gb del gp100, io credo che sia addirittura sovradimensionata: gp100 full è un 50% di gp104 full , e SE gp104 è proporzionato con 320gb allora gia con circa 500gb dovrebbe esserlo un gp100

Spider-Mans
08-05-2016, 14:24
per curiosità ho messo su subito la 390 e mi hanno offerto 300€ compresa la spedizione.
ma non credo convenga a noi con la 390 e la 970 sbarazzarcene.

la 1070 credo costerà sui 500€ con una differenza tutta da testare. é una buona scheda ma le slide mi sembrano preparate ad arte per hyppare la massa. nessun accenno su benchmark reali e soprattutto nessun riferimento al calcolo asincrono.

aspetti le recensioni e valuti

ma è abbastanza scontato che 390 e 970 prenderanno legnate da 1070 (non ci vuole nostradamus per indovinarlo)

la 1070 sara probabilemnte simile alla attuale 980ti come prestazioni ma a un prezzo nettamente inferiore (se un po sopra o sotto o piu o meno uguale lo vedremo nelle recensioni)..

mikael84
08-05-2016, 14:28
Mikael x quanto riguarda la banda passante di 720gb del gp100, io credo che sia addirittura sovradimensionata: gp100 full è un 50% di gp104 full , e SE gp104 è proporzionato con 320gb allora gia con circa 500gb dovrebbe esserlo un gp100

Si chiaramente la banda è molto elevata, tieni presente che le varie rop's tmu, shader accedono in media a 150-200gb/s con i titoli attuali su un 1440p ma questo può cambiare utilizzando più componenti e quindi richiedere più banda (pensa che WD richiede sino a 270gb/s sulla TI).
Con il classico bus, hai una banda classica, con le HBM se levi uno stack ti ritrovi con 3/4 di banda.
Quindi se avremmo 12 gb finali la banda sarà di 540gb/s, un valore in linea con la prima generazione di HBM ma con memoria ben più ampia.
Con un bus ampio 384bit e 12gb non fai certo di meglio, visto che a 10gigabit ti ritrovi 480gb/s.
Quindi i 12gb come li metti avranno sempre un bandwidth minore ma non certo un collo di bottiglia.

Con le attuali hbm bisogna stare purtroppo sotto il TB/s, valore che potrebbe portare a ben 60watt solo lato memoria, infatti con queste memorie andare oltre significa andare a 100/120watt solo di fbvdd

TigerTank
08-05-2016, 15:01
Ecco vedi allora che eravamo più o meno d'accordo? Bastava leggere bene cosa avevo scritto senza balzare sulla sedia ogni volta che si scrive mantle dentro un thread nVidia (bestemmiare in chiesa darebbe meno fastidio), senza bisogno di tirar fuori appellativi tipo pro AMD o accuse di trolling.

Non era riferito a te quello, ma in generale visto che appunto era già uscito più volte in passato quel discorso, nell'interpretazione che ho scritto sopra. ;)

traider
08-05-2016, 15:16
Vado un pò OT ma nemmeno tanto...

Io ancora non riesco a capire se cè un reale ed effettivo salto di FPS dal passare da un i5 ad un i7 , Risoluzione dal 1920x1080 al 2560x1440 max , cè chi dice di si chi dice di no , chi dice poca roba , voi che dite ?

Il mio pensiero è le 1070/1080 potrebbero essere cpu limited con un i5 ?

Prendendo in esame il meglio di oggi ( 980ti/TitanX ) cosa emerge ?

:stordita: .

Iceman69
08-05-2016, 15:24
Vado un pò OT ma nemmeno tanto...

Io ancora non riesco a capire se cè un reale ed effettivo salto di FPS dal passare da un i5 ad un i7 , Risoluzione dal 1920x1080 al 2560x1440 max , cè chi dice di si chi dice di no , chi dice poca roba , voi che dite ?

Il mio pensiero è le 1070/1080 potrebbero essere cpu limited con un i5 ?

Prendendo in esame il meglio di oggi ( 980ti/TitanX ) cosa emerge ?

:stordita: .

Dipende sicuramente dai giochi e da come sono programmati, probabilmente sugli FPS medi la CPU importa poco, però ci saranno sicuramente dei punti nei giochi in cui, magari per pochi secondi, la CPU è chiamata in causa pesantemente, in quel punto avrai degli scatti che peggioreranno la tua esperienza di gioco.

Per fare un esempio in Pcars quando ci sono molte auto controllate dalla IA tutte insieme la CPU viene impegnata molto, se non è adeguata puoi avere la migliore scheda video, ma comunque il gioco scatterà (e tu farai un incidente).

Thunder-74
08-05-2016, 15:26
Discorso sli bridge:
A chi chiedeva se usare due ponti porta benefici: ho provato, nessuna differenza
Quello nuovo funziona solo con Pascal

Simedan1985
08-05-2016, 15:30
quindi se il nuovo funziona solo con pascal , i vecchi funzioneranno con pascal ?

Thunder-74
08-05-2016, 15:39
quindi se il nuovo funziona solo con pascal , i vecchi funzioneranno con pascal ?

È possibile, magari non si beneficia dell'aumento di banda

athlon xp 2400
08-05-2016, 15:39
Discorso sli bridge:
A chi chiedeva se usare due ponti porta benefici: ho provato, nessuna differenza
Quello nuovo funziona solo con Pascal

Grazie

Thunder-74
08-05-2016, 15:41
quindi se il nuovo funziona solo con pascal , i vecchi funzioneranno con pascal ?

È possibile, magari non si beneficia dell'aumento di banda oppure usando due ponti, si ha l'equivalente del nuovo ponte

YesManYes
08-05-2016, 16:20
The Async Compute problem is probably one of the most controversial issues surrounding the older generation of Geforce graphics cards from Nvidia. Something very interesting, however, is present in the press release that they sent out to, well, the press. According to the official statement, the GTX 1080 is fully capable of performing Async Compute. If this turns out to be true, then this will give negate a major edge that Radeon graphics cards from AMD have enjoyed this past year.



http://wccftech.com/nvidia-gtx-1080-asynchronous-compute/

fireradeon
08-05-2016, 16:26
È possibile, magari non si beneficia dell'aumento di banda oppure usando due ponti, si ha l'equivalente del nuovo ponte

Attualmente il secondo ponticello é solo estetico, probabilmente funzioneranno anche i vecchi bridge ROG, EVGA etc. e se sono doppi come il ROG saranno in grado di sfruttare l'hb sli, alla fine non credo che il bridge abbia particolari capacitá se non quello di collegare le 2 schede. Il vecchio sli bridge nvidia è singolo questo nuovo non fa altro che essere doppio e collegare entrambe. Quindi sono convinto che non servirá comprarne uno nuovo.

Legolas84
08-05-2016, 16:47
The Async Compute problem is probably one of the most controversial issues surrounding the older generation of Geforce graphics cards from Nvidia. Something very interesting, however, is present in the press release that they sent out to, well, the press. According to the official statement, the GTX 1080 is fully capable of performing Async Compute. If this turns out to be true, then this will give negate a major edge that Radeon graphics cards from AMD have enjoyed this past year.



http://wccftech.com/nvidia-gtx-1080-asynchronous-compute/
È sicuramente una bella notizia ma di certo le review porranno particolare attenzione a questo aspetto ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Spider-Mans
08-05-2016, 16:58
È sicuramente una bella notizia ma di certo le review porranno particolare attenzione a questo aspetto ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

beh sei scomparso
pareri su 1080 e 1070 ?
stai gia preparando l'upgrade? :D

Psycho77
08-05-2016, 19:17
Fatevi due risate.

http://multiplayer.it/video/tag/la-pierpolemica/la-pierpolemica-le-nuove-geforce-uccidono-le-console.hi/

Come se fino a ieri le console fossero ai livelli del pc.:doh: :asd:

Crysis90
08-05-2016, 19:26
Fatevi due risate.

http://multiplayer.it/video/tag/la-pierpolemica/la-pierpolemica-le-nuove-geforce-uccidono-le-console.hi/

Come se fino a ieri le console fossero ai livelli del pc.:doh: :asd:

Che cagata, ragazzi. :doh:
Soprattutto contando che ormai è quasi certo che usciranno i nuovi modelli di console con hardware aggiornato e potenziato.

The_SaN
08-05-2016, 19:26
Le nuove geforce uccidono le consoles, i robot uccidono il lavoro, le scie chimiche e i rettiliani :asd:

logic1989
08-05-2016, 19:28
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D
Ragazzi ma siamo certi che è meglio della gtx 980ti g1 gaming?

Psycho77
08-05-2016, 19:28
Che cagata, ragazzi. :doh:
Soprattutto contando che ormai è quasi certo che usciranno i nuovi modelli di console con hardware aggiornato e potenziato.

Si ma sti consolari la devono smettere di fare confronti con il pc,perchè saranno sempre legnate sui denti,sempre e comunque.:asd:
Le console devono montare hardware economico per essere di massa.
C'è gente che sogna il 4k e 60 frame su console e non sto scherzando eh.:rolleyes:

Psycho77
08-05-2016, 19:30
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D
Ragazzi ma siamo certi che è meglio della gtx 980ti g1 gaming?

Io ipotizzo che una 1080 sarà circa del 20% superiore ad una 980 ti nel gaming,ecco perchè ho deciso di aspettare il chippone nel 2017.
Spero che i benchmark diano risultati superiori,ma ne dubito fortemente.

The_SaN
08-05-2016, 19:31
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D
Ragazzi ma siamo certi che è meglio della gtx 980ti g1 gaming?

La certezza l'avremo solo con le recensioni :D
Comunque sembra almeno un 20-25% più veloce stock vs stock. E ha 8GB di ram, che è pur sempre un vantaggio per la longevità se la si usa in 4K.

smoicol
08-05-2016, 19:45
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D
Ragazzi ma siamo certi che è meglio della gtx 980ti g1 gaming?

senza nessun test vero non si può dire ma sicuro va poco di più,
dico la mia, sembra un maxwell che ha beneficiato del nuovo pp e cosi hanno potuto sfruttare il tutto per raggiungere frequenze molto elevate nei limiti preposti, ma se realmente in 4k non ci sarà un reale boost queste vga le vedo un fail un 20\25% vuol dire poco o tanto dipende da molti fattori

Spider-Mans
08-05-2016, 19:53
senza nessun test vero non si può dire ma sicuro va poco di più

Poco di piu?..20.30 % .... xD non sottovalutiamo loverclock che sembra avere ampio margine e le custom...

smoicol
08-05-2016, 20:04
Poco di piu?..20.30 % .... xD non sottovalutiamo loverclock che sembra avere ampio margine e le custom...

io ci vado piano, anche perchè, fin quando non usciranno le nuove ati possiamo dire quello che vogliamo, la 1080 mi piace, ma per quando dicono che hanno riprogrammato i cuda etc etc, rimane una vga che è l'evoluzione della gtx980, niente di nuovo quindi

Psycho77
08-05-2016, 20:05
Poco di piu?..20.30 % .... xD non sottovalutiamo loverclock che sembra avere ampio margine e le custom...

Ovviamente il confronto è 1080 stock vs 980 ti stock,non certo 1080 stock vs 980 ti kingpin.
Come diceva qualcuno il 20/25% in più è robetta da poco in prospettiva del 4k,qui ci vuole un vero salto che spero che arrivi con la 1080 ti.:)

smoicol
08-05-2016, 20:05
Ovviamente il confronto è 1080 stock vs 980 ti stock,non certo 1080 stock vs 980 ti kingpin.
Come diceva qualcuno il 20/25% in più è robetta da poco in prospettiva del 4k,qui ci vuole un vero salto che spero che arrivi con la 1080 ti.:)

ecco

beatl
08-05-2016, 20:06
senza nessun test vero non si può dire ma sicuro va poco di più,
dico la mia, sembra un maxwell che ha beneficiato del nuovo pp e cosi hanno potuto sfruttare il tutto per raggiungere frequenze molto elevate nei limiti preposti, ma se realmente in 4k non ci sarà un reale boost queste vga le vedo un fail un 20\25% vuol dire poco o tanto dipende da molti fattori

Fail non direi ... diciamo che quelle percentuali sono l'incremento 'giusto' per spingere la gente a comprare un chip di fascia media passato per top di gamma ... oh gente mica dico che facciate male a comprare ci mancherebbe .. Dico solo che il marketing nVidia è perfetto

E ve lo dice uno che a nVidia ha lasciato giù un bel po' di eurini

Ale55andr0
08-05-2016, 20:08
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D


non farti il sangue amaro ;)



...dalli a me e mi prendo una 1080 reference :O :D

Psycho77
08-05-2016, 20:12
C'è da dire che queste nuove pascal sono il messia per la fascia media e un fail per chi ha già la 980 ti.
In parole povere,gtx titan x per tutti a 400 euro circa!
Ma chi ha già una 980 ti sono quasi certo che rimarrà deluso dalla 1080,soprattutto se si aspetta grandi cambiamenti a risoluzione 4k.

nvidia ovviamente spara i bench a 1080p per impressionare,perchè se lo facesse a 4k li piglierebbero per il culo.:asd:
In proporzione di misura se una 980 ti fa 35 frame in tw3,ne farà 40 con la 1080 e uno poco avvezzo alle unità di misura,ne uscirebbe sconcertato ed amareggiato........

Ale55andr0
08-05-2016, 20:15
C'è da dire che queste nuove pascal sono il messia per la fascia media e un fail per chi ha già la 980 ti.
.

si diceva grossomodo lo stesso per chi aveva la 780ti e in raffronto la 980 :fagiano:

muppo
08-05-2016, 20:16
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D
Ragazzi ma siamo certi che è meglio della gtx 980ti g1 gaming?

800 euro per la 1080 liscia io non li spenderei sinceramente..
per sapere se va come dichiarato basta aspettare il 17.

Psycho77
08-05-2016, 20:20
ti dico io come andrà.

chi non la la 980ti/titan x vedrà in quel 20% (presunto) di differenza un salto epico

chi ha la 980ti/titan x vedrà in quel 20% (presunto) un fail

chiaro che le recensioni che usciranno, fatte su giochi che sono programmati per andare bene su maxwell con driver che ancora vanno bene su maxwell, non mostreranno il potenziale di quelle schede. Se al dayone le 1080 sono +20% sulle 980ti (ho detto SE), nei primi titoli tripla A dx12 potrebbero volare schiaffoni seri.

Questo sicuramente,ma non certo per meriti della nuova architettura ma per

l'obsolescenza programmata di nvidia

La 780 ti l'hanno proprio uccisa in questo senso.Vi ricordate lo scandalo the witcher 3 si?Dopo la shitstorm della community dopo una settimana girava a 15 frame di più sulla 780 ti.:asd:

beatl
08-05-2016, 20:20
C'è da dire che queste nuove pascal sono il messia per la fascia media e un fail per chi ha già la 980 ti.
In parole povere,gtx titan x per tutti a 400 euro circa!
Ma chi ha già una 980 ti sono quasi certo che rimarrà deluso dalla 1080,soprattutto se si aspetta grandi cambiamenti a risoluzione 4k.

nvidia ovviamente spara i bench a 1080p per impressionare,perchè se lo facesse a 4k li piglierebbero per il culo.:asd:
In proporzione di misura se una 980 ti fa 35 frame in tw3,ne farà 40 con la 1080 e uno poco avvezzo alle unità di misura,ne uscirebbe sconcertato ed amareggiato........

Quoto e sottoscrivo ... sono schede di fascia media ripeto.... Per i possessori di 980ti o Titan il divario prestazionale non vale lo sbattimento del cambio di scheda... e più si sale di risoluzione più questo vale.

Almeno io la vedo così ..


Sarà l'età che avanza che mi fa vedere le cose in modo un po più pacato e meditato (.. Purtroppo :muro: )

Psycho77
08-05-2016, 20:26
Quoto e sottoscrivo ... sono schede di fascia media ripeto.... Per i possessori di 980ti o Titan il divario prestazionale non vale lo sbattimento del cambio di scheda... e più si sale di risoluzione più questo vale.

Almeno io la vedo così ..


Sarà l'età che avanza che mi fa vedere le cose in modo un po più pacato e meditato (.. Purtroppo :muro: )

Anche io sono vecchietto,non sei il solo.;)
Ma la matematica non è un opinione.Il 4k è 4 volte il full hd e per avere 30 frame di più ci vuole un ecatombe di potenza in più.
Se otteniamo 30 frame di più in full hd,in 4k di solito,in base anche a molti fattori come il motore grafico e l'ottimizzazione,ne otterremmo 5 o 7 di più.
30 :4=7.5

Apriti cielo e ditemi che c'è dopo volta.:asd:

muppo
08-05-2016, 20:27
Quoto e sottoscrivo ... sono schede di fascia media ripeto.... Per i possessori di 980ti o Titan il divario prestazionale non vale lo sbattimento del cambio di scheda... e più si sale di risoluzione più questo vale.

Almeno io la vedo così ..


Sarà l'età che avanza che mi fa vedere le cose in modo un po più pacato e meditato (.. Purtroppo :muro: )

beh ti capisco ma io se nvidia promette certe prestazioni e i prezzi saranno sui 600 per la 1080 ci può stare il cambio. Ma conoscendo nvidia... bisogna vedere come si comporteranno coi giochi, benchmark veri al momento non ce ne sono a parte firestrike che effettivamente in quel benchmark dimostra che la 1080 vale la 980ti, inoltre bisogna vedere come si comportano in oc fosse vero tutto quell'headroom sarebbe un plus non da poco.
ancora 9 giorni e magari nel frattempo esce qualche benchmark qua e la.
sempre aspettando magari che amd tiri fuori qualcosa di degno.

Thunder-74
08-05-2016, 20:37
Ho trovato questo test comparativo in Batman , tra 1080 e 980ti, sarà vero?

LINK (https://www.youtube.com/watch?v=93DA9tiGJN0)

beatl
08-05-2016, 20:43
Ho trovato questo test comparativo in Batman , tra 1080 e 980ti, sarà vero?

LINK (https://www.youtube.com/watch?v=93DA9tiGJN0)

Me lo riassumente per favore che sto in un bunker con il cellulare e YouTube mi gira ad una risoluzione che non mi da la possibilità di leggere :muro:

Psycho77
08-05-2016, 20:45
Ho trovato questo test comparativo in Batman , tra 1080 e 980ti, sarà vero?

LINK (https://www.youtube.com/watch?v=93DA9tiGJN0)

A giudicare dai meno no.Però se lo fosse non fai altro che confermare la mia teoria dei 30 frame in più dalla 980 ti in full hd.:asd:
E dal nulla cosmico in più nel 4k.:fagiano:

smoicol
08-05-2016, 20:48
A giudicare dai meno no.Però se lo fosse non fai altro che confermare la mia teoria dei 30 frame in più dalla 980 ti in full hd.:asd:
E dal nulla cosmico in più nel 4k.:fagiano:

in 4k farà 7\8 frame in più

Thunder-74
08-05-2016, 20:50
Me lo riassumente per favore che sto in un bunker con il cellulare e YouTube mi gira ad una risoluzione che non mi da la possibilità di leggere :muro:

Benchmark interno a Batman:

1080

Minimi 58
Massimi 144
Medi 117

980ti

Minimi 50
Massimi 127
Medi 88

Se fosse vero, sui frames medi si avrebbe un incremento del 33% circa

smoicol
08-05-2016, 20:58
Benchmark interno a Batman:

1080

Minimi 58
Massimi 144
Medi 117

980ti

Minimi 50
Massimi 127
Medi 88

Se fosse vero, sui frames medi si avrebbe un incremento del 33% circa

non si hanno molte info,
modelli frequenze delle vga per dirne una, risoluzione e filtri vari

beatl
08-05-2016, 21:01
Benchmark interno a Batman:

1080

Minimi 58
Massimi 144
Medi 117

980ti

Minimi 50
Massimi 127
Medi 88

Se fosse vero, sui frames medi si avrebbe un incremento del 33% circa

Grazie 1000 ... buttando li un occhio sembrano bench in 1080p come risoluzione (se ben ricordo il titolo come girava quando lo giocai)

Thunder-74
08-05-2016, 21:04
Grazie 1000 ... buttando li un occhio sembrano bench in 1080

si è in FullHD. Ho provato a lanciare lo stesso bench con una sola 980ti e medesime impostazioni:

1494/7500

Minimi 83
Massimi 144
Medi 115

Diciamo che potrebbero essere veritieri come valori, visto che facendo un 3D mark, mi sono avvicinato al punteggio apparto tempo fa .. poi certo occando la 1080, ciao ciao...

beatl
08-05-2016, 21:10
si è in FullHD. Ho provato a lanciare lo stesso bench con una sola 980ti e medesime impostazioni:

1494/7500

Minimi 83
Massimi 144
Medi 115

Diciamo che potrebbero essere veritieri come valori, visto che facendo un 3D mark, mi sono avvicinato al punteggio apparto tempo fa .. poi certo occando la 1080, ciao ciao...

Oki grazie ... aspettiamo test più approfonditi ... se questo si confermerà il divario (e credo sarà così) questa 1080 sarà un ottimo acquisto per upgradare una 970 e non va oltre i 1440p di risoluzione

Vul
08-05-2016, 21:23
N

TigerTank
08-05-2016, 21:23
Ho trovato questo test comparativo in Batman , tra 1080 e 980ti, sarà vero?

LINK (https://www.youtube.com/watch?v=93DA9tiGJN0)

ma mica stanno sotto NDA?
Comunque usare l'ultimo batman....uno dei più grossi fail videoludici :asd:

Crysis90
08-05-2016, 21:24
ti dico io come andrà.

chi ha la 980ti/titan x vedrà in quel 20% (presunto) un fail



Io sinceramente non la vedo per nulla come un fail la 1080. E sono possessore di una 980 Ti custom OC.
Se pensi che prendoti una custom 1080 tipo EVGA Classified o ASUS Strix, potrai arrivare tranquillamente a 2,2 Ghz sul Core e 11 Gb sulle memorie avrai di sicuro un altro 15/20% di performance in più rispetto allo standard.
Il che è tanta roba.
E non penso di essere l'unico a pensarla così, visto che sul mercatino si affolla la vendita di 980 Ti dopo l'annuncio di Pascal di Venerdì sera. ;)
Io personalmente attendo GP100, visto che gioco su un 48" Samsung a risoluzione Ultra HD e quindi la differenza rimane comunque risicata. 20% di performance in più rispetto alla mia 980 Ti custom a 4K si traducono si e no in 5/10 FPS in più. Troppo poca la differenza, non mi cambia assolutamente l'esperienza di gioco.
GP100 invece comincerà ad essere un salto tangibile. Se sarà il 50/60% più veloce di GM200, sarà una panacea per il gaming in 4K.

Vul
08-05-2016, 21:26
Non capisco chi dice che chi ha la 980ti può anche non cambiare.

E' risaputo che sono 4 anni che Nvidia abbandona subito le vecchie architetture e le tarpa artificialmente.

Non mi meraviglio se su tutti i giochi sponsorizzati da nvidia tempo un paio di mesi le prestazioni saranno 50 % in più.

fireradeon
08-05-2016, 21:27
Benchmark interno a Batman:

1080

Minimi 58
Massimi 144
Medi 117

980ti

Minimi 50
Massimi 127
Medi 88

Se fosse vero, sui frames medi si avrebbe un incremento del 33% circa

Vedrete che sará tra il 20 e il 25 percento come dichiarato. Poi io tuo test è fatto con un OC piú che spinto, direi quasi ai limiti ad aria, non lo terrei molto in conto

TigerTank
08-05-2016, 21:28
Ci sono diverse Ti a mercatino...ma stanno vendendo a fatica, manco sotto le 500€.
Per cui già ci smeni ora.

Se già le 1080 references costeranno tipo 650€ vuol dire che Strix e Classified arriveranno pure a 750 o più.

Nessuno ti garantisce che queste schede salgano di più, non c'è alcuna selezione di gpu ma la solita "lotteria" tranne che su schede come le Kingpin con gpu selezionata.

Saranno un bel balzo rispetto a gtx970/gtx980...ma rispetto alle TI è ancora tutto da vedere e da quantificare ;)

Spider-Mans
08-05-2016, 21:32
io ci vado piano, anche perchè, fin quando non usciranno le nuove ati possiamo dire quello che vogliamo, la 1080 mi piace, ma per quando dicono che hanno riprogrammato i cuda etc etc, rimane una vga che è l'evoluzione della gtx980, niente di nuovo quindi

puoi andare piano quanto vuoi
a casa mia 20-30% differenze su stock non è "pochino"

e il margine di overclock delle pascal potrebbe essere anche superiore...

Crysis90
08-05-2016, 21:34
Non capisco chi dice che chi ha la 980ti può anche non cambiare.

Dipende tutto dal target di gioco a cui punti.
Se giochi in Full HD, passare da 980 Ti a 1080 ha senso.
Se giochi in 4K no.
Ci sono diverse Ti a mercatino...ma stanno vendendo a fatica, manco sotto le 500€.
Per cui già ci smeni ora.

Se già le 1080 references costeranno tipo 650€ vuol dire che Strix e Classified arriveranno pure a 750 o più.

Nessuno ti garantisce che queste schede salgano di più, non c'è alcuna selezione di gpu ma la solita "lotteria" tranne che su schede come le Kingpin con gpu selezionata.

Saranno un bel balzo rispetto a gtx970/gtx980...ma rispetto alle TI è ancora tutto da vedere e da quantificare ;)
Ecco perchè io aspetto GP100. :D
Ha poco senso passare da Big-chip a Small-chip (benchè di generazione successiva) se si gioca a risoluzioni superiori al Full HD, dove lo scarto prestazionale tende ad assottigliarsi sempre di più man mano che si sale di risoluzione. ;)

Spider-Mans
08-05-2016, 21:34
Ho trovato questo test comparativo in Batman , tra 1080 e 980ti, sarà vero?

LINK (https://www.youtube.com/watch?v=93DA9tiGJN0)

ok cercare info
ma mi spieghi che credibilita puo avere un video di un utente con 14 iscritti? :asd:

ma sopratutto come fa ad avere la 1080 ? l'ha ricevuta dalla luna?


ma dai :asd: FAKE

Thunder-74
08-05-2016, 21:36
Vedrete che sará tra il 20 e il 25 percento come dichiarato. Poi io tuo test è fatto con un OC piú che spinto, direi quasi ai limiti ad aria, non lo terrei molto in conto

Ho paragonato quel risultato al mio per capire se poteva essere veritiero, perché si era detto che una 980ti occata a 1500, poteva avere valori vicini a quelli della 1080. Non volevo dire che la 980ti occata è come una 1080 reference... Troppe variabili in gioco, visto che non tutte le gpu salgono allo stesso modo... Per dirne una , la mia stessa scheda con medesimo voltaggio ad aria non superava i 1455 ;)

beatl
08-05-2016, 21:37
Io parto dal punto di vista che un upgrade del comparto video (SLI nel mio caso) deve rispettare due condizioni :
La prima è che deve darmi un boost tangibile in termini di frames e la seconda è che questo boost mi permetta di fare cose che adesso non posso fare.

Da qui la mia convinzione di aspettare con calma il chippone... ora come ora uno SLI di ti è sufficiente a giocare come dico io (60 frames vsyncati .. anzi gsyncati , che in alcune occasioni è una mano santa se i 60 frames non sono granitici)

Poi ognuno fa come gli pare ci mancherebbe ... volevo solo dire che io inizio a risparmiare per lo SLI di Pascalone:D

Thunder-74
08-05-2016, 21:41
ok cercare info
ma mi spieghi che credibilita puo avere un video di un utente con 14 iscritti? :asd:

ma sopratutto come fa ad avere la 1080 ? l'ha ricevuta dalla luna?


ma dai :asd: FAKE

Ho trovato questo è l'ho condiviso... Non è che possiamo stare qui a scrivere sempre le stesse cose ;)
Analizziamo quello che troviamo e componiamo come un puzzle. Altrimenti aspettiamo il 17 e amen...

Crysis90
08-05-2016, 21:48
ma sopratutto come fa ad avere la 1080 ? l'ha ricevuta dalla luna?

ma dai :asd: FAKE
http://wccftech.com/nvidia-gtx-1080-cards-shipping-reviewers/

A meno che non sia uno di questi... :D :O :eek:

http://videocardz.com/59695/nvidia-geforce-gtx-1080-reviews-on-may-17th

Hanno già le schede per le mani, 10 giorni e sarà tutto di dominio pubblico.

Poi ognuno fa come gli pare ci mancherebbe ... volevo solo dire che io inizio a risparmiare per lo SLI di Pascalone:D

:ave: :ave: :ave: :mano: :D :sofico:

mikael84
08-05-2016, 21:52
Io parto dal punto di vista che un upgrade del comparto video (SLI nel mio caso) deve rispettare due condizioni :
La prima è che deve darmi un boost tangibile in termini di frames e la seconda è che questo boost mi permetta di fare cose che adesso non posso fare.

Da qui la mia convinzione di aspettare con calma il chippone... ora come ora uno SLI di ti è sufficiente a giocare come dico io (60 frames vsyncati .. anzi gsyncati , che in alcune occasioni è una mano santa se i 60 frames non sono granitici)

Poi ognuno fa come gli pare ci mancherebbe ... volevo solo dire che io inizio a risparmiare per lo SLI di Pascalone:D

Io dico che non ci riuscirete ad aspettare il chippone:fagiano:
Passare dalla 980 alla 980ti è stato un grande balzo, i 6gb di ram, eppure in 1080p ci passava il 18% circa e 23% circa a 1440p.
Tra 980 e 980ti ci passavano solo 768 shader a pari architettura. Con questa Pascal è come passare dai 2816 ai 4096cc, quindi ci passano quasi il doppio di shader teorici, ovvero 1280.

Architettura ottimizzata a 64 thread, che potrebbe permettere varie migliorie su alcuni giochi e chiaramente 8gb.
E' vero che il chippone sarà ben sopra ma davvero chi ha fatto tutti i cambi possibili, salta questo chip, anche se dura un anno?:fagiano:

ste-87
08-05-2016, 21:56
Io per ora ho 700 euro dovrei arrivare a 800 per comprari una 1080 custom....:D
Ragazzi ma siamo certi che è meglio della gtx 980ti g1 gaming?

800 euro per la 1080 liscia io non li spenderei sinceramente..
per sapere se va come dichiarato basta aspettare il 17.

giusto per capire, ma questi 800€ per una 1080 custom, così come 500€ che aveva detto qualcun'altro, da dove escono fuori dopo aver detto che le prime stanno su un prezzo di 599$ (quindi sui 650€ papabili nelle versioni custom) e le seconde a 379$ quindi sui 400-420€ sempre custom al lancio? :confused:

smoicol
08-05-2016, 21:58
giusto per capire, ma questi 800€ per una 1080 custom, così come 500€ che aveva detto qualcun'altro, da dove escono fuori dopo aver detto che le prime stanno su un prezzo di 599$ (quindi sui 650€ papabili nelle versioni custom) e le seconde a 379$ quindi sui 400-420€ sempre custom al lancio? :confused:

Piu' tax

Crysis90
08-05-2016, 21:59
Io dico che non ci riuscirete ad aspettare il chippone:fagiano:

E' vero che il chippone sarà ben sopra ma davvero chi ha fatto tutti i cambi possibili, salta questo chip, anche se dura un anno?:fagiano:

Ti ripeto, per quanto mi riguarda la risposta è assolutamente SI.
20/25% di FPS in più a The Witcher 3 in 4 K vuol dire 7/8 FPS in più.
Non ha assolutamente senso per me. :O
Inoltre, il prossimo metro di paragone tecnologico sarà il nuovo Battlefield che uscirà a fine anno.
Voglio godermi il multiplayer al massimo in 4K, appena uscirà GP100 darò libero sfogo al gorilla e mi prenderò un modello custom. :D

beatl
08-05-2016, 22:00
Io dico che non ci riuscirete ad aspettare il chippone:fagiano:
Passare dalla 980 alla 980ti è stato un grande balzo, i 6gb di ram, eppure in 1080p ci passava il 18% circa e 23% circa a 1440p.
Tra 980 e 980ti ci passavano solo 768 shader a pari architettura. Con questa Pascal è come passare dai 2816 ai 4096cc, quindi ci passano quasi il doppio di shader teorici, ovvero 1280.

Architettura ottimizzata a 64 thread, che potrebbe permettere varie migliorie su alcuni giochi e chiaramente 8gb.
E' vero che il chippone sarà ben sopra ma davvero chi ha fatto tutti i cambi possibili, salta questo chip, anche se dura un anno?:fagiano:

Ho chiuso la scimmia in cantina... speriamo non si liberi ;)

Thunder-74
08-05-2016, 22:04
La parola d'ordine è cambiare se si ha necessità , altrimenti è solo scimmia... Io sono passato da uno Sli di 780 lisce a quest'ultimo in firma, principalmente perché all'epoca i 3gb erano ormai diventati strettini... La scimmia la domo ;)

TigerTank
08-05-2016, 22:14
La parola d'ordine è cambiare se si ha necessità , altrimenti è solo scimmia... Io sono passato da uno Sli di 780 lisce a quest'ultimo in firma, principalmente perché all'epoca i 3gb erano ormai diventati strettini... La scimmia la domo ;)

La avvolgi nel domopak e la metti in freezer! :sofico:

Thunder-74
08-05-2016, 22:17
La avvolgi nel domopak e la metti in freezer! :sofico:

Hahahah, potrebbe essere una delle soluzioni :D

Marscorpion
08-05-2016, 22:17
Piu' tax

599 dollari sono circa 525 € + tax arrivi intorno ai 650 €. Secondo me si troveranno pure intorno ai 600 € dopo le prime settimane.

maurilio968
08-05-2016, 22:39
599 dollari sono circa 525 € + tax arrivi intorno ai 650 €. Secondo me si troveranno pure intorno ai 600 € dopo le prime settimane.

hai scordato il solito cambio 1:1 dollaro euro.

599 dollari saranno 599 euro. + 22% iva = 730 euro.
Vuoi fare conto pari ? Bene 700 euro.
Questo per le schede "sfigato edition" che secondo me non vedremo in grandi numeri.

Preparati a sborsare 800-850 euro per una 1080 founders edition o similare. Inoltre poichè la produzione di gdrr5x è bassa il prezzo non scenderà con il tempo.

Ovviamente mi auguro di sbagliare alla grande, ma ho paura che non sarà così.

Spider-Mans
08-05-2016, 22:43
Io dico che non ci riuscirete ad aspettare il chippone:fagiano:
Passare dalla 980 alla 980ti è stato un grande balzo, i 6gb di ram, eppure in 1080p ci passava il 18% circa e 23% circa a 1440p.
Tra 980 e 980ti ci passavano solo 768 shader a pari architettura. Con questa Pascal è come passare dai 2816 ai 4096cc, quindi ci passano quasi il doppio di shader teorici, ovvero 1280.

Architettura ottimizzata a 64 thread, che potrebbe permettere varie migliorie su alcuni giochi e chiaramente 8gb.
E' vero che il chippone sarà ben sopra ma davvero chi ha fatto tutti i cambi possibili, salta questo chip, anche se dura un anno?:fagiano:
ma aggiungiamo
se la 1080 costa 600 euro circa in su
pascalone quanto costera? 900-1000 euro? :asd: col rischio che dopo 6 mesi esca il nuovo chippettino che inchiappetti i paperoni?

titan2 la vendemmia :asd:

se devo spendere 1000 euro per una scheda..che massimo dura un anno come top...mi faccio lo sli di 1080 se avro necessita..ma una basta e avanza per il mio target di 1440p dsr

il chippone aveva senso se il rpezzo di lancio fosse stato lo stesso di 980ti (600-700 euro)
ma qui si sballa tutto..la 1080 è cosi potente da superare il chippone precedente e ricopre quel target di prezzo

la 1080ti sara a prezzi folli da prima titan

The_SaN
08-05-2016, 22:47
hai scordato il solito cambio 1:1 dollaro euro.

599 dollari saranno 599 euro. + 22% iva = 730 euro.
Vuoi fare conto pari ? Bene 700 euro.
Questo per le schede "sfigato edition" che secondo me non vedremo in grandi numeri.

Preparati a sborsare 800-850 euro per una 1080 founders edition o similare. Inoltre poichè la produzione di gdrr5x è bassa il prezzo non scenderà con il tempo.

Ovviamente mi auguro di sbagliare alla grande, ma ho paura che non sarà così.

Ma anche no...magari può succedere se compri al day one.
La 970 costava 329 dollari, qui si trovava a 340 euro.
Oggi da Newegg costa 300 dollari e qui 280 euro.

Marscorpion
08-05-2016, 22:49
hai scordato il solito cambio 1:1 dollaro euro.

599 dollari saranno 599 euro. + 22% iva = 730 euro.
Vuoi fare conto pari ? Bene 700 euro.
Questo per le schede "sfigato edition" che secondo me non vedremo in grandi numeri.

Preparati a sborsare 800-850 euro per una 1080 founders edition o similare. Inoltre poichè la produzione di gdrr5x è bassa il prezzo non scenderà con il tempo.

Ovviamente mi auguro di sbagliare alla grande, ma ho paura che non sarà così.

Non esageriamo.....
Se fosse come dici tu allora come spieghi che pagai la gtx980 533€ al lancio (prezzata da Nvidia a 549 dollari)? Seguendo il tuo ragionamento sarebbe dovuta costare 650€ !
Poi se davvero costerà 800 € vuol dire che ne farò a meno; quella cifra per una fascia media non la spendo.

ste-87
08-05-2016, 22:54
Piu' tax

bho, oggi sono andato a rivedere le pagine di questo thread nei giorni in cui sono state presentate 970-980 e poi 980Ti e nei primi mesi confrontandoli con i loro relativi prezzi di listino, ho trovato post che parlavano di custom con prezzi che stavano sui 40-50€ (mediamente) in più di quanto erano i prezzi di listino

A quei giorni ricordo anche che il cambio dollaro/euro era pure più sfortunato per noi rispetto ad oggi...non dico che ora con un cambio migliore cambi qualcosa a nostro vantaggio, ma almeno non mi aspetto prezzi ancora più alti...


il tutto considerando che comunque già un discreto incremento l'hanno dato (50€/$) in più per fascia e comunque non è detto che al prossimo (Volta) incrementino ancora per esempio di altri 50€ per fascia...magari questo step ha avuto anche un leggero aumento per ammortizzare il nuovo pp e le rese più basse dei 28nm che invece erano stra-collaudati da anni e dalle ottime rese

Ho anche notato/ricordato che quando uscirono 970 e 980 rispettivamente a 329$ e 549$ che veniva vendute quindi nei primi tempi a 380€ e 590-600€ da noi come steet price reale, una volta che è sucita la 980Ti la 980 è stata ricollocata come prezzo a 499$ di listino con lieve calo dello streetprice per fare posto ad una 980Ti a 700€ medi inziali, che col tempo si sono livellati a 650€...in sostanza credo che avverrà la stessa identica cosa anche a questo giro con quell'incremento di 50$/€ approssimativi per fascia di cui si parlava all'inizio

p.s. in sostanza a me sembra che ciclicamente ad ogni generazione ci sia un reset generale dei ricordi della precedente e c'è chi si aspetta l'apocalisse dei prezzi: chi lo fa perchè ci crede davvero e chi invece lo fa (magari inconsciamente) e poi vedendo prezzi un filo più "umani" di quello che si aspettavano si auto-convincono che vale la pena acquistare dato che si aspettavano di peggio

Marscorpion
08-05-2016, 23:16
Ho anche notato/ricordato che quando uscirono 970 e 980 rispettivamente a 329$ e 549$ che veniva vendute quindi nei primi tempi a 380€ e 590-600€ da noi come steeprice, una volta che è sucita la 980Ti la 980 è stata ricollocata come prezzo a 499$ di listino con lieve calo dello streetprice per fare posto ad una 980Ti a 700€ medi inziali, che col tempo si sono livellati a 650€...in sostanza credo che avverrà la stessa identica cosa anche a questo giro con quell'incremento di 50$/€ approssimativi per fascia di cui si parlava all'inizio


Ripeto io acquistai il giorno dopo il lancio una GTX 980 EVGA SC a 533€ da caseking, quindi uno shop con prezzi non certo stracciati.

Ludus
08-05-2016, 23:27
Ripeto io acquistai il giorno dopo il lancio una GTX 980 EVGA SC a 533€ da caseking, quindi uno shop con prezzi non certo stracciati.

Tasso di cambio, questo sconosciuto...

The_SaN
08-05-2016, 23:49
Tasso di cambio, questo sconosciuto...

Ad oggi con il cambio hai una differenza del 12%, rispetto al lancio delle 980/970.
Quindi teoricamente i 533 euro diventerebbero 596. Però non è l'unico aspetto da verificare per ottenere il prezzo italiano.

Kostanz77
09-05-2016, 00:10
Qualche giorno e poi scopriremo quanti 💸💸💸$$ serviranno......


Inviato dal mio iPhone 6S utilizzando Tapatalk

ste-87
09-05-2016, 01:04
La spiegazione della founders edition:

http://videocardz.com/59718/nvidia-gtx-1080-gtx-1070-founders-edition-explained

scelta abbastanza discutibile (imho) aveva più senso quando le reference costavano meno delle custom, vai a capire come ragionano :mbe:

Goofy Goober
09-05-2016, 05:26
La spiegazione della founders edition:

http://videocardz.com/59718/nvidia-gtx-1080-gtx-1070-founders-edition-explained

scelta abbastanza discutibile (imho) aveva più senso quando le reference costavano meno delle custom, vai a capire come ragionano :mbe:

ottima notizia!

in pratica le founders sono fatte per rubare qualche soldo in più da tutti coloro che vogliono comprarsi la scheda subitissimo senza aspettare le versioni reference con dissipatori sfigati dei produttori, oppure le prime custom.

per il resto se il pcb non ha nulla di particolare e il chip è totalmente casuale come è sempre stato, mi pare che non ci sia proprio nessunissima ragione per comprare le founder, a parte ovviamente volere a tutti i costi il dissipatore "ufficiale" Nvidia.

Ubro92
09-05-2016, 05:55
Ma anche no...magari può succedere se compri al day one.
La 970 costava 329 dollari, qui si trovava a 340 euro.
Oggi da Newegg costa 300 dollari e qui 280 euro.

Dipende la 970 ha fatto un oscillazione di prezzo non indifferente, costavano meno all'uscita che ora, infatti a ottobre 2014 ricordo bene di averla pagata 315€ + 5 di spedizione con incluso FC4, bisognerà vedere anche come andrà il mercato.

Io penso che aspetterò direttamente dopo l'estate, la 1070 mi interessa nella fascia di prezzo in cui si pone però c'è anche amd che potrebbe far rivedere i prezzi e offrire anche proposte piu valide, quindi freno la scimmia per ora e osservo (http://www.insidethegame.it/wp-content/uploads/2011/03/sauron-eye.jpg)

Thunder-74
09-05-2016, 07:08
Video di confronto 1080 e 980ti in DX12 con Sigularity a 1440p (la 980ti è occata a 1525/7900)
LINK (https://www.youtube.com/watch?v=1NLBbNBwqxE)

Ali3n77
09-05-2016, 07:15
Video di confronto 1080 e 980ti in DX12 con Sigularity a 1440p (la 980ti è occata a 1525/7900)
LINK (https://www.youtube.com/watch?v=1NLBbNBwqxE)

Da quello che ho visto a 1440p 3fps? Ho visto bene ? :mbe: sono al cell

YesManYes
09-05-2016, 07:20
Guardando i risultati di 1080:
http://abload.de/img/b6bba256_gtx10804a9y72.jpeg (http://abload.de/image.php?img=b6bba256_gtx10804a9y72.jpeg)

E questi delle attuali top:
http://abload.de/img/untitled-4qaalh.png (http://abload.de/image.php?img=untitled-4qaalh.png)


Default vs default c'è una differenza del 44%
Tra un 1080 ed un 980 ti
Le amd rullano in sto test

Thunder-74
09-05-2016, 07:23
Da quello che ho visto a 1440p 3fps? Ho visto bene ? :mbe: sono al cell

sembrerebbe, questo è la tabella allegata con i vari bench dove ci sarebbe anche la 1080 occata. Non riesco ad andare sulla pagina del sito di Singularity, perchè in ufficio il proxy me lo blocca..

http://i.imgur.com/9Di9Gi7.jpg

Legolas84
09-05-2016, 07:30
Per forza rullano è un benchmark AMD... Sarebbe come sorprendersi che le NVIDIA vanno meglio nei giochi GameWorks :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

FroZen
09-05-2016, 07:30
in teoria la 1080 in questo test farebbe meno/uguale alla furyx mi pare di capire.

Si ma non è un gioco :O

Assasdasd anticipato di due secondi asdasdasd

Marscorpion
09-05-2016, 07:32
ottima notizia!

in pratica le founders sono fatte per rubare qualche soldo in più da tutti coloro che vogliono comprarsi la scheda subitissimo senza aspettare le versioni reference con dissipatori sfigati dei produttori, oppure le prime custom.

per il resto se il pcb non ha nulla di particolare e il chip è totalmente casuale come è sempre stato, mi pare che non ci sia proprio nessunissima ragione per comprare le founder, a parte ovviamente volere a tutti i costi il dissipatore "ufficiale" Nvidia.

In pratica chi vuole la scheda al day one deve sborsare 100 € in più!
A sto giro bisogna aspettare le custom delle varie marche, anche se mi sa che a 600 dollari ne vedremo poche di schede.....

Goofy Goober
09-05-2016, 07:35
le cpu usate però sono diverse... (non so quanto incida in questo bench che fa delle drawcall la sua forza)


tra 5830k e 5820k clock to clock non cambia nulla in singola scheda, anche perchè quando fanno i benchmark la piattaforma di testa la overcloccano, e li il bench 99 su 100 legge solo la frequenza base della cpu e non quella impostata via OC.

in teoria la 1080 in questo test farebbe meno/uguale alla furyx mi pare di capire.

già.

per un confronto più diretto con le 980ti sarebbe utile vedere test dove le Nvidia non prendono mazzate dalle AMD :asd:

In pratica chi vuole la scheda al day one deve sborsare 100 € in più!
A sto giro bisogna aspettare le custom delle varie marche, anche se mi sa che a 600 dollari ne vedremo poche di schede.....

Già.
Io che liquido non gli do nemmeno 1 euro in più per la versione "figa".

A sto giro è peggio ancora del discorso presso assurdo Titan vs resto del mondo. Qua rubano proprio 100 euro.

Legolas84
09-05-2016, 07:41
Esatto qui sarebbe come testare le nuove AMD su un gioco GW... Che oddio può anche avere senso ma bisogna prenderlo per quello che è :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

aled1974
09-05-2016, 07:44
Ripeto io acquistai il giorno dopo il lancio una GTX 980 EVGA SC a 533€ da caseking, quindi uno shop con prezzi non certo stracciati.

Tasso di cambio, questo sconosciuto...

infatti :)

http://s32.postimg.org/rvd7na0jl/eur_dol.jpg (http://postimg.org/image/rvd7na0jl/)

ciao ciao

Legolas84
09-05-2016, 07:46
Entrambe nel senso che il gioco è finanziato da AMD e fa quindi un uso enorme degli ace... Un po' come i giochi GW che fanno un uso sconsiderato della tesselation.

È logico che da ambo le parti quando finanziano parte di un progetto le due aziende fanno in modo che questo sfrutti in modo intensivo la parte di architettura più forte della l'ora scheda... :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

YesManYes
09-05-2016, 07:46
in teoria la 1080 in questo test farebbe meno/uguale alla furyx mi pare di capire.

Si in questo test non vanno una sega le nv, nemmeno la fiammante 1080 :asd:

Marscorpion
09-05-2016, 07:49
infatti :)

http://s32.postimg.org/rvd7na0jl/eur_dol.jpg (http://postimg.org/image/rvd7na0jl/)

ciao ciao

Fino a li ci arrivo anch'io ma non è certo un cambio 1:1

Legolas84
09-05-2016, 07:56
Dovrebbe essere la terza che hai detto... Ma in ogni caso non temete, le review approfondiranno di certo questo aspetto :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

aled1974
09-05-2016, 08:07
È logico che da ambo le parti quando finanziano parte di un progetto le due aziende fanno in modo che questo sfrutti in modo intensivo la parte di architettura più forte della l'ora scheda... :)

qualcuno ricorda The Saboteur? :D

Fino a li ci arrivo anch'io ma non è certo un cambio 1:1

quindi quale può essere la spiegazione per cui da caseking hai pagato ivata una scheda Evga custom che, in base al prezzo nvidia, avrebbe dovuto costare di più e in versione standard?

ciao ciao

Ali3n77
09-05-2016, 08:11
tra 5830k e 5820k clock to clock non cambia nulla in singola scheda, anche perchè quando fanno i benchmark la piattaforma di testa la overcloccano, e li il bench 99 su 100 legge solo la frequenza base della cpu e non quella impostata via OC.



già.

per un confronto più diretto con le 980ti sarebbe utile vedere test dove le Nvidia non prendono mazzate dalle AMD :asd:



Già.
Io che liquido non gli do nemmeno 1 euro in più per la versione "figa".

A sto giro è peggio ancora del discorso presso assurdo Titan vs resto del mondo. Qua rubano proprio 100 euro.

Straquoto

Lanzus
09-05-2016, 08:15
ottima notizia!

in pratica le founders sono fatte per rubare qualche soldo in più da tutti coloro che vogliono comprarsi la scheda subitissimo senza aspettare le versioni reference con dissipatori sfigati dei produttori, oppure le prime custom.

per il resto se il pcb non ha nulla di particolare e il chip è totalmente casuale come è sempre stato, mi pare che non ci sia proprio nessunissima ragione per comprare le founder, a parte ovviamente volere a tutti i costi il dissipatore "ufficiale" Nvidia.

Le EVGA (ACX) sono sempre state disponibili dal lancio o pochissimo dopo ... salvo dictat particolari di Nvidia le troveremo insieme al founder pack già dal day one.

Marscorpion
09-05-2016, 08:15
qualcuno ricorda The Saboteur? :D



quindi quale può essere la spiegazione per cui da caseking hai pagato ivata una scheda Evga custom che, in base al prezzo nvidia, avrebbe dovuto costare di più e in versione standard?

ciao ciao

Gli ero simpatico....

aled1974
09-05-2016, 08:19
gli saranno stati simpatici tutti quel giorno allora :D

ciao ciao

Goofy Goober
09-05-2016, 08:27
Le EVGA (ACX) sono sempre state disponibili dal lancio o pochissimo dopo ... salvo dictat particolari di Nvidia le troveremo insieme al founder pack già dal day one.

infatti pensavo proprio a loro come probabili 980 da liquidare.

spesso saltano fuori anche le Palit con dissipatori custom ma che hanno pcb reference.

e bisogna vedere se qualche versione di MSI e ASUS anche con i dissip. custom manteranno i pcb stock.

Legolas84
09-05-2016, 08:32
Anche le Galax che di solito hanno prezzi interessanti e godono di garanzia diretta

Inviato dal mio ONE A2003 utilizzando Tapatalk

YesManYes
09-05-2016, 08:33
http://abload.de/img/5c49adda_atosgslrm.png (http://abload.de/image.php?img=5c49adda_atosgslrm.png)

http://abload.de/img/500x1000px-ll-9c03b892ap6.jpeg (http://abload.de/image.php?img=500x1000px-ll-9c03b892ap6.jpeg)


In 4k

fireradeon
09-05-2016, 08:35
Se ad AOS 980Ti vs 1080 c'è 44% di differenza non mi sembra poco, anzi!! Ora possiamo stare qui a cercare il pelo nell'uovo quanto vogliamo, ma alla fine le cose sono 2: O va quel 20% in più della 980Ti e allora tutto ok, oppure va quasi quanto la 980Ti (con differenze di 3/4fps) in questo caso la scheda è un fail assoluto.
Secondo me come detto il divario sarà quello 20/25 percento rispetto alla 980Ti stock vs stock, poi in OC vanno valutate singolarmente, ci sono 980Ti che non salgono tanto e altre moltissimo, bisogna vedere.

fireradeon
09-05-2016, 08:39
YESMAN YES

Ma questo fa i test con la CPU non occata o è il test che non la legge bene?

YesManYes
09-05-2016, 08:39
In 4k c'è un 70% di differenza.
Però francamente mi sembra assurdo

YesManYes
09-05-2016, 08:43
O la 1080 è pesantemente oc oppure i test delle ti son più bassidel normale.
Qualcuno con un ti NON OC (boost max a 1200) puo fare questo test a 4k?

YesManYes
09-05-2016, 08:44
YESMAN YES

Ma questo fa i test con la CPU non occata o è il test che non la legge bene?

Guarda non lo so. Potrebbe essere anche un fake

fireradeon
09-05-2016, 08:49
In 4k c'è un 70% di differenza.
Però francamente mi sembra assurdo

Si ma se gli ACE la 1080 li sfrutta e la 980Ti non bene, ci può stare.

Goofy Goober
09-05-2016, 08:54
Guarda non lo so. Potrebbe essere anche un fake

Il problema non è esser fake o non esser fake

Il problema è avere un test in mano su un singolo gioco e anche abbastasnza "particolare".

I test che serviranno davvero sono quelli su un ventaglio di giochi più ampio fatti con diverse tecnologie (oltre le DX12, che devono iniziare a diffondersi ancora) e soprattutto a partire da risoluzione più diffuse in assoluto al momento, ossia la classica 1080p e la in fase di diffusione 1440p.

Inutile sbavar troppo sui test di quell'RTS.
Aspettiamo il resto.

fireradeon
09-05-2016, 08:56
Il problema non è esser fake o non esser fake

Il problema è avere un test in mano su un singolo gioco e anche abbastasnza "particolare".

I test che serviranno davvero sono quelli su un ventaglio di giochi più ampio fatti con diverse tecnologie (oltre le DX12, che devono iniziare a diffondersi ancora) e soprattutto a partire da risoluzione più diffuse in assoluto al momento, ossia la classica 1080p e la in fase di diffusione 1440p.

Inutile sbavar troppo sui test di quell'RTS.
Aspettiamo il resto.

Si ma i test in 1080p che li fai a fare? Già gira TUTTO con la 980Ti, la 1080 non serve per i 1080p. Ieri giocavo a BF4 con il 21.9 e in una mappa stavo tra gli 80 e i 100 con una 980Ti.
I test ormai si sono spostati sui 1440p e i 4k, quelle sono le risoluzioni del presente/futuro.
Tanto è vero che il divario a 1080p spesso è inferiore rispetto alle risoluzioni maggiori.

Alcuni siti ormai quando fatto i bench con lo sli di vga fanno SOLO il 4k come risoluzione, visto che se uno ha bisogno di quella potenza vuol dire che ha uno schermo di un certo tipo, non di sicuro i 1080p.

deadbeef
09-05-2016, 08:57
Però io non capisco perchè da un lato si parla di poca ottimizzazione dei port da console, e dall'altra invece quando c'è un gioco che ne sfrutta le peculiarità trasferendole su pc, in questo caso l'uso massivo degli ACE, si inizia a dire che il gioco è farlocco, finanziato da tizio. Da notare che ho usato la parola gioco e non bench, perchè Ashes of the singularity è un gioco, non un benchmark. Magari crysis con la tesselation applicata anche ai poligoni non visibili sotto l'oceano andava bene

fireradeon
09-05-2016, 09:02
Però io non capisco perchè da un lato si parla di poca ottimizzazione dei port da console, e dall'altra invece quando c'è un gioco che ne sfrutta le peculiarità trasferendole su pc, in questo caso l'uso massivo degli ACE, si inizia a dire che il gioco è farlocco, finanziato da tizio. Da notare che ho usato la parola gioco e non bench, perchè Ashes of the singularity è un gioco, non un benchmark. Magari crysis con la tesselation applicata anche ai poligoni non visibili sotto l'oceano andava bene

Io personalmente non sono fanboy di niente, ormai ho preso la via del verde anche con i monitor Gsynch e sono quasi obbligato. Vedessi una AMD che va molto di più della 980Ti ovviamente mi potrei mangiare le mani, ma resterei cmq nvidia perchè ormai sono legato ai monitor.
In futuro speriamo trovino uno standard comune perchè sta cosa non è che mi piaccia molto.

Qui la cosa più logica da fare è andare dove conviene nel rapporto prezzo/prestazioni, senza guardare il colore della VGA.

Legolas84
09-05-2016, 09:04
Però io non capisco perchè da un lato si parla di poca ottimizzazione dei port da console, e dall'altra invece quando c'è un gioco che ne sfrutta le peculiarità trasferendole su pc, in questo caso l'uso massivo degli ACE, si inizia a dire che il gioco è farlocco, finanziato da tizio. Da notare che ho usato la parola gioco e non bench, perchè Ashes of the singularity è un gioco, non un benchmark. Magari crysis con la tesselation applicata anche ai poligoni non visibili sotto l'oceano andava bene
Semplicemente perché AOS ne fa un uso massivo per mettere in luce e favorire le prestazioni delle schede AMD. Niente di strano eh, è la stessa cosa che fa nvidia con GW (anzi lei lo fa in molti più giochi, AOS è una goccia nell'oceano).

Quello che mi chiedo è perchè voi utenti AMD like vi agitate subito quando AMD si comporta esattamente come NVIDIA... Sono due aziende che devono generare introiti se no chiudono è normale che si comportano così. L'unica differenza è che Nvidia avendo molti più soldi lo può fare in modo più aggressivo, ma se AMD non fosse con l'acqua alla gola lo farebbe anche lei ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Goofy Goober
09-05-2016, 09:15
Si ma i test in 1080p che li fai a fare? Già gira TUTTO con la 980Ti, la 1080 non serve per i 1080p. Ieri giocavo a BF4 con il 21.9 e in una mappa stavo tra gli 80 e i 100 con una 980Ti.
I test ormai si sono spostati sui 1440p e i 4k, quelle sono le risoluzioni del presente/futuro.
Tanto è vero che il divario a 1080p spesso è inferiore rispetto alle risoluzioni maggiori.

Li fai perchè da "domani" se uno che ha monitor 1080p (senza specificare quanti hz, dove già cambia molto) vuole comprarsi una GPU ha interesse a vedere come va la nuova rispetto alla vecchia, per poi decidere cosa comprare...

gli schermi 1080p dominano ancora, inutile nascondersi dietro gli appassionati che hanno una risoluzione più alta.

il discorso dei test a una risoluzione "troppo bassa" sono inutili e/o che una scheda troppo potente è inutile ad una risoluzione "troppo bassa" sono morti e sepolti.
ormai le possibilità di far diventare macigni giochi apparentemente leggeri in richieste hardware sono così ampie che non esiste più il concetto del "se giochi ad una tot. risoluzione ti basta la tot. scheda video".
e a maggior ragione da quando abbiamo a che fare con gsync-freesync e monitor over 60hz.

Alcuni siti ormai quando fatto i bench con lo sli di vga fanno SOLO il 4k come risoluzione, visto che se uno ha bisogno di quella potenza vuol dire che ha uno schermo di un certo tipo, non di sicuro i 1080p.

chi ancora si compra schede video ragionando su base conservativa rispetto alla risoluzione, finisce per ritrovarsi dopo poco tempo con una gpu che arranca all'uscita di qualche nuovo titolo che ammazza tutto anche nella "solita" risoluzione 1080p.
e poi che fai? cambi di nuovo scheda? :fagiano:

ognuno è libero di fare le scelte che preferisce... per carità.
dico solo che mi sono personalmente scottato tante volte con questo ragionamento del <bassa res=compra scheda scamuffa che tanto gira tutto>, e appurata la sua non validità ho imparato la lezione.

deadbeef
09-05-2016, 09:19
Semplicemente perché AOS ne fa un uso massivo per mettere in luce e favorire le prestazioni delle schede AMD. Niente di strano eh, è la stessa cosa che fa nvidia con GW (anzi lei lo fa in molti più giochi, AOS è una goccia nell'oceano).

Quello che mi chiedo è perchè voi utenti AMD like vi agitate subito quando AMD si comporta esattamente come NVIDIA... Sono due aziende che devono generare introiti se no chiudono è normale che si comportano così. L'unica differenza è che Nvidia avendo molti più soldi lo può fare in modo più aggressivo, ma se AMD non fosse con l'acqua alla gola lo farebbe anche lei ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Il 'problema' è che questi ACE sono l'unico modo che hanno gli sviluppatori per cavare fuori il sangue da quelle rape di console current gen, per cui il discorso diventa ben più ampio, nonchè differente rispetto al GameWorks, che non è una tecnica di programmazione, ma un middleware software. A me sembra che ad agitarsi siano gli altri :D

Legolas84
09-05-2016, 09:31
Non è affatto come dici, in quanto gli ACE sono un motore che fa parte dell'architettura AMD volto a risolvere un problema di questa architettura, ovvero gli shader che spesso rischiano di rimanere in attesa delle istruzioni senza fare nulla. L'architettura NVIDIA da questo lato è di per se già più efficiente e molto meno soggetta a questo problema.

È ovvio che se io ne faccio un uso intensivo apposito favorisco l'architettura che ha un componente hardware per gestire le istruzioni specifiche. Ma questo non significa che se non li avessi usati il gioco non si poteva programmare, anzi... Su console ovviamente avendo architettura AMD siamo sempre lì, sebbene l'unico gioco che mette davvero in difficoltà le NVIDIA sia questo segno che se non si fa un uso volutamente intensivo di queste istruzioni il problema non esiste.

Comunque Mikael può sicuramente essere più esaustivo di me su questo argomento...

Ripeto è la stessa tattica che usa NVIDIA, non c'è nulla di strano e soprattutto non c'è nulla di male ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

YesManYes
09-05-2016, 09:33
Il problema non è esser fake o non esser fake

Il problema è avere un test in mano su un singolo gioco e anche abbastasnza "particolare".

I test che serviranno davvero sono quelli su un ventaglio di giochi più ampio fatti con diverse tecnologie (oltre le DX12, che devono iniziare a diffondersi ancora) e soprattutto a partire da risoluzione più diffuse in assoluto al momento, ossia la classica 1080p e la in fase di diffusione 1440p.

Inutile sbavar troppo sui test di quell'RTS.
Aspettiamo il resto.

Ovvio che concordo...sarebbe meglio una rosa di giochi ampia.... ma questo per ora c è, ed io lo riporto per informazione.
Per qunto riguarda lo sbavare...non ho visto nessuno sbavare per sto bench...
Io compreso anche perché non ho nessuna intenzione di comprarmi una 1080, 1070 ....o peggio ancora una futura 1080ti( per il peggio ancora, i motivi li ho scritti ieri)
Sono solo curioso di vedere se avevo indovinato, oltre ad un paio di cosette sulle spec delle nuove GTX, pure le performance

TigerTank
09-05-2016, 09:37
quindi quale può essere la spiegazione per cui da caseking hai pagato ivata una scheda Evga custom che, in base al prezzo nvidia, avrebbe dovuto costare di più e in versione standard?


In ogni caso erano altri tempi perchè ora se non sbaglio anche se compri un bene tecnologico all'estero non viene più applicata l'iva del paese europeo in questione ma quella del nostro.
Per il resto dipende dai loro giri...più che altro bisogna stare attenti eventualmente che a livello di garanzia sia coperto dall'area prevista dal produttore per il seriale del prodotto.

Goofy Goober
09-05-2016, 09:38
Ovvio che concordo...sarebbe meglio una rosa di giochi ampia.... ma questo per ora c è, ed io lo riporto per informazione.

e hai fatto benissimo.

In ogni caso erano altri tempi perchè ora se non sbaglio anche se compri un bene tecnologico all'estero non viene più applicata l'iva del paese europeo in questione ma quella del nostro.

non sempre, va anche a fortuna.
dipende da come emettono fattura quelli che ti vendono...
legislativamente se lo shop non ha sedi nel tuo paese, non può emettere fatture con aliquote IVA diverse da quella del suo stato, quindi considera la vendita chiusa in loco come se tu fossi a comprare la nel negozio, e ti fattura la loro IVA.

a me è capitato con diversi shop tedeschi.

Nelson Muntz
09-05-2016, 09:45
la 1080 non serve per i 1080p.

Certo che serve , lo dice anche il nome ! :O

TigerTank
09-05-2016, 09:46
non sempre, va anche a fortuna.
dipende da come emettono fattura quelli che ti vendono...
legislativamente se lo shop non ha sedi nel tuo paese, non può emettere fatture con aliquote IVA diverse da quella del suo stato, quindi considera la vendita chiusa in loco come se tu fossi a comprare la nel negozio, e ti fattura la loro IVA.

a me è capitato con diversi shop tedeschi.

Sì esatto, dipende dai loro giri però la regola generale ormai è quella. ;)

Spider-Mans
09-05-2016, 09:47
Semplicemente perché AOS ne fa un uso massivo per mettere in luce e favorire le prestazioni delle schede AMD. Niente di strano eh, è la stessa cosa che fa nvidia con GW (anzi lei lo fa in molti più giochi, AOS è una goccia nell'oceano).

Quello che mi chiedo è perchè voi utenti AMD like vi agitate subito quando AMD si comporta esattamente come NVIDIA... Sono due aziende che devono generare introiti se no chiudono è normale che si comportano così. L'unica differenza è che Nvidia avendo molti più soldi lo può fare in modo più aggressivo, ma se AMD non fosse con l'acqua alla gola lo farebbe anche lei ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

sono gli stessi che quando si parla di fallout4 o altri giochi pro nvidia (la maggioranza dei giochi è pro nvidia/gameworks xD)..sottolinea che nvidia.. paga... blablabla monopolista..gamework fuffa :asd: niente librerie libere blablabla...amd salvaci... :asd:

Spider-Mans
09-05-2016, 09:54
Si ma i test in 1080p che li fai a fare? Già gira TUTTO con la 980Ti, la 1080 non serve per i 1080p. Ieri giocavo a BF4 con il 21.9 e in una mappa stavo tra gli 80 e i 100 con una 980Ti.


dai per favore

BASTA :D con sta fregnata ricorrente da forum che 980ti ecc. non servono in fullhd
chi è abituato a monitor 144hz che dovrebbe risponderti?

ma anche per i 60hz...the division con una 980ti in fullhd manco puoi attivare il dsr che vai sotto i 60 frame e in futuro sara peggio

giocare in fullhd significa anche avere la possibilita di spingere con il dsr. 2x o 4x..... ottenendo una pulizia di immagine che non ottiene nemmeno se esistesse un filtro aa 80x :D

anzi con dsr sparato a palla..basta un aa2x ed hai la perfezione rispetto ad un fullhd senza dsr ma con aa8x

quindi la 1080 serve anche in fullhd
basta saperla sfruttare con il dsr......e vedi che la potenza non è mai abbastanza..figuriamoci con i motori grafici nuovi in arrivo

fireradeon
09-05-2016, 09:55
Li fai perchè da "domani" se uno che ha monitor 1080p (senza specificare quanti hz, dove già cambia molto) vuole comprarsi una GPU ha interesse a vedere come va la nuova rispetto alla vecchia, per poi decidere cosa comprare...

gli schermi 1080p dominano ancora, inutile nascondersi dietro gli appassionati che hanno una risoluzione più alta.

il discorso dei test a una risoluzione "troppo bassa" sono inutili e/o che una scheda troppo potente è inutile ad una risoluzione "troppo bassa" sono morti e sepolti.
ormai le possibilità di far diventare macigni giochi apparentemente leggeri in richieste hardware sono così ampie che non esiste più il concetto del "se giochi ad una tot. risoluzione ti basta la tot. scheda video".
e a maggior ragione da quando abbiamo a che fare con gsync-freesync e monitor over 60hz.



chi ancora si compra schede video ragionando su base conservativa rispetto alla risoluzione, finisce per ritrovarsi dopo poco tempo con una gpu che arranca all'uscita di qualche nuovo titolo che ammazza tutto anche nella "solita" risoluzione 1080p.
e poi che fai? cambi di nuovo scheda? :fagiano:

ognuno è libero di fare le scelte che preferisce... per carità.
dico solo che mi sono personalmente scottato tante volte con questo ragionamento del <bassa res=compra scheda scamuffa che tanto gira tutto>, e appurata la sua non validità ho imparato la lezione.

Certo che serve , lo dice anche il nome ! :O

Che è la più diffusa lo so, che i bench vanno fatti ok, per me pure a 800x600 potrebbero farli se hanno voglia di provarli, ma se io che ho la 980Ti e fino a ieri giocavo a 1440p con il nuovo Tomb Raider stando sui 60fps e parliamo di un gioco bello pesante che ha pure le ombre VXAO, immagino che a 1080p ti gira quantomeno agli stessi FPS.
Poi se mi parli dei monitor che vanno oltre i 60hz, io ne ho 2 uno va a 100 e l'altro a 144 e attualmente gli unici giochi che ha senso sfruttare con tanti hz sono gli sparatutto, tra cui il più pesante è BF4 (anche Overwatch che è uscito ora è leggero e non vedo altri fps "competitivi" all'orizzonte più pesanti di BF4 se non BF5), quindi di cosa parliamo?
Se vuoi i 120/144hz granitici ti ci vuole lo SLI.
Ad oggi con la 980Ti e risoluzione a 1080p giochi a TUTTO senza problemi, quindi non ha senso passare alla 1080 secondo me.
Questa scheda è fatta a mio avviso o per passare dalla 970, o per risoluzioni dal 1440p in su o se vuoi fare uno SLI e quindi ti conviene di 1080 e non di 980Ti visto che il prezzo del nuovo attualmente è praticamente uguale (per non parlare del nuovo pp etc.)

P.s. Spider-Mans il discorso del dsr non ha molto senso, ovvio che se ti serve per quelle cose non ti basta, ma è come se giocassi in 4k quasi come pesantezza, sono 1080p "farlocchi".

Psycho77
09-05-2016, 09:58
dai per favore

BASTA con sta fregnata che 980ti ecc. non servono in fullhd
ma chi lo dice? chi è abituato a monitor 144hz che dovrebbe risponderti?

ma anche per i 60hz...the division con una 980ti in fullhd manco puoi attivare il dsr che vai sotto i 60 frame e in futuro sara peggio

giocare in fullhd significa anche avere la possibilita di spingere con il dsr. 2x o 4x..... ottenendo una pulizia di immagine che non ottiene nemmeno se esistesse un filtro aa 80x :D

anzi con dsr sparato a palla..basta un aa2x ed hai la perfezione rispetto ad un 1080p senza dsr ma con aa8x

quindi 1080 serve anche in fullhd
basta saper sfruttare il dsr......e vedi che la potenz anon è mai abbastanza..figuriamoci con i motori grafici nuovi in arrivo

Sparate a cannone gta 5 a 1080p con l'erba ad ultra e msaa4x,fuori città è un delirio di cali di frame rate.
The witcher 3 pure,a 1080p a kaer morhen cali fino a 45 con il gioco maxato.
Rise of the tomb rider satura la vram a 1080p nella valle geotermica.
Black ops 3 satura tutta la vram a 1080p in alcune mappe.
Per non parlare di gears che richiede fino a 9 gb di vram con le texture 4k,quantum fail che scatta pure a 720p........
Devo continuare?:mbe:

TigerTank
09-05-2016, 09:59
Già.
Io che liquido non gli do nemmeno 1 euro in più per la versione "figa".

A sto giro è peggio ancora del discorso presso assurdo Titan vs resto del mondo. Qua rubano proprio 100 euro.

Già, quoto.
Il fatto è che purtroppo anche a liquidare, le versioni con dissipatore plasticoso sarebbero poi meno appetibili in fase di rivendita...per cui direi che il meglio siano in ogni caso le semi-custom...che appunto probabilmente costeranno anche meno ma che temo arriveranno a posteriori, se nvidia dovesse aver imposto ai suoi partner di immettere prima sul mercato un tot di quelle references.

Spider-Mans
09-05-2016, 10:00
Si ma non è un gioco :O

Assasdasd anticipato di due secondi asdasdasd

è un tech demo pro amd
hai ragione
chiamarlo gioco quello li è troppo xD
in ambito rts si aspetta il ritorno di relic su warhammer..

Spider-Mans
09-05-2016, 10:01
Sparate a cannone gta 5 a 1080p con l'erba ad ultra e msaa4x,fuori città è un delirio di cali di frame rate.
The witcher 3 pure,a 1080p a kaer morhen cali fino a 45 con il gioco maxato.
Rise of the tomb rider satura la vram a 1080p nella valle geotermica.
Black ops 3 satura tutta la vram a 1080p in alcune mappe.
Per non parlare di gears che richiede fino a 9 gb di vram con le texture 4k,quantum fail che scatta pure a 720p........
Devo continuare?:mbe:

se rilasciano witcher3 enanched
ci sara da ridere :D

Psycho77
09-05-2016, 10:05
sono convinto che se rilasciano witcher3 enanched
ci sara da ridere :D gia è un mattone ora

Sicuro,avevo letto su neogaf da uno sviluppatore che avrebbero migliorato la vegetazione,l'illuminazione globale e la realizzazione dei fluidi e texture....
Non è chiaro se tali miglioramenti arriveranno con blood and wine o con la enhanced.

Come ho già detto,a me fa ridere la frase da forum.
Con la gtx 970 giochi a tutto maxato a 1080p,per il full hd è la scheda di riferimento..........Quando in realtà già arranca una 980 ti a 1500 mhz:doh: :asd:

Legolas84
09-05-2016, 10:09
sono gli stessi che quando si parla di fallout4 o altri giochi pro nvidia (la maggioranza dei giochi è pro nvidia/gameworks xD)..sottolinea che nvidia.. paga... blablabla monopolista..gamework fuffa :asd: niente librerie libere blablabla...amd salvaci... :asd:
Ma infatti è proprio questo il contro senso...

Io come non mi scandalizzo per NVIDIA non lo faccio nemmeno per AMD e così dovrebbe essere per tutti, altrimenti si ha un giudizio ottenebrato dal tifo.

Inviato dal mio ONE A2003 utilizzando Tapatalk

fireradeon
09-05-2016, 10:09
Sparate a cannone gta 5 a 1080p con l'erba ad ultra e msaa4x,fuori città è un delirio di cali di frame rate.
The witcher 3 pure,a 1080p a kaer morhen cali fino a 45 con il gioco maxato.
Rise of the tomb rider satura la vram a 1080p nella valle geotermica.
Black ops 3 satura tutta la vram a 1080p in alcune mappe.
Per non parlare di gears che richiede fino a 9 gb di vram con le texture 4k,quantum fail che scatta pure a 720p........
Devo continuare?:mbe:

Si ma non parlare di giochi ottimizzati con il :ciapet: come BO3, Quantum Break e Gears of WAR dai, allora cita anche Batman AK per giustificare il cambio.
Gli unici che hai citato che sono pesanti per un motivo sono TW3, TR e GTA 5 (ma anche su GTA a volte mi vengono dubbi sulla mal ottimizzazione) dove la grafica c'è e si vede, gli altri sono barzellette per come la vedo io, anche The Division che è stato citato, ha una grafica normalissima, ma essendo Ubisoft non sarà granchè ottimizzato (ricordiamo Watchdogs).

Soulbringer
09-05-2016, 10:10
Questione di ottimizzazione...secondo me non ha senso cercare di sopperire ai problemi software (mancata ottimizzazione, porting scabrosi, motori che sfruttano il 40% della potenza disponibile) spendendo 1000€ sull'hardware.

E comunque ho letto che non ci sarà nessuna enhanced edition per The witcher 3.

YesManYes
09-05-2016, 10:11
penso che certe opzioni grafiche fanno ridere.... tipo l'erba ad ultra di gta5.
Che serve solo ad ammazzare le prestazioni di qualunque scheda video :asd:

Spider-Mans
09-05-2016, 10:13
Ma infatti è proprio questo il contro senso...

Io come non mi scandalizzo per NVIDIA non lo faccio nemmeno per AMD e così dovrebbe essere per tutti, altrimenti si ha un giudizio ottenebrato dal tifo.

Inviato dal mio ONE A2003 utilizzando Tapatalk

sono curioso di vedere i primi test di pascal su fallout4, gta v, the division, the witcher3, doom, crysis3
questi sono Giochi non tech demo :asd:

Psycho77
09-05-2016, 10:15
Questione di ottimizzazione...secondo me non ha senso cercare di sopperire ai problemi software (mancata ottimizzazione, porting scabrosi, motori che sfruttano il 40% della potenza disponibile) spendendo 1000€ sull'hardware.

E comunque ho letto che non ci sarà nessuna enhanced edition per The witcher 3.

Su neogaf c'era uno sviluppatore dei cd projekt,verificato dai moderatori,che asseriva che sarebbero arrivati quei miglioramenti grafici in tw3 che ho elencato poco sopra.
Sulla enhanced potrei ricordare male,ma ricordo benissimo le promesse sull'upgrade grafico.:p

fireradeon
09-05-2016, 10:16
sono curioso di vedere i primi bech su fallout4, gta v, the division, the witcher3, doom, crysis3
questi sono Giochi non tech demo :asd:

Ecco questi interessano anche a me, ma doom già lo abbiamo visto e vola quindi restano gli altri.
Crysis 3 cacchio è un giocone e con una grafica da paura, tw3 è pesante anche perchè è open world così come gta 5 ma non hanno una grafica da urlo (tw3 appena l'ho lanciato ricordo di aver detto: "ma che è sta merda?!" :D ) difatti lo giocherò con le mod perchè alcune cose a me non sono piaciute (texture in primis).

Su neogaf c'era uno sviluppatore dei cd projekt,verificato dai moderatori,che asseriva che sarebbero arrivati quei miglioramenti grafici in tw3 che ho elencato poco sopra.
Sulla enhanced potrei ricordare male,ma ricordo benissimo le promesse sull'upgrade grafico.:p

Eh lo so ma è passato un anno ormai. Quando deve uscire questa versione? Dicevano con le DX12 boh. Io aspetto fino a Luglio, dopodichè lo gioco, ho rimandato troppo e in caso me lo gioco con le mod migliori che trovo e amen.

Legolas84
09-05-2016, 10:18
The Witcher 3 in 2k tutto ultra con GameWorks al massimo (uno spettacolo per gli occhi) l'ho gestito alla grande con uno SLI di 980 quindi figurati con la 1080 sarà perfetto :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Goofy Goober
09-05-2016, 10:18
Ad oggi con la 980Ti e risoluzione a 1080p giochi a TUTTO senza problemi, quindi non ha senso passare alla 1080 secondo me.


ti ha risposto psycho :D

Sparate a cannone gta 5 a 1080p con l'erba ad ultra e msaa4x,fuori città è un delirio di cali di frame rate.
The witcher 3 pure,a 1080p a kaer morhen cali fino a 45 con il gioco maxato.
Rise of the tomb rider satura la vram a 1080p nella valle geotermica.
Black ops 3 satura tutta la vram a 1080p in alcune mappe.
Per non parlare di gears che richiede fino a 9 gb di vram con le texture 4k,quantum fail che scatta pure a 720p........
Devo continuare?:mbe:


p.s. cmq non capisco perchè dare o no un senso al cambio di 980ti, io parlavo di altro, ossia dell'utilità di avere i test a 1080p.
la 980ti io manco la ho adesso :asd:

Già, quoto.
Il fatto è che purtroppo anche a liquidare, le versioni con dissipatore plasticoso sarebbero poi meno appetibili in fase di rivendita...per cui direi che il meglio siano in ogni caso le semi-custom...che appunto probabilmente costeranno anche meno ma che temo arriveranno a posteriori, se nvidia dovesse aver imposto ai suoi partner di immettere prima sul mercato un tot di quelle references.

non ho fretta, per me andrebbe bene aspettare anche qualche versione custom tipo ASUS DCII per cui esca un waterblock apposito...

in fase di rivendita cmq anche se fossero reference con dissipatore di plastica standard, il discorso valore sarebbe cmq proporzionale...

così come oggi la founders edition è appetibile solo per chi è fissato con quel dissipatore Nvidia ufficiale, chi non lo è oggi un domani non si tirerà indietro a comprare una gpu reference che costa un po' meno.

Psycho77
09-05-2016, 10:24
Ecco questi interessano anche a me, ma doom già lo abbiamo visto e vola quindi restano gli altri.
Crysis 3 cacchio è un giocone e con una grafica da paura, tw3 è pesante anche perchè è open world così come gta 5 ma non hanno una grafica da urlo (tw3 appena l'ho lanciato ricordo di aver detto: "ma che è sta merda?!" :D ) difatti lo giocherò con le mod perchè alcune cose a me non sono piaciute (texture in primis).



Eh lo so ma è passato un anno ormai. Quando deve uscire questa versione? Dicevano con le DX12 boh. Io aspetto fino a Luglio, dopodichè lo gioco, ho rimandato troppo e in caso me lo gioco con le mod migliori che trovo e amen.

https://youtu.be/CvtYw8_E4HM

:sofico:

Soulbringer
09-05-2016, 10:25
Su neogaf c'era uno sviluppatore dei cd projekt,verificato dai moderatori,che asseriva che sarebbero arrivati quei miglioramenti grafici in tw3 che ho elencato poco sopra.
Sulla enhanced potrei ricordare male,ma ricordo benissimo le promesse sull'upgrade grafico.:p

Ben venga l'upgrade grafico allora. :) Rimane da capire però se sarà applicato solo alla nuova area oppure se sarà retroattivo anche nelle zone del gioco base.

Tornando in tema...io no ho capito cosa sono queste Founder edition. Qualcuno me lo spiega?
Grazie

miostar
09-05-2016, 10:30
Il 17 avremo la prima rece completa con tanto di SLI :D
FYI: Embargo for all the PASCAL info we’re getting today and @nvidia GTX 1080 reviews is May 17th

muppo
09-05-2016, 10:36
penso che certe opzioni grafiche fanno ridere.... tipo l'erba ad ultra di gta5.
Che serve solo ad ammazzare le prestazioni di qualunque scheda video :asd:

?
la differenza grafica dell'erba in gta5 da normale ad alto ad ultra c'è eccome, anzi è probabilmente quella che rende il paesaggio molto più realistico.
In termini tecnici non puoi ottimizzare più di tanto il drop di performance aumentando l'erba.

http://www.game-stuff.com/collection/grass_collection_1/19.jpg

più è densa, più triangoli on screen ci sono, quell'esempio saranno 50/60 triangoli, forse più, moltiplicali per riempire lo schermo e prova ad immaginare.
Ah e più la vuoi realistica e piu diventa pesante, senza considerare il fatto che ogni poigono ha pure un alpha per decretarne la trasparenza, il che rende il tutto un bel mattone da mangiare coi denti.

cambiando discorso mi pare di aver capito che a 700$ verranno vendute le reference nvidia, mentre quelle degli aib a 600. Sono il solo che pensa che a 600 non ne vedremo nemmeno una a sto punto?

YesManYes
09-05-2016, 10:44
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-grass-quality


Ripeto, opzione ridicola.
Una pompatura piuttosto inutile tanto per spremere le gpu ultra costose che ci sono per pc ( e poi il gioco va male :asd:)

Non lo considero un modo intelligente per potenziare la grafica in versione pc...e sfruttare la maggior potenza delle gpu

deadbeef
09-05-2016, 10:44
l'Asynchronous Shading fa parte delle specifiche DirectX 12, non è un 'motore' che si è inventato AMD. Ma detto questo, io ho l'impressione che potrei stare a scrivere fino a domani, ma sarebbe inutile

fireradeon
09-05-2016, 10:45
The Witcher 3 in 2k tutto ultra con GameWorks al massimo (uno spettacolo per gli occhi) l'ho gestito alla grande con uno SLI di 980 quindi figurati con la 1080 sarà perfetto :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Non vedo l'ora!! L'ho messo da parte per giocarci per bene, ma più per la potenza necessaria per la grafica.

https://youtu.be/CvtYw8_E4HM

:sofico:

Tanto lo so che finisce così: io lo gioco e fine anno esce l'enhanced!! :D Speriamo invece che con blood wine mettano le migliorie grafiche così non devo smadonnare dopo un anno di attesa.

fireradeon
09-05-2016, 10:47
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-grass-quality


Ripeto, opzione ridicola.
Una pompatura piuttosto inutile tanto per spremere le gpu ultra costose che ci sono per pc ( e poi il gioco va male :asd:)

Non lo considero un modo intelligente per potenziare la grafica in versione pc...e sfruttare la maggior potenza delle gpu

Concordo, dai spesso l'erba è una cosa inutile che fa solo appesantire tutto senza notare una differenza marcata, ma questo è un mio parere.

Nurabsa
09-05-2016, 10:47
lo ricordo bene,

il sito evga l iva l ha fatta pagare all italiana mortacci loro! ma lo shop rigorsamente only english
risparmiavo almeno un centone se non di più quanto mi piacerebbe la storia del paese di origine per la fatturazione asd asd

Frate
09-05-2016, 11:28
scusate se ho fatto la stessa domanda nella sezione news, volevo sapere indicativamente quanto tempo dopo usciranno le custom asus/msi/ecc, grazie

YesManYes
09-05-2016, 11:30
Async Compute : What Nvidia say about it

http://www.overclock.net/t/1595574/hfr-gdc-async-compute-what-nvidia-say-about-it

Legolas84
09-05-2016, 11:31
l'Asynchronous Shading fa parte delle specifiche DirectX 12, non è un 'motore' che si è inventato AMD. Ma detto questo, io ho l'impressione che potrei stare a scrivere fino a domani, ma sarebbe inutile
Le dx12 consentono di sfruttare l'hardware in quel modo con quella funzione, e questo aiuta molto a superare alcuni limiti dell'architettura AMD. Farne un uso sconsiderato però serve solo a favorire l'architettura che meglio interpreta questa istruzione.

Idem la tesselation, è una funzione dx11 che migliora non di poco la grafica... Ma se la usi in modo sconsiderato ammazza le AMD...

Questo ovviamente se una persona ha una visione obbiettiva delle cose, ma vedendo anche come ti rivolgi nel thread delle AMD si capisce che è inutile cercare di intavolare un discorso tecnico ma soprattutto obbiettivo con te quindi chiudo qua.

Inviato dal mio ONE A2003 utilizzando Tapatalk

Spider-Mans
09-05-2016, 11:35
scusate se ho fatto la stessa domanda nella sezione news, volevo sapere indicativamente quanto tempo dopo usciranno le custom asus/msi/ecc, grazie

non si sa
spero subito :D

muppo
09-05-2016, 11:35
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-grass-quality


Ripeto, opzione ridicola.
Una pompatura piuttosto inutile tanto per spremere le gpu ultra costose che ci sono per pc ( e poi il gioco va male :asd:)

Non lo considero un modo intelligente per potenziare la grafica in versione pc...e sfruttare la maggior potenza delle gpu

Guarda rispetto la tua opinione, ma basta un semplice screenshot comparativo per vedere la differenza tra ultra e normal :
ultra (http://international.download.nvidia.com/geforce-com/international/images/grand-theft-auto-v/grand-theft-auto-v-pc-grass-quality-004-ultra.png)
normal (http://international.download.nvidia.com/geforce-com/international/images/grand-theft-auto-v/grand-theft-auto-v-pc-grass-quality-004-normal.png)

poi da ultra a very high c'è in più, ed è molto evidente, l'ambient occlusion.
Se devo spendere 800 euro di scheda video per poi giocare alla versione ps4 imho non ha proprio senso e penso che l'erba dia grande impatto sul realismo ambientale (oltre che sulle performance).
Resta sempre un gioco ottimizzato per console (e si vede basta notare il i condotti del gas sulla dx) ma ciò non toglie che la differenza è notevole, io non penso sia fuffa per pompare il carico solamente sulle gpu.
Credo sia inutile spendere migliaia di euro in esa core, ram, schede video e monitor e poi rinunciare ad un'opzione grafica cosi evidente.

Frate
09-05-2016, 11:36
non si sa
spero subito :D

pensi che 2 mesi dopo sia troppo? quei 100 euro in più per le founder mi preoccupano, se uscissero poco dopo che le comprerebbe?

Thunder-74
09-05-2016, 11:36
Per chi lo chiedeva.... per fare SLi con Pascal, bisogna usare il nuovo Bridge, i vecchi non andranno bene.

...At the Nvidia presentation it was made aware that SLI is getting an update as well. Starting with Pascal, the SLI connectors will change. you cannot use your older SLI bridges with Pascal and vice versa...

Fonte LINK (http://www.guru3d.com/news-story/the-four-new-geforce-gtx-1070-and-1080-related-technologies.html)

Spider-Mans
09-05-2016, 11:38
pensi che 2 mesi dopo sia troppo? quei 100 euro in più per le founder mi preoccupano, se uscissero poco dopo che le comprerebbe?

penso anche prima ...spero per luglio di vederle gia in giro...poi dipendera dalla domanda...e immagino che le richieste saranno alte
sono passati quasi due anni da 970 e 980...e tanti possessori di queste schede cambieranno passando a 1070 e 1080

muppo
09-05-2016, 11:39
pensi che 2 mesi dopo sia troppo? quei 100 euro in più per le founder mi preoccupano, se uscissero poco dopo che le comprerebbe?

sarà difficile comunque trovare una custom sotto le 700 prepariamoci.

fraussantin
09-05-2016, 11:41
Se dovete vendere la 980ti vi conviene spicciarvi , su fb la giga è minacciosa http://uploads.tapatalk-cdn.com/20160509/dc0e3f31fb91a0036894c85208c69a15.jpg

Legolas84
09-05-2016, 11:42
Async Compute : What Nvidia say about it

http://www.overclock.net/t/1595574/hfr-gdc-async-compute-what-nvidia-say-about-it
Sostanzialmente quello che stavo dicendo io. Async compute può essere utile per superare dei limiti dell'architettura AMD che si ritrova spesso diversi shader in idle, cosa che su NVIDIA non succede.

Inviato dal mio ONE A2003 utilizzando Tapatalk

Frate
09-05-2016, 11:48
sarà difficile comunque trovare una custom sotto le 700 prepariamoci.

si, per il prezzo mi aspetto quella cifra (o almeno lo spero :D), più delle reference ma meno delle founder

FroZen
09-05-2016, 11:49
dai per favore

BASTA :D con sta fregnata ricorrente da forum che 980ti ecc. non servono in fullhd
chi è abituato a monitor 144hz che dovrebbe risponderti?

ma anche per i 60hz...the division con una 980ti in fullhd manco puoi attivare il dsr che vai sotto i 60 frame e in futuro sara peggio

giocare in fullhd significa anche avere la possibilita di spingere con il dsr. 2x o 4x..... ottenendo una pulizia di immagine che non ottiene nemmeno se esistesse un filtro aa 80x :D

anzi con dsr sparato a palla..basta un aa2x ed hai la perfezione rispetto ad un fullhd senza dsr ma con aa8x

quindi la 1080 serve anche in fullhd
basta saperla sfruttare con il dsr......e vedi che la potenza non è mai abbastanza..figuriamoci con i motori grafici nuovi in arrivo

Ahahhahahahaha

Scusa ma sai cosa è il dsr?! Ahahahahah muoio

YesManYes
09-05-2016, 11:54
poi da ultra a very high c'è in più, ed è molto evidente, l'ambient occlusion.
Se devo spendere 800 euro di scheda video per poi giocare alla versione ps4 imho non ha proprio senso
Concordo.
se devi spendere 800 euro di scheda video per giocarci a dettaglio medio alto a 30fps traballanti in 1080p non ha senso.
ma tralasciando l'erba ultra con cui in certi punti le prestazioni mortificano anche le schede da 800€ per un guadagno visivo leggero, il gioco su pc è meglio della versione console per tanti altri motivi.
e cmq per un risultato migliore già basta una gpu da 250€

e penso che l'erba dia grande impatto sul realismo ambientale (oltre che sulle performance).
x me il miglioramento non vale il decadimento di prestazioni.


Credo sia inutile spendere migliaia di euro in esa core, ram, schede video e monitor e poi rinunciare ad un'opzione grafica cosi evidente.
come è inutile attivare qualche filo di erba + per vedersi crollare, in certi punti, le prestazioni anche con pc da 2000€

beatl
09-05-2016, 12:07
Per chi lo chiedeva.... per fare SLi con Pascal, bisogna usare il nuovo Bridge, i vecchi non andranno bene.

...At the Nvidia presentation it was made aware that SLI is getting an update as well. Starting with Pascal, the SLI connectors will change. you cannot use your older SLI bridges with Pascal and vice versa...

Fonte LINK (http://www.guru3d.com/news-story/the-four-new-geforce-gtx-1070-and-1080-related-technologies.html)

Ecco altro mini-salasso .. e te pareva

Meno di 29 euro non se lo faranno pagare

Psycho77
09-05-2016, 12:09
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-grass-quality


Ripeto, opzione ridicola.
Una pompatura piuttosto inutile tanto per spremere le gpu ultra costose che ci sono per pc ( e poi il gioco va male :asd:)

Non lo considero un modo intelligente per potenziare la grafica in versione pc...e sfruttare la maggior potenza delle gpu

Se cercassi impostazioni grafiche ,intelligenti e non esose in termini di performance,giocherei su console.
Una scheda da 800 euro,che piglia badilate nei denti da un gioco proveniente da ps3 e xbox 360,con il trucco non è un bello spettacolo da vedere.
Non oso immaginare un'eventuale red dead redemption 2 che mattone possa essere maxato..........
Ed oltretutto l'erba ad ultra ha un impatto visivo impressionante,molto migliore di tw3 e sicuramente il migliore mai visto in circolazione.

traider
09-05-2016, 12:11
A proposito di TW3 Titan X e Hairworks non vanno molto daccordo :asd: :

https://youtu.be/_SI650KD0bY?t=3m50s

.

Goofy Goober
09-05-2016, 12:13
lo ricordo bene,

il sito evga l iva l ha fatta pagare all italiana mortacci loro! ma lo shop rigorsamente only english
risparmiavo almeno un centone se non di più quanto mi piacerebbe la storia del paese di origine per la fatturazione asd asd

questo perchè, se non sbaglio, EVGA ha anche qualche cosa in Italia, quindi la fattura la faranno figurare come emessa in IT.

Ale55andr0
09-05-2016, 12:14
Sostanzialmente quello che stavo dicendo io. Async compute può essere utile per superare dei limiti dell'architettura AMD che si ritrova spesso diversi shader in idle, cosa che su NVIDIA non succede.

Inviato dal mio ONE A2003 utilizzando Tapatalk

quindi hanno introdotto tale caratteristica in dx 12 appositamente per amd :fagiano:
Posto che la risposta di nvidia non potrebbe che tendere a minimizzare in un caso del genere, e viceversa OVVIAMENTE :)

YesManYes
09-05-2016, 12:16
http://abload.de/img/crazy4k72iyd.jpg (http://abload.de/image.php?img=crazy4k72iyd.jpg)

http://abload.de/img/extremecseit.jpg (http://abload.de/image.php?img=extremecseit.jpg)

YesManYes
09-05-2016, 12:18
qualcosa non torna: Titan X e Fury non hanno quasi alcuna perdita di prestazioni tra crazy ed extreme, mentre la nuova gtx perde un botto

Goofy Goober
09-05-2016, 12:20
qualcosa non torna: Titan X e Fury non hanno quasi alcuna perdita di prestazioni tra crazy ed extreme, mentre la nuova gtx perde un botto

notavo lo stesso.

o benchmark fake o c'è dell'altro dietro.

YesManYes
09-05-2016, 12:24
notavo lo stesso.

o benchmark fake o c'è dell'altro dietro.

fake o chi sta giocando anticipatamente con la 1080 non ha ricevuto nel pacchetto un driver adeguato per questa scheda.
la butto li...

Ale55andr0
09-05-2016, 12:28
ottimo polaris 10 (il "meglio" che attualmente proporrà amd) che va la metà, peraltro spaccata, di una fury :fagiano:

http://abload.de/img/crazy4k72iyd.jpg (http://abload.de/image.php?img=crazy4k72iyd.jpg)

http://abload.de/img/extremecseit.jpg (http://abload.de/image.php?img=extremecseit.jpg)

traider
09-05-2016, 12:28
In extreme 4K la gtx 1080 fà 30 fps in piu di una titan x e una R9 Fury ? :eek: .

YesManYes
09-05-2016, 12:28
ottimo polaris 10 (il "meglio" che attualmente proporrà amd) che va la metà, peraltro spaccata, di una fury :fagiano:

dai non è male:
http://abload.de/img/standard41fjd.jpg (http://abload.de/image.php?img=standard41fjd.jpg)

:asd: :doh:

Ale55andr0
09-05-2016, 12:29
se rilasciano witcher3 enanched
ci sara da ridere :D

non lo rilasciano, lo hanno detto un fantastiliardo di volte, solo una goty con tutti i dlc

/ot

FroZen
09-05-2016, 12:29
ottimo polaris 10 (il "meglio" che attualmente proporrà amd) che va la metà, peraltro spaccata, di una fury :fagiano:

Testato con catalyst 13.2 :sofico:

YesManYes
09-05-2016, 12:30
Testato con catalyst 13.2 :sofico:

a parte gli scherzi penso che neanche questa gpu ha un driver adeguato...

Goofy Goober
09-05-2016, 12:31
In extreme 4K la gtx 1080 fà 30 fps in piu di una titan x e una R9 Fury ? :eek: .

Era questo che intendevo prima per "stare calmi e non sbrodolarsi" :asd:

IMHO quei bench hanno l'attendibilità giusta solo per i primati sovversivi ormai fuori controllo.

Attendiamo i test a tutto tondo...

Cmq si, Polaris in quella situazione farebbe MALISSIMO al mercato.
Della serie altro che founder edition, ma "pagami il quadruplo perchè intanto non c'è altro sul mercato edition".

YesManYes
09-05-2016, 12:33
In extreme 4K la gtx 1080 fà 30 fps in piu di una titan x e una R9 Fury ? :eek: .

su extreme andrebbe un + 73% rispetto TX.
ma vediamo altri test.... da retta

Ale55andr0
09-05-2016, 12:34
a parte gli scherzi penso che neanche questa gpu ha un driver adeguato...

io penso semplicemente che quel grafico è un fake colossale, driver o non driver




IMHO quei bench hanno l'attendibilità giusta solo per i primati sovversivi ormai fuori controllo.



:asd:

Spider-Mans
09-05-2016, 12:37
ma perche quel gioco è sempre in prima fila nei test eppure lo hanno comprato in 4 gatti... :asd: (sbandierato qua e la ed ha venduto la miseria di 60k secondo steamspy....ed e gia stato venduto al 33% piu volte)

vabbe tanto a breve arrivano test seri sui giochi seri

Thunder-74
09-05-2016, 12:44
Ecco altro mini-salasso .. e te pareva

Meno di 29 euro non se lo faranno pagare

Sono più che convinto che non serve a nulla, il bridge non ha mai costituito un collo di bottiglia, è solo una manovra commerciale... sopra ai 30 possibilissimo, io il ROG (foto che uso come avatar) l'ho pagato 50 pippi...

Spider-Mans
09-05-2016, 12:45
Ahahhahahahaha

Scusa ma sai cosa è il dsr?! Ahahahahah muoio

lo so visto che lo utilizzo piu di te :asd:

vediamo dsr 1,78/2x = 1440p ? ma davvero? :D

il dsr mi serve per avere su un fullhd un immagine nettamente piu pulita di qualsiasi filtro aa

ora ti è chiaro il mio discorso? no? fatti tuoi :stordita:

Goofy Goober
09-05-2016, 12:47
ma perche quel gioco è sempre in prima fila nei test eppure lo hanno comprato in 4 gatti... :asd: (sbandierato qua e la ed ha venduto la miseria di 60k secondo steamspy....ed e gia stato venduto al 33% piu volte)

vabbe tanto a breve arrivano test seri sui giochi seri

è il genere che non tira più come una volta

altrimenti il gioco di per sè è serio, come lo era Supreme Commander all'epoca (e pure lui era un macigno quando uscì, uno dei pochi giochi in DX10 quando usavo la 8800).

traider
09-05-2016, 12:47
Ma questo gioco inutile è pro AMD o Nvidia ?

No perchè se Polaris 10 fà 20 fps a crazy 4K senza driver ( e credo nemmeno senza sistema operativo a questo punto :asd: ) e la GTX 1080 a Extreme 4K anche questa senza driver fà 70% in piu' di una Titan X con gli ultimi driver ottimizzati...

LOL cmq mi sto divertendo parecchio :D :sofico: .

Spider-Mans
09-05-2016, 12:49
Ma questo gioco inutile è pro AMD o Nvidia ?

No perchè se Polaris 10 fà 20 fps a crazy 4K senza driver ( e credo nemmeno senza sistema operativo a questo punto :asd: ) e la GTX 1080 a Extreme 4K anche questa senza driver fà 70% in piu' di una Titan X con gli ultimi driver ottimizzati...

LOL cmq mi sto divertendo parecchio :D :sofico: .

è sbandieratamente PRO AMD
ecco perche vedi i rossi eccitati :asd:
1 gioco su 50 ...puo capitare xD

YesManYes
09-05-2016, 12:50
il gioco favorisce l'architettura amd!

Ale55andr0
09-05-2016, 12:50
lo so visto che lo utilizzo piu di te :asd:

vediamo dsr 1,78/2x = 1440p ? ma davvero? :D

il dsr mi serve per avere su un fullhd un immagine nettamente piu pulita di qualsiasi filtro aa

ora ti è chiaro il mio discorso? no? fatti tuoi :stordita:

lo uso pure io e sinceramente con il downsampling 1440 su 1080 non ci faccio niente, pensa che io a 3200*1800 continuo a notare aliasing in tw 3, specialmente sui pontili in legno, cosa che mi infastidisce in modo tremendo. Per emulare un SSAA 2x (non dico il 4x...) da 1080p si deve andare di 3840*2160, ovvero di 4k, allora si che si ha un'immagine pulita come dIO comand(o)a :D :sofico:

appleroof
09-05-2016, 12:52
quindi hanno introdotto tale caratteristica in dx 12 appositamente per amd :fagiano:
Posto che la risposta di nvidia non potrebbe che tendere a minimizzare in un caso del genere, e viceversa OVVIAMENTE :)

Credo intendesse dire che usare massicciamente uno o l'altra feature delle librerie grafiche possa facilitare questa o quella architettura, credo di ricordare che la swh di AOS sia stata una delle più entusiaste ad adottare mantle quando uscì, basta fare 2+2....

Ale55andr0
09-05-2016, 12:55
è sbandieratamente PRO AMD
ecco perche vedi i rossi eccitati :asd:
1 gioco su 50 ...puo capitare xD

teoricamente sono eccitati perchè deducono, a torto o a ragione "nin so" (cit. :O) che in dx12 e vista la seconda tornata di console con polaris i titoli "amichevolmente rossi" potrebbero essere un crescendo. Ma poi scusa nei test che privilegiano le architetture verdi i relativi supporter che fanno, piangono miseria? :D

Kekko1978
09-05-2016, 12:58
Primi test in AotS:
http://www.ashesofthesingularity.com/metaverse#/personas/81b0e74e-f164-4349-8c62-fc1ddfaa9df9/match-details/f53d4df9-d0aa-4378-a752-00551bf4c8b5

Trovate i test dell'utente Pelly_NV con la GTX 1080.

Ale55andr0
09-05-2016, 13:02
Credo intendesse dire che usare massicciamente uno o l'altra feature delle librerie grafiche possa facilitare questa o quella architettura, credo di ricordare che la swh di AOS sia stata una delle più entusiaste ad adottare mantle quando uscì, basta fare 2+2....

Io premetto che non tifo per nessuno anche se per anni sono stato rosso, anzi come può testimoniare frozen, che detta amichevolmente, c'avrà pure i boxer della amd (:D) mi ci sono pure scontrato una miriade di volte perchè ho criticato più volte aspramente amd..e pure a sto giro lo faccio (perchè mi lasciano un BUCO enorme fra la vega e la polaris full distruggendo la fascia di mercato che mi interessava) però in questo caso non si più parlare in quei termini che dici: se gli ace sono una caratteristica di dx 12 non si può dire che il titolo è pro amd, è quello che dovrebbe essere presente in un titolo pensato per sfruttare una feature nativa nelle librerie e la cui appplicazine va anche implementata via hardware nella gpu.

My two cents...e non so ancora che vga ci metto nel pc, giusto a specificare quanto possa fregarmente di parlare a favore dell'una e nell'altra, perchè pora come ora le manderei a CAGARE entrambe, amd perchè mi ha lasciato a piedi a livello di fascia di prodotto, nvidia perchè non mi ci sta facendo capire più nulla, se non che ste pascal paiono maxwell occate abbestia e non si sa se supportano sti benedette dx 12 davvero (ripeto: DAVVERO) perchè io, a differenza di molti fortunati miliardari qui dentor cambio pc a rotazione ogni 4 ann e l'hardware che ci starà dentro li marcirà fino a fine ciclo, ergo è nel mio interesse avere il prodotto più performante e più future proof possibile. Attualmente la verde e la rossa mi hanno mostrato solo questo:

:fuck:

YesManYes
09-05-2016, 13:03
Ma poi scusa nei test che privilegiano le architetture verdi i relativi supporter che fanno, piangono miseria? :D
a volte si
perchè certo, le nv con tutte le opzioncine grafiche in + per migliorare la grafica dei giochi verdi, vanno più delle amd ma cmq, tra txaa, physx, i capelli splendidi e ombre super pcsstxuvz, poi non c'è da gioire più di tanto per le prestazioni finali :ops:

Spider-Mans
09-05-2016, 13:03
teoricamente sono eccitati perchè deduconto, a torto o a ragioe "nin so" (cit. :O) che in dx12 e vista la second tornata di console con polaris i titoli "amichevolmente rossi" potrebbero essere un crescendo. Ma poi scusa nei test che privilegiano le architetture verdi i relativi supporter che fanno, piangono miseria? :D

alex tutto puo essere ma ashes non è l'esame di maturita ...per capire se in ambito dx12 funziona o meno pascal
perche nella homepage del gioco c'è il marchio AMD grande quanto una casa :asd:

ci sono diversi modi di sfruttare le dx12...
vediamo altri giochi nativi...no?

poi aggiungi le vulkan che con id...prenderanno piede

sulla questione console..dai sono 3 anni che le console devono favorire amd :asd: (fallout4 e gtav sono due fulgidi esempi xD)
abbiate pieta :asd:

Ale55andr0
09-05-2016, 13:05
poi aggiungi le vulkan che con id...prenderanno piede

:


beh, a maggior ragione avrebbero motivo di gongolare, visto che vulkan l'ha praticamente fatto amd mi par di capire derivando strettamente da mantle (il nome stesso poi :asd:)

Ale55andr0
09-05-2016, 13:07
a volte si
perchè certo, le nv con tutte le opzioncine grafiche in + per migliorare la grafica dei giochi verdi, vanno più delle amd ma cmq, tra txaa, physx, i capelli splendidi e ombre super pcsstxuvz, poi non c'è da gioire più di tanto per le prestazioni finali :ops:


guarda io sono rosso (attualmente e non so per quanto ancora visto che la mia 290 da segni di cedimento e di guasti..) eppure io tw3 me lo gioco a 25fps con hairworks attivo tutto maxato in 3200*1800. Ma sono malato io che preferisco avere l'effetto "cinema" che rinunciare al graficone :asd:
Ergo col vostro frame rate io danzerei nudo sui tavoli, su dai, non piangete, al masismo ridete (di me :D)

Spider-Mans
09-05-2016, 13:07
beh, a maggior ragione avrebbero motivo di gongolare, visto che vulkan l'ha praticamente fatto amd mi par di capire derivando strettamente da mantle (il nome stesso poi :asd:)

eppure doom girava alla presentazione della 1080 :asd:
allora vedi che c'è modo e modo :D
basta non avere il marchio amd piu grande di quello stardock in prima pagina..ma sicuramente ashes è un tech demo imparzialissimo :asd:

muppo
09-05-2016, 13:12
Concordo.
se devi spendere 800 euro di scheda video per giocarci a dettaglio medio alto a 30fps traballanti in 1080p non ha senso.
ma tralasciando l'erba ultra con cui in certi punti le prestazioni mortificano anche le schede da 800€ per un guadagno visivo leggero, il gioco su pc è meglio della versione console per tanti altri motivi.
e cmq per un risultato migliore già basta una gpu da 250€


x me il miglioramento non vale il decadimento di prestazioni.


come è inutile attivare qualche filo di erba + per vedersi crollare, in certi punti, le prestazioni anche con pc da 2000€

beh da un punto di vista tecnico credo che i problemi con certi giochi, in questo caso gta5, sia legato anche alle piattaforme in cui al tempo fu progettato.
L'erba in particolare richiede un numero di textures superiore anche a modelli più complessi, in più ha un canale alpha per far apparire trasparente una porzione di poligono e l'impatto sulle prestazioni è notevole anche aumentando di pochi cespugli in più. Un lavoro di ottimizzazione (nel caso di gta5 mipmapping, distanza visiva, e numero di ebra on screen) piu certosino avrebbe portato a risultati migliori anche se risultando più scarno, ma più di cosi non si poteva fare e non credo sia stato fatto solo per accoppare le prestazioni delle gpu top gamma. Anche perchè ne risentirà anche quello delle 1080 stanne certo.
C'è da dire che in ogni caso che la vegetazione in particolare è una tecnologia abbastanza vecchia, tranne forse per star wars battlefront, anche se a dire il vero non ho ancora guardato a come l'hanno approntata, ma ad occhio mi pare il primo tentativo di cambiare l'approccio rispetto al passato.
una cosa però mi pare chiara, hanno ottenuto un risultato visivo fantastico e l'impatto delle performance almeno sul mio sistema non è stato drammatico. (parlo di swbf)

Ale55andr0
09-05-2016, 13:13
sulla questione console..dai sono 3 anni che le console devono favorire amd :asd: (fallout4 e gtav sono due fulgidi esempi xD)
abbiate pieta :asd:


paradossalmente gli dai ragine così: perchè appunto la maggior parte dei titoli sono multipiatta che sono pensati addirittura per le vecchie! Ma con gli engine nuovi, potrebbe (e dico potrebbe) essere invece proprio quella la tendenza, perchè a un certo punto, soprattutto con le "nuove" (e presunte eh) console non potrà che esserci il definitivo taglio del cordone ombelicale ed engine nativamente e VERAMENTE programamti sull'hardware AMD... La produzione della 360 nel frattempo è cessata per dire, e non so quanto durerà ancora quella della ps 3 (sulla quale non ho notizie da secoli), quindi...non so, tu che dici? senza polemica eh :)
sul fatto di attendere i bench più probanti e vari poi ti straquoto al 100% ;), ma sarebbero sempre bench su titoli principalmente dx 11, e anche questo va detto :)

YesManYes
09-05-2016, 13:17
e l'impatto delle performance almeno sul mio sistema non è stato drammatico.

un altro utente con 980ti occata a + di 1500 ha detto che fuori città è un delirio di cali di frames...e questo a 1080p
e ricordo nei thread performance, in altri forum.. tipo neogaf dove molta gente con schede portentose lamentava la stessa cosa... :boh:

Ale55andr0
09-05-2016, 13:18
eppure doom girava alla presentazione della 1080 :asd:
allora vedi che c'è modo e modo :D
basta non avere il marchio amd piu grande di quello stardock in prima pagina..ma sicuramente ashes è un tech demo imparzialissimo :asd:

senza dubbio, ma non hai visto come avrebbe girato su una polaris, per ribattere, posto che ora come ora in mano come metri di paragone e conoscenza del contesto (impostazioni, hardware di contorno ecc.) abbiamo solo i nostri.... ehm quando dobbiamo far pipì :p

comunque proprio a causa di cio', come detto sopra ti quoto quando dici che servono delle recensioni e bench su più ampia scala e su entrambe le creature rosse/verdi, ovviamente a pari fascia (visto che amd la fascia alta ora non la vuole fare accidenti a loro :muro: ), perchè allo stato attuale si brancola nel buio. Io però che non cambio vga ogni 6 mesi dovrò capire se gli ace (peraltro preferisco il succo d'ananas, per cui figurati :O ), per chi come me dovrà fare una macchina longeva, sono importanti o meno :stordita:

fraussantin
09-05-2016, 13:22
Primi test in AotS:
http://www.ashesofthesingularity.com/metaverse#/personas/81b0e74e-f164-4349-8c62-fc1ddfaa9df9/match-details/f53d4df9-d0aa-4378-a752-00551bf4c8b5

Trovate i test dell'utente Pelly_NV con la GTX 1080.
Si trovano dei bench della furyx in crossx2 o x3 , volevo levarmi un dubbio .

Non vorrei che (oltre a far cagare) quel game sia limitato da altre cose.

muppo
09-05-2016, 13:22
un altro utente con 980ti occata a + di 1500 ha detto che fuori città è un delirio di cali di frames...e questo a 1080p
e ricordo nei thread performance, in altri forum.. tipo neogaf dove molta gente con schede portentose lamentava la stessa cosa... :boh:

su star wars battlefront?
strano a me gira liscio come l'olio.


tornando al benchmark di ashes, suvideocardz qualcosa non torna, come fa polaris 10 a fare 17,20 in crazy 5k e a farne 22 a 1080p low??
certo è che se son veri la 1080 vola.

e con le note di xfiles via alle discussioni ora :D

YesManYes
09-05-2016, 13:27
su star wars battlefront?
strano a me gira liscio come l'olio.

nono parlavo di GTA!
pensavo ti riferissi a quello
l'altro gioco nemmeno l'ho mai provato.
GTA si anche se la noia si manifestò dopo un paio di ore...e non l'ho mai finito :asd:

Gello
09-05-2016, 13:43
GTA come sempre e' ottimizzato male male, notato un utilizzo "strano" (quasi mai GPU al 100%) delle risorse, battlefront invece lato fluidita' e ottimizzazione e' forse uno dei migliori titoli provati, con una 980@1500 a 1440p oltre gli 80fps tutto maxato.

Cmq entrambi titoli mediocri (soprattutto il secondo), a mio parere s'intende ;)

appleroof
09-05-2016, 13:52
Io premetto che non tifo per nessuno anche se per anni sono stato rosso, anzi come può testimoniare frozen, che detta amichevolmente, c'avrà pure i boxer della amd (:D) mi ci sono pure scontrato una miriade di volte perchè ho criticato più volte aspramente amd..e pure a sto giro lo faccio (perchè mi lasciano un BUCO enorme fra la vega e la polaris full distruggendo la fascia di mercato che mi interessava) però in questo caso non si più parlare in quei termini che dici: se gli ace sono una caratteristica di dx 12 non si può dire che il titolo è pro amd, è quello che dovrebbe essere presente in un titolo pensato per sfruttare una feature nativa nelle librerie e la cui appplicazine va anche implementata via hardware nella gpu.

My two cents...e non so ancora che vga ci metto nel pc, giusto a specificare quanto possa fregarmente di parlare a favore dell'una e nell'altra, perchè pora come ora le manderei a CAGARE entrambe, amd perchè mi ha lasciato a piedi a livello di fascia di prodotto, nvidia perchè non mi ci sta facendo capire più nulla, se non che ste pascal paiono maxwell occate abbestia e non si sa se supportano sti benedette dx 12 davvero (ripeto: DAVVERO) perchè io, a differenza di molti fortunati miliardari qui dentor cambio pc a rotazione ogni 4 ann e l'hardware che ci starà dentro li marcirà fino a fine ciclo, ergo è nel mio interesse avere il prodotto più performante e più future proof possibile. Attualmente la verde e la rossa mi hanno mostrato solo questo:

:fuck:

Mettiamola così in modo da spiegarmi meglio: la tasselletion è una prerogativa delle dx11, se ne fai un uso di un certo tipo come, solo per fare un esempio, in crysis 2 vai a favorire più un'architettura che l'altra anche se entrambe sono dx11 (in quel caso nvidia come si sa) perché in quel momento è più forte sulla tasselletion da un punto di vista hw, non sono discorsi da fanboy tranquillo, sono cose abbastanza oggettive insomma, poi magari chi è più ferrato di me potrà smentirmi o meno

Ale55andr0
09-05-2016, 14:09
Mettiamola così in modo da spiegarmi meglio: la tasselletion è una prerogativa delle dx11, se ne fai un uso di un certo tipo come, solo per fare un esempio, in crysis 2 vai a favorire più un'architettura che l'altra anche se entrambe sono dx11 (in quel caso nvidia come si sa) perché in quel momento è più forte sulla tasselletion da un punto di vista hw, non sono discorsi da fanboy tranquillo, sono cose abbastanza oggettive insomma, poi magari chi è più ferrato di me potrà smentirmi o meno

si ma il tessellator lo avevano entrambe, anche se implementato attraverso le cu per nvidia, e tramite unità apposita in AMD, che però non aveva/ha prestazioni entusiasmanti. Ma entrambe chi con un approccio, chi con un altro, lo avevano/supportavano al 100%. Qui invece non si è ancora capito (o almeno io, e chiedo venia se in caso è stato detto e m'è sfuggito) se nvidia gli ace proprio non li ha e amen, quindi teoricamente manca a livello hardware di una feature richiesta dalle dx 12, che è ben diverso...
Mickael dove seiiii????? :D

appleroof
09-05-2016, 14:21
si ma il tessellator lo avevano entrambe, anche se implementato attraverso le cu per nvidia, e tramite unità apposita in AMD, che però non aveva/ha prestazioni entusiasmanti. Ma entrambe chi con un approccio, chi con un altro, lo avevano/supportavano al 100%. Qui invece non si è ancor capito (o almeno io, e chiedo venia se in caso è stato detto e m'è sfuggito) che nvidia proprio gli ace non li ha e amen, quindi teoricamente manca a livello hardware di una feature richiesta dalle dx 12 che è ben diverso...
Mickael dove seiiii????? :D

Anche se fosse non toglie nulla al discorso: le directx sono una specie di linee guida sulla base delle quali ognuno poi disegna il suo chip, cercando di interpretare quali di quelle linee guida verranno scelte, seguite, in maniera preponderante nei giochi scritti con quelle librerie (oppure ex post cercando di influenzare in vari modi gli sviluppatori a scrivere i giochi in modo da poter spremere meglio la propria architettura, come detto) , poi a volte le scelte sono obbligate o dettate da compromessi nel design complessivo del chip etc etc è sempre stato così da una vita, sotto questo punto di vista nullo di nuovo

Se fosse come dici, probabilmente l'architettura nvidia emula in sw quella funzione (per inciso ignoro su pascal come stanno le cose concon pascal) questo non toglie che se lo sviluppatore X decide di farne massiccio uso per forza finirà per favorire - in questo caso- AMD che gestisce gli ace in hw, ma ripeto, dal punto di vista concettuale non è nulla di diverso rispetto alla tassellazione (o altre feature dx11, mi riferisco a quella più famosa solo per comodità).

Ripeto a livello tecnico non so bene come stanno le cose, non seguo da mesi, ma a livello concettuale siamo sempre lì

YesManYes
09-05-2016, 14:27
DirectX 12 Async Compute Still As Important As Ever – Can Nvidia Catch Up To AMD?

I dove deep into the Pascal architecture last month and explored the nitty and gritty of details. One of the more important architectural changes that Nvidia has introduced with pascal is the addition of a hardware scheduler, similar to to what AMD did with the GCn architecture in the HD 7000 series in 2011.

This new hardware scheduler will play a crucial role in allowing Pascal GPUs to perform better at executing tasks asynchronously, even though it still evidently relies on pre-emption and context switching according to what Nvidia has revealed in its Pascal whitepaper.

So while this scheduler doesn’t actually allow tasks to be executed asynchronously it will still improve the performance of Pascal GPUs while executing code that’s written asynchronously. It’s sort of a hack to hold Pascal off until proper async compute is implemented in Nvidia’s future architectures.


Async Compute has always been a controversial issue for Nvidia, largely because the company refused to talk about it for many months and promised a driver that would enable it on Maxwell that never came. The addition of an updated hardware scheduler in Pascal signals a change of heart for Nvidia. It represents a walk-back on some of the trade-offs that the company decided to make with Maxwell to achieve its power efficiency goals.

These trade-offs many developers argued were reasonably sound for DirectX 11 and traditional generic APIs, but not so much for the new era of VR and low level APIs such as DirectX 12 and Vulkan. Where executing code asynchronously has proven to be of benefit to latency and performance. Pascal should be better at Async Compute thanks to the new scheduler. Although how much better exactly no one knows yet. However, if these DirectX 12 Ashes of The Singularity – a game that makes plentiful use of the feature – benchmarks are of any indication, then we’re looking at minimal improvements at best.


http://www.mobipicker.com/nvidia-gtx-1080-directx-12-benchmarks-async-compute/

Legolas84
09-05-2016, 14:29
si ma il tessellator lo avevano entrambe, anche se implementato attraverso le cu per nvidia, e tramite unità apposita in AMD, che però non aveva/ha prestazioni entusiasmanti. Ma entrambe chi con un approccio, chi con un altro, lo avevano/supportavano al 100%. Qui invece non si è ancora capito (o almeno io, e chiedo venia se in caso è stato detto e m'è sfuggito) se nvidia gli ace proprio non li ha e amen, quindi teoricamente manca a livello hardware di una feature richiesta dalle dx 12, che è ben diverso...
Mickael dove seiiii????? :D

Quello che però stiamo anche cercando di spiegarti è che i motori ACE per AMD sono una necessità per far si che tutti gli shader lavorino come si deve e che alcuni non rimangano in idle. Su NVIDIA questa necessità è meno pressante perchè capita molto più di rado che gli shader NVIDIA restino in idle, questo grazie alle caratteristiche dell'architettura.

E questo esula da quel gioco, che è programmato appositamente epr far andare bene le rosse e male le verdi (e oddio non sto dicendo che è uno scandalo, perchè NVIDIA ha fatto lo stesso con moltissimi altri titoli, sto solo dicendo che non è il metro di paragone più adatto tutto qui).

PS
Lo vedete il logo AMD in basso sul sito ufficiale.... è un gioco sponsorizzato con i soldi di AMD. Ragazzi NON È UNO SCANDALO LO FA ANCHE NVIDIA MA QUESTO È DI AMD e andrà sempre meglio su AMD per forza.


Riguardo Vulkan, per l'ennesima volta è l'evoluzione di OPENGL. Praticamente il gruppo Khronos che sviluppa OpenGL si è ispirato a mantle per creare le nuove API, ma Vulkan non è Mantle, ma sono API universali.

Nel Gruppo Khronos lavorano (e hanno quindi lavorato a Vulkan):

Advanced Micro Devices
Apple
Creative Labs
Graphic Remedy
id Software
Intel Corporation
NVIDIA
Sony Computer Entertainment
Sun Microsystems
Texas Instruments

Ma ce ne sono anche molti altri. E tutti questi hanno lavorato a Vulkan, quindi Vulkan (come OpenGL) funzionerà alla grande sia su NVIDIA che su AMD.

appleroof
09-05-2016, 14:35
Ecco in qualche modo quanto scritto sopra da Yesmanyes conferma quanto pensavo, aggiungo solo che se nvidia ritiene di cambiare la propria politica in merito, credo abbia implicitamente ammesso che ha sbagliato a disegnare i propri chip dando poco (o nullo mi pare, con maxwell) peso a questa feature... Chissà, tocca vedere quanto i giochi useranno (e come) questa feature nel futuro prossimo, da quanto ricordo poi i benefici degli ace ci sono perlopiù negli rts con migliaia di oggetti a schermo, quindi non in tutti i giochi ma potrei sbagliare!

traider
09-05-2016, 14:37
Mikael è troppo zitto in questi giorni ragazzi , mi sa che GTX1080 e 1070 spaccheranno di brutto :D , qualcosa bolle in pentola! .

FroZen
09-05-2016, 14:38
lo so visto che lo utilizzo piu di te :asd:

vediamo dsr 1,78/2x = 1440p ? ma davvero? :D

il dsr mi serve per avere su un fullhd un immagine nettamente piu pulita di qualsiasi filtro aa

ora ti è chiaro il mio discorso? no? fatti tuoi :stordita:

Ahahahhahha

Ok, sei un grande .... potevi tenere un crt 1024x768 con ds a 8x .... che ci importa della risoluzione fisica? Dot pitch? Cos'è?! Un nuovo film della serie di Riddick? Assasdasd

I pirla che spendono stipendi in pannelli qhd, 4 o 5k quando bastava usare un po' di downsampling..... Anche i visori vr, li avessero fatti 640 480 avremmo da dieci anni 1200hz , il mondo sembrerebbe minecraft ma vuoi mettere? Asdasd

720p is the new black :O

paolox86
09-05-2016, 14:44
Io non capisco perché sul mercatino qualcuno tenti ancora di piazzare la 980ti a 500/550 &euro;. D'accordo che ancora non sono uscite le recensioni ufficiali ma chi le comprerebbe ora a questi prezzi?


Inviato dal mio iPhone utilizzando Tapatalk

mikael84
09-05-2016, 14:45
Mettiamola così in modo da spiegarmi meglio: la tasselletion è una prerogativa delle dx11, se ne fai un uso di un certo tipo come, solo per fare un esempio, in crysis 2 vai a favorire più un'architettura che l'altra anche se entrambe sono dx11 (in quel caso nvidia come si sa) perché in quel momento è più forte sulla tasselletion da un punto di vista hw, non sono discorsi da fanboy tranquillo, sono cose abbastanza oggettive insomma, poi magari chi è più ferrato di me potrà smentirmi o meno

Con la tessellazione Nvidia va meglio perchè è molto più potente geometricamente, può disegnare molti più triangoli per ciclo e non soffre il culling come AMD, dove si vede intasare i buffer e le relative latenze d'accesso aumentano.
Le uniche che possono disegnare 4 triangoli a ciclo sono la 290/fury e la 285/385 per AMD, valore ben più elevato per Nvidia che con i polymorph engine per SM, disegna 1 triangolo ogni 3 SM, quindi una 980ti disegna 7,26 triangoli a ciclo che moltiplicato per il ciclo rende circa 7811 g.tris/s su un base boost di 1076mhz.

Con la tessellazione si fa tutto più complesso ed anche Nvidia comincia a calare nel culling ma non come AMD. Su Nvidia il polymorh engine una volta calcolati tutti i dati, li invia allo stream output che elimina i dati non necessari. Se questi dati non li elimini te li ritrovi in calcolo saturando la memoria inutilmente.
Attualmente una AMD con 4 raster ha un rapporto drawn/culled da 960 circa, un dato davvero pessimo per una gpu di alto livello.

Ad esempio gli unigine vanno male in AMD per il backface culling, espulsione triangoli che non sono visibili e se questi non vengono correttamente espulsi ti ritrovi a calcolare tante superfici nascoste sovraccaricando i buffer per nulla, quando Nvidia le ha già espulse.

fireradeon
09-05-2016, 14:49
pensi che 2 mesi dopo sia troppo? quei 100 euro in più per le founder mi preoccupano, se uscissero poco dopo che le comprerebbe?

Allora, tu prendi di solito le custom (come tutti noi) perchè hanno un sistema di dissipazione migliore rispetto alle stock, mentre queste ultime di solito si prendono per poi liquidarle e quindi rimuovere il dissipatore stock senza rompere sigilli.
Però valuta bene, guarda che OC raggiunge con il dissi "stock" della founders e 67°, ricordo che il dissi della 780 era molto silenzioso (lo so perchè l'ho avuta e mi sono sorpreso di quanto poco rumore facesse), quindi se paghi la vga 100 euro in più ma hai un dissi con i contro c...i allora è come prendere una custom alla fine, quindi aspetta le recensioni e valuta sia a che OC arriva e sia quanto rumore fa, perchè potresti non dover aspettare le custom (che costeranno quanto le Founders).

Per chi lo chiedeva.... per fare SLi con Pascal, bisogna usare il nuovo Bridge, i vecchi non andranno bene.

...At the Nvidia presentation it was made aware that SLI is getting an update as well. Starting with Pascal, the SLI connectors will change. you cannot use your older SLI bridges with Pascal and vice versa...

Fonte LINK (http://www.guru3d.com/news-story/the-four-new-geforce-gtx-1070-and-1080-related-technologies.html)

Sono più che convinto che non serve a nulla, il bridge non ha mai costituito un collo di bottiglia, è solo una manovra commerciale... sopra ai 30 possibilissimo, io il ROG (foto che uso come avatar) l'ho pagato 50 pippi...


Ecco bella inculata. Amen ho appena fatto il reso del ponticello ROG da Amazon, domani era l'ultimo giorno e preferisco non rischiare visto che l'ho pagato 50 euro tondi toni, a questo punto vedo prima quando escono le schede e se è compatibile lo ordino di nuovo, tanto per ora non mi serve (oh, l'avevo preso proprio per lo SLI di 1080 e dopo anni cosa cambiano.... il ponticello sli!! :muro: ). Speriamo lo rifaccia presto l'Asus perchè mi piace un sacco e ci sta con la mia build a liquido.

Ale55andr0
09-05-2016, 14:51
Quello che però stiamo anche cercando di spiegarti è che i motori ACE per AMD sono una necessità per far si che tutti gli shader lavorino come si deve e che alcuni non rimangano in idle

questa cosa che "amd li ha perchè gli servono" mi è del tutto relativa se è una specifica standard dettata dalle nuove librerie come era il tessellator per directx 11. La mia domanda è se ci stanno o no. Tutto li. Mi pare di capire che non è certo al 100% nessuno, nel frattemepo leggerò con calma anche gli altri articoli linkati per vedere se riesco a trovare risposta al quesito :).In the meantime, grazie lo stesso ;)

Ale55andr0
09-05-2016, 14:52
Mikael è troppo zitto in questi giorni ragazzi , mi sa che GTX1080 e 1070 spaccheranno di brutto :D , qualcosa bolle in pentola! .

mickael proprio ieri a mia domanda ha detto che non gliene frega una pippa della 1080 e che o si fa lo sli di 980ti o penserà al chippone :D

Legolas84
09-05-2016, 14:56
questa cosa che "amd li ha perchè gli servono" mi è del tutto relativa se è una specifica standard dettata dalle nuove librerie come era il tessellator per directx 11. La mia domanda è se ci stanno o no. Tutto li. Mi pare di capire che non è certo al 100% nessuno, nel frattemepo leggerò con calma anche gli altri articoli linkati per vedere se riesco a trovare risposta al quesito :).In the meantime, grazie lo stesso ;)

Tutti quanti penso che vogliamo sapere come NVIDIA gestirà l'async compute con Pascal, ma il dubbio potremo levarcelo solo con le review vere e proprie credo ;)

mikael84
09-05-2016, 14:57
Mikael è troppo zitto in questi giorni ragazzi , mi sa che GTX1080 e 1070 spaccheranno di brutto :D , qualcosa bolle in pentola! .

Ma no, ho una vita anche fuori di qua.:sofico:
Cmq i miei calcoli li avete, pur non avendole in mano, vi posso dire che andranno sicuramente molto forte (almeno la 1080). La superscalare di Nvidia beneficia notevolmente dei clock.
Una 980ti in OC a 1500 non arriva neppure al valore minimo della 1080, ma non è una scienza, tralasciando l'IPC, i clock parlano da soli, ed i clock servono a moltiplicare qualsiasi componente, dai triangoli, ai pixel (z-beffer), ai texel ecc...
Quando ti ritrovi un'architettura, molto simile ma ottimizzata che la lavora a 1860 circa di base, in confronto ad una che lavora a 1200 circa puoi trarre le tue conclusioni.
Questo senza calcolare le migliorie sui registri, in istruzioni e cache:)