PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 [85] 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Teox82
16-02-2016, 17:32
Per le X60 quindi dite che ci sarà da aspettare parecchio? :(

athlon xp 2400
16-02-2016, 17:39
Imho sicuramente ;)


Difficile a dirsi, la gtx970 ha sorpassato la gtx780Ti solo quando drivers ed ottimizzazioni dei giochi pro nuova architettura hanno spostato l'ago della bilancia. Per cui facile che le 1070 andranno quasi il doppio delle gtx970 e quindi praticamente come le attuali gtx980Ti...e guadagneranno qualcosa man mano che drivers e nuovi giochi saranno ottimizzati per pascal. Circa le dx12 è ancora tutto da vedere, potrebbero anche loro comportare eventuali stacchi prestazionali tra le 2 generazioni.
Dipende tutto anche dalle castrature a cui saranno soggette.


No perché le titan prima serie uscirono e le superarono le ti.. Mentre le titan x sono sempre il top c'è da capire se faranno uscire Pasqualino e poi pasqualone o viceversa

Sir Alamon
16-02-2016, 17:46
mi pare difficile che le 1070 vadano come le 980ti.

Alla fine le 970 quando sono uscite stavano un bel po' sotto alle 780Ti, nvidia le ha castrate coi driver

The_SaN
16-02-2016, 17:51
No perché le titan prima serie uscirono e le superarono le ti.. Mentre le titan x sono sempre il top c'è da capire se faranno uscire Pasqualino e poi pasqualone o viceversaLa Titan prima serie era uscita prima della 780Ti, che è la sua versione castrata.
Stessa cosa che è successa con Titan X e 980Ti.

The_SaN
16-02-2016, 17:52
mi pare difficile che le 1070 vadano come le 980ti.

Alla fine le 970 quando sono uscite stavano un bel po' sotto alle 780Ti, nvidia le ha castrate coi driverPiù che con i driver, con i giochi ;)

scorpion73
16-02-2016, 17:54
veramente è il contrario: la 780TI è più potente della prima Titan perché ha più cuda (ma con meno VRAM), forse ti riferivi alla Titan Black.

The_SaN
16-02-2016, 17:59
Ho confuso la 780 con la 780Ti. Mea culpa.

L'ordine sarebbe:

Titan - 2688 cc
780 - 2304 cc
780Ti - 2880 cc
Titan Black - 2880 cc

athlon xp 2400
16-02-2016, 18:41
Ho confuso la 780 con la 780Ti. Mea culpa.

L'ordine sarebbe:

Titan - 2688 cc
780 - 2304 cc
780Ti - 2880 cc
Titan Black - 2880 cc

appunto nn ho capito se faranno come la titan x ovvero fanno uscire la full e dopo mettono in commercio la castrata a prezzo umano

The_SaN
16-02-2016, 18:51
appunto nn ho capito se faranno come la titan x ovvero fanno uscire la full e dopo mettono in commercio la castrata a prezzo umanoA questo punto pare di sì...Titan e dopo 1080Ti castrata (non si sa quanto).

mikael84
16-02-2016, 19:31
appunto nn ho capito se faranno come la titan x ovvero fanno uscire la full e dopo mettono in commercio la castrata a prezzo umano

Non si sa ancora nulla, GP100 è previsto verso luglio ma riguarda quasi sicuramente una Tesla.


Cmq un'altra Maxwell in arrivo sulla fascia bassa, la 950 con 640 cuda e minori consumi (la nuova 750 in pratica).
http://videocardz.com/58251/nvidia-working-on-new-geforce-gtx-950

Trokji
16-02-2016, 19:34
Non si sa ancora nulla, GP100 è previsto verso luglio ma riguarda quasi sicuramente una Tesla.


Cmq un'altra Maxwell in arrivo sulla fascia bassa, la 950 con 640 cuda e minori consumi (la nuova 750 in pratica).
http://videocardz.com/58251/nvidia-working-on-new-geforce-gtx-950

quanti teraflops avrebbe? non lo trovo scritto. E' quasi un rebranding della 750 Ti, ma sono curioso di vedere se la banda maggiore della memoria dà qualche vantaggio tangibile o meno
EDIT: però vedo che la 750Ti aveva una frequenza GPU maggiore e 10W in meno di TDP.. quindi la 750Ti mi pare che rimanga preferibile

kiwivda
16-02-2016, 19:38
A questo punto pare di sì...Titan e dopo 1080Ti castrata (non si sa quanto).

Meno male che non siamo tutti uguali :) io custom non ne voglio più vedere nemmeno con il binocolo, una buona titan pascal sotto liquido e quanto chiedo di meglio. :D

mikael84
16-02-2016, 19:42
quanti teraflops avrebbe? non lo trovo scritto. E' quasi un rebranding della 750 Ti, ma sono curioso di vedere se la banda maggiore della memoria dà qualche vantaggio tangibile o meno
EDIT: però vedo che la 750Ti aveva una frequenza GPU maggiore e 10W in meno di TDP.. quindi la 750Ti mi pare che rimanga preferibile

1,28TF però calcolata alla base di 1ghz, con i vari boost ovviamente sale (1,47TF su 1150mhz).
Rispetto alla 750TI rimarrà un tantino più veloce a pari clock perchè integra la funzione di decompressione rops. Quindi il rapporto tra rops-cache-banda è superiore. Anche a livello geometrico è leggermente più veloce.

Trokji
16-02-2016, 19:50
Ah non sapevo di questa funzione di decompressione rops in più rispetto alle 750. Grazie della spiegazione

TigerTank
16-02-2016, 19:58
appunto nn ho capito se faranno come la titan x ovvero fanno uscire la full e dopo mettono in commercio la castrata a prezzo umano

Certo, perchè è l'ordine migliore come rendimento di marketing.
Le titan sono le più costose, facendole uscire per prime si ha la massima probabilità di acquisto per chi sbava per il nuovo.
Le TI escono per ultime perchè imho sono le migliori della serie come vga singola ed evoluzione della generazione, con tanto di probabilità che appunto ci sia gente che passa da 1070-1080 a 1080Ti se stacca ben benino(cosa che ho fatto io da gtx980 a gtx980Ti senza alcun pentimento), soprattutto se le 1070-1080 avranno le ddr5 e le Ti le HBM2, queste ultime troppo fuori portata sulle titan per via dei costi :)


Meno male che non siamo tutti uguali :) io custom non ne voglio più vedere nemmeno con il binocolo, una buona titan pascal sotto liquido e quanto chiedo di meglio. :D

Dai così dopo preparerai una nuova e bella guida sul mod del bios :)

The_SaN
16-02-2016, 20:06
Meno male che non siamo tutti uguali :) io custom non ne voglio più vedere nemmeno con il binocolo, una buona titan pascal sotto liquido e quanto chiedo di meglio. :DMi sa che volevi quotare quello sotto di me :asd:

Crysis90
16-02-2016, 20:57
A questo punto pare di sì...Titan e dopo 1080Ti castrata (non si sa quanto).

Che poi "castrata" è una parola grossa per la TI, visto che qualche modello custom-OC va più della Titan e costa comunque qualche centinaio di euro meno. ;)

The_SaN
16-02-2016, 21:00
Che poi "castrata" è una parola grossa per la TI, visto che qualche modello custom-OC va più della Titan e costa comunque qualche centinaio di euro meno. ;)Anche solo ridurre la ram vuol dire castrare una scheda...infatti tra parentesi ho ho scritto "non si sa quanto".
Che poi sia ininfluente ai fini prestazionali è un altro discorso :)

kiwivda
16-02-2016, 21:34
Mi sa che volevi quotare quello sotto di me :asd:

:doh: :D

kiwivda
16-02-2016, 21:36
Dai così dopo preparerai una nuova e bella guida sul mod del bios :)

Ecco si però prima devo prendermi una settimana o due di ferie :D

mikael84
17-02-2016, 11:30
Spuntano primi interessanti dati sui valori DP e SP di GP100 versione professionale Tesla ma tale modello sarà proposto anche in versione TI
cliccate l'immagine
http://abload.de/thumb/pascalz9rl4.png (http://abload.de/image.php?img=pascalz9rl4.png)

12Teraflops calcolati con 1ghz di clock significa che il chip potrebbe contenere sino a 6144 cuda core in rapporto DP 1/3 su un grosso 600mm2.

traider
17-02-2016, 12:34
Cioè ? :mbe: , Saranno 3 volte piu potenti di una 980ti ? .

Crysis90
17-02-2016, 12:46
Spuntano primi interessanti dati sui valori DP e SP di GP100 versione professionale Tesla ma tale modello sarà proposto anche in versione TI
cliccate l'immagine
http://abload.de/thumb/pascalz9rl4.png (http://abload.de/image.php?img=pascalz9rl4.png)

12Teraflops calcolati con 1ghz di clock significa che il chip potrebbe contenere sino a 6144 cuda core in rapporto DP 1/3 su un grosso 600mm2.

Fonte??
Da dove proviene sta foto?? :mbe: :mbe:

Cioè ? :mbe: , Saranno 3 volte piu potenti di una 980ti ? .

No, anche perchè nella tabella non c'è Maxwell (980 TI).
Il 3X è comparato rispetto a Kepler. E ci sta tutto, visto il mega-chippone che sarà GP100 (17 miliardi di transistor.....)

Giovamas
17-02-2016, 13:22
Non so se era stato postato:

http://en.expreview.com/?p=507

boh? mi sa che si upgrada nel 2017... quanti rumors:(

Nurabsa
17-02-2016, 13:50
pronostico mio personale

per vedere megacustom serie minimo luglio 2017 serie 10 Ti

Giovamas
17-02-2016, 14:07
pronostico mio personale

per vedere megacustom serie minimo luglio 2017 serie 10 Ti

Uhm.. un po' anche il mio.

TigerTank
17-02-2016, 14:09
Non so se era stato postato:

http://en.expreview.com/?p=507

boh? mi sa che si upgrada nel 2017... quanti rumors:(

Sì ma non ci sbattere la testa...hai una signora vga nel case, per cui goditela.
Se si pensa sempre agli upgrade si finisce appunto per non godersi nulla. ;)

athlon xp 2400
17-02-2016, 14:15
Sì ma non ci sbattere la testa...hai una signora vga nel case, per cui goditela.
Se si pensa sempre agli upgrade si finisce appunto per non godersi nulla. ;)
C'è stato un periodo cambiavo più vga che stare a giocare lol

mircocatta
17-02-2016, 14:19
bisogna ringraziare apple samunsung e compagnia bella se il mercato vga si è stagnato da qualche hanno..praticamente nvidia e amd faticano a trovare una fonderia che gli faccia i chip :(

illidan2000
17-02-2016, 14:40
bisogna ringraziare apple samunsung e compagnia bella se il mercato vga si è stagnato da qualche hanno..praticamente nvidia e amd faticano a trovare una fonderia che gli faccia i chip :(

forse gli converrebbe aprire una fonderia...

Giovamas
17-02-2016, 14:52
Sì ma non ci sbattere la testa...hai una signora vga nel case, per cui goditela.
Se si pensa sempre agli upgrade si finisce appunto per non godersi nulla. ;)

Hai ragione :)

killeragosta90
17-02-2016, 15:45
pronostico mio personale

per vedere megacustom serie minimo luglio 2017 serie 10 Ti

Lo spero, almeno mi terrò la 980 Ti per un bel po'.... :stordita:

fireradeon
17-02-2016, 16:16
Meno male che non siamo tutti uguali :) io custom non ne voglio più vedere nemmeno con il binocolo, una buona titan pascal sotto liquido e quanto chiedo di meglio. :D

A me le custom non dispiacciono, ma la 980Ti va liquidata se fai OC, oppure vai in modalità tifone con le ventole (con AC Syndicate mi arrivava anche 61° e per non far tagliare ho dovuto portare la ventola al 70/75% e siamo in "inverno" per così dire).

TigerTank
17-02-2016, 16:40
Hai ragione :)

Figurati...più che ragione è quello che mi dico anch'io come antidoto anti-scimmie :asd:

Teox82
17-02-2016, 17:44
Non so se era stato postato:

http://en.expreview.com/?p=507

boh? mi sa che si upgrada nel 2017... quanti rumors:(

GP106 Q4 2016. :cry:

Raven
17-02-2016, 18:08
Sì ma non ci sbattere la testa...hai una signora vga nel case, per cui goditela.
Se si pensa sempre agli upgrade si finisce appunto per non godersi nulla. ;)

Quotone!... 'sta corsa all'upgrade fine a se stesso non la capirò mai...

FroZen
17-02-2016, 18:09
Quotone!... 'sta corsa all'upgrade fine a se stesso non la capirò mai...

Sei sul forum sbagliato per far notare una cosa sacrosanta...

ste-87
17-02-2016, 19:38
ci sarebbe qualch altra indiscrezione/ipotesi nuova qui:

http://videocardz.com/58297/nvidia-pascal-gp100-targeting-12-tflops-in-single-precision-computing-performance

ovviamente tutto da confermare

athlon xp 2400
17-02-2016, 19:52
Forse ho ritrovato lavoro :) in caso upgrade Lol

fireradeon
17-02-2016, 20:43
ci sarebbe qualch altra indiscrezione/ipotesi nuova qui:

http://videocardz.com/58297/nvidia-pascal-gp100-targeting-12-tflops-in-single-precision-computing-performance

ovviamente tutto da confermare

Tra fine Marzo ed inizio Aprile si saprà di sicuro qualcosa di più certo. Se non annunciano niente se ne parla a GIUGNO 2016

nico88desmo
17-02-2016, 21:01
Qualche slide aggiuntiva :)

http://ccoe.ac.upc.edu/_media/5_stackeddram-v41-4x1.pdf

kiwivda
17-02-2016, 21:05
Forse ho ritrovato lavoro :) in caso upgrade Lol

Ottima Notizia! :)

Crysis90
17-02-2016, 21:11
Qualche slide aggiuntiva :)

http://ccoe.ac.upc.edu/_media/5_stackeddram-v41-4x1.pdf

Azz, allora sono slide ufficiali.
Interessante...:O

mikael84
17-02-2016, 21:12
ci sarebbe qualch altra indiscrezione/ipotesi nuova qui:

http://videocardz.com/58297/nvidia-pascal-gp100-targeting-12-tflops-in-single-precision-computing-performance

ovviamente tutto da confermare

E' tutto da confermare, la roadmap da me stesso postata è vecchiotta ma quanto riportato ultimamente sembra confermare questi dati.
Trovo interessante che il rapporto in TF lasci presagire a 40 SMM o 48 SMM.
Nel primo caso con 40 SMM e chippone da 6144cuda, i clock non sembrano poi diversi dagli attuali 28hpm, mentre nel secondo ci troviamo di fronte a meno unità di calcolo ma boost superiori già sul modello Tesla e di conseguenza i modelli da game avranno di base clock molto elevati.

La scelta di utilizzare core molto piccoli, se ricordi quando te ne parlavo potrebbe essere veritiera. Sui vari rumors sono stati molto più duri tanto da ipotizzare un GP104 con 2560cuda.
A questo punto GP104 potrebbe non essere così prestante ma punterebbe molto ad efficienza e boost maggiorati

Crysis90
17-02-2016, 21:15
ci sarebbe qualch altra indiscrezione/ipotesi nuova qui:

http://videocardz.com/58297/nvidia-pascal-gp100-targeting-12-tflops-in-single-precision-computing-performance

ovviamente tutto da confermare

Beh per quanto riguarderà la versione TITAN di Pascal, che abbia 5000 o 6000 CUDA core sarà in entrambi i casi un mostro di potenza! :D :D :eek: :eek:

illidan2000
17-02-2016, 21:40
E' tutto da confermare, la roadmap da me stesso postata è vecchiotta ma quanto riportato ultimamente sembra confermare questi dati.
Trovo interessante che il rapporto in TF lasci presagire a 40 SMM o 48 SMM.
Nel primo caso con 40 SMM e chippone da 6144cuda, i clock non sembrano poi diversi dagli attuali 28hpm, mentre nel secondo ci troviamo di fronte a meno unità di calcolo ma boost superiori già sul modello Tesla e di conseguenza i modelli da game avranno di base clock molto elevati.

La scelta di utilizzare core molto piccoli, se ricordi quando te ne parlavo potrebbe essere veritiera. Sui vari rumors sono stati molto più duri tanto da ipotizzare un GP104 con 2560cuda.
A questo punto GP104 potrebbe non essere così prestante ma punterebbe molto ad efficienza e boost maggiorati
andrebbe meno di una 980ti...

mikael84
17-02-2016, 21:52
andrebbe meno di una 980ti...

Secondo i miei calcoli 3072 cuda su un 350mm2 li metti. Se utilizzi un core molto piccolo per tale fascia come i 300mm2 allora oltre 2560 è dura. Ovviamente sono rapporti totalmente matematici poi bisognerà vedere a lato pratico. Bisogna anche calcolare che sicuramente questi chip boosteranno (e raggiungeranno) clock più elevati, poi aggiungici l'elevata banda e varie ottimizzazioni le prestazioni non mancheranno.

ste-87
17-02-2016, 21:54
E' tutto da confermare, la roadmap da me stesso postata è vecchiotta ma quanto riportato ultimamente sembra confermare questi dati.
Trovo interessante che il rapporto in TF lasci presagire a 40 SMM o 48 SMM.
Nel primo caso con 40 SMM e chippone da 6144cuda, i clock non sembrano poi diversi dagli attuali 28hpm, mentre nel secondo ci troviamo di fronte a meno unità di calcolo ma boost superiori già sul modello Tesla e di conseguenza i modelli da game avranno di base clock molto elevati.

La scelta di utilizzare core molto piccoli, se ricordi quando te ne parlavo potrebbe essere veritiera. Sui vari rumors sono stati molto più duri tanto da ipotizzare un GP104 con 2560cuda.
A questo punto GP104 potrebbe non essere così prestante ma punterebbe molto ad efficienza e boost maggiorati

Vero, per il chip gp104 invece spero che non sia come loro ipotizzano, per carità alla fine con le innovazioni che si porta dietro già 2560cc potrebbero nel 99% dei casi essere sufficienti a pareggiare o forse superare di poco la 980Ti, ma significherebbe anche che si lasciano ampio margine per sfruttare davvero le possibilità di miniaturizzazione offerte dal nuovo pp con una serie successiva nel caso si allunghino i tempi per Volta, visto che a parità di dimensioni di die il numero di cc potrebbe essere quasi doppio...

Se invece uscisse un tesla e la sua declinazione Titan che già ha dai 5500 cuda cores indicativi in su, tutte le versioni inferiori a seguire, pur decurtate che siano, dovranno pur sempre seguire una diminuzione di cc più o meno progressiva che porterebbe ad avere schede come la x70/x80 su gp104 con più di "solo" 2560cc

Di sicuro non mi sono spiegato un granch'è bene, ma spero di aver reso almeno l'idea generale di quello che intendo dire :sofico:

Tra fine Marzo ed inizio Aprile si saprà di sicuro qualcosa di più certo. Se non annunciano niente se ne parla a GIUGNO 2016

personalmente ci conto molto di avere informazioni molto più precise già tra marzo/aprile...speriamo bene visto che l'attesa è lunga se si è particolarmente interessati. In questi casi invidio chi già si è preso da mesi e mesi una 980ti ed è in pace con l'attesa :D

Spider-Mans
17-02-2016, 22:18
personalmente ci conto molto di avere informazioni molto più precise già tra marzo/aprile...speriamo bene visto che l'attesa è lunga se si è particolarmente interessati. In questi casi invidio chi già si è preso da mesi e mesi una 980ti ed è in pace con l'attesa :D

se non si danno una mossa piglio la 980ti...vedo che su amazon oramai ci sono buonissime custom sui 650 euro....

ma siamo arrivati a fine febbraio quasi...ho resistito...non voglio cedere a pochi mesi dalle pascal...... l'idea di avere una 1070/1080 che va quanto o piu di una 980ti a 350-450 euro (vero? XD) ...mi aumenta la salivazione :asd:

mikael84
17-02-2016, 22:19
Vero, per il chip gp104 invece spero che non sia come loro ipotizzano, per carità alla fine con le innovazioni che si porta dietro già 2560cc potrebbero nel 99% dei casi essere sufficienti a pareggiare o forse superare di poco la 980Ti, ma significherebbe anche che si lasciano ampio margine per sfruttare davvero le possibilità di miniaturizzazione offerte dal nuovo pp con una serie successiva nel caso si allunghino i tempi per Volta, visto che a parità di dimensioni di die il numero di cc potrebbe essere quasi doppio...

Se invece uscisse un tesla e la sua declinazione Titan che già ha dai 5500 cuda cores indicativi in su, tutte le versioni inferiori a seguire, pur decurtate che siano, dovranno pur sempre seguire una diminuzione di cc più o meno progressiva che porterebbe ad avere schede come la x70/x80 su gp104 con più di "solo" 2560cc

Di sicuro non mi sono spiegato un granch'è bene, ma spero di aver reso almeno l'idea generale di quello che intendo dire :sofico:



Si credo di averti capito bene, ed effettivamente utilizzare un core molto piccolo per 2560cuda potrebbe portare una differenza troppo marcata tra GP100 e GP104, ipotizzando almeno 5000 cuda su big pascal. Una situazione cmq già vista con Kepler dove la 780TI aveva quasi il doppio dei cuda rispetto a gk104.
Attenzione anche ad AMD perchè con i 14nm sarà di certo molto più competitiva a partire dal clock che sicuramente si impennerà notevolmente.
Per fare un'esempio 4096ST (fury) a 1250mhz equivalgono a 5000ST a 1050mhz. Questo solo tralasciando i benefici della nuova GCN e gli ST totali utilizzabili. Quindi Nvidia non può debuttare con chip votati solo all'efficienza.

ste-87
17-02-2016, 23:24
se non si danno una mossa piglio la 980ti...vedo che su amazon oramai ci sono buonissime custom sui 650 euro....

ma siamo arrivati a fine febbraio quasi...ho resistito...non voglio cedere a pochi mesi dalle pascal...... l'idea di avere una 1070/1080 che va quanto o piu di una 980ti a 350-450 euro (vero? XD) ...mi aumenta la salivazione :asd:

ehehe siamo in parecchi mi sà resisti ormai, alla fine si spera ne valga la pena :coffee:

Si credo di averti capito bene, ed effettivamente utilizzare un core molto piccolo per 2560cuda potrebbe portare una differenza troppo marcata tra GP100 e GP104, ipotizzando almeno 5000 cuda su big pascal. Una situazione cmq già vista con Kepler dove la 780TI aveva quasi il doppio dei cuda rispetto a gk104.
Attenzione anche ad AMD perchè con i 14nm sarà di certo molto più competitiva a partire dal clock che sicuramente si impennerà notevolmente.
Per fare un'esempio 4096ST (fury) a 1250mhz equivalgono a 5000ST a 1050mhz. Questo solo tralasciando i benefici della nuova GCN e gli ST totali utilizzabili. Quindi Nvidia non può debuttare con chip votati solo all'efficienza.

effettivamente non stavo considerando il discorso della controparte con la quale si dovranno pur bilanciare come soluzioni/prestazioni per fascia.

Alla fine i consumi di una 970/980 sono veramente buoni per quello che offrono e a maggior ragione considerando il pp vecchio, non vedo tutta questa esigenza di scendere di parecchie decine di Watt in maniera "forzata" sacrificandone il margine di prestazioni...posso capire se si parla di schede nel settore mobile ma sulla fascia desktop 150-160W indicativi per una scheda di fascia alta non li vedo assolutamente come un problema ne come consumi ne come temperature, a meno di non essere estremamente green per ideali...

Crysis90
18-02-2016, 07:53
http://www.hwupgrade.it/news/skvideo/nvidia-chiude-l-anno-fiscale-in-crescita-sempre-grazie-alle-proprie-gpu_61032.html
http://www.tomshw.it/news/le-schede-geforce-trainano-nvidia-nuovo-trimestre-record-74403

Certo è che se Maxwell continua a vendere così bene, non si sognano neanche di rilasciare la versione consumer di Pascal tanto in fretta.
Lanceranno prima la Quadro, poi dopo l'estate GP104 e poi GP100 ad inizio 2017.

AceGranger
18-02-2016, 08:39
Certo è che se Maxwell continua a vendere così bene, non si sognano neanche di rilasciare la versione consumer di Pascal tanto in fretta.
Lanceranno prima la Quadro, poi dopo l'estate GP104 e poi GP100 ad inizio 2017.

Prima lanceranno le TESLA, non le QUADRO, forse giusto ma P6000 ma dubito.

GP104 sono obbligati a lanciarle dopo l'estate visto che attualmente non sono disponibili le GDDR5X.... quindi, di conseguenza, arriveranno dopo anche le QUADRO, anche perchè le M4000 e M5000 sono state lanciate ad agosto 2015 e non esiste che lancino nuove GPU a meno di 1 nano di vita del vecchio modello.


l'incognita è sulla TITAN che verra lanciata in base agli ordinativi delle TESLA, e credo saranno una vagonata visto il salto di una generazione avutosi con Maxwell e le feature rilevanti presenti in Pascal.

Spider-Mans
18-02-2016, 09:05
http://www.hwupgrade.it/news/skvideo/nvidia-chiude-l-anno-fiscale-in-crescita-sempre-grazie-alle-proprie-gpu_61032.html
http://www.tomshw.it/news/le-schede-geforce-trainano-nvidia-nuovo-trimestre-record-74403

Certo è che se Maxwell continua a vendere così bene, non si sognano neanche di rilasciare la versione consumer di Pascal tanto in fretta.
Lanceranno prima la Quadro, poi dopo l'estate GP104 e poi GP100 ad inizio 2017.

beh ma una 1070 gtx che va ocme una 980ti ad un prezzo nettamente inferiore...che dici ne venderebbero poche? :D

ha tutte le carte in regola per stravendere come la 970 gtx

athlon xp 2400
18-02-2016, 09:08
Dai giugno esce la titan lol

TigerTank
18-02-2016, 09:24
l'incognita è sulla TITAN che verra lanciata in base agli ordinativi delle TESLA, e credo saranno una vagonata visto il salto di una generazione avutosi con Maxwell e le feature rilevanti presenti in Pascal.

Mah...dal punto di vista tecnologico sì, inscimmierebbe sicuramente molti...ma se le piazzano a tipo $1500(già per via del quantitativo delle costose HBM2) non so a quanti gamers potrebbe interessare invece che aspettare per farsi uno Sli di 1070, spendendo un bel pò meno e con più prestazioni con i giochi dotati di buon supporto Sli. O aspettando addirittura la 1080Ti, scheda che finora si è rivelata enormemente più conveniente delle relative titan.

AceGranger
18-02-2016, 09:29
Mah...dal punto di vista tecnologico sì, inscimmierebbe sicuramente molti...ma se le piazzano a tipo $1500(già per via del quantitativo delle costose HBM2) non so a quanti gamers potrebbe interessare invece che aspettare per farsi uno Sli di 1070, spendendo un bel pò meno e con più prestazioni con i giochi dotati di buon supporto Sli. O aspettando addirittura la 1080Ti, scheda che finora si è rivelata enormemente più conveniente delle relative titan.

forse ho scritto un po male la frase :stordita:

"saranno una vagonata" era riferito alle TESLA, dove sono stati a secco con una generazione di GPU senza calcoli DP e dove l'NVLink + HBM2 dovrebbero portare un bel boost di potenza; le Titan bho, io non le ho mai viste come GPU da gioco ma solo come GPU PRO; per giocare molto molto meglio 1080Ti.

il mio pensiero era che, ipotizzando che di TESLA avranno una marea di ordinativi, e non credo che ci sara chissa quale volume di GP100, è probabile che anche le Titan arriveranno un po piu in la e non subito con le GPU Pro.

TigerTank
18-02-2016, 09:59
forse ho scritto un po male la frase :stordita:

"saranno una vagonata" era riferito alle TESLA, dove sono stati a secco con una generazione di GPU senza calcoli DP e dove l'NVLink + HBM2 dovrebbero portare un bel boost di potenza; le Titan bho, io non le ho mai viste come GPU da gioco ma solo come GPU PRO; per giocare molto molto meglio 1080Ti.

il mio pensiero era che, ipotizzando che di TESLA avranno una marea di ordinativi, e non credo che ci sara chissa quale volume di GP100, è probabile che anche le Titan arriveranno un po piu in la e non subito con le GPU Pro.

su questo ti quoto al 100% :)
Circa le titan boh....essendo una scheda a cavallo tra le 2 cose e desiderata dai più enthusiasts anche solo per giocare o benchare(cioè fame di prestazioni in più a prescindere), rispetto alle tesla è più una situazione a sè.

illidan2000
18-02-2016, 10:06
Mah...dal punto di vista tecnologico sì, inscimmierebbe sicuramente molti...ma se le piazzano a tipo $1500(già per via del quantitativo delle costose HBM2) non so a quanti gamers potrebbe interessare invece che aspettare per farsi uno Sli di 1070, spendendo un bel pò meno e con più prestazioni con i giochi dotati di buon supporto Sli. O aspettando addirittura la 1080Ti, scheda che finora si è rivelata enormemente più conveniente delle relative titan.

se le 1070 avranno 4000cuda, andranno più delle Titan (in SLI)
E se le Titan escono dopo le 1070, ne venderanno un po' di meno...

TigerTank
18-02-2016, 10:11
se le 1070 avranno 4000cuda, andranno più delle Titan (in SLI)
E se le Titan escono dopo le 1070, ne venderanno un po' di meno...

Infatti imho usciranno sicuramente per prime, in base anche alle considerazioni che ho fatto nei giorni scorsi ;)
L'ordine titan ---> 1070/1080 ---> 1080Ti ed eventuali modelli avanzati di titan(Black, Z, ecc...) imho è quello commercialmente più remunerativo.

illidan2000
18-02-2016, 11:19
Infatti imho usciranno sicuramente per prime, in base anche alle considerazioni che ho fatto nei giorni scorsi ;)
L'ordine titan ---> 1070/1080 ---> 1080Ti ed eventuali modelli avanzati di titan(Black, Z, ecc...) imho è quello commercialmente più remunerativo.

è quello che pensavo pure io fino alle ultime notizie beccate in settimana. Ora non son più tanto sicuro!

mikael84
18-02-2016, 11:21
ehehe siamo in parecchi mi sà resisti ormai, alla fine si spera ne valga la pena :coffee:



effettivamente non stavo considerando il discorso della controparte con la quale si dovranno pur bilanciare come soluzioni/prestazioni per fascia.

Alla fine i consumi di una 970/980 sono veramente buoni per quello che offrono e a maggior ragione considerando il pp vecchio, non vedo tutta questa esigenza di scendere di parecchie decine di Watt in maniera "forzata" sacrificandone il margine di prestazioni...posso capire se si parla di schede nel settore mobile ma sulla fascia desktop 150-160W indicativi per una scheda di fascia alta non li vedo assolutamente come un problema ne come consumi ne come temperature, a meno di non essere estremamente green per ideali...

Infatti, considerando che le x80 verranno pompate quanto mai in PCB custom come classified e kingpin.

se le 1070 avranno 4000cuda, andranno più delle Titan (in SLI)
E se le Titan escono dopo le 1070, ne venderanno un po' di meno...

Sei già ai 10nm? :D

illidan2000
18-02-2016, 11:52
Infatti, considerando che le x80 verranno pompate quanto mai in PCB custom come classified e kingpin.



Sei già ai 10nm? :D

mmm.... se la Titan Max da 600mm (die size) ha 5500 cuda (si mormorano 6,144 shader units @1,000 MHz o 5,120 shader units @1,175 MHz), una 1070 con 400mm (450mm dai) potrebbe averne 4000 :)

Spider-Mans
18-02-2016, 11:54
L'ordine titan ---> 1070/1080 ---> 1080Ti ed eventuali modelli avanzati di titan(Black, Z, ecc...) imho è quello commercialmente più remunerativo.

si ci siamo come ordine
ora occorre vedere i tempi di uscita
1070/1080 prima o dopo l'estate?

io spero prima... tipo giugno

Sir Alamon
18-02-2016, 11:55
si ci siamo come ordine
ora occorre vedere i tempi di uscita
1070/1080 prima o dopo l'estate?

io spero prima... tipo giugno

per me al 90% dopo. Tipo settembre le 970/980 e inizio 2017 le Ti

mikael84
18-02-2016, 12:17
mmm.... se la Titan Max da 600mm (die size) ha 5500 cuda (si mormorano 6,144 shader units @1,000 MHz o 5,120 shader units @1,175 MHz), una 1070 con 400mm (450mm dai) potrebbe averne 4000 :)

No illi core così grandi non li utilizzeranno. 2560cc su 300mm2 e 3076cc su 350mm2 (penso che sia più probabile).
4096cc su x70 significano 4500cc su x80, su un core da chippone in pratica.
Bisogna anche vedere se gli SMM subiranno modifiche interne, numero di rops effettive,TMU, geometry engine.
Una x70 come la intendi tu calcolando anche 150-200mhz di boost aggiuntivo andrebbe almeno un 70% in più della 980ti.

5144 invece credo siano le unità massime su chippone da 600mm2

illidan2000
18-02-2016, 12:47
No illi core così grandi non li utilizzeranno. 2560cc su 300mm2 e 3076cc su 350mm2 (penso che sia più probabile).
4096cc su x70 significano 4500cc su x80, su un core da chippone in pratica.
Bisogna anche vedere se gli SMM subiranno modifiche interne, numero di rops effettive,TMU, geometry engine.
Una x70 come la intendi tu calcolando anche 150-200mhz di boost aggiuntivo andrebbe almeno un 70% in più della 980ti.

5144 invece credo siano le unità massime su chippone da 600mm2

ma la 970 (e anche la 980) non è da 400mm?
3516 cuda circa... Beh, certo se tirano fuori una belva del genere, a 400 euro, veramente ne venderanno a carrettate
(con 8gb ddr5x)

Oltre a prenderne 2, penso farei pure il pensierino a cambiare cpu...

Giovamas
18-02-2016, 13:07
Dai giugno esce la titan lol

La rimane lì. La mia scimmia è solo per la nuova 980ti:D new 1080ti + skylake-e in un colpo solo o quasi :)

Legolas84
18-02-2016, 13:44
Sperando che AMD questa volta sia competitiva spero che esca da subito gp100 e non 104... Cosi punterei a due di queste in versione gaming ovviamente (non titan)....

Inviato dal mio ONE A2003 utilizzando Tapatalk

mikael84
18-02-2016, 13:44
ma la 970 (e anche la 980) non è da 400mm?
3516 cuda circa... Beh, certo se tirano fuori una belva del genere, a 400 euro, veramente ne venderanno a carrettate
(con 8gb ddr5x)

Oltre a prenderne 2, penso farei pure il pensierino a cambiare cpu...

Si illi ma non utilizzeranno più quel core, guarda onestamente ad essere ottimisti andremmo sui 350mm2(circa) con 3072 cuda più boost maggiorato.
Io sinceramente punterei a core abbastanza grossi, non vedo come i 400mm2 possano essere un problema su tale fascia.
Si ipotizzano i 2560 cuda che stando ai miei calcoli saranno disposti su un core da 300mm2 o poco più ma io rimango dell'idea che avremmo non meno di 3076 cuda su 350/330mm2.
Tutto questo come detto sopra, tralasciando variazioni interne sugli SMM.

Attenzione però a non ragionare solo in termini di CC perchè i canali dovrebbero essere 4 e di conseguenza i render back end, quindi le rops potrebbero passare da 64 a 128, con 32 attivi per GPC.
Se migliori il rapporto tra rops-cache-banda fai un gran passo in avanti pur restando su tali cc.
Verrà sicuramente migliorato il reparto relativo ai geometry engine e al Polymorph engine, dove poligonalmente e geometricamente ci sarà un miglioramento prestazionale. Il polymorph engine lavora molto tramite rops e SMM.

TigerTank
18-02-2016, 14:06
si ci siamo come ordine
ora occorre vedere i tempi di uscita
1070/1080 prima o dopo l'estate?

io spero prima... tipo giugno

per me al 90% dopo. Tipo settembre le 970/980 e inizio 2017 le Ti

O magari se vogliono associare le pascal alle dx12 come prime schede effettive delle nuove API, aspettano che prima ci sia almeno qualche titolo in circolazione :D

illidan2000
18-02-2016, 14:31
Si illi ma non utilizzeranno più quel core, guarda onestamente ad essere ottimisti andremmo sui 350mm2(circa) con 3072 cuda più boost maggiorato.
Io sinceramente punterei a core abbastanza grossi, non vedo come i 400mm2 possano essere un problema su tale fascia.
Si ipotizzano i 2560 cuda che stando ai miei calcoli saranno disposti su un core da 300mm2 o poco più ma io rimango dell'idea che avremmo non meno di 3076 cuda su 350/330mm2.
Tutto questo come detto sopra, tralasciando variazioni interne sugli SMM.

Attenzione però a non ragionare solo in termini di CC perchè i canali dovrebbero essere 4 e di conseguenza i render back end, quindi le rops potrebbero passare da 64 a 128, con 32 attivi per GPC.
Se migliori il rapporto tra rops-cache-banda fai un gran passo in avanti pur restando su tali cc.
Verrà sicuramente migliorato il reparto relativo ai geometry engine e al Polymorph engine, dove poligonalmente e geometricamente ci sarà un miglioramento prestazionale. Il polymorph engine lavora molto tramite rops e SMM.
quindi tutto raddoppiato ? (8 raster units)
beh, se così fosse, su 300mm2 forse non riescono a fare entrare 2560 cuda. Un po' di spazio penso si perderà per mettere su questo ampliamento dell'architettura

traider
18-02-2016, 14:32
Non so perchè , ma secondo me la Titan Pascal esce ad aprile , Quantum Break con le direct x 12 , e poi oculus rift , credo siano palcoscenici importanti per dimostrare la nuova potenza al mondo :D .

mikael84
18-02-2016, 14:41
quindi tutto raddoppiato ? (8 raster units)
beh, se così fosse, su 300mm2 forse non riescono a fare entrare 2560 cuda. Un po' di spazio penso si perderà per mettere su questo ampliamento dell'architettura

4 raster su 16/32 rops.
Su 300/330mm2 li fai entrare tranquillamente 2560cuda. 12tfl li ottieni con 5144 a 1175mhz. Quindi già da questo si può presagire un 200mhz medio di boost a parità di cc:)

ah già, la famosa mancanza di concorrenza che decanti...
http://m.hardocp.com/article/2016/02/15/rise_tomb_raider_video_card_performance_review/10#.VsXUb_nNyM-
:asd:

speriamo piuttosto che non ci siano prezzi proibitivi date le rese ridicole dei primi PP o della scarsa reperibilità del silicio grazie al melafonino...

Questa non l'ho capita bene, o meglio hai dati migliori?
http://videocardz.com/58308/amds-baffin-weston-and-banks-gpus-spotted-on-zauba
News uscita oggi. Non vorrei che AMD rebrandasse, altrimenti Nvidia con GP104 sarà veramente basata su 2560cuda

Legolas84
18-02-2016, 14:50
Sarebbe un disastro... Io spero che nvidia sia costretta ad uscire subito con gp100 per contrastare AMD e non con il 104 come ha fatto per anni perché la controparte glielo consentiva... Se esce di nuovo con un 104 che va come la top AMD allora ci ridaranno le novità con il contagocce per ottimizzare i guadagni come con Kepler e Maxwell...

Inviato dal mio ONE A2003 utilizzando Tapatalk

mikael84
18-02-2016, 15:00
il problema è proprio quello, perché mai dovrebbe(ro) rebrandare?
mancanza di silicio?... nel 2016 è sconcertante, ma in più conta il terremoto a taiwan...

Qua bisogna vederci meglio, spero che esca qualche rumors approfondito, non mi voglio buttare a giudizi personali senza fondamento. Di certo farebbe la gioia degli utenti che puntano alle 150-200 euro, ed anche un equivalente bus a 512bit (256gddr5x) per tonga, vista la compressione non sarebbe male ma speriamo si rivellino infondati.
AMD ha bisogno di un cambio transistor anche per i clock ancora legati al solo GHZ.

mikael84
18-02-2016, 16:17
se aumentano l'IPC degli SP, del clock più alto sinceramente mi importerebbe poco, però dubito che un processo LP anche se plus come il 14nm samsung faccia alzare il clock di molto e quindi penso che AMD punterà sull'IPC così come con i precedenti GCN, di contro invece il clock sui 16nm FF+ di TSMC dovrebbe garantire ad nVidia clock maggiori dei 28nm, ma fossi in nVidia punterei all'IPC il clock è già altino...

si è un giudizio mio personale, che poi è ciò che successe con i 28nm all'inizio, AMD che lancia qualche 7970 castrata in frequenza nel Q1 2012 e nVidia che arriva col GK104 nel Q2 invece del chip grande...
ora sembra si invertiranno le parti con AMD che al lancio non dovrebbe andare oltre i 240mmq, e nVidia con GP104 da 300mq
non ho ancora capito la Titan come sarà e se la faranno, io non capisco come possano lanciare subito un chip enorme con certe rese quando già fai fatica a pizzarle per il mercato professionale

GCN è basata sopratutto sulla parallelizzazione dei dati, e per essere efficiente e performante ha bisogno di cache ampia e veloce.
Purtroppo AMD ha dovuto adottare questa strategia in quanto VLIW4 era ottimizzata per i soli calcoli MDP 3d, mentre nelle altre applicazioni il set d'istruzioni doveva aspettare la risposta dalla altre ALU e se non completa le altre ALU rimanevano in attesa (idle).
Su GCN grazie allo scheduler si fa in modo di gestire sempre le richieste delle ALU e quindi non rimangono in IDLE come vliw4. Ogni CU integra 4 unità vettoriali, quindi ogni 4 cicli può gestire 4 richieste .
Tutto questo è potenziato dalla cache, ogni unità scalare e vettoriale è equipaggiata da un quantitativo a linee di cache l1.
Con la GCN riesci cmq a migliorare l'IPC per ST anche se in maniera del tutto minima. Ad oggi, fattore su cui punta molto Nvidia è il rapporto tra rops, cuda, cache-banda e ramdac (costanza del frame), perchè oltre alla migliore compressione riesci a migliorare notevolmente il lavoro geometrico visto che il dialogo tra CU/SMM e rops è fondamentale.

AMD deve aumentare i geometry engine visto che a livello poligonale è piuttosto scarsa (termine purtroppo vero).

Ora però malgrado il mio piccolo OT AMD, bisogna sperare che il rumors riportato sopra non sia fonte di verità , cito AMD, perchè sarà fondamentale anche per poter capire le prestazioni generali di Nvidia perchè una seguirà l'altra
Sui clock penso che a partire dai 14nm un aumento ci sarà, potrebbe però essere mal gestito inizialmente.

Nvidia per ora non deve lanciare Titan ma Tesla modello solitamente downclockato, e le rese sono tutte da vedere, la prima Titan ad esempio non era completa, invece la tesla e per la precisione la K20 debuttava con 2496cc, 1SMx sopra la 780 ed uno in meno la Titan base, clock molto molto basso ed un bus di 320bit(5GB).
Dopo fu aggiornata con i dati da Titan in versione x

ste-87
18-02-2016, 17:47
Prima lanceranno le TESLA, non le QUADRO, forse giusto ma P6000 ma dubito.

GP104 sono obbligati a lanciarle dopo l'estate visto che attualmente non sono disponibili le GDDR5X.... quindi, di conseguenza, arriveranno dopo anche le QUADRO, anche perchè le M4000 e M5000 sono state lanciate ad agosto 2015 e non esiste che lancino nuove GPU a meno di 1 nano di vita del vecchio modello.


l'incognita è sulla TITAN che verra lanciata in base agli ordinativi delle TESLA, e credo saranno una vagonata visto il salto di una generazione avutosi con Maxwell e le feature rilevanti presenti in Pascal.

la notizia di qualche tempo fa per le gddr5x in arrivo solo per l'estate per la produzione di massa riguardava solo Micron, non si sà niente invece su Samsung che potrebbe avere tempistiche leggermente diverse oltre ad avere fonderie a disposizione ed essere 1 delle 2 fondatrici (l'altra è proprio Micron) del consorzio HMC per spingere l'adozione dei nuovi moduli di memoria

kiwivda
18-02-2016, 18:26
Articolo interessante ma un po' lacunoso a parer mio.

http://www.ocaholic.ch/modules/smartsection/item.php?itemid=3946

FroZen
18-02-2016, 18:34
Articolo interessante ma un po' lacunoso a parer mio.

http://www.ocaholic.ch/modules/smartsection/item.php?itemid=3946

Mancano pure i tagli sulla T

ste-87
18-02-2016, 21:17
Forse al GDC di metà marzo presentano qualcosa (AMD, nvidia o entrambi) :mc:

http://wccftech.com/amd-radeon-technologies-group-plans-to-spice-up-gdc/

che facciano come al gdc 2015 dove presentarono la titan X nell'evento in streaming negli ultimi giorni dell'evento o che facciano girare qualche tech demo, gioco in sviluppo (magari su directx 12) senza far vedere direttamente la scheda?!

mikael84
18-02-2016, 21:45
Articolo interessante ma un po' lacunoso a parer mio.

http://www.ocaholic.ch/modules/smartsection/item.php?itemid=3946

Non dice niente, parla di perdite naturali su Asic bassi.
Il rapporto Asic dei clock è veritiero.:)

la notizia di qualche tempo fa per le gddr5x in arrivo solo per l'estate per la produzione di massa riguardava solo Micron, non si sà niente invece su Samsung che potrebbe avere tempistiche leggermente diverse oltre ad avere fonderie a disposizione ed essere 1 delle 2 fondatrici (l'altra è proprio Micron) del consorzio HMC per spingere l'adozione dei nuovi moduli di memoria

Per ora solo la micron sta lavorando sulle gddr5x, le altre 2 stanno lavorando sulle hbm e migliori gddr5. Inizialmente i chip gddr5x saranno tutti micron, che per chi non lo sapesse è Elpida.
La 4800 serie di AMD debuttò con le GDDR5 sulla x70 e ddr3 sulla x50, speriamo di non trovarci casi simili :)

ste-87
18-02-2016, 22:03
Non dice niente, parla di perdite naturali su Asic bassi.
Il rapporto Asic dei clock è veritiero.:)



Per ora solo la micron sta lavorando sulle gddr5x, le altre 2 stanno lavorando sulle hbm e migliori gddr5. Inizialmente i chip gddr5x saranno tutti micron, che per chi non lo sapesse è Elpida.
La 4800 serie di AMD debuttò con le GDDR5 sulla x70 e ddr3 sulla x50, speriamo di non trovarci casi simili :)

ho fatto confusione senza volerlo tra gddr5x e hbm :fagiano:

AceGranger
18-02-2016, 23:22
saranno tutti micron, che per chi non lo sapesse è Elpida.


Micron è Micron, si è comprata Elpida...

mikael84
18-02-2016, 23:27
Micron è Micron, si è comprata Elpida...

Si chiaramente:)

athlon xp 2400
19-02-2016, 10:18
capace a aprile esce titan pascal :p

sertopica
19-02-2016, 10:53
Riuscira' a mandare i titoli attuali a 2k-4K maxati? :fagiano:
Di SLI non ne voglio sapere ma ormai mi sono abituato a questa qualita' e vorrei avere una singola che ce la faccia. La full Pascal nel 2017 mi sembra cosi' lontana...

Sir Alamon
19-02-2016, 11:23
Riuscira' a mandare i titoli attuali a 2k-4K maxati? :fagiano:
Di SLI non ne voglio sapere ma ormai mi sono abituato a questa qualita' e vorrei avere una singola che ce la faccia. La full Pascal nel 2017 mi sembra cosi' lontana...

se l'eventuale 1080Ti uscirà a fine 16 o q1 2017 secondo me maxa tutti gli attuali 4k

illidan2000
19-02-2016, 11:38
se l'eventuale 1080Ti uscirà a fine 16 o q1 2017 secondo me maxa tutti gli attuali 4k

maxare è un parolone... la 980ti non maxa nemmeno un 1080p a volte...

Nelson Muntz
19-02-2016, 11:40
se l'eventuale 1080Ti uscirà a fine 16 o q1 2017 secondo me maxa tutti gli attuali 4k

Forse invece e' la volta buona che si riuscira' a maxare come dio comanda il 1080p

beatl
19-02-2016, 11:50
Riuscira' a mandare i titoli attuali a 2k-4K maxati? :fagiano:
Di SLI non ne voglio sapere ma ormai mi sono abituato a questa qualita' e vorrei avere una singola che ce la faccia. La full Pascal nel 2017 mi sembra cosi' lontana...

se l'eventuale 1080Ti uscirà a fine 16 o q1 2017 secondo me maxa tutti gli attuali 4k

maxare è un parolone... la 980ti non maxa nemmeno un 1080p a volte...

Forse invece e' la volta buona che si riuscira' a maxare come dio comanda il 1080p


Dipende cosa intendete per maxare .. se il vostro target (che è poi il mio) sono i 60 frames Vsyncati attualmente due 980Ti maxano tutto in 1600p e anche in ultra wide ... se andiamo su con gli Hz del monitor la situazione cambia e non di poco...

Uno SLI di full Pascal maxerà un 4k e di questo ne sono sicuro.. non so con che margine però.. quindi non so (ma non credo) una singola possa reggerlo

athlon xp 2400
19-02-2016, 11:55
va be dai 2 980ti vorrei vedere se nn maxi lol

egounix
19-02-2016, 11:56
Dipende cosa intendete per maxare .. se il vostro target (che è poi il mio) sono i 60 frames Vsyncati attualmente due 980Ti maxano tutto in 1600p e anche in ultra wide ... se andiamo su con gli Hz del monitor la situazione cambia e non di poco...

Uno SLI di full Pascal maxerà un 4k e di questo ne sono sicuro.. non so con che margine però.. quindi non so (ma non credo) una singola possa reggerlo

Mhm bho tanto devono sempre spingerti a comprare hw più performante... Se lo fulla, allora il 60hz gsync diventerà per baVboni, e dovrai cambiare a 100/120/140/240hz... Raggiunto questo passerai al 5-6-7-8k con la scusa che se con il 4k vedevi il buco del :ciapet: di un'ameba a grandezza naturale, per cogliere i dettagli dello sfintere anale, e la riproduzione nanobatterica al suo interno, dovrai per forza alzare la risoluzione, altrimenti con tombraider duemilaventordici ti sarà impossibile vederle chiaramente i pidocchi tra i capelli e le piattole in mezzo alle xxxxx

CiccoMan
19-02-2016, 12:06
Salve ragazzi, scusate ma sono stato un po' fuori dal mondo... e lo sono tutt'ora per la verità :muro:

Ma quindi a maggio la situazione vga sarà quella attuale con la 980ti a fare da flagship?

'Sta serie 9 la stanno facendo ammuffire :eek:

:D

TigerTank
19-02-2016, 12:38
Forse invece e' la volta buona che si riuscira' a maxare come dio comanda il 1080p

Che poi dipende...perchè il maxare andrebbe fatto secondo logica.
Nel senso che se per maxare si intendono ombre ultra o tassellazioni che ti tolgono 20-30 fps imho se ne può fare a meno piuttosto che ad esempio prendere una titan pascal per giocare in fullHD maxato. :D

Nurabsa
19-02-2016, 13:18
Salve ragazzi, scusate ma sono stato un po' fuori dal mondo... e lo sono tutt'ora per la verità :muro:

Ma quindi a maggio la situazione vga sarà quella attuale con la 980ti a fare da flagship?

'Sta serie 9 la stanno facendo ammuffire :eek:

:D

se vuoi una certezza

serie 10 Ti maniche corte 2017

sertopica
19-02-2016, 13:36
Che poi dipende...perchè il maxare andrebbe fatto secondo logica.
Nel senso che se per maxare si intendono ombre ultra o tassellazioni che ti tolgono 20-30 fps imho se ne può fare a meno piuttosto che ad esempio prendere una titan pascal per giocare in fullHD maxato. :D

Beh oddio, se gli effetti extra contribuiscono all'immersione e migliorano la fedelta' dell'immagine ben vengano, io sono di questo avviso. Stupido sarebbe giocare a 4k con un SSAA e lamentarsi che un gioco non e' fluido... :D

Comunque speriamo bene nelle schede future, nvidia o amd che siano.

PS: provate la beta di The Division, e' spettacolare.

TigerTank
19-02-2016, 13:42
Beh oddio, se gli effetti extra contribuiscono all'immersione e migliorano la fedelta' dell'immagine ben vengano, io sono di questo avviso. Stupido sarebbe giocare a 4k con un SSAA e lamentarsi che un gioco non e' fluido... :D

Comunque speriamo bene nelle schede future, nvidia o amd che siano.

PS: provate la beta di The Division, e' spettacolare.

Esatto, proprio per quello ho menzionato ombre e tessellazione...i primi sacrificabili in caso di drop prestazionali esagerati.
Ovviamente intendendo maxati, perchè poi capita che da alto/molto alto ad ultra cambi poco visivamente ma molto sul framerate :D

illidan2000
19-02-2016, 13:45
Forse invece e' la volta buona che si riuscira' a maxare come dio comanda il 1080p

Dipende cosa intendete per maxare .. se il vostro target (che è poi il mio) sono i 60 frames Vsyncati attualmente due 980Ti maxano tutto in 1600p e anche in ultra wide ... se andiamo su con gli Hz del monitor la situazione cambia e non di poco...

Uno SLI di full Pascal maxerà un 4k e di questo ne sono sicuro.. non so con che margine però.. quindi non so (ma non credo) una singola possa reggerlo

ecco, già uno SLI ok, per il 4k con dettagli spinti, ma la singola, ne dubito, anche perché non credo andrà più di 2x980TI
e ora lo sli di 980TI non ce la fa a "maxare" i 4k. E per maxare, intendo anche togliendo ubersampling o altre "nefandezze"

CiccoMan
19-02-2016, 13:51
se vuoi una certezza

serie 10 Ti maniche corte 2017

E io dovrei stare con le stesse vga per ancora più di un anno :cry:

Ho le due 980 da primavera/inverno 2014... e la Titan X con l'uscita della 980ti ha perso un po' l'effetto WOW...

Comunque in rete si parla del lancio di Pascal per la seconda metà del 2016... se così fosse si parla di disponibilità in volumi per estate/primavera 2016... perché dici 2017?

beatl
19-02-2016, 14:04
va be dai 2 980ti vorrei vedere se nn maxi lol

A 60 frames maxi ... di più non sempre

TigerTank
19-02-2016, 14:10
E io dovrei stare con le stesse vga per ancora più di un anno :cry:

Ho le due 980 da primavera/inverno 2014... e la Titan X con l'uscita della 980ti ha perso un po' l'effetto WOW...

Comunque in rete si parla del lancio di Pascal per la seconda metà del 2016... se così fosse si parla di disponibilità in volumi per estate/primavera 2016... perché dici 2017?

Al massimo ti prendi qualche nuova AMD! :D
Considerata la collaborazione con Samsung anche per le nuove gpu chissà che non facciano un bel colpaccio!

A 60 frames maxi ... di più non sempre
In certi casi preferisco il framerate al maxare ad oltranza :)

beatl
19-02-2016, 14:57
In certi casi preferisco il framerate al maxare ad oltranza :)

Hai centrato il punto ... io sono "malato" e per me il mio sistema dovrebbe riuscire a maxare tutto sempre ... figurati te che quando ho provato dal vivo che a 4K andavo sotto i 60 frames mi è venuto un mezzo coccolone.
Bisogna porsi dei "limiti" altrimenti con c'è mai fine al rialzo

sertopica
19-02-2016, 14:58
Beh in realta' quando il rialzo non porta benefici tangibili tanto vale fermarsi... :D

Bisogna mettersi l'anima in pace, al momento nulla riesce a reggere i 4K con gli ultimi titoli...

beatl
19-02-2016, 15:08
Beh in realta' quando il rialzo non porta benefici tangibili tanto vale fermarsi... :D

Bisogna mettersi l'anima in pace, al momento nulla riesce a reggere i 4K con gli ultimi titoli...

Si ma io già assaporo lo SLI di Pascal nel mio case :oink:

Nhirlathothep
19-02-2016, 15:12
calma, io da tanto gioco per il 99% a DoW2 multiplayer, e credo che anche la gpu del notebook lo possa reggere maxato in 4k, soprattutto considerando che sono solo 60 fps l' obbiettivo e che potrei rinunciare all' aa.
pero' se devo usare un 4k lo vorrei massimo 23", i 27" per me dovrebbero essere 5k


edit: parlo di schermi per pc, li guardo da vicino, come tv ho un 60" e la tengo lontano, 4k basta e avanza


edit2: mi sembrava il thread Monitor4k

paolox86
19-02-2016, 15:17
Secondo me con uno sli di big Pascal si riuscirà a giocare in 4K tutto maxato o quasi, tralasciando filtri AA troppo complessi e alcune impostazioni implementate male. D'altronde la vita di ps4 e Xbox one non finisce certo a breve e appunto, le uniche cose che potrebbero falciare le prestazioni di due mostri Pascal anche a 4K sono cattivi porting e impostazioni esclusive che succhiano potenza di elaborazione in modo spropositato. Poi vediamo se queste dx12 aiuteranno veramente a racimolare qualche fps


Inviato dal mio iPad utilizzando Tapatalk

illidan2000
19-02-2016, 15:31
Secondo me con uno sli di big Pascal si riuscirà a giocare in 4K tutto maxato o quasi, tralasciando filtri AA troppo complessi e alcune impostazioni implementate male. D'altronde la vita di ps4 e Xbox one non finisce certo a breve e appunto, le uniche cose che potrebbero falciare le prestazioni di due mostri Pascal anche a 4K sono cattivi porting e impostazioni esclusive che succhiano potenza di elaborazione in modo spropositato. Poi vediamo se queste dx12 aiuteranno veramente a racimolare qualche fps


Inviato dal mio iPad utilizzando Tapatalk

o mancato supporto allo SLI, come per i motori ID e Avalanche

paolox86
19-02-2016, 15:37
Esatto


Inviato dal mio iPad utilizzando Tapatalk

sertopica
19-02-2016, 16:22
È un discorso infinito.
Risultati ci sono sempre, tangibili lo sono per alcuni e meno per altri.
Se no basterebbe una 970 per giocare a tutto in 1080p/1440p senza mettere i dettagli su ultra/very high o come li chiamano di volta in volta.

No, io mi riferisco ai limiti oggettivi delle attuali architetture quando poste di fronte all'ostacolo del 4K, per di piu' quando i sistemi SLI/CF funzionano poco o male in molti casi. Per questo auspico che le nuove GPU finalmente possano farcela in scioltezza.

illidan2000
19-02-2016, 16:32
No, io mi riferisco ai limiti oggettivi delle attuali architetture quando poste di fronte all'ostacolo del 4K, per di piu' quando i sistemi SLI/CF funzionano poco o male in molti casi. Per questo auspico che le nuove GPU finalmente possano farcela in scioltezza.

chissà, forse Volta...

sertopica
19-02-2016, 16:35
Se non ce la fa questa Pascal di Resurrezione, ritenta la prossima Volta, sarai piu' fortunato... :ops2:

DarkNiko
19-02-2016, 17:11
Memore delle inchiappettate passate, credo che a questo giro farò bene a non prendere subito Pascal al lancio (a meno che non esca già come GPU Full con i sacri crismi ma ne dubito). Tanto, se la storia si ripete, ci sarà prima GP versione castrata (che andrà comunque di più rispetto a Maxwell), poi la Titan Pascal (non so che nome le daranno) e alla fine Pascal Ti (1080 Ti ??) per chi vuole il top spendendo sensibilmente meno rispetto alla eventuale Pascal Titan.

Poi molto dipende dall'asticella di prezzo che NVidia fisserà per questa nuova generazione. Prevedo cifre a 3 zeri. :D

Nhirlathothep
19-02-2016, 17:34
non ci vedo nessun imbroglio, a me sarebbe piaciuto aver preso una titanx appena uscita.
tra una cosa e l' altra costano uguale ora, se non di piu'



per la prima titan ancora meglio. solo la versione black e' stata soggetta a maggiore svalutazione

Nurabsa
19-02-2016, 18:28
E io dovrei stare con le stesse vga per ancora più di un anno :cry:

Ho le due 980 da primavera/inverno 2014... e la Titan X con l'uscita della 980ti ha perso un po' l'effetto WOW...

Comunque in rete si parla del lancio di Pascal per la seconda metà del 2016... se così fosse si parla di disponibilità in volumi per estate/primavera 2016... perché dici 2017?

ti faccio la mia personale road map

settembre 2014
felice possessore di un cannone di 970

gennaio 2015
non felice possessore di 970 che non reggeva ocov come la prima

luglio 2015
amorino 980ti presentata il mese prima

vedo settembre 2016 pascal senza hbm, e spiagge 2017 pascal ti hmb 8/12gb

la vivo in serenità questa vga mi appaga gestisce uhd a meraviglia mi sto godendo gli ultimi titoli

Nhirlathothep
19-02-2016, 18:58
ti faccio la mia personale road map

settembre 2014
felice possessore di un cannone di 970

gennaio 2015
non felice possessore di 970 che non reggeva ocov come la prima

luglio 2015
amorino 980ti presentata il mese prima

vedo settembre 2016 pascal senza hbm, e spiagge 2017 pascal ti hmb 8/12gb

la vivo in serenità questa vga mi appaga gestisce uhd a meraviglia mi sto godendo gli ultimi titoli

secondo me se tu avessi preso a 1k la titanx appena uscita la avresti ancora senza tanti sbattimenti e cambiamenti.

io invece:

- 2012 presa 7970ghz sapphire (usata come nuova a 250e, costava quasi il doppio)

- 2016 la uso ancora senza compromessi


(ne avevo presa un' altra a 150 euro e ho il crossfire, ma l'ho tolta perche' preferisco scheda singola: le prestazioni extra erano inutili rispetto al fastidio del leggero microstuttering)

TigerTank
19-02-2016, 19:56
secondo me se tu avessi preso a 1k la titanx appena uscita la avresti ancora senza tanti sbattimenti e cambiamenti.



Ma che TitanX...questa è stata lanciata a marzo 2015 e la Ti a luglio 2015 per cui a distanza di 3-4 mesi si aveva già la scheda che andava quasi alla pari ma con modelli semi-custom che costavano quasi la metà :D
Lui "1000€" li ha spesi lo stesso, ma evidentemente ha preferito la supercustom Ti (Kingpin) piuttosto che la titanX reference.

Se per il ritardo delle HBM2 dovessero lanciare prima le 1070-1080...magari ci ritroveremmo con le titan pascal e le 1080Ti a pochi mesi di distanza con la stessa storia qui sopra.

Raven
19-02-2016, 20:14
Ma di che stiamo parlando? :O... suvvia, qua c'è gente che ha cambiato 3/4 980Ti tanto per asic o forse per non saper come spendere meglio i proprio soldi, per cui... ovviamente la maggioranza seguirà pedissequamente tutta la roadmap verde anche stavolta... :asd:

egounix
19-02-2016, 20:19
Ma di che stiamo parlando? :O... suvvia, qua c'è gente che ha cambiato 3/4 980Ti tanto per asic o forse per non saper come spendere meglio i proprio soldi, per cui... ovviamente la maggioranza seguirà pedissequamente tutta la roadmap verde anche stavolta... :asd:

Ohhhhh ma che fai mi tieni il conto?!???
Poi ho ragione che pedini e ossessioni le persone!
Se v'arriva na lettera alla moglie con le foto del rituale di accoppiamento con le vostre 980TI - posizioni kamasutra ivi comprese -, saprete già chi è il mittente... :O

Tappate i buchi fatti nelle scatole!!!!!!!!!

TigerTank
19-02-2016, 20:25
Ma di che stiamo parlando? :O... suvvia, qua c'è gente che ha cambiato 3/4 980Ti tanto per asic o forse per non saper come spendere meglio i proprio soldi, per cui... ovviamente la maggioranza seguirà pedissequamente tutta la roadmap verde anche stavolta... :asd:

Con me caschi male...io di TI ne ho presa solo una e per di più usata di 2 settimane :fagiano:

Cmq vabbè il mio discorso aveva tutt'altro significato, nel senso appunto che imho già prendere una titan per giocare non so quanto valga la pena....se poi a pochi mesi uscisse appunto la Ti a costo dimezzato...ancora meno :)

sertopica
19-02-2016, 20:34
Ma di che stiamo parlando? :O... suvvia, qua c'è gente che ha cambiato 3/4 980Ti tanto per asic o forse per non saper come spendere meglio i proprio soldi, per cui... ovviamente la maggioranza seguirà pedissequamente tutta la roadmap verde anche stavolta... :asd:

:read:

Non e' il mio caso comunque. :O

Nurabsa
20-02-2016, 10:00
secondo me se tu avessi preso a 1k la titanx appena uscita la avresti ancora senza tanti sbattimenti e cambiamenti.

io invece:

- 2012 presa 7970ghz sapphire (usata come nuova a 250e, costava quasi il doppio)

- 2016 la uso ancora senza compromessi


(ne avevo presa un' altra a 150 euro e ho il crossfire, ma l'ho tolta perche' preferisco scheda singola: le prestazioni extra erano inutili rispetto al fastidio del leggero microstuttering)

parlando solo di gpu hai ragione, il mio problema è che sono un fanatico di elettricità da 3 anni a questa parte.
Da quando gestisco io la corrente ho avuto certe soddisfazioni che non ti dico perche ot.

ma parlando delle mie scelte personali ho preferito la kpe alla titan perche è completa di tutto ad un prezzo nettamente inferiore.
La gestione della corrente e quindi l efficienza watt/watt dissipati in calore sono fondamentali per chi resta ad aria.
Ero incredulo i primi mesi quando leggevo 1470 @ 1.10 poi ho capito che su quel circuito era possibile.
tensione piu bassa scheda piu fresca

In fine L' ACX KPE, sulla titan piu costosa avrei dovuto comprarlo optional ed in versione classica in alluminio beffa.


Ma che TitanX...questa è stata lanciata a marzo 2015 e la Ti a luglio 2015 per cui a distanza di 3-4 mesi si aveva già la scheda che andava quasi alla pari ma con modelli semi-custom che costavano quasi la metà :D
Lui "1000€" li ha spesi lo stesso, ma evidentemente ha preferito la supercustom Ti (Kingpin) piuttosto che la titanX reference.

Se per il ritardo delle HBM2 dovessero lanciare prima le 1070-1080...magari ci ritroveremmo con le titan pascal e le 1080Ti a pochi mesi di distanza con la stessa storia qui sopra.

esatto

tiger hai fatto centro

ipotizzando di portare a casa la titanx evga con 945 pippi cosa non vera,
a parita avrei comunque scelto una super custom

Sir Alamon
20-02-2016, 12:05
quando uscì la 970 quanto andava più/meno di una 780ti?

Legolas84
20-02-2016, 12:07
quando uscì la 970 quanto andava più/meno di una 780ti?

Se non sbaglio la 970 andava quasi uguale o proprio poco meno mentre la 980 andava sempre se non ricorda male un 10-15% in più.....

Comunque come sempre per me la Titan sarà come se non esistesse.... prenderò direttamente uno SLI di GP104 e salterò completamente la Ti.... questo grazie all'esperienza maturata con lo SLI di GM204 su X99.... davvero un supporto e una qualità nel rendering che non ha nulla da invidiare alla scheda singola, ma con un 20% in più di prestazioni rispetto a una Ti....

mikael84
20-02-2016, 13:57
quando uscì la 970 quanto andava più/meno di una 780ti?

La 970 al debutto era una 780, una 780ti poco meno di una 980. In OC la 780ti in giochi fronte TMU spesso la superava pure. Ora con il cambio di programmazione la 970 si è allineata alla 780ti. Chiaramente una 780ti bella occata in alcuni giochi si dimostra ancora superiore alla 970. La 970 ora come ora rimane preferibile alla 780ti per tanti fattori, ram e stabilità del frame per via dell'ottimo rapporto, rops-cache-banda-ramdac-schermo.;)

Sir Alamon
20-02-2016, 14:25
La 970 al debutto era una 780, una 780ti poco meno di una 980. In OC la 780ti in giochi fronte TMU spesso la superava pure. Ora con il cambio di programmazione la 970 si è allineata alla 780ti. Chiaramente una 780ti bella occata in alcuni giochi si dimostra ancora superiore alla 970. La 970 ora come ora rimane preferibile alla 780ti per tanti fattori, ram e stabilità del frame per via dell'ottimo rapporto, rops-cache-banda-ramdac-schermo.;)


Quindi perché mai una ipotetica 1070 dovrebbe andare come o meglio di una 980ti? :asd:

TheDave
20-02-2016, 14:37
Quindi perché mai una ipotetica 1070 dovrebbe andare come o meglio di una 980ti? :asd:
Credo più in là con la maturazione dei driver che faranno andare le schede al massimo del loro potenziale visto che la serie 9xx non sarà più in vendita :asd:

Spider-Mans
20-02-2016, 14:47
ma ci sono gia eventi programmati da nvidia dove potrebbero esserci annunci?
oppure brancoliamo nel buio dei rumor/odors :asd: ?

eXeS
20-02-2016, 15:45
Quindi perché mai una ipotetica 1070 dovrebbe andare come o meglio di una 980ti? :asd:
Perché dopo 4 anni ci troviamo di fronte ad un cambio di processo produttivo come quando uscì GK104 (670/680), nonostante fosse un chipettino rispetto a GF110 (580), grazie al nuovo processo produttivo che garantiva frequenze superiori e maggiore densità di transitors, andava di più.

Oggi la situazione è analoga, e quindi la probabilità che si ripeta quanto successo 4 anni fa con il lancio delle keplerine è abbastanza alta, la vera incognità sarà sui prezzi, la 680 fu lanciata allo stesso prezzo della 580 a 499$, se le pasqualina 1080 verrà lanciata allo stesso prezzo delle 980ti, ci sarà da divertirsi a leggere i commenti di coloro che inizieranno ad inveire nei confronti di nvidia per i prezzi esagerati, ma che poi le compreranno stregati dal fascino dell'ultimo pezzo di tecnologia disponibile nel mercato :D

Spider-Mans
20-02-2016, 16:57
Perché dopo 4 anni ci troviamo di fronte ad un cambio di processo produttivo come quando uscì GK104 (670/680), nonostante fosse un chipettino rispetto a GF110 (580), grazie al nuovo processo produttivo che garantiva frequenze superiori e maggiore densità di transitors, andava di più.

Oggi la situazione è analoga, e quindi la probabilità che si ripeta quanto successo 4 anni fa con il lancio delle keplerine è abbastanza alta, la vera incognità sarà sui prezzi, la 680 fu lanciata allo stesso prezzo della 580 a 499$, se le pasqualina 1080 verrà lanciata allo stesso prezzo delle 980ti, ci sarà da divertirsi a leggere i commenti di coloro che inizieranno ad inveire nei confronti di nvidia per i prezzi esagerati, ma che poi le compreranno stregati dal fascino dell'ultimo pezzo di tecnologia disponibile nel mercato :D

no vabbe la 1080 a 650 euro minimo? non scherziamo :asd:
1070 e 1080 devono avere prezzi competitivi... i prezzi shock la nvidia li utilizza per titan e ti

athlon xp 2400
20-02-2016, 17:10
Speriamo a marzo presentino qualcosa

Psycho77
20-02-2016, 17:13
Speriamo a marzo presentino qualcosa

Ma non avevi detto che avresti buttato tutto il pc e che saresti passato al sega saturn?Nel frattempo che mi sono perso?:fagiano: :D

athlon xp 2400
20-02-2016, 17:14
Ma non avevi detto che avresti buttato tutto il pc e che saresti passato al sega saturn?Nel frattempo che mi sono perso?:fagiano: :D

Al sega mega drive:)
Ho una 980 ti a 1440 p nn riesco a maxare una mazza Lol

Psycho77
20-02-2016, 17:19
Non vedo l'ora di vedere che tipo di castring esagerato farà stavolta nvidia per la serie 9xx.Le memorie attuali gddr5 diventeranno più lente delle antiche gddr3,sotto feroce underclock.Già immagino una 980 ti arrancare se confrontata ad una 1070 reference senza ventola e piena di polvere fino all'orlo.
Prevedo giochi ancora nativi in dx11 per tutto il 2016//17,dove serviranno 12 gb di vram per i dettagli alti,per gli ultra servirà volta e newton....

Sarà ma oggi mi son svegliato pessimista,anzi direi realista,di solito mi piace sognare.

Al sega mega drive:)
Ho una 980 ti a 1440 p nn riesco a maxare una mazza Lol

:asd:
Dai che forse pasqualino la regge l'erba ad ultra di gta a 1080p si intende.:Prrr:

athlon xp 2400
20-02-2016, 17:22
Converrebbe vendere subito le 980 ti lol

Psycho77
20-02-2016, 17:24
Converrebbe vendere subito le 980 ti lol

Si e per 6 mesi darsi alla caccia al faggiano con il fucile da pesca per ingannare l'attesa.:read:

athlon xp 2400
20-02-2016, 17:25
Si e per 6 mesi darsi alla caccia al faggiano con il fucile da pesca per ingannare l'attesa.:read:

Anche lol

Gabryely78
20-02-2016, 17:27
Se vendete mi metto gia in coda :D

athlon xp 2400
20-02-2016, 17:31
Se annunciano Pascal la vendo Lol

Vul
21-02-2016, 04:42
Credo più in là con la maturazione dei driver che faranno andare le schede al massimo del loro potenziale visto che la serie 9xx non sarà più in vendita :asd:

Maturazione dei driver = nvidia che chiede a qualche developer di infilare qualche feature tarpa gpu stile tesselazione a 64x in The Witcher 3.

Simodema95
21-02-2016, 09:31
Maturazione dei driver = nvidia che chiede a qualche developer di infilare qualche feature tarpa gpu stile tesselazione a 64x in The Witcher 3.
Siete complottisti mica poco eh...
390 che andava come la 290 al day one come la spieghi?
Ora va di più, maturazione dei driver o amd che castra le schede vecchie?

XEV
21-02-2016, 09:49
Non vedo l'ora di vedere che tipo di castring esagerato farà stavolta nvidia per la serie 9xx.Le memorie attuali gddr5 diventeranno più lente delle antiche gddr3,sotto feroce underclock.Già immagino una 980 ti arrancare se confrontata ad una 1070 reference senza ventola e piena di polvere fino all'orlo.
Prevedo giochi ancora nativi in dx11 per tutto il 2016//17,dove serviranno 12 gb di vram per i dettagli alti,per gli ultra servirà volta e newton....

Sarà ma oggi mi son svegliato pessimista,anzi direi realista,di solito mi piace sognare.


pienamente realista purtroppo.

Raven
21-02-2016, 09:50
Siete complottisti mica poco eh...
390 che andava come la 290 al day one come la spieghi?
Ora va di più, maturazione dei driver o amd che castra le schede vecchie?

ehm... esempio sbagliato: vanno ancora "uguale" (fatta salva la differenza di frequenza)... la 390 E' una 290 (identico chip) con 8 Gb di ram e frequenze leggermente diverse... fine :fagiano:

mircocatta
21-02-2016, 09:54
Siete complottisti mica poco eh...
390 che andava come la 290 al day one come la spieghi?
Ora va di più, maturazione dei driver o amd che castra le schede vecchie?

eh no, come lo spieghi il fatto che una 780 oggi va quasi quanto una amd 7970 (o 280x) mentre ai tempi d'oro gli dava almeno un 20-30%? kepler è stato palesemente castrato per far risaltare la serie maxwell che semplicemente va uguale ma con consumi minori (molto minori)

kiwivda
21-02-2016, 11:45
Tanto per dire ho appena lanciato un 3d mark firestrike extreme e con gli stessi settaggi di 6 mesi fa, con gli stessi programmi aperti e con un 950 evo al posto del 840 evo, ho perso come per magia 500 pt, l'unica cosa che è cambiata sono i driver...

Fa riflettere no? :(

athlon xp 2400
21-02-2016, 11:47
Passiamo a amd

aled1974
21-02-2016, 12:01
facciamo una class action piuttosto :D

@ kiwivda

non sei l'unico a riscontrare questa cosa, anche se poi la gente non gli crede (se va bene) e comincia a dargli del complottista o peggio :doh:

ciao ciao

mircocatta
21-02-2016, 12:07
Passiamo a amd

non so se la butti come battuta ma uno dei piu grossi pregi di amd è che queste porcate lei non le fa

difatti aspetto il prossimo giro per tornare alle rosse

deadbeef
21-02-2016, 12:08
mi segno i post e poi al lancio delle prossime nvidia vediamo chi le compra, io dico 'tutti' because...reasons... :asd:

athlon xp 2400
21-02-2016, 12:18
Unico difetto delle rosse sono i driver poco aggiornati

mircocatta
21-02-2016, 12:31
Unico difetto delle rosse sono i driver poco aggiornati

perdonami, ma la questione è diversa: se una cosa funziona perchè aggiornarla?



ebbi una 7950 a cui non cambiai i driver per oltre un anno, lo feci solo per passare ai famosi omega che vantavano un boost prestazionale, solo per quello


in casa nvidia è quasi la stessa cosa, io continuo a non aggiornarli spesso, ma capita che ogni tanto lo debba fare perchè alcuni giochi danno problemi, oppure capita di tornare indietro a vecchi driver perchè magari i driver nuovi hanno problemi con titoli non recentissimi che ancora uso

quindi, in Questa situazione, ha torto amd che non aggiorna spasmodicamente i suoi driver o nvidia che lo fa continuamente per tappare buchi creandone altri?

kiwivda
21-02-2016, 12:39
facciamo una class action piuttosto :D

@ kiwivda

non sei l'unico a riscontrare questa cosa, anche se poi la gente non gli crede (se va bene) e comincia a dargli del complottista o peggio :doh:

ciao ciao

Guardate ho ancora i 320.49-notebook-win8-win7-64bit-international-whql di luglio 2015 con i quali ho fatto il record. Ora ci provo e vediamo se il punteggio torna a bombazza.

http://www.3dmark.com/compare/fs/7638208/fs/6492875/fs/5020779

illidan2000
21-02-2016, 12:40
purtroppo i drivers delle schede video vanno per forza aggiornati.
Devono sempre correre indietro alle nuove uscite, è un dato di fatto, ineluttabile

che poi, per far andare meglio un gioco nuovo, si peggiori l'esperienza di uno vecchio, a volte, secondo me è inevitabile.
Mi metto nei panni dei poveri miei colleghi programmatori. Alcune cose (delle quali io ignoro totalmente funzionalità e utilizzo developer), sono auto-esclusive. Tutto ciò IMHO ovviamente

e penso pure che facciano bene a non stare dietro ai benchmark. Se devono preoccuparsi di favorire il 3dMark invece che un gioco nuovo, è la fine

Gello
21-02-2016, 12:44
Meglio una malattia venerea di un driver ATI/AMD

(Disclaimer: Detto da uno che installa AMD a tutti gli amici che vogliono che risparmiare, quindi no hating please)

fireradeon
21-02-2016, 12:56
Meglio una malattia venerea di un driver ATI/AMD

(Disclaimer: Detto da uno che installa AMD a tutti gli amici che vogliono che risparmiare, quindi no hating please)

:D

Vabbè dai anche io ho avuto AMD in passato e non è così tragica. Ora con le ultime non so a dire il vero.

FroZen
21-02-2016, 13:11
:D

Vabbè dai anche io ho avuto AMD in passato e non è così tragica. Ora con le ultime non so a dire il vero.

Lascia stare, giro in esa 8bit a causa dei crimson :cry: arridatece er puzzone :cry:

deadbeef
21-02-2016, 13:17
Ho due incubi: i drivers AMD ed i coccodrilli nelle fogne di new york.

Per curiosità sono andato a fare un giro sul forum nvidia, https://forums.geforce.com/default/board/33/geforce-drivers/, mi sa che pure loro a malattie veneree stanno messi bene :stordita: No hating please, installo nvidia a tutti gli amici che vogliono spendere di più per avere l'obsolescenzaProgrammataWorks e mezzo giga di vram in meno

Gello
21-02-2016, 13:23
Someone got mad :D

deadbeef
21-02-2016, 13:38
E' che a parlare per spot non si va da nessuna parte...

Gello
21-02-2016, 13:44
Fra l'altro si stava meglio quando si stava peggio, fine ot ;)

Peace, love e a ognuno i suoi drivers

ps sport non spot, quello e' un'altra cosa

Legolas84
21-02-2016, 13:47
Che pena....

Inviato dal mio ONE A2003 utilizzando Tapatalk

deadbeef
21-02-2016, 13:57
Fra l'altro si stava meglio quando si stava peggio, fine ot ;)

Peace, love e a ognuno i suoi drivers

ps sport non spot, quello e' un'altra cosa

No, no, è proprio 'spot', claim, slogan, chiamali come vuoi

kiwivda
21-02-2016, 14:45
purtroppo i drivers delle schede video vanno per forza aggiornati.
Devono sempre correre indietro alle nuove uscite, è un dato di fatto, ineluttabile

che poi, per far andare meglio un gioco nuovo, si peggiori l'esperienza di uno vecchio, a volte, secondo me è inevitabile.
Mi metto nei panni dei poveri miei colleghi programmatori. Alcune cose (delle quali io ignoro totalmente funzionalità e utilizzo developer), sono auto-esclusive. Tutto ciò IMHO ovviamente

e penso pure che facciano bene a non stare dietro ai benchmark. Se devono preoccuparsi di favorire il 3dMark invece che un gioco nuovo, è la fine

http://www.3dmark.com/compare/fs/7639214/fs/7638208/fs/5020779#

Tanto per dire:

8395 pt con i driver 10.18.13.6191 di febbraio 2016
9782 pt con i driver 10.18.13.5362 di luglio 2015

ci hanno appena tolto 1387 pt

Pascal sta arrivando, ed andrà fortissimo rispetto alle Maxwell! :D

kiwivda
21-02-2016, 15:29
Solo non li posso tenere, perché la beta di the division nemmeno parte se non li aggiorno...LOL.:)

Nurabsa
21-02-2016, 15:32
adesso si azzoppa prima ancora dell nuova serie ?

la gente corre in federconsumatori per molto meno suvvia

mikael84
21-02-2016, 15:32
http://www.3dmark.com/compare/fs/7639214/fs/7638208/fs/5020779#

Tanto per dire:

8395 pt con i driver 10.18.13.6191 di febbraio 2016
9782 pt con i driver 10.18.13.5362 di luglio 2015

ci hanno appena tolto 1387 pt

Pascal sta arrivando, ed andrà fortissimo rispetto alle Maxwell! :D

Ecco hai postato qua.
Aspè analizziamo.;)
Hai fatto 10714 di GS a 1550/8000. Ok è in linea.

Con i nuovi driver hai fatto 8850 a 1500/8000.

Sempre restando con i nuovi driver, ho punteggi nettamente superiori da schede decurtate.
http://imgbox.com/ZrCjGoch

Qua ho una 980ti con 2smm in meno fare 1000 punti in più a soli 1450, che sono 1320/1350max di una Titan x. Quindi quel punteggio sembrerebbe default o un problema tutto tuo, tra sistema bios o quant'altro.

Altra 980TI con nuovi driver
http://imgur.com/jrjTEp0
Ok è bella più occata dalla tua ma tu hai sempre 2 smm e 100mhz li colmi ma fa ben 2000 punti in più.

I punteggi non mi sembrano per niente abbassati visto che anche un'altro utente ha sfiorato i 10k a 1500 e ram quasi default.
1500 sono 1380/1400 tuoi.

Dopo tutte le verifiche missà che c'è stato qualche problema nel tuo bench, visto che con la Titan occata fai quanto 980 lisce occate. Non puoi aver perso quasi 2000 punti di GS e sopratutto solo tu.
Ritesta bene;)

Siete complottisti mica poco eh...
390 che andava come la 290 al day one come la spieghi?
Ora va di più, maturazione dei driver o amd che castra le schede vecchie?

Queste due schede vanno sempre alla stessa maniera.

eh no, come lo spieghi il fatto che una 780 oggi va quasi quanto una amd 7970 (o 280x) mentre ai tempi d'oro gli dava almeno un 20-30%? kepler è stato palesemente castrato per far risaltare la serie maxwell che semplicemente va uguale ma con consumi minori (molto minori)

E'cambiato anche il modo di programmare, l'architettura Kepler rendeva meglio nei giochi vecchi vedi UE3/UE2,5.
Con Pascal si evolverà maxwell.
Anche GCN stravolse Vliw4 in alcuni giochi.
L'architettura GCN è superiore e più avanzata a quella di Kepler bisogna farsene una ragione solo che con i giochi dell'epoca era tutto diverso, ora è naturale che prenda vantaggio. Ha pure 64 rops una strada intrapresa da Maxwell e sfruttata con la compressione. A dire il vero era nata prima su GCN.1.2 di tonga.

eXeS
21-02-2016, 16:04
Ecco hai postato qua.
Aspè analizziamo.;)
Hai fatto 10714 di GS a 1550/8000. Ok è in linea.

Con i nuovi driver hai fatto 8850 a 1500/8000.

Sempre restando con i nuovi driver, ho punteggi nettamente superiori da schede decurtate.
http://imgbox.com/ZrCjGoch

Qua ho una 980ti con 2smm in meno fare 1000 punti in più a soli 1450, che sono 1320/1350max di una Titan x. Quindi quel punteggio sembrerebbe default o un problema tutto tuo, tra sistema bios o quant'altro.

Altra 980TI con nuovi driver
http://imgur.com/jrjTEp0
Ok è bella più occata dalla tua ma tu hai sempre 2 smm e 100mhz li colmi ma fa ben 2000 punti in più.

I punteggi non mi sembrano per niente abbassati visto che anche un'altro utente ha sfiorato i 10k a 1500 e ram quasi default.
1500 sono 1380/1400 tuoi.

Dopo tutte le verifiche missà che c'è stato qualche problema nel tuo bench, visto che con la Titan occata fai quanto 980 lisce occate. Non puoi aver perso quasi 2000 punti di GS e sopratutto solo tu.
Ritesta bene;)


Ma infatti deve essere andato storto l'ultimo bench, questi http://www.3dmark.com/compare/fs/5614319/fs/6849268/fs/7640038 sono i miei fatti a agosto dicembre ed oggi, e sul GS non è cambiato praticamente nulla a parità di frequenze delle schede video, non farti ingannare dalla freq mostrata delle gpu che non so per quale ragione oggi nel report è quella di boost massimo, mentre a dicembre ed agosto era la gpu clock, quella che mostra gpu-z :)

Legolas84
21-02-2016, 16:05
Si ragazzi sono d'accordo... non facciamoci prendere da un'inutile psicosi ;)

mikael84
21-02-2016, 16:14
Ma infatti deve essere andato storto l'ultimo bench, questi http://www.3dmark.com/compare/fs/5614319/fs/6849268/fs/7640038 sono i miei fatti a agosto dicembre ed oggi, e sul GS non è cambiato praticamente nulla a parità di frequenze delle schede video, non farti ingannare dalla freq mostrata delle gpu che non so per quale ragione oggi nel report è quella di boost massimo, mentre a dicembre ed agosto era la gpu clock, quella che mostra gpu-z :)

Si tranquillo Exes lo so bene. Grande per la comparativa, almeno chiarisce bene:)

Spider-Mans
21-02-2016, 17:00
mikael ma sui consumi watt che si dice? pascal sara in linea con consumi medio/bassi attuali oppure torneranno a rialzarsi?

Vul
21-02-2016, 17:07
Siete complottisti mica poco eh...
390 che andava come la 290 al day one come la spieghi?
Ora va di più, maturazione dei driver o amd che castra le schede vecchie?

doppio di ram e 1 ghz in più sulle ram?

Kepler è intenzionalmente tarpato nei giochi dove c'è lo zampino Nvidia, punto.

Quando vedo una 780ti dietro ad una 970, titan (1) che vanno meno di 960 la risposta è semplicemente: Nvidia non sa più come vendere schede agli utenti amd che non esistono in più per cui forza aggiornamenti ai propri.

Un pò come la Apple che aggiorni iOS e l'iPhone ti va più lento di un alcatel da 20 euro. Eh ma sarà sicuramente siri..

Ma vabbè in questo forum di che vogliamo parlare, è il covo dei fanboy..

Ho comprato una 670 che andava più di una 7970, oggi giorno se prendo una 370 liscia (7850?) nei giochi rilasciati negli ultimi 2 anni mi devo ritenere fortunato.

ste-87
21-02-2016, 17:07
Si ragazzi sono d'accordo... non facciamoci prendere da un'inutile psicosi ;)

infatti, fatto una prova ora spinto dalla curiosità, leggendo gli ultimi interventi ho aggiornato dai 355.82 del 31/08/2015 ai 361.91 ultimi del 15/02/16:

con oc daily tranquillo:

Heaven

355.82

62.4 fps
1573 score
22.3min
142.0 max

361.91

62.4 fps
1572 score
24.4 min
132.8 max

The division fullHD tutto al max:

(benchmark di fraps prendendo la parte iniziale quando si arriva con l'elicottero fino a non ci si può muovere liberamente con il proprio personaggio sono 2 minuti quasi spaccati)

355.82

Frames, Time (ms), Min, Max, Avg
7818, 120610, 43, 77, 64.820


361.91

Frames, Time (ms), Min, Max, Avg
8203, 120953, 43, 85, 67.820

mikael84
21-02-2016, 17:14
mikael ma sui consumi watt che si dice? pascal sara in linea con consumi medio/bassi attuali oppure torneranno a rialzarsi?

Per ora sembra si voglia favorire l'efficienza e mid pascal dovrebbe debuttare con un core mediamente più piccolo.
Rispetto ai 28hpm i nuovi transistor dovrebbero garantire il 70% di energia in meno ma questo è un discorso veramente complesso e ci sarebbe tanto da discutere.
L'obbiettivo di Nvidia è di raddoppiare i flops per watt ma per ora di concreto non si sa nulla purtroppo:)

Spider-Mans
21-02-2016, 17:43
Per ora sembra si voglia favorire l'efficienza e mid pascal dovrebbe debuttare con un core mediamente più piccolo.
Rispetto ai 28hpm i nuovi transistor dovrebbero garantire il 70% di energia in meno ma questo è un discorso veramente complesso e ci sarebbe tanto da discutere.
L'obbiettivo di Nvidia è di raddoppiare i flops per watt ma per ora di concreto non si sa nulla purtroppo:)

ok
grazie
è sempre un piacere leggere i tuoi interventi

Legolas84
21-02-2016, 17:52
L'obbiettivo di Nvidia è di raddoppiare i flops per watt ma per ora di concreto non si sa nulla purtroppo:)


Visto il passaggio di processo produttivo io lo vedo abbastanza possibile... tu personalmente che ne pensi?

mikael84
21-02-2016, 17:55
doppio di ram e 1 ghz in più sulle ram?

Kepler è intenzionalmente tarpato nei giochi dove c'è lo zampino Nvidia, punto.

Quando vedo una 780ti dietro ad una 970, titan (1) che vanno meno di 960 la risposta è semplicemente: Nvidia non sa più come vendere schede agli utenti amd che non esistono in più per cui forza aggiornamenti ai propri.

Un pò come la Apple che aggiorni iOS e l'iPhone ti va più lento di un alcatel da 20 euro. Eh ma sarà sicuramente siri..

Ma vabbè in questo forum di che vogliamo parlare, è il covo dei fanboy..

Ho comprato una 670 che andava più di una 7970, oggi giorno se prendo una 370 liscia (7850?) nei giochi rilasciati negli ultimi 2 anni mi devo ritenere fortunato.

Senza Fanboysmi per carità, parliamo di schede video.

Soffermiamoci su questo punto, partendo dal punto che Kepler ha un'architettura ormai vecchia per le nuove programmazioni e la 970 se prima gli stava leggermente dietro ora continua ad esserlo spesso ma chiaramente in alcuni giochi la supera. In fase geometrica Maxwell è superiore, motore geometrico nuovo e rapporto tra rops/smm/vertex ben superiore.
E' vero che in TW3 qualche ingiustizia ci fu, o almeno non nego la possibilità di qualche politica interna, però se analizziamo ad oggi con i nuovi giochi le potenzialità di una 960 non la possiamo di certo paragonare ad una 780TI.

Prendo alcuni degli ultimi giochi.
Fallout 4 con l'ultima patch
http://www.pcgameshardware.de/Fallout-4-Spiel-18293/Specials/Fallout-4-Drawcall-Benchmarks-1186461/

780ti: 65-80fps
960: 39/47fps
Praticamente doppiata

AC syndicate e qua Kepler va male
http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/

780ti:60/65fps
960: 44/48fps

JC3
http://www.pcgameshardware.de/Just-Cause-3-Spiel-9784/Specials/Test-Benchmarks-1179397/

780ti:54/68fps
960:38/45fps

Star wars
http://www.pcgameshardware.de/Star-Wars-Battlefront-Spiel-34950/Specials/Test-Benchmark-1178154/

780ti:66/70fps
960:42/45fps

Madmax
http://www.pcgameshardware.de/Mad-Max-Spiel-13115/Tests/Test-Benchmarks-1169934/
780ti:90/115
960:50/65

Letteralmente doppiata


Media
780ti: 79,6
960:50

Percentuale differenza media 60%

Per ogni cosa bisogna analizzare bene, provare le schede e tanti altri particolari.
La 780ti per quanto sia ancora un progetto Kepler se la gioca con la 970, spesso la supera pure ma non si può neppure denigrarla così.

Se ragionavo da "Fanboy verde" mi puntavo sul fatto che in questi test la 780ti custom stia quasi sempre vicina alla fury;)

TigerTank
21-02-2016, 18:05
Io non ho notato alcun decadimento prestazionale confrontando 2 test di heaven, uno di agosto 2015 e l'altro fatto di recente. Entrambi 1500/8000, entrambi 105fps, uno 2662, l'altro 2668 :)
Più che altro quelle che staccano imho sono le ottimizzazioni(nei giochi e/o nei drivers) in favore delle nuove architetture.

Psycho77
21-02-2016, 18:05
Nvidia ha stretto una partnership con ubisoft,quindi ha dovuto adeguarsi ai downgrade di massa.:sofico:
Le schede nvidia sono generalmente migliori delle amd,sia per performance che per driver ed nvidia stessa lo sa benissimo.
Quindi trovandosi in una situazione chiaramente di vantaggio,che fa?
Cerca di vendere le inutili titan x con trucchi a dir poco sgamati,per chi è attento..........

https://youtu.be/aLwVEu5ksGE

Tomb rider lo devo giocare a 1080p con fxaa,e anche con queste impostazioni da peasant,la vram non basta uguale.Stuttering a volontà nelle macro aree per tutti.
Stesse impostazioni,stesse texture:su amd 3 gb in uso,su nvidia 7.5.
Come rendere obsoleta una 980 ti con due movimenti da bomber informatici.

Stesso discorso per black ops 3 che arriva a occupare fino a 9.5 gb di vram,mentre su amd ne bastano 3.:doh:


Questa si chiama obsolescenza programmata DI LUSSO signori miei.Quelli della Apple sono dei chirichetti a confronto................

The_SaN
21-02-2016, 18:11
Nvidia ha stretto una partership con ubisoft,quindi ha dovuto adeguarsi ai downgrade di massa.:sofico:
Le schede nvidia sono generalmente migliori delle amd,sia per performance che per driver ed nvidia stessa lo sa benissimo.
Quindi trovandosi in una situazione chiaramente di vantaggio,che fa?
Cerca di vendere le inutili titan x con trucchi a dir poco sgamati,per chi è attento..........

https://youtu.be/aLwVEu5ksGE

Tomb rider lo devo giocare a 1080p con fxaa,e anche con queste impostazioni da peasant,la vram non basta uguale.Stuttering a volontà nelle macro aree per tutti.
Stesse impostazioni,stesse texture:su amd 3 gb in uso,su nvidia 7.5.
Come rendere obsoleta una 980 ti con due movimenti da bomber informatici.

Stesso discorso per black ops 3 che arriva a occupare fino a 9.5 gb di vram,mentre su amd ne bastano 3.:doh:Ma è normalissimo occupare tutta la RAM disponibile. Non vuol certo dire che la usi...
Più che altro mi verrebbe da dire che l'architettura AMD è più longeva...chi ha preso una 7970 ha davvero fatto un bell'acquisto.
Detto da uno che ha un SLI di Kepler.

Psycho77
21-02-2016, 18:14
Ma è normalissimo occupare tutta la RAM disponibile. Non vuol certo dire che la usi...
Più che altro mi verrebbe da dire che l'architettura AMD è più longeva...chi ha preso una 7970 ha davvero fatto un bell'acquisto.
Detto da uno che ha un SLI di Kepler.

Ah perdonami,non pensavo che lo stuttering selvaggio facesse parte del gameplay negli ultimi giochi.Pardon.:doh:

TigerTank
21-02-2016, 18:17
Si beh dopo 2 titan e relative vga postume enormemente più convenienti, io sinceramente non capisco come ci sia ancora gente disposta a comprarle a scopo gaming :asd:
E invece a quanto pare ce n'è ancora parecchia convinta che sia il top da avere, anche spendendo un rene quando poi escono le Ti che pareggiano in prestazioni e costano quasi la metà :)

Comunque nel video che hai postato con la amd c'è un'occupazione di ram di sistema molto più alta a parità di hardware usato. Per cui imho meglio la nvidia che alloca la vram(più veloce) piuttosto che la amd che swappa sulla ram di sistema(più lenta) nonostante le hbm ;)
Infatti specialmente all'inizio del video(circa 1:15) la nvidia sembra occupare circa 3GB di vram in più, ma in compenso con la amd ci sono circa 3GB in più di ram di sistema occupata.

The_SaN
21-02-2016, 18:18
Ah perdonami,non pensavo che lo stuttering selvaggio facesse parte del gameplay negli ultimi giochi.Pardon.:doh:Lo stuttering può essere causato da vari fattori, tra i quali RAM insufficiente. Ma non mi pare sia il caso.
RAM allocata e RAM utilizzata sono due cose ben diverse.

Legolas84
21-02-2016, 18:19
Ah perdonami,non pensavo che lo stuttering selvaggio facesse parte del gameplay negli ultimi giochi.Pardon.:doh:

Guarda che comunque è vero che quando c'è tanta ram disponibile i giochi cercano di allocare quante più risorse possibili anche se non servono tutte nell'immediato. Anche se paradossalmente allochi 12GB di ram le prestazioni potrebbero essere identiche a una scheda che ne ha 4.... se il gioco in quel momento ne utilizza effettivamente solo 3. Il resto sono tutte risorse risparmiate per svuotare e ricaricare la ram.

Con questo non voglio dire che non ci sia stuttering, ma forse dipende da altro ;)

mikael84
21-02-2016, 18:20
Nvidia ha stretto una partership con ubisoft,quindi ha dovuto adeguarsi ai downgrade di massa.:sofico:
Le schede nvidia sono generalmente migliori delle amd,sia per performance che per driver ed nvidia stessa lo sa benissimo.
Quindi trovandosi in una situazione chiaramente di vantaggio,che fa?
Cerca di vendere le inutili titan x con trucchi a dir poco sgamati,per chi è attento..........

https://youtu.be/aLwVEu5ksGE

Tomb rider lo devo giocare a 1080p con fxaa,e anche con queste impostazioni da peasant,la vram non basta uguale.Stuttering a volontà nelle macro aree per tutti.
Stesse impostazioni,stesse texture:su amd 3 gb in uso,su nvidia 7.5.
Come rendere obsoleta una 980 ti con due movimenti da bomber informatici.

Stesso discorso per black ops 3 che arriva a occupare fino a 9.5 gb di vram,mentre su amd ne bastano 3.:doh:


Questa si chiama obsolescenza programmata DI LUSSO signori miei.

Io ancora non ho capito il video su tomb raider.
Le hbm agiscono a singolo canale e non saturano come le ddr5 ma se osservi bene sei sempre ben sotto con la vram.
A minuto 0:57 a fury ha allocato circa 3,9gb, mentre la Titan x 4,3gb ma la ram per la fury è di 4gb e 3,7gb sulla Titan.
Subito dopo la fury libera la vram ma va a caricare la ram.

Minuto 1:30.
La fury ha allocato 3,5gb di vram, la Titan x ne ha allocato ben 7gb
Se osservi la ram di entrambe, vedrai che la fury ha allocato 8,6gb mentre la Titan è a 4,3gb.

Psycho77
21-02-2016, 18:20
Lo stuttering può essere causato da vari fattori, tra i quali RAM insufficiente.

lol
16 gb non bastano?Stasera provo con 64 gb e ti faccio sapere.
Hai un video nel post che hai quotato,magari dagli un'occhiata prima di rispondere.

Psycho77
21-02-2016, 18:23
Io ancora non ho capito il video su tomb raider.
Le hbm agiscono a singolo canale e non saturano come le ddr5 ma se osservi bene sei sempre ben sotto con la vram.
A minuto 0:57 a fury ha allocato circa 3,9gb, mentre la Titan x 4,3gb ma la ram per la fury è di 4gb e 3,7gb sulla Titan.
Subito dopo la fury libera la vram ma va a caricare la ram.

Minuto 1:30.
La fury ha allocato 3,5gb di vram, la Titan x ne ha allocato ben 7gb
Se osservi la ram di entrambe, vedrai che la fury ha allocato 8,6gb mentre la Titan è a 4,3gb.

Aridaje,ti ho già dimostrato che tra hbm e gddr5 non cambia nulla.
Sono i driver nvidia che sono scritti per farti usare 15 tonnellate di vram.

http://abload.de/img/http--www.gamegpu.ru-6qszb.jpg

mikael84
21-02-2016, 18:24
Visto il passaggio di processo produttivo io lo vedo abbastanza possibile... tu personalmente che ne pensi?

E'un traguardo possibile secondo me. Certo vedendo i core molto piccoli, se dovessimo arrivare ad un raddoppio flops per watt significa che GP104 sarà molto efficiente.:)

Aridaje,ti ho già dimostrato che tra hbm e gddr5 non cambia nulla.
Sono i driver nvidia che sono scritti per farti usare 15 tonnellate di vram.



ci rinuncio

The_SaN
21-02-2016, 18:27
lol
16 gb non bastano?Stasera provo con 64 gb e ti faccio sapere.
Hai un video nel post che hai quotato,magari dagli un'occhiata prima di rispondere.Ma che c'entra? Quando parlo di RAM mi riferisco a tutta la memoria (quindi RAM + vRAM).
Il video l'ho visto, e semplicemente l'allocazione delle risorse è DIVERSA. Ma non significa necessariamente avere cali prestazionali/stuttering.,

The_SaN
21-02-2016, 18:29
Aridaje,ti ho già dimostrato che tra hbm e gddr5 non cambia nulla.
Sono i driver nvidia che sono scritti per farti usare 15 tonnellate di vram.

http://abload.de/img/http--www.gamegpu.ru-6qszb.jpgAncora una volta:
RAM allocata e RAM utilizzata sono 2 cose diverse.

mikael84
21-02-2016, 18:34
Ancora una volta:
RAM allocata e RAM utilizzata sono 2 cose diverse.

Per la serie 390 con 8gb
COD
https://www.youtube.com/watch?v=x_5EbUL3BmY

Tomb raider
https://www.youtube.com/watch?v=kW6sCTPOaiI

The_SaN
21-02-2016, 18:36
Per la serie 390 con 8gb
COD
https://www.youtube.com/watch?v=x_5EbUL3BmY

Tomb raider
https://www.youtube.com/watch?v=kW6sCTPOaiIEh ma i driver nVidia... :asd:

Psycho77
21-02-2016, 18:37
Ancora una volta:
RAM allocata e RAM utilizzata sono 2 cose diverse.

Ma che c'entra?
Sai cosa succede quando servono 7.5 gb di vram per un setting e tu ne hai solo 6?
Succede questo che l'immagine scatta,freeza e poi riparte,in inglese si chiama stuttering,in italiano balbuzie.
Se sono qui a scrivere questo è perchè so di cosa parlo,per esperienza diretta.
Il tuo discorso tra ram e vram allocata o non,non c'entra proprio nulla in questo contesto.

Detto questo.

http://www.somegif.com/gifs/1382423106318929075.GIF

The_SaN
21-02-2016, 18:43
Ma che c'entra?
Sai cosa succede quando servono 7.5 gb di vram per un setting e tu ne hai solo 6?
Succede questo che l'immagine scatta,freeza e poi riparte,in inglese si chiama stuttering,in italiano balbuzie.
Se sono qui a scrivere questo è perchè so di cosa parlo,per esperienza diretta.
Il tuo discorso tra ram e vram allocata o non,non c'entra proprio nulla in questo contesto.

Detto questo.

http://www.somegif.com/gifs/1382423106318929075.GIFEsempio terra-terra, e poi se non capisci ci rinuncio.

Gioco X: carica 10GB di textures (non terrò conto di AA e altre cose), ma la scena più complessa ne usa solo 2GB.

Scheda 1 (12GB): alloca tutti i 10GB sulla vRAM. Quando un dato serve, lo pesca dalla vRAM. Fine.

Scheda 2 (4GB): alloca 4GB sulla VRAM, 6GB sulla RAM. Quando serve un nuovo dato, cambia progressivamente i 2 GB non utilizzati con dati che saranno usati.

Differenze prestazionali: ZERO.


Se la scena più complessa usasse oltre 4GB di RAM, allora la scheda 2 soffrirebbe di stuttering.

Edit (per aggiungere): lo stuttering accade quando devi pescare dalla RAM (e portare alla vRAM) dati che ti servono istantaneamente.

mirkonorroz
21-02-2016, 18:48
Aridaje,ti ho già dimostrato che tra hbm e gddr5 non cambia nulla.
Sono i driver nvidia che sono scritti per farti usare 15 tonnellate di vram.

http://abload.de/img/http--www.gamegpu.ru-6qszb.jpg

Cambia di poco la sostanza, ma penso che piu' che essere scritti per farti usare piu' vram, in pratica si siano "dimenticati" (:asd:) di effettuare il passaggio da console a pc come si deve.

Se si parte dalla versione console (anche se sviluppata su pc), il passaggio dell'adattamento nell'uso della memoria (in generale) e' diventato obbligatorio.
Ma deve farlo nvidia o lo sviluppatore del gioco? Siamo semprie li'...
Io ho sempre detto che per me e' sbagliato che i drivers si occupino di patchare i giochi. I drivers devono interfacciarsi con l'OS e far funzionare bene la scheda. Il gioco deve essere programmato bene per i fatti suoi (chiamate a mantle dx12 o similia comprese).
Ma evidentemente le cose stanno in modo diverso e chi ci va di mezzo in genere sono sempre i gamers=consumatori.

Psycho77
21-02-2016, 18:54
Giusto per chiudere il discorso in scioltezza,visto che da quanto posso capire qui dentro fate molto bench ma a gaming state a zero.

https://youtu.be/DenwAT3vg4o

The_SaN
21-02-2016, 19:02
Giusto per chiudere il discorso in scioltezza,visto che da quanto posso capire qui dentro fate molto bench ma a gaming state a zero.

https://youtu.be/DenwAT3vg4oHo visto un calo di fps (da 60 a 55), dal video lo stutter non si vede....servirebbe un frametime.

Psycho77
21-02-2016, 19:16
Ho visto un calo di fps (da 60 a 55), dal video lo stutter non si vede....servirebbe un frametime.

Ma ancora insisti?:asd:
Quindi è pure palese che tu non abbia visto il gioco manco con il binocolo.
Sto pure a perdere tempo.

http://www.tomshardware.co.uk/answers/id-2959175/rise-tomb-raider-stuttering-gtx-980.html

Risposta adeguata.

Mike_144 2 February 2016 11:18:04
Seen another post about a similar problem. Using up to 6gb of Vram.

Dont know if it uses it or if it's reserved... But 6GB is alot of ram for a game.

Questo viene dai nixxes stessi.

http://steamcommunity.com/app/391220/discussions/0/451852225134000777/

Also note that textures at Very High requires over 4GB of VRAM, and using this on cards with 4GB or less can cause extreme stuttering during gameplay or cinematics.

Solo che non specificano che servono fino a 7.5 gb di vram........
In definitiva una 980 ti deve girare con lo stesso settings di una gtx 970,ovvero con texture ad HIGH.
Parity conditions con schede un po' diverse.

The_SaN
21-02-2016, 19:20
Ma ancora insisti?:asd:
Quindi è pure palese che tu non abbia visto il gioco manco con il binocolo.
Sto pure a perdere tempo. No, il gioco non ce l'ho. Ma in pratica hai ignorato ogni post tecnico.
Comunque dal video lo stutter non si vede (video con qualità youtube) e senza frametime non si può dire nulla.

http://www.tomshardware.co.uk/answers/id-2959175/rise-tomb-raider-stuttering-gtx-980.html

Risposta adeguata.

Mike_144 2 February 2016 11:18:04
Seen another post about a similar problem. Using up to 6gb of Vram.

Dont know if it uses it or if it's reserved... But 6GB is alot of ram for a game.Eh ma allora :asd:

Psycho77
21-02-2016, 19:29
No, il gioco non ce l'ho. Ma in pratica hai ignorato ogni post tecnico.
Comunque dal video lo stutter non si vede (video con qualità youtube) e senza frametime non si può dire nulla.

Eh ma allora :asd:

Mi son fermato alla frase in rosso.

Discorso tecnico su una cosa che non conosci,eccellente.

Non scomodarti a rispondere visto che da adesso sei in ignore list.;)

amon.akira
21-02-2016, 19:31
Ho visto un calo di fps (da 60 a 55), dal video lo stutter non si vede....servirebbe un frametime.

quel tipo nel video ha qualche problema, io con rise of tomb raider lo gioco a 1080p+tutto al max come il tipo (ovviamente niente ssaa) e mai sceso sotto i 60fps, granitico.
e sono il tipo che se vedo un microstutter me ne accorgo :P.

cmq avevo letto da qualche parte proprio su tombraider, forse guru3d o simili che sfruttava meglio i nuovi skylake rispetto ai vecchi haswell etc... forse è per quello. ricordo di aver visto dei bench tra haswell/skylake con quasi 10fps di stacco a parità di scheda video.

The_SaN
21-02-2016, 19:35
Questo viene dai nixxes stessi.

http://steamcommunity.com/app/391220/discussions/0/451852225134000777/

Also note that textures at Very High requires over 4GB of VRAM, and using this on cards with 4GB or less can cause extreme stuttering during gameplay or cinematics.

Solo che non specificano che servono fino a 7.5 gb di vram........
In definitiva una 980 ti deve girare con lo stesso settings di una gtx 970,ovvero con texture ad HIGH.
Parity conditions con schede un po' diverse.Ancora non hai capito la differenza tra allocare e utilizzare. Vabbè ci rinuncio.

Mi son fermato alla frase in rosso.

Discorso tecnico su una cosa che non conosci,eccellente.
Non scomodarti a rispondere visto che da adesso sei in ignore list.;)
E sono io quello che non conosce il tema.
Direi che abbiamo finito. Nice to meet ya.

The_SaN
21-02-2016, 19:39
quel tipo nel video ha qualche problema, io con rise of tomb raider lo gioco a 1080p+tutto al max come il tipo (ovviamente niente ssaa) e mai sceso sotto i 60fps, granitico.
e sono il tipo che se vedo un microstutter me ne accorgo :P.Infatti lo stuttering può avere molte cause...ad esempio programmini in background o simili.
Da non confondere con semplici cali di frames.

egounix
21-02-2016, 19:41
Che mAraviglia quando vedo così tanto amore :asd:

The san, vi vedrò tra 10 anni a "c'è hardware per te?" di cyborg maria the filippi?

The_SaN
21-02-2016, 19:44
Che mAraviglia quando vedo così tanto amore :asd:

The san, vi vedrò tra 10 anni a "c'è hardware per te?" di cyborg maria the filippi?Non credo, mi ha messo in ignore :( :cry:

egounix
21-02-2016, 19:46
Non credo, mi ha messo in ignore :( :cry:

Dammi retta, allocati fino ai nuovi drivers e poi spedisci un command buffer in raccomandata 1, intanto avveto maria. Vedrai ti perdonerà

Oirasor_84
21-02-2016, 20:09
Che mAraviglia quando vedo così tanto amore :asd:

The san, vi vedrò tra 10 anni a "c'è hardware per te?" di cyborg maria the filippi?

"c'è hardware per te?":rotfl:

The_SaN
21-02-2016, 20:46
Comunque, Guru3D ha analizzato il frametime:

http://www.guru3d.com/articles_pages/rise_of_the_tomb_raider_pc_graphics_performance_benchmark_review,6.html

And now we combined the results. As you can see, very similar characteristics for both vendors. Micro-stuttering is not even topic of discussion. (Test a 1440p, 2 schede da 4GB)

http://www.guru3d.com/articles_pages/rise_of_the_tomb_raider_pc_graphics_performance_benchmark_review,10.html

Rise of the Tomb Raider is reasonably demanding in is graphics memory with the best IQ settings. We'll take two 4GB cards. You will notice that up-to Full HD 3 GB is recommended, mind you that the 2GB cards played fine though. At a QHD resolution of 2560x1440 a 4GB card is recommended and at Ultra HD a 4GB card or better is something you will need. The game will eat away what you can throw at it.

Now If you run out of memory, typically that is not per se an issue as games simply cache a lot stuff that isn't immediately used/adressed.

Peace & Love

mikael84
21-02-2016, 21:36
Comunque, Guru3D ha analizzato il frametime:

http://www.guru3d.com/articles_pages/rise_of_the_tomb_raider_pc_graphics_performance_benchmark_review,6.html

And now we combined the results. As you can see, very similar characteristics for both vendors. Micro-stuttering is not even topic of discussion. (Test a 1440p, 2 schede da 4GB)

http://www.guru3d.com/articles_pages/rise_of_the_tomb_raider_pc_graphics_performance_benchmark_review,10.html

Rise of the Tomb Raider is reasonably demanding in is graphics memory with the best IQ settings. We'll take two 4GB cards. You will notice that up-to Full HD 3 GB is recommended, mind you that the 2GB cards played fine though. At a QHD resolution of 2560x1440 a 4GB card is recommended and at Ultra HD a 4GB card or better is something you will need. The game will eat away what you can throw at it.

Now If you run out of memory, typically that is not per se an issue as games simply cache a lot stuff that isn't immediately used/adressed.

Peace & Love

Certo che ne hai di pazienza:p

egounix
21-02-2016, 21:40
Certo che ne hai di pazienza:p

È il "paziente" inglese :stordita:

The_SaN
21-02-2016, 21:54
Certo che ne hai di pazienza:pPiù che pazienza, oggi c'avevo un azz da fare :asd:

FreeMan
21-02-2016, 22:14
Finitela :rolleyes:

>bYeZ<

Nhirlathothep
22-02-2016, 00:04
Sono uno di quelli che dopo anni di gpu doppie passera' a singola per il microstuttering.

Ci credo sulla fiducia che Tomb rider non ne abbia e nemmeno la maggioranza dei giochi che vengono usati come bench.

Il problema e' quando si utilizzano giochi sconosciuti/vecchi, che girerebbero anche su gpu di 10 anni fa, e il pc fisso da 3k euro va peggio del notebook del supermercato.

(Per me i giochi tipo assasin's creed, Tomb raider, e roba del genere e' come se non esistessero, li ho solo perche' avuti in regalo)

Sir Alamon
22-02-2016, 07:00
sarà strana la mia config, ma dall'OSD di afterburner tomb raider in 2k tutto maxato (tranne AA, disabilitato in game ma smaa tramite reshade, utilizzando il fix per farlo funzionare, visto che dalla guida nvidia non funziona :rolleyes: ) non arriva neanche per sbaglio ai 6gb. Anzi a 5,2 circa si ferma

FroZen
22-02-2016, 07:22
Si ma tu useresti il cf/sli per far girare devil inside? Basta disattivare...

Sir Alamon
22-02-2016, 07:32
non ho mai approfondito la questione, ma lo SLI si può disattivare in qualsiasi momento via SW oppure bisogna fisicamente staccare la scheda/corrente/sli bridge?

Nhirlathothep
22-02-2016, 07:52
Si ma tu useresti il cf/sli per far girare devil inside? Basta disattivare...

infatti era sempre disattivato: i giochi sp che reputo decenti sono vecchi e quelli multiplayer li gioco senza effetti grafici a 150-200 fps medi (almeno 130 minimi) ma assolutamente a scheda singola ( non deve esserci l' ombra di microstuttering).

Vabe' sono gusti, capisco completamente chi ricerca il massimo delle prestazioni e chiude un' occhio sul microstuttering e sulla necessita' di stare a elemosinare un' ottimizzazione dai programmatori per poter sfruttare l' hw che ha pagato (il doppio degli altri)
C'e' stata ultimamente un'eccezione nella quale anche io mi sono ritrovato a voler rimettere il crossfire (o cambiare scheda): GTA V single player.


non ho mai approfondito la questione, ma lo SLI si può disattivare in qualsiasi momento via SW oppure bisogna fisicamente staccare la scheda/corrente/sli bridge?

si fa velocemente da pannello di controllo
(le mie ultime 4 config a scheda doppia sono state tutte AMD, quindi non sono esperto di sli)
http://www.computerhope.com/issues/pictures/nvidia.jpg

Goofy Goober
22-02-2016, 08:26
non ho mai approfondito la questione, ma lo SLI si può disattivare in qualsiasi momento via SW oppure bisogna fisicamente staccare la scheda/corrente/sli bridge?

puoi anche decidere di disattivarlo solo per determinati giochi/programmi 3d, e lasciarlo attivo per gli altri.

ultimamente mi tocca fare così per XCOM2 che ha problemi con il profilo SLI di Nvidia (tanto per cambiare, fail clamorosi di Nvidia per il supporto multigpu su titoli usciti già da un po' di tempo).

Sir Alamon
22-02-2016, 08:39
puoi anche decidere di disattivarlo solo per determinati giochi/programmi 3d, e lasciarlo attivo per gli altri.

ultimamente mi tocca fare così per XCOM2 che ha problemi con il profilo SLI di Nvidia (tanto per cambiare, fail clamorosi di Nvidia per il supporto multigpu su titoli usciti già da un po' di tempo).

questo infatti mi ha frenato molto dallo spendere soldi per fare SLI e ho dirottato la cifra sul cambio monitor. In pratica o di riffa o di raffa un sacco di giochi hanno problemi con lo sli

paolox86
22-02-2016, 08:48
questo infatti mi ha frenato molto dallo spendere soldi per fare SLI e ho dirottato la cifra sul cambio monitor. In pratica o di riffa o di raffa un sacco di giochi hanno problemi con lo sli


Anch'io sono stato sempre sostenitore del chip unico, infatti non ho mai avuto una configurazione sli o crossfire nonostante le dozzine di VGA cambiate. L'importante è rimanere equilibrati con la scelta dello schermo e relativa risoluzione: oggi massimo ti puoi permettere di giocare a 1440p con un unico chip e dettagli maxati (male che vada), se vuoi di più devi affidarti allo sli e soprattutto ai programmatori e non sempre il risultato è gradevole


Inviato dal mio iPhone utilizzando Tapatalk

Sir Alamon
22-02-2016, 09:01
Anch'io sono stato sempre sostenitore del chip unico, infatti non ho mai avuto una configurazione sli o crossfire nonostante le dozzine di VGA cambiate. L'importante è rimanere equilibrati con la scelta dello schermo e relativa risoluzione: oggi massimo ti puoi permettere di giocare a 1440p con un unico chip e dettagli maxati (male che vada), se vuoi di più devi affidarti allo sli e soprattutto ai programmatori e non sempre il risultato è gradevole


Inviato dal mio iPhone utilizzando Tapatalk


Io devo dire che con 2k "e mezzo" con la singola 980ti overclockata e l'i7 me lo sto godendo abbastanza. Non ho particolari problemi, e non sento bisogno di un AA sparato al massimo, è già abbastanza definito per i miei occhi

athlon xp 2400
22-02-2016, 09:09
Tw3 a parte lol

Goofy Goober
22-02-2016, 09:16
Anch'io sono stato sempre sostenitore del chip unico, infatti non ho mai avuto una configurazione sli o crossfire nonostante le dozzine di VGA cambiate. L'importante è rimanere equilibrati con la scelta dello schermo e relativa risoluzione: oggi massimo ti puoi permettere di giocare a 1440p con un unico chip e dettagli maxati (male che vada), se vuoi di più devi affidarti allo sli e soprattutto ai programmatori e non sempre il risultato è gradevole

per tanti anni sono rimasto legato allo SLI, anche fino a 4 GPU, per poi assestarmi all'uso di due schede praticamente sempre.

ultimamente però il multigpu sta diventando una condanna certa.

perde tutti gli aspetti per cui poteva esser considerato utile come:

- possibilità di superare il limite della singola gpu più potente disponibile usando un numero superiore di gpu, anche di fascia inferiore
- spendendo poco più rispetto ad una scheda top singola, avere prestazioni ben superiore grazie a due schede che lavorano in parallelo
- aumentare di molto il valore degli fps minimi
- prolungare, anche notevolmente, la longevità di schede video della generazione precedente affiancandone più di una nell'elaborazione
- avere un sottosistema grafico over-sized capace di durare più a lungo nel tempo.

e di contro ci ritroviamo oggi ad avere quasi solamente la pletora di aspetti negativi relativi allo SLI:

- giochi che non supportano lo SLI all'uscita, e nemmeno nei periodi sucessivi (fino a mesi di distanza).
- giochi che pur supportando lo SLI hanno una scalabilità ridicola paragonati all'elaborazione singola.
- giochi che non supporteranno mai lo SLI, per incompatibilità del gioco stesso o incapacità dei developer (Arkham Knight anyone?).
- driver non più ottimizzati per schede video non recenti che nullificano l'utilità dello SLI in questi scenari.
- microstuttering.
- costi, calore prodotto, ingombri, consumi e varie ed eventuali.

adesso più che diventare fautore della scheda singola (che è la normalità e rappresenta già la maggioranza dei casi ovviamente, quindi non ha certo bisogno di "sostenitori"), mi sta venendo voglia di diventare uno SLI-hater....
ormai il multigpu da l'idea di un qualcosa che subisce un obsolescenza anche più rapida di un sistema a scheda singola, e nel breve periodo in cui dovrebbe rendere al massimo, si ritrova invece ad esser afflitto da numerosi problemi che ne nullificano o quasi l'investimento.

Tw3 a parte lol

e XCOM 2 :asd:

illidan2000
22-02-2016, 09:43
Tw3 a parte lol

tw3 a me gira alla grandissima con lo sli di 970. Non so che casini abbiano fatto con le TI...

cmq, è molto più semplice, veloce e meno dispendioso vendere due 970 che non una 980TI secondo me...

Sir Alamon
22-02-2016, 09:44
tw3 a me gira alla grandissima con lo sli di 970. Non so che casini abbiano fatto con le TI...

il profilo ufficiale nvidia è buggatissimo sulle 980ti, bisogna provarne uno non ufficiale, leggevo in giro

athlon xp 2400
22-02-2016, 09:46
tw3 a me gira alla grandissima con lo sli di 970. Non so che casini abbiano fatto con le TI...

cmq, è molto più semplice, veloce e meno dispendioso vendere due 970 che non una 980TI secondo me...



Tw3 a 1440 p maxato nn è gestibile con singola 980ti

TigerTank
22-02-2016, 09:52
Io ne ho provati 2 di Sli ma ora sto in singola, anche se causa monitor attuale qualche scimmia di prendere un altra gtx980Ti l'ho avuta più di una volta. Ma alla fine mi frenano le cose che ha scritto Goofy.
Purtroppo nonostante il livello tecnologico a cui siamo arrivati, il supporto multigpu è tutt'altro che scontato...e abbiamo ancora titoli "triple A" che escono privi di tale supporto e magari pure cappati a 60fps.
Per cui altro che 4K...pascal imho non basterà ancora per gestire a 360° un 4K, ok i giochi vecchiotti che in 4K(nativo o in dsr) girano bene già ora, ma se capiteranno mattoni senza supporto Sli così come sembrerebbe già essere il futuro Doom4, uno che ad esempio comprerà un 4K + Sli di 1070 sarà fregato in partenza in quanto a giocare maxato.
In pratica le potenzialità ci sono ma il tutto spesso non è controbilanciato da un livello adeguato per quanto riguarda i motori di gioco...forse perchè ormai i giochi nascono principalmente per consoles e le versioni pc sono semplicemente le versioni graficamente "agghindate e farcite".
Per il resto, considerato che ancora oggi con i nuovi titoli siamo qui a parlare di "60fps in fullHD tutto maxato", qualcosa mi dice che non basterà la titan pascal singola per arrivare a parlare di "60fps in 4K tutto maxato" con i titoli-mattone che usciranno :D

Sir Alamon
22-02-2016, 09:54
Tw3 a 1440 p maxato nn è gestibile con singola 980ti

hmhmh sai che non sono sicuro? A casa provo.

Legolas84
22-02-2016, 09:59
Mi spiace leggere di questi problemi con lo SLI.

Io ho creato un sistema attorno allo SLI di GM204 e devo dire che mai ho fatto scelta più azzeccata. Ero indeciso tra uno SLI di 980 o prendere una singola 980Ti, ma dopo aver visto che ad esempio the witcher 3 tutto maxato in 2k richiedeva più potenza di quella offerta da una singola Ti, non ho avuto dubbi.

Certo però ho costruito un sistema rispettando determinate regole...

1) Ho preso una piattaforma che mi garantisse 16 linee PCI Express per ogni scheda, senza PLX ma native sulla CPU.

2) CPU e piattaforma adeguatamente potente da non castrare mai e poi mai lo SLI.

3) Schermo G-Sync, per poter gestire in hardware la sincronizzazione verticale spesso causa di non pochi problemi di lag e stuttering.

E poi alcune accortezze software, come ad esempio avere un computer sempre perfettamente in bolla e avvalermi del GeForce Experience quando possibile... ovviamente non limitandomi a selezionare "ottimizza" e basta ma regolando prima la qualità desiderata (quasi sempre massima).

Per i giochi che non supportano l'experience se mai ci fossero problemi il forum GeForce è un pozzo di soluzioni di gente che ha configurazioni multi-gpu e soprattutto letto e frequentato da personale in contatto (e che può metterti in contatto) direttamente con chi sviluppa i driver.

Avevo avuto bisogno del forum ai tempi dello SLI di 480 ma in ogni caso con le 980 questo non si è mai reso necessario.

Con questi presupposti non ho mai avuto nessun tipo di problema con nessun gioco, microstuttering zero e sono uno piuttosto pignolo che spesso sfocia nel maniacale :asd:

Sono talmente soddisfatto da questo sistema che sto ovviamente considerando seriamente (come prima opzione) lo SLI di GP104 o 100 (quello che esce prima sulla fascia dei 500 euro) così da saltare pari pari eventuali versioni Ti e reggere tranquillo un paio d'anni.

Legolas84
22-02-2016, 10:02
hmhmh sai che non sono sicuro? A casa provo.

Se ci metti anche GameWorks non basta... mentre con due 980 in SLI vai tranquillo.

Giochi che non supportano lo SLI recenti che mi sono capitati:

- Divinity OS (fa 144fps tutto al max in 2k con una singola 980 quindi no problem).

- Wolfenstein (usa lo scrauso ID TECH 5 che non supporta il multi-gpu, spero sia l'ultimo game sviluppato con questa tecnologia).

Sir Alamon
22-02-2016, 10:04
Se ci metti anche GameWorks non basta... mentre con due 980 in SLI vai tranquillo.


appena sono a casa provo a mettere tutto al massimo e vedere se scendo sotto i 30 con la singola 980ti

athlon xp 2400
22-02-2016, 10:04
hmhmh sai che non sono sicuro? A casa provo.


Dico a 60 fps! Lol sta con minimi di 35 40 maxato

Sir Alamon
22-02-2016, 10:04
Dico a 60 fps! Lol sta con minimi di 40 maxato

ah ok, a 60 probabilmente la mono 980ti non ti basta

Legolas84
22-02-2016, 10:08
appena sono a casa provo a mettere tutto al massimo e vedere se scendo sotto i 30 con la singola 980ti

ah ok.... sotto i 30 non ci va tranquillo. È che per me giocabile significa ALMENO 60.... :D

Legolas84
22-02-2016, 10:11
Ah, altra cosa.... ad esempio con le 980 non ho mai dovuto usare Inspector per ottimizzare lo SLI (nemmeno lo ho installato attualmente). È sufficiente andare nel pannello di controllo NVIDIA e verificare che sulla scheda del gioco alla voce SLI sia impostato "Consigliato da NVIDIA" per non avere problemi di sorta.

Sir Alamon
22-02-2016, 10:11
ah ok.... sotto i 30 non ci va tranquillo. È che per me giocabile significa ALMENO 60.... :D

volevo capire se stavo più sui 30 o più sui 60. Cioè se faccio 50 di media mi va ancoar bene, se faccio 35 no

athlon xp 2400
22-02-2016, 10:14
Io ho disattivato solo i capelli e ho minimi di 40 in alcune zone

Legolas84
22-02-2016, 10:14
volevo capire se stavo più sui 30 o più sui 60. Cioè se faccio 50 di media mi va ancoar bene, se faccio 35 no

Io non sopporto nemmeno gli sbalzi di FPS se questi avvengono sotto i 60.... Anche se devo dire che in questo il G-sync aiuta molto a mitigare l'effetto sgradevole :)

Legolas84
22-02-2016, 10:15
Io ho disattivato solo i capelli e ho minimi di 40 in alcune zone

Io tutto maxato non scendo mai sotto i 60 ;)

Nurabsa
22-02-2016, 10:15
rise of tr @ 2560 × 1600 custom/ultra, sulla mia configurazione occupa sempre piu di sei gb vram a volte sfiora i 7.

stessa cosa 4k differenza di 200mb circa

a risoluzioni inferiori occupa sempre meno vram a parita di setting

Sir Alamon
22-02-2016, 10:15
Io non sopporto nemmeno gli sbalzi di FPS se questi avvengono sotto i 60.... Anche se devo dire che in questo il G-sync aiuta molto a mitigare l'effetto sgradevole :)

col gsync gli sbalzi sono quasi impercettibili

Legolas84
22-02-2016, 10:17
col gsync gli sbalzi sono quasi impercettibili

Si sono d'accordo sebbene però sia innegabile che sono ancora maggiormente percettibili rispetto a quando gli sbalzi avvengono a più di 60FPS (dove per l'occhio sono praticamente assenti).

athlon xp 2400
22-02-2016, 10:17
Io tutto maxato non scendo mai sotto i 60 ;)

Vorrei vedere con lo sli :)

Sir Alamon
22-02-2016, 10:19
qual è la zona più pesante di W3?

Legolas84
22-02-2016, 10:21
Vorrei vedere con lo sli :)

Con il TUO SLI :D

Comunque ripeto, se si crea un sistema equilibrato imho è una scelta grandiosa.... :)

illidan2000
22-02-2016, 10:21
Se ci metti anche GameWorks non basta... mentre con due 980 in SLI vai tranquillo.

Giochi che non supportano lo SLI recenti che mi sono capitati:

- Divinity OS (fa 144fps tutto al max in 2k con una singola 980 quindi no problem).

- Wolfenstein (usa lo scrauso ID TECH 5 che non supporta il multi-gpu, spero sia l'ultimo game sviluppato con questa tecnologia).

aggiungo Just Cause 3, e purtroppo anche Batman Arkham Knight (che non ho preso proprio per questo motivo)

dopo Just Cause, mi dedico a Tomb rider, finalmente un titolo pienamente supportato!

Cmq ho fatto le tue stesse scelte, ma ho voluto risparmiare sulla CPU, e ho uno sli 8x+8x. Se vuoi facciamo qualche confrontino :)

athlon xp 2400
22-02-2016, 10:21
qual è la zona più pesante di W3?


L'ho giocato poco ma il primo livello dove c'è il pozzo del fantasma e nel secondo livello la zona paludosa dov'è c'è le streghe e anche il villaggio boscoso x ora li ho trovato molto peso

athlon xp 2400
22-02-2016, 10:22
Con il TUO SLI :D

Comunque ripeto, se si crea un sistema equilibrato imho è una scelta grandiosa.... :)



Non lo rimpiango no troopoo consumo e io ci impazzivo con lo sli

Legolas84
22-02-2016, 10:24
aggiungo Just Cause 3, e purtroppo anche Batman Arkham Knight (che non ho preso proprio per questo motivo)

dopo Just Cause, mi dedico a Tomb rider, finalmente un titolo pienamente supportato!

Cmq ho fatto le tue stesse scelte, ma ho voluto risparmiare sulla CPU, e ho uno sli 8x+8x. Se vuoi facciamo qualche confrontino :)

Batman AK è l'ultimo? Perchè in quel caso penso che il mancato supporto multi gpu sia l'ultimo dei problemi :D

Per il confronto se vuoi possiamo fare qualcosa basta che siano cose abbastanza veloci perchè non ho moltissimo tempo da dedicare purtroppo...

Goofy Goober
22-02-2016, 10:29
Io ne ho provati 2 di Sli ma ora sto in singola, anche se causa monitor attuale qualche scimmia di prendere un altra gtx980Ti l'ho avuta più di una volta. Ma alla fine mi frenano le cose che ha scritto Goofy.
Purtroppo nonostante il livello tecnologico a cui siamo arrivati, il supporto multigpu è tutt'altro che scontato...e abbiamo ancora titoli "triple A" che escono privi di tale supporto e magari pure cappati a 60fps.
Per cui altro che 4K...pascal imho non basterà ancora per gestire a 360° un 4K, ok i giochi vecchiotti che in 4K(nativo o in dsr) girano bene già ora, ma se capiteranno mattoni senza supporto Sli così come sembrerebbe già essere il futuro Doom4, uno che ad esempio comprerà un 4K + Sli di 1070 sarà fregato in partenza in quanto a giocare maxato.
In pratica le potenzialità ci sono ma il tutto spesso non è controbilanciato da un livello adeguato per quanto riguarda i motori di gioco...forse perchè ormai i giochi nascono principalmente per consoles e le versioni pc sono semplicemente le versioni graficamente "agghindate e farcite".
Per il resto, considerato che ancora oggi con i nuovi titoli siamo qui a parlare di "60fps in fullHD tutto maxato", qualcosa mi dice che non basterà la titan pascal singola per arrivare a parlare di "60fps in 4K tutto maxato" con i titoli-mattone che usciranno :D

il 4k imho è uno spreco di risorse

ora il focus dovrebbe esser lo sfruttamento "vero" del Gsync e tecnologie analoghe e dei pannelli 120-144hz

fincè parliamo di 60fps maxed e via dicendo è come implicitamente dire che non vogliamo abbandonare il Vsync, oppure che Gsync & co servono solo a mitigare i frame drop sotto i 60.

imho chi vuole evitare di spaccarsi la testa più del dovuto fa una scelta dotta a restare su monitor 1080p (o tv, se gioca distante dal pannello) a 100+ hz con eventuale gsync, usando il caro vecchio AA e fine.

io da quando sono passato a 1440p ho più "subito" l'aumento di risorse necessarie piuttosto che "giovato" dalla risoluzione superiore.

a volte rimpiango il 1080p @120hz del sammy (che ho ancora), se non fosse che non è gsync/freesync.

aggiungo Just Cause 3, e purtroppo anche Batman Arkham Knight (che non ho preso proprio per questo motivo)
dopo Just Cause, mi dedico a Tomb rider, finalmente un titolo pienamente supportato!
Cmq ho fatto le tue stesse scelte, ma ho voluto risparmiare sulla CPU, e ho uno sli 8x+8x. Se vuoi facciamo qualche confrontino :)

Aggiungo XCOM 2
che oltre a girare da schifo di suo pur essendo un gioco non certo all'avanguardia graficamente, non ha nemmeno avuto una release driver "game ready" da parte di Nvidia, che invece stanno rilasciando driver ogni 5 minuti per altri giochi (SFV l'ultimo per dire).
lo SLI è anche attivabile, ma non usabile in quanto fa sparire metà dell'intefaccia di gioco che è renderizza in 3d anch'essa (guardacaso è il sistema a coperture alla base del gioco...).
il multigpu inoltre da un incremento contenuto nelle prestazioni finali.

illidan2000
22-02-2016, 10:31
Batman AK è l'ultimo? Perchè in quel caso penso che il mancato supporto multi gpu sia l'ultimo dei problemi :D

Per il confronto se vuoi possiamo fare qualcosa basta che siano cose abbastanza veloci perchè non ho moltissimo tempo da dedicare purtroppo...

pensavo ad un banalissimo Heaven 4.0....
Altrimenti, che giochi hai installato ora sul pc?
il 4k imho è uno spreco di risorse

ora il focus dovrebbe esser lo sfruttamento "vero" del Gsync e tecnologie analoghe e dei pannelli 120-144hz

fincè parliamo di 60fps maxed e via dicendo è come implicitamente dire che non vogliamo abbandonare il Vsync, oppure che Gsync & co servono solo a mitigare i frame drop sotto i 60.

imho chi vuole evitare di spaccarsi la testa più del dovuto fa una scelta dotta a restare su monitor 1080p (o tv, se gioca distante dal pannello) a 100+ hz con eventuale gsync, usando il caro vecchio AA e fine.

io da quando sono passato a 1440p ho più "subito" l'aumento di risorse necessarie piuttosto che "giovato" dalla risoluzione superiore.

a volte rimpiango il 1080p @120hz del sammy (che ho ancora), se non fosse che non è gsync/freesync.



Aggiungo XCOM 2
che oltre a girare da schifo, non ha nemmeno avuto una release driver "game ready" da parte di Nvidia, che invece stanno rilasciando driver ogni 5 minuti per altri giochi (SFV l'ultimo per dire).
lo SLI è anche attivabile, ma non usabile in quanto fa sparire metà dell'intefaccia di gioco che è renderizza in 3d anch'essa (guardacaso è il sistema a coperture alla base del gioco...).

dici che il monitor da prendere al momento sarebbe quindi un 2560x1080 con gsync, tipo il Predatore z35?