PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 [84] 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Giovamas
28-01-2016, 09:25
è questo il problema, cambiare brand vuol dire cambiare anche monitor...

Io ho monitor Freesync e scheda nvidia. Par condicio (è che mi piace troppo il Benq come marchio...). Io il gsync non l'ho mai provato quindi sto zitto.

Goofy Goober
28-01-2016, 09:27
Avendo un monitor gsync io sarà comunque obbligato nella scelta...e presumo lo stesso chi ha un monitor freesync acquistato da poco.

Cmq c'è da dire che come si cambiano schede video, si cambia monitor, soprattutto se si considera che anche i migliori monitor gaming con gsync/freesync finiscono a costare qualcosa in meno delle gpu di fascia alta attuali, e decisamente meno di quelle top di gamma più costose.

Vincolarsi alla spesa corposa della scheda video per via di un monitor facilmente sostituibile lo vedo come un controsenso.

oZonoRobotics
28-01-2016, 09:39
Io ho monitor Freesync e scheda nvidia. Par condicio (è che mi piace troppo il Benq come marchio...). Io il gsync non l'ho mai provato quindi sto zitto.

se lo provi vendi il tuo monitor e prendi un gsync, grarantito 100%

Cmq c'è da dire che come si cambiano schede video, si cambia monitor, soprattutto se si considera che anche i migliori monitor gaming con gsync/freesync finiscono a costare qualcosa in meno delle gpu di fascia alta attuali, e decisamente meno di quelle top di gamma più costose.

Vincolarsi alla spesa corposa della scheda video per via di un monitor facilmente sostituibile lo vedo come un controsenso.

beh, io il mio rog tn non lo do via di sicuro, ho visto altri monitor dal vivo sia tn che ips e (sarà che mi ci sono abituato) ma li ho visti tutti peggiori...

quello che farò prossimo anno è prender un ips 21/9 curvo 3440x1440 144hz 34" gsync con display port 1.3 per giocare ai giochi singleplayer, da affiancare al rog che resta il migliore secondo me

oZonoRobotics
28-01-2016, 09:51
Con il suo monitor non c'è nessuna differenza tra freesync e gsync, anzi con gsync perderebbe 2-3 fps con freesync no.

Se nvidia abilitasse il supporto al vesa adaptive sync potrebbe usarlo.

perdona la mia ignoranza, quindi il freesync ora funzia anche su schede nvidia? non sono informato sul freesync

illidan2000
28-01-2016, 09:52
se lo provi vendi il tuo monitor e prendi un gsync, grarantito 100%



beh, io il mio rog tn non lo do via di sicuro, ho visto altri monitor dal vivo sia tn che ips e (sarà che mi ci sono abituato) ma li ho visti tutti peggiori...

quello che farò prossimo anno è prender un ips 21/9 curvo 3440x1440 144hz 34" gsync con display port 1.3 per giocare ai giochi singleplayer, da affiancare al rog che resta il migliore secondo me
ne hai di spazio :D
Credo che a quel punto il rog lo cestineresti comunque, poiché ti scoccerebbe di switchare, se con il 21:9 ci fai tutto.
A meno che non sia un chiodo come lag, non credo che ne risentiresti in multiplayer. Vai su tftcentral, e vedi quanto lag hanno gli IPS Acer (gsync)
Con il suo monitor non c'è nessuna differenza tra freesync e gsync, anzi con gsync perderebbe 2-3 fps con freesync no.

Se nvidia abilitasse il supporto al vesa adaptive sync potrebbe usarlo.
appunto, ma nvidia non lo farà in tempi brevi... gli conviene più vendersi la scheda video e prendere una AMD!

Giovamas
28-01-2016, 09:54
Con il suo monitor non c'è nessuna differenza tra freesync e gsync, anzi con gsync perderebbe 2-3 fps con freesync no.

Se nvidia abilitasse il supporto al vesa adaptive sync potrebbe usarlo.

Uhm interessante grazie per l'info :) . Mi documento meglio.

oZonoRobotics
28-01-2016, 09:57
ne hai di spazio :D
Credo che a quel punto il rog lo cestineresti comunque, poiché ti scoccerebbe di switchare, se con il 21:9 ci fai tutto.
A meno che non sia un chiodo come lag, non credo che ne risentiresti in multiplayer. Vai su tftcentral, e vedi quanto lag hanno gli IPS Acer (gsync)

appunto, ma nvidia non lo farà in tempi brevi... gli conviene più vendersi la scheda video e prendere una AMD!


a dire il vero non ho tanto spazio, ma basta metter il rog davanti e l'ips dietro, il rog lo sposti a destra quando vuoi giocare con il 21/9 e via...

io son costretto a tenere il tn perchè gioco "competitive" (for fun ma competitive diciamo) e ogni tanto mi rendo conto che tra la connessione e il monitor sono avvantaggiato rispetto agli altri lol :P con un ips parte di questo vantaggio sparirebbe :P in più il ghosting che ho visto su ips mettendoli uno vicino all'altro mi ha convinto a tenere il mio...

poi, piccolo aneddoto... ho sempre giocato a assassins creed, batman e robe simili sulla tv dal divano con il joypad... mentre the witcher 3 che ho divorato in 2 settimane (129 ore in due settimane) l'ho giocato sul monitor, l'altro giorno mi metto sul divano e metto su the witcher, voi non avete idea del "lag" della tv... mettevo la levetta a destra e l'omino si muoveva dopo 1 ora, e pensare che non mi ero accorto di niente sugli altri giochi... quindi la morale è che ti accorgi di qualcosa solo se hai provato qualcosa di meglio e ti ci sei abituato.... per questo dico che dopo essermi abituato ad un tn 144hz con zero ghosting, qualsiasi altra cosa provo mi sembra si porti dietro i colori quando muovi il mouse veloce in uno sparatutto in soggettiva, e il bello è che riesco a vedere i frame anche di un 144hz, quindi le cose sono due, o sono un superuomo o gli altri non prestano attenzione! :P (propenderei per la seconda situazione)

Goofy Goober
28-01-2016, 10:04
beh, io il mio rog tn non lo do via di sicuro, ho visto altri monitor dal vivo sia tn che ips e (sarà che mi ci sono abituato) ma li ho visti tutti peggiori...

sono scelte, come quella di cambiare scheda video.

io di monitor ne ho avuti diversi, ma soprattutto visti in funzione parecchi diversi, sinceramente di quelli di fascia molto alta e con gsync o freesync non ce n'era uno che mi ha fatto dire "basta tengo questo per sempre tutti gli altri sono schifio", incluso il mio Asus attuale, che tengo solo perchè tanto lo uso talmente poco che cambiarlo non lo ritengo un esborso utile.

oZonoRobotics
28-01-2016, 10:33
No, no.
Intendo che freesync, con una vga amd, sul suo monitor funziona esattamente come gsync.

E teoricamente nvidia potrebbe anche abilitarlo sulle sue vga, anzi se i produttori continuano a sfornare più monitor freesync che gsycn non è manco irrealistica come ipotesi.
Anche se nvidia forte del suo maggior market share potrebbe fregarsene.

si ma lui ha una nvidia, quindi penso gli vada meglio cambiare il monitor che la vga...

sono scelte, come quella di cambiare scheda video.

io di monitor ne ho avuti diversi, ma soprattutto visti in funzione parecchi diversi, sinceramente di quelli di fascia molto alta e con gsync o freesync non ce n'era uno che mi ha fatto dire "basta tengo questo per sempre tutti gli altri sono schifio", incluso il mio Asus attuale, che tengo solo perchè tanto lo uso talmente poco che cambiarlo non lo ritengo un esborso utile.

il discorso è, serve un sync che non sia vsync, indifferente sia g o free, giocare con il vsync secondo me non è giocare...

Goofy Goober
28-01-2016, 10:41
il discorso è, serve un sync che non sia vsync, indifferente sia g o free, giocare con il vsync secondo me non è giocare...

non esageriamo adesso.

fino al 2013 quindi nessuno al mondo aveva mai videogiocato?

d'accordo che l'impatto del gsync e del freesync è enorme, e cambia tanto il modo di fruire dei giochi rispetto a prima, ma ci sono cose ben più importanti per la fruizione dei giochi, fps medi prima di tutto, prima di elevare queste tecnologie a salvatori del gaming.

tra giocare a sulla soglia dei 30fps con gsync (che quindi finisce pure a disattivarsi) e giocare a 60fps fissi senza gsync, cosa preferisci? :D

son sempre scelte...

TigerTank
28-01-2016, 10:42
Cmq c'è da dire che come si cambiano schede video, si cambia monitor, soprattutto se si considera che anche i migliori monitor gaming con gsync/freesync finiscono a costare qualcosa in meno delle gpu di fascia alta attuali, e decisamente meno di quelle top di gamma più costose.

Vincolarsi alla spesa corposa della scheda video per via di un monitor facilmente sostituibile lo vedo come un controsenso.

Beh oddio...è un pò diverso Goofy.
Cambiare vga per maggiori prestazioni ci sta, senza andare a scomodare le ammiraglie tipo titan che imho son soldi buttati se si cambia ad ogni generazione...ma cambiare un monitor nuovo/recente solo per passare da gsync a freesync o viceversa lo vedo un pò eccessivo :D
Questo già con schermi da 700-800€....figuriamoci i 21:9 da gaming.
Quando sarà il momento di passare ad un OLED, magari da gaming...valuterò in base a come sarà la situazione in ambito vga...se amd(e quindi freesync) sarà diventata più competitiva e appetibile o se nvidia(e quindi gsync) deterrà ancora la supremazia come ora. Ma di sicuro sarà difficile che io molli prima del tempo lo schermo attuale per un altro ips solo per il freesync, a meno che le Polaris non si rivelino una rivoluzione prestazionale che asfalterà le Pascal :D


tra giocare a sulla soglia dei 30fps con gsync (che quindi finisce pure a disattivarsi) e giocare a 60fps fissi senza gsync, cosa preferisci? :D


60fps in su con gsync, disattivando eventualmente certi effetti mattone troppo dispendiosi ed imho secondari....tipo le ombre ultra e simili :fagiano:
Ogni tanto riprovo a giocare sull'altro ips(oltretutto bypassato) 60Hz che ho tenuto come secondario, ma non ce n'è....non tornerei mai indietro :D

In ogni caso come detto sopra...aspettiamo le future schede, solo allora si potrà valutare il tutto adeguatamente.

Goofy Goober
28-01-2016, 10:53
lo vedo un pò eccessivo :D


in realtà non abbiamo detto la "soluzione" più stupida e banale di tutte, che è molto meno eccessiva del cambiar monitor, e, soprattutto, del cambiare scheda video di continuo....

avere due monitor, uno Gsync e uno Freesync.

mi sa che farò proprio così :D

oZonoRobotics
28-01-2016, 11:00
non esageriamo adesso.

fino al 2013 quindi nessuno al mondo aveva mai videogiocato?

d'accordo che l'impatto del gsync e del freesync è enorme, e cambia tanto il modo di fruire dei giochi rispetto a prima, ma ci sono cose ben più importanti per la fruizione dei giochi, fps medi prima di tutto, prima di elevare queste tecnologie a salvatori del gaming.

tra giocare a sulla soglia dei 30fps con gsync (che quindi finisce pure a disattivarsi) e giocare a 60fps fissi senza gsync, cosa preferisci? :D

son sempre scelte...

se devo giocare ad uno sparatutto in soggettiva se non ho 144 fissi o quasi non gioco... the witcher 3 l'ho giocato a 65/90 fps e me lo son goduto, ma giocavo con il joypad... quindi non puoi mirare a destra o sinistra veloce come con il mouse... se avessi fatto 144 fps l'avrei giocato con mouse e tastiera...

rainbow six siege l'ho giocato tutto off/medium perchè lo sli non funzionava ma avevo 144 praticamente fissi

sarò io strano ad aver sempre dovuto abbassare i dettagli per avere i canonici 60hz fissi... perchè il tearing non l'ho mai potuto sopportare... accettando lo stuttering, input lag e i dettagli bassi pur con schede top gamma per l'epoca...

penso che se uno gioca parecchio e gli dai un monitor con "adaptive sync" dopo 1 mese non può più tornare indietro... senza adaptive sync (gsync nel mio caso) io non giocherei fino a che non posso riavere un monitor adaptive sync...

TigerTank
28-01-2016, 11:34
in realtà non abbiamo detto la "soluzione" più stupida e banale di tutte, che è molto meno eccessiva del cambiar monitor, e, soprattutto, del cambiare scheda video di continuo....

avere due monitor, uno Gsync e uno Freesync.

mi sa che farò proprio così :D

Sai quale sarebbe la soluzione migliore? Uno standard unico ed universale che funzioni su entrambi i fronti....purtroppo però il marketing va sempre nella direzione opposta. :muro:
Auguriamoci che in futuro non succeda una cosa simile pure con le API perchè ci mancherebbe solo di avere giochi che vanno solo con amd o con nvidia :doh:

AceGranger
28-01-2016, 12:00
Mi sembra lapalissiano.

Idem sopra. Mercato for dummies?

E usciamoli 'sti 1500 euro per una scheda. Non facciamo il braccino corto :rolleyes:
Dai ragazzi...

puoi prendere anche una GPU inferiore è.... la GPU Top per il videogiocatore al prezzo"giusto" c'è sempre stata, la 780Ti / 980Ti, quello che sara Ti.

la Titan è sempre stata una GPU via di mezzo fra il mercato Gaming e Pro e da li ha preso il suo prezzo, e prestazionalmente parlando per il Gaming non cambia una fava con la 980Ti.

se il prezzo è troppo alto e non ti sta bene perchè non sfrutti quello che ti da in piu basta non comprarla, la 980 Ti la fanno per quello.

oZonoRobotics
28-01-2016, 12:17
puoi prendere anche una GPU inferiore è.... la GPU Top per il videogiocatore al prezzo"giusto" c'è sempre stata, la 780Ti / 980Ti, quello che sara Ti.

la Titan è sempre stata una GPU via di mezzo fra il mercato Gaming e Pro e da li ha preso il suo prezzo, e prestazionalmente parlando per il Gaming non cambia una fava con la 980Ti.

se il prezzo è troppo alto e non ti sta bene perchè non sfrutti quello che ti da in piu basta non comprarla, la 980 Ti la fanno per quello.

è che ovviamente la fanno uscire prima così chi ha donkeykong sulle spalle caccia la pecunia... e quest'anno in base a quando esce la titan e a quanto va di più rispetto una 980ti potrei farla pure io la follia... ma deve andare come due 980ti se no non merita

Goofy Goober
28-01-2016, 12:20
se devo giocare ad uno sparatutto in soggettiva se non ho 144 fissi o quasi non gioco...

ok, quindi fino a nemmeno tanti mesi fa non giocavi a nulla visto che i monitor 144hz manco c'erano. :D

sarò io strano ad aver sempre dovuto abbassare i dettagli per avere i canonici 60hz fissi...

non sei strano, preferivi aver quel risultato piuttosto che un altro.

penso che se uno gioca parecchio e gli dai un monitor con "adaptive sync" dopo 1 mese non può più tornare indietro...

l'adaptive non è l'opzione dei driver nvidia che funziona a prescindere dal pannello?

senza adaptive sync (gsync nel mio caso) io non giocherei fino a che non posso riavere un monitor adaptive sync...

come prima, che estremizzazione (ed estremizzare non fa mai bene) incredibile.

a me piace videogiocare, figurarsi se smetto di videogiocare del tutto se mi scoppiasse l'Asus.
allora vuol dire che del videogiocare come passatempo non me ne frega nulla, ma mi frega avere un pc che "gira" esattamente come dico io.

se ti piace guidare in pista ci vai anche con la Uno turbo o il 106rally, non aspetti di avere sempre pronto un caterham CSR o una Bac mono. :fagiano:

ti posso solo consigliare di goderti più i giochi per quello che sono, piuttosto che focalizzarti sugli hz dello schermo. :)

Sai quale sarebbe la soluzione migliore? Uno standard unico ed universale che funzioni su entrambi i fronti.

verissimo.

purtroppo mi sa che per ancora del tempo avremo i due "fronti" di monitor a tencologie sync diverse a spartirsi il mercato degli appassionati.

Legolas84
28-01-2016, 12:21
Il mitico G80 quando è uscito costava 650 euro, 10 anni fa.... Ovvero quanto costa oggi una 980Ti.....

Imho le uniche schede che sono andate davvero fuori di testa sono le Titan, che in teoria in precedenza erano schede gaming ma che facevano anche capolino nel mercato pro... ora invece l'ultima uscita è una scheda senza senso in quanto di pro se non sbaglio non ha nulla, ed è solo gaming ad un prezzo che è fuori mercato (infatti per me è come se proprio non esistesse).

fireradeon
28-01-2016, 12:25
puoi prendere anche una GPU inferiore è.... la GPU Top per il videogiocatore al prezzo"giusto" c'è sempre stata, la 780Ti / 980Ti, quello che sara Ti.

la Titan è sempre stata una GPU via di mezzo fra il mercato Gaming e Pro e da li ha preso il suo prezzo, e prestazionalmente parlando per il Gaming non cambia una fava con la 980Ti.

se il prezzo è troppo alto e non ti sta bene perchè non sfrutti quello che ti da in piu basta non comprarla, la 980 Ti la fanno per quello.

è che ovviamente la fanno uscire prima così chi ha donkeykong sulle spalle caccia la pecunia... e quest'anno in base a quando esce la titan e a quanto va di più rispetto una 980ti potrei farla pure io la follia... ma deve andare come due 980ti se no non merita

Avete ragione entrambi. Difatti quest'anno siccome abbiamo mangiato la foglia (con titan e titan X) e loro lo sanno, quel rumors che parla di Titan Max ad Aprile e 1080Ti nel 2017 potrebbe essere fatto apposta, così chi vuole il top sgancia ora, gli altri aspettano il 2017 quando la 1080Ti sarà potente quanto la Titan Max ma a costo inferiore (ma per risparmiare devi aspettare 1 anno). Se davvero è così sono dei geni del male alla nVidia, perchè io per primo che sono intenzionato da tempo a prendere uno sli di Pascal per poi stare apposto almeno 2 anni, ora mi trovo spiazzato e dovrò decidere se prendere la Titan nuova o fare uno sli di 980Ti fino al 2017.
Se la nuova Titan va quanto 2 980Ti, faccio prima a prendere un'altra G1 980Ti e aspettare il 2017, se va ancora di più, vendo la 980Ti e prendo la Titan.

oZonoRobotics
28-01-2016, 12:33
ok, quindi fino a nemmeno tanti mesi fa non giocavi a nulla visto che i monitor 144hz manco c'erano. :D



non sei strano, preferivi aver quel risultato piuttosto che un altro.



l'adaptive non è l'opzione dei driver nvidia che funziona a prescindere dal pannello?



come prima, che estremizzazione (ed estremizzare non fa mai bene) incredibile.

a me piace videogiocare, figurarsi se smetto di videogiocare del tutto se mi scoppiasse l'Asus.
allora vuol dire che del videogiocare come passatempo non me ne frega nulla, ma mi frega avere un pc che "gira" esattamente come dico io.

se ti piace guidare in pista ci vai anche con la Uno turbo o il 106rally, non aspetti di avere sempre pronto un caterham CSR o una Bac mono. :fagiano:

ti posso solo consigliare di goderti più i giochi per quello che sono, piuttosto che focalizzarti sugli hz dello schermo. :)



verissimo.

purtroppo mi sa che per ancora del tempo avremo i due "fronti" di monitor a tencologie sync diverse a spartirsi il mercato degli appassionati.

ho appena detto che una volta giocavo a 60hz perchè ignoravo i 144hz, dopo è venuto 1 anno e mezzo fa un mio amico a casa con un samsung 144hz e ho preso un asus vg qualcosa 144hz 1080p senza gsync, dopo lo stesso disgrazieto è tornato a casa mia con il rog e mi ha fatto vendere il mio per il gsync che mi ha impressionato, mai più avrei pensato di spendere 700 euro per un monitor, ma è stata una cosa automatica e impossibile da evitare...

lui per adaptive sync intende un sync che adatta i frame in base a quelli veramente generati ldalla vga ovvero gsync e free sync, son d'accordo pure io che adaptive sync è quello nelle impostazioni :P

il ragionamento che fai tu sull'uno turbo è come se ti dicessi ora di giocare con una xboxone o una playstation... ci giocheresti? io no

e non è il numerino in overlay che mi dice se son figo o no, è che con mouse e tastiera 144hz, ora che mi ci sono abituato, vedo "normale", siccome avere fissi 144hz è impossibile, menomale che esiste il gsync... senza avrei tutti i problemi che avevo con il monitor 144hz 1080p senza gsync... che era come non avere i 144hz praticamente

Goofy Goober
28-01-2016, 12:41
Il mitico G80 quando è uscito costava 650 euro, 10 anni fa....

solo lui però... (ma era il listino 649$ ? )

le 295gtx venivano tra i 449 e 499€, il listino stesso in italia era 499€ mi pare, per quelle schede DUAL gpu.
figurarsi quanto meno costavano le top di gamma di allora da cui derivavano poi le dual.
quattro schede video di allora (due dual) ed erano meno dindi di due top "lisce" di adesso.

e le 480 e 580gtx erano a 499€ sempre. sopra di loro il nulla, a parte la prima dual gpu dell'epoca, la 590.


il ragionamento che fai tu sull'uno turbo è come se ti dicessi ora di giocare con una xboxone o una playstation... ci giocheresti? io no


io già ci gioco, pure sulle console Nintendo, perchè ci sono giochi che su pc non esistono.

il pc è solo hardware.
da solo non serve proprio a niente videoludicamente parlando, ci devi metter il software, o sbaglio?
venderei tutto il mio pc da gioco seduta stante piuttosto che rinunciare a dei giochi fantastici che purtroppo escono solo su console.

Legolas84
28-01-2016, 12:50
Bo a me la 480 mi pare che l`ho pagata di più di 499 euro.... ma non ricordo bene....

Mi ricordavo di G80 perchè la presi al day one con uno streetprice di appunto 650 euro, ma le altre schede le ho sempre prese dopo un pò pagandole un pò meno....

Goofy Goober
28-01-2016, 12:52
Bo a me la 480 mi pare che l`ho pagata di più di 499 euro.... ma non ricordo bene....

Mi ricordavo di G80 perchè la presi al day one con uno streetprice di appunto 650 euro, ma le altre schede le ho sempre prese dopo un pò pagandole un pò meno....

io parlo di listini.

purtroppo i negozi ladroni (come quelli più convenienti) ci sono sempre stati.

480 e 580 erano entrambe a 499 di listino.
la 295 mi pare di ricordare 449 ma potrei sbagliare (c'è la rece in archivio qui su hwup che riporta i prezzi).

oZonoRobotics
28-01-2016, 12:54
solo lui però... (ma era il listino 649$ ? )

le 295gtx venivano tra i 449 e 499€, il listino stesso in italia era 499€ mi pare, per quelle schede DUAL gpu.
figurarsi quanto meno costavano le top di gamma di allora da cui derivavano poi le dual.
quattro schede video di allora (due dual) ed erano meno dindi di due top "lisce" di adesso.

e le 480 e 580gtx erano a 499€ sempre. sopra di loro il nulla, a parte la prima dual gpu dell'epoca, la 590.



io già ci gioco, pure sulle console Nintendo, perchè ci sono giochi che su pc non esistono.

il pc è solo hardware.
da solo non serve proprio a niente videoludicamente parlando, ci devi metter il software, o sbaglio?
venderei tutto il mio pc da gioco seduta stante piuttosto che rinunciare a dei giochi fantastici che purtroppo escono solo su console.

ovvio che bisogna metter il software, ma mi sembra che apparte qualche raro titolo sia tutti porting che arrivano anche su pc...

esclusive nintendo ok son solo su wii u...

io dico questo, un gioco come bf4 su console non lo giocherei mai più, un mario kart su wii ok

Goofy Goober
28-01-2016, 13:04
ovvio che bisogna metter il software, ma mi sembra che apparte qualche raro titolo sia tutti porting che arrivano anche su pc...

sarà che a me solitamente i giochi che son porting sono proprio quelli che mi piacciono meno.
o meglio, più che parlare di porting è meglio parlare di multipiattaforma.

esclusive nintendo ok son solo su wii u...

io dico questo, un gioco come bf4 su console non lo giocherei mai più, un mario kart su wii ok

gioco a pochissimi FPS (quasi nessuno ormai), e nessuno sparatutto online.
su One mi sfondo a Forza Motorsport da tanti anni, in single player ma soprattutto online, e non ho nessuna alternativa che mi piaccia su pc (PCars, Assetto Corsa, tutto molto bello ma non mi piacciono).
prima avevo GT su PS, adesso sono in attesa di qualcosa di valido anche qui.
prima che sbarcassero anche su PC su console Sony mi facevo gli FF (poi diventati lo schifo e anche multipiatta, guardacaso....).

cmq senza stare a fare un elenco di giochi che qui è anche OT, il discorso è che tantissime volte mi son ritrovato il pc ad accumulare polvere perchè i giochi che mi interessavano sul serio erano altrove, e con poco tempo disponibile o si fa uno o si fa l'altro.

in questi ultimi anni seppur mi faccia piacere che il gaming su pc si stia allargando e riprendendo fortemente rispetto ad anni fa, di contro il marketing asfissiante e le politiche di prezzi dei produttori hardware, in particolare schede madri e schede video (Nvidia sta tranquillamente la top di questa black list), mi stanno lentamente facendo passare la voglia di restare in questo ambiente... almeno per quanto riguarda il gaming (la passione per l'hardware di per se l'avrò sempre).

Legolas84
28-01-2016, 13:05
io parlo di listini.

purtroppo i negozi ladroni (come quelli più convenienti) ci sono sempre stati.

480 e 580 erano entrambe a 499 di listino.
la 295 mi pare di ricordare 449 ma potrei sbagliare (c'è la rece in archivio qui su hwup che riporta i prezzi).

Sisi, ma io prendo sempre da quelli convenienti, possibilmente schede con garanzia diretta. In questo le Galax sono fantastiche.... economiche e con garanzia diretta :D

Giovamas
28-01-2016, 13:25
Non lo so sai, lui ha un Eizo XL2730Z che costa tanto quanto una 980ti o una fury x, cambiare uno o l'altro in termini economici è indifferente.
Sono scelte che vanno a gusti e a convenienza.
Una vga usata come la 980ti la si rivende sicuro a un buon prezzo, sulla facilità di rivendere un monitor del genere non sono informato.



Ti quoto :) Il monitor in effetti me lo tengo mi trovo troppo bene. Con le nuove VGA vedremo. Io sono fiducioso anche in AMD a questo giro e poi chissà che anche nvidia non faccia qualcosa in freesinc. Detto tra noi, io volevo l'Asus 279 ma visto i problemi ho rinunciato. Per dove risiedo, l'RMA è ingestibile le spese di spedizioni sono "stellari".

nicola1283
28-01-2016, 13:58
Che figata! Perfetta per dominare i porting farciti di gameworks, in fullHD e settaggi ultra(HBAO+++, PCSS++++++, ecc...) :cool: :sofico:
Mi si aprono 2 scenari davanti:
-una seconda gtx980Ti d'occasione e si va alle 1080Ti.
-Sli di 1070.

Vedremo un pò...io sinceramente per la fine di quest'anno vorrei vedere anche qualche evoluzione con dx12 e simili, basta porting da console farciti di effetti grafici per pc.

Tiger questa volta fai la scelta giusta fatti lo sli di 1070 non singola 1080 :D

TigerTank
28-01-2016, 14:40
ma c'è già :stordita:
...solo che nvidia non si adatta allo standard

per il resto la penso esattamente come Goofy Goober: TLOU, Metal Gear ecc non ci sono sul PC e le prestazioni o la grafica non devono essere la causa di una scelta videoludica, se pensiamo che meriti di essere vissuta...

la realtà del perché personalmente non ho mai comprato un 144hz è per il prezzo che deve avere il resto della componentistica hardware!
un conto è giocare a 60hz, bene ho male tutti ci arrivano, a 120/144hz direi proprio di no, cpu in primis...

Ehm....prestazioni e grafica su pc sono fondamentali se vuoi goderti un gaming che le console non ti offrono di certo, tra risoluzioni over fullHD e filtri grafici vari.
Il gaming su pc si distingue dalle console proprio per queste possibilità, soprattutto se parliamo di livelli che appunto includano cose come 1440p e 4K, 144-165Hz, freesync-gsync, ecc... :)

Per il resto se scegli di prendere un monitor da gaming è ovvio che devi premettere anche un certo investimento in nuove schede video...e avere sotto un sistema cpu-mobo-ram che non faccia da tappo alla gpu, o più importante ancora in caso di multigpu. Questo è quanto e devi valutarlo tu altrimenti tanto vale restare su un classico 60Hz, fullHD o 1440p.
E' come prendere un'auto sportiva o di grossa cilindrata...se te la vuoi godere per bene e sfruttarla sai a priori che in benzina ti costerà molto più di un'utilitaria a basso consumo.

Circa lo standard, certo che c'è....si chiama adaptive-sync/freesync ma le cose stanno come stanno...e cioè che lo puoi usare solo con le amd.
Il punto purtroppo è che imho, a parte il fatto che il gsync rende meglio perchè il freesync soffre ancora di qualche problemino di ghosting, le ultime AMD non sono state per nulla appetibili....tant'è che AMD nel 2015 ha perso una grossa fetta di mercato. :doh:
Da aggiungere anche che in quanto a monitor da gaming mentre uscivano i primi 144Hz ips gsync, gli equivalenti freesync stavano ancora su TN (vedi acer XB270HU vs XG270HU) a compensazione di quei problemini di reattività...altro elemento che ha determinato non poco la scelta tra le nuove vga.
Resta da vedere l'evolversi del tutto nel corso del 2016.

Tiger questa volta fai la scelta giusta fatti lo sli di 1070 non singola 1080 :D
Guarda non saprei proprio, sinceramente mi trovo meglio con la singola scheda liquidata...intanto vediamo come saranno le nuove, da entrambe le parti e poi si vedrà :D
Magari finisce anche che tiro con la Ti attuale(che comunque va benone) fino alle nuove Ti.

EDIT: circa le 1070 speriamo non ci siano sorpresine di vram come con le gtx970 :fagiano:

nicola1283
28-01-2016, 14:59
Ehm....prestazioni e grafica su pc sono fondamentali se vuoi goderti un gaming che le console non ti offrono di certo, tra risoluzioni over fullHD e filtri grafici vari.
Il gaming su pc si distingue dalle console proprio per queste possibilità, soprattutto se parliamo di livelli che appunto includano cose come 1440p e 4K, 144-165Hz, freesync-gsync, ecc... :)

Per il resto se scegli di prendere un monitor da gaming è ovvio che devi premettere anche un certo investimento in nuove schede video...e avere sotto un sistema cpu-mobo-ram che non faccia da tappo alla gpu, o più importante ancora in caso di multigpu. Questo è quanto e devi valutarlo tu altrimenti tanto vale restare su un classico 60Hz, fullHD o 1440p.
E' come prendere un'auto sportiva o di grossa cilindrata...se te la vuoi godere per bene e sfruttarla sai a priori che in benzina ti costerà molto più di un'utilitaria a basso consumo.

Circa lo standard, certo che c'è....si chiama adaptive-sync/freesync ma le cose stanno come stanno...e cioè che lo puoi usare solo con le amd.
Il punto purtroppo è che imho, a parte il fatto che il gsync rende meglio perchè il freesync soffre ancora di qualche problemino di ghosting, le ultime AMD non sono state per nulla appetibili....tant'è che AMD nel 2015 ha perso una grossa fetta di mercato. :doh:
Da aggiungere anche che in quanto a monitor da gaming mentre uscivano i primi 144Hz ips gsync, gli equivalenti freesync stavano ancora su TN (vedi acer XB270HU vs XG270HU) a compensazione di quei problemini di reattività...altro elemento che ha determinato non poco la scelta tra le nuove vga.
Resta da vedere l'evolversi del tutto nel corso del 2016.


Guarda non saprei proprio, sinceramente mi trovo meglio con la singola scheda liquidata...intanto vediamo come saranno le nuove, da entrambe le parti e poi si vedrà :D
Magari finisce anche che tiro con la Ti attuale(che comunque va benone) fino alle nuove Ti.

EDIT: circa le 1070 speriamo non ci siano sorpresine di vram come con le gtx970 :fagiano:

Hahahahahhaah

beatl
28-01-2016, 15:01
Avete ragione entrambi. Difatti quest'anno siccome abbiamo mangiato la foglia (con titan e titan X) e loro lo sanno, quel rumors che parla di Titan Max ad Aprile e 1080Ti nel 2017 potrebbe essere fatto apposta, così chi vuole il top sgancia ora, gli altri aspettano il 2017 quando la 1080Ti sarà potente quanto la Titan Max ma a costo inferiore (ma per risparmiare devi aspettare 1 anno). Se davvero è così sono dei geni del male alla nVidia, perchè io per primo che sono intenzionato da tempo a prendere uno sli di Pascal per poi stare apposto almeno 2 anni, ora mi trovo spiazzato e dovrò decidere se prendere la Titan nuova o fare uno sli di 980Ti fino al 2017.
Se la nuova Titan va quanto 2 980Ti, faccio prima a prendere un'altra G1 980Ti e aspettare il 2017, se va ancora di più, vendo la 980Ti e prendo la Titan.


Sono dei geni del marketing e fanno un sacco di soldi .. ma io stavolta passo fino alla nuova Ti ...

Giovamas
28-01-2016, 15:05
Guarda non saprei proprio, sinceramente mi trovo meglio con la singola scheda liquidata...intanto vediamo come saranno le nuove, da entrambe le parti e poi si vedrà :D
Magari finisce anche che tiro con la Ti attuale(che comunque va benone) fino alle nuove Ti.

EDIT: circa le 1070 speriamo non ci siano sorpresine di vram come con le gtx970 :fagiano:

Tiger io e te siamo i "puristi" della singola non mollare fratello :) :D La mia idea è si di tirare fino alle nuove Ti. Con 6Gbyte ci si dovrebbe fare anche se BlackOp3 almeno a me li satura. Certo che 2017 avanzato è tanta roba. Vediamo che forse escono prima.

nicola1283
28-01-2016, 15:14
Tiger io e te siamo i "puristi" della singola non mollare fratello :) :D La mia idea è si di tirare fino alle nuove Ti. Con 6Gbyte ci si dovrebbe fare anche se BlackOp3 almeno a me li satura. Certo che 2017 avanzato è tanta roba. Vediamo che forse escono prima.

mmm se tirano fuori qualcosa in dx 12 ed e' vero che la Vram si somma, io mi ritroverei con una bella potenza di calcolo + 8 GB di Vram (7+1 :) ) stessa cosa succederebbe a voi con la seconda 980 ti ;)

The_SaN
28-01-2016, 15:15
puoi prendere anche una GPU inferiore è.... la GPU Top per il videogiocatore al prezzo"giusto" c'è sempre stata, la 780Ti / 980Ti, quello che sara Ti.

la Titan è sempre stata una GPU via di mezzo fra il mercato Gaming e Pro e da li ha preso il suo prezzo, e prestazionalmente parlando per il Gaming non cambia una fava con la 980Ti.

se il prezzo è troppo alto e non ti sta bene perchè non sfrutti quello che ti da in piu basta non comprarla, la 980 Ti la fanno per quello.Mi sa che non hai capito il mio discorso.

Le fasce di prezzo sono sempre rimaste invariate da anni e anni...da che mondo è mondo le schede top di gamma costavano l'equivalente a 600 euro.
Poi è stata introdotta la fascia "ibrida" delle Titan (1000 euro), cosa buona e giusta, anche se l'ultimo modello ha ben poco di Titan (RAM a parte).

Il mio discorso si focalizzava sul fatto che i 1500 euro fossero una cosa giustificabile dalle prestazioni. NON LO SONO!
Il ricambio generazionale è sempre stato rispettato: prezzo invariato, prestazioni migliorate. Perchè ora non dovrebbe più essere così?

Sembra quasi che la Titan abbia aperto un precedente rischioso, quello di giustificare nuovi aumenti di prezzo. Invece la Titan è una scheda a parte, e come tale deve essere trattata. E ha una fascia di prezzo ben definita, che deve rimanere invariata.

TigerTank
28-01-2016, 15:46
Tiger io e te siamo i "puristi" della singola non mollare fratello :) :D La mia idea è si di tirare fino alle nuove Ti. Con 6Gbyte ci si dovrebbe fare anche se BlackOp3 almeno a me li satura. Certo che 2017 avanzato è tanta roba. Vediamo che forse escono prima.

Eheheh io un paio di Sli li ho fatti in passato solo che tra prezzi attuali e certi porting-mattone, piuttosto che prendere una seconda scheda per giocare sopra ai 60fps con tutto maxato per forza, preferisco stare in singola e scremare gli effetti mattone imho secondari(ombre ultra, effetti blur dinamici, eventuale ambient occlusion, tessellazione estrema, ecc...) trovando un buon equilibrio tra buona grafica e buon framerate+gsync. Ed essendo a 1440p magari anche usando l'smaa invece dell'msaa, un bel mattone a questa risoluzione. Poi certo...con i giochi leggeri/vecchi al contrario ci si da dentro di dsr :D
Sì 6GB sono un ottimo quantitativo, la gtx980Ti è molto equilibrata come rapporto potenza-vram :)

mmm se tirano fuori qualcosa in dx 12 ed e' vero che la Vram si somma, io mi ritroverei con una bella potenza di calcolo + 8 GB di Vram (7+1 :) ) stessa cosa succederebbe a voi con la seconda 980 ti ;)

Già...questa sarebbe sicuramente una bella cosa, anche se la vram non si sommasse. Ma almeno accanto a nuovi processi produttivi, HBM2 e quant'altro avremmo anche una giusta evoluzione software...che con le Polaris/Pascal motiverebbe quel "directx 12" scritto già sulle scatole di quelle attuali :D

AceGranger
28-01-2016, 16:59
Mi sa che non hai capito il mio discorso.

Le fasce di prezzo sono sempre rimaste invariate da anni e anni...da che mondo è mondo le schede top di gamma costavano l'equivalente a 600 euro.
Poi è stata introdotta la fascia "ibrida" delle Titan (1000 euro), cosa buona e giusta, anche se l'ultimo modello ha ben poco di Titan (RAM a parte).



l'ultimo modello è esattamente una Titan stile Vecchia che è esattamente come la Tesla, dove nemmeno lei ha i calcoli DP sbloccati visto che non li ha proprio il chip


Il mio discorso si focalizzava sul fatto che i 1500 euro fossero una cosa giustificabile dalle prestazioni. NON LO SONO!


non lo sono perchè a TE non servono 12 Gb di ram, per chi le sfrutta le 1050 euro della Titan X le valgono tutte fino all'ultimo euro.

per i GAMER c'è la 980Ti.


Sembra quasi che la Titan abbia aperto un precedente rischioso, quello di giustificare nuovi aumenti di prezzo. Invece la Titan è una scheda a parte, e come tale deve essere trattata. E ha una fascia di prezzo ben definita, che deve rimanere invariata.

la Titan ha Creato una nuova fascia che prima non c'era sopra la Gaming dove c'è gente che necessita di alcune caratteristiche delle schede pro senza pero dover pagare nmila euro in piu per altre feature inutili.


il prezzo ci sta.

The_SaN
28-01-2016, 17:30
l'ultimo modello è esattamente una Titan stile Vecchia che è esattamente come la Tesla, dove nemmeno lei ha i calcoli DP sbloccati visto che non li ha proprio il chipInfatti pure le Tesla oggi sono "mezze Tesla", perchè hanno castrato in modo assurdo il DP.


non lo sono perchè a TE non servono 12 Gb di ram, per chi le sfrutta le 1050 euro della Titan X le valgono tutte fino all'ultimo euro.

per i GAMER c'è la 980Ti.O sei fissato, oppure parlo arabo. C'è un problema di comunicazione.

IO STO DICENDO CHE NON GIUSTIFICO UN SOVRAPPREZZO DEL 50% SU UNA FASCIA CHE OGGI È PREZZATA 1000 EURO. (scusa il caps ma forse così mi faccio capire)

La Titan ha un suo perchè, e sopra l'ho spiegato. Non leggiamo le cose a metà, dai...


la Titan ha Creato una nuova fascia che prima non c'era sopra la Gaming dove c'è gente che necessita di alcune caratteristiche delle schede pro senza pero dover pagare nmila euro in piu per altre feature inutili.


il prezzo ci sta.Idem sopra. I 1000 euro della Titan sono giustificabili, farla costare 1500 euro perchè va più della versione vecchia NO.

TigerTank
28-01-2016, 17:58
le prestazioni e la grafica non dicono nulla se il gioco non è all'altezza e non mi piace.
gioco al PC (nell'ultimo periodo no per scelta) anche per l'interfaccia, mouse e tastiera, ma c'erano giochi che su PC non ci saranno mai, cosa facevo non prendevo la PS3 per questioni di grafica o fps?

la grafica e le prestazioni devono essere un plus, non una prerogativa, certo capisco il ragionamento e se ho il PC voglio che giri maxato in 4k a 144hz (sparo), giustissimo, ma poi gioco a qualcosa che non mi piace o che posso farne a meno? no è sbagliato.
se non ho problemi economici è un conto e investo nel top, ma se non posso investire più di tot esistono dei compromessi.


Ma queste sono tue scelte lecite e personali, io ho considerato la situazione generale tra possibilità offerte dal gaming su pc e correlazione tra la scelta di un monitor da gaming e l'adeguatezza del comparto grafico.
Circa il tuo esempio ok il compromesso della tua auto, ma il mio discorso significava che se hai un comparto grafico che ad esempio arranca già a 1440p 60Hz, prendere un 1440p da gaming vuol dire mettere in conto un upgrade del comparto grafico nel breve termine altrimenti la cosa avrebbe poco senso :)


sui monitor, l'unico vero motivo che posso condividere è che gsync è uscito prima, ma le tecnologie sono identiche. il problema del ghosting sugli ultimi monitor non sussiste, ma non era un problema del freesync ma dei pannelli che usavano, per di più può funzionare dai 9 ai 240 hz, ma anche li è il produttore che decide.

che poi attualmente chi sceglie nvidia come gpu sia costretto a comprare un monitor gsync non è mica colpa del fatto che le gpu amd sono poco "appetibili": non è mica colpa di amd e delle sue gpu se freesync non funziona con nvidia!

tra l'altro a parità di qualità freesync costa e costerà ovviamente meno: è uscito da poco un monitor, di cui non ricordo il nome, dove l'analogo con gsync costa 100~150€ in più ed è identico...

Sì ma non ce n'è, possiamo parlare di parità di tecnologia, di maggior convenienza del freesync come standard vesa, di quanto sia rognosa l'esclusività delle tecnologie proprietarie, e di quant'altro...ma sta di fatto che a questo giro le schede che hanno fatto il botto sono le gtx970(nonostante lo "scandalo" della vram ora sono pure al primo posto nelle statistiche di Steam) e le gtx980Ti...a cui va aggiunto il fatto che i primi AHVA da gaming siano stati gsync. Credo che non basti la maggior convenienza, di sicuro influirà in gran parte la bontà delle future schede( e dei drivers) ;)

AceGranger
28-01-2016, 19:10
Infatti pure le Tesla oggi sono "mezze Tesla", perchè hanno castrato in modo assurdo il DP.


non è castrato, non c'è proprio, non è la prima TESLA indirizzata espressamente al calcolo FP32 e non sara l'ultima; e stesso discorso vale per le QUADRO, compresa quella di punta da 3000 euro, o quella poco sotto da 1800.

Hai una visione abbastanza ristretta e totalmente sbagliata sul tipo di calcolo richiesto dai software del segmento Pro; l'FP64 in campo Pro è sicuramente importante, ma non gira tutto attorno a quello è.... anzi, è necessario ad una cerchia ristretta di software ed ambiti, e con Pascal arrivera persino il mixed FP16....
il grosso della TESLA/QUADRO viene impiegato per calcoli FP32.


Idem sopra. I 1000 euro della Titan sono giustificabili, farla costare 1500 euro perchè va più della versione vecchia NO.

tralasciando il fatto che anche al Titan X è arrivata sul mercato a 1300 euro e poi si è assestata sul prezzo della vecchia ( ceh anceh lei era partita intorno ai 1100-1200 ), dipendera da cosa offrira in piu rispetto all'attuale, perchè se arrivera molto piu prestante, con 16 Gb HBM2 e magari pure l'NVlink fra schede abilitato ( questo dubito pero non si sa mai ), per tutta l'utenza che la sfruttera per il GPGPU varra fino all'ultimo euro anche a 1500, anche perchè l'alternativa è spenderne 3000....

poi oh, anche io sarei piu contento a vederla intorno a 1000, e non penso che la proporranno a 1500 anche se, 16 Gb HBM2 ( che rumor danno come dotazione di memoria ) non devono proprio essere economici come 12 Gb di DDR5....

poi per te per giocare no, difatti ti faranno la Ti che è la GPU Top perfetta per il Gamer che costera come è sempre costata la fascia TOP per Gamer... dipende sempre cosa uno ci deve fare, il "giustificabile" in questo caso ha un range molto ampio visto che la scheda è molto apprezzata anche in alcuni ambiti lavorativi.

FreeMan
28-01-2016, 20:16
ogni volta che leggo ste caxxate mi sbellico dalle risate :rotfl:

risposta seria:
è la risposta del mercato alla pubblicità, al marketing ed all'ostruzionismo nel 97% dei casi


risposta ironica:
gli zingari (semicit.)

meglio sottolineare i toni :asd:



...ma guarda cosa devo leggere, la fascia da 500€ sarebbe la fascia mainstream, quella che fa i numeri per cui amd ha perso lo share negli ultimi 5 anni tra l'altro :read:
perché tu rispecchi tutto il mercato e la fetta più grande, giusto, mi sembra corretto...

ma secondo te un babbo nutelloso che entra nel negozio megapower tutto verde con 3 scatole rosse cosa compra?

ma flame de che, e che non vi sopporto più iniziate ad essere davvero insopportabili!

su questo concordo, ci sono proprio dei bei fenomeni va :asd:

ma poi cosa c'entra lo share o la risposta al mercato ad un prodotto, che tra l'altro manco sapevi del 40% fino a 18 mesi fa...
se un prodotto non vende non significa che il motivo sia uno solo...

ps. ma dov'eri nell'epoca di fermi e kepler?
paradossalmente nell'epoca fermi la top nvidia avevano prestazioni superiori alla top amd, ma consumava anche di più, ora le prestazioni sono allineate in tutte le fasce, la differenza sostanziale la fa la fascia delle 970 e 980 dove amd fa gli stessi numeri con consumi superiori

Desktop GPU Performance Hierarchy Table (http://www.tomshardware.com/reviews/gpu-hierarchy,4388.html)

Se non sopporti allora usi l' ignore list e cmq a prescindere questo non ti autorizza ad usare certi toni

Sospeso 7gg

>bYeZ<

The_SaN
28-01-2016, 21:15
non è castrato, non c'è proprio, non è la prima TESLA indirizzata espressamente al calcolo FP32 e non sara l'ultima; e stesso discorso vale per le QUADRO, compresa quella di punta da 3000 euro, o quella poco sotto da 1800.

Hai una visione abbastanza ristretta e totalmente sbagliata sul tipo di calcolo richiesto dai software del segmento Pro; l'FP64 in campo Pro è sicuramente importante, ma non gira tutto attorno a quello è.... anzi, è necessario ad una cerchia ristretta di software ed ambiti, e con Pascal arrivera persino il mixed FP16....
il grosso della TESLA/QUADRO viene impiegato per calcoli FP32.Ma infatti la chiamo "mezza Tesla" perchè hanno tagliato fuori una parte del target. Non è una questione di visione ristretta...fino all'anno scorso il DP lo usavo con Matlab all'università :asd:
Le Quadro non le ho tirate fuori proprio perchè si usano in FP32 e Maxwell in questo ambito va benissimo.


tralasciando il fatto che anche al Titan X è arrivata sul mercato a 1300 euro e poi si è assestata sul prezzo della vecchia ( ceh anceh lei era partita intorno ai 1100-1200 ), dipendera da cosa offrira in piu rispetto all'attuale, perchè se arrivera molto piu prestante, con 16 Gb HBM2 e magari pure l'NVlink fra schede abilitato ( questo dubito pero non si sa mai ), per tutta l'utenza che la sfruttera per il GPGPU varra fino all'ultimo euro anche a 1500, anche perchè l'alternativa è spenderne 3000....Costava 1300 euro perchè ci hanno marciato sopra, lo street price era $999 come la prima Titan.
Poi il problema non viene dai 1500 euro in sé (si ripagano tranquillamente)...il problema è aprire un precedente che "giustifichi" ritocchi annuali di prezzo.

poi oh, anche io sarei piu contento a vederla intorno a 1000, e non penso che la proporranno a 1500 anche se, 16 Gb HBM2 ( che rumor danno come dotazione di memoria ) non devono proprio essere economici come 12 Gb di DDR5....

poi per te per giocare no, difatti ti faranno la Ti che è la GPU Top perfetta per il Gamer che costera come è sempre costata la fascia TOP per Gamer... dipende sempre cosa uno ci deve fare, il "giustificabile" in questo caso ha un range molto ampio visto che la scheda è molto apprezzata anche in alcuni ambiti lavorativi.Infatti facevo la comparazione di Prezzo "Titan vs Titan" proprio per mantenere la coerenza di fascia di prezzo.

AceGranger
28-01-2016, 21:20
Ma infatti la chiamo "mezza Tesla" perchè hanno tagliato fuori una parte del target.

eh ma li purtroppo i 28nm hanno dato tutto quello che potevano dare; l'aggiunta della parte FP64 avrebbe reso il chip di una dimensione mostruosa e credo economicamente insostenibile.

scorpion73
28-01-2016, 22:11
non solo economicamente ma anche come calore... già è una stufa così...

Vul
29-01-2016, 00:03
Ho giocato all'ultimo Batman con due monitor accanto, l'Asus TN 120Hz 1ms con adaptive sync, e L'Acer XB270HU con Gsync, per provare la reale differenza...

Con il secondo tutto un altro pianeta, oltretutto con le stesse impostazioni del 1080p (ed avevo messo tutto al massimo), e nessun problema di input lag o altro ;)

Scusa ma con gsync attivato di default metti input lag, cioè è inevitabile.

Altrimenti mi sa non hai capito come funziona il sync.

Il compito principale del gsync e freesync è eliminare tearing e stuttering, non input lag. Sono inversamente proporzionali. Per cui il beneamato ritardi di 7 ms lo avrai sempre e comunque con gsync anche a 144 hz.

Andrebbe anche detto però che a 144 hz il problema del tearing non esiste, quindi rimane il problema input lag vs stuttering.

Personalmente ho letto un po di forum di CS:GO e sono tutti molto scettici nei confronti di gsync e freesync. Se vuoi avere il gioco più reattivo possibile (e ok, può non essere importante nei single player) non puoi avere alcun sync.

The_SaN
29-01-2016, 00:40
Esatto. Con i refresh adattabili migliori l'input lag rispetto al v-sync normale, ma ne avrai comunque di più rispetto ad una soluzione senza sincronizzazione.
Per giocare a a titoli che richiedono grande reattività (a livello competitivo, sia chiaro), meglio non mettere nulla.

Giovamas
29-01-2016, 08:16
Sì 6GB sono un ottimo quantitativo, la gtx980Ti è molto equilibrata come rapporto potenza-vram :)




Esatto Tiger. Io preferirei orientarmi verso nuove tecnologie (HBM2 etc) che raddoppiare il vecchio. Fermo restando che quello che dice nicola1283 è perfettamente logico e da condividere. Vediamo poi decidiamo. Anche se detto tra noi sappiamo benissimo come andrà a finire :D King Kong rulez

Obrigado
29-01-2016, 09:08
http://www.fudzilla.com/news/graphics/39762-nvidia-shows-off-its-light-field-vr-headset-at-vrla-2016


bene bene bene

oZonoRobotics
29-01-2016, 09:58
boh, solo io non vedo dove miro se mi si taglia l'immagine mentre giro la "telecamera"

https://www.youtube.com/watch?v=MzHxhjcE0eQ

qua fanno dei test... ma non mi è chiaro, praticamente meno di 30ms non si hanno? mi sembrano parecchi...

poi, nei bench riportano con vsync o senza vsync ma sempre con gsync e freesync attivati, io se nelle impostazioni abilito o disabilito il vsync non fa alcuna differenza perchè il gsync prende la priorità e inabilità l'impostaizone vsync on o off... in che senso dicono vsync on o off?

http://www.fudzilla.com/news/graphics/39762-nvidia-shows-off-its-light-field-vr-headset-at-vrla-2016


bene bene bene


ecco questi saranno gli unici occhiali che venderanno, perchè supporteranno tutti i giochi a differenza di oculus e vive... e costeranno pure di meno sicuramente

oZonoRobotics
29-01-2016, 10:11
Vsync on-off intendono oltre la frequenza massima del monitor.
Serve a ridurre l'input lag esattamente per los tesso motivo per cui alcuni giocatori preferivano non usare il vsync, infatti nvidia inizialmente non lo aveva previsto e gli è stato richiesto successivamente.

farò finta di aver capito per non romper le balle ulteriormente lol

ma mi resta il problema del cap a 144 non del vsync e del gsync, ok, disabilito il vsync ma se non disabilito pure il gsync, sempre 144 farà... solo disabilitando entrambi posso fare infiniti fps... boh... vabè

oZonoRobotics
29-01-2016, 10:48
No invece, se disabiliti il vsync sopra i 144Hz i gli fps saliranno oltre proprio come funziona quando non hai ne vsync ne gsync.

Inizialmente funzionava come dici tu, cioè il gsync funzionava nel range da 35 a 144 (per esempio) e fissava come limite massimo 144.
Poi quando amd ha introdotto il freesync ha dato la possibilità di scegliere se avere o no il limite massimo chiamandolo vsync on-off che secondo me è un nome che fa un sacco di confusione, visto che molti giocatori lo ritenevano indispensabile (imho serve una cippa) lo ha introdotto anche nvidia.

a dire il vero certi giochi si e certi giochi no, quindi pensavo che fosse un problema di quel gioco che anche avendo il led rosso del gsync non entrasse a meno tu non mettessi vsync on...

quindi grazie della spiegazione :P

TigerTank
29-01-2016, 11:01
Esatto Tiger. Io preferirei orientarmi verso nuove tecnologie (HBM2 etc) che raddoppiare il vecchio. Fermo restando che quello che dice nicola1283 è perfettamente logico e da condividere. Vediamo poi decidiamo. Anche se detto tra noi sappiamo benissimo come andrà a finire :D King Kong rulez

Ahahah vedremo...magari le 1070-1080 monteranno ancora ddr5(un'evoluzione delle attuali) e saranno da 256bit con relativi 8GB(presumo perchè 4 ormai sarebbero poco appetibili) di vram.
Troppo presto per avere già le scimmie :D

oZonoRobotics
29-01-2016, 11:29
Ah poi quando entrano in ballo i settaggi dei giochi è un delirio, quello che non promette di disabilitare il vsync (tipico bethesda con fallout3-4, skyrim, ecc.) quello che non ti fa applica l'AA che vuoi tu e bla bla bla.

casin :P

TigerTank
29-01-2016, 13:36
Ah poi quando entrano in ballo i settaggi dei giochi è un delirio, quello che non promette di disabilitare il vsync (tipico bethesda con fallout3-4, skyrim, ecc.) quello che non ti fa applica l'AA che vuoi tu e bla bla bla.

I fallout purtroppo non sono il massimo da questo punto di vista, sono calibrati per i 60fps. C'è una stringa di configurazione da cambiare per disattivare del tutto il vsync ma può comportare effetti collaterali.
Ecco queste sono carenze lato software che mi indispongono un pò, soprattutto in caso di titoli molto noti e cosiddetti "triple A".

Legolas84
29-01-2016, 14:02
Togliere il v-sync nei giochi Bethesda può causare (99%) errori di sincronizzazione anche in alcuni aspetti del gioco diversi dalla grafica....

Inviato dal mio ONE A2003 utilizzando Tapatalk

oZonoRobotics
29-01-2016, 14:37
Ma in quel caso se uno ha un monitor 144Hz che fa?
Deve comunque giocare a 60fps?

su wolfenstein puoi tirar via il cap ma il gioco accelera, su skyrim salta la fisica e tipo la scena iniziale dei cavalli e il carro, il carro vola e i cavalli si allungano lol

Legolas84
29-01-2016, 15:27
su wolfenstein puoi tirar via il cap ma il gioco accelera, su skyrim salta la fisica e tipo la scena iniziale dei cavalli e il carro, il carro vola e i cavalli si allungano lol
Eh infatti... Non mi ricordavo i bug di preciso ma ricordo che succedeva roba lol :asd:

Inviato dal mio ONE A2003 utilizzando Tapatalk

oZonoRobotics
29-01-2016, 16:28
tremendo! :P

Spider-Mans
30-01-2016, 11:05
si parlava di marzo aprile per le prime pascal (1070 o come si chiamera) ma mi pare che il target temporale si sia spostato a inizio/fine estate...confermate?

che noia

fireradeon
30-01-2016, 13:33
si parlava di marzo aprile per le prime pascal (1070 o come si chiamera) ma mi pare che il target temporale si sia spostato a inizio/fine estate...confermate?

che noia

Qua pare il contratio invece. Aprile l'unica pascal 2016 il resto dopo e non sono pascal infine la 1080 ti nel 2017

Spider-Mans
01-02-2016, 13:15
Qua pare il contratio invece. Aprile l'unica pascal 2016 il resto dopo e non sono pascal infine la 1080 ti nel 2017

per aprile ci sara il successore della 970 in ottica pascal?

illidan2000
01-02-2016, 13:32
per aprile ci sara il successore della 970 in ottica pascal?

non credo. Penso uscirà la Titan Max (o nome simile) prima dell'estate, e per la 1070 se ne riparla ad ottobre minimo
Purtroppo la stima è stata rivista, per non mi ricordo più quale motivo

http://www.eurogamer.it/articles/2016-01-27-news-videogiochi-nvidia-titan-pascal-ad-aprile-gtx-1080-mese-di-giugno
o qui
http://hardware.hdblog.it/2016/01/27/Nvidia-Pascal-GP100-lancio-aprile/

danno invece aprile Titan, giugno 1080

mikael84
01-02-2016, 13:42
per aprile ci sara il successore della 970 in ottica pascal?

Qua c'è una roadmap provvisoria
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-januar-2016

Teox82
01-02-2016, 18:26
ma se hanno detto che presenteranno in giugno la 1080,non presenteranno anche la 1070 contemporaneamente? Io comunque aspetto di vedere anche la 1060,visto che giocherò in fullhd per qualche anno. Voglio vedere come si comportta

Legolas84
01-02-2016, 18:55
Qua c'è una roadmap provvisoria
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-26-januar-2016

Anche io sapevo GP104 a giugno.... che poi è la scheda che interessa a me per il mio futuro SLI :)

fireradeon
01-02-2016, 20:07
Anche io sapevo GP104 a giugno.... che poi è la scheda che interessa a me per il mio futuro SLI :)

Sei orientarto per uno sli di 1080?

killeragosta90
01-02-2016, 21:29
Io aspetterò il chippone (quello vero, ma non Titan) :)

mikael84
01-02-2016, 21:43
Anche io sapevo GP104 a giugno.... che poi è la scheda che interessa a me per il mio futuro SLI :)

Se mantengono la stessa architettura (da chiarire la DP) secondo i miei calcoli, rapportando miniaturizzazione ed un core da 350mm2, GP104 avrà 3072 cuda massimo più 256bit gddr5x (praticamente un 512bit gddr5). Sono curioso che livelli si raggiungeranno con i clock, sicuramente si sale ancora.
Se dovesse essere così la futura 1080 potrebbe essere una buona soluzione sulla fascia alta momentanea.

Anche AMD dovrebbe concorrere bene, si parla di 4/5k shader processor ma con un clock decisamente superiore

TigerTank
01-02-2016, 21:50
Se mantengono la stessa architettura (da chiarire la DP) secondo i miei calcoli, rapportando miniaturizzazione ed un core da 350mm2, GP104 avrà 3072 cuda massimo più 256bit gddr5x (praticamente un 512bit gddr5). Sono curioso che livelli si raggiungeranno con i clock, sicuramente si sale ancora.
Se dovesse essere così la futura 1080 potrebbe essere una buona soluzione sulla fascia alta momentanea.

Anche AMD dovrebbe concorrere bene, si parla di 4/5k shader processor ma con un clock decisamente superiore

Vedremo la convenienza delle 1080 rispetto alle 1070. DIpende tutto da quanto le distanzieranno...se saranno preferibili come le gtx780 o poco convenienti come le gtx680 e le gtx980 :)
Dipenderà tutto dalla castratura effettiva delle sorelline e relativi prezzi.
Io comunque se piazzano le ddr5 e le buttano fuori a 450 le 1070 e 600 le 1080...mi sa che aspetto direttamente le Ti del 2017...

fireradeon
01-02-2016, 21:52
Io appena esce la titan max decido il da farsi .

mikael84
01-02-2016, 22:00
Vedremo la convenienza delle 1080 rispetto alle 1070. DIpende tutto da quanto le distanzieranno...se saranno preferibili come le gtx780 o poco convenienti come le gtx680 e le gtx980 :)
Dipenderà tutto dalla castratura effettiva delle sorelline e relativi prezzi.
Io comunque se piazzano le ddr5 e le buttano fuori a 450 le 1070 e 600 le 1080...mi sa che aspetto direttamente le Ti del 2017...

Io penso che a sto giro le x70 sui 450 e le x80 sulle 600-650, o meglio prenderanno i prezzi delle 980-980ti. Sinceramente mi viene difficile pensare ad una x70 a 300 euro come GM204.
La x80 anche se viene data come simile a GM200 sarà indubbiamente superiore anche per via dei clock sicuramente superiori, ovviamente ci ritroveremmo con un mezzo passo avanti come la 980. Sicuramente gran passo avanti tra performance per watt ma chi acquisterà questa fascia ne sarà poco attratto.
Il vero e proprio balzo ci sarà con GP100 o GP102.
Certo che, vista anche la probabile ram e banda, converrebbe più a puntare su 2 x70 che 2 980ti:)

TigerTank
01-02-2016, 22:03
Io penso che a sto giro le x70 sui 450 e le x80 sulle 600-650, o meglio prenderanno i prezzi delle 980-980ti. Sinceramente mi viene difficile pensare ad una x70 a 300 euro come GM204.
La x80 anche se viene data come simile a GM200 sarà indubbiamente superiore anche per via dei clock sicuramente superiori, ovviamente ci ritroveremmo con un mezzo passo avanti come la 980. Sicuramente gran passo avanti tra performance per watt ma chi acquisterà questa fascia ne sarà poco attratto.
Il vero e proprio balzo ci sarà con GP100 o GP102.
Certo che, vista anche la probabile ram e banda, converrebbe più a puntare su 2 x70 che 2 980ti:)

Ti quoto al 100%!
Cmq per quel che mi riguarda valuterò a priori anche:
-quantitativo effettivo della vram :D
-margine di ov e relativi guadagni.

Attendiamo i test...attendibili ;)

ste-87
02-02-2016, 00:05
Se mantengono la stessa architettura (da chiarire la DP) secondo i miei calcoli, rapportando miniaturizzazione ed un core da 350mm2, GP104 avrà 3072 cuda massimo più 256bit gddr5x (praticamente un 512bit gddr5). Sono curioso che livelli si raggiungeranno con i clock, sicuramente si sale ancora.
Se dovesse essere così la futura 1080 potrebbe essere una buona soluzione sulla fascia alta momentanea.

Anche AMD dovrebbe concorrere bene, si parla di 4/5k shader processor ma con un clock decisamente superiore

fossero davvero 3072 per un chip full sarebbero una mezza delusione. Per carità non contano solo il numero di cc, ma anche il resto delle specifiche e l'architettura, ma pensare ad una sostituita della 980 che equipaggia già 2048cc, quando il salto del pp da 28 a 16 permette a parità di dimensioni quasi un possibile raddoppio dei cuda cores (quindi a logica nella forbice dei 3400~3600 considerando anche il die leggermente più piccolo), fa pensare che ci rifilino davvero dei chippini che comunque garantiranno un distacco tangbile dalla vecchia serie da invogliare al cambio (+15% da una 980ti su una x70 e +30% con x80), per poi massacrarli appena pochi mesi dopo con chip veramente degni di nota e "costringere" di nuovo al cambio dato che rimaniamo così :eek: :sbav:

Alla fin il tetto massimo per tale pp potrebbe essere indicativamente sui 5500cc per i chipponi nvidia se mantengono die di dimensioni analoghe alla serie 9xx.

Io penso che a sto giro le x70 sui 450 e le x80 sulle 600-650, o meglio prenderanno i prezzi delle 980-980ti. Sinceramente mi viene difficile pensare ad una x70 a 300 euro come GM204.
La x80 anche se viene data come simile a GM200 sarà indubbiamente superiore anche per via dei clock sicuramente superiori, ovviamente ci ritroveremmo con un mezzo passo avanti come la 980. Sicuramente gran passo avanti tra performance per watt ma chi acquisterà questa fascia ne sarà poco attratto.
Il vero e proprio balzo ci sarà con GP100 o GP102.
Certo che, vista anche la probabile ram e banda, converrebbe più a puntare su 2 x70 che 2 980ti:)

viene difficile sì, ma anche vero che se alzassero l'asticella dal basso perchè superano la top della serie precedente ad oggi avremmo la serie alta (x70/x80 generica) a 500 e 700€ a causa dei piccoli aumenti da una serie all'altra a parità di fascia e di conseguenza si sposterebbero incredibilmente in alto la fascia enthusiast (che già lo è, diciamoci la verità)

Di sicuro non la regaleranno ma non credo/trovo plausibile che si arrivi ad esempio a sforare la soglia massima dei 400$/€ per una x70 solo perchè supera l'attuale top (980ti che stà sui 650-700€)...se la 970 l'han piazzata a 329$ di listino potrebbero mettere questa x70 a 379/399$

Ovvimente si fa per discutere e buttare giù 2 idee per ragionarne

TigerTank
02-02-2016, 10:41
Io appena esce la titan max decido il da farsi .

Io non ci sto nemmeno a pensare, tanto poi arriveranno le TI che saranno di nuovo enormemente più convenienti, come le gtx980Ti rispetto alle TitanX :D

beatl
02-02-2016, 10:44
Io non ci sto nemmeno a pensare, tanto poi arriveranno le TI che saranno di nuovo enormemente più convenienti, come le gtx980Ti rispetto alle TitanX :D

idem .. io me ne sto fermo fino al lancio delle nuove Ti...
tanto upgradare il comparto video restando a 1600p non mi sembra una scelta sensata .. tanto che quando lo farò farò la spesa unica di schede e monitor 4k

Lanzus
02-02-2016, 10:58
Io invece sinceramente non so che fare. La Titan (2013) incomincia a stare strettina a 1440p :(

beatl
02-02-2016, 11:02
Io invece sinceramente non so che fare. La Titan (2013) incomincia a stare strettina a 1440p :(

Diopende dal budget a tua disposizione ...

AragornElessar
02-02-2016, 11:12
Domanda: Ma quella che uscirà in teoria entro il q2 del 2016, sarà una top di gamma? (la titan di turno tanto per intenderci)

TigerTank
02-02-2016, 11:16
idem .. io me ne sto fermo fino al lancio delle nuove Ti...
tanto upgradare il comparto video restando a 1600p non mi sembra una scelta sensata .. tanto che quando lo farò farò la spesa unica di schede e monitor 4k

Con un 1440p da gaming da 144-165Hz(e chissà....magari nel corso del 2016 aumenteranno il limite su nuovi modelli) le pascal saranno un bel plus con i giochi mattone, specialmente se si predilige la singola perchè allo stato attuale delle cose anche con una gtx980Ti occata ci sono giochi con i quali bisogna togliere qualche effetto gameworks per avere un framerate che non vada sotto ai 60fps. Per cui bisognerà valutare all'atto pratico le 1070-1080 anche se pure a me piacerebbe upgradare direttamente con la nuova Ti invece che pensare ad una seconda Ti attuale o alle pascal castrate e con ddr5 ;)
Per ora comunque non c'è fretta...dovrebbero anche uscire un pò di titoli evoluti rispetto ai porting farciti di effetti grafici per pc.

Legolas84
02-02-2016, 11:24
Io credo che per la 1080Ti ci sarà da aspettare l'anno prossimo... tra giugno e settembre uscirà la 1080 liscia e l'anno prossimo sarà il turno della Ti che andrà un 20% in più.....

E se questo si rivelerà corretto il mio SLI di 1080 andrà alla grande per 2 anni proprio come quello di 980 lisce :)

Così, nuova architettura fin da subito e schede meno calorose (se si mantiene il rapporto che c'è tra 980 e 980Ti)...... :)

mikael84
02-02-2016, 11:41
fossero davvero 3072 per un chip full sarebbero una mezza delusione. Per carità non contano solo il numero di cc, ma anche il resto delle specifiche e l'architettura, ma pensare ad una sostituita della 980 che equipaggia già 2048cc, quando il salto del pp da 28 a 16 permette a parità di dimensioni quasi un possibile raddoppio dei cuda cores (quindi a logica nella forbice dei 3400~3600 considerando anche il die leggermente più piccolo), fa pensare che ci rifilino davvero dei chippini che comunque garantiranno un distacco tangbile dalla vecchia serie da invogliare al cambio (+15% da una 980ti su una x70 e +30% con x80), per poi massacrarli appena pochi mesi dopo con chip veramente degni di nota e "costringere" di nuovo al cambio dato che rimaniamo così :eek: :sbav:

Alla fin il tetto massimo per tale pp potrebbe essere indicativamente sui 5500cc per i chipponi nvidia se mantengono die di dimensioni analoghe alla serie 9xx.



viene difficile sì, ma anche vero che se alzassero l'asticella dal basso perchè superano la top della serie precedente ad oggi avremmo la serie alta (x70/x80 generica) a 500 e 700€ a causa dei piccoli aumenti da una serie all'altra a parità di fascia e di conseguenza si sposterebbero incredibilmente in alto la fascia enthusiast (che già lo è, diciamoci la verità)

Di sicuro non la regaleranno ma non credo/trovo plausibile che si arrivi ad esempio a sforare la soglia massima dei 400$/€ per una x70 solo perchè supera l'attuale top (980ti che stà sui 650-700€)...se la 970 l'han piazzata a 329$ di listino potrebbero mettere questa x70 a 379/399$

Ovvimente si fa per discutere e buttare giù 2 idee per ragionarne

Con 3400-3600 e boost maggiorato, più banda di 448gb su 1750mhz ci sarebbe un vero balzo. Inoltre come li ricavi 3400/3600 cuda su SMM da 128? Su un core equivalente a GM204 i 3584 cuda su 28 SMM potrebbero pure starci ma per ora sembra che si abbracci la politica della efficienza, flops per watt, quindi core molto picocli da 300mm2 o al massimo 350mm2.
Su un 256bit ci saranno 4 canali ram e la predisposizione dei render back-end e relativi SMM potrebbe cambiare del tutto.

Full Pascal, avrà le HBM, quindi c'è una certa differenza. Con questa versione secondo i rumors si parla di 450mm2 fino al gigante 600mm2(come full maxwell) e di conseguenza è difficile stimare un rapporto in virtù anche della DP, quindi unità preposte all'interno del SMM al calcolo DP come in kepler gk100 dove ogni 3 cuda uno era DP.
Potremmo aspettarci secondo me in base al core dai 4500 ai 6000 cuda su un core gigante.

Riguardo i prezzi la mia era una ipotesi, ormai quasi escludo un GM204 bis ma rimango parzialmente convinto che i modelli decenti x70 vengano prezzati dalle 400/450 euro gli x80 almeno 200 euro sopra.
Sul prezzo sarei felice di essere smentito naturalmente:fagiano:

fireradeon
02-02-2016, 12:25
Io non ci sto nemmeno a pensare, tanto poi arriveranno le TI che saranno di nuovo enormemente più convenienti, come le gtx980Ti rispetto alle TitanX :D

Si ma stavaolta un anno dopo arrivano, non 2 mesi dopo e in più bisogna vedere come saranno.
Io pure ho sempre "snobbato" le Titan, ma se davvero l'unica pascal del 2016 sarà la Titan Max allora valuto seriamente se prenderla o meno (bisogna vedere 1) prezzo 2) incremento prestazionale 3) differenza con uno sli di 980Ti.

beatl
02-02-2016, 12:33
Secondo me le ti non arriveranno nel 2017 ...ma a fine 2016 ... Spero di non sbagliare

TigerTank
02-02-2016, 13:07
Si ma stavaolta un anno dopo arrivano, non 2 mesi dopo e in più bisogna vedere come saranno.
Io pure ho sempre "snobbato" le Titan, ma se davvero l'unica pascal del 2016 sarà la Titan Max allora valuto seriamente se prenderla o meno (bisogna vedere 1) prezzo 2) incremento prestazionale 3) differenza con uno sli di 980Ti.

Per quel che mi riguarda sarà l'ennesimo salasso superfluo su singola scheda, a partire dal quantitativo di vram HBM2 che di sicuro non regaleranno e che di sicuro come quantità non costituirà un'esclusiva sfruttabile per gaming. Così come non lo sono ancora adesso i 12GB della titanX :)
Imho tanto vale farsi una seconda gtx980Ti o aspettare le 1070-1080...tanto a meno di giochi appositamente appesantiti con settaggi ultra mangia-vram, 6GB di vram saranno più che sufficienti per un bel pezzo.
Questo IMHO a livello di upgrade, poi ovviamente a livello di passione informatica la curiosità c'è sempre :oink:

Poi magari non è detto eh....chissà che la collaborazione AMD-Samsung pure sulle gpu partorisca qualcosa di rivoluzionario :D

scorpion73
02-02-2016, 13:22
TigerTank, il tuo discorso mi sta bene, ma se iniziano ad uscire giochi DX12 che sfruttano gli AsyncShaders sono problemi visto che Maxwell mi pare non abbia sto gran supporto a questa feature... Ma magari sto parlando di fantascienza eh per il 2016...

TigerTank
02-02-2016, 13:33
TigerTank, il tuo discorso mi sta bene, ma se iniziano ad uscire giochi DX12 che sfruttano gli AsyncShaders sono problemi visto che Maxwell mi pare non abbia sto gran supporto a questa feature... Ma magari sto parlando di fantascienza eh per il 2016...

Eh appunto, il problema è che da questo punto di vista si è ancora indietro e qualcosa mi dice che vedremo un pò di titoli dx12 solo nel 2017.
Comunque gaming a parte penso che in ogni caso le HBM2 della nuova titan facciano gola a chi ne fa usi professionali ad alto sfruttamento di vram.

AragornElessar
02-02-2016, 13:48
Secondo me le ti non arriveranno nel 2017 ...ma a fine 2016 ... Spero di non sbagliare

e non sbagli imho.
Se lo scenario che si ripeterà sarà il solito..
Però chi compra la titan e se la overclocka ha il top del top (il problema è a che prezzo)

TigerTank
02-02-2016, 14:00
e non sbagli imho.
Se lo scenario che si ripeterà sarà il solito..
Però chi compra la titan e se la overclocka ha il top del top (il problema è a che prezzo)

Imho tra HBM2 in quantità e processo produttivo...facile che si arriverà ai 1500€ :D
Non a caso le lanciano sempre come prime schede in modo che vendano prima che le soluzioni successive(Sli di 1070/1080 e Ti) si rivelino più convenienti.

AragornElessar
02-02-2016, 14:38
Imho tra HBM2 in quantità e processo produttivo...facile che si arriverà ai 1500€ :D
Non a caso le lanciano sempre come prime schede in modo che vendano prima che le soluzioni successive(Sli di 1070/1080 e Ti) si rivelino più convenienti.

ma infatti ho messo già in conto che a questo giro sono 3k per me
spero finalmente in fps alti però in 7680x1440
perchè è quello a cui miro..

oZonoRobotics
02-02-2016, 15:03
ma infatti ho messo già in conto che a questo giro sono 3k per me
spero finalmente in fps alti però in 7680x1440
perchè è quello a cui miro..

mi sa che a quella risoluzione più che pascal serve un miracolo lol

AragornElessar
02-02-2016, 15:08
mi sa che a quella risoluzione più che pascal serve un miracolo lol

con due titan x in ff14, che è un morpg che graficamente pesa una bella cifrà, se overclocko le video card vado dai 50 circa ai 70 fps
è il gioco dove faccio più fatica (magari in the witcher 3 andrà peggio, ma non ci sto giocando)
se raggiungessi i 75 come valore minimo sarei già contento

oZonoRobotics
02-02-2016, 15:21
final fantasy è un gioco 2013 (mi sembra)... come dici tu, su un gioco più recente a quella risoluzione immagino sia dura anche con due schede nuove ipotetiche che vanno il doppio di una 980ti...

sarei curioso di vedere uno screen di unigine heaven alla risoluzione nativa quanto fa!

AragornElessar
02-02-2016, 15:38
final fantasy è un gioco 2013 (mi sembra)... come dici tu, su un gioco più recente a quella risoluzione immagino sia dura anche con due schede nuove ipotetiche che vanno il doppio di una 980ti...

sarei curioso di vedere uno screen di unigine heaven alla risoluzione nativa quanto fa!

final fantasy è un gioco del 2015, giugno per l'esattezza
è uscita l'espansione che ha rivoluzionato un pò tutto.

oZonoRobotics
02-02-2016, 15:55
final fantasy è un gioco del 2015, giugno per l'esattezza
è uscita l'espansione che ha rivoluzionato un pò tutto.

ok ok avevo giusto guardato su google quando è uscita la prima versione, e ignoravo la versione successiva, comunque sembrerebbe guardando un po' sul web che il triplo monitor sia parecchio più leggero rispetto ad un singolo monitor a pari pixel... io facevo i conti in base a quello che vedo io su un solo 2560x1440 a livello di peso...

mikael84
02-02-2016, 16:00
final fantasy è un gioco 2013 (mi sembra)... come dici tu, su un gioco più recente a quella risoluzione immagino sia dura anche con due schede nuove ipotetiche che vanno il doppio di una 980ti...

sarei curioso di vedere uno screen di unigine heaven alla risoluzione nativa quanto fa!

Lo puoi fare te stesso un test. Imposti il DSR 3X(11mpixel), tanto hai un 1440p.
Con il 4x puoi emulare un 5k (oltre 14mpixel)

oZonoRobotics
02-02-2016, 16:07
Lo puoi fare te stesso un test. Imposti il DSR 3X(11mpixel), tanto hai un 1440p.
Con il 4x puoi emulare un 5k (oltre 14mpixel)

oggi alle 12 ho imballato e spedito la seconda 980ti e farlo con una 980ti sola mi sa che neanche parte lol

grazie per la dritta... lo proverò a fare prossimamente quando i mezzi ce lo consentiranno! :D

ste-87
02-02-2016, 17:19
Con 3400-3600 e boost maggiorato, più banda di 448gb su 1750mhz ci sarebbe un vero balzo. Inoltre come li ricavi 3400/3600 cuda su SMM da 128? Su un core equivalente a GM204 i 3584 cuda su 28 SMM potrebbero pure starci ma per ora sembra che si abbracci la politica della efficienza, flops per watt, quindi core molto picocli da 300mm2 o al massimo 350mm2.
Su un 256bit ci saranno 4 canali ram e la predisposizione dei render back-end e relativi SMM potrebbe cambiare del tutto.

Full Pascal, avrà le HBM, quindi c'è una certa differenza. Con questa versione secondo i rumors si parla di 450mm2 fino al gigante 600mm2(come full maxwell) e di conseguenza è difficile stimare un rapporto in virtù anche della DP, quindi unità preposte all'interno del SMM al calcolo DP come in kepler gk100 dove ogni 3 cuda uno era DP.
Potremmo aspettarci secondo me in base al core dai 4500 ai 6000 cuda su un core gigante.

Riguardo i prezzi la mia era una ipotesi, ormai quasi escludo un GM204 bis ma rimango parzialmente convinto che i modelli decenti x70 vengano prezzati dalle 400/450 euro gli x80 almeno 200 euro sopra.
Sul prezzo sarei felice di essere smentito naturalmente:fagiano:

indicavo appunto una forbice indicativa di cuda cores (tra i 3400 e i 3600) proprio perchè non abbiamo idea di come potranno essere organizzati e la suddivisione per SMM con la nuova architettura. Di sicuro di questi aspetti te ne intendi alla grande più te di me, infatti ho sempre piacere di seguire i tuoi post e i tuoi interventi più tecnici, quello che cercavo di dire è che spero che il numero totale dei cc sul full chip GP104 siano leggermente superiori a quanto ipotizzavi in partenza.

Per l'efficienza siamo d'accordo, ormai è un punto abbastanza importante, è anche vero che nvidia sembra già a buon punto con la vecchia serie maxwell su un pp ormai "alla frutta", solo il cambio con i 16nm Finfet+dovrebbe garantirgli ampio margine sotto l'aspetto consumi anche senza starsi a preoccupare di ottimizzare tale aspetto

fireradeon
02-02-2016, 17:39
TigerTank, il tuo discorso mi sta bene, ma se iniziano ad uscire giochi DX12 che sfruttano gli AsyncShaders sono problemi visto che Maxwell mi pare non abbia sto gran supporto a questa feature... Ma magari sto parlando di fantascienza eh per il 2016...

L'unico gioco dx12 degno di nota è Deus Ex ed esce a fine agosto 2016, quindi il tempo da aspettare c'è. Poi fable lagends ma quello non so quanto possa essere pesante.

TigerTank
02-02-2016, 17:45
ma infatti ho messo già in conto che a questo giro sono 3k per me
spero finalmente in fps alti però in 7680x1440
perchè è quello a cui miro..

Scusa se te lo scrivo ma...chi te lo fa fare? Non fai prima a prendere un 21:9 da gaming come l'X34 e goderti i 100fps + gsync con le 2 titanX che già possiedi? :D

scorpion73
02-02-2016, 17:48
L'unico gioco dx12 degno di nota è Deus Ex ed esce a fine agosto 2016, quindi il tempo da aspettare c'è. Poi fable lagends ma quello non so quanto possa essere pesante.

Allora può anche essere che convenga attendere le 1080Ti nel 2017...
Al limite nel frattempo si tampona con GP104, ma sinceramente dubito che qualcuno riuscirà a tenere a bada la scimmia all'uscita delle Titan Max...

oZonoRobotics
02-02-2016, 18:37
Allora può anche essere che convenga attendere le 1080Ti nel 2017...
Al limite nel frattempo si tampona con GP104, ma sinceramente dubito che qualcuno riuscirà a tenere a bada la scimmia all'uscita delle Titan Max...

esatto, doom chiama... :P

comunque pure io seguo con interesse i calcoli di mikeal...

non mi è chiara una cosa, mi sembra di aver capito che queste nuove schede avranno la doppia precisione... se ho capito bene 1 cuda ogni 3 è riservato alla doppia precisione, quindi se hanno (per farla facile) 6000 cc è come se ne avessero 4000 di una maxwell?

The_SaN
02-02-2016, 18:55
Scusa se te lo scrivo ma...chi te lo fa fare? Non fai prima a prendere un 21:9 da gaming come l'X34 e goderti i 100fps + gsync con le 2 titanX che già possiedi? :DE soprattutto senza quelle maledette cornici nere in mezzo. A meno che il tri-monitor serva per lavoro...

AragornElessar
02-02-2016, 19:01
Scusa se te lo scrivo ma...chi te lo fa fare? Non fai prima a prendere un 21:9 da gaming come l'X34 e goderti i 100fps + gsync con le 2 titanX che già possiedi? :D

l'x34 come l'asus PG348Q che sta per uscire (sempre 21:9), secondo me sono diverse rampe di scale sotto il setup che ho.
ti elenco un pò di svantaggi che ha l'x34 rispetto al mio sistema (così come l'asus visto che sono identici sulla carta):
- gioco su 3 PG278Q quindi 48:9 contro 21:9
- i miei monitor sono a 144 hz e non a 100 (poi l'x34 sono 100 in overclock.. il che è tutto dire)
- 4 ms contro 1 ms del mio sistema
- monitor IPS contro TN? Dovessi lavorare su word/office si.. ok.. ma non per videogiocarci. Un monitor IPS per videogiocare è un compromesso, almeno per i miei occhi.
- l'x34 è stondato.. Una decina di anni fa i tv/monitor erano stondati al contrario e ci vendettero il "flat" come l'innovazione del secolo, perchè non "deturpava" l'immagine. E ora? Stondatura al contrario ==> per me passo indietro e tecnologia che sparirà ben presto. Te la vendono come "profondità di gioco aumentata". Io se voglio profondità uso il 3d.. o tutt'al più, quando sarà, uno di quei VR che sono in uscita.

The_SaN
02-02-2016, 19:03
esatto, doom chiama... :P

comunque pure io seguo con interesse i calcoli di mikeal...

non mi è chiara una cosa, mi sembra di aver capito che queste nuove schede avranno la doppia precisione... se ho capito bene 1 cuda ogni 3 è riservato alla doppia precisione, quindi se hanno (per farla facile) 6000 cc è come se ne avessero 4000 di una maxwell?Tutte le attuali schede hanno la doppia precisione, anche Maxwell.
Il calcolo si fa così:

Maxwell è DP 1/32
- Single precision: Utilizza i 3072 cores
- Double precision: Utilizza 3072/32 = 96 "cores"

Pascal se sarà DP 1/3
- Single precision: Utilizza 3072 cores (numero a caso)
- Double precision: Utilizza 3072/3 = 1024 "cores"

Il double precision non è un gruppo di cores a parte, ma (in parole povere) l'unione di più cores per eseguire un'operazione più complessa.
Quindi una scheda DP 1/3 andrà uguale ad una DP 1/32 in Single precision, ma quasi 11 volte più veloce in Double precision. (mantenendo gli altri parametri immutati)

oZonoRobotics
02-02-2016, 19:09
Tutte le attuali schede hanno la doppia precisione, anche Maxwell.
Il calcolo si fa così:

Maxwell è DP 1/32
- Single precision: Utilizza i 3072 cores
- Double precision: Utilizza 3072/32 = 96 "cores"

Pascal se sarà DP 1/3
- Single precision: Utilizza 3072 cores (numero a caso)
- Double precision: Utilizza 3072/3 = 1024 "cores"

Il double precision non è un gruppo di cores a parte, ma (in parole povere) l'unione di più cores per eseguire un'operazione più complessa.
Quindi una scheda DP 1/3 andrà uguale ad una DP 1/32 in Single precision, ma quasi 11 volte più veloce in Double precision. (mantenendo gli altri parametri immutati)

ah ok, pensavo che fossero cuda "riservati"

perchè quando è uscito maxwell, ho visto i dati e dicevo, ma com'è possibile che le nuove schede abbiano meno cuda e un bus minore... dopo è venuto fuori che una 970 con 1500 cuda andava uguale a una 780ti con 2800... quindi pensare a una nuova titan con 4 o 6000 cuda con nuovo processo produttivo e memorie nuove mi fa paura :P

grazie per la spiegazione :D

AceGranger
02-02-2016, 19:52
Tutte le attuali schede hanno la doppia precisione, anche Maxwell.
Il calcolo si fa così:

Maxwell è DP 1/32
- Single precision: Utilizza i 3072 cores
- Double precision: Utilizza 3072/32 = 96 "cores"

Pascal se sarà DP 1/3
- Single precision: Utilizza 3072 cores (numero a caso)
- Double precision: Utilizza 3072/3 = 1024 "cores"

Il double precision non è un gruppo di cores a parte, ma (in parole povere) l'unione di più cores per eseguire un'operazione più complessa.
Quindi una scheda DP 1/3 andrà uguale ad una DP 1/32 in Single precision, ma quasi 11 volte più veloce in Double precision. (mantenendo gli altri parametri immutati)

NI, nel senso che, i calcoli DP vengono effettuati da un gruppo di core a parte e il fattore 1/3, 1/4 o 1/2 o quello che sara, dipendera dalla distribuzione delle unita DP, come nel caso di Kepler TOP che è 1/3 perchè c'è 1 unita DP ogni 3 CUDA core.

Maxwell, essendo privo delle unita DP, è 1/32 per via del "raccoglimento" dei suoi CUDA core, e si comporta esattamente come la variante Kepler mainstream ( GTX 680 a scendere ) che era anchessa priva della parte DP e che aveva un rapporto di 1/24

http://cdn2.ubergizmo.com/wp-content/uploads/2014/02/nvidia-kepler-vs-maxwell-sm.gif

ah ok, pensavo che fossero cuda "riservati"

perchè quando è uscito maxwell, ho visto i dati e dicevo, ma com'è possibile che le nuove schede abbiano meno cuda e un bus minore... dopo è venuto fuori che una 970 con 1500 cuda andava uguale a una 780ti con 2800... quindi pensare a una nuova titan con 4 o 6000 cuda con nuovo processo produttivo e memorie nuove mi fa paura :P

grazie per la spiegazione :D

pensavi giusto ma non è collegata alla parte in neretto; hanno meno cuda core perchè è cambiato in modo consistente il CUDA core, è variato quindi il rapporto potenza/numero CUDA; le unita DP non rientrano nel calcolo numerico dei CUDA core

mikael84
02-02-2016, 19:55
esatto, doom chiama... :P

comunque pure io seguo con interesse i calcoli di mikeal...

non mi è chiara una cosa, mi sembra di aver capito che queste nuove schede avranno la doppia precisione... se ho capito bene 1 cuda ogni 3 è riservato alla doppia precisione, quindi se hanno (per farla facile) 6000 cc è come se ne avessero 4000 di una maxwell?

No attenzione il mio esempio era riferito a Kepler con la DP.
Gli SMM su Kepler sono da 192 cuda core/32 load store/16 TMU
Questo è GK104 (680-670)
http://www.tomshw.it/files/2013/02/immagini_contenuti/43198/gk104-smx.jpg

Questo è GK100 (alias 780-780ti-Titan)
http://www.tomshw.it/files/2013/02/immagini_contenuti/43198/gk110-smx.jpg

Come vedi sul SMX è compresa la DP, ogni 3 core trovi un DP unit. In questo caso parliamo di un SMX da 192 cuda FP32 e 64 cuda FP64.
Se quei cuda fossero tutti destinati al FP32, la 780ti avrebbe 4096 cuda (almeno sulla carta poi le rese sarebbero un problema)
La Titan quindi poteva contare su 64core x 15 SMX =960 cuda che per gli davano una potenza di ben 803g.flops x FMA 2X 1,6TF.

Le 780/780ti invece avevano un rapporto di 1/24, quindi ben più lente. Con Maxwell la dp vera e proprio è assente, utilizzano un rapporto di 1/32 tramite 4 ALU interne al SMM.

Pascal avrà la DP ma non si sa ancora come venga implementata, alcuni rumor parlavano di un GP100 con DP per uso professionale (tesla) e un GP102 completamente gaming:)

indicavo appunto una forbice indicativa di cuda cores (tra i 3400 e i 3600) proprio perchè non abbiamo idea di come potranno essere organizzati e la suddivisione per SMM con la nuova architettura. Di sicuro di questi aspetti te ne intendi alla grande più te di me, infatti ho sempre piacere di seguire i tuoi post e i tuoi interventi più tecnici, quello che cercavo di dire è che spero che il numero totale dei cc sul full chip GP104 siano leggermente superiori a quanto ipotizzavi in partenza.

Per l'efficienza siamo d'accordo, ormai è un punto abbastanza importante, è anche vero che nvidia sembra già a buon punto con la vecchia serie maxwell su un pp ormai "alla frutta", solo il cambio con i 16nm Finfet+dovrebbe garantirgli ampio margine sotto l'aspetto consumi anche senza starsi a preoccupare di ottimizzare tale aspetto

Purtroppo ancora non si sa nulla tecnicamente affidabile.
In ogni caso tieni presente anche il fattore boost. Sicuramente avremmo boost ben più elevati, con 300mhz aggiuntivi un chip da 3072 cuda ottiene quasi la stessa potenza di uno con 4096 a 1200mhz. Fattore non da sottovalutare anche le rops che potrebbero essere raggruppate a 32 per back-end (128 totali) , ed in questo caso se aggiungiamo pure un boost maggiorato vai quasi a raddoppiare le prestazioni rispetto a gm200(almeno fronte rops/vertex e pixel)

Giovamas
02-02-2016, 19:56
Allora può anche essere che convenga attendere le 1080Ti nel 2017...
Al limite nel frattempo si tampona con GP104, ma sinceramente dubito che qualcuno riuscirà a tenere a bada la scimmia all'uscita delle Titan Max...

Io mi sono ripromesso di attendere la 1080ti o quel che sarà. Comunque vedremo cosa accadrà. La gp104 la scarto a priori, dato che come sempre rimarrò in singola

oZonoRobotics
02-02-2016, 20:17
ovviamente son tutte supposizioni basate sul nulla, ma quindi tu dici che potrebbe essere che il gp100 sui giochi potrebbe andar meno del gp102 perchè ci potrebbe essere pure una modifica sull'architettura dove sarà assente il fp32, quindi la titan nuova potrebbe essere una simil titan primo modello vs 780ti?
premetto come si è capito che sono a digiuno totale sull'argomento quindi se ho detto una boiata mi scuso anticipatamente lol

comunque grazie a tutti per le risposte

system450
02-02-2016, 22:05
- monitor IPS contro TN? Dovessi lavorare su word/office si.. ok.. ma non per videogiocarci. Un monitor IPS per videogiocare è un compromesso, almeno per i miei occhi.


Per me è un compromesso usare un tn... :D
Basta che sposti la testa di 1 mm in ogni direzione che i colori cambiano...

Obrigado
02-02-2016, 22:10
l'x34 come l'asus PG348Q che sta per uscire (sempre 21:9), secondo me sono diverse rampe di scale sotto il setup che ho.
ti elenco un pò di svantaggi che ha l'x34 rispetto al mio sistema (così come l'asus visto che sono identici sulla carta):
- gioco su 3 PG278Q quindi 48:9 contro 21:9
- i miei monitor sono a 144 hz e non a 100 (poi l'x34 sono 100 in overclock.. il che è tutto dire)
- 4 ms contro 1 ms del mio sistema
- monitor IPS contro TN? Dovessi lavorare su word/office si.. ok.. ma non per videogiocarci. Un monitor IPS per videogiocare è un compromesso, almeno per i miei occhi.
- l'x34 è stondato.. Una decina di anni fa i tv/monitor erano stondati al contrario e ci vendettero il "flat" come l'innovazione del secolo, perchè non "deturpava" l'immagine. E ora? Stondatura al contrario ==> per me passo indietro e tecnologia che sparirà ben presto. Te la vendono come "profondità di gioco aumentata". Io se voglio profondità uso il 3d.. o tutt'al più, quando sarà, uno di quei VR che sono in uscita.

ma tu mi sa che non hai provato il pg279q o l'acer xb271hu....

ecco perche' dici cose non proprio esatte.....

AragornElessar
02-02-2016, 22:25
ma tu mi sa che non hai provato il pg279q o l'acer xb271hu....

ecco perche' dici cose non proprio esatte.....

premesso che li ho visti, visto che mi poni questa domanda, tu l'hai mai visto un 7680x1440 riprodotto da 3 pg278q?

Obrigado
02-02-2016, 22:26
premesso che li ho visti, visto che mi poni questa domanda, tu l'hai mai visto un 7680x1440 riprodotto da 3 pg278q?

ahahahhhahaha

forse ho fatto il surround 3d molto prima di te...

ahahhahha

te ne puoi appendere pure uno al collo, ma sempre un pessimo tn rimane... ne ho avuti 4 di pg278q.... la festa dei colori slavati, del pixel inversion e degli artefatti da overdrive....

poi per carità il bleed del mio pg279q fa cagare, ma per il resto se lo mangia al pg278q

AragornElessar
02-02-2016, 22:38
ahahahhhahaha

forse ho fatto il surround 3d molto prima di te...

ahahhahha

te ne puoi appendere pure uno al collo, ma sempre un pessimo tn rimane... ne ho avuti 4 di pg278q.... la festa dei colori slavati, del pixel inversion e degli artefatti da overdrive....

poi per carità il bleed del mio pg279q fa cagare, ma per il resto se lo mangia al pg278q

/facepalm

The_SaN
03-02-2016, 01:15
Backlight Bleeding a parte, oggi non esiste un motivo per preferire un TN da gaming ad un IPS da gaming.
Colori migliori, tempo di risposta simile (il 4ms vs 1ms non è un confronto reale), e soprattutto angoli di visione superiori, che per uns surround è importantissimo.

http://www.tftcentral.co.uk/images/asus_rog_swift_pg279q/response_12.png

http://www.tftcentral.co.uk/images/asus_rog_swift_pg279q/response_13.png

http://www.tftcentral.co.uk/images/asus_rog_swift_pg279q/lag.jpg

The_SaN
03-02-2016, 01:22
NI, nel senso che, i calcoli DP vengono effettuati da un gruppo di core a parte e il fattore 1/3, 1/4 o 1/2 o quello che sara, dipendera dalla distribuzione delle unita DP, come nel caso di Kepler TOP che è 1/3 perchè c'è 1 unita DP ogni 3 CUDA core.Ho detto una mezza castroneria.
Mezza nel senso che i numeri sono giusti, il concetto sbagliato. Sarà che avevo in mente i registratori in virgola mobile...roba che ho visto eoni fa.

Lanzus
03-02-2016, 09:48
Diopende dal budget a tua disposizione ...

Il budget non centra. Io voglio una scheda nuova nel breve periodo ma non voglio manco il cippino. Al contempo non voglio spendere 1500 € per la Titan MaxStiazz edition.

Se la strategia di Nvidia sarà quella ventilata spero vivamente che AMD ne approfitti e faccia uscire schede in fascia 500/600 € con HBM che spaccano.

Crysis90
03-02-2016, 10:13
http://semiaccurate.com/2016/02/01/news-of-nvidias-pascal-tapeout-and-silicon-is-important/

Charlie è impazzito. Si rimangia tutto per quanto riguarda il tape out di Pascal e da la colpa agli altri siti che secondo lui "copiano ed incollano" rumors infondati che creano aspettative non veritiere. :eek: :mbe: :mbe: :mbe:

Adesso dice che secondo lui il tape-out di Pascal non è avvenuto a Giugno 2015 ma a Novembre 2015 e che JHJ ha nuovamente mostrato un "fake" al CES 2016. :confused: :confused: :rolleyes:

mircocatta
03-02-2016, 10:44
ora il vantaggio di avere uno sli di 970 comincia a farsi sentire :asd: pochi patemi sul decidere se cambiare o meno, tutta la tranquillità di aspettare che escano più versioni e che magari calino di prezzo :)

anche se... gestire la mia risoluzione incomincia ad essere difficile qual ora lo sli non funzioni

Nelson Muntz
03-02-2016, 11:06
che JHJ ha nuovamente mostrato un "fake" al CES 2016. :confused: :confused: :rolleyes:

Questo mi sembra ovvio dai . La scheda mostrata era identica a un modello precedente ( che non ricordo ) .

fireradeon
03-02-2016, 11:14
Noi siamo qui a discutere e vedrete invece che non esce una fava fino a metà anno. Io ovviamente spero il contrario. ;)

Crysis90
03-02-2016, 11:55
Questo mi sembra ovvio dai . La scheda mostrata era identica a un modello precedente ( che non ricordo ) .

Il problema è che fu Charlie stesso a dire che secondo lui i chip erano autentici Pascal. Rimangiandosi poi tutto con l'articolo di Lunedì 1 Febbraio. :confused: :confused: :confused:

Noi siamo qui a discutere e vedrete invece che non esce una fava fino a metà anno. Io ovviamente spero il contrario. ;)

Probabilmente a Giugno 2016 vedremo qualcosa di concreto.

Giovamas
03-02-2016, 12:12
Probabilmente a Giugno 2016 vedremo qualcosa di concreto.

Non ci sto capendo più nulla. Probabilmente mi sbaglio, ma ho trovato la roadmap nvidia presunta abbastanza irrealistica con la 1080Ti a 2017 inoltrato e la nuova Titan così presto ad aprile. IMHO si va a back to school (settembre o giù di lì)

Crysis90
03-02-2016, 12:51
Non ci sto capendo più nulla. Probabilmente mi sbaglio, ma ho trovato la roadmap nvidia presunta abbastanza irrealistica con la 1080Ti a 2017 inoltrato e la nuova Titan così presto ad aprile. IMHO si va a back to school (settembre o giù di lì)

Se non è Giugno 2016 (Computex) si va sicuramente al Back to school. ;)

fireradeon
03-02-2016, 19:53
Se non è Giugno 2016 (Computex) si va sicuramente al Back to school. ;)

Quoto.

TigerTank
03-02-2016, 19:59
Non ci sto capendo più nulla. Probabilmente mi sbaglio, ma ho trovato la roadmap nvidia presunta abbastanza irrealistica con la 1080Ti a 2017 inoltrato e la nuova Titan così presto ad aprile. IMHO si va a back to school (settembre o giù di lì)

Sicuramente la nuova titan uscirà un pò di mesi prima rispetto alle 1070/1080 per ovvi motivi ;)

illidan2000
04-02-2016, 08:59
ora il vantaggio di avere uno sli di 970 comincia a farsi sentire :asd: pochi patemi sul decidere se cambiare o meno, tutta la tranquillità di aspettare che escano più versioni e che magari calino di prezzo :)

anche se... gestire la mia risoluzione incomincia ad essere difficile qual ora lo sli non funzioni

stesso mio pensiero... se le 1070 costeranno care, si salta pure questa gp104, e si attende gp100

fireradeon
04-02-2016, 09:39
Sicuramente la nuova titan uscirà un pò di mesi prima rispetto alle 1070/1080 per ovvi motivi ;)

Come ragionamento commerciale, il rumor di aprile per la Titan e a seguire le altre ci sta, perchè se la Titan esce a Settembre poi che fai le 1070/1080 le fai uscire a novembre e la 1080Ti a inizio 2017?
Non so, cosiderando che ne abbiamo già parlato e che ormai abbiamo mangiato la foglia sul discorso Titan prima e Ti poi, devono cambiare un pò le cose altrimenti il 99% andrebbe sempre sulle Ti come è successo fino ad ora.
Cmq io spererei che uscisse a Giugno più che ad Aprile, se non altro perchè sto ancora mettendo i soldi da parte! :D

TigerTank
04-02-2016, 09:47
Come ragionamento commerciale, il rumor di aprile per la Titan e a seguire le altre ci sta, perchè se la Titan esce a Settembre poi che fai le 1070/1080 le fai uscire a novembre e la 1080Ti a inizio 2017?
Non so, cosiderando che ne abbiamo già parlato e che ormai abbiamo mangiato la foglia sul discorso Titan prima e Ti poi, devono cambiare un pò le cose altrimenti il 99% andrebbe sempre sulle Ti come è successo fino ad ora.
Cmq io spererei che uscisse a Giugno più che ad Aprile, se non altro perchè sto ancora mettendo i soldi da parte! :D

Il punto è che se non facessero come fanno la titan non se la filerebbe nessuno. Sfruttano il fattore "scimmia estrema" per fare il massimo utile perchè ci sarà gente disposta anche a spendere 1500€ pur di avere subito le nuove schede, oltretutto con nuovo pp e HBM2.
La Ti arriva per forza per ultima perchè di solito è la scheda migliore della generazione, più prestante delle versioni castrate(vedi stacco da gtx980Ti a gtx980/gtx970) e fullGPU a costi più convenienti della titan ;)
Da aggiungere anche le eventuali revisioni, così come sulle gtx780Ti montavano le B1.
E c'è chi piglia prima la versione castrata e poi la Ti....l'ho fatto pure io da gtx780Ti a gtx980 e a gtx980Ti. Diciamo che l'upgrade sequenziale ci può anche stare se resti su singola scheda, sfruttando i ritorni di rivendita, mentre se ti fai Sli di attuali Ti allora il cambio ideale è decisamente quello diretto con 2 future Ti :)
L'ordine attuale con cui le fanno uscire è il migliore come strategia di marketing pro vendite.

Giovamas
04-02-2016, 10:19
Sicuramente la nuova titan uscirà un pò di mesi prima rispetto alle 1070/1080 per ovvi motivi ;)

Già quotone.. terzo tentativo per sfruttare la scimmia estrema. Il primo gli è andato benissimo il secondo magari meno. Vedremo che succederà ma io rimango della mia idea: Giugno/ Settembre Natale. Aprile mi sembra davvero troppo presto e la 1080ti in pieno 2017 beh no .. sarà la scheda che noi tutti o quasi prenderemo. O forse volutamente aumenteranno il lasso temporale tra Titan e Ti proprio per questo motivo. Per ora c'è solo grande confusione

mikael84
04-02-2016, 14:32
Come ragionamento commerciale, il rumor di aprile per la Titan e a seguire le altre ci sta, perchè se la Titan esce a Settembre poi che fai le 1070/1080 le fai uscire a novembre e la 1080Ti a inizio 2017?
Non so, cosiderando che ne abbiamo già parlato e che ormai abbiamo mangiato la foglia sul discorso Titan prima e Ti poi, devono cambiare un pò le cose altrimenti il 99% andrebbe sempre sulle Ti come è successo fino ad ora.
Cmq io spererei che uscisse a Giugno più che ad Aprile, se non altro perchè sto ancora mettendo i soldi da parte! :D

La Titan ci sta perchè ad Nvidia serve una scheda per DP fronte Tesla. Quindi è piuttosto probabile. Per ora secondo Nvidia i veri miglioramenti saranno sull'efficienza. 70% per watt e 60% in prestazioni rispetto ai 28hpm Maxwell

Eschelon
04-02-2016, 18:14
Quindi per Pascal gtx 1070 - 1080 ecc. se ne parlerà a fine anno (in commercio)?

fireradeon
04-02-2016, 19:15
Quindi per Pascal gtx 1070 - 1080 ecc. se ne parlerà a fine anno (in commercio)?

Pare di sì ma dai rumor non sono pascal, se non ho capito male. Ma 104 Con memoria ddr5x

ste-87
04-02-2016, 19:58
Pare di sì ma dai rumor non sono pascal, se non ho capito male. Ma 104 Con memoria ddr5x

what? fate un pò di confusione...sono pascal a prescindere dal fatto che montino gddr5x o hbm 2, per le x70/x80 c'è da vedere che escano a breve 1-2 mesi o al massimo 3-4 da oggi e con molta pobabilità adotteranno le gddr5x, per la Titan sempre nello stesso periodo indicativo con tesi abbastanza papapbile che la vede con le hbm 2 rappresentando la fascia enthusiast/semi-pro. Per la x80Ti a logica non ha senso farla andare oltre la fine dell'anno (novembre/dicembre) anche se i leak dicono uno inverosimile ( per la logica) 2017 e anche questa dovrebbe avere le hbm 2

mikael84
04-02-2016, 21:04
Pare di sì ma dai rumor non sono pascal, se non ho capito male. Ma 104 Con memoria ddr5x

GP104 è Pascal
G(GTX)
P(Pascal, il nome deriva da Blaise Pascal)
104 è la serie

GM204 invece
G(gtx)
M(Maxwell, James Clerk Maxwell)
204 è la serie

Con il nome x04 si intende la fascia alta e con Maxwell, tale fascia è rappresentata dalla 970 e dalla 980. Di conseguenza GP104 Pascal sarà il successore diretto di queste schede.

GM200, Maxwell GTX Titan X e GTX 980TI verranno sostituite da GP100.

GM206 rappresenta la fascia performance o media e attualmente sono la GTX 950 e GTX 960, queste schede verranno sostituite da GP106.

Quando si parla di GP104 si intendono sempre le sostitute di 970 e 980, schede che a loro volta hanno preso il posto di GK104 (gtx-kepler-serie) ovvero, gtx 760,760TI(esiste in versione OEM)770,680,670

Giovamas
05-02-2016, 08:14
Alla luce di quello che scrivete aspetto il GP100 "depotenziato". versione custom.

illidan2000
05-02-2016, 15:01
Quando si parla di GP104 si intendono sempre le sostitute di 970 e 980, schede che a loro volta hanno preso il posto di GK104 (gtx-kepler-serie) ovvero, gtx 760,760TI(esiste in versione OEM)770,680,670

Johannes von Kepler :)

cmq hai dimenticato di citare la 750ti, che fa un po' eccezione, avendo il '7' davanti

mikael84
05-02-2016, 16:01
Johannes von Kepler :)

cmq hai dimenticato di citare la 750ti, che fa un po' eccezione, avendo il '7' davanti

Non l'ho citata perchè mi sono fermato sino alla x06:)
La 750 rappresenta la prima Maxwell GM207 ed è un pochino a se stante visto che rispetto alla serie 9 è dotata di Polymorh engine di vecchia generazione (2,0) e non ha la tecnica di decompressione rops. Anche queste ultime sono la metà rispetto alla serie 9. Il vero punto forte di questa scheda che caratterizza anche Maxwell 2,0 è la grossa quantità di cache e quindi riesce a sgravare parecchio la banda mantenendo latenze eccellenti
GM207: 750-750TI E 745 OEM sostituiscono GK107:630-640-650.
Nella fascia bassa solitamente si trovano quasi sempre dei rebrand di vecchie schede, pensa che la 920M dei portatili è una fermi:)

illidan2000
05-02-2016, 16:23
Non l'ho citata perchè mi sono fermato sino alla x06:)
La 750 rappresenta la prima Maxwell GM207 ed è un pochino a se stante visto che rispetto alla serie 9 è dotata di Polymorh engine di vecchia generazione (2,0) e non ha la tecnica di decompressione rops. Anche queste ultime sono la metà rispetto alla serie 9. Il vero punto forte di questa scheda che caratterizza anche Maxwell 2,0 è la grossa quantità di cache e quindi riesce a sgravare parecchio la banda mantenendo latenze eccellenti
GM207: 750-750TI E 745 OEM sostituiscono GK107:630-640-650.
Nella fascia bassa solitamente si trovano quasi sempre dei rebrand di vecchie schede, pensa che la 920M dei portatili è una fermi:)

un bel casino questo naming.
Mi ero completamente scordato che le 630/650 forse GK! Certo, in questo caso è un re-branding positivo. Con il vecchio numero, mettere una nuova "revision", è senz'altro un plus che non un malus

LambertoKevlar
06-02-2016, 09:14
una titan pascal con un 2600k overcloccato a 4.4 ghz come lo vedete?Più che altro è la rotture di dover cambiare mobo,processore e formattare in caso di acquisto :D

TigerTank
06-02-2016, 09:52
una titan pascal con un 2600k overcloccato a 4.4 ghz come lo vedete?Più che altro è la rotture di dover cambiare mobo,processore e formattare in caso di acquisto :D

Piazzare una scheda che probabilmente costerà 1500€ o poco meno su una configurazione ormai obsoleta, non credo che sia il massimo :D

athlon xp 2400
06-02-2016, 10:21
Piazzare una scheda che probabilmente costerà 1500€ o poco meno su una configurazione ormai obsoleta, non credo che sia il massimo :D

Come mettere un motore Ferrari su una punto

illidan2000
06-02-2016, 11:13
Piazzare una scheda che probabilmente costerà 1500€ o poco meno su una configurazione ormai obsoleta, non credo che sia il massimo :D

una titan pascal con un 2600k overcloccato a 4.4 ghz come lo vedete?Più che altro è la rotture di dover cambiare mobo,processore e formattare in caso di acquisto :D

Come mettere un motore Ferrari su una punto

a scheda singola, secondo me, non soffrirà molto.
Perderà un 5%, più per via del chipset, che non per il processore in sé, e per il collegamento pci-express 2.0, che cmq a 16x è come un 8x del 3.0
Poi, magari le HBM mettono in crisi più di quanto possa prevedere io, ma, in questo caso, tutti quelli che fanno SLI e vanno a 8x sarebbero nei casini...

oZonoRobotics
06-02-2016, 11:17
sarebbe cpu limited solo nei giochi attuali che abusano della cpu, e con i rari giochi che useranno le dx12 non farebbe nessuna differenza se non appunto per il pci e. 2

ho dei video di quando avevo il 3820 e singola scheda faccio gli stessi fps.... solo crysis, gta e bf4 server da 64 giocatori vedo qualche miglioramento

poi se veramente la nuova titan va il 60% in più di una attuale, non è che stravolgiamo tutto... anzi... :S

athlon xp 2400
06-02-2016, 11:24
sarebbe cpu limited solo nei giochi attuali che abusano della cpu, e con i rari giochi che useranno le dx12 non farebbe nessuna differenza se non appunto per il pci e. 2

ho dei video di quando avevo il 3820 e singola scheda faccio gli stessi fps.... solo crysis, gta e bf4 server da 64 giocatori vedo qualche miglioramento

poi se veramente la nuova titan va il 60% in più di una attuale, non è che stravolgiamo tutto... anzi... :S


Se uno si prende una vga da 1500 mi pare logico cambiare tutto lol

oZonoRobotics
06-02-2016, 11:28
Se uno si prende una vga da 1500 mi pare logico cambiare tutto lol

beh può anche prender la scheda, veder se gli gira decorosamente, e in caso si renda conto che proprio non gira come dovrebbe fare il grande passo...

mircocatta
06-02-2016, 12:03
Io ho tenuto botta con un q6600 a 3Ghz fino alla 6970 e passare ad un 3750k fece non tanta differenza
Un 2600k occato dirà comunque la sua con una futura nuova titan, e così farà anche un 3770k come quello che ho io (almeno sperò)

Inviato dal mio HTC One M9 utilizzando Tapatalk

Gello
06-02-2016, 12:05
una titan pascal con un 2600k overcloccato a 4.4 ghz come lo vedete?Più che altro è la rotture di dover cambiare mobo,processore e formattare in caso di acquisto :D

Tranne rari casi in cui puoi perdere quel 5/10% vai ancora alla grandissima (purtroppo)

Gello
06-02-2016, 12:52
ma purtroppo de che???
ma meno male!

fosse implementato ancora meglio il multicore nei giochi cambiare processore per giocare diventererebbe un brutto ricordo...

ps. con le DX12 anche i vecchi sandy bridge riprenderanno vigore oltre ai bulldozer e derivati.

Da amante della tecnologia mi piacerebbe vedere progresso non solo dove e come torna comodo a loro ;)

Edit: Ovviamente servirebbero competitor

TigerTank
06-02-2016, 12:57
a scheda singola, secondo me, non soffrirà molto.
Perderà un 5%, più per via del chipset, che non per il processore in sé, e per il collegamento pci-express 2.0, che cmq a 16x è come un 8x del 3.0
Poi, magari le HBM mettono in crisi più di quanto possa prevedere io, ma, in questo caso, tutti quelli che fanno SLI e vanno a 8x sarebbero nei casini...

beh può anche prender la scheda, veder se gli gira decorosamente, e in caso si renda conto che proprio non gira come dovrebbe fare il grande passo...

Sì ma secondo me sarebbero soldi buttati a priori. Capirei se montata su una configurazione X99 con esacore e sfruttata non solo per gaming...ma pigliare una scheda del genere su una config. superata e con tanto di presunti 32GB di costose HBM2 per il semplice gaming....
Imho tanto vale upgradare la base e in ogni caso, se lo scopo è il solo gaming, attendere gli esiti pratici delle 1070/1080 prima di lanciarsi al volo così come vorrebbe il marketing :)


ps. con le DX12 anche i vecchi sandy bridge riprenderanno vigore oltre ai bulldozer e derivati.

Ma guarda...io ormai non credo più alle promesse miracolose.
A parte il fatto che le dx12 sono in ritardissimo, ci crederò quando lo vedrò, così' come la leggenda che in Sli la vram si sommerà :)

athlon xp 2400
06-02-2016, 13:00
ma purtroppo de che???
ma meno male!

fosse implementato ancora meglio il multicore nei giochi cambiare processore per giocare diventererebbe un brutto ricordo...

ps. con le DX12 anche i vecchi sandy bridge riprenderanno vigore oltre ai bulldozer e derivati.

io sto miracolo lo devo ancora vedere e finche nn vedo LOl

egounix
06-02-2016, 13:36
io sto miracolo lo devo ancora vedere e finche nn vedo LOl

Ma che miracolo... Apocalisse zombi...
Sandy + titan
Dx12
Solo a sentirne parlare mi si ritirano i testicoli e mi viene la pelle d'oca.

#socredenze #lenuovereliGen

athlon xp 2400
06-02-2016, 13:45
Ma che miracolo... Apocalisse zombi...
Sandy + titan
Dx12
Solo a sentirne parlare mi si ritirano i testicoli e mi viene la pelle d'oca.

#socredenze #lenuovereliGen


Io ho il sandy e di certo nn lo cambio lol

Mi riferivo alle dx 12 che sfruttano le cpu e vga meglio :) lo voglio vedere si

system450
06-02-2016, 13:49
Come mettere un motore Ferrari su una punto

http://www.overclockers.com/intel-skylake-i7-6700k-cpu-review/

I7 6700k SuperPI 1M - 8.643 s (col turbo va a 4.2 GHz mi pare)

I7 2600K@4.4 GHz SuperPI 1M - 8.470 s (almeno sul mio).

Sarà anche un test vecchio e non multithreaded, ma quanto a prestazioni del core singolo il 2600k spacca di brutto ancora !

Potrei anche cambiare mobo, processore e ram che stanno sul mio secondo pc esclusivamente da gioco, ma va tanto bene così e ora ci metterò su una 980ti G1.
Ora che escono le 1080ti valuterò il da farsi, ma per ora è ancora una bella bestia, altro che obsoleto !!!

TigerTank
06-02-2016, 13:55
Ma che miracolo... Apocalisse zombi...
Sandy + titan
Dx12
Solo a sentirne parlare mi si ritirano i testicoli e mi viene la pelle d'oca.


Aggiungi FUllHD....perchè non si può prendere una Titan pascal e giocare in fullHD, anche se fosse un megaschermo :D
O meglio si può ma...sarebbe uno spreco.

oZonoRobotics
06-02-2016, 14:00
con due schede casca il palco, ma singola scheda la differenza è trascurabile su maxwell, su palscal ce lo saprà dire lui!! :P

kiwivda
06-02-2016, 14:56
Aggiungi FUllHD....perchè non si può prendere una Titan pascal e giocare in fullHD, anche se fosse un megaschermo :D
O meglio si può ma...sarebbe uno spreco.

Questi discorsi non li capisco, io gioco su uno schermo Full HD con la Titan X la scheda lavora al 99% quasi sempre per garantirmi i 144Hz. e non sempre ci riesce. Poi che i 12GB di memoria non servano beh quello è un altro discorso, ma se cominci a fare downsampling vi assicuro che allora i 12 cominciano a essere utili anche su "semplice" full hd, e la gpu inoltre non regge i 144Mhz perche in downsampling 144 fps non li vedi manco con il binocolo con una singola Titan X.

TigerTank
06-02-2016, 15:16
Questi discorsi non li capisco, io gioco su uno schermo Full HD con la Titan X la scheda lavora al 99% quasi sempre per garantirmi i 144Hz. e non sempre ci riesce. Poi che i 12GB di memoria non servano beh quello è un altro discorso, ma se cominci a fare downsampling vi assicuro che allora i 12 cominciano a essere utili anche su "semplice" full hd, e la gpu inoltre non regge i 144Mhz perche in downsampling 144 fps non li vedi manco con il binocolo con una singola Titan X.

Dai Kiwi....una titanX e peggio ancora una titan pascal Imho non si possono vedere su un 24" fullHD tn.... :D
Un ips 1440p è già tutt'altra esperienza, se da gaming poi meglio ancora...e con il gsync non serve assolutamente stare per forza sempre a 144fps. Io infatti gioco dai 60 a salire, con scheda sempre al 98-99% quindi dove arriva arriva...e per aumentare il framerate eventualmente sacrifico quei filtri che ammazzano il framerate senza aggiungere cose fondamentali, tipo le ombre ultra e simili ;)

kiwivda
06-02-2016, 15:23
Dai Kiwi....una titanX e peggio ancora una titan pascal Imho non si possono vedere su un 24" fullHD tn.... :D
Un ips 1440p è già tutt'altra esperienza, se da gaming poi meglio ancora...e con il gsync non serve assolutamente stare per forza sempre a 144fps. Io infatti gioco dai 60 a salire, con scheda sempre al 98-99%...e sacrifico eventualmente i settaggi che ammazzano il framerate senza aggiungere cose fondamentali, tipo le ombre ultra e simili ;)

Mah guarda qui siamo in disaccordo, ma il mondo è bello perché è vario, io ritengo che dover scendere a compromessi con i dettagli grafici (tranne l'AA che in downsampling non serve) sia una bestemmia, così come lo sia non stare sopra i 60 fps e come anche avere un monitor a 50 cm dagli occhi che devi girare la testa per vederlo tutto. Fosse per me vorrei un 24" 4k IPS a 160Mhz, e se voglio più coinvolgimento c'è l'Oculus.

Certo il discorso che i giochi siano fatti un po con il :ciapet: è un discorso lecito, ma comunque sterile, io non programmo, gioco e basta, quindi mi adatto fin dove posso.

Poi se un giorno ci vorrà una 2080Ti per far girare una roba simile a minecraft, beh quel giorno probabilmente mi comprerò una console. :D

athlon xp 2400
06-02-2016, 15:26
Dai Kiwi....una titanX e peggio ancora una titan pascal Imho non si possono vedere su un 24" fullHD tn.... :D
Un ips 1440p è già tutt'altra esperienza, se da gaming poi meglio ancora...e con il gsync non serve assolutamente stare per forza sempre a 144fps. Io infatti gioco dai 60 a salire, con scheda sempre al 98-99% quindi dove arriva arriva...e per aumentare il framerate eventualmente sacrifico quei filtri che ammazzano il framerate senza aggiungere cose fondamentali, tipo le ombre ultra e simili ;)

Comunque con il mio post mi riferivo più che altro ai megaschermi tv...ma fullHD e 60Hz :)

Le ombre su tw3 sono mattoni a ultra Lol perdo pure 10 fps

Psycho77
06-02-2016, 15:26
Aggiungi FUllHD....perchè non si può prendere una Titan pascal e giocare in fullHD, anche se fosse un megaschermo :D
O meglio si può ma...sarebbe uno spreco.

Ti seguo sempre con interesse,ma stavolta ti devo smentire.

Basta un gta 5 maxato con erba ad ultra in full hd per mettere a 90 gradi una 980 ti occata al tritolo liquido.
Se il gioco richiede risorse estreme,il 1080p è tutt'altro che superato,in alcuni casi.

Psycho77
06-02-2016, 15:27
Aggiungi FUllHD....perchè non si può prendere una Titan pascal e giocare in fullHD, anche se fosse un megaschermo :D
O meglio si può ma...sarebbe uno spreco.

Ti seguo sempre con interesse,ma stavolta ti devo smentire.

Basta un gta 5 maxato con erba ad ultra in full hd per mettere a 90 gradi una 980 ti occata al tritolo liquido.
Se il gioco richiede risorse estreme,il 1080p è tutt'altro che superato,in alcuni casi.

Le ombre su tw3 sono mattoni a ultra Lol perdo pure 10 fps

Altro valido esempio.
Una 980 ti non regge i 60 frame in tw3 tutto maxato in full hd.
Sti maledetti open world.:read:

Aggiungo pure fallout 4 nel centro di boston.
Una 980 ti a 1080p ha cali fino 45 frame,in quelle zone,immagino per il polycount spropositato messo a schermo con draw distance maxata a cannone.

Scusate il doppio post.

athlon xp 2400
06-02-2016, 16:00
Dai Kiwi....una titanX e peggio ancora una titan pascal Imho non si possono vedere su un 24" fullHD tn.... :D
Un ips 1440p è già tutt'altra esperienza, se da gaming poi meglio ancora...e con il gsync non serve assolutamente stare per forza sempre a 144fps. Io infatti gioco dai 60 a salire, con scheda sempre al 98-99% quindi dove arriva arriva...e per aumentare il framerate eventualmente sacrifico quei filtri che ammazzano il framerate senza aggiungere cose fondamentali, tipo le ombre ultra e simili ;)

per curiosita' che risoluzione e che filtri e dettagli tieni ìn tw3 e a che frame?

io tengo 1440p, tutto su ultra tranne le ombre che le ho su alto perché perdo troppi frame per quello che rende, hair disattivo tanto nn ci vedo differenza sui capelli, e del pelo nn mi importa ... cosi sto quasi fisso a 60fps

oZonoRobotics
06-02-2016, 16:16
è vero, dipende da come ti abitui... e una volta che ti abitui è impossibile tornare indietro :P

TigerTank
06-02-2016, 16:27
Mah guarda qui siamo in disaccordo, ma il mondo è bello perché è vario, io ritengo che dover scendere a compromessi con i dettagli grafici (tranne l'AA che in downsampling non serve) sia una bestemmia, così come lo sia non stare sopra i 60 fps e come anche avere un monitor a 50 cm dagli occhi che devi girare la testa per vederlo tutto. Fosse per me vorrei un 24" 4k IPS a 160Mhz, e se voglio più coinvolgimento c'è l'Oculus.

Certo il discorso che i giochi siano fatti un po con il :ciapet: è un discorso lecito, ma comunque sterile, io non programmo, gioco e basta, quindi mi adatto fin dove posso.

Poi se un giorno ci vorrà una 2080Ti per far girare una roba simile a minecraft, beh quel giorno probabilmente mi comprerò una console. :D

Capito. Beh sì tu hai esigenze particolari. Considerati i porting + effetti gameworks mattoni che escono, giocare a 144fps quasi costanti con tutto maxato è una bella mazzata e appunto tocca stare in fullHD pure con schede di quel calibro :doh:

Imho però credo che con le pascal ci si debba ormai spostare sui 1440p e sui 4K, visto anche il proliferare graduale di soluzioni da gaming di questo tipo.
Cavolo se pure con le pascal ci volesse ancora la fullHD per avere un certo livello di prestazioni mi piglio pure io una console :asd:

Ti seguo sempre con interesse,ma stavolta ti devo smentire.

Basta un gta 5 maxato con erba ad ultra in full hd per mettere a 90 gradi una 980 ti occata al tritolo liquido.
Se il gioco richiede risorse estreme,il 1080p è tutt'altro che superato,in alcuni casi.
Ma infatti è questo il problema, purtroppo ci ritroviamo con giochi, ormai quasi tutti porting, farciti di effetti grafici stratosferici che però spesso sono poco ottimizzati e ammazzano indegnamente il framerate anche con schede che non costano spiccioli.
Per dire...se delle ombre gameworks ultra ti levano 20fps di framerate, io preferisco di gran lunga stare su 1440p e abbassare il settaggio piuttosto che ipotizzare una fullHD con settaggi grafici ultra anche quando sono troppo esosi in rapporto alle migliorìe e/o ottimizzati con i piedi.
Quest'ultima situazione mi sembra un pò una presa per i fondelli del marketing...ma vediamo tutti che ormai molti giochi non te li godi più maxati con le vga contemporanee...ma con quelle successive :D

per curiosita' che risoluzione e che filtri e dettagli tieni ìn tw3 e a che frame?
io tengo 1440p, tutto su ultra tranne le ombre che le ho su alto perché perdo troppi frame per quello che rende, hair disattivo tanto nn ci vedo differenza sui capelli, e del pelo nn mi importa ... cosi sto quasi fisso a 60fps
Non ho ancora giocato a TW3 perchè dovrei ancora giocare il 2. Ma il mio target è giocare dai 60 in su e inizio a scremare certi effetti di contorno(ombre, ambient occlusion, blur dinamico, ecc...) in 2 casi: se appunto devo stare sopra il limite o se vedo che un effetto ammazza troppo il framerate senza migliorare la grafica più di tanto. Per dire ho appena finito Far Cry 4...con ombre "alte" viaggiavo dai 70 a più di 100fps. Provate le ombre nvidia gameworks....minimi anche sotto ai 50. Roba indecente e subito disattivate.

Psycho77
06-02-2016, 16:36
Capito. Beh sì tu hai esigenze particolari. Considerati i porting + effetti gameworks mattoni che escono, giocare a 144fps quasi costanti con tutto maxato è una bella mazzata e appunto tocca stare in fullHD pure con schede di quel calibro :doh:

Imho però credo che con le pascal ci si debba ormai spostare sui 1440p e sui 4K, visto anche il proliferare graduale di soluzioni da gaming di questo tipo.
Cavolo se pure con le pascal ci volesse ancora la fullHD per avere un certo livello di prestazioni mi piglio pure io una console :asd:


Ma infatti è questo il problema, purtroppo ci ritroviamo con giochi, ormai quasi tutti porting, farciti di effetti grafici stratosferici che però spesso sono poco ottimizzati e ammazzano indegnamente il framerate anche con schede che non costano spiccioli. :muro:
Per dire...se delle ombre gameworks ultra ti levano 20fps di framerate, io preferisco di gran lunga stare su 1440p e abbassare il settaggio piuttosto che ipotizzare una fullHD con settaggi grafici ultra anche quando sono troppo esosi in rapporto alle migliorìe e/o ottimizzati con i piedi :)
Quest'ultima situazione mi sembra un pò una presa per i fondelli del marketing...ma vediamo tutti che ormai molti giochi non te li godi più maxati con le vga contemporanee...ma con quelle successive :D

Il problema di gta 5 non sono certo le ombre.
Tra alto e nvidia pcss ci saranno tipo 4 frame di differenza e il risultato all'occhio è molto simile.Anche io non mi farei problemi ad abbassare un parametro delle ombre se il risultato fosse molto simile o addirittura uguale.
Il problema è proprio l'erba ad ultra che rende il gioco molto più denso e appagante da guardare e non c'è verso di eguagliare quel ben di Dio con impostazioni più basse.

Ora non so dirti se rockstar non si sia degnata di ottimizzare al meglio questo parametro,dopo milioni e milioni di copie vendute solo su pc.
Resta il fatto che è un setting improponibile per qualsiasi gpu in commercio se si mira a tenere sti maledetti 60 frame rock solid.:)

athlon xp 2400
06-02-2016, 16:39
Capito. Beh sì tu hai esigenze particolari. Considerati i porting + effetti gameworks mattoni che escono, giocare a 144fps quasi costanti con tutto maxato è una bella mazzata e appunto tocca stare in fullHD pure con schede di quel calibro :doh:

Imho però credo che con le pascal ci si debba ormai spostare sui 1440p e sui 4K, visto anche il proliferare graduale di soluzioni da gaming di questo tipo.
Cavolo se pure con le pascal ci volesse ancora la fullHD per avere un certo livello di prestazioni mi piglio pure io una console :asd:


Ma infatti è questo il problema, purtroppo ci ritroviamo con giochi, ormai quasi tutti porting, farciti di effetti grafici stratosferici che però spesso sono poco ottimizzati e ammazzano indegnamente il framerate anche con schede che non costano spiccioli.
Per dire...se delle ombre gameworks ultra ti levano 20fps di framerate, io preferisco di gran lunga stare su 1440p e abbassare il settaggio piuttosto che ipotizzare una fullHD con settaggi grafici ultra anche quando sono troppo esosi in rapporto alle migliorìe e/o ottimizzati con i piedi.
Quest'ultima situazione mi sembra un pò una presa per i fondelli del marketing...ma vediamo tutti che ormai molti giochi non te li godi più maxati con le vga contemporanee...ma con quelle successive :D


Non ho ancora giocato a TW3 perchè dovrei ancora giocare il 2. Ma il mio target è giocare dai 60 in su e inizio a scremare certi effetti di contorno(ombre, ambient occlusion, blur dinamico, ecc...) in 2 casi: se appunto devo stare sopra il limite o se vedo che un effetto ammazza troppo il framerate senza migliorare la grafica più di tanto. Per dire ho appena finito Far Cry 4...con ombre "alte" viaggiavo dai 70 a più di 100fps. Provate le ombre nvidia gameworks....minimi anche sotto ai 50. Roba indecente e subito disattivate.


te lo dico io allora ..metti subito ombre alto e non ultra LOL da differenza non e' minimamente visibile.. solo perdi frame e tanti sui 10

Psycho77
06-02-2016, 16:41
te lo dico io allora ..metti subito ombre alto e non ultra LOL da differenza non e' minimamente visibile.. solo perdi frame e tanti sui 10

Vabbè Cristià,ma tu hai la cpu della clementoni.:D

athlon xp 2400
06-02-2016, 17:05
Vabbè Cristià,ma tu hai la cpu della clementoni.:D

oddio pure tu LOL .. ci entrasse qualcosa il clock della cpu con le ombre:sofico:

TigerTank
06-02-2016, 17:08
Il problema di gta 5 non sono certo le ombre.
Tra alto e nvidia pcss ci saranno tipo 4 frame di differenza e il risultato all'occhio è molto simile.Anche io non mi farei problemi ad abbassare un parametro delle ombre se il risultato fosse molto simile o addirittura uguale.
Il problema è proprio l'erba ad ultra che rende il gioco molto più denso e appagante da guardare e non c'è verso di eguagliare quel ben di Dio con impostazioni più basse.

Ora non so dirti se rockstar non si sia degnata di ottimizzare al meglio questo parametro,dopo milioni e milioni di copie vendute solo su pc.
Resta il fatto che è un setting improponibile per qualsiasi gpu in commercio se si mira a tenere sti maledetti 60 frame rock solid.:)

Esatto, come scritto ormai siamo al punto che molti giochi te li godi forse al 100% solo con vga successive o facendo Sli(se ben supportato) :stordita:


te lo dico io allora ..metti subito ombre alto e non ultra LOL da differenza non e' minimamente visibile.. solo perdi frame e tanti sui 10
Immagino...va valutato gioco per gioco, con relativi effetti e corrispondenti impatti :)

athlon xp 2400
06-02-2016, 17:16
Esatto, come scritto ormai siamo al punto che molti giochi te li godi forse al 100% solo con vga successive o facendo Sli(se ben supportato) :stordita:



Immagino...va valutato gioco per gioco, con relativi effetti e corrispondenti impatti :)

dimmi tu che differenze ci vedi


io minime ma solo perché vedo sto coso qui

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-shadow-quality-interactive-comparison-1-ultra-vs-high.html

mikael84
06-02-2016, 17:32
Mah guarda qui siamo in disaccordo, ma il mondo è bello perché è vario, io ritengo che dover scendere a compromessi con i dettagli grafici (tranne l'AA che in downsampling non serve) sia una bestemmia, così come lo sia non stare sopra i 60 fps e come anche avere un monitor a 50 cm dagli occhi che devi girare la testa per vederlo tutto. Fosse per me vorrei un 24" 4k IPS a 160Mhz, e se voglio più coinvolgimento c'è l'Oculus.

Certo il discorso che i giochi siano fatti un po con il :ciapet: è un discorso lecito, ma comunque sterile, io non programmo, gioco e basta, quindi mi adatto fin dove posso.

Poi se un giorno ci vorrà una 2080Ti per far girare una roba simile a minecraft, beh quel giorno probabilmente mi comprerò una console. :D

L'esperienza di gioco su un 1440p IPS è abissalmente migliore rispetto ad un 1080p TN. Per me giocare su un TN equivale a non giocare (parere personale):)
La resa cromatica con lo sweet fx raggiunge risultati eccellenti ed Nvidia con i TN non è proprio il Top. Se provi un IPS, vedrai il TN completamente sbiadito ed anche gli sweet fx non migliorano tanto.
Cmq entriamo nella soggettività ovviamente ma per dirti secondo me meglio giocare un Fallout 4 su un 1440p più sweet fxabassando questo
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-performance-640px.png

che giocare su un TN 1080p con quello attivo.
Su un 1080p devi cmq impostare i filtri o ricorrere al DS, quindi ti ritrovi a pilotare lo stesso peso ma con un pannello nettamente inferiore e con i pixel che rimangono quelli(2mpixel):)

TigerTank
06-02-2016, 17:37
dimmi tu che differenze ci vedi


io minime ma solo perché vedo sto coso qui

http://international.download.nvidia.com/geforce-com/international/comparisons/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-shadow-quality-interactive-comparison-1-ultra-vs-high.html

Un classico...un pò come succedeva in Bioshock Infinite ai tempi. Abbassavi il settaggio, visivamente non cambiava nulla ma decollava il framerate.
Cose da valutare gioco per gioco :)

@Mike:quotissimo :)
Come quando dopo aver comprato la tua nuova vga fiammante e da raggiungimento del nirvana, vedi i grafici delle recensioni dei nuovi titoli di turno con relativi framerates massacrati con tutto ultra già in fullHD :D

Nhirlathothep
06-02-2016, 17:50
L'esperienza di gioco su un 1440p IPS è abissalmente migliore rispetto ad un 1080p TN. Per me giocare su un TN equivale a non giocare (parere personale):)
La resa cromatica con lo sweet fx raggiunge risultati eccellenti ed Nvidia con i TN non è proprio il Top. Se provi un IPS, vedrai il TN completamente sbiadito ed anche gli sweet fx non migliorano tanto.
Cmq entriamo nella soggettività ovviamente ma per dirti secondo me meglio giocare un Fallout 4 su un 1440p più sweet fxabassando questo
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-performance-640px.png

che giocare su un TN 1080p con quello attivo.
Su un 1080p devi cmq impostare i filtri o ricorrere al DS, quindi ti ritrovi a pilotare lo stesso peso ma con un pannello nettamente inferiore e con i pixel che rimangono quelli(2mpixel):)

ciao!
come hai detto anche tu, entriamo nella soggettivita' e io la vedo all' opposto, ho molti piu' schermi ips che tn (non li ho presi per gaming) (anche il notebook e' uno stupendo ips con rapporto di contrasto reale 1000:1, e ho anche un 5k ips), ma preferisco giocare su tn 1080p 120hz :)


spesso gioco anche con dettagli abbassati di brutto, non c'e problema per me, pero' voglio 100 fps minimi e mai microstuttering, nemmeno l' ombra :)

per me gsync e roba per limitare i danni dei bassi fps non devono esistere, giocare su pc per me significa avere giochi frenetici e velocissimi, impossibili su qualsiasi altra piattaforma esistente. Se provo un gioco su schermo 60hz, mi sembra di tornare indietro al pc che avevo preso nel 2008.

egounix
06-02-2016, 17:58
ciao!
come hai detto anche tu, entriamo nella soggettivita' e io la vedo all' opposto, ho molti piu' schermi ips che tn (non li ho presi per gaming) (anche il notebook e' uno stupendo ips con rapporto di contrasto reale 1000:1, e ho anche un 5k ips), ma preferisco giocare su tn 1080p 120hz :)


spesso gioco anche con dettagli abbassati di brutto, non c'e problema per me, pero' voglio 100 fps minimi e mai microstuttering, nemmeno l' ombra :)

per me gsync e roba per limitare i danni dei bassi fps non devono esistere, giocare su pc per me significa avere giochi frenetici e velocissimi, impossibili su qualsiasi altra piattaforma esistente. Se provo un gioco su schermo 60hz, mi sembra di tornare indietro al pc che avevo preso nel 2008.

Ammettendo di riuscire a fare un pc perfetto, potente, bilanciato, se l'engine va alla xxx pure su ssd 950 m.2 raid0, con 64gb ecc 4000mhz, driver esente da bug, vga della madonna, uno schermo mai visto prima con 0ms, periferiche che agiscono prima che tu possa iterfacciarti fisicamente con loro (tipo l'ocz cerebral brain supapoua), ma appunto l'engine microstuttera perchè gli girano i @@, che fai? Chiudi e disinstalli il gioco?
:stordita:

oZonoRobotics
06-02-2016, 18:00
ciao!
come hai detto anche tu, entriamo nella soggettivita' e io la vedo all' opposto, ho molti piu' schermi ips che tn (non li ho presi per gaming) (anche il notebook e' uno stupendo ips con rapporto di contrasto reale 1000:1, e ho anche un 5k ips), ma preferisco giocare su tn 1080p 120hz :)


spesso gioco anche con dettagli abbassati di brutto, non c'e problema per me, pero' voglio 100 fps minimi e mai microstuttering, nemmeno l' ombra :)

per me gsync e roba per limitare i danni dei bassi fps non devono esistere, giocare su pc per me significa avere giochi frenetici e velocissimi, impossibili su qualsiasi altra piattaforma esistente. Se provo un gioco su schermo 60hz, mi sembra di tornare indietro al pc che avevo preso nel 2008.

esatto, oguno deve vedere come meglio gli aggrada... c'è chi mette al primo posto la fluidità e l'assenza di ghosting (come me) e chi mette al primo posto la qualità visiva...

illidan2000
06-02-2016, 18:03
L'esperienza di gioco su un 1440p IPS è abissalmente migliore rispetto ad un 1080p TN. Per me giocare su un TN equivale a non giocare (parere personale):)
La resa cromatica con lo sweet fx raggiunge risultati eccellenti ed Nvidia con i TN non è proprio il Top. Se provi un IPS, vedrai il TN completamente sbiadito ed anche gli sweet fx non migliorano tanto.
Cmq entriamo nella soggettività ovviamente ma per dirti secondo me meglio giocare un Fallout 4 su un 1440p più sweet fxabassando questo
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-god-rays-quality-performance-640px.png

che giocare su un TN 1080p con quello attivo.
Su un 1080p devi cmq impostare i filtri o ricorrere al DS, quindi ti ritrovi a pilotare lo stesso peso ma con un pannello nettamente inferiore e con i pixel che rimangono quelli(2mpixel):)
c'è TN e TN... e IPS e IPS... Con quello che avevo in uscita, non riuscivo nemmeno a vedere un video su youtube. Ho smanettato un po' per regolarlo, ma non c'è stato verso, non si distinguevano proprio i mezzitoni, niente da fare.
A casa invece, il mio fido ROG mi regala molte soddisfazioni! (velocistiche e cromatiche)
ciao!
come hai detto anche tu, entriamo nella soggettivita' e io la vedo all' opposto, ho molti piu' schermi ips che tn (non li ho presi per gaming) (anche il notebook e' uno stupendo ips con rapporto di contrasto reale 1000:1, e ho anche un 5k ips), ma preferisco giocare su tn 1080p 120hz :)


spesso gioco anche con dettagli abbassati di brutto, non c'e problema per me, pero' voglio 100 fps minimi e mai microstuttering, nemmeno l' ombra :)

per me gsync e roba per limitare i danni dei bassi fps non devono esistere, giocare su pc per me significa avere giochi frenetici e velocissimi, impossibili su qualsiasi altra piattaforma esistente. Se provo un gioco su schermo 60hz, mi sembra di tornare indietro al pc che avevo preso nel 2008.

mi trovi perfettamente d'accordo. Anche avendo un gsync, soffro a stare a soli 60fps in quei giochi/mattone...
Purtroppo, avendo un 2.5k, devo spingere molto sul reparto video se non voglio abbassare troppo i dettagli. Per ora sto bene così, poi vedremo con le Pascal (piccole, ovvio che la Titan Max la salto).

un paio di anni fa presi le prime Titan, quelle da 6gb, kepler. Le trovai a un prezzo ottimo (nuove), ma le ho rivendute dopo una settimana allo stesso prezzo... Erano sfigate, non si cloccavano. Consumavano come dannate e scaldavano (e rumore annesso). Ed erano pure già uscite le 780!
Presi una bella Asus 780 (custom), silenziosissima, a metà prezzo delle Titan, e andavo pure meglio
(all'epoca, con il 2600k, lo sli era una fetecchia....)

mikael84
06-02-2016, 18:04
ciao!
come hai detto anche tu, entriamo nella soggettivita' e io la vedo all' opposto, ho molti piu' schermi ips che tn (non li ho presi per gaming) (anche il notebook e' uno stupendo ips con rapporto di contrasto reale 1000:1, e ho anche un 5k ips), ma preferisco giocare su tn 1080p 120hz :)


spesso gioco anche con dettagli abbassati di brutto, non c'e problema per me, pero' voglio 100 fps minimi e mai microstuttering, nemmeno l' ombra :)

per me gsync e roba per limitare i danni dei bassi fps non devono esistere, giocare su pc per me significa avere giochi frenetici e velocissimi, impossibili su qualsiasi altra piattaforma esistente. Se provo un gioco su schermo 60hz, mi sembra di tornare indietro al pc che avevo preso nel 2008.

Appunto 1440p IPS g-sync. Ed hai qualità grafica e fluidità:)
Cmq ripeto parere soggettivo chiaramente

TigerTank
06-02-2016, 18:11
Io scommetto che se alcuni provassero gli ultimi ahva con overdrive e gsync cambierebbero completamente parere. Sottointendendo pannelli di buona qualità, sono un connubio perfetto tra prestazioni e qualità visiva, valorizzando al 100% la potenza delle ultime vga e di quelle che arriveranno quest'anno ;)
E lo dico dopo un passaggio da tn 27" fullHD 120Hz, ah-ips 27" 1440p 60Hz bypassato, ah-va 1440p 144Hz gsync ;)

Nhirlathothep
06-02-2016, 18:11
Ammettendo di riuscire a fare un pc perfetto, potente, bilanciato, se l'engine va alla xxx pure su ssd 950 m.2 raid0, con 64gb ecc 4000mhz, driver esente da bug, vga della madonna, uno schermo mai visto prima con 0ms, periferiche che agiscono prima che tu possa iterfacciarti fisicamente con loro (tipo l'ocz cerebral brain supapoua), ma appunto l'engine microstuttera perchè gli girano i @@, che fai? Chiudi e disinstalli il gioco?
:stordita:

Vero, ci sono engine bacati di loro, ma va visto caso per caso

mi avevano detto lo stesso del motore di Diablo 3 e UT (pre alpha).

Pur avendo 100-150 fps quasi sempre ci sono dei momenti in cui ho visto 70 fps.

- Su UT(pre alpha) giocavo tutto maxato ed e' bastato abbassare i dettagli (questo era il video (https://www.youtube.com/watch?v=9NxSKwKnZFQ&list=PLOG6NBr3GJPw_rllQg4uIG1Jk4B3XSLSv&index=5) con tutto maxato con cali) ed il prob e' scomparso

- su Diablo 3 succede solo 1 volta ogni grift da 4 sopra 70 di vedere 70 fps, ma per quella tipologia di gioco 70 fps sono tanti.

illidan2000
06-02-2016, 18:14
Io scommetto che se alcuni provassero gli ultimi ahva con overdrive e gsync cambierebbero completamente parere. Sottointendendo pannelli di buona qualità, sono un connubio perfetto tra prestazioni e qualità visiva, valorizzando al 100% la potenza delle ultime vga e di quelle che arriveranno quest'anno ;)
E lo dico dopo un passaggio da tn 27" fullHD 120Hz, ah-ips 27" 1440p 60Hz bypassato, ah-va 1440p 144Hz gsync ;)

eh, a quel punto, 21:9 :P
tocca solo sapere aspettare...

mikael84
06-02-2016, 18:18
Raga però siamo OT con i monitor

TigerTank
06-02-2016, 18:33
eh, a quel punto, 21:9 :P
tocca solo sapere aspettare...
:cool:

Raga però siamo OT con i monitor
Diciamo che ips o tn che sia anche con le future pascal vedremo gli effetti sul framerate dei relativi nuovi mattoni maxati già in fullHD :sofico:

LambertoKevlar
08-02-2016, 13:19
Parlando della mia cpu,leggevo che a risoluzioni elevatissime(e con una titan Pascal non si può fare a meno di puntare ai 4k) l'apporto della cpu è quasi nullo in quanto tutto il carico è spostato sulla GPU.Ho letto una castroneria?

Il tizio Praticamente ha fatto un test con una cpu che guardacaso è proprio la mia su the witcher 3,passando da un overclock di 4.6 a un underclock di 2.1

A basse risoluzioni la differenza è notevole ma più aumenta le res più le differenze si annullano

http://www.kunstnagelgroothandel.be/syfes/witcher%203%20hq.jpg

http://www.kunstnagelgroothandel.be/syfes/witcher%203%20lq.jpg

illidan2000
08-02-2016, 13:34
nel secondo grafico, anche a 1440p si perdono oltre 60fps.
Verosimilmente i settaggi high sono troppo spinti, mentre low troppo bassi. Una via di mezzo è quello che l'utente (a meno di non essere incoscienti) mette
The witcher 3 non è un gioco particolarmente cpu-demanding; più veritiera sarebbe stata l'analisi con un crysis 3 o assassin's creed unity o syndicate

LambertoKevlar
08-02-2016, 13:44
nel secondo grafico, anche a 1440p si perdono oltre 60fps.
Verosimilmente i settaggi high sono troppo spinti, mentre low troppo bassi. Una via di mezzo è quello che l'utente (a meno di non essere incoscienti) mette
The witcher 3 non è un gioco particolarmente cpu-demanding; più veritiera sarebbe stata l'analisi con un crysis 3 o assassin's creed unity o syndicate

questo è di un altro tizio che mette a confronto cpu parecchio differenti proprio con Crysis 3 a 4k su uno sli di 970 insieme ad altri giochi

http://www.technologyx.com/featured/amd-vs-intel-our-8-core-cpu-gaming-performance-showdown/4/

http://techx1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/08/fx-8370-vs-5960x_gaming-crysis3_gtx970-sli.jpg

http://techx1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/08/fx-8370-vs-5960x_gaming-witcher3_gtx970-sliv2.jpg

http://techx1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/08/fx-8370-vs-5960x_gaming-tombraider_gtx970-sli.jpg

http://techx1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/08/fx-8370-vs-5960x_gaming-gtav_gtx970-sli.jpg

http://techx1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/08/fx-8370-vs-5960x_gaming-pcars_gtx970-sli.jpg

FroZen
08-02-2016, 14:04
Sti fx fanno proprio schifo



:stordita:



Un abbraccio ai posessori x99

egounix
08-02-2016, 14:29
Sti fx fanno proprio schifo



:stordita:



Un abbraccio ai posessori x99

Ma va che un palomino a 1.3ghz va di più :sofico:

Nhirlathothep
08-02-2016, 14:45
io sinceramente non mi fido di quei bench.
Non e' per dare contro a amd, ma di bench di Crysis 3 ne ho visti troppi e un 5960x @4.4 ghz con minimi piu' bassi dell' fx 8370@4.6 non mi sembra attendibile.

The_SaN
08-02-2016, 15:15
io sinceramente non mi fido di quei bench.
Non e' per dare contro a amd, ma di bench di Crysis 3 ne ho visti troppi e un 5960x @4.4 ghz con minimi piu' bassi dell' fx 8370@4.6 non mi sembra attendibile.È un percentile, non è un minimo assoluto. È un po' diverso...

TigerTank
08-02-2016, 16:50
Parlando della mia cpu,leggevo che a risoluzioni elevatissime(e con una titan Pascal non si può fare a meno di puntare ai 4k) l'apporto della cpu è quasi nullo in quanto tutto il carico è spostato sulla GPU.Ho letto una castroneria?

E chi l'ha detto che devi per forza puntare ai 4K?
Puoi tranquillamente anche stare a 1440p(16:9 o 21:9) su schermi da gaming+gsync e goderti un framerate decisamente più alto.
Tanto io scommetto che parallelamente alle pascal usciranno anche i soliti titoli mattone(tipo COD, assassin's creed, ecc...di turno) con relativi framerates sotto ai 60fps con settaggi maxati ad ultra anche per schede da $1500 :sofico:

In ogni caso comunque aggiornerei la base ad almeno un 4790K o 5820K ed eventualmente l'alimentatore. Per me titan pascal, 4K e 2600K nella stessa frase stonano un pochino :)

LambertoKevlar
08-02-2016, 17:12
alla fine si vedrà,nel caso si vede come va e se va male si cambia,non è tanto la questione economica ma lo sbattimento anche se si spera che 1500 non li costi

TigerTank
08-02-2016, 17:31
alla fine si vedrà,nel casi si vede come va e se va male si cambia,non è tanto la questione economica ma lo sbattimento anche se si spera che 1500 non li costi

Eh lo spero anch'io....altrimenti il gaming di fascia alta di questo passo diventerà davvero un lusso.
E pensare che solo un paio di anni fà consideravamo costose delle gtx780 a più di 500€ e delle titan a 800€... :stordita:
Di sicuro comunque le HBM2 peseranno non poco sul costo ed imho sarà difficile che abbiano già i prezzi delle attuali titanX. Ho letto in giro che c'è chi parla di addirittura 32GB ma secondo me saranno da 16. Imho un quantitativo comunque già enorme.

mikael84
08-02-2016, 17:34
alla fine si vedrà,nel caso si vede come va e se va male si cambia,non è tanto la questione economica ma lo sbattimento anche se si spera che 1500 non li costi

Una Titan senza concorrenza (se non una probabile dual AMD) con 32gb di HBM e calcoli DP sarà una bella stangata.
AMD e Nvidia lato gaming giocheranno sulla fascia alta, non enthusiast nel 2016.
Chiariamo anche il fatto che la Titan è basata solo su rumors per ora;)

XEV
08-02-2016, 18:33
Eh lo spero anch'io....altrimenti il gaming di fascia alta di questo passo diventerà davvero un lusso.
E pensare che solo un paio di anni fà consideravamo costose delle gtx780 a più di 500€ e delle titan a 800€... :stordita:
Di sicuro comunque le HBM2 peseranno non poco sul costo ed imho sarà difficile che abbiano già i prezzi delle attuali titanX. Ho letto in giro che c'è chi parla di addirittura 32GB ma secondo me saranno da 16. Imho un quantitativo comunque già enorme.

bisognerà andare di usato

fireradeon
11-02-2016, 17:20
Non so se avete visto i requisiti raccomandati di quantum break (primo gioco ad uscire dx12 il 5 aprile). Folli è dir poco, hanno reso la 980ti una vga raccomandata. :D

Cmq leggevo su alcuni forum che per la pascal se ne parla a Settembre perchè le memorie non sono ancora in produzione? Verità o fantasia?

mikael84
11-02-2016, 18:00
Non so se avete visto i requisiti raccomandati di quantum break (primo gioco ad uscire dx12 il 5 aprile). Folli è dir poco, hanno reso la 980ti una vga raccomandata. :D

Cmq leggevo su alcuni forum che per la pascal se ne parla a Settembre perchè le memorie non sono ancora in produzione? Verità o fantasia?

Per ora la data è tra giugno-settembre.
Le gddr5x sono state già testate con buoni risultati ma solo verso il q2 2016 arriveranno ai partner. Ormai sembra chiaro che le GP104(x70-x80) avranno le gddr5x 20nm. Entro l'estate si prevede la produzione in grosse quantità. I tagli dovrebbero essere di 8gb, almeno su questi chip.
La cosa positiva è che costano poco, quanto le ddr5, quindi non implementeranno dei costi aggiuntivi. Le HBM2 al contrario farebbero lievitare i costi, quindi meglio le gddr5x almeno su questa fascia.

FroZen
11-02-2016, 18:32
Mikael lo sai benissimo che I costi di una gpu non sono neccessariamente la somma delle parti....le 980 sono sempre costate un rene nonostante ddr5 e uno sputo di silicio di die.....Le fury x sembrano regalate stando al tuo ragionamento (hbm die gigantesco e aio)

paolox86
11-02-2016, 18:33
Non so se avete visto i requisiti raccomandati di quantum break (primo gioco ad uscire dx12 il 5 aprile). Folli è dir poco, hanno reso la 980ti una vga raccomandata. :D



Cmq leggevo su alcuni forum che per la pascal se ne parla a Settembre perchè le memorie non sono ancora in produzione? Verità o fantasia?


Esce addirittura insieme alla versione Xbox? Ottimo!! Non vedo l'ora di mettere sotto torchio la 980 ti in attesa di Pascal


Inviato dal mio iPhone utilizzando Tapatalk

egounix
11-02-2016, 18:48
Mikael lo sai benissimo che I costi di una gpu non sono neccessariamente la somma delle parti....le 980 sono sempre costate un rene nonostante ddr5 e uno sputo di silicio di die.....Le fury x sembrano regalate stando al tuo ragionamento (hbm die gigantesco e aio)

Ma che regalate!!! Ma se fanno i tirchi sul supporto tenico/drivers!!! Ecco dove risparmiano e ti in:ciapet: bene bene!
Fai caso che le lame degli skaven sono Verdi!!! Non a "caso"! Eh ho fatto pure il gioco di parole.

fireradeon
11-02-2016, 19:05
Esce addirittura insieme alla versione Xbox? Ottimo!! Non vedo l'ora di mettere sotto torchio la 980 ti in attesa di Pascal


Inviato dal mio iPhone utilizzando Tapatalk

Si ma la 980ti è solo una parte. Il resto richiede 16gb di ram 6 di Vram e il 4790 a 4ghz LOL speriamo siano i raccomandati per 4k

mikael84
11-02-2016, 19:38
Mikael lo sai benissimo che I costi di una gpu non sono neccessariamente la somma delle parti....le 980 sono sempre costate un rene nonostante ddr5 e uno sputo di silicio di die.....Le fury x sembrano regalate stando al tuo ragionamento (hbm die gigantesco e aio)

La produzione attuale di HBM non ha ancora raggiunto volumi tali da poter coprire una domanda più elevata e di conseguenza i prezzi sono ancora troppo alti per essere paragonate alle gddr5 e x che stando ai rumors non dovrebbero differire.
Utilizzare queste memorie e nel caso HBM2 8gb su schede come la x70 ne farebbe lievitare i costi e di certo ti puoi scordare una simile VGA a 350/400 euro.
Le ultime AMD non mi sembrano poi molto economiche visti i soli 4gb di HBM, vedi la fury pro che condividendo il core gigante di Maxwell ha prezzi non molto differenti.

The_SaN
11-02-2016, 19:42
Si ma la 980ti è solo una parte. Il resto richiede 16gb di ram 6 di Vram e il 4790 a 4ghz LOL speriamo siano i raccomandati per 4kPorc....:eek:
Alla facciazza delle dx12, riduzione del CPU Overhead e mazzi vari :asd:

egounix
11-02-2016, 19:49
Porc....:eek:
Alla facciazza delle dx12, riduzione del CPU Overhead e mazzi vari :asd:

E io che ho pure aggiornato l'hp stream 7 a 10! Mi avevano promesso che avrebbe fatto girare quantum break in 4k con le dx12!!! :muro: :stordita:

fireradeon
12-02-2016, 17:29
Porc....:eek:
Alla facciazza delle dx12, riduzione del CPU Overhead e mazzi vari :asd:

Hanno aggiornato i requisiti, solo per avere dettagli Ultra ora servono quei settaggi, penso che la gente è svenuta quando a letto e sono corsi a rettificare. :D

ste-87
12-02-2016, 20:07
qualche novità ogni tanto esce fuori

http://wccftech.com/nvidia-pascal-graphics-cards-spotted/

TD982
13-02-2016, 09:09
Cmq leggevo su alcuni forum che per la pascal se ne parla a Settembre perchè le memorie non sono ancora in produzione? Verità o fantasia?

A prescindere dalla data di uscita ufficiale, secondo me bisogna considerare attentamente almeno 4 fattori, che porterebbero far slittare di altri 6-8 mesi (quindi se ne riparla nel 2017) un eventuale acquisto, saggio e oculato, di una gpu pascal:

- Assestamento dei prezzi su valori decenti, che sarà difficile vedere nei primi mesi.

- Reale disponibilità e diffusione dei modelli in tutte le fasce di mercato, oltre alle versioni custom.

- Superamento di un congruo periodo di "test" o rodaggio di massa, cioè verificare che dopo mesi dall'acquisto, gran parte degli utenti Pascal non riscontri problemi o difetti sistematici a livello hardware / strutturale del modello X piuttosto che Y o Z, che potrebbero sfuggire inizialmente ed emergere solo a medio-lungo termine... della serie: fidarsi è bene, non fidarsi è meglio.

- Adeguata maturazione e ottimizzazione anche a livello software, cioè rilascio di driver come si deve.

fireradeon
13-02-2016, 10:03
Hai ragione per carità. Difatti sono combattuto se non fare uno sli di 980 ti a liquido, le occo per bene e tiro fino al 2017. Aspetto quantum break per farmi un'idea della pesantezza dei giochi dx12. Se regge bene lo sli forse faccio il passo. Altrimenti se arranca aspetto le pascal.

traider
13-02-2016, 12:41
Io ho paura di prendere una 980ti adesso , che poi magari tra 2 mesi esce pascal che la doppia in direct x 12 :stordita: .

TigerTank
13-02-2016, 12:50
Io ho paura di prendere una 980ti adesso , che poi magari tra 2 mesi esce pascal che la doppia in direct x 12 :stordita: .

Per le 1070-1080 si parla di "back to school". per cui presumo intorno ad agosto-settembre. E siccome imho comprare al day one non conviene, aggiungici quei 2-3 mesi ulteriori di attesa tra raffinazione dei drivers e uscita dei vari modelli custom :)
Sempre che non ci stai dentro fino ad una bella 1080 Ti a 2017 inoltrato...il che vorrebbe dire un anno pieno di sfruttamento della gtx980Ti.
Circa le dx12, salvo magheggi sui drivers pro-pascal o qualche odiosa feature esclusiva di marketing, dovrebbero comunque beneficiare anche le attuali Ti.

Io la Ti la consiglio ad occhi chiusi, puntando sulle semi-custom più economiche tipo Palit JS a 655€ su amazon ;)

fireradeon
13-02-2016, 13:22
Per le 1070-1080 si parla di "back to school". per cui presumo intorno ad agosto-settembre. E siccome imho comprare al day one non conviene, aggiungici quei 2-3 mesi ulteriori di attesa tra raffinazione dei drivers e uscita dei vari modelli custom :)
Sempre che non ci stai dentro fino ad una bella 1080 Ti a 2017 inoltrato...il che vorrebbe dire un anno pieno di sfruttamento della gtx980Ti.
Circa le dx12, salvo magheggi sui drivers pro-pascal o qualche odiosa feature esclusiva di marketing, dovrebbero comunque beneficiare anche le attuali Ti.

Io la Ti la consiglio ad occhi chiusi, puntando sulle semi-custom più economiche tipo Palit JS a 655€ su amazon ;)

TigerTank io ho la G1 980ti e c'è il wb ek full cover per la mia custom. Alla fine 670 la nuova G1 e 250 per i due wb ek e alla fine con 1.100 me ne esco. Le occo a 1467 (come minimo) visto che già la mia ad aria è a 1467 e vado tranquillo fino al 2017

Aspetto quantum break e valuto

Legolas84
13-02-2016, 13:31
Per me ora non è il momento giusto per comprare una scheda Maxwell... È anche vero che io parlò perché ho le spalle davvero molto coperte, ma in ogni caso non appena esce pascal (e non manca tantissimo) Maxwell perderà parecchio valore....

Inviato dal mio ONE A2003 utilizzando Tapatalk

fireradeon
13-02-2016, 13:45
Per me ora non è il momento giusto per comprare una scheda Maxwell... È anche vero che io parlò perché ho le spalle davvero molto coperte, ma in ogni caso non appena esce pascal (e non manca tantissimo) Maxwell perderà parecchio valore....

Inviato dal mio ONE A2003 utilizzando Tapatalk

Si ma tanto io ne rivenderei solo una, l'altra la tengo sul "muletto" che è a liquido anche quello

mikael84
13-02-2016, 13:56
TigerTank io ho la G1 980ti e c'è il wb ek full cover per la mia custom. Alla fine 670 la nuova G1 e 250 per i due wb ek e alla fine con 1.100 me ne esco. Le occo a 1467 (come minimo) visto che già la mia ad aria è a 1467 e vado tranquillo fino al 2017

Aspetto quantum break e valuto

Pure io ho la scimmia dello SLI. Sinceramente da svariati anni in campo hardware non avevo mai trovato una scheda capace di tali soddisfazioni, frame rate incollato, fluidità eccelsa, neppure una minima traccia di stuttering, driver che rasentano la perfezione(almeno su w7).
Il problema è che lo SLI ora potrebbe rivelarsi sbagliato se si guarda la spesa ma la resa è assolutamente eccellente.
2 x70 a 800 euro con prestazioni leggermente superiori allo SLI di 980ti nel giro di 4 mesi ti farebbe girare visto che quei soldi li spendi ora per una sola 980ti.
Aspetta qualche rumors in più poi si decide;)

Nurabsa
13-02-2016, 14:08
gia stato detto ma confermo gira cosi bene la 980ti anche sotto i 50fps con lo sporco lavoro in 4k è fluida liscia pulita che soddisfazione.

Aspetterò sicuramente giungo 2017 la prossima kpe Ti

traider
13-02-2016, 14:31
NOVITA' FRESCHE

Nvidia a lavoro su 4 schede video con GPU Pascal

I colleghi di wccftech, sempre in prima linea quando si tratta di rumor, hanno scovato interessanti dettagli sulle schede grafiche Nvidia basate sulla prossima architettura a 16 nanometri.

Alcuni dettagli su Pascal sono noti; una migliore efficienza, prestazioni decisamente superiori, utilizzo di memorie HBM2, interfaccia NVLink e dimensioni più compatte delle schede, in linea con il competitor AMD.

Stando alle informazioni trapelate in queste ore, Nvidia potrebbe seguire AMD e offrire diverse varianti di Pascal; si parla di 4 modelli (o schede) che l' azienda starebbe testando, intercettate durante la spedizione sull' ormai famoso database di Zauba.

http://i2.hd-cdn.it/img/width660/height491/id491983_1.jpg

I quattro chip sono siglati:

699-2H403-0201-500
699-1G411-0000-000
699-1H400-0000-100
699-12914-0071-100

Secondo la fonte, 1H400, 1G411 e 2H403 dovrebbero essere varianti della stessa scheda, mentre 12914 potrebbe essere un modello del tutto diverso (forse la nuova Titan?).

Al momento non ci sono dettagli precisi, quello che vorremmo capire è la strategia di Nvidia relativa ai "probabili" chip GP100 e GP104 .

fireradeon
13-02-2016, 14:37
E' lo stesso articolo di ste-87 :D

TigerTank
13-02-2016, 14:51
Per me ora non è il momento giusto per comprare una scheda Maxwell... È anche vero che io parlò perché ho le spalle davvero molto coperte, ma in ogni caso non appena esce pascal (e non manca tantissimo) Maxwell perderà parecchio valore....


Secondo me sì se uno viene da schede più vecchie, perchè già da una gtx970 si avrebbe un bel boost prestazionale. Ma giusto stando sui modelli tra le 650 e le 700€. Io ovviamente valuto il tutto escludendo ogni convenienza circa l'eventuale titan primaverile...che per quanto riguarda la mia considerazione sta a 0.
La titubanza semmai è su un eventuale Sli per chi ne ha già una nel case ;)

TigerTank io ho la G1 980ti e c'è il wb ek full cover per la mia custom. Alla fine 670 la nuova G1 e 250 per i due wb ek e alla fine con 1.100 me ne esco. Le occo a 1467 (come minimo) visto che già la mia ad aria è a 1467 e vado tranquillo fino al 2017

Aspetto quantum break e valuto
Ah beh, con uno Sli di gtx980Ti liquidato direi che l'attesa fino alle nuove Ti sia la scelta migliore ;)

killeragosta90
13-02-2016, 15:15
NOVITA' FRESCHE

Nvidia a lavoro su 4 schede video con GPU Pascal

I colleghi di wccftech....

qualche novità ogni tanto esce fuori

http://wccftech.com/nvidia-pascal-graphics-cards-spotted/

:read:

illidan2000
14-02-2016, 00:12
questo è di un altro tizio che mette a confronto cpu parecchio differenti proprio con Crysis 3 a 4k su uno sli di 970 insieme ad altri giochi

Sti fx fanno proprio schifo



:stordita:



Un abbraccio ai posessori x99

in 4k ovvio che il processore pesa meno...

Giovamas
15-02-2016, 17:54
Io la Ti la consiglio ad occhi chiusi, puntando sulle semi-custom più economiche tipo Palit JS a 655€ su amazon ;)

Quotone al buon Tiger. Io aspetto la 1080Ti ed amen. Salvo come dici magheggi strani la 980Ti smazzera bene ogni gioco

beatl
15-02-2016, 17:56
Quotone al buon Tiger. Io aspetto la 1080Ti ed amen. Salvo come dici magheggi strani la 980Ti smazzera bene ogni gioco

Ma io aspetterei anche la full PascalTI...

Giovamas
15-02-2016, 18:00
Ma io aspetterei anche la full PascalTI...

si intendo quella. Forse si chiamerà 1080Ti? Boh? in ogni caso l'equivalente della 980Ti :)

beatl
15-02-2016, 19:50
si intendo quella. Forse si chiamerà 1080Ti? Boh? in ogni caso l'equivalente della 980Ti :)

Ah ecco ok ... Speriamo per fine 2016

Crysis90
16-02-2016, 08:53
http://www.fudzilla.com/news/graphics/39957-pascal-in-testing-phase

Si avvicina, si avvicina. :read: :Prrr:

J!MmΨ
16-02-2016, 10:02
Ottimo, allora dovrebbero stare nelle tempistiche ;)

Per tempistiche intendi fine 2016? :p

J!MmΨ
16-02-2016, 10:14
No no, inizio 2017 :D


Inviato dal mio iPhone utilizzando Tapatalk

Ah ecco :D :D

La realtà dei fatti, secondo me, è che il mercato è cambiato. La svalutazione dovuta al fattore tempo, almeno per Nvidia, non esiste più. Quindi si potrebbe tranquillamente comprare già oggi una 980/980ti, farne uso per un annetto pulito, e rivenderla senza perdere poi molto. Ad oggi non ho trovato grafici che spiegano l'andamento del mercato dell'usato, ma, seppur le aziende ci guadagnano, è un'onda che l'utente più o meno informato potrebbe cavalcare. ;)

FroZen
16-02-2016, 10:19
Ah non pagate l'iva sulle nvidia?

J!MmΨ
16-02-2016, 10:24
Ah non pagate l'iva sulle nvidia?

La sezione mercatino esiste per quello :p

Spider-Mans
16-02-2016, 10:25
vorrei gli eredi di 970 e 980 entro giugno...che magari vadano quasi quanto una 980ti attuale xD

ce la fanno o back to school ? :D ho necessita di famri il pc ex novo e non voglio buttare soldi su una vga pro tempore......perche poi dovrei rivenderla..con tutti i fastidi del caso

FroZen
16-02-2016, 10:33
La sezione mercatino esiste per quello :p

Appunto

Crysis90
16-02-2016, 11:25
La sezione mercatino esiste per quello :p

E per fortuna! :D :D :D

mircocatta
16-02-2016, 12:03
vorrei gli eredi di 970 e 980 entro giugno...che magari vadano quasi quanto una 980ti attuale xD



sinceramente mi aspetterei qualcosa di più delle prestazioni della 980ti già solo per l'erede della 970..non che la 990ti vada piano eh, ma è solo perchè da queste novità le cose dovrebbero migliorare (sulla carta) parecchio

fireradeon
16-02-2016, 12:04
http://www.fudzilla.com/news/graphics/39957-pascal-in-testing-phase

Si avvicina, si avvicina. :read: :Prrr:

Ottimo, allora dovrebbero stare nelle tempistiche ;)

Quindi visto che la stanno testando ad Aprile la annunciano e poi esce a metà anno secondo voi? Perchè non credo annuncino ad Aprile per poi uscire a Settembre, non avrebbe senso e si perde l'hype.
Cmq io sto accantonando il dinero, se è una bella schedozza la prendo!

egounix
16-02-2016, 12:12
Ah non pagate l'iva sulle nvidia?

Era pagata da berlusconi, se vedi le foto da giovane, capisci perchè :oink:

Spider-Mans
16-02-2016, 13:35
sinceramente mi aspetterei qualcosa di più delle prestazioni della 980ti già solo per l'erede della 970..non che la 990ti vada piano eh, ma è solo perchè da queste novità le cose dovrebbero migliorare (sulla carta) parecchio

beh se va di piu meglio ancora
ma purche il prezzo non sia da 980ti :asd:
sul target di 350-450 euro ...una 1070-1080 che va quanto una 980ti attuale..venderebbe a camionate

illidan2000
16-02-2016, 13:49
beh se va di piu meglio ancora
ma purche il prezzo non sia da 980ti :asd:
sul target di 350-450 euro ...una 1070-1080 che va quanto una 980ti attuale..venderebbe a camionate

penso che per ora esca solo la Titan. Per le altre ci vorrà tempo...

killeragosta90
16-02-2016, 14:09
http://www.fudzilla.com/news/graphics/39957-pascal-in-testing-phase

Si avvicina, si avvicina. :read: :Prrr:

Aaaahhhhh beh......se lo dice fudzilla.......




:stordita:

mikael84
16-02-2016, 14:17
Aaaahhhhh beh......se lo dice fudzilla.......




:stordita:

Riguarda GP100 chip per tesla. Di GP104 ancora non si sa nulla, ovviamente le schede sono già in fase test.

illidan2000
16-02-2016, 14:28
Riguarda GP100 chip per tesla. Di GP104 ancora non si sa nulla, ovviamente le schede sono già in fase test.

le gp100 in test, le g104 penso ancora stanno in fase di fine progettazione, al massimo avranno un paio di prototipi del chip... (anche se in teoria, dovrebbe essere lo stesso chip, con qualcosa tagliato)

Spider-Mans
16-02-2016, 14:38
penso che per ora esca solo la Titan. Per le altre ci vorrà tempo...

io credo proprio il contrario
e sarebbe piu logico
la 980ti è uscita a giugno se non ricordo male
le 970 e 980 sono piu vecchie

TigerTank
16-02-2016, 14:54
La titan esce per prima, perchè fanno leva sulla scimmia da novità tecnologica degli inscimmiati cronici(in inglese "enthusiasts") per venderle a prezzi più alti possibili.
Seguono le classiche 2 gtx 80 e 70 e infine arrivano le Ti, le migliori della famiglia in quanto più prestanti delle versioni castrate, eventualmente dotate di nuove revisioni e in quanto fullGPU meno costose delle titan. Con tanto di gente che upgrada dalle castrate alle Ti.

Spider-Mans
16-02-2016, 15:01
La titan esce per prima, perchè fanno leva sulla scimmia da novità tecnologica degli inscimmiati cronici(in inglese "enthusiasts") per venderle a prezzi più alti possibili.
Seguono le classiche 2 gtx 80 e 70 e infine arrivano le Ti, le migliori della famiglia in quanto più prestanti delle versioni castrate, eventualmente dotate di nuove revisioni e in quanto fullGPU meno costose delle titan. Con tanto di gente che upgrada dalle castrate alle Ti.

ah pensavo si riferisse alla "ti"
le titan manco le calcolo :asd:

servono a spennare XD visto che poi escono le versioni "economiche" qualche mese dopo

athlon xp 2400
16-02-2016, 15:06
La titan esce per prima, perchè fanno leva sulla scimmia da novità tecnologica degli inscimmiati cronici(in inglese "enthusiasts") per venderle a prezzi più alti possibili.
Seguono le classiche 2 gtx 80 e 70 e infine arrivano le Ti, le migliori della famiglia in quanto più prestanti delle versioni castrate, eventualmente dotate di nuove revisioni e in quanto fullGPU meno costose delle titan. Con tanto di gente che upgrada dalle castrate alle Ti.

Fanno come le prime titan o come le titan x ?

J!MmΨ
16-02-2016, 15:08
io credo proprio il contrario
e sarebbe piu logico
la 980ti è uscita a giugno se non ricordo male
le 970 e 980 sono piu vecchie

Entrano in ballo tanti ragionamenti quando si deve lanciare un chip, non solo la vecchiaia. In primis giacenze, concorrenza e potenziale di vendite. O, perlomeno, io così farei.

Detto questo, con Pascal alle porte, è difficile che il mercato di nicchia delle 980ti decolli ... E' molto più semplice che le persone scendano a compromessi con una 970 o massimo una 980, che mantengono un potenziale di vendite tutt'ora molto elevato. Io non sostituirei mai una VGA che è nella sua fase di maturità ... Ma piuttosto rilascerei una vga (come Titan) in grado di assicurarmi ampi margini di profitto, di affermare la mia superiorità tecnologica sul mercato, magari operando contestualmente un leggero taglio di prezzo alla 980ti/980/970 per aumentare le vendite delle ultime schede in produzione. And, last but not least, creando quell'hype che poi, alla fine, fa vendere più di ogni altra cosa in questo mercato. :p

Mah, dopo sta pappinata posso pure andà a dormì. :D

traider
16-02-2016, 15:11
Io credo che la nuova GTX 1070 starà un 5-10% in piu' della 980ti attuale reference costando dai 350 in su .

Mentre la GTX 1080 dovrebbe andare dal 15% al 25% in piu' sempre come base la 980ti attuale reference .

Spider-Mans
16-02-2016, 15:54
Io credo che la nuova GTX 1070 starà un 5-10% in piu' della 980ti attuale reference costando dai 350 in su .

Mentre la GTX 1080 dovrebbe andare dal 15% al 25% in piu' sempre come base la 980ti attuale reference .

beh sarebbero un best buy clamoroso
oggi una 980ti buona sta sui 650-700 euro

fra qualche mese avere una scheda a meta prezzo e con prestazioni simili o superiori :D e con piu vram

illidan2000
16-02-2016, 15:59
beh sarebbero un best buy clamoroso
oggi una 980ti buona sta sui 650-700 euro

fra qualche mese avere una scheda a meta prezzo e con prestazioni simili o superiori :D e con piu vram

così come sono state un best buy le 970, e ne hanno vendute davvero tante...

The_SaN
16-02-2016, 16:57
Io credo che la nuova GTX 1070 starà un 5-10% in piu' della 980ti attuale reference costando dai 350 in su .

Mentre la GTX 1080 dovrebbe andare dal 15% al 25% in piu' sempre come base la 980ti attuale reference .Mi sembra un po' ottimista, la 970 stava leggermente sotto alla 780TI, almeno con i giochi disponibili durante la release.
Poi con i giochi nuovi la situazione è cambiata un po'.

Crysis90
16-02-2016, 17:08
Aaaahhhhh beh......se lo dice fudzilla.......




:stordita:

In realtà Fudzilla non ha fatto altro che scopiazzare da quì:

http://wccftech.com/nvidia-pascal-graphics-cards-spotted/

TigerTank
16-02-2016, 17:14
Fanno come le prime titan o come le titan x ?
Imho sicuramente ;)

Io credo che la nuova GTX 1070 starà un 5-10% in piu' della 980ti attuale reference costando dai 350 in su .

Mentre la GTX 1080 dovrebbe andare dal 15% al 25% in piu' sempre come base la 980ti attuale reference .
Difficile a dirsi, la gtx970 ha sorpassato la gtx780Ti solo quando drivers ed ottimizzazioni dei giochi pro nuova architettura hanno spostato l'ago della bilancia. Per cui facile che le 1070 andranno quasi il doppio delle gtx970 e quindi praticamente come le attuali gtx980Ti...e guadagneranno qualcosa man mano che drivers e nuovi giochi saranno ottimizzati per pascal. Circa le dx12 è ancora tutto da vedere, potrebbero anche loro comportare eventuali stacchi prestazionali tra le 2 generazioni.
Dipende tutto anche dalle castrature a cui saranno soggette.