PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 [86] 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

athlon xp 2400
22-02-2016, 10:31
Io ho sempre rimpianto il cambio da 1080pa 1440 :(

Sir Alamon
22-02-2016, 10:32
il 4k imho è uno spreco di risorse

ora il focus dovrebbe esser lo sfruttamento "vero" del Gsync e tecnologie analoghe e dei pannelli 120-144hz

fincè parliamo di 60fps maxed e via dicendo è come implicitamente dire che non vogliamo abbandonare il Vsync, oppure che Gsync & co servono solo a mitigare i frame drop sotto i 60.

imho chi vuole evitare di spaccarsi la testa più del dovuto fa una scelta dotta a restare su monitor 1080p (o tv, se gioca distante dal pannello) a 100+ hz con eventuale gsync, usando il caro vecchio AA e fine.

io da quando sono passato a 1440p ho più "subito" l'aumento di risorse necessarie piuttosto che "giovato" dalla risoluzione superiore.

a volte rimpiango il 1080p @120hz del sammy (che ho ancora), se non fosse che non è gsync/freesync.

io quando sono passato a 2k rispetto al fhd l'ho sentita, ma l'ho sentita ancora di più (parlo di miglioramento) quando sono passato a 21:9 1440p 100hz gsync

Goofy Goober
22-02-2016, 10:38
dici che il monitor da prendere al momento sarebbe quindi un 2560x1080 con gsync, tipo il Predatore z35?

a me il formato wide non piace assolutamente, dopo averlo provato sono fuggito a gambe levate.

per me chi non è propenso a svuotarsi il portafogli per configurazioni ultrapumped farebbe bene a restare sui 1080p gsync, IPS o TN a seconda dei gusti (a me per esempio frega poco e niente della differenza tra i due tipi di monitor, basta che siano Flicker-free, e con input lag umano).

a chi piace il Wide anche schermi tipo il Z35 possono andare (a parte che per me il curved dovrebbe scomparire tra 2 minuti dal mondo) tenendo presente che la risoluzione è cmq superiore al 1080p classico.

io quando sono passato a 2k rispetto al fhd l'ho sentita, ma l'ho sentita ancora di più (parlo di miglioramento) quando sono passato a 21:9 1440p 100hz gsync

quel che dicevo è che personalmente è pesato di più aspetto negativo (risorse extra necessarie) piuttosto che il positivo, quando ho aumentato la risoluzione qualche anno fa da 1080 a 1440.
qualitativamente è si meglio, e si può anche usare meno AA (o non usarlo, a seconda della distanza dallo schermo), ma non ho mai visto "miracoli" rispetto al 1080p con AA come ho usato per anni.

Spider-Mans
22-02-2016, 10:48
imho chi vuole evitare di spaccarsi la testa più del dovuto fa una scelta dotta a restare su monitor 1080p (o tv, se gioca distante dal pannello) a 100+ hz con eventuale gsync, usando il caro vecchio AA e fine.



parole da scrivere col fuoco sulla pietra
non posso che quotarti..è la mia scelta sul pc nuovo
27 pollici fullhd per aver eil massimo frame rate con filtri a palla
del resto guardo anche molti bluray in stanza..e non avrebbe senso utilizzare monitor con risoluzioni superiori..poi ho anche la ps4 collegata e anche li si va a 1080p...

la moda dei 4k ricorda poi quella dei tanti italiani che fanno al coda per accappararsi i tvhd 4k per poi sfruttarli per vedere canale5 o raiuno :asd: oppure i bluray in 1080p

poi che per utilizzi lavorati risoluzioni maggiori siano utili è indubbio
ma a lvl videoludico..
il fullhd con filtri al massimo basta e avanza per me e le differenze rispetto al 1440p su un 25-27 pollici sono minimali rispetto al sacrificio del frame rate azzoppato

anche perche chi si esalta per una maggior definizione del panello con i 1440p poi che fa? gioca a the division o the witcher3 maxati a ultra a 40 frame stentati con le vga top..

ma capisco che si tratta di gusti personali e se le gente si abitua ai 4k sui cellullari..li capisco anche :asd:

io preferisco poter giocare sempre a 60 frame e oltre....che avere pixel piu piccoli sul pannello ma sacrificare filtri e frame rate

i 4k in ogni caso sono una colossale baggianata ...inventata per far vendere nuove tv ecc...ma capisco che a molti fa figo dire..eh ma io gioco a 4k :asd: (ed omettte di dire..ma ocme giochi? a 25 frame tutto maxato con un pc da 1300 euro )

Psycho77
22-02-2016, 10:52
parole da scrivere col fuoco sulla pietra
non posso che quotarti..è la mia scelta sul pc nuovo
27 pollici fullhd per aver eil massimo frame rate con filtri a palla
del resto guardo anche molti bluray in stanza..e non avrebbe senso utilizzare monitor con risoluzioni superiori

la moda dei 4k ricorda poi quella dei tanti italiani che fanno al coda per accappararsi i tvhd 4k per poi sfruttarli per vedere canale5 o raiuno :asd: oppure i bluray in 1080p

poi che pe rutilizzi lavorati risoluzioni magigori siano utili è indubbio
ma alvl videoludico..sono seghe mentali
il fullhd con filtri al massimo basta e avanza
anche perche chi si esalta per una maggior definizione del panello con i 1440p poi che fa? gioca a the division o the witcher3 a 40 frame stentati :D
non sense of course

vabbe ma se le gente si abitua ai 4k sui cellullari..li capisco anche :asd:

Magari fosse solo quello,la maggior parte piglia tv 4k per giocare a 900p su pleistescion for,convintissimi di aver un boost sensazionale in termini di iq,quando in realtà è tutto il contrario.:asd:
Alcuni tv 4k manco upscalano in 900p e quindi in questi casi,i malcapitati si ritrovano davanti a uno schermo nero......In pratica possono giocare solo ai giochi 1080p nativi con l'upscaler del pannello 4k che da il colpo di grazia alla qualità di immagine.

Sir Alamon
22-02-2016, 10:53
vabbè ragazzi ora non diciamo eresie, la differenza visiva nei giochi a 1080, 2k e 4k c'è ed è innegabile.

Che poi le risorse richieste non valgano la pena questo si può discutere.

Legolas84
22-02-2016, 10:59
Bo non so perchè dovete fare così.... io penso che le scelte delle persone vadano anche rispettate...

Io ad esempio non riuscirei mai a tornare al 1080p specie su un 27".... e il mio PC è perfettamente in grado di gestire la risoluzione 2k... Sono solo scelte di quanto una persona vuole spendere nel proprio sistema secondo me.

Sir Alamon
22-02-2016, 10:59
Bo non so perchè dovete fare così.... io penso che le scelte delle persone vadano anche rispettate...

Io ad esempio non riuscirei mai a tornare al 1080p specie su un 27".... e il mio PC è perfettamente in grado di gestire la risoluzione 2k... Sono solo scelte di quanto una persona vuole spendere nel proprio sistema secondo me.

il discorso dell'utente è comunque sensato: se lui non vede un miglioramento commisurato ai soldi spesi, è chiaro che non lo fa.

TigerTank
22-02-2016, 11:02
Per me il buon equilibrio tra potenza necessaria e risoluzione senza svenarsi in vga, imho ora e soprattutto per la prossima generazione resta il 1440p, 60Hz o da gaming a seconda e 16:9 o 21:9 a seconda del formato preferito. Su 27" il primo e su 34" il secondo in modo da accontentarsi eventualmente di un smaa per via della buona definizione di base.
Il fullHD ormai lo relegherei al passato, a meno di voler contenere appunto la spesa del comparto grafico.
Piccolo OT: lo Z35 imho è il peggior acquisto che si possa fare...1000€ per un 2560x1080 su 35".... :Puke:

Nhirlathothep
22-02-2016, 11:06
io il 4k lo escludo semplicemente perche' e' fermo ai 60hz, quindi e' un downgrade in campo gaming.

Pero' quelli che usano schermo 1440p non considerano che con il 4k si puo' impostare 1080p (1920x1080) e sono esattamente 4 pixel per blocco. (senza bisogno di accomodamenti)

3840 x 2160

1920 x 2 = 3840
1080 x 2 = 2160

Sir Alamon
22-02-2016, 11:06
Piccolo OT: lo Z35 imho è il peggior acquisto che si possa fare...1000€ per un 2560x1080 su 35".... :Puke:

*

Psycho77
22-02-2016, 11:08
Per me il buon equilibrio tra potenza necessaria e risoluzione senza svenarsi in vga, imho ora e soprattutto per la prossima generazione resta il 1440p, 60Hz o da gaming a seconda e 16:9 o 21:9 a seconda del formato preferito. Su 27" il primo e su 34" il secondo in modo da accontentarsi eventualmente di un smaa per via della buona definizione di base.
Il fullHD ormai lo relegherei al passato, a meno di voler contenere appunto la spesa del comparto grafico.
Piccolo OT: lo Z35 imho è il peggior acquisto che si possa fare...1000€ per un 2560x1080 su 35".... :Puke:

Io rimango al full hd pure con pascal.
Ci sono ancora giochi che piegano una 980 ti in full hd con impostazioni al massimo,figuriamoci a 1440p o 4k.

Poi c'è lui.

https://youtu.be/weh_4u7F6ag

High preset,se metteva epic faceva 12 frame in differita dal brasile per due spicci.:asd:

Sir Alamon
22-02-2016, 11:10
a me il fhd sopra i 24" fa male agli occhi :asd:

illidan2000
22-02-2016, 11:14
io il 4k lo escludo semplicemente perche' e' fermo ai 60hz, quindi e' un downgrade in campo gaming.

Pero' quelli che usano schermo 1440p non considerano che con il 4k si puo' impostare 1080p (1920x1080) e sono esattamente 4 pixel per blocco. (senza bisogno di accomodamenti)

3840 x 2160

1920 x 2 = 3840
1080 x 2 = 2160

anche io la pensavo così, ma se ci pensi bene, mettere 4 pixel per simularne uno, non è sempre una cosa buona e giusta da fare. Si rischia l'effetto pixellone.
Un utente qui sul forum mi ha "allargato la mente"
Bisogna saper scalare bene anche da fullHD, mettendo i giusti pixel. Che poi sia più "facile", è innegabile, ma non si può sempre fare quel discorso là.
Mi piacerebbe portarti un esempio concreto, ma lo devo cercare
Io rimango al full hd pure con pascal.
Ci sono ancora giochi che piegano una 980 ti in full hd con impostazioni al massimo,figuriamoci a 1440p o 4k.

Poi c'è lui.

https://youtu.be/weh_4u7F6ag

High preset,se metteva epic faceva 12 frame in differita dal brasile per due spicci.:asd:
fullHd o maggiore, è sempre questione di occhi.
Se ti abitui al QHD, è difficile che torni indietro.
Così come per il gsync, così come per i 120hz. E forse lo è anche per l'IPS, ma non ho ancora questa "esperienza".
Dopo un mese in QHD, non so se torneresti indietro.

Sir Alamon
22-02-2016, 11:16
ragazzi ma se avete un monitor 4k e mettete il fhd nei giochi c'è una enorme possibilità che lo scaler sia una mezza merda

Psycho77
22-02-2016, 11:25
anche io la pensavo così, ma se ci pensi bene, mettere 4 pixel per simularne uno, non è sempre una cosa buona e giusta da fare. Si rischia l'effetto pixellone.
Un utente qui sul forum mi ha "allargato la mente"
Bisogna saper scalare bene anche da fullHD, mettendo i giusti pixel. Che poi sia più "facile", è innegabile, ma non si può sempre fare quel discorso là.
Mi piacerebbe portarti un esempio concreto, ma lo devo cercare

fullHd o maggiore, è sempre questione di occhi.
Se ti abitui al QHD, è difficile che torni indietro.
Così come per il gsync, così come per i 120hz. E forse lo è anche per l'IPS, ma non ho ancora questa "esperienza".
Dopo un mese in QHD, non so se torneresti indietro.

Dipende da molti fattori.
Dalla qualità del pannello che si usa,dalla distanza di visualizzazione,dal tipo di aa che si sta usando.
Io per esempio ho un monitor asus 27 pollici da 1440p e un tv sony w905 full hd con colori a 12 bit triluminos.
A patto di rispettare le giuste distanze di visualizzazione,preferisco giocare di gran lunga sul pannello 40 pollici sony,sia per resa che per l'ottimo input lag.
Nella mia situazione giocare in full hd con msaa 4x,non cambia molto dal giocare a 1440p con fxaa e per qualità finale preferisco di gran lunga la soluzione 1080p + filtro deferred.
Dopotutto è un tv che due anni fa ho pagato 1350 euro e li vale fino all'ultimo centesimo.Dovreste vederlo settato con dsr4x,non credereste ai vostri occhi.
Poi ovvio che si possa avere di meglio usando un 4k nativo DI QUALITA',ma per adesso non se ne parla a fare un tri sli di 980 ti per reggere tale bordata di prestazioni per avere frame decenti.
Senza contare l'orribile frame time variance provocato da una soluzione tri sli,brrr............
E senza contare che 6gb di vram non bastano più manco per il full hd in certi giochi,nonostante qualcuno neghi l'evidenza........

Sir Alamon
22-02-2016, 11:27
ma al di là della pura qualità video, ma non vi piace avere più "area visualizzata" tipica dell'aumento di risoluzione?

Spider-Mans
22-02-2016, 11:33
Il fullHD ormai lo relegherei al passato, a meno di voler contenere appunto la spesa del comparto grafico.


scusami tiger ma per me non si tratta di un problema di spesa...al massimo spendi meno sul monitor...ma dipende dal modello eh..chi vuole i 144hz anche in fhd deve spendere parecchio

io non condivido i tanti che nei forum consigliano: se prendi una 980ti non puoi giocare solo in fullhd...

e perche? :D

ma possibile che a tanti il frame rate sia un optional?

ecco si tratta di un problema di frame rate...se ami giocare a 60 frame e oltre su pc (che dovrebbe essere la regola e non l'eccezione per me)

arrivi a condividere quello che penso da qualche anno..ossia che il fullhd ancora oggi sia la scelta migliore entro i 27 pollici (parlo di monitor eh.. le tvhd ovviamente osno tutte in 1080p..i 4k sono propaganda inutile per me xD)

facciamo due esempi

uno recentissimo:

the division
https://www.youtube.com/watch?v=JjRMHBs47LE
manco tiene i 60 frame granitici in varie situazioni con una 980ti in fullhd

ripeto IN FULLLHD (vaglielo a dire a chi continua a sponsorizzare l'assioma 980ti solo per i 1440p e in su)

vogliamo parlare di the witcher3? un gioco che ormaia ha quasi un anno alle spalle
a 1440p con una 980ti i 60 frame li vedi col binocolo tutto maxato visto che giochi a 30-40 frame

vero i 1440p hanno pixel piu piccini (ma la differenza non è abbissale come la si vuole raccontare su un 25-27 pollici..)...
ma questo vantaggio lo paghi con un frame rate decisamnte zoppo che poi ti costringe ad abbassare i dettagli grafici nei giochi piu pesanti..

cadendo nel paradosso che per avere un panello piu definito..giochi con dettagli grafici abbassati per mantenere i 60 frame

e in futuro i motori grafici saranno piu pesanti..quindi la scelta del fullhd è anche piu futuristica..altro che passato :D

my 2 cents

detto questo non voglio convincervi nessuno
capisco che a tanti una risoluzione maggiore piace a prescindere dal frame rate ecc..

ma al di là della pura qualità video, ma non vi piace avere più "area visualizzata" tipica dell'aumento di risoluzione?

sicuro...è uno dei vantaggi della risoluzione maggiore
in ottica lavorativa è IL vantaggio
ma col pc io ci gioco soltanto :asd:

illidan2000
22-02-2016, 11:38
Dipende da molti fattori.
Dalla qualità del pannello che si usa,dalla distanza di visualizzazione,dal tipo di aa che si sta usando.
Io per esempio ho un monitor asus 27 pollici da 1440p e un tv sony w905 full hd con colori a 12 bit triluminos.
A patto di rispettare le giuste distanze di visualizzazione,preferisco giocare di gran lunga sul pannello 40 pollici sony,sia per resa che per l'ottimo input lag.
Nella mia situazione giocare in full hd con msaa 4x,non cambia molto dal giocare a 1440p con fxaa e per qualità finale preferisco di gran lunga la soluzione 1080p + filtro deferred.
Poi ovvio che si possa avere di meglio usando un 4k nativo DI QUALITA',ma per adesso non se ne parla a fare un tri sli di 980 ti per reggere tale bordata di prestazioni per avere frame decenti.
Senza contare l'orribile frame time variance provocato da una soluzione tri sli,brrr............
E senza contare che 6gb di vram non bastano più manco per il full hd in certi giochi,nonostante qualcuno neghi l'evidenza........
si, il "bleed" sulla vram è un problema.... o meglio, un tentativo per farci cambiare sempre schede grafiche, molto spesso anche per quello!
Ma tra fullHd e 1440p, non c'è tutta questa differenza. Mi sono ricreduto, facendo io stesso dei test. Ovvio che il numeretto che mi dà MSI Afterburner è dato dalla ram allocata, e non a quella che effettivamente serve, però non c'è un abisso, così come credevo io.

Sono d'accordo con te che i tempi per il 4k sono ancora immaturi, ma con un buon comparto video (la mia config è il minimo), in 1440p si può, rinunciando a qualcosa ovviamente, anche giocare a più di 60fps
scusami tiger ma per me non si tratta di un problema di spesa...al massimo spendi meno sul monitor...ma dipende dal modello eh..chi vuole i 144hz anche in fhd deve spendere parecchio

io non condivido i tanti che nei forum consigliano: se prendi una 980ti non puoi giocare solo in fullhd...

e perche? :D

ma possibile che a tanti il frame rate sia un optional?

ecco si tratta di un problema di frame rate...se ami giocare a 60 frame e oltre su pc (che dovrebbe essere la regola e non l'eccezione per me)


Concordo in pieno... per i 1440p la 980TI a >60fps è l'entry level secondo me. Già le mie 970 vanno un pelo meglio, e ci sto giusto giusto. Ma mi posso scordare i 100fps su molti giochi/mattone
a 1080 è tutt'altro paio di maniche
cmq, con The Witcher3, andavo ben oltre i 60fps, ma giusto perché levavo un po' di robetta, tipo nvidia hairworks e altro
Io vorrei l'uno e l'altro. Sia l'alta risoluzione che gli fps. Ora non si può ancora purtroppo, servirà pascal per aumentare pure i filtri (oppure uno SLI di 980TI, ma costicchia...)

Sir Alamon
22-02-2016, 11:39
sicuro...è uno dei vantaggi della risoluzione maggiore
in ottica lavorativa è IL vantaggio :D
ma col pc io ci gioco soltanto :asd:

io pure, ma infatti a me piace l'area visualizzata più grande proprio quando gioco :asd:

Psycho77
22-02-2016, 11:42
scusami tiger ma per me non si tratta di un problema di spesa...al massimo spendi meno sul monitor...ma dipende dal modello eh..chi vuole i 144hz anche in fhd deve spendere parecchio

io non condivido i tanti che nei forum consigliano: se prendi una 980ti non puoi giocare solo in fullhd...

e perche? :D

ma possibile che a tanti il frame rate sia un optional?

ecco si tratta di un problema di frame rate...se ami giocare a 60 frame e oltre su pc (che dovrebbe essere la regola e non l'eccezione per me)

arrivi a condividere quello che penso da qualche anno..ossia che il fullhd ancora oggi sia la scelta migliore entro i 27 pollici (parlo di monitor eh.. le tvhd ovviamente osno tutte in 1080p..i 4k sono propaganda inutile per me xD)

facciamo due esempi

uno recentissimo:

the division
https://www.youtube.com/watch?v=JjRMHBs47LE
manco tiene i 60 frame granitici in varie situazioni con una 980ti in fullhd

ripeto IN FULLLHD (vaglielo a dire a chi continua a sponsorizzare l'assioma 980ti solo per i 1440p e in su)

vogliamo parlare di the witcher3? un gioco che ormaia ha quasi un anno alle spalle
a 1440p con una 980ti i 60 frame li vedi col binocolo tutto maxato visto che giochi a 30-40 frame

vero i 1440p hanno pixel piu piccini (ma la differenza non è abbissale come la si vuole raccontare su un 25-27 pollici..)...
ma questo vantaggio lo paghi con un frame rate decisamnte zoppo che poi ti costringe ad abbassare i dettagli grafici nei giochi piu pesanti..

cadendo nel paradosso che per avere un panello piu definito..giochi con dettagli grafici abbassati per mantenere i 60 frame

e in futuro i motori grafici saranno piu pesanti..quindi la scelta del fullhd è anche piu futuristica..altro che passato :D

my 2 cents

detto questo non voglio convincervi nessuno
capisco che a tanti una risoluzione maggiore piace a prescindere dal frame rate ecc..



sicuro...è uno dei vantaggi della risoluzione maggiore
in ottica lavorativa è IL vantaggio :D
ma col pc io ci gioco soltanto :asd:

Per quello in rosso.:mano:

sickofitall
22-02-2016, 11:43
Io non metto mai le opzioni grafiche tutte sparate al massimo, perchè Nel 100% dei casi la resa grafica migliora relativamente poco, con poche e mirate ottimizzazioni si riesce anche a raddoppiare gli fps generati

Esempi? gta v 1440p gioco con fps che vanno da 80 a 165, mediamente sui 120

the division 70-80 fps medi a 1440p

witcher 3 70-80 fps medi a 1440p

La risoluzione maggiore si vede tutta, felicissimo di aver abbandonato il 1080p, inoltre usate il reshade che rende moltissimo pesando solamente qualche fps (3-4)

Sir Alamon
22-02-2016, 11:45
Io non metto mai le opzioni grafiche tutte sparate al massimo, perchè Nel 100% dei casi la resa grafica migliora relativamente poco, con poche e mirate ottimizzazioni si riesce anche a raddoppiare gli fps generati

Esempi? gta v 1440p gioco con fps che vanno da 80 a 165, mediamente sui 120

the division 70-80 fps medi a 1440p

witcher 3 70-80 fps medi a 1440p

La risoluzione maggiore si vede tutta, felicissimo di aver abbandonato il 1080p, inoltre usate il reshade che rende moltissimo pesando solamente qualche fps (3-4)

*


Su una cosa però sono d'accordo con gli utenti sopra: dai 27" in giù il cambio tra fhd e 2k si vede (relativamente) poco. Provate a fare il cambio tra un 35" fhd e un 34" 2k...

Nurabsa
22-02-2016, 11:55
provate il cambio da 22 fhd a 40 uhdc

il 4k è perfettamente godibile con una 980ti

i titoli vecchio prendono nuova vita per quelli nuovi e pesanti si possono abbassare i dettagli o scendere a 2560X1600, il fhd è solo un ricordo

la risoluzione conta piu delle texture a mio avviso

Goofy Goober
22-02-2016, 12:22
Che poi le risorse richieste non valgano la pena questo si può discutere.

il punto è questo.

e non mi pare di aver mai detto (o letto) che nativamente un gioco in 4K si vede meglio che un 1080p (senza filtri entrambi, chiaramente).

tra l'altro ho provato a gamare in 4K su tv a 60hz, 55" di pannello, ma bisogna stare a 1,5mt max per notare le differenze sul serio.
già su tv 50" 1080p a poco più di 2mt si fatica a distinguere tra l'uso di FXAA o MSAA, per esempio.
a queste distanze l'unica cosa che si nota davvero è il framerate quando smattona :asd:

Bo non so perchè dovete fare così.... io penso che le scelte delle persone vadano anche rispettate...

Io ad esempio non riuscirei mai a tornare al 1080p specie su un 27".... e il mio PC è perfettamente in grado di gestire la risoluzione 2k... Sono solo scelte di quanto una persona vuole spendere nel proprio sistema secondo me.

far così in che senso?

ho solo espresso un mio parere, mai detto che non rispetto chi invece decide di comprare un monitor 4K e vuole giocar a quella risoluzione.

stesso discorso per il 1440p, e io HO un monitor 1440p :stordita:

ragazzi su per piacere, lo dico io "perchè dovete fare così", appena uno esprime un parere che cozza con quello che avete dentro il pc o sulla scrivania/nella sala non è che bisogna iniziar a tirar a mezzo il rispetto per le proprie scelte e tutto il resto, eddove siamo, dalla defilippi?? :asd:


Su una cosa però sono d'accordo con gli utenti sopra: dai 27" in giù il cambio tra fhd e 2k si vede (relativamente) poco. Provate a fare il cambio tra un 35" fhd e un 34" 2k...

dipende molto dalla distanza visuale.

gioco anche parecchio su TV, tramite HTPC, e quando nell'equazione inizi ad inserire una distanza visuale di metri, e non centimetri, tutto assume un rilevanza diversa, dove i dettagli sfumano perchè sei troppo distante per notarli...
che poi è su questo che fanno leva le consolette di oggi per dar l'effetto "wow".
anche Wii U con Xenoblade mi fa fare "wow" mentre gioco sul divano, ma se mi alzo e vado a 50cm dal monitor, mi metto a ridere.

Spider-Mans
22-02-2016, 12:27
Poi c'è lui.

https://youtu.be/weh_4u7F6ag

High preset,se metteva epic faceva 12 frame in differita dal brasile per due spicci.:asd:


terribile
quel gioco è esageratamente pesante..
mi viene la nausea a vederlo girare a quel frame rate :stordita: (eh ma la 980ti è solo per 1440p in su .. cit.)
i 30 frame su alcuni giochi con tanto blurr ed effetti post processing...sembrano slow motion..tipo moviolone per i falli da rigore :asd:

pero ti da una idea (forse troppo pessimistica ma non tanto lontana dalla realta) di cosa saranno i giochi basati su ue4 e non sviluppati in primis da epic

ci sara da ridere :asd:

CiccoMan
22-02-2016, 12:27
Io sulla titan x uso un monitor 1080p perche la "povera" non ce la fa a mandare lo swift... Spero che la next gen permetta di mandare il 1440p con singola vga :)

athlon xp 2400
22-02-2016, 12:31
Ma giochi con tutti e due i Pc? Come scegli con cosa giocare ? Lol

CiccoMan
22-02-2016, 12:34
Uno lo tengo a casa dove gioco la sera dopo aver messo a letto il pupetto e l'altro lo tengo a casa dei miei dove sto il weekend... :D

athlon xp 2400
22-02-2016, 12:35
Uno lo tengo a casa dove gioco la sera dopo aver messo a letto il pupetto e l'altro lo tengo a casa dei miei dove sto il weekend... :D



Che Nvidia lol

Goofy Goober
22-02-2016, 12:36
Il fullHD ormai lo relegherei al passato, a meno di voler contenere appunto la spesa del comparto grafico.

dipende cosa intendi per "contenere" :D

ad esempio oggi con una vga da 250 euro ci sono ancora giochi che girano da schifo a 1080p non a dettagli massimi e senza filtri pesanti, quindi FXAA invece di MSAA.
provato sulla mia pelle con XCom2 settimana scorsa, su 1080p 60hz e AMD R9 380...

250 euro circa, per me è una spesa contenuta.

Piccolo OT: lo Z35 imho è il peggior acquisto che si possa fare...1000€ per un 2560x1080 su 35".... :Puke:

occhio tiger.
tieni sempre a mente che c'è il discorso distanza visuale, e quando sei su un 35", inizi a sederti più lontano...
fin a non tanti anni fa avevamo le tv da taglio di 36"-37", non credo che nessuno si sedesse "in braccio" alla tv di tale polliciaggio.

ragazzi ma se avete un monitor 4k e mettete il fhd nei giochi c'è una enorme possibilità che lo scaler sia una mezza merda

è una certezza, non una possibilità.
gli scaler "decenti" sono sulle tv, e di solito su tv di un certo prezzo tra l'altro.


la risoluzione conta piu delle texture a mio avviso

un gioco vecchio avrà una resa scialba a prescindere dalla risoluzione, i miracoli non si fanno a meno che per qualche ragione non avesse texture che scalano perfettamente all'aumentare della risoluzione...

giusto giochi dalla grafica "puffettosa" migliorano la resa all'aumentare della risoluzione.

ho giocato Far Cry in 4K, ho visto lo stesso Far Cry che giocai all'epoca su un 1280*1024 + SSAA (ma allora con framerate ridicoli :asd: )

Psycho77
22-02-2016, 12:38
terribile
quel gioco è esageratamente pesante..
mi viene la nausea a vederlo girare a quel frame rate :stordita: (eh ma la 980ti è solo per 1440p in su .. cit.)

pero ti da una idea (forse troppo pessimistica ma non tanto lontana dalla realta) di cosa saranno i giochi basati su ue4 e non sviluppati in primis da epic

ci sara da ridere :asd:

E ringrazia il cielo che Crytek sta li buona buona senza annunciare l'anticristo del 4k e del povero pasqualino.

Crysis 4 o crysis 1 remaster?

Già immagino gente a rimpiangere ark survival e a giocare a 4k a impostazioni uber low a 16 frame mentre si iscrivono a sto canale con 2 pasqualini top di gamma sotto al cofano.:asd:

https://www.youtube.com/channel/UCQkd05iAYed2-LOmhjzDG6g


Meno male che c'è la scusa della scarsa ottimizzazione,ma purtroppo 16 frame rimangono 16 frame in ogni caso.

Tutto sta a quanto spingono sul pedale le software house e quasi certamente,ste dx12 rimarranno un miraggio per molto tempo a venire,esclusi pochi casi.

mircocatta
22-02-2016, 13:17
terribile
quel gioco è esageratamente pesante..
mi viene la nausea a vederlo girare a quel frame rate :stordita: (eh ma la 980ti è solo per 1440p in su .. cit.)
i 30 frame su alcuni giochi con tanto blurr ed effetti post processing...sembrano slow motion..tipo moviolone per i falli da rigore :asd:

pero ti da una idea (forse troppo pessimistica ma non tanto lontana dalla realta) di cosa saranno i giochi basati su ue4 e non sviluppati in primis da epic

ci sara da ridere :asd:

è un gioco in early access e le ottimizzazioni devono ancora arrivare, per ora stanno facendo tutt'altro, per dire, le res ultrawide non sono neanche supportate

io ci gioco attorno ai 40-50 fps e non è male

Sir Alamon
22-02-2016, 13:32
dipende molto dalla distanza visuale.

gioco anche parecchio su TV, tramite HTPC, e quando nell'equazione inizi ad inserire una distanza visuale di metri, e non centimetri, tutto assume un rilevanza diversa, dove i dettagli sfumano perchè sei troppo distante per notarli...
che poi è su questo che fanno leva le consolette di oggi per dar l'effetto "wow".
anche Wii U con Xenoblade mi fa fare "wow" mentre gioco sul divano, ma se mi alzo e vado a 50cm dal monitor, mi metto a ridere.

ovviamente si parla da distanza gaming-pc, quindi neanche 1mt.

Ovvio che se vado a 5mt non le vedo più le scalettature.

Aggiungo comunque che io ad esempio col 34" non mi siedo mica tanto lontano.

TigerTank
22-02-2016, 14:03
Io non metto mai le opzioni grafiche tutte sparate al massimo, perchè Nel 100% dei casi la resa grafica migliora relativamente poco, con poche e mirate ottimizzazioni si riesce anche a raddoppiare gli fps generati

Esempi? gta v 1440p gioco con fps che vanno da 80 a 165, mediamente sui 120

the division 70-80 fps medi a 1440p

witcher 3 70-80 fps medi a 1440p

La risoluzione maggiore si vede tutta, felicissimo di aver abbandonato il 1080p, inoltre usate il reshade che rende moltissimo pesando solamente qualche fps (3-4)

Ecco, concordo al 100% con questa linea di pensiero, in base alla quale ho definito quello che PER ME è il punto di equilibrio vga-risoluzione attuale considerando le prestazioni delle vga e la resa visiva.

Poi certo...se uno vorrà restare in fullHD con le Pascal perchè dà assoluta priorità ad un framerate più alto possibile, ok...è una scelta sacrosanta...mentre proprio non concordo l'idea di restarci per giocare per forza tutto maxato a prescindere...perchè ci sono effetti che in quanto a pesantezza esagerata meriterebbero solo la disattivazione :D

dipende cosa intendi per "contenere" :D

Diciamo quelli che appunto si limitano al fullHD per favorire il più possibile il framerate già stando su scheda singola. O comunque evitare di spendere tanto per poi ritrovarsi a dover dipendere troppo dallo SLi, con relativa difficoltà in caso di titoli privi di supporto.
Circa lo Z35, no...manco la distanza è una scusante. Un 2560x1080 spalmato su 35" imho non vale 1000€, tanto vale stare su un 16:9 1440p che costa pure meno.

Goofy Goober
22-02-2016, 14:32
ovviamente si parla da distanza gaming-pc, quindi neanche 1mt.

Ovvio che se vado a 5mt non le vedo più le scalettature.

Aggiungo comunque che io ad esempio col 34" non mi siedo mica tanto lontano.

se ti siedi troppo vicino a schermi troppo grossi finisce che devi muovere il collo per "guardare" tutto quanto, è il paradigma che vale anche sulle tv e per il quale ritengo il 4K su tv (che va quindi osservata da molto vicino per cogliere le migliorie) una mezza bufala, visto che nei valori di distanza consigliati per visione 4K su un 55" devi guardare da 1.6mt in 4K, è come se ci fossi in braccio al pannello.

già ora da un 24" fullhd sto confortevolmente a 70-80cm di distanza...
sul 27" 1440p più o meno sto alla stessa distanza se non di più.

da un 34" cavolo minimo minimo 1 metro e qualcosa ci vuole (almeno per me).

tra l'altro io essendo miope con occhiali vedo tutto più "piccolo" del normale, mi immagino che con 10/10 vedendo il monitor leggermente più grande starei ancora più distante.

illidan2000
22-02-2016, 14:43
se ti siedi troppo vicino a schermi troppo grossi finisce che devi muovere il collo per "guardare" tutto quanto, è il paradigma che vale anche sulle tv e per il quale ritengo il 4K su tv (che va quindi osservata da molto vicino per cogliere le migliorie) una mezza bufala, visto che nei valori di distanza consigliati per visione 4K su un 55" devi guardare da 1.6mt in 4K, è come se ci fossi in braccio al pannello.

già ora da un 24" fullhd sto confortevolmente a 70-80cm di distanza...
sul 27" 1440p più o meno sto alla stessa distanza se non di più.

da un 34" cavolo minimo minimo 1 metro e qualcosa ci vuole (almeno per me).

tra l'altro io essendo miope con occhiali vedo tutto più "piccolo" del normale, mi immagino che con 10/10 vedendo il monitor leggermente più grande starei ancora più distante.
mmh... muovere la testa non è un dramma.
Nella vita reale lo facciamo. E' un modo per immergersi in una realtà fatta di fantasia...

Nurabsa
22-02-2016, 14:48
se ti siedi troppo vicino a schermi troppo grossi finisce che devi muovere il collo per "guardare" tutto quanto, è il paradigma che vale anche sulle tv e per il quale ritengo il 4K su tv (che va quindi osservata da molto vicino per cogliere le migliorie) una mezza bufala, visto che nei valori di distanza consigliati per visione 4K su un 55" devi guardare da 1.6mt in 4K, è come se ci fossi in braccio al pannello.

già ora da un 24" fullhd sto confortevolmente a 70-80cm di distanza...
sul 27" 1440p più o meno sto alla stessa distanza se non di più.

da un 34" cavolo minimo minimo 1 metro e qualcosa ci vuole (almeno per me).

tra l'altro io essendo miope con occhiali vedo tutto più "piccolo" del normale, mi immagino che con 10/10 vedendo il monitor leggermente più grande starei ancora più distante.

prova un 40 curved uhd e cambierai idea sul 4k

ci gioco a circa un metro ed è ad dir poco appagante


a seconda del pannello le migliorie coinvolgono anche le trasmissioni sd

Sir Alamon
22-02-2016, 14:59
se ti siedi troppo vicino a schermi troppo grossi finisce che devi muovere il collo per "guardare" tutto quanto, è il paradigma che vale anche sulle tv e per il quale ritengo il 4K su tv (che va quindi osservata da molto vicino per cogliere le migliorie) una mezza bufala, visto che nei valori di distanza consigliati per visione 4K su un 55" devi guardare da 1.6mt in 4K, è come se ci fossi in braccio al pannello.

già ora da un 24" fullhd sto confortevolmente a 70-80cm di distanza...
sul 27" 1440p più o meno sto alla stessa distanza se non di più.

da un 34" cavolo minimo minimo 1 metro e qualcosa ci vuole (almeno per me).

tra l'altro io essendo miope con occhiali vedo tutto più "piccolo" del normale, mi immagino che con 10/10 vedendo il monitor leggermente più grande starei ancora più distante.


ma fammi capire te nella vita reale non giri la testa?

Spider-Mans
22-02-2016, 15:05
Ecco, concordo al 100% con questa linea di pensiero, in base alla quale ho definito quello che PER ME è il punto di equilibrio vga-risoluzione attuale considerando le prestazioni delle vga e la resa visiva.

Poi certo...se uno vorrà restare in fullHD con le Pascal perchè dà assoluta priorità ad un framerate più alto possibile, ok...è una scelta sacrosanta...mentre proprio non concordo l'idea di restarci per giocare per forza tutto maxato a prescindere...perchè ci sono effetti che in quanto a pesantezza esagerata meriterebbero solo la disattivazione :D



ah se sono effetti senza effetto :D sicuro nel senso che a volte da ultra a high non cambia nulla a lvl visivo se non hai un microscopio..prendi i god rays di fallout4 xD

sullo sli/cross io lo evito perche è antieconomico
consumi da centrale nucleare
non è supportato da tutti i giochi
spendi il doppio e spesso è un dramma con i driver

vedi i giochi id/bethesda

se fosse supportato al 100% su tutti i giochi...allora sarebbe una panacea...ma non lo è

meglio una top singola..quindi meglio fullhd o al massimo 1440p

il 4k lo lascio ai centri commerciali xD

il 21:9 invece è MOLTO bello..immersivo n spanne piu del 4k 16:9
ma è ancora supportato meno dello sli/cross xD
se devo giocare a tanti giochi con due bande nere giganti ai lati..che senso ha?

cmq tornando un po a pascal e ai motori graifci futuri

l'ue4 dovrebbe prendere piede da qui a uno/due anni
occorre vedere cosa fara cryteck.... spero si svegli dal torpore dei giochi free to play :asd:

Goofy Goober
22-02-2016, 15:06
mmh... muovere la testa non è un dramma.
Nella vita reale lo facciamo. E' un modo per immergersi in una realtà fatta di fantasia...

per me è solo un modo per perdere dettagli che mi sfuggono a video :D

nella vita reale lo fai, ma se guardi a destra non vedi quello che c'è a sinistra...

prova un 40 curved uhd e cambierai idea sul 4k

ci gioco a circa un metro ed è ad dir poco appagante

a seconda del pannello le migliorie coinvolgono anche le trasmissioni sd

io muoio se sto a 1mt da uno schermo 40" :asd:
già ora quando uso un 55" (curved 4K) mi sembra di esser troppo vicino e sto a 2mt.

ma fammi capire te nella vita reale non giri la testa?

non ho capito cosa c'entra muovere la testa per guardarti intorno al muovere la testa perchè stai in braccio ad uno schermo che vedi benissimo e, per intero, ad una distanza maggiore.

scusa quando usi uno smartphone ci apoggi sopra il naso e guardi a destra e sinistra muovendo occhi e faccia?
o lo tieni a distanza confortevole per vedere tutto quanto senza far movimenti?

al cinema perchè le prime file sono sempre vuote e ci si picchia per sedersi da metà sala indietro?
a casa stravaccato in divano/poltrona hai il solco per muovere la testa a destra e sinistra mentre guardi la tv? oppure ti "brasi" li e osservi, muovendo quasi solo gli occhi, l'immagine sullo schermo?

dai su, facciamo paragoni sensati, dire "nella vita reale" non significa niente :D

banalmente, se ti guardi Hateful Eight in UltraPanavision 70 la prima cosa che ti viene da fare è indietreggiare per vedere tutto nell'insieme, non avvicinarti e guardare da destra a sinistra e da sinistra a destra...

Nurabsa
22-02-2016, 15:19
Vorrei far presente che in gaming il 4k fa la differenza non tanto per il pannello in 4k ma per l'immagine elaborata in 4k.
Usando il DSR 4k su un pannello a risoluzione minore la differenza tra pannello 4k e pannello ris minore cala molto, per alcuni ad una distanza ragionevole non farebbe differenza.
In ambito tv invece l'immagine ha sempre un sorgente >4k quindi la differenza è minore.

concordo,
considera anche che a parità di 4k i colori non sono tutti uguali ma appunto cambiano a seconda del pannello.
Il dsr lo usavo sempre quando stavo in fhd minore è la diagonale maggiore è la qualità dsr.

Quando scelsi il mio modello c erano una marea di 4k anche meno costosi ma ai miei occhi si vedeva meglio un modello su tutti.

sei fortissimo nei commenti news :)

Sir Alamon
22-02-2016, 16:19
non ho capito cosa c'entra muovere la testa per guardarti intorno al muovere la testa perchè stai in braccio ad uno schermo che vedi benissimo e, per intero, ad una distanza maggiore.

scusa quando usi uno smartphone ci apoggi sopra il naso e guardi a destra e sinistra muovendo occhi e faccia?
o lo tieni a distanza confortevole per vedere tutto quanto senza far movimenti?

al cinema perchè le prime file sono sempre vuote e ci si picchia per sedersi da metà sala indietro?
a casa stravaccato in divano/poltrona hai il solco per muovere la testa a destra e sinistra mentre guardi la tv? oppure ti "brasi" li e osservi, muovendo quasi solo gli occhi, l'immagine sullo schermo?

dai su, facciamo paragoni sensati, dire "nella vita reale" non significa niente :D

banalmente, se ti guardi Hateful Eight in UltraPanavision 70 la prima cosa che ti viene da fare è indietreggiare per vedere tutto nell'insieme, non avvicinarti e guardare da destra a sinistra e da sinistra a destra...

quello che voglio dire è, non è che devi giocare necessariamente a una distanza in cui inquadri totalmente lo schermo. Detto che poi io da 70cm scarsi il 34" lo vedo tutto, non è che ho bisogno di indietreggiare 2 metri. E se voglio vedere un particolare della parte periferica, giro la testa e lo guardo. Aiutato anche dal fatto che è curvo.

Goofy Goober
22-02-2016, 16:30
quello che voglio dire è, non è che devi giocare necessariamente a una distanza in cui inquadri totalmente lo schermo. Detto che poi io da 70cm scarsi il 34" lo vedo tutto, non è che ho bisogno di indietreggiare 2 metri. E se voglio vedere un particolare della parte periferica, giro la testa e lo guardo. Aiutato anche dal fatto che è curvo.
Per carità mi fido di quel che dici non avendo a disposizione un 34" con cui provare, ma in ufficio per dire un 24" lo vedo bene per intero a circa 65cm, quindi escludo che se avessi un 34" (normale o wide) potrei star seduto esattamente come/dove sono ora (dato che son ben 10" in più )... avrei anche bisogno di una scrivania più profonda.

AkiraFudo
22-02-2016, 16:57
il problema non è il collo ma il muovere gli occhi in continuazione e la vista si affatica rapidamente.

@Goofy. Prova le lenti a contatto per evitare il problema che vedi rimpicciolito.

Psycho77
22-02-2016, 21:40
Giusto per mettere il dito nella piaga.:asd:

https://youtu.be/THgVtqOJerw

Legolas84
22-02-2016, 21:53
pensavo ad un banalissimo Heaven 4.0....
Altrimenti, che giochi hai installato ora sul pc?




Haven lo posso scaricare senza problemi.... con che settings vuoi che lo faccia?

Come giochi diciamo da bench ora ho The Witcher 3 installato.... non penso che wolfenstein, baldur's gate 2 EE, PES16 o Civ 5 siano adatti allo scopo....

Crysis90
22-02-2016, 21:54
Giusto per mettere il dito nella piaga.:asd:

https://youtu.be/THgVtqOJerw

Ottimizzato...dopppppppppo...:muro: :doh:
Minuto 0:54, 20 FPS. Il tutto per renderizzare una testa (pure pelata...) ed una porta...si 2 no 3 textures da renderizzare. Non male. ;) :eek:
Non so cosa sia più imbarazzante: se l'ottimizzazione del motore grafico, o il gioco in se stesso... :muro:

amon.akira
22-02-2016, 22:38
a proposito di dsr, sul mio pannello 1080 qualsiasi intermedia che non sia 4k si vede male, ho risolto creando risoluzioni custom 1440p etc... però con le custom il pannello non mi accetta il 4k arrivo max a 3200x1800 (16:9), mentre il dsr si...però non posso attivarli insieme.

senza contare che con il dsr devo tenere per forza il filtro sharp/blur, mentre mi sarebbe piaciuto avere solo la res liscia.

Raven
22-02-2016, 22:52
ma fammi capire te nella vita reale non giri la testa?

Dipende da che collo hai!... :O

https://upload.wikimedia.org/wikipedia/commons/e/e0/Costanzobau.jpg

Lui non la gira! :p

paolox86
22-02-2016, 23:24
Giusto per mettere il dito nella piaga.:asd:



https://youtu.be/THgVtqOJerw


Cali di frame a parte, c'è una IA imbarazzante. Altro che beta sembra una pre-alpha


Inviato dal mio iPad utilizzando Tapatalk

egounix
22-02-2016, 23:57
Dipende da che collo hai!... :O

https://upload.wikimedia.org/wikipedia/commons/e/e0/Costanzobau.jpg

Lui non la gira! :p

Non fa ridere...


















buahuaahauahahuaahuaahauahauahuaua
Ahhaiabaaiahknddlrjuchfhdurhfhdhd
Hahahahahahahahahahhahab:rotfl:

Sir Alamon
23-02-2016, 07:34
ah ok.... sotto i 30 non ci va tranquillo. È che per me giocabile significa ALMENO 60.... :D

ieri ho provato w3 in varie zone del gioco, 2k tutto maxato (tranne l'AA dell'hairworks a 4 invece che a 8) e le ombre su high invece che very high (se le metto su very high mi fanno tutte scalettature (?) ) e non sono mai sceso sotto i 50 con la config in firma.


Quindi tutto tutto maxato no ma quasi ed è fluidissimo gsync 2k. Se metto hairworks AA 8x invece ho un drop notevole

Legolas84
23-02-2016, 07:53
ieri ho provato w3 in varie zone del gioco, 2k tutto maxato (tranne l'AA dell'hairworks a 4 invece che a 8) e le ombre su high invece che very high (se le metto su very high mi fanno tutte scalettature (?) ) e non sono mai sceso sotto i 50 con la config in firma.


Quindi tutto tutto maxato no ma quasi ed è fluidissimo gsync 2k. Se metto hairworks AA 8x invece ho un drop notevole

Se non maxo ma abbasso come hai fatto tu sul mio PC vola letteralmente.... io sto parlando di non scendere mai sotto i 60 con tutto (TUTTO) maxato in 2K ;)

Sir Alamon
23-02-2016, 08:22
Se non maxo ma abbasso come hai fatto tu sul mio PC vola letteralmente.... io sto parlando di non scendere mai sotto i 60 con tutto (TUTTO) maxato in 2K ;)

purtroppo gli 8x sull'hairworks pesanto come macigni. Le ombre settandole su very high non perdo gran che, 1-2 frame, ma l'hw è ottimizzato veramente col culo.

Comunque io me lo gioco sui 70/75 di media con l'hairworks AA4x e le ombre su high e tutto il resto al massimo, devo dire è uno spettacolo

athlon xp 2400
23-02-2016, 09:20
ieri ho provato w3 in varie zone del gioco, 2k tutto maxato (tranne l'AA dell'hairworks a 4 invece che a 8) e le ombre su high invece che very high (se le metto su very high mi fanno tutte scalettature (?) ) e non sono mai sceso sotto i 50 con la config in firma.


Quindi tutto tutto maxato no ma quasi ed è fluidissimo gsync 2k. Se metto hairworks AA 8x invece ho un drop notevole


Ma in che punti?

Sir Alamon
23-02-2016, 09:34
Ma ha senso un AA x8 su hairworks giocando in 2k? :rolleyes:

Nessuno, era solo per fare la prova full maxato. Non noto differenze visive.

Ma in che punti?

ho fatto una mezz'ora girando per skellige, poi 20 minuti nella zona del bosco della prima area e un'altra mezz'ora in città (lì vado su fps stellari)

Legolas84
23-02-2016, 09:35
Ma ha senso un AA x8 su hairworks giocando in 2k? :rolleyes:

Su modelli stretti e lunghi come i peli o i capelli alzare ad 8X migliora la resa, sebbene non sia una cosa fondamentale... il Fondamentale IMHO è avere HairWorks attivo perchè ha davvero un bell'impatto sulla resa generale :)

Sir Alamon
23-02-2016, 09:36
Su modelli stretti e lunghi come i peli o i capelli alzare ad 8X migliora la resa, sebbene non sia una cosa fondamentale... il Fondamentale IMHO è avere HairWorks attivo perchè ha davvero un bell'impatto sulla resa generale :)

sì ma l'8x rispetto al 4x lo noti solo e soltanto se sei fermo e zoomi sulla testa del personaggio. Sui mostri e durante il combat non si vede se sei già in 2k, almeno IO non lo noto, specie con l'AA generale già maxato

Legolas84
23-02-2016, 09:44
sì ma l'8x rispetto al 4x lo noti solo e soltanto se sei fermo e zoomi sulla testa del personaggio. Sui mostri e durante il combat non si vede se sei già in 2k, almeno IO non lo noto, specie con l'AA generale già maxato

In movimento io lo noto mentre gioco, in combat ovviamente non noto più nulla se non la posizione del target....

athlon xp 2400
23-02-2016, 09:51
Quanto usa la cpu sto gioco ?

Lanzus
23-02-2016, 11:07
Certo che si è passati dal aspettando le nuove VGA nvidia a come e se gira il collo Costanzo ...

Per la serie "Solo qui su Hardware Upgrade" :rolleyes:

athlon xp 2400
23-02-2016, 13:22
Ho appena venduto il 1440 p " tassa" e torno a 1080 p :) mi son rotto di spendere la via di casa e nn poter manco maxare

Obrigado
23-02-2016, 13:34
Ho appena venduto il 1440 p " tassa" e torno a 1080 p :) mi son rotto di spendere la via di casa e nn poter manco maxare

Basta prendere un g-sync/freesync per non avere il problema....

athlon xp 2400
23-02-2016, 13:41
Basta prendere un g-sync/freesync per non avere il problema....



Costano troppo ora me ne sto un po' con il full hd poi quando è maturo il 4 k con singola vga ci penso al cambio

illidan2000
23-02-2016, 14:06
E poi per i giochi leggeri, magari non nuovissimi, puoi sempre andare di DSR e recuperare buona parte della qualità visiva che hai perso passando a 1440 a 1080 :D
Molto leggeri, anche perchè con monitor 1080p per andare di DSR dovresti impostarlo a 4k.

non è affatto la stessa cosa...

athlon xp 2400
23-02-2016, 14:15
E poi per i giochi leggeri, magari non nuovissimi, puoi sempre andare di DSR e recuperare buona parte della qualità visiva che hai perso passando a 1440 a 1080 :D
Molto leggeri, anche perchè con monitor 1080p per andare di DSR dovresti impostarlo a 4k.

Va be la qualità è un'altra cosa ma di dover scendere a compromessi con una 980ti mi è venuto s noia x questo ho fatto retromarcia

Goofy Goober
23-02-2016, 14:48
Certo che si è passati dal aspettando le nuove VGA nvidia a come e se gira il collo Costanzo ...

Per la serie "Solo qui su Hardware Upgrade" :rolleyes:

Eh già.... E' scandalo in effetti, non so come farò a continuare a frequentare questo forum dopo questi discorsi assolutamente fuori dal seminato, inaccettabili e anche falsi e tendenziosi....






:asd:

Ma un sorriso ogni tanto no eh? :stordita:

Legolas84
23-02-2016, 14:48
Io con pascal potrei optare di passare a 3440x1440 @ 100hz +gSync :)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Sir Alamon
23-02-2016, 15:24
Dipende sempre solo da quando butteranno fuori le ipoteche 1080ti, che saranno il riferimento per la fascia enthusiast. Temo che non le vedremo tanto presto

traider
23-02-2016, 15:27
Con Quantum Break una 980ti farà 30 fps a ultra 1080p :D .

athlon xp 2400
23-02-2016, 15:43
Il 1080 p oggi maxato è un mattone figurati le altre risoluzioni

Spider-Mans
23-02-2016, 16:54
Con Quantum Break una 980ti farà 30 fps a ultra 1080p :D .

a 4k giocheranno col moviolone :asd:

cmq non so se è stato postato:

http://www.fudzilla.com/news/graphics/40027-more-pascal-details-leaked

TigerTank
23-02-2016, 17:06
Il 1080 p oggi maxato è un mattone figurati le altre risoluzioni

Basta non maxare....si sa che purtroppo i nuovi titoli ce li si gode alla generazione successiva di vga...tant'è che io ormai non compro quasi più nulla all'uscita, aspetto le edizioni complete e magari con uno scontone. Così oltre a risparmiare te lo giochi rodato e magari con più potenza grafica invece che impazzire al day one :D

athlon xp 2400
23-02-2016, 17:08
Basta non maxare....si sa che purtroppo i nuovi titoli ce li si gode alla generazione successiva di vga...tant'è che io ormai non compro quasi più nulla all'uscita, aspetto le edizioni complete e magari con uno scontone. Così oltre a risparmiare te lo giochi rodato e magari con più potenza grafica invece che impazzire al day one :D


È una tassa x me sto monitor basta mi metto l'anima in pace torno a full hd :muro: così cambio meno anche scheda video

Tw3 nn è propriamente nuovo lol

The_SaN
23-02-2016, 17:32
Quindi si dovrebbe ritornare al "vecchio" 1/3 per il double precision. Sono curioso di vedere quanto inciderà in termini di area e consumi.
Comunque finalmente si ritorna con una "vera" Titan :cool:

athlon xp 2400
23-02-2016, 18:01
Quindi si dovrebbe ritornare al "vecchio" 1/3 per il double precision. Sono curioso di vedere quanto inciderà in termini di area e consumi.
Comunque finalmente si ritorna con una "vera" Titan :cool:

Al costo di 1500 capace Lol

XEV
23-02-2016, 18:18
Dipende da che collo hai!... :O

Lui non la gira! :p

aaaaaaaaaaaaah :asd: :asd: :rotfl:

Raven
23-02-2016, 18:24
Certo che si è passati dal aspettando le nuove VGA nvidia a come e se gira il collo Costanzo ...

Per la serie "Solo qui su Hardware Upgrade" :rolleyes:

Welcome! http://i.imgur.com/vK6M99p.gif

TigerTank
23-02-2016, 20:53
È una tassa x me sto monitor basta mi metto l'anima in pace torno a full hd :muro: così cambio meno anche scheda video

Tw3 nn è propriamente nuovo lol

Potevi scendere al fullHD impostando da drivers l'1:1 con le cornici nere.
Piccolino, tipo avere un fullHD da 24", ma te lo facevi bastare fino a pascal senza tornare indietro con la risoluzione. :sofico:
Tanto non ci credo che cambi meno schede video :ciapet:

athlon xp 2400
23-02-2016, 21:17
Potevi scendere al fullHD impostando da drivers l'1:1 con le cornici nere.
Piccolino, tipo avere un fullHD da 24", ma te lo facevi bastare fino a pascal senza tornare indietro con la risoluzione. :sofico:
Tanto non ci credo che cambi meno schede video :ciapet:

Il prossimo sarà 4K quando sarà gestito a singola ! Ora mi fermo lol

TigerTank
23-02-2016, 21:26
Il prossimo sarà 4K quando sarà gestito a singola ! Ora mi fermo lol

Ahahah magari quando i tempi saranno maturi per i 4K gestibili dalle future schede singole...saremo passati ai visori VR :D

athlon xp 2400
23-02-2016, 21:31
Ahahah magari quando i tempi saranno maturi per i 4K gestibili dalle future schede singole...saremo passati ai visori VR :D



Mai mi metterò quella roba lol

egounix
23-02-2016, 21:53
Ahahah magari quando i tempi saranno maturi per i 4K gestibili dalle future schede singole...saremo passati ai visori VR :D

I visori sono un fail... Sempre per il fatto che costanzo non gira la testa...

TigerTank
23-02-2016, 21:55
I visori sono un fail... Sempre per il fatto che costanzo non gira la testa...

Ma infatti, di pari passo anche con le future vga, io li valuterò solo nel 2017 o giù di lì. Inizialmente sarà una fase di costosi "prototipi".

Psycho77
23-02-2016, 22:44
Il prossimo sarà 4K quando sarà gestito a singola ! Ora mi fermo lol

Ma dai che con 6gb di vram ci giochi pure a 8k.:D

http://steamcommunity.com/app/391220/discussions/0/405690850608905922/ Caso 1

http://steamcommunity.com/app/391220/discussions/0/405692224244046490/ Caso 2.

http://steamcommunity.com/app/391220/discussions/0/451852571441734870/ Caso 3

Perchè non hai capito la differenza tra vram allocata e usata.cit:read:

i7-4770k / Titan X SLI here... hitting 49-50 fps in both the Soviet Base and Geothermal Valley... hitting near 9GB of VRAM usage, 50% GPU usage each...

I love this game and am awaiting fixes/optimizations for these issues.

Even if I turn down everything to low/720p... still getting severe FPS drops in those areas.

http://abload.de/img/steam7jsiu.png

The_SaN
24-02-2016, 00:47
Quindi in pratica mi cita dopo avermi messo in ignore? Che personaggio :asd:
Comunque la review con il frametime l'ho postata. Amen.

Spero che il 77 non sia l'anno di nascita.

Edit: vRAM usage = vRAM usata ROTFL :rotfl:

egounix
24-02-2016, 02:14
Cioè ma se domani wollay mi rilascia un cubeworld che si ciulla 16giggi di vram in fhd, me lo ritrovo postato qua come esempio?

Srsly?

LooooooL :asd:

Dopo aver sentiro che il fhd è il futuro... Mi suicido :stordita:

FroZen
24-02-2016, 06:57
:asd:


Bisogna andare avanti per accorgersi che si stava meglio indietro (o dietro?)

Speriamo che polaris faccia girare come deve il 720p nonostante l'overhead dx11, mario draghi e la crimea...

sickofitall
24-02-2016, 08:29
Cioè ma se domani wollay mi rilascia un cubeworld che si ciulla 16giggi di vram in fhd, me lo ritrovo postato qua come esempio?

Srsly?

LooooooL :asd:

Dopo aver sentiro che il fhd è il futuro... Mi suicido :stordita:



http://data.whicdn.com/images/2276422/large.jpg

athlon xp 2400
24-02-2016, 08:38
Cioè ma se domani wollay mi rilascia un cubeworld che si ciulla 16giggi di vram in fhd, me lo ritrovo postato qua come esempio?

Srsly?

LooooooL :asd:

Dopo aver sentiro che il fhd è il futuro... Mi suicido :stordita:


Il futuro nn e' ma se si vuole maxare con frame alti a singola scheda è l'unico modo .. O ti fai degli sli da spendere la via casa e monitor gsync costosi! Meglio aspettare che il 4 k maturi e escano vga che lo gestiscono

traider
24-02-2016, 09:12
Potevi scendere al fullHD impostando da drivers l'1:1 con le cornici nere.
Piccolino, tipo avere un fullHD da 24", ma te lo facevi bastare fino a pascal

Tipo così :) :asd: :asd: :

http://s14.postimg.org/p6wtm5fsx/Cattura.jpg

.

Goofy Goober
24-02-2016, 09:18
I visori sono un fail... Sempre per il fatto che costanzo non gira la testa...

esatto! :read:

e i visori sono un fail anche se giochi anche/soprattutto stravaccato non servono a niente, a meno che non sei un abituèè del rotolamento ossessivo a destra e sinistra sul tuo piano d'appoggio :asd:

Il futuro nn e' ma se si vuole maxare con frame alti a singola scheda è l'unico modo .. O ti fai degli sli da spendere la via casa e monitor gsync costosi! Meglio aspettare che il 4 k maturi e escano vga che lo gestiscono

sono gli stessi discorsi che si faceva all'inizio della diffusione degli schermi FHD per pc, solo che all'epoca lo "sbalzo" in quantità di pixel era inferiore.
stare su monitor 1080p gsync o freesync è la scelta ottima per chi non vuole spendere troppo in vga.

il "futuro" ognuno lo avrà in base a quanto sceglie di spendere, niente di più, niente di meno :stordita:
è sempre stato così.

athlon xp 2400
24-02-2016, 09:20
Nono ho preso un benq xl2411z nn voglio spendere 500 euro x un full hd

TigerTank
24-02-2016, 10:11
Quindi in pratica mi cita dopo avermi messo in ignore? Che personaggio :asd:
Comunque la review con il frametime l'ho postata. Amen.

Spero che il 77 non sia l'anno di nascita.

Edit: vRAM usage = vRAM usata ROTFL :rotfl:

AL di là dei problemi tecnici da giochi che escono in fase "quasi beta"(stuttering e drop da deficit di motore e drivers o da supporto SLi da ottimizzare, ecc...) il motore dell'ultimo Tomb Raider in quanto a gestione vram funziona così:

"Using a GTX Titan X, which has 12 GB of VRAM, we tested the game's memory usage. As you can see, the game always uses 6-7 GB of VRAM. This may sound shocking at first, but the game also runs very well with cards that don't have as much memory - just look at the performance charts. It seems as though Crystal Dynamics' engine will happily use as much VRAM as it can, but is very well optimized to make do with much less without sacrificing framerates."(Da Techpowerup)

Poi certo...loro sono liberi di inserire un settaggio "Ultra" con textures oscenamente pesanti e non compresse...ma non è obbligatorio usarlo, per cui basta scalare di una tacca invece che usarle per forza e magari pure in congiunzione ad un MSAA e altri filtri maxati(ombre ultra) che si portano via un sacco di ulteriore vram :)
Alla fine si ripete un pò la storia ad esempio delle textures ultra opzionali di Shadow of Mordor per i quali servivano 6GB di vram ai tempi delle schede da 3-4.

Tipo così :) :asd: :asd: :


Ahahahah noooo, nei drivers basta impostare la fullHD e poi il "senza proporzionamento". In pratica hai una fullHD in 1:1 come pixel e con le cornici nere intorno, un pò come avere tipo un fullHD da 24"(su 1440p da 27"). Prima di cambiare monitor direi di provare una cosa simile come metodo estremo :)

The_SaN
24-02-2016, 14:15
"Using a GTX Titan X, which has 12 GB of VRAM, we tested the game's memory usage. As you can see, the game always uses 6-7 GB of VRAM. This may sound shocking at first, but the game also runs very well with cards that don't have as much memory - just look at the performance charts. It seems as though Crystal Dynamics' engine will happily use as much VRAM as it can, but is very well optimized to make do with much less without sacrificing framerates."(Da Techpowerup)È esattamente dove volevo arrivare (che poi è la stessa cosa detta da Guru3D).
L'engine carica tutti i dati che può per non dover caricare/scaricare la vRAM inutilmente.
In questo caso, il numerino di Afterburner non serve a molto...

FroZen
24-02-2016, 14:31
È esattamente dove volevo arrivare (che poi è la stessa cosa detta da Guru3D).
L'engine carica tutti i dati che può per non dover caricare/scaricare la vRAM inutilmente.
In questo caso, il numerino di Afterburner non serve a molto...

L'esatto contrario di una vga hbm

FroZen
24-02-2016, 15:27
Lo stesso trucchetto usato per le 970 ma per altri motivi

egounix
24-02-2016, 16:01
Lo stesso trucchetto usato per le 970 ma per motivi nobili

Fixed

Nuoooo non dissotterrare certe cose dai :asd:, meglio parlare di diverse altre cose lasciate a metà

Fixed

https://m.youtube.com/watch?v=5v8pZfkNN9Q :ciapet:

Crysis90
25-02-2016, 10:26
http://www.fudzilla.com/news/graphics/40055-amd-doomed-to-hit-new-lows
http://www.tomshw.it/news/amd-quote-di-mercato-in-calo-nei-settori-cpu-e-gpu-74556

Certo è che se la situazione continua a peggiorare così, i prezzi delle nuove schede non potranno far altro che aumentare. NVidia guadagna sempre più terreno e la concorrenza a lungo andare viene meno. :cry:

http://www.sweclockers.com/nyhet/21783-nvidia-geforce-pascal-till-computex-2016
http://www.tomshw.it/news/nvidia-pascal-primi-prodotti-svelati-al-computex-2016-74592

Ad Aprile sarà sicuramente svelata la roadmap di lancio di Pascal. ;)
Riguardo alla questione sulla concorrenza, molto dipende dal rispetto della roadmap. Se una delle due slittasse per qualche ritardo, la situazione di ri-eqilibrerebbe un pò (AMD) o si sbilancerebbe ancora di più (NVidia).

Spider-Mans
25-02-2016, 11:01
L'esatto contrario di una vga hbm
le famose hbm..cosi rivoluzionarie che per ora il mercato manco si è accorto che sono gia in alcune schede grafiche xD visto che le fury le hanno vendute a pochi intimi ....

cmq impressionante..basta che una feature la utilizza amd..è diventa la panacea di tutti i problemi del mondo per qualcuno...

che spasso :D

Spider-Mans
25-02-2016, 11:08
http://www.fudzilla.com/news/graphics/40055-amd-doomed-to-hit-new-lows
http://www.tomshw.it/news/amd-quote-di-mercato-in-calo-nei-settori-cpu-e-gpu-74556

Certo è che se la situazione continua a peggiorare così, i prezzi delle nuove schede non potranno far altro che aumentare. NVidia guadagna sempre più terreno e la concorrenza a lungo andare viene meno. :cry:

http://www.sweclockers.com/nyhet/21783-nvidia-geforce-pascal-till-computex-2016
http://www.tomshw.it/news/nvidia-pascal-primi-prodotti-svelati-al-computex-2016-74592

Ad Aprile sarà sicuramente svelata la roadmap di lancio di Pascal. ;)
Riguardo alla questione sulla concorrenza, molto dipende dal rispetto della roadmap. Se una delle due slittasse per qualche ritardo, la situazione di ri-eqilibrerebbe un pò (AMD) o si sbilancerebbe ancora di più (NVidia).

ma tu pensi che nvidia si faccia dettare il prezzo di lancio da cio che decide amd?

ma sopratutto basta con questo concetto di ...senza amd..non c'è concorrenza (a lvl di prezzi)
in un mercato se ci sono due operatori...al massimo si parla di duopolio
che è MOLTO diverso da un mercato tendente alla concorrenza

badate bene...tendente :D
perche un mercato veramente concorrenziale esiste solo sui libri :asd:

nvidia non potrebbe fissare il prezzo delle 1070 a 1000 euro se non avesse amd
perche ne venderebbe 4 esemplari :asd:

FroZen
25-02-2016, 11:36
http://www.legitreviews.com/wp-content/uploads/2014/10/lisa-su-amd-ceo-645x803.jpg

traider
25-02-2016, 12:24
Era meglio quando ci stavano :

Cirrus Logic
Matrox
Power VR
3DFX
Trident
Ati
Nvidia

Molta piu' concorrenza :) .

deadbeef
25-02-2016, 12:30
e la mitica S3 con le sue Savage4 e DXT :fagiano:

TigerTank
25-02-2016, 12:43
sul fatto che fanno cartello ci può stare, ma se per quello che ti serve ci fosse solo la 1070 a 1000€ cosa faresti la compreresti o cambieresti hobby? giocheresti a dettagli minori? altro?...
7 su 10 vogliono che amd (r)esista per potersi comprare un nvidia a meno, ma se nessuno comprasse amd diventrebbe un paradosso, come fa a resistere o fare concorrenza se non compri i suoi prodotti?...

E' anche l'impatto di mercato, amd può anche fare ogni volta 200 slide rivoluzionarie ma se poi mette sul mercato 3 fury X in croce quando di gtx980Ti ne sono usciti millemila modelli differenti....è ovvio il perchè di queste ultime ne siano state vendute molte di più nonostante i 700 e più € di molti modelli custom.
Di sicuro un miglior equilibrio tra i 2 marchi(da intendersi per vera concorrenza e non cartello) andrebbe tutto a vantaggio nostro...per cui mi auguro che spaccheranno sia Pascal che Polaris, soprattutto per la collaborazione di Samsung e AMD anche per quanto riguarda le gpu.

Era meglio quando ci stavano :

Cirrus Logic
Matrox
Power VR
3DFX
Trident
Ati
Nvidia

Molta piu' concorrenza :) .
Io iniziai con il pc nel 1998....con questa (http://tdfx.de/pic/velocity100_03.JPG) :D
E già poteva gestire una 2046x1536 :sofico:

Psycho77
25-02-2016, 12:51
Era meglio quando ci stavano :

Cirrus Logic
Matrox
Power VR
3DFX
Trident
Ati
Nvidia

Molta piu' concorrenza :) .

E le gpu della lockheed martin,che negli anni 90 eclissavano qualsiasi concorrente in ambito grafico.
Mi ricordo che le montavano sui coin op della sega in soluzioni sli,una roba fuori parametro.
Da li presero vita i vari model,model2 e model3.
Un coin op di daytona usa 2 costava intorno ai 40 milioni delle vecchie lire.

Ai tempi sega rally 2 su pc maxato a cannone su un pc da 4 milioni sfigurava manco di poco.


http://segaretro.org/Sega_Model_3


Comunque spero che amd si dia una svegliata e cominci a picchiare duro.
Nvidia ha bisogno di un po' di pepe al cul..:fagiano:

Nurabsa
25-02-2016, 13:31
le famose hbm..cosi rivoluzionarie che per ora il mercato manco si è accorto che sono gia in alcune schede grafiche xD visto che le fury le hanno vendute a pochi intimi ....

cmq impressionante..basta che una feature la utilizza amd..è diventa la panacea di tutti i problemi del mondo per qualcuno...

che spasso :D

lo stesso dubbio affligge i miei pensieri

mi aspettavo un certa superiorità della fury x solo per le hmb

ho speso una certa cifra solo di vga come tutti i possessori Ti, e poco importa rosso o verde quando si ha il budget per decidere.
abbiamo scelto la vga che spingeva di piu, custom poi ce n'è per tutti i gusti e credo per questa gen di avere fatto la scelta migliore.

le hbm sono acerbe

Giovamas
25-02-2016, 13:39
ho speso una certa cifra solo di vga come tutti i possessori Ti, e poco importa rosso o verde quando si ha il budget per decidere.
abbiamo scelto la vga che spingeva di piu, custom poi ce n'è per tutti i gusti e credo per questa gen di avere fatto la scelta migliore.

le hbm sono acerbe

Discorso che quoto al 100%. Abbiamo fatto la scelta migliore ed aspetterò l'equivalente di Pascal della 980ti (e sarà di nuovo MSI custom: mi è piaciuta) salvo stravolgimenti.
PS la mia prima scheda video era integrata nell'M24 olivetti. Poi un'hercules o qualcosa del genere. quanto tempo:) Mi ricordo che con il primo stipendio mi comprai la Mystique o qualcosa del genere. Matrox? Erano davvero molti i brand, non due

illidan2000
25-02-2016, 14:17
Discorso che quoto al 100%. Abbiamo fatto la scelta migliore ed aspetterò l'equivalente di Pascal della 980ti (e sarà di nuovo MSI custom: mi è piaciuta) salvo stravolgimenti.
PS la mia prima scheda video era integrata nell'M24 olivetti. Poi un'hercules o qualcosa del genere. quanto tempo:) Mi ricordo che con il primo stipendio mi comprai la Mystique o qualcosa del genere. Matrox? Erano davvero molti i brand, non due

però 3dFx era quella che andava per la maggiore, dopo che la Matrox fermò la linea gaming

Psycho77
25-02-2016, 14:22
però 3dFx era quella che andava per la maggiore, dopo che la Matrox fermò la linea gaming

La mia prima vodoo 3dfx con pod in bundle,che tempi.:cry:

Quel pc fece pure un brutta fine,me lo rubarono con un furto dentro casa ai tempi.

system450
25-02-2016, 17:23
Non è questione di concorrenza visto che sono solo in due e potrebbero mettersi d'accordo sul prezzo delle top di gamma.
I prezzi te li sbattono alti ma poi sono gli acquirenti a decidere se gli vanno bene o no comprando... nessuno è costretto a comprare vga ai loro prezzi.
Se ne vendono troppo poche, poi li calano sicuramente se vogliono guadagnare qualcosa... sono lì per quello e non per fare vga costose che nessuno o 4 gatti comprano.

kiwivda
25-02-2016, 17:44
Propongo un boicottaggio, mettiamoci d'accordo e nessuno aggiorna a pascal se i prezzi non scendono a quanto vogliamo e riportiamo tutto a un valore più consono! :O

fireradeon
25-02-2016, 19:20
Propongo un boicottaggio, mettiamoci d'accordo e nessuno aggiorna a pascal se i prezzi non scendono a quanto vogliamo e riportiamo tutto a un valore più consono! :O

Impossibile, la scimmia non vuole!

Più che altro le SH devono smetterla di programmare di M... perchè non si può vedere un Gears of War Unlimited (gioco del 2006 migliorato un pò, ma sempre del 2006) che per i requisiti raccomandati ha bisogno in Full HD di un PC Windows 10 a 64 bit, una CPU Intel Core i5 a 3.5 GHz o una APU AMD FX a 8 core e 16 GB di RAM.
Per il comparto grafico servono una Nvidia GeForce GTX 970 o una Radeon R9 290X, in entrambi i casi con 4 GB di VRAM. Necessari inoltre 60 GB di spazio libero sull'hard disk e le librerie DirectX 12 (ma perchè è un gioco DX12?).

Ma siamo matti???

Nhirlathothep
25-02-2016, 19:30
Era meglio quando ci stavano :

Cirrus Logic
Matrox
Power VR
3DFX
Trident
Ati
Nvidia

Molta piu' concorrenza :) .

veramente io per una mystique + espansione di vram + Monster 3D avevo speso piu' che per tutto un pc top di gamma di oggi

amon.akira
25-02-2016, 19:40
Impossibile, la scimmia non vuole!

Più che altro le SH devono smetterla di programmare di M... perchè non si può vedere un Gears of War Unlimited (gioco del 2006 migliorato un pò, ma sempre del 2006) che per i requisiti raccomandati ha bisogno in Full HD di un PC Windows 10 a 64 bit, una CPU Intel Core i5 a 3.5 GHz o una APU AMD FX a 8 core e 16 GB di RAM.
Per il comparto grafico servono una Nvidia GeForce GTX 970 o una Radeon R9 290X, in entrambi i casi con 4 GB di VRAM. Necessari inoltre 60 GB di spazio libero sull'hard disk e le librerie DirectX 12 (ma perchè è un gioco DX12?).

Ma siamo matti???

certo quello x360 già uscì su pc all epoca, questo è un remake fatto con l unreal engine 4.0 only dx12 insieme a quantum break.

cmq si resta il fatto che sicuramente i requisiti sono pompati, visto che la base del gioco è pur sempre un corridoio.

Raven
25-02-2016, 19:41
http://www.legitreviews.com/wp-content/uploads/2014/10/lisa-su-amd-ceo-645x803.jpg

:eek:
... mi si è "riproposto" il pranzo.... di una settimana fa! :fagiano:

FroZen
25-02-2016, 19:42
lo stesso dubbio affligge i miei pensieri

mi aspettavo un certa superiorità della fury x solo per le hmb



No

Nel caso della x senza le hbm semplicemente non ci sarebbe mai potuto essere una x appunto...una x con ddr5 e mc tradizionali sarebbe stata una gpu con un die gigantesco

Quindi la frase giusta sarebbe stata "l'implementazione hbm sulle fury è acerba" ma comunque inesatta

Pascal e hbm nascono come progetto nativo a sè su un nuovo pp quindi non ci deve essere dubbio che esprimerà al meglio rispetto all'architettura scelta

FroZen
25-02-2016, 19:45
:eek:
... mi si è "riproposto" il pranzo.... di una settimana fa! :fagiano:

Ipocrita

Il 90% di noi si è inguiato con la compagna cozza nerd nella fame adolescenziale (io sono nel 1% che non lha vista fino a maggiore età :rotfl: ) ... lo sento sta arrivando!!!

Crysis90
25-02-2016, 20:02
Impossibile, la scimmia non vuole!

Mi hai letteralmente tolto le parole di bocca. :fagiano: :ciapet:

The_SaN
25-02-2016, 20:41
mi aspettavo un certa superiorità della fury x solo per le hmbÈ vRAM, non possono mica fare miracoli :D

kiwivda
25-02-2016, 22:10
Mi hai letteralmente tolto le parole di bocca. :fagiano: :ciapet:

Si lo so ho detto una ...
https://media.giphy.com/media/NXnSaWcbqw17a/giphy.gif

TigerTank
25-02-2016, 22:41
Propongo un boicottaggio, mettiamoci d'accordo e nessuno aggiorna a pascal fino a quando io non avrò fatto una nuova guida sul bios mod!

Fixed! :O :ciapet:

kiwivda
25-02-2016, 23:36
Fixed! :O :ciapet:

:D :D

Crysis90
26-02-2016, 10:19
http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/

Qui, oltre a dare abbastanza certa la presentazione in pompa magna alla GTC di Aprile ed il lancio a Giugno 2016 in concomitanza con il Computex, c'è un riassunto generale di tutto ciò che ad oggi si sa su pascal. ;)

fireradeon
26-02-2016, 11:29
http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/

Qui, oltre a dare abbastanza certa la presentazione in pompa magna alla GTC di Aprile ed il lancio a Giugno 2016 in concomitanza con il Computex, c'è un riassunto generale di tutto ciò che ad oggi si sa su pascal. ;)

Speriamo. Sarei molto interessato.

DarkNiko
26-02-2016, 16:48
ma è vero che nemmeno con Pascal verranno introdotti gli ACE? nemmeno qualcosa di simile? se vero come mai questa scelta?...

Hanno preferito il Dixan, sai com'è. :asd:

fraussantin
26-02-2016, 16:52
Hanno preferito il Dixan, sai com'è. :asd:
Cambieresti la tua 980ti con 2 290x?

DarkNiko
26-02-2016, 17:15
Cambieresti la tua 980ti con 2 290x?

A parte che ho una TitanX, comunque non passerei ad AMD nemmeno sotto l'effetto pesante di allucinogeni. :asd:

Legolas84
26-02-2016, 17:52
Cambieresti la tua 980ti con 2 290x?

ahahahah :rotfl:

Mi sa che devi provare a offrire almeno 4 fury X :Prrr:

kiwivda
26-02-2016, 17:54
ma è vero che nemmeno con Pascal verranno introdotti gli ACE? nemmeno qualcosa di simile? se vero come mai questa scelta?...

Cosa sono gli ACE?!? :confused:

fraussantin
26-02-2016, 18:18
Edit

illidan2000
26-02-2016, 18:28
ahahahah :rotfl:

Mi sa che devi provare a offrire almeno 4 fury X :Prrr:

se gliene danno 4, le rivende per una o due Titan X

fraussantin
26-02-2016, 18:59
Insomma la pubblicità del dixan è sempre attuale :)

TigerTank
26-02-2016, 22:43
Cosa sono gli ACE?!? :confused:

I succhi di frutta con la carota :fagiano:

In pratica puoi accoppiare in multigpu una verde e una rossa.

devil_mcry
26-02-2016, 22:54
Asynchronous Compute Engine...

http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta ashes of singularity
http://www.hardocp.com/article/2016/02/15/rise_tomb_raider_video_card_performance_review/9 tomb raider
http://pclab.pl/art68473-9.html hitman
senza considerare Doom che è ancora in Alpha...

questi sono i prossimi giochi in arrivo a breve su PC in DX 12 che fanno uso degli ACE

Si ma se guardi tipo questo gioco

http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3

le 980 in dx12 raddoppiano le performance...

Se prendi AoS (su cui AMD stessa sta ottimizzando, c'era la news tempo fa) vale poco. Gli altri link non fanno un confronto tra dx11 e dx12 come anadtech

kiwivda
26-02-2016, 23:15
ma è vero che nemmeno con Pascal verranno introdotti gli ACE? nemmeno qualcosa di simile? se vero come mai questa scelta?...

I succhi di frutta con la carota :fagiano:

In pratica puoi accoppiare in multigpu una verde e una rossa.

..e a che pro dovrei attaccare un rimorchio ad una formula uno? Piuttosto mi prendo due verdi. La trovo una cosa insensata.:confused:

fraussantin
26-02-2016, 23:29
..e a che pro dovrei attaccare un rimorchio ad una formula uno? Piuttosto mi prendo due verdi. La trovo una cosa insensata.:confused:
Beh potrebbe avere senso un domani con l'usato o col trashwere.

Se puoi accoppiare una verde e una rossa immagino anche una verde nuova accanto alla vecchia che ho già.

illidan2000
27-02-2016, 08:40
Beh potrebbe avere senso un domani con l'usato o col trashwere.

Se puoi accoppiare una verde e una rossa immagino anche una verde nuova accanto alla vecchia che ho già.

dai test si vede però che perdi prestazioni se metti una ciofeca a fianco ad un bolide. Penso centri il discorso vram

aled1974
27-02-2016, 09:24
..e a che pro dovrei attaccare un rimorchio ad una formula uno? Piuttosto mi prendo due verdi. La trovo una cosa insensata.:confused:

non mi pare che la furyx sia così rimorchio rispetto alla 980ti ;)

un possibile beneficio, non immediato, ma per tutto il mercato?

non essere costretti a comprare un monitor adaptive sync "proprietario", perchè è vero che il freesync di amd è open a differenza del g-sync di nvidia, ma avere nel pc due gpu rosso/verdi che collaborano nei calcoli con ACE ti permette di scegliere il monitor adaptive sync migliore sul mercato fregandotene altamente se sia rosso o verde

così finisce sta follia del monitor legato alla scheda e viceversa :muro:


in questo modo nVidia alla fine dovrebbe alzare bandiera bianca ed entrare a sua volta nel consorzio freesync, con benefici (non immediati, ovvio, non cambierà idea nel giro di qualche mese s'intende) poi per tutti noi

già si è visto la feature proprietaria nvidia 3d vision, tanto pompata, tanto osannata dai fanboy ai tempi ed ora caduta nel dimenticatoio grazie anche alle nuove tecnologie (ma in minima parte, la gente dopo il momento di "figo-figo-figo" si stanca in fretta di spendere soldi)

ciao ciao

P.S.
o di physx, che alla fine giocarci con o giocarci senza cambia poco, se poi i giochi sono pure fatti con i piedi come l'ultimo batman physx powered.... :doh:

Nurabsa
27-02-2016, 09:46
Perchè se invece prendi una demo dove una 750ti va quasi 3 volte più veloce di una 290x in dx11 invece vale qualcosa?

Per valutare le dx12 dobbiamo aspettare l'uscita di un gioco dx12 e lasciar passare qualche mese perchè si assestino i driver secondo me.
Anzi in realtà 1 gioco solo non basta.


lo penso anch io ci va tempo prima del verdetto.

poi la storia del multigpu mi affascina potrei unire ciarpame vario tipo gts450 hd5450 e kpe speriamo.

Vale anche per le schede audio ? sarebbe un sogno

certo è che se la vga in dx 12 mi resta dietro una furyx 10 e piu fps, la prossima volta ci penso venti volte prima di comprare n*idia

Legolas84
27-02-2016, 10:01
certo è che se la vga in dx 12 mi resta dietro una furyx 10 e piu fps, la prossima volta ci penso venti volte prima di comprare n*idia

Relax quel gioco conta niente.... è specificatamente sviluppato con i dollari di AMD (pochi) per far sfigurare le GeForce.... un piccolo esempio di come AMD e NVIDIA siano fatte esattamente della stessa identica pasta e che se AMD avesse qualche dollaro in più si comporterebbe allo stesso identico modo, visto che nel suo piccolo già lo fa ;)

Dobbiamo aspettare un pò e vedere i primi giochi non sovvenzionati come andranno...

Legolas84
27-02-2016, 10:25
Insomma ha la stesa funzione di gameworks.

No be a me pare diverso.... anche se è presto per giudicare. Nel senso che Game Works per lo meno aggiunge nuovi effetti (in The Witcher 3 ad esempio definisce maggiormente la pelliccia delle creature e si nota).

Qui non mi pare ci siano effetti aggiuntivi (ma è troppo presto per giudicare magari nella versione ci saranno effetti solo per AMD), ma semplicemente una programmazione volta ad avvantaggiare brutalmente l'hardware AMD.
GameWorks fa la stessa cosa per NVIDIA aggiungendo effetti che chi ha AMD semplicemente non può renderizzare.

Comunque ripeto imho è presto per giudicare aspettiamo che questo gioco esca e valutiamolo allora per capire bene in che modo si è mossa AMD ;)

Che poi del gameplay se ne è parlato? È almeno decente come gioco?

FroZen
27-02-2016, 10:34
Relax quel gioco conta niente.... è specificatamente sviluppato con i dollari di AMD (pochi) per far sfigurare le GeForce....

Bastava dire aspettiamo il driver specifico nvidia e invece no, aumentiamo l'entropia della fuffa

fraussantin
27-02-2016, 10:43
Perchè se invece prendi una demo dove una 750ti va quasi 3 volte più veloce di una 290x in dx11 invece vale qualcosa?

Per valutare le dx12 dobbiamo aspettare l'uscita di un gioco dx12 e lasciar passare qualche mese perchè si assestino i driver secondo me.
Anzi in realtà 1 gioco solo non basta.

In realtà contano anche i giochi ottimizzati per l'una o per l'altta. Perche le vga servono in primis a quello .

Se una vga è anche piu potente , ma non ha titoli che la sfrutttano è inutile stare a parlarne.

Legolas84
27-02-2016, 10:45
E' normale perché AMD deve recuperare parecchio terreno, ma è troppo presto per dare delle valutazioni ;)

Si esatto ;)

mikael84
27-02-2016, 10:45
Relax quel gioco conta niente.... è specificatamente sviluppato con i dollari di AMD (pochi) per far sfigurare le GeForce.... un piccolo esempio di come AMD e NVIDIA siano fatte esattamente della stessa identica pasta e che se AMD avesse qualche dollaro in più si comporterebbe allo stesso identico modo, visto che nel suo piccolo già lo fa ;)

Dobbiamo aspettare un pò e vedere i primi giochi non sovvenzionati come andranno...

Lasciate perdere questi test, vedremmo con i vari giochi.
Di certo AMD con gli ACE (sono una sorta di HT in pratica) tecnicamente è più potente, visto che può lavorare contemporaneamente su diversi calcoli grafici senza gravare sugli shader.
Per ora però parliamo del nulla, è come se prendessimo per oro colato i risultati degli unigine dove le AMD vanno quasi la metà delle Nvidia e ci basassimo su di loro.

Legolas84
27-02-2016, 10:50
Lasciate perdere questi test, vedremmo con i vari giochi.
Di certo AMD con gli ACE (sono una sorta di HT in pratica) tecnicamente è più potente, visto che può lavorare contemporaneamente su diversi calcoli grafici senza gravare sugli shader.
Per ora però parliamo del nulla, è come se prendessimo per oro colato i risultati degli unigine dove le AMD vanno quasi la metà delle Nvidia e ci basassimo su di loro.

oh eccoti proprio te volevo :D

Su altri lidi ho letto che NVIDIA per ora non avrebbe attivato la funzione ACE sui propri driver in quanto ancora nessun titolo ne fa uso. Quello che mi è suonato strano di questa affermazione è che non credo sia una funzionalità attivabile via driver o sbaglio?

Sempre ben inteso che quei test su AOS contano zero, il mio vuole essere un discorso più ampio riguardo il fatto che un driver possa o meno migliorare le prestazioni ACE di Maxwell.....

fraussantin
27-02-2016, 10:54
oh eccoti proprio te volevo :D

Su altri lidi ho letto che NVIDIA per ora non avrebbe attivato la funzione ACE sui propri driver in quanto ancora nessun titolo ne fa uso. Quello che mi è suonato strano di questa affermazione è che non credo sia una funzionalità attivabile via driver o sbaglio?

Sempre ben inteso che quei test su AOS contano zero, il mio vuole essere un discorso più ampio riguardo il fatto che un driver possa o meno migliorare le prestazioni ACE di Maxwell.....
Ognuno dice la sua , resta il fatto che se nvidia implementerà l'ht su pascal , sulle vecchie vga non funzionerà di certo.

O che dipenda dal sw o dal hd cambia poco.

Amd se sarà tecnologicamente possibile lo farà perche ha da recuperare terreno .( e da vendere i rebrand che imho tirerà fuori sulla fascia medio bassa )

Detto questo inutile fare previsioni o comprate vga per il futuro.

Comprate vga per oggi e lasciate perdere il domani. Se proprio sarà drammatica ( cosa che dubito visto le console che fanno da tappo) la si vende e si compra una più recente.

Legolas84
27-02-2016, 10:59
Ognuno dice la sua , resta il fatto che se nvidia implementerà l'ht su pascal , sulle vecchie vga non funzionerà di certo.

O che dipenda dal sw o dal hd cambia poco.

Amd se sarà tecnologicamente possibile lo farà perche ha da recuperare terreno .( e da vendere i rebrand che imho tirerà fuori sulla fascia medio bassa )

Detto questo inutile fare previsioni o comprate vga per il futuro.

Comprate vga per oggi e lasciate perdere il domani. Se proprio sarà drammatica ( cosa che dubito visto le console che fanno da tappo) la si vende e si compra una più recente.

Si, so benissimo che per ora si parla di aria fritta... la mia era solo una considerazione su un problema che effettivamente non esiste. Una considerazione sul "se si presentasse, allora sarebbe possibile...."

Poi ovvio per andare sul concreto dobbiamo aspettare ;)

AkiraFudo
27-02-2016, 10:59
No be a me pare diverso.... anche se è presto per giudicare. Nel senso che Game Works per lo meno aggiunge nuovi effetti (in The Witcher 3 ad esempio definisce maggiormente la pelliccia delle creature e si nota).

Qui non mi pare ci siano effetti aggiuntivi (ma è troppo presto per giudicare magari nella versione ci saranno effetti solo per AMD), ma semplicemente una programmazione volta ad avvantaggiare brutalmente l'hardware AMD.
GameWorks fa la stessa cosa per NVIDIA aggiungendo effetti che chi ha AMD semplicemente non può renderizzare.

Comunque ripeto imho è presto per giudicare aspettiamo che questo gioco esca e valutiamolo allora per capire bene in che modo si è mossa AMD ;)

Che poi del gameplay se ne è parlato? È almeno decente come gioco?

detto cosi pero sembra quasi che AMD non sia in grado fisicamente di renderizzarlo.

esiste OpenCL che è C e simile a CUDA
in alternatica c'è anche Directcompute di microsoft (amd tressfx/purehair, tranquillamente utilizzabile da chiunque)

La differenza è che OpenCL è appunto open mentre CUDA è closed ed è un arma che nVidia usa per sfavorire la concorrenza. Ottima strategia e tanto di cappello a nVidia che deve pensare al suo business ma io da utente finale ci rimetto e basta.
Physx era un fallimento già da quando dovevi comprare la ppu di ageia ora che è legato definitivamente a cuda deve crepare per il nostro bene e basta. (persino se gli dai soldi e ti compri un nvidia solo per l'hybrid physx ti ostacolano)

mikael84
27-02-2016, 10:59
Insomma ha la stesa funzione di gameworks.

Tralasciando gli HW che sono effetti molto pesanti anche per Nvidia, i vari softworks come l'HBAO+ sono effetti essenziali dal mio punto di vista. Le PCSS in gran parte dei giochi sono gestibili ed aumentano la resa. Anche AMD aveva un'effetto simile all'HBAO ovvero l'HDAO (utilizzato solo in FC3 mi pare).
Nvidia invece ha solo migliorato l'HBAO+ base portando a processare 36 campioni occlusion contro i vecchi 4 .
In GTA5 si possono attivare le equivalenti PCSS di AMD.

Nurabsa
27-02-2016, 10:59
ricollegandomi a quanto scritto giorni fa e un po a questi ultimi post,

se nv*dia azzopperà maxwell con la storia ace vera o falsa che sia, ripetendo l abominevole politica kepler/fermi, penso che io e tutti gli attuali verdi rifletteranno a lungo sulla questione .

fraussantin
27-02-2016, 11:02
Tralasciando gli HW che sono effetti molto pesanti anche per Nvidia, i vari softworks come l'HBAO+ sono effetti essenziali dal mio punto di vista. Le PCSS in gran parte dei giochi sono gestibili ed aumentano la resa. Anche AMD aveva un'effetto simile all'HBAO ovvero l'HDAO (utilizzato solo in FC3 mi pare).
Nvidia invece ha solo migliorato l'HBAO+ base portando a processare 36 campioni occlusion contro i vecchi 4 .
In GTA5 si possono attivare le equivalenti PCSS di AMD.
L'unico gameworks. Che non mi piace per niente è il txaa.

Per il resto sono gradevoli , ma cmq non necessari.

Nurabsa
27-02-2016, 11:06
Scommettiamo di no invece?

una percentuale non lo fara,

parlo per me dopo aver fatto sfigurare la 780ti negli ultimi tempi ce ne vuole per ripetere la storia con le 980ti

mikael84
27-02-2016, 11:06
oh eccoti proprio te volevo :D

Su altri lidi ho letto che NVIDIA per ora non avrebbe attivato la funzione ACE sui propri driver in quanto ancora nessun titolo ne fa uso. Quello che mi è suonato strano di questa affermazione è che non credo sia una funzionalità attivabile via driver o sbaglio?

Sempre ben inteso che quei test su AOS contano zero, il mio vuole essere un discorso più ampio riguardo il fatto che un driver possa o meno migliorare le prestazioni ACE di Maxwell.....

Nvidia non ha ACE nativi, ogni SMM Nvidia integra 4 Awss ma è completamente differente la gestione. Nvidia via driver deve gestire le code.

Legolas84
27-02-2016, 11:09
una percentuale non lo fara,

parlo per me dopo aver fatto sfigurare la 780ti negli ultimi tempi ce ne vuole per ripetere la storia con le 980ti

Sbaglio o si era detto che in realtà tutta questa penalizzazione su Kepler era per lo più aria fritta... ? Mikael mi pare aveva detto qualcosa a riguardo o no? :mbe:

fraussantin
27-02-2016, 11:11
ricollegandomi a quanto scritto giorni fa e un po a questi ultimi post,

se nv*dia azzopperà maxwell con la storia ace vera o falsa che sia, ripetendo l abominevole politica kepler/fermi, penso che io e tutti gli attuali verdi rifletteranno a lungo sulla questione .
Nvidia azzopperà le 9xx se amd flopperà.

Se amd farà una buona cosa , nVidia si, non implementerà le nuove feature sulle vecchie schede , ma le lascierà stare come sono oggi.

mikael84
27-02-2016, 11:43
Sbaglio o si era detto che in realtà tutta questa penalizzazione su Kepler era per lo più aria fritta... ? Mikael mi pare aveva detto qualcosa a riguardo o no? :mbe:

C'è stato un cambio di programmazione è naturale che Kepler in certi giochi sia penalizzata ma la situazione non è proprio come la vogliono far vedere. Con TW3 forse c'è stato qualche caso di azzoppamento ma le Kepler viaggiano ancora bene.
Maxwell è di gran lunga superiore sul color fill, rops, mentre le Kepler erano ben più potenti sul textur fill (TMU). Sul fronte della tassellazione Maxwell integra un motore nuovo e più efficace anche in virtù del dialogo tra rops-smm-vertex fetch. Infine ha una superiorità a livello poligonale e sulle ALU (madd), dove invece AMD è potente.

Come ho mostrato qua, facendo un'analisi sui game, Kepler non è morta come la dipingono su gamegpu o voci di corridoio
http://www.hwupgrade.it/forum/showpost.php?p=43403262&postcount=21416.

Anche AMD con GCN ha spesso affossato VLIW4 in alcuni giochi.
http://www.bitsandchips.it/9-hardware/4220-sapphire-r7-265?start=5

Legolas84
27-02-2016, 12:01
C'è stato un cambio di programmazione è naturale che Kepler in certi giochi sia penalizzata ma la situazione non è proprio come la vogliono far vedere. Con TW3 forse c'è stato qualche caso di azzoppamento ma le Kepler viaggiano ancora bene.
Maxwell è di gran lunga superiore sul color fill, rops, mentre le Kepler erano ben più potenti sul textur fill (TMU). Sul fronte della tassellazione Maxwell integra un motore nuovo e più efficace anche in virtù del dialogo tra rops-smm-vertex fetch. Infine ha una superiorità a livello poligonale e sulle ALU (madd), dove invece AMD è potente.

Come ho mostrato qua, facendo un'analisi sui game, Kepler non è morta come la dipingono su gamegpu o voci di corridoio
http://www.hwupgrade.it/forum/showpost.php?p=43403262&postcount=21416.

Anche AMD con GCN ha spesso affossato VLIW4 in alcuni giochi.
http://www.bitsandchips.it/9-hardware/4220-sapphire-r7-265?start=5

Ok, ora questo post me lo salvo così da averlo a portata di mano quando serve :asd:

Thanks ;)

Nhirlathothep
27-02-2016, 12:09
Nvidia azzopperà le 9xx se amd flopperà.

Se amd farà una buona cosa , nVidia si, non implementerà le nuove feature sulle vecchie schede , ma le lascierà stare come sono oggi.

da un lato sono d'accordo, ma allora ti chiedo: quindi amd con le fury avrebbe "floppato"?

fraussantin
27-02-2016, 13:05
da un lato sono d'accordo, ma allora ti chiedo: quindi amd con le fury avrebbe "floppato"?

imho si a quei prezzi.

perchè sono l'apice del nosense.

quel tipo di vga servono per risoluzioni alte ,la con 4 giga ci fai poco.

traider
27-02-2016, 13:12
Hitman a 1920x1080 :rolleyes: , Mi sa che si stanno veramente preparando a lanciare le nuove Pascal e , perchè queste prestazioni sono ridicole ragazzi :

http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/test/ht_1920.jpg

3840x2160:

http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/test/ht_3840.jpg
.

beatl
27-02-2016, 13:16
Hitman a 1920x1080 :rolleyes: , Mi sa che si stanno veramente preparando a lanciare le nuove Pascal e , perchè queste prestazioni sono ridicole ragazzi :

http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/test/ht_1920.jpg

3840x2160:

http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/test/ht_3840.jpg
.


Ridicole e non veritiere secondo me...

le nuove Pascale.. le prime ad uscire intendo .. andranno un 20% in piu delle 980ti secondo me, non oltre...

mikael84
27-02-2016, 13:42
non è mica la funziona principale



se noti bene dove le nvidia raddoppiano le amd quadruplicano o triplicano... partivano tutte da 8 fps :stordita:
ps. non sono benchmark ma giochi reali che sono usciti, tomb raider o stanno per uscire, hitman ecc

per la storia di kepler sono gli utenti stessi a lamentarsi e così come dite di non fidarvi di gamegpu allora dico che non mi fido di pcgameshardware

portate pure altri bench in giro o le lamentele sul forum ufficiale nvidia e non solo, vediamo cosa trovate...

comunque spero che verranno implementati gli ACE nativamente in Pascal altrimenti la vedo dura, anche perché che senso avrebbe avuto già dichiarare l'uscita di Volta? fa riflettere...

I test di gamegpu sulle AMD lasciano il tempo che trovano a partire dalla piattaforma di test. Un utente medio non ha un 5960x a 4,6ghz, sopratutto su schede di fascia bassa come la 7970 (ne ho avuto 3 le conosco). Già un 8350 limita le AMD in maniera pressochè drastica.

Ridicole e non veritiere secondo me...

le nuove Pascale.. le prime ad uscire intendo .. andranno un 20% in piu delle 980ti secondo me, non oltre...

Lascia perdere, anche doom era dato per disastro poi girava a 40fps in full hd con una 660

fraussantin
27-02-2016, 13:47
Ridicole e non veritiere secondo me...

le nuove Pascale.. le prime ad uscire intendo .. andranno un 20% in piu delle 980ti secondo me, non oltre...

in teoria potrebbero anche essere vere, ma resta da capire perchè uno sli di 970 fa gli stessi fps di una in single.

probabilmente ha da uscire un driver che ottimizza la cosa.

poi ooh un gioco sponsorizzato amd , vuoi che non sia ottimizzato per esse molto prima rispetto alle verdi.

deadbeef
27-02-2016, 13:54
ma il 5960x si usa per levare un bottleneck ed equalizzare i risultati, l'hai scritto tu stesso che un 8350 farebbe da freno, non ho capito il senso della frase.

Qui un test usando il 6700K:

http://www.overclock3d.net/reviews/gpu_displays/hitman_beta_performance_review/1

Oirasor_84
27-02-2016, 14:03
però che bello leggere sta discussione :D è singolare come alcuni vedono il bicchiere mezzo pieno nonostante l'evidenza,addirittura nell'accoppiamento di 2 vga diverse in cross\sli a diventare il rimorchio sia amd,mentre dai test il rimorchio è verde ma ok sto test al momento lascia il tempo che trova.Poi una feature hardware come quella degli ace che gestiscono le code di comando dei calcoli di una gpu,che per logica rende la stessa gpu più complessa/completa rispetto alla controparte,improvvisamente diventa una cosa scontata della serie va be ma amd deve rincorrere nvidia per questo a messo gli ace.Ed è così raga che nascono le religioni:D

mikael84
27-02-2016, 14:09
ma il 5960x si usa per levare un bottleneck ed equalizzare i risultati, l'hai scritto tu stesso che un 8350 farebbe da freno, non ho capito il senso della frase.

Qui un test usando il 6700K:

http://www.overclock3d.net/reviews/gpu_displays/hitman_beta_performance_review/1

Appunto, utilizzi un 5960x a 4,6ghz per non limitare ma non mi pare la CPU per l'utenza media. Queste schede sopratutto quelle di fascia bassa non saranno mai abbinate a simili CPU.
Se leggo le firme dei possessori di tali schede scommetto di trovare CPU come il 2500k/i5 2500k o addirittura vecchi quad core.;)

Il bench di Hitman da te postato è già differente perchè rappresenta schede di fascia alta ma è un bench totalmente infondato essendo in fase beta.
Inoltre la 980ti li postata non rappresenta nulla visto che il clock reference è solo per le schede a dissipatore a barra che downclockano. T.up ha registrato 1130mhz su Asic buono, quando sono schede da 1450 per le più scarse (come la mia:p )

beatl
27-02-2016, 14:10
però che bello leggere sta discussione :D è singolare come alcuni vedono il bicchiere mezzo pieno nonostante l'evidenza,addirittura nell'accoppiamento di 2 vga diverse in cross\sli a diventare il rimorchio sia amd,mentre dai test il rimorchio è verde ma ok sto test al momento lascia il tempo che trova.Poi una feature hardware come quella degli ace che gestiscono le code di comando dei calcoli di una gpu,che per logica rende la stessa gpu più complessa/completa rispetto alla controparte,improvvisamente diventa una cosa scontata della serie va be ma amd deve rincorrere nvidia per questo a messo gli ace.Ed è così raga che nascono le religioni:D

Vedremo sul campo ... io delle preview mi fido sempre poco :)

egounix
27-02-2016, 14:24
Appunto, utilizzi un 5960x a 4,6ghz per non limitare ma non mi pare la CPU per l'utenza media. Queste schede sopratutto quelle di fascia bassa non saranno mai abbinate a simili CPU.
Se leggo le firme dei possessori di tali schede scommetto di trovare CPU come il 2500k/i5 2500k o addirittura vecchi quad core.;)

Il bench di Hitman da te postato è già differente perchè rappresenta schede di fascia alta ma è un bench totalmente infondato essendo in fase beta.
Inoltre la 980ti li postata non rappresenta nulla visto che il clock reference è solo per le schede a dissipatore a barra che downclockano. T.up ha registrato 1130mhz su Asic buono, quando sono schede da 1450 per le più scarse (come la mia:p )

Inutile che ti sprechi, sono partiti per la tangente, belli gasati, si danno le pacche sulle spalle da soli e se la cantano pure senza accorgersene :asd:

A sto giro si salva solo frozen :asd:

fraussantin
27-02-2016, 14:28
Inutile che ti sprechi, sono partiti per la tangente, belli gasati, si danno le pacche sulle spalle da soli e se la cantano pure senza accorgersene :asd:

eddai basta, hitman DEVE girare meglio su amd .

è inutile girarci intorno . poi imho appena il game esce e escono pure i driver specifici la cosa migliorerà.

Oirasor_84
27-02-2016, 14:31
Vedremo sul campo ... io delle preview mi fido sempre poco :)

Si ma infatti non è nemmeno un discorso di fiudcia il mio,è semplicemente un dato di fatto quello degli ace come lo è che maxwell si occa di più per dirne una.

Oirasor_84
27-02-2016, 14:34
Inutile che ti sprechi, sono partiti per la tangente, belli gasati, si danno le pacche sulle spalle da soli e se la cantano pure senza accorgersene :asd:

A sto giro si salva solo frozen :asd:
dx12 rulez,ho fatto fare anche degli stickers da mettere nella car:D

Legolas84
27-02-2016, 14:38
Inutile che ti sprechi, sono partiti per la tangente, belli gasati, si danno le pacche sulle spalle da soli e se la cantano pure senza accorgersene :asd:

A sto giro si salva solo frozen :asd:

Basta metterne in ignore due e il forum diventa improvvisamente leggibile :eek: ;)

egounix
27-02-2016, 14:41
dx12 rulez,ho fatto fare anche degli stickers da mettere nella car:D

Vernice rossa ovviamente! :ciapet:

Poi però se ti stuttera il "gasse" della marmitta o ti flickerano "li" fari, non ti lamentare col meccanico :stordita:

Oirasor_84
27-02-2016, 14:43
Vernice rossa ovviamente! :ciapet:

Poi però se ti stuttera il "gasse" della marmitta o ti flickerano "li" fari, non ti lamentare col meccanico :stordita:

Ovvio ;)
la mia car è provvista di freesync

mikael84
27-02-2016, 14:49
Inutile che ti sprechi, sono partiti per la tangente, belli gasati, si danno le pacche sulle spalle da soli e se la cantano pure senza accorgersene :asd:

A sto giro si salva solo frozen :asd:

Si discute per carità, per quanto si discute civilmente nessun problema.:)
I post così però...sono davvero pessimi e non sono per niente costruttivi anzi fanno andare in malora i thread, e questo va proprio evitato.:rolleyes:
http://www.hwupgrade.it/forum/showpost.php?p=43416488&postcount=18563

Oirasor_84
27-02-2016, 14:58
Però mickael84 al di là di rops,cache bandwidth e amd ficca transistor a non finire,hairworks e usare la tasselation anche per gli effetti di luce è un colpo basso anche per gli utenti nvidia.

egounix
27-02-2016, 15:00
Si discute per carità, per quanto si discute civilmente nessun problema.:)
I post così però...sono davvero pessimi e non sono per niente costruttivi anzi fanno andare in malora i thread, e questo va proprio evitato.:rolleyes:
http://www.hwupgrade.it/forum/showpost.php?p=43416488&postcount=18563

Io e te ci dobbiamo sposare, pensavo proprio a quel post... Oh però la donnala fai tu :asd:

mikael84
27-02-2016, 15:08
Però mickael84 al di là di rops,cache bandwidth e amd ficca transistor a non finire,hairworks e usare la tasselation anche per gli effetti di luce è un colpo basso anche per gli utenti nvidia.

Si assolutamente, infatti lo faccio sempre presente. Ci sono effetti però i softworks come l'HBAO+ che è molto valido e non pesa, salvo fallout 4 che è implementato male.
Le PCSS idem, in alcuni giochi è molto valido (vedi wd) e abbastanza gestibile ma già un AC inchioda.
Gli HW sono dei mattoni, in verde ed in rosso, c'è poco da fare. In TW3 ti serve uno SLI o un cross per abilitare tali effetti, anche in FC4 è programmato malissimo.:)

Io e te ci dobbiamo sposare, pensavo proprio a quel post... Oh però la donnala fai tu :asd:

Ego lo sai che ti domino. Ti uso come riscaldamento per il curl bilanciere:rolleyes: :fiufiu: :read:
Scherzo ovviamente;)

Nurabsa
27-02-2016, 16:06
in uhd pesa piu la chioma da giumenta di laretta che l hbao

mikael84
27-02-2016, 16:15
Wow sono famoso, se volete firmo gli autografi.

Non ho capito perchè non è costruttivo e fa andare in malora i thread un post come quello, si parlava di fissati che non discutono civilmente ma che comprano alla cieca senza ragionare, fanboy appunto, mica si fece di tutta l'erba un fascio.

Problemi prestazionali su kepler ce ne sono stati eccome, hanno anche rilasciato un fix per tw3 dopo tonnellate di proteste da parte dei consumatori.
È anche vero che su certe cose non si può pretende che continui a tirare come maxwell... altrimenti non avrebbero fatto maxwell.
Così come non si può pretendere che vliw tenga il passo di gcn.
Per esempio io sto usando tutt'ora una vliw che ho per un breve periodo sostituito con una gcn di pari livello, vliw ha un pixel rate molto migliore e permette risoluzioni più alte, le prestazioni sono generalmente uguali in dx9 ma gcn guadagna anche un 50% in dx11.
Però vliw è una cosa più lontana nel tempo rispetto a kepler.

Il pixel fill rate è un dato aritmetico che calcoli frequenza per rops ma oltre dipende dal rapporto tra rops-cache e banda e dal grado di comprimere.
GCN non è inferiore da questo punto di vista
http://images.anandtech.com/graphs/graph5625/44638.png

Chiaramente le 7950 pur avendo le stesse rops dialogano con una banda ben maggiore
GCN è superiore per via dei 2 motori geometrici, quindi sulla Tassellazione e non è inferiore sulle TMU.
A livello di ALU non cambia molto ma ogni unità vettoriale può essere programmata in modo indipendente, ogni CU integra 4 VU (vettori) e di conseguenza può gestire direttamente 4 wavefront per clock. Ogni CU infine dialoga con una cache l1 doppia ed il relativo load store.
I wavefront nella Vliw 4 dovevano aspettare la coda malgrado il blocco di ALU fosse in idle e senza calcoli.

Vliw 4 è si vecchio ma è sempre stata un'architettura superata mentre fermi non apportava grossi stravolgimenti.
Se AMD cambiasse letteralmente architettura con i nuovi transistor non griderei allo scandalo, purtroppo Kepler è si tecnicamente più debole di Tahiti ma era pensata per giochi vecchi più sul texture rate, non a caso fronte rops è pessima.
Se osservi sia AMD e maxwell dopo hanno migliorato notevolmente l'approccio tra rops-cache e banda. Con Maxwell Nvidia ha ottimizzato molto bene quest'aspetto, introducendo rops, una cache molto veloce ed un'ottima compressione facendo in modo che anche la caduta di fps sia quasi nulla.
GCN 1.2 ha introdotto per prima questa tecnica ma sfruttandola come poteva:)
Chiudo l'OT su GCN in quanto non inerente al thread;)

TigerTank
27-02-2016, 16:44
Per me il problema ACE non esiste, tanto andrò di singola scheda e avendo schermo gsync la scelta sarà praticamente obbligata :D

Legolas84
27-02-2016, 16:51
Per me il problema ACE non esiste, tanto andrò di singola scheda e avendo schermo gsync la scelta sarà praticamente obbligata :D

Ma guarda che a quanto ho capito il problema ACE non riguarda il multigpu, ma la gestione di specifiche istruzioni delle DX12....

deadbeef
27-02-2016, 17:08
gli ACE non riguardano affatto il multigpu, e poi se hai preso un monitor Gsync diciamo che tendenzialmente il "problema" te lo sei creato da solo :) Sarebbe bello non avere uno standard proprietario per ogni cosa, ma tant'è....

Articoletto sugli ACE (feature usata abbastanza in ambito console): http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far

Legolas84
27-02-2016, 17:09
gli ACE non riguardano affatto il multigpu, e poi se hai preso un monitor Gsync diciamo che tendenzialmente il "problema" te lo sei creato da solo :) Sarebbe bello non avere uno standard proprietario per ogni cosa, ma tant'è....

Articoletto sugli ACE (feature usata abbastanza in ambito console): http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far

Precisando che bisogna ancora vedere se questo problema esiste o meno.

egounix
27-02-2016, 17:12
ho fatto una domanda sugli ACE in Pascal, hanno iniziato a rispondermi con battute (e ci può anche stare IO al contrario di molti qua dentro non faccio il piangina o come TE che minacci di segnalare) ho postato bench a riguardo di GIOCHI e non benchmarck e addirittura il più verde di tutti prima ha detto che AMD paga per far andare male le nVidia in AoS e poi se quel gioco avesse un buon Gameplay? ma cosa c'entra il Gameplay??? :doh:

ps. ho notato una cosa sia qui che su tom's, che chissà perché nei thread nvidia c'è chi ti avvisa che ti segnala o ti mette in ignore list, mentre in quelli amd questo non succede... sarà una semplice coincidenza?...



a sto giro hai toppato alla grande, non siamo di certo "noi" quelli che scrivono ogni 3 post che mettono gli utenti in "Ignore List", ma fa così figo?
...ma mi rimani comunque simpatico ;)



infatti si discute, non vedo cosa si è detto di così strano... evidentemente molti hanno la coda di paglia, almeno tu sei l'unico che risponde in modo serio e tecnico...
si scherza, sono il primo a farlo, ma mi pare che a parte te e devil_mcry le risposte hanno dimostrato ben altra cosa in questo thread

A sto punto è d'obbligo l'ignore... Cose dette mille voltr, ma da che uno pensa "forse sarà sordo" passa a "ok allora siamo arrivati a defecare dalle dita"...
Passi di striscio a leggere sul thread, per vedere se c'è qualcosa su polaris e... Il delirio.
Toppato? Non credo proprio data la mole di feci che ho visto di là.

deadbeef
27-02-2016, 17:12
Per me è un non-problema, alla brutta Nvidia farà in modo che non vengano utilizzati dagli engine che rientrano nel programma the way it's meant to be played

Legolas84
27-02-2016, 17:15
A sto punto è d'obbligo l'ignore... Cose dette mille voltr, ma da che uno pensa "forse sarà sordo" passa a "ok allora siamo arrivati a defecare dalle dita"...
Passi di striscio a leggere sul thread, per vedere se c'è qualcosa su polaris e... Il delirio.
Toppato? Non credo proprio data la mole di feci che ho visto di là.

Ma dai su ego.... basta che clikki sul suo username --> cerca tutti i post dell'utente e ti fai il quadro preciso della persona ;) Non c'è un suo singolo post fatto su questo thread che non sia per flammare. Bisognerebbe ignorarlo tutti per riuscire a parlare normalmente.

Legolas84
27-02-2016, 17:17
Per me è un non-problema, alla brutta Nvidia farà in modo che non vengano utilizzati dagli engine che rientrano nel programma the way it's meant to be played

Io spero più in una soluzione software.... ti dico, ho letto su altri lidi che NVIDIA sembra aver dichiarato che verrà rilasciata una relase di driver per ottimizzare la funzione ACE non appena ci saranno giochi che lo richiedono.

Di certo per ora è presto per giudicare qualsiasi cosa.... dobbiamo vedere come si evolve.....

deadbeef
27-02-2016, 17:18
Chiudiamo la parentesi, ma pure leggere cose tipo "AMD paga per far sfigurare nvidia nel bench X" o "non la compro nemmeno sotto allucinogeni" o "rimorchio" non è che sia da meno. Capisco il legittimare le proprie scelte ed i propri acquisti, ma ogni tanto si sfiora il ridicolo, specie alla luce di quanto accaduto in passato o a tutt'oggi. Legolas84, anche io se clicco sul tuo nick e leggo i tuoi messaggi vedo le stesse cose, però lato Nvidia. Non mi sembra il caso di pontificare ;)

Edit: la questione ACE lato Nvidia è che manca proprio l'implementazione in hardware, o almeno così mi è sembrato di capire

Legolas84
27-02-2016, 17:25
Chiudiamo la parentesi, ma pure leggere cose tipo "AMD paga per far sfigurare nvidia nel bench X" o "non la compro nemmeno sotto allucinogeni" o "rimorchio" non è che sia da meno. Capisco il legittimare le proprie scelte ed i propri acquisti, ma ogni tanto si sfiora il ridicolo, specie alla luce di quanto accaduto in passato o a tutt'oggi. Legolas84, anche io se clicco sul tuo nick e leggo i tuoi messaggi vedo le stesse cose, però lato Nvidia. Non mi sembra il caso di pontificare ;)

Edit: la questione ACE lato Nvidia è che manca proprio l'implementazione in hardware, o almeno così mi è sembrato di capire

Ma per carità.... io posto in moltissimi tipi di thread diversi.... (a parte oggi che sono stato qui un pò più del solito :D ). Quel tizio posta solo e solamente sui thread AMD.

L`engine di AOS è sviluppato in collaborazione con AMD e per questo va molto meglio sul loro hardware... è una pratica usata anche da NVIDIA e non ci vedo solo nulla di male, ho solo voluto rispondere e spiegare a quegli utenti che stavano urlando alla catastrofe. Non ho di certo accusato AMD anzi ho specificato che è una pratica usata anche dalla controparte.

Io ho sempre detto che voglio il massimo, e il giorno che AMD mi darà il massimo non avrò problemi a fare il salto. Non per niente fui possessore della 9700pro quando ATi era effettivamente il massimo.... ;)

Però qui siamo OT, ma siccome tu mi sembri una persona ragionevole per qualsiasi altra cosa mi trovi in pvt.... :)

PS Riguardo agli ACE, siccome NVIDIA ha fatto quella dichiarazione, potrebbe avere comunque una soluzione da giocare e da possessore di Maxwell lo spero ;)

mikael84
27-02-2016, 17:37
Chiudiamo la parentesi, ma pure leggere cose tipo "AMD paga per far sfigurare nvidia nel bench X" o "non la compro nemmeno sotto allucinogeni" o "rimorchio" non è che sia da meno. Capisco il legittimare le proprie scelte ed i propri acquisti, ma ogni tanto si sfiora il ridicolo, specie alla luce di quanto accaduto in passato o a tutt'oggi. Legolas84, anche io se clicco sul tuo nick e leggo i tuoi messaggi vedo le stesse cose, però lato Nvidia. Non mi sembra il caso di pontificare ;)

Edit: la questione ACE lato Nvidia è che manca proprio l'implementazione in hardware, o almeno così mi è sembrato di capire

Nvidia non ha proprio ACE ma una gestione di 31+1 code che funziona diversamente.
AMD invece ha proprio ACE nativi (Asynchronous compute engine ).
Sono proprio accanto al GPC.
http://www.tomshw.it/data/images/0/5/4/8/fiji-block-diagram-4c514ca55b9a1e83ccb87ebd5c9100588.jpg

Gli ACE sono 8 (2 per le console e tahiti) come si può vedere.
Ogni ACE e composto da 8 code per un totale di 64 code e dialogano con la cache e la banda.
Funziona come una sorta di HT intel (spiegazione banale lo so).

il problema è mio che cerco ancora di trovare un barlume di speranza, penso che ormai è giunto il momento di usare il mio tempo in altro modo.

è pensare che era nelle mie migliori intenzioni cercare di capire qualcosa sul discorso ACE dx12 in Pascal, questo è stato il risultato.

ps. a me non è mai venuto nemmeno nell'anticamera del cervello andare a vedere i post degli utenti cercando nel profilo o di mettere in ignore list qualcuno perché penso di essere superiore...

incredibile dove può arrivare l'ego...

Il flame sia da una parte che dall'altra non è costruttivo e porta solo a questo, scontri sul nulla. Si dovrebbe discutere seriamente in questi thread invece si finisce in guerriglia.

Riguardo Pascal purtroppo ancora non si sa nulla, neppure a livello interno, predisposizione SMM, LS, TMU e rops, ACE.
Anche Maxwell doveva debuttare con 32 rops poi ha stravolto tutto.
AMD invece penso che mantenga la stessa linea, tra CU e cache, magari potenziando quest'ultima. :)

deadbeef
27-02-2016, 18:01
ps4 8 ace units, xbox one 2 ace units, ovviamente AMD che ha progettato le APU per entrambe ha cercato di portare l'acqua al suo mulino sperando nell'adozione delle stesse tecniche di programmazione sia su console che su pc, avendo un'architettura in comune.
Credo che anche il rilascio di Mantle/Vulkan andasse in questa direzione, vedremo come andrà, anche se difficilmente D3D12 sarà scalzato come standard de facto.
Nvidia lato driver può cercare di wrappare le istruzioni asincrone sugli shader e renderle digeribili al suo scodatore 31+1

Legolas84
27-02-2016, 18:06
Esatto penso che intendano questo per ottimizzare il driver per ACE... Bisogna vedere cosa tirano fuori....

Inviato dal mio ONE A2003 utilizzando Tapatalk

mikael84
27-02-2016, 18:21
ps4 8 ace units, xbox one 2 ace units, ovviamente AMD che ha progettato le APU per entrambe ha cercato di portare l'acqua al suo mulino sperando nell'adozione delle stesse tecniche di programmazione sia su console che su pc, avendo un'architettura in comune.
Credo che anche il rilascio di Mantle/Vulkan andasse in questa direzione, vedremo come andrà, anche se difficilmente D3D12 sarà scalzato come standard de facto.
Nvidia lato driver può cercare di wrappare le istruzioni asincrone sugli shader e renderle digeribili al suo scodatore 31+1

Si con console ho omesso la PS4 che è diversa è sempre una 8 ACE configurata in maniera leggermente diversa. 6 pipeline da 8 code, 1 da 2 e l'ultima da 11.
Penso che anche Pascal integrerà gli ACE

The_SaN
27-02-2016, 19:02
Ragazzi, internet sta rovinando la gente :asd:

fireradeon
27-02-2016, 19:44
fate come me, compratele entrambe e non rompete i maroni :sofico:

cmq devo essere sincero, avendo l'intenzione di tenere per un pò (saltando pascal e polaris anche perchè starò ancora in fullhd per un bel pò, guardandomi bene dal comprare un monitor 4k per evitare scimmie da upgrade) entrambe le mie gpu, sono un pò in ansia per la 980ti in ottica dx12.. però come dico sempre credo che difficilmente si assisterà in una debacle mirata e guidata dagli sviluppatori ad azzoppare un leader del mercato... inoltre so anche che se la voglio rivendere sicuramente qualcuno disposta a comprarla c'è...

Ma guarda manca poco più di un mese e lo capiremo. Escono AOS, Hitman e Quantum Break. Poi vediamo i bench delle verdi e delle rosse. Se già con questi giochi le verdi vanno male, allora c'è qualcosa che non va e forse la AMD ha visto più lungo.

FreeMan
27-02-2016, 19:45
Nessuno vi obbliga a leggere questo thread, e soprattutto a postare cose che servono solo ad alimentare flame inutili, quindi non costruttive, così evitereste anche di leggere cose ridicole...

Nessuno può sapere chi paga chi, o cosa facciano realmente...

Se volete postare sulle Nvidia e discutere va bene, altrimenti verrete segnalati...

Grazie ;)

Chiuso OT

Non minacciamo segnalazioni ecc..Non è il vostro compito ed oltretutto crea solo altro flame

ho fatto una domanda sugli ACE in Pascal, hanno iniziato a rispondermi con battute (e ci può anche stare IO al contrario di molti qua dentro non faccio il piangina o come TE che minacci di segnalare) ho postato bench a riguardo di GIOCHI e non benchmarck e addirittura il più verde di tutti prima ha detto che AMD paga per far andare male le nVidia in AoS e poi se quel gioco avesse un buon Gameplay? ma cosa c'entra il Gameplay??? :doh:

ps. ho notato una cosa sia qui che su tom's, che chissà perché nei thread nvidia c'è chi ti avvisa che ti segnala o ti mette in ignore list, mentre in quelli amd questo non succede... sarà una semplice coincidenza?...



a sto giro hai toppato alla grande, non siamo di certo "noi" quelli che scrivono ogni 3 post che mettono gli utenti in "Ignore List", ma fa così figo?
...ma mi rimani comunque simpatico ;)



infatti si discute, non vedo cosa si è detto di così strano... evidentemente molti hanno la coda di paglia, almeno tu sei l'unico che risponde in modo serio e tecnico...
si scherza, sono il primo a farlo, ma mi pare che a parte te e devil_mcry le risposte hanno dimostrato ben altra cosa in questo thread

il problema è mio che cerco ancora di trovare un barlume di speranza, penso che ormai è giunto il momento di usare il mio tempo in altro modo.

è pensare che era nelle mie migliori intenzioni cercare di capire qualcosa sul discorso ACE dx12 in Pascal, questo è stato il risultato.

ps. a me non è mai venuto nemmeno nell'anticamera del cervello andare a vedere i post degli utenti cercando nel profilo o di mettere in ignore list qualcuno perché penso di essere superiore...

incredibile dove può arrivare l'ego...

È evidente che posti qui solo per flammare..come al solito..useless..sospeso 7gg

Ragazzi, internet sta rovinando la gente :asd:

Anche questo commento estemporaneo e flammoso non aiuta, non serve..sospeso 5gg

E ora vediamo di abbassare i toni della discussione prima che si faccia male qualcun'altro

>bYeZ<

illidan2000
27-02-2016, 19:59
Ma guarda manca poco più di un mese e lo capiremo. Escono AOS, Hitman e Quantum Break. Poi vediamo i bench delle verdi e delle rosse. Se già con questi giochi le verdi vanno male, allora c'è qualcosa che non va e forse la AMD ha visto più lungo.

uff.... l'attesa mi consuma.
Hai visto quanto costa andare a vedere il meeting nVidia? 1500€ per tutto, la metà per la giornata singola... Però, se abitassi nella Silicon Valley (e capissi l'inglese come l'italiano...), un pensierino ce lo farei!

Spider-Mans
27-02-2016, 20:52
http://wccftech.com/nvidia-pascal-debut-gtc-2016-launch-june/

Qui, oltre a dare abbastanza certa la presentazione in pompa magna alla GTC di Aprile ed il lancio a Giugno 2016 in concomitanza con il Computex, c'è un riassunto generale di tutto ciò che ad oggi si sa su pascal. ;)

FINALLY
:oink:

Raven
27-02-2016, 21:06
Stando alle ultime news...
- in aprile potrebbe essere presentato Pascal full ma solo in versione Tesla (no Geforce)...
- poi in giugno Pascal "lite" (tipo GP104), ma solo paperlaunch (commercializzazione per il back to school)
- infine Pascal full (versione Geforce/Titan) fine anno, inizio 2017

In estrema sintesi (se i rumors fossero confermati): nessuna nuova "top di gamma" nvidia quest'anno...

fraussantin
27-02-2016, 21:10
Stando alle ultime news...
- in aprile potrebbe essere presentato Pascal full ma solo in versione Tesla (no Geforce)...
- poi in giugno Pascal "lite" (tipo GP104), ma solo paperlaunch (commercializzazione per il back to school)
- infine Pascal full (versione Geforce/Titan) fine anno, inizio 2017

In estrema sintesi (se i rumors fossero confermati): nessuna nuova "top di gamma" nvidia quest'anno...
Cioè a giugno escono le nuove x70\x80 e a natale le ti e le titan ?

Legolas84
27-02-2016, 21:15
O così o credo gp104 a settembre e gp100 primavera 2017....

Inviato dal mio ONE A2003 utilizzando Tapatalk

Raven
27-02-2016, 21:19
Cioè a giugno escono le nuove x70\x80

No... sembrerebbe solo la presentazione... (commercializzazione a fine estate)


e a natale le ti e le titan ?

Idem come sopra... rumors (e danno comunque più probabile il 2017, che non Natale)! ;)
Per come la vedo io, probabilmente verrà comunque presentata prima la Titan, per poter approfittare di vendite a prezzi "spropositati", per poi piazzare la Ti qualche tempo dopo, come già fatto in precedenza... presentarle assieme non avrebbe senso: la Titan la prenderebbero sì e no 4 "inscimmiati" :D

ps: Pascal verrà comunque presentato in aprile ("sottoforma" di Tesla)... dovrebbe far capire già molte cose!

fireradeon
27-02-2016, 21:22
Stando alle ultime news...
- in aprile potrebbe essere presentato Pascal full ma solo in versione Tesla (no Geforce)...
- poi in giugno Pascal "lite" (tipo GP104), ma solo paperlaunch (commercializzazione per il back to school)
- infine Pascal full (versione Geforce/Titan) fine anno, inizio 2017

In estrema sintesi (se i rumors fossero confermati): nessuna nuova "top di gamma" nvidia quest'anno...

Ma obiettivamente secondo te/voi nell'Anno di uscita dei giochi dx12 con dei bench non tanto promettenti non esce una top per più di un anno? Mah, la vedo difficile. Con AMD che potrebbe far uscire per prima nuove top di gamma? Io tra tutti i rumor penso che il più veritiero sia quello che dice aprile presentazione (paper launch) della Pascal Titan e rilascio a Giugno 2016.

Spider-Mans
27-02-2016, 21:27
Ma obiettivamente secondo te/voi nell'Anno di uscita dei giochi dx12 con dei bench non tanto promettenti non esce una top per più di un anno? Mah, la vedo difficile. Con AMD che potrebbe far uscire per prima nuove top di gamma? Io tra tutti i rumor penso che il più veritiero sia quello che dice aprile presentazione (paper launch) della Pascal Titan e rilascio a Giugno 2016.

titan a giugno
1070/1080 a settembre/ottobre
1080ti primo/secondo trimestre 2017

piu o meno ....

certo che se anticipano la 1070 a giugno... potrebbero sbancare nelle vendite in anticipo...

molto dipendera se la 1070 utilizzera le mirabolanti memorie hbm che nessuno puo fare a meno oramai :asd: (tanto che le fury sono introvabili nei forum e disponibili nei negozi xD ) o le gdrr5x/2_blablabla

vediamo

fraussantin
27-02-2016, 21:28
Ma obiettivamente secondo te/voi nell'Anno di uscita dei giochi dx12 con dei bench non tanto promettenti non esce una top per più di un anno? Mah, la vedo difficile. Con AMD che potrebbe far uscire per prima nuove top di gamma? Io tra tutti i rumor penso che il più veritiero sia quello che dice aprile presentazione (paper launch) della Pascal Titan e rilascio a Giugno 2016.
Beh attenzione , le 980 avevano prestazioni da top di gamma al d1 anche confrontate alle vecchie ti.

Non escluderei che le x80 abbiano prestazioni paragonabili alla attuale 980 ti , ma con 8 giga di ram nuove e ottimizzazioni superiori.

Raven
27-02-2016, 21:31
Beh attenzione , le 980 avevano prestazioni da top di gamma al d1 anche confrontate alle vecchie ti.

Non escluderei che le x80 abbiano prestazioni paragonabili alla attuale 980 ti , ma con 8 giga di ram nuove e ottimizzazioni superiori.

Esatto... anche il GK104 venne "tirato" a dovere per essere piazzato come "top di gamma" (difatti nvidia lo chiamò 680 come i precedenti chip full) e passò mooolto tempo prima del debutto delle gtx780... (la prima Titan è un caso a parte! :p)

Spider-Mans
27-02-2016, 21:33
cmq vedremo se prenderanno piede velocemente le dx12...l'ue4 ecc...sperando che cryteck ritorni a sfornare giochi seri...visto che si è ingolfata nei free to play

beatl
27-02-2016, 21:34
Io credo NVidia commercializzerà le nuove top di gamma (Titan full) a fine 2016 .. per il discorso prestazioni in dx12 trovo però difficile pensare che nVidia accetti il secondo posto per un periodo così lungo ...

Sicuro che un po di concorrenza potrebbe fare bene

Spider-Mans
27-02-2016, 21:35
Beh attenzione , le 980 avevano prestazioni da top di gamma al d1 anche confrontate alle vecchie ti.

Non escluderei che le x80 abbiano prestazioni paragonabili alla attuale 980 ti , ma con 8 giga di ram nuove e ottimizzazioni superiori.

beh direi che sarebbe abbastanza prevedibile questo scenario....anzi spero vadano anche di piu

ma sopratutto ad un prezzo nettamente inferiore..visto che la 1070 e 1080 "dovrebbero" essere posizionate sul prezzo delle attuali 970 e 980

jok3r87
27-02-2016, 21:37
fate come me, compratele entrambe e non rompete i maroni :sofico:

cmq devo essere sincero, avendo l'intenzione di tenere per un pò (saltando pascal e polaris anche perchè starò ancora in fullhd per un bel pò, guardandomi bene dal comprare un monitor 4k per evitare scimmie da upgrade) entrambe le mie gpu, sono un pò in ansia per la 980ti in ottica dx12.. però come dico sempre credo che difficilmente si assisterà in una debacle mirata e guidata dagli sviluppatori ad azzoppare un leader del mercato... inoltre so anche che se la voglio rivendere sicuramente qualcuno disposta a comprarla c'è...
Veramente è interesse di nvidia farsì che le vecchie maxwell vengano sostituite dalle nuove fiammanti e costose pascal.

Inviato dal mio SM-G920F utilizzando Tapatalk

fireradeon
27-02-2016, 21:56
cmq vedremo se prenderanno piede velocemente le dx12...l'ue4 ecc...sperando che cryteck ritorni a sfornare giochi seri...visto che si è ingolfata nei free to play

Io credo NVidia commercializzerà le nuove top di gamma (Titan full) a fine 2016 .. per il discorso prestazioni in dx12 trovo però difficile pensare che nVidia accetti il secondo posto per un periodo così lungo ...

Sicuro che un po di concorrenza potrebbe fare bene

Arrivano 5 giochi entro agosto, fable Legends in autunno e a ottobre esce il nuovo battlefield, quindi a meno che nvidia non voglia perdere clienti una nuova top deve uscire e non a fine anno ma molto prima e non basta un 20% in più della 980ti.

deadbeef
27-02-2016, 22:25
No... sembrerebbe solo la presentazione... (commercializzazione a fine estate)



Idem come sopra... rumors (e danno comunque più probabile il 2017, che non Natale)! ;)
Per come la vedo io, probabilmente verrà comunque presentata prima la Titan, per poter approfittare di vendite a prezzi "spropositati", per poi piazzare la Ti qualche tempo dopo, come già fatto in precedenza... presentarle assieme non avrebbe senso: la Titan la prenderebbero sì e no 4 "inscimmiati" :D

ps: Pascal verrà comunque presentato in aprile ("sottoforma" di Tesla)... dovrebbe far capire già molte cose!

Che poi sarebbe un perpetrare la solita strategia commerciale Nvidia, nè di più, nè di meno. Vista la serie storica, sembrerebbe la soluzione più probabile

beatl
27-02-2016, 22:47
Arrivano 5 giochi entro agosto, fable Legends in autunno e a ottobre esce il nuovo battlefield, quindi a meno che nvidia non voglia perdere clienti una nuova top deve uscire e non a fine anno ma molto prima e non basta un 20% in più della 980ti.

Dipende da cosa fa amd ... se a nVidia basta un 20% in più sulle 980ti per mantenere il controllo del mercato centellinerà le uscite ... se poi AMD dovesse sfornare una bomba ... Beh vedremo

illidan2000
27-02-2016, 23:11
Stando alle ultime news...
- in aprile potrebbe essere presentato Pascal full ma solo in versione Tesla (no Geforce)...
- poi in giugno Pascal "lite" (tipo GP104), ma solo paperlaunch (commercializzazione per il back to school)
- infine Pascal full (versione Geforce/Titan) fine anno, inizio 2017

In estrema sintesi (se i rumors fossero confermati): nessuna nuova "top di gamma" nvidia quest'anno...

la pascal lite, sarebbe la scheda ammiraglia, in ambito gaming, però
Almeno fino al 2017 i portafogli dovrebbe stare tranquilli :D, soprattutto per chi ha la 980 ti ;)

Credevo comunque che avrebbero commercializzato la Titan a partire da Maggio/Giugno...

certo, come fecero i possessori di 780/780TI all'uscita delle 970/980...

fraussantin
27-02-2016, 23:18
la pascal lite, sarebbe la scheda ammiraglia, in ambito gaming, però


certo, come fecero i possessori di 780/780TI all'uscita delle 970/980...
Infatti prestazioni equiparabili o poco superiori.

Di certo non era necessario fare il cambio.

Poi che le ti /titan non sono un affare è un altro discorso.

illidan2000
27-02-2016, 23:21
Infatti prestazioni equiparabili o poco superiori.

Di certo non era necessario fare il cambio.

Poi che le ti /titan non sono un affare è un altro discorso.

moltissima gente pero' ha "buttato" le 780 per le 970/980.... :)

cyberpunk2020
28-02-2016, 00:32
moltissima gente pero' ha "buttato" le 780 per le 970/980.... :)


La mia 780ti è ancora tranquilla nel mio cosmos2 e sta pure a liquido !! Per ora non ne sente ancora il bisogno di essere cambiata !! Spero duri fino alle prossime ti !!


Inviato dal mio i8086 utilizzando Tapatalk

TigerTank
28-02-2016, 07:29
Ma guarda che a quanto ho capito il problema ACE non riguarda il multigpu, ma la gestione di specifiche istruzioni delle DX12....

gli ACE non riguardano affatto il multigpu, e poi se hai preso un monitor Gsync diciamo che tendenzialmente il "problema" te lo sei creato da solo :) Sarebbe bello non avere uno standard proprietario per ogni cosa, ma tant'è....


Vero, avete ragionissima. Poi mi sono letto un pò di cose, a partire da QUESTO (http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf) PDF.

Eh sì...sarebbe stato bello un adaptive sync condiviso da entrambi i fronti, purtroppo le cose stanno così, o vai di freesync o di gsync e questo influirà sulla scelta delle schede future, a meno che uno si possa permettere di cambiare in blocco vga e monitor, se cambia sponda :)

moltissima gente pero' ha "buttato" le 780 per le 970/980.... :)
In quel caso perchè ci fu anche la fase vram-fobìa introdotto dalle nuove consoles, con relativi porting in cui 3GB "non bastavano".
Vedi tipo Shadow of Mordor.
Comunque in singola un passaggio del genere ci potrebbe anche stare, con uno Sli di Ti con il chippone invece tanto vale passare direttamente ad un nuovo Sli di chipponi :)

traider
28-02-2016, 13:03
Secondo me per la data d'uscita di Pascal , dipende moltissimo da Polaris , si sa una data certa d'uscita del chippone di AMD ? .

fireradeon
28-02-2016, 13:05
Secondo me per la data d'uscita di Pascal , dipende moltissimo da Polaris , si sa una data certa d'uscita del chippone di AMD ? .

I dunno.... ma si diceva back to school come data rumor. Quindi settembre

sgrinfia
28-02-2016, 14:46
moltissima gente pero' ha "buttato" le 780 per le 970/980.... :)

Per caso sai dove le hanno buttate ?............:D

paolox86
29-02-2016, 07:19
Questa volta i rumors sono abbastanza fiduciosi sul lavoro di AMD sia lato CPU che GPU, quello che penso è che converrà comunque aspettare che entrambi i competitori svelino le carte e i prezzi, altrimenti se compriamo la prima scheda che esce rischiamo di pagarla molto di più.


Inviato dal mio iPhone utilizzando Tapatalk

Giovamas
29-02-2016, 09:23
O così o credo gp104 a settembre e gp100 primavera 2017....

Inviato dal mio ONE A2003 utilizzando Tapatalk

Quindi se tu hai ragione (e condivido) la 980ti mi durerà ancora un bel po'. Meglio così. La mia roadmap è 780ti-->980Ti-->1080Ti;) se all'uscita delle x80/x70 si presenta King Kong alla porta vedrò di chiamare gli aerei per abbatterlo. Vedremo

illidan2000
29-02-2016, 09:40
Quindi se tu hai ragione (e condivido) la 980ti mi durerà ancora un bel po'. Meglio così. La mia roadmap è 780ti-->980Ti-->1080Ti;) se all'uscita delle x80/x70 si presenta King Kong alla porta vedrò di chiamare gli aerei per abbatterlo. Vedremo


io ho fatto invece
sli680, sliTitan (2 settimane), 780, sli 780 (rivendute subito dopo acquisto della seconda), sli970
ora sono indeciso se andare su 2 pascaline (x70, prezzo <400€) oppure aspettare 1080Ti..

Legolas84
29-02-2016, 09:54
Io illy più o meno faccio come te... 480 SLI --> 680 --> 780 --> 980 SLI

Con Kepler non ho fatto SLI perché ero con case mini itx.... Però trovò molto meglio prendere uno SLI del chippino che scalda e consuma meno ma che compri appena esce la nuova architettura con tutte le novità che si porta dietro, e prendendolo in SLI ti dura tutta la generazione piuttosto che aspettare le versioni TI che in singolo sono comunque meno potenti ed escono molto dopo...

Inviato dal mio ONE A2003 utilizzando Tapatalk

TigerTank
29-02-2016, 10:08
Quindi se tu hai ragione (e condivido) la 980ti mi durerà ancora un bel po'. Meglio così. La mia roadmap è 780ti-->980Ti-->1080Ti;) se all'uscita delle x80/x70 si presenta King Kong alla porta vedrò di chiamare gli aerei per abbatterlo. Vedremo
Nel mio caso dipenderà molto da quanto pascal staccherà maxwell nei primi giochi dx12.


Con Kepler non ho fatto SLI perché ero con case mini itx.... Però trovò molto meglio prendere uno SLI del chippino che scalda e consuma meno ma che compri appena esce la nuova architettura con tutte le novità che si porta dietro, e prendendolo in SLI ti dura tutta la generazione piuttosto che aspettare le versioni TI che in singolo sono comunque meno potenti ed escono molto dopo...

Stavolta però sarà diverso, perchè è facile che i chippini abbiano le ddr5 mentre le TI le hbm2 :)

Legolas84
29-02-2016, 10:11
Tanto le TI andranno sempre un 20% in più quindi meno di uno SLI di chippini...

Inviato dal mio ONE A2003 utilizzando Tapatalk

TigerTank
29-02-2016, 10:28
Tanto le TI andranno sempre un 20% in più quindi meno di uno SLI di chippini...


Ho avuto anch'io una gtx980 e tanto per fare un rapido confronto all'heaven con 1500/8000 facevo sui 78fps medi. Con la Ti sempre a 1500/8000 ne faccio 106 per cui direi un pò più del 20% rispetto alla gtx980. Diciamo un 30% medio.
Con le pascal il divario sarà probabilmente anche maggiore tra fullgpu e hbm2 rispetto alle ddr5.
Più che altro ogni situazione ha i suoi pro e i suoi contro. Nel senso che uno Sli è sì più potente, ma solo finchè il supporto ad esso da parte dei giochi è buono. Basta però che questo non lo sia o non sia presente ed ecco che ti ritrovi con qualche problemino prestazionale o addirittura a giocare con una sola delle 2 schede :)
Doom4 ad esempio sarà uno dei titoli più attesi dell'anno ma vanificherà tutti gli Sli.

Legolas84
29-02-2016, 10:28
No guarda non ho mai avuto problemi con lo SLI... E con lo SLI di 980 ho prestazioni superiori in tutto rispetto alla TI...

Ci sono alcuni giochi che non lo supportano è vero come divinity ad esempio ma in genere sono giochi in cui appunto non te ne fai nulla in quanto graficamente sono molto leggeri e li maxi già in scheda singola.... I giochi graficamente pesanti che richiedono effettivamente lo SLI sono tutti supportati con profili specifici che vengono rilasciati prima dell'uscita del gioco.....

Inviato dal mio ONE A2003 utilizzando Tapatalk

Legolas84
29-02-2016, 10:32
Ho avuto anch'io una gtx980 e tanto per fare un rapido confronto all'heaven con 1500/8000 facevo sui 78fps medi. Con la Ti sempre a 1500/8000 ne faccio 106 per cui direi un pò più del 20% rispetto alla gtx980.
Con le pascal di sicuro il divario sarà probabilmente anche maggiore tra fullgpu e hbm2 rispetto alle ddr5.
Più che altro ogni situazione ha i suoi pro e i suoi contro. Nel senso che uno Sli è sì più potente, ma solo finchè il supporto ad esso da parte dei giochi è buono. Basta però che questo non lo sia o non sia presente ed ecco che ti ritrovi con qualche problemino prestazionale o addirittura a giocare con una sola delle 2 schede :)
I bench lasciano il tempo che trovano io so ad esempio che witcher 3 In 2k maxato con il mio SLI lo gioco con la 980ti invece scendo sotto i 60fps... Quindi c'è un bel po di differenza tra le due opzioni...

Riguardo al supporto SLI ho scritto sopra, nei giochi che richiedono potenza è praticamente supportato sempre...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Nurabsa
29-02-2016, 10:33
Nel mio caso dipenderà molto da quanto pascal staccherà maxwell nei primi giochi dx12.


ho lo stesso pensiero,

son dolori io con l uhd sarei obbligato al cambio in 4k maxwell arranca i 60 fissi solo a compromesso

mi riferisco in particolare ai titoli futuri se l architettura attuale arranca in uhd magari nv*dia cambia strada, o forse sanno gia che cambiando mc l attuale maxwell hbm diventerebbe quello chiamano pascal

Legolas84
29-02-2016, 10:36
Ah sorry dimenticato... Riguardo hbm abbiamo visto che non fanno certo il miracolo sulle fury... Anzi....

E poi le nuove gddr5 promettono davvero molto bene...

Fare una TI che va più di uno SLI di chippini non sarebbe conveniente per nvidia e infatti non è mai successo...

Imho chi prende uno SLI di GP 104 si farà tutta la generazione pascal alla grande...

Inviato dal mio ONE A2003 utilizzando Tapatalk

illidan2000
29-02-2016, 10:37
No guarda non ho mai avuto problemi con lo SLI... E con lo SLI di 980 ho prestazioni superiori in tutto rispetto alla TI...

Ci sono alcuni giochi che non lo supportano è vero come divinity ad esempio ma in genere sono giochi in cui appunto non te ne fai nulla in quanto graficamente sono molto leggeri e li maxi già in scheda singola.... I giochi graficamente pesanti che richiedono effettivamente lo SLI sono tutti supportati con profili specifici che vengono rilasciati prima dell'uscita del gioco.....

Inviato dal mio ONE A2003 utilizzando Tapatalk
mi preoccupa un po' però per Doom4 :(
Ora sto finendo Just Cause 3, e mi gira a 60fps. Un po' un peccato non potere avere i 100/110 avendo lo SLI ! (una delle due dorme)

Legolas84
29-02-2016, 10:39
Tiger hai aggiunto di doom4... Vanifichera lo SLI se sarà ancora basato su idtech5 ma non credo...
E comunque se come hanno detto girerà ovunque a 1080p @60 FPS non credo che avrà una grafica molto pesante... ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Legolas84
29-02-2016, 10:47
mi preoccupa un po' però per Doom4 :(
Ora sto finendo Just Cause 3, e mi gira a 60fps. Un po' un peccato non potere avere i 100/110 avendo lo SLI ! (una delle due dorme)
Il punto è che tu a JC 3 ci giochi comunque a 60fps perché non è troppo avaro di risorse, ma con una TI a giochi più pesanti (witcher 3) non puoi maxare in 2k o vai sotto....



Inviato dal mio ONE A2003 utilizzando Tapatalk

fraussantin
29-02-2016, 10:49
Imho i miracoli li fanno, ma sono inutili.
Nel senso che sulle fury le hbm fanno i miracoli per sopperire alla limitazione dei 4GB, metti 8GB e non hai più differenza tra hbm e gddr5 se non qualcosa nei consumi e nelle dimensione della scheda.
Tutte le volte che vedo quelle fury von 4 giga di memorie costosissime mi domando cosa avevano per cervello alla amd .

Poi mi son detto , forse lo han fatto perche quel chip lo vogliono ricliclare per le prossime 5 gen. ( ovviamente calando di fascia ogni volta).

nervoteso
29-02-2016, 11:08
Io illy più o meno faccio come te... 480 SLI --> 680 --> 780 --> 980 SLI

Con Kepler non ho fatto SLI perché ero con case mini itx.... Però trovò molto meglio prendere uno SLI del chippino che scalda e consuma meno ma che compri appena esce la nuova architettura con tutte le novità che si porta dietro, e prendendolo in SLI ti dura tutta la generazione piuttosto che aspettare le versioni TI che in singolo sono comunque meno potenti ed escono molto dopo...

Inviato dal mio ONE A2003 utilizzando Tapatalk

io vorrei fare uno sli di gtx 980 ma il prezzo è ancora proibitivo ma quando scende? a sto punto aspetto pascal

illidan2000
29-02-2016, 11:09
Tiger hai aggiunto di doom4... Vanifichera lo SLI se sarà ancora basato su idtech5 ma non credo...
E comunque se come hanno detto girerà ovunque a 1080p @60 FPS non credo che avrà una grafica molto pesante... ;)

i bench dell'alpha dicono ancora che lo SLI è inutile sull'idTech6. Anche io cmq confido in una versione finale che lo supporti!
Il punto è che tu a JC 3 ci giochi comunque a 60fps perché non è troppo avaro di risorse, ma con una TI a giochi più pesanti (witcher 3) non puoi maxare in 2k o vai sotto....


certo, la TI sta sotto, chiaramente...
Con just cause, non servirebbe. Ma solo grazie al gsync. Ogni tanto sotto ai 60 ci va purtroppo

TigerTank
29-02-2016, 11:18
I bench lasciano il tempo che trovano io so ad esempio che witcher 3 In 2k maxato con il mio SLI lo gioco con la 980ti invece scendo sotto i 60fps... Quindi c'è un bel po di differenza tra le due opzioni...

Riguardo al supporto SLI ho scritto sopra, nei giochi che richiedono potenza è praticamente supportato sempre...


Beh ci mancherebbe che il tuo Sli di gtx980 vada meglio di una Ti, io mi riferivo ad un confronto sulle singole e a parità di tipologia di vram, per cui con le HBM2 il divario potrà essere superiore.
Comunque ce ne faremo un'idea già quando si andranno a confrontare le gtx1070/1080 con le titan pascal :)

Tiger hai aggiunto di doom4... Vanifichera lo SLI se sarà ancora basato su idtech5 ma non credo...
E comunque se come hanno detto girerà ovunque a 1080p @60 FPS non credo che avrà una grafica molto pesante... ;)


Sai che roba....60fps(e cappati) garantiti in fullHD(oltretutto su pc con quale hardware?) sarà anche notiziona per i consolari ma magari vuol dire che su pc a 1440p vai a 40 e senza manco poter sfruttare uno Sli. Insomma situazione frustrante visto che su pc ormai in molti giochiamo a 1440p o addirittura a 4K :D

c3sar3
29-02-2016, 11:26
ragazzi secondo voi conviene vendere adesso una 980 per passare subito ad una 980ti?? tanto da quel poco che ho capito nel 2016 non dovrebbero uscire grandi cose

illidan2000
29-02-2016, 11:33
ragazzi secondo voi conviene vendere adesso una 980 per passare subito ad una 980ti?? tanto da quel poco che ho capito nel 2016 non dovrebbero uscire grandi cose

direi che è il momento peggiore per comprare. tra un paio di mesi, se escono le nuove, i prezzi delle TI crolleranno
Beh ci mancherebbe che il tuo Sli di gtx980 vada meglio di una Ti, io mi riferivo ad un confronto sulle singole e a parità di tipologia di vram, per cui con le HBM2 il divario potrà essere superiore.
Comunque ce ne faremo un'idea già quando si andranno a confrontare le gtx1070/1080 con le titan pascal :)



Sai che roba....60fps(e cappati) garantiti in fullHD(oltretutto su pc con quale hardware?) sarà anche notiziona per i consolari ma magari vuol dire che su pc a 1440p vai a 40 e senza manco poter sfruttare uno Sli. Insomma situazione frustrante visto che su pc ormai in molti giochiamo a 1440p o addirittura a 4K :D
cmq le pascaline avranno le GDDR5x, e non le 5 lisce
secondo me tra HBM e 5X non ci sarà chissà quanto divario. E' la GPU che conta, si è sempre saputo
Il confronto con le Titan, sarà di certo impietoso, ma pure là non si capirà se le mem HBM quanto influiranno

CiccoMan
29-02-2016, 11:33
ragazzi secondo voi conviene vendere adesso una 980 per passare subito ad una 980ti?? tanto da quel poco che ho capito nel 2016 non dovrebbero uscire grandi cose

Per giocare su che monitor? Se stai in 1080p 60hz non avrai grossi vantaggi... se sei a 1440p o/e 100+Hz allora potresti avere quello spunto in più ;)

Legolas84
29-02-2016, 11:33
Beh ci mancherebbe che il tuo Sli di gtx980 vada meglio di una Ti, io mi riferivo ad un confronto sulle singole e a parità di tipologia di vram, per cui con le HBM2 il divario potrà essere superiore.
Comunque ce ne faremo un'idea già quando si andranno a confrontare le gtx1070/1080 con le titan pascal :)



Sai che roba....60fps(e cappati) garantiti in fullHD(oltretutto su pc con quale hardware?) sarà anche notiziona per i consolari ma magari vuol dire che su pc a 1440p vai a 40 e senza manco poter sfruttare uno Sli. Insomma situazione frustrante visto che su pc ormai in molti giochiamo a 1440p o addirittura a 4K :D
Secondo te un gioco che gira a 60fps 1080p su ps4 avrà problemi a girare a 60fps in 2k su gp104? Senza contare che finché non esce il gioco non si può sapere...

Ma comunque fino ad oggi chi si è preso uno SLI di 104 o 204 ha potuto saltare tranquillamente le versioni 100 o 200 quindi non vedo perché dovrebbe essere diverso con pascal ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

FroZen
29-02-2016, 11:36
Tutte le volte che vedo quelle fury von 4 giga di memorie costosissime mi domando cosa avevano per cervello alla amd .

Poi mi son detto , forse lo han fatto perche quel chip lo vogliono ricliclare per le prossime 5 gen. ( ovviamente calando di fascia ogni volta).

Esempio di titolo a def che viene limitato dai 4gb hbm? Anche 4k.....

Nurabsa
29-02-2016, 11:41
considerando il prezzo attuale delle kepler nuove su am*zon

non mi fido molto delle svalutazioni

fraussantin
29-02-2016, 11:48
Esempio di titolo a def che viene limitato dai 4gb hbm? Anche 4k.....
Assassin creed 5 in 4k... E in 2.5k

Ma anche altri .

Non sono schede per il 1080p...

E il bello è che se efai il cross non la raddoppi.