PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 [37] 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Max775
18-10-2013, 18:14
l'avevo detto io che facevano il botto! :O

altro che nuova vga! ;)

Concordo. Avevo intenzione di prendere Un monitor Asus a 144Hz da usare esclusivamente coi giochi e ora il G-sync capita proprio a puntino :D

Ho sempre odiato il compromesso tra fluidita'/latenza con v-sync e latenza/tearing senza v-sync.

sickofitall
18-10-2013, 18:17
Concordo. Avevo intenzione di prendere Un monitor Asus a 144Hz da usare esclusivamente coi giochi e ora il G-sync capita proprio a puntino :D

Ho sempre odiato il compromesso tra fluidita'/latenza con v-sync e latenza/tearing senza v-sync.

da quel che ho capito venderanno il modulo del g-synch anche a parte, per chi ha già un monitor compatibile (per esempio l'asus 144hz)

Magari lunedì si saprà di più, con lo streaming di pcper

Smirzo
18-10-2013, 18:29
è veramente una svolta questo g-sync, potremmo mettere tutto al massimo senza sacrificare niente (ovviamente per chi ha le super schedozze).

appleroof
18-10-2013, 18:50
http://www.brightsideofnews.com/news/2013/10/18/nvidia-introduces-g-sync---the-death-of-v-sync.aspx

slide1965
18-10-2013, 18:55
e ovviamente parliamo di schermi IPS, giusto?:fagiano: :sofico:

appleroof
18-10-2013, 19:16
e ovviamente parliamo di schermi IPS, giusto?:fagiano: :sofico:

non credo...per ora :ciapet:

Vul
18-10-2013, 19:18
si, ho letto dopo il post di AceGranger, cmq già qui si vede un monitor 144hz:

http://i.imgur.com/J0wL0t5l.png (http://imgur.com/J0wL0t5)

Non capisco cosa dovrebbe fare il gsync.

Se ho un monitor che va a 144hz come il vg248 perchè dovrei volere un utility che mi abbassa il refresh del monitor se faccio meno fps?

Dov'è il vantaggio.

appleroof
18-10-2013, 19:22
Non capisco cosa dovrebbe fare il gsync.

Se ho un monitor che va a 144hz come il vg248 perchè dovrei volere un utility che mi abbassa il refresh del monitor se faccio meno fps?

Dov'è il vantaggio.

G-Sync is designed to improve the overall experience that the gamer has with their games by introducing new hardware into the monitor that helps the monitor sync perfectly with the refresh rate of the graphics card so that the refresh rate varies dynamically and does not jump around or hit any sudden barriers. By getting the monitor and graphics card to work so closely together, Nvidia has finally found a way to smooth out the way that we perceive games.

http://www.brightsideofnews.com/news/2013/10/18/nvidia-introduces-g-sync---the-death-of-v-sync.aspx

insomma, a prescindere dal FR, non hai più bisogno di v-sync, se non hai più bisogno di v-sync non hai tearing ma nemmeno lag ed in ultima analisi struttering....è un'innovazione davvero non da poco.

appleroof
18-10-2013, 19:27
edit

Vul
18-10-2013, 19:29
G-Sync is designed to improve the overall experience that the gamer has with their games by introducing new hardware into the monitor that helps the monitor sync perfectly with the refresh rate of the graphics card so that the refresh rate varies dynamically and does not jump around or hit any sudden barriers. By getting the monitor and graphics card to work so closely together, Nvidia has finally found a way to smooth out the way that we perceive games.

http://www.brightsideofnews.com/news/2013/10/18/nvidia-introduces-g-sync---the-death-of-v-sync.aspx

insomma, a prescindere dal FR, non hai più bisogno di v-sync, se non hai più bisogno di v-sync non hai tearing ma nemmeno lag ed in ultima analisi struttering....è un'innovazione davvero non da poco.

Ma stiamo parlando seriamente di tearing su monitor da 144 hz?

Ma che tearing volete vedere su un monitor da 144 hz :rotfl: Aggiungete un pò di AA se avete problemi di tearing su un monitor come il vg248qe, seriamente. Non so se vi rendete conto che il tearing è causato da un immagine che si presenta tagliata perchè la scheda video fa più frame di quanti il monitor ne possa visualizzare risultando con la sovrapposizione di più frames durante un refresh del monitor:

http://img243.imageshack.us/img243/3296/immaginehz2.jpg

Questo è screen tearing per intenderci.

Ripeto, stiamo seriamente cascando come dei boccaloni allo screen tearing di un monitor da 144 hz??? Su hwupgrade, dove la gente maxa tutto ad uber ultra e non respira se non crysis 3 maxato non gli va tutto al massimo anche se poi il gioco gli fa schifo?

Il gsync è assolutamente inutile se stai facendo meno di 60 fps su un monitor da 60 hz visto che non avrai mai problemi di tearing, non lo vedrai mai, se ne hai più di 60 puoi mettere il vsync su un monitor da 60.

Su un monitor da 120 il problema comincia a diventare assurdamente irrilevante.

<Masquerade>
18-10-2013, 19:33
http://abload.de/img/untitledcpuf6.png (http://abload.de/image.php?img=untitledcpuf6.png)

The_SaN
18-10-2013, 19:34
Non capisco cosa dovrebbe fare il gsync.

Se ho un monitor che va a 144hz come il vg248 perchè dovrei volere un utility che mi abbassa il refresh del monitor se faccio meno fps?

Dov'è il vantaggio.In pratica fa quello che fa il filtro v-sync, ma senza l'input lag derivato.
Per darti un'idea io il v-sync lo uso sempre, a parte Team Fortress 2 online. Proprio perchè il lag, pur molto piccolo, si sente.

Ed è pure uno dei motivi che mi ha fatto scegliere un monitor IPS con input lag zero...
Immaginati la situazione:

- lag internet (30ms)
- lag risposta pixel (2-10ms)
- input lag monitor (20ms)
- input lag v-sync (33ms)
- lag di trasmissione (16ms)

Alla fine è una roba assurda.
Eliminare 33ms in questo scenario è tantissimo...

The_SaN
18-10-2013, 19:37
Ma stiamo parlando seriamente di tearing su monitor da 144 hz?

Ma che tearing volete vedere su un monitor da 144 hz :rotfl: Aggiungete un pò di AA se avete problemi di tearing su un monitor come il vg248qe, seriamente. Non so se vi rendete conto che il tearing è causato da un immagine che si presenta tagliata perchè la scheda video fa più frame di quanti il monitor ne possa visualizzare risultando con la sovrapposizione di più frames durante un refresh del monitor:

http://img243.imageshack.us/img243/3296/immaginehz2.jpg

Questo è screen tearing per intenderci.

Ripeto, stiamo seriamente cascando come dei boccaloni allo screen tearing di un monitor da 144 hz??? Su hwupgrade, dove la gente maxa tutto ad uber ultra e non respira se non crysis 3 maxato non gli va tutto al massimo anche se poi il gioco gli fa schifo?È una questione di fisica...
Se la transizione d'immagine si presenta nel momento esatto in cui il tuo occhio fa il "refresh", il tearing lo vedi.
Statisticamente, la probabilità è inferiore, ma c'è.

Vul
18-10-2013, 19:37
In pratica fa quello che fa il filtro v-sync, ma senza l'input lag derivato.
Per darti un'idea io il v-sync lo uso sempre, a parte Team Fortress 2 online. Proprio perchè il lag, pur molto piccolo, si sente.

Ed è pure uno dei motivi che mi ha fatto scegliere un monitor IPS con input lag zero...
Immaginati la situazione:

- lag internet (30ms)
- lag risposta pixel (2-10ms)
- input lag monitor (20ms)
- input lag v-sync (33ms)
- lag di trasmissione (16ms)

Alla fine è una roba assurda.
Eliminare 33ms in questo scenario è tantissimo...

L'input lag del vsync :muro: Il vsync non causa alcun input lag, serve a limitare gli fps della tua scheda al valore di refresh del monitor, non c'è nessun input lag derivante.

Dai, ma ti rendi conto di quante cose sciocche hai detto tutte insieme? Sei riuscito anche a confondere input lag e response time, inserire parole a caso come lag di trasmissione 20 ms di input lag monitor (forse nel 2008 su un acer sti valori, per meno di 200 euro ci sono una valanga di monitor con 0 input lag). E la cosa bella è che lasci sottindendere che tutte queste lag si sommino.

The_SaN
18-10-2013, 19:39
L'input lag del vsync :muro:

Dai, ma ti rendi conto di quante cose sciocche hai detto tutte insieme?Lo sai come funziona il filtro v-sync?
Lo sai cosa fa il buffer, doppio o triplo?

Vul
18-10-2013, 19:41
Lo sai come funziona il filtro v-sync?
Lo sai cosa fa il buffer, doppio o triplo?

Si, limita gli fps della tua scheda video al refresh del monitor per prevenire il tearing. L'unica impostazione che causi "lag" lato scheda video è il triplo buffer e non ha nulla a che vedere con il vsync.

Perfavore, vai su google e ricerca un pò dei termini che stai usando a caso.

Tra l'altro è mia personalissima opinione che il vsync non serva a nulla. Se fai meno di 60 fps non hai nessun tearing, se ne fai molti di più (per cui puoi preoccuparti di tearing) il problema è rilevante fino ad un certo punto e difficilmente notabile se ne stai facendo molti. Se guardi l'immagine del tearing precedente la scheda non era così veloce da renderizzare tutti i frame del movimento di mouse (nota la cassa "spezzata") ma il monitor a sua volta non aveva ricevuto l'informazione corrispondente a due frame nella stessa sequenza di refresh. Insomma in parole povere combinazione di monitor e scheda video terrificanti.

Questo gsync è la cosa più inutile mai vista sotto al sole, una bella scusa per mettere fumo negli occhi e spacciare per necessarie features inutili un pò come il true audio amd "che simula la 3dimensionalità in 9 direzioni anche su cuffie 2.0". Ma dai :asd:

The_SaN
18-10-2013, 19:42
Si, limita gli fps della tua scheda video al refresh del monitor per prevenire il tearing. L'unica impostazione che causi "lag" lato scheda video è il triplo buffer e non ha nulla a che vedere con il vsync.

Perfavore, vai su google e ricerca un pò dei termini che stai usando a caso.http://www.anandtech.com/show/2803/5

The_SaN
18-10-2013, 19:50
Si ma ragazzo, quando si edita un messaggio si scrive "Edit:" davanti, eh...

Legolas84
18-10-2013, 19:50
Io so per certo che il tearing si manifesta sia a FPS superiori che a FPS inferiori al refresh del monitor....

Lo so per certo perchè è da una vita intera che lo noto e lo combatto... facendo del mio meglio con V-sync attivo, D3Doverrider, triple buffer, fps limiter ecc....

Per quel che mi riguarda, se nVIDIA sta volta ha VERAMENTE risolto il problema in modo retroattivo (quindi anche per giochi di 10 anni fa) per me ha fatto il botto.

Vul
18-10-2013, 19:51
http://www.anandtech.com/show/2803/5

Ho già trovato l'errore idiota nelle prime due righe partendo da "let's talk about vsync", vediamo se ci arrivi.

E nonostante quell'errore idiota non fa che confermare di quanto sia assolutamente inutile il sync su un monitor da 144 hz: fumo negli occhi.

The_SaN
18-10-2013, 19:54
Tra l'altro è mia personalissima opinione che il vsync non serva a nulla. Se fai meno di 60 fps non hai nessun tearing, se ne fai molti di più (per cui puoi preoccuparti di tearing) il problema è rilevante fino ad un certo punto e difficilmente notabile se ne stai facendo molti. Se guardi l'immagine del tearing precedente la scheda non era così veloce da renderizzare tutti i frame del movimento di mouse (nota la cassa "spezzata") ma il monitor a sua volta non aveva ricevuto l'informazione corrispondente a due frame nella stessa sequenza di refresh. Insomma in parole povere combinazione di monitor e scheda video terrificanti.Qui dimostri ancora di non sapere come funziona il v-sync, e tanto meno sapere come funziona il "rendering to display".

Il tearing succede pure a fps inferiori al refresh!
E il cap di fps via engine non elimina l'effetto.

The_SaN
18-10-2013, 19:55
Io so per certo che il tearing si manifesta sia a FPS superiori che a FPS inferiori al refresh del monitor....

Lo so per certo perchè è da una vita intera che lo noto e lo combatto... facendo del mio meglio con V-sync attivo, D3Doverrider, triple buffer, fps limiter ecc....

Per quel che mi riguarda, se nVIDIA sta volta ha VERAMENTE risolto il problema in modo retroattivo (quindi anche per giochi di 10 anni fa) per me ha fatto il botto.Mi commuovo :cry:

Legolas84
18-10-2013, 19:57
Il tearing succede pure a fps inferiori al refresh!
E il cap di fps via engine non elimina l'effetto.

Queste due sono verità tautologiche

Vul
18-10-2013, 20:04
Non ve lo ripeterò più, speravo la prima volta bastasse.

a) Il vsync non causa input lag.

b) A causare l'input lag "da vsync" è il buffering che è di default impostato di default in accoppiamento con il vsync nelle directx dalla 8.1 in poi. Per convincervene vi basta togliere pre render e buffering e lasciare vsync attivato in giochi in cui l'input lag si nota notevolmente (esempio i picchiaduro)

c) il vsync di default elimina tearing

d) tearing sotto alla frequenza di refresh è assolutamente impossibile da notare ad occhio umano, e anche quello da eccesso di fps è molto difficile da vedere (dovete avere monitor terribili)

e) associare le parole tearing a monitor da 120 hz è la fiera della promozione e del fumo negli occhi

Obrigado
18-10-2013, 20:04
vul vatti ad informare altrimenti crei solo problemi alla comunita'

se capisci un po di inglese

in fondo a questo link ci sta un video.

vedilo


http://www.engadget.com/2013/10/18/nvidia-g-sync/


stai avendo la classica reazioni di chi non vuole capire.

abbassa l'ego e apri occhi e orecchie!


poi per placarti, leggi pure questo articoletto... http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Death-Refresh-Rate

The_SaN
18-10-2013, 20:11
Non ve lo ripeterò più, speravo la prima volta bastasse.

a) Il vsync non causa input lag.

b) A causare l'input lag "da vsync" è il buffering che è di default impostato di default in accoppiamento con il vsync nelle directx dalla 8.1 in poi. Per convincervene vi basta togliere pre render e buffering e lasciare vsync attivato in giochi in cui l'input lag si nota notevolmente (esempio i picchiaduro)

c) il vsync di default elimina tearing

d) tearing sotto alla frequenza di refresh è assolutamente impossibile da notare ad occhio umano, e anche quello da eccesso di fps è molto difficile da vedere (dovete avere monitor terribili)

e) associare le parole tearing a monitor da 120 hz è la fiera della promozione e del fumo negli occhia) Sbagliato. Rendering e refresh del monitor sono 2 cose distinte!

b) Ni. Il Buffer può aggiungere input lag a quello del v-sync.

c) Si. Perfetto.

d) Non c'entra il monitor. L'universo dei segnali è stocastico, quindi valutato su un modello di probabilità.

e) Vedi sopra. Hai solo meno possibilità che succeda, ma succede.

Obrigado
18-10-2013, 20:13
@Vul

http://i.imgur.com/b2ttBBh.jpg
http://i.imgur.com/QGLGc73.jpg
http://i.imgur.com/rroc9bK.jpg


la soluzione:
http://i.imgur.com/tTbdoxu.jpg

The_SaN
18-10-2013, 20:18
La seconda immagine è perfetta.

Obrigado
18-10-2013, 20:22
La seconda immagine è perfetta.

finalmente sara' possibile giocare a framerate variabile senza troppi problemi!

appleroof
18-10-2013, 20:22
Lo sai come funziona il filtro v-sync?
Lo sai cosa fa il buffer, doppio o triplo?

secondo me no, ma parla sempre come se fosse il massimo esperto di ogni cosa.

egounix
18-10-2013, 20:27
vul vatti ad informare altrimenti crei solo problemi alla comunita'

se capisci un po di inglese

in fondo a questo link ci sta un video.

vedilo


http://www.engadget.com/2013/10/18/nvidia-g-sync/


stai avendo la classica reazioni di chi non vuole capire.

abbassa l'ego e apri occhi e orecchie!


poi per placarti, leggi pure questo articoletto... http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Death-Refresh-Rate

Spettacolo!
Ottimo :D


Sent from DingDingDong (by Gunther) using my Tralala!

The_SaN
18-10-2013, 20:29
secondo me no, ma parla sempre come se fosse il massimo esperto di ogni cosa.Ma il bello è che a leggere questo:

"Dai, ma ti rendi conto di quante cose sciocche hai detto tutte insieme?"

La prima cosa che ho pensato è dove erano finiti i miei 5 anni di ingegneria elettrica, dove mi son fatto un mazzo così a studiare Segnali e Sistemi, Microelettronica e Programmazione, Processi Stocastici ecc.

Obrigado
18-10-2013, 20:31
Ma il bello è che a leggere questo:

"Dai, ma ti rendi conto di quante cose sciocche hai detto tutte insieme?"

La prima cosa che ho pensato è dove erano finiti i miei 5 anni di ingegneria elettrica, dove mi son fatto un mazzo così a studiare Segnali e Sistemi, Microelettronica e Programmazione, Processi Stocastici ecc.

ahahahahahahahhha!

appleroof
18-10-2013, 20:33
Ma il bello è che a leggere questo:

"Dai, ma ti rendi conto di quante cose sciocche hai detto tutte insieme?"

La prima cosa che ho pensato è dove erano finiti i miei 5 anni di ingegneria elettrica, dove mi son fatto un mazzo così a studiare Segnali e Sistemi, Microelettronica e Programmazione, Processi Stocastici ecc.

:asd: :asd: :asd:

Dany16vTurbo
18-10-2013, 20:37
Una curiosità, il tearing dipende anche dal motore grafico del gioco? Da quel poco che so no, però sopratutto nei giochi un pò vecchiotti noto spesso un tearing fastidioso, in quelli degli ultimi anni poco nulla. Un caso?

eXeS
18-10-2013, 20:41
Non ve lo ripeterò più, speravo la prima volta bastasse.

a) Il vsync non causa input lag.

b) A causare l'input lag "da vsync" è il buffering che è di default impostato di default in accoppiamento con il vsync nelle directx dalla 8.1 in poi. Per convincervene vi basta togliere pre render e buffering e lasciare vsync attivato in giochi in cui l'input lag si nota notevolmente (esempio i picchiaduro)

c) il vsync di default elimina tearing


Vero


d) tearing sotto alla frequenza di refresh è assolutamente impossibile da notare ad occhio umano, e anche quello da eccesso di fps è molto difficile da vedere (dovete avere monitor terribili)


Falso, sperimentato personalmente, e il framerate limiter di RivaTunerStatisticsServer mi ha consentito di verificarlo con framerate cappato a 55, 60 e 65.

Tecnicamente la ragione è la seguente: poichè l'intervallo di tempo in cui il contenuto del front-buffer viene trasferito al display non è nullo, se in questo intervallo di tempo la gpu va ad alterarne il contenuto scrivendoci un nuovo frame, considera che l'operazione ha una durata irrisoria in quanto corrisponde allo swap del back-buffer sul front-buffer, hai tearing.

Al di sotto della frequenza di refresh il tearing non l'aversti solamente se l'engine usasse un solo buffer, ma visti i vantaggi che il double-buffering si porta appresso, non credo esistano titoli che usano un solo buffer per il rendering.

appleroof
18-10-2013, 20:43
Una curiosità, il tearing dipende anche dal motore grafico del gioco? Da quel poco che so no, però sopratutto nei giochi un pò vecchiotti noto spesso un tearing fastidioso, in quelli degli ultimi anni poco nulla. Un caso?

non credo, magari dai driver ma non ho mai sentito che un motore possa creare più o meno tearing di un altro...magari aspetta qualcuno che ne sa di più :D

appleroof
18-10-2013, 20:47
Cmq da quanto pare di aver capito, la svolta del g-sync è che "lega" il refresh al fr generato dalla vga in maniera dinamica, ecco perché rende inutile il vsync e, di conseguenza, i fenomeni di lag e tutti gli effetti collaterali annessi e connessi....voi come l'avete capita?

The_SaN
18-10-2013, 20:47
Una curiosità, il tearing dipende anche dal motore grafico del gioco? Da quel poco che so no, però sopratutto nei giochi un pò vecchiotti noto spesso un tearing fastidioso, in quelli degli ultimi anni poco nulla. Un caso?Non credo...più che altro siccome fai una valanga di fps, hai più probabilità di vederlo.

Però di questo non sono sicuro, visto che non ho mai fatto nulla di diverso da un'interfaccia grafica DOS o qualche rendering OpenGL.

egounix
18-10-2013, 20:57
Cmq da quanto pare di aver capito, la svolta del g-sync è che "lega" il refresh al fr generato dalla vga in maniera dinamica, ecco perché rende inutile il vsync e, di conseguenza, i fenomeni di lag e tutti gli effetti collaterali annessi e connessi....voi come l'avete capita?

Come a tia


Sent from DingDingDong (by Gunther) using my Tralala!

appleroof
18-10-2013, 21:04
Come a tia


Sent from DingDingDong (by Gunther) using my Tralala!

bonu! :D

Vul
18-10-2013, 21:07
Cmq da quanto pare di aver capito, la svolta del g-sync è che "lega" il refresh al fr generato dalla vga in maniera dinamica, ecco perché rende inutile il vsync e, di conseguenza, i fenomeni di lag e tutti gli effetti collaterali annessi e connessi....voi come l'avete capita?

I miracoli della promozione e del marketing.

Fino ad oggi pomeriggio nessuno aveva nessun tipo di tearing (tranne in giochi datati dove non avevi vsync e facevi gozziliardi di fps)e stasera il vsync è diventato obsoleto e causa di input lag quando vi ho già spiegato che a causare l'input lag è il buffering e il prereder che sulle directx viene attivato di default con il vsync (e per convincervene vi basta farvi un giro su tutti i forum di picchiaduro al mondo dove i problemi di input lag e tearing sono discussi in un post su due).

AMD integra nuove api e accelerazione audio, Nvidia risponde tirando fuori un problema assolutamente inutile e spacciandolo come necessità su monitor da 144 hz.

La promozione non ha mai fine.

Vul
18-10-2013, 21:24
Qui una spiegazione più teorica/tecnica.

NoVSync DB - unlimited number of tears based on how many times actual fps is higher than LCD refresh rate [Hz] + 1 for bad LCD timing sync (can be hidden by chance)
NoVSync TB - One tear for bad LCD timing sync (can be hidden by chance)
VSync DB - unlimited number of tears based on how many times actual fps is higher than LCD refresh rate [Hz]
VSync TB - No tearing

As for delay (lag) lets make model situation of 50Hz to make it simple:
Triple Buffer has 2 backbuffers:
Backbuffer 1 is fully rendered and is "Aging", while Backbuffer 2 "Split" is being overwritten and becomes Aging buffer with full content and BB1 starts it's overwrite.
Once "Aging" buffer is flipped, "Split" buffer completes its render circle and starts aging while BB2 (previously FB memory region) is rendered again and again to have as new data as possible.
You can imagine is as One complete image and second image which has bottom half newer than full image with upper half which is from present time.

Without VSync Aging period is out of business so technically time delay is not increased.
With v SYnc:
Monitor refreshes every 20ms. If new image (aging buffer) is ready on refresh it's flipped. Lets have it always ready since he have powerful PC capable to do 100fps.
Whats happening in BBs in those 20ms after flip:
Once BB2 is not half older/new but just new, it starts aging. Ready time at 100fps system is 0.01 ~ 10ms since it could be at last pixel of image.
BB1 is new halved buffer half blank half rendered at 1st it will take 10ms for it's filling.
Afterwards circle continues with BB2 again. Till monitor 20ms cycle goes around and asks for data. Which are not provided from Split buffer, but from "Aging" buffer.
At this model at time of Monitor refresh "Aging" buffer is 10~20ms old, while "Split" buffer is old between 0.01~10ms but contains proportionally older data. (at 5ms it has 50% new content and 50% content older than "Aging" buffer.)

While double buffer only have that "Split" buffer which in reality is always partially filled with older and newer data.
Since we had model with 100fps system, upper part is new image and lower part is 10ms older image.
So situation vary between 2 extremes At time of flip:
1) New part is just 1 pixel and that is 0.01ms old. All bellow is from previous image and is therefore 10.01ms old.
2) New Part is covering all except 1 pixel, it's new but rendering of all those pixels took 9.99ms anyway. And last pixel from previous image is 20ms old.
Usual situation:
upper 50% rendered: New part is 5ms old since it took that much time to render 1/2 of image, lower part is 15ms old.

If you average age of each pixel you would get to 10ms with DB with nasty 10ms difference somewhere in middle at any time.
While TB age of ready to flip buffer ("Aging" one) is in such situation between 10~20ms, averaging to 15ms age.

So it's not really correct to add one whole frame time to TB process, but still it is increasing lag by 1/(2*FPS) [s]. So on system with 60Hz LCD and HW capable to do average 60fps, TB adds in average 8.3ms instead of stated 16.7ms.
And real world tearing behaves differently than theoretical one too. And varies between intel/AMD/nVidia.

E' il triplo buffering a causare l'input lag, non il vsync e qui c'è la teoria dietro.
Il vsync senza triplo buffering non ha alcun input lag, il vsync normale da ancora tearing, ma annulla l'input lag.

Arriviamo al nocciolo della questione (il supposto input lag, vale anche per l'esempio con vsync ma con tearing):

Triplo buffering senza vsync: nessun tearing, ma in caso di sincronizzazzione veramente sfigata potete avere un intero frame di ritardo (che sono 16 ms a 60 hz, 8 ms a 120 hz, 6,9 ms a 144 hz, ma questo è l'esempio estremo in cui il monitor riceve ad un clock costante i frame generati 1/144 secondi prima).

Spero vi rendiate conto in ogni caso di cosa stiamo parlando e di che problema inutile ha sollevato nvidia, talmente inutile che la gente tira fuori problemi che non si era mai accorta di avere e che non comprende nemmeno esattamente da dove derivano.

Phenomenale
18-10-2013, 21:30
Che mi prenda un colpo, quei mattacchioni di Nvidia lo hanno fato davvero!!!
Hanno presentato la nuova titan ultra, pardon, intendevo la GTX780TI.

Dopo 4 mesi la venderanno tutti però, escono le Maxwell... :fiufiu:

Max775
18-10-2013, 21:33
Non ve lo ripeterò più, speravo la prima volta bastasse.

a) Il vsync non causa input lag.

b) A causare l'input lag "da vsync" è il buffering che è di default impostato di default in accoppiamento con il vsync nelle directx dalla 8.1 in poi. Per convincervene vi basta togliere pre render e buffering e lasciare vsync attivato in giochi in cui l'input lag si nota notevolmente (esempio i picchiaduro)

c) il vsync di default elimina tearing

d) tearing sotto alla frequenza di refresh è assolutamente impossibile da notare ad occhio umano, e anche quello da eccesso di fps è molto difficile da vedere (dovete avere monitor terribili)

e) associare le parole tearing a monitor da 120 hz è la fiera della promozione e del fumo negli occhi


a) FALSO. Con il vsync e' il monitor a dettare quando la schermata viene aggiornata, indipendentemente dal fatto che la GPU ha gia' renderizzato il prossimo frame o prossimi 3 frames (con triple buffer).

b) FALSO. Il buffering dei frame attenua leggermente il lag, ma la GPU dovra' sempre e comunque aspettare il refresh del monitor.

c) VERO, pero' e' un compromesso (vedi a e b)

d) FALSO. Guarda qui:

https://www.youtube.com/watch?v=KZyhCKH8IbQ

Se te la cavi con l'inglese guardati tutta la spiegazione, altrimenti vai al 9:00 dove si vede chiaramente il demo girare a fps variabili tra 40 a 60 fps. Sullo schermo a sinistra (con refresh a 60Hz) si vede chiaramente il tearing sulle colonne, mentre a destra lo schermo usa G-sync con refresh che varia al variare del frame rate. Noti differenze?

e) FALSO. senza vsync il tearing c'e' sempre. Puo' essere piu' o meno evidente a seconda di cosa si muove sullo schermo, ma se fai un panning laterale il tearing lo si nota indipendentemente dal refresh rate.

killeragosta90
18-10-2013, 21:34
ehh...sarebbe ottimo ma la vedrei quasi impossibile guardando la tebella, forse la "780 oc" sarebbe molto interessante, prezzo dell'attuale e prestazioni migliori, bisogna vedere poi con che margine ulteriore di oc sennò rimarrebbe sempre meglio la 780 attuale prezzo/prestazioni...ricordiamo cmq che sono sempre e solo speculazioni per ora



tu a furia di aspettare non compri mai nulla però :ciapet:

...o meglio, compro e rivendo quasi subito :muro: Ormai sono mesi che sto senza vga, è una malattia :cry: mi devo decidere! :stordita:

appleroof
18-10-2013, 21:37
I miracoli della promozione e del marketing.

cut

http://www.youtube.com/watch?v=fa3a50pLmu8

appleroof
18-10-2013, 21:42
cut
Se te la cavi con l'inglese guardati tutta la spiegazione, altrimenti vai al 9:00 dove si vede chiaramente il demo girare a fps variabili tra 40 a 60 fps. Sullo schermo a sinistra (con refresh a 60Hz) si vede chiaramente il tearing sulle colonne, mentre a destra lo schermo usa G-sync con refresh che varia al variare del frame rate. Noti differenze?

cut

è tutta una montatura della massoneria del marketing, di cui Sweeny, Carmack & soci ne sono i gran maestri :asd: :asd:

killeragosta90
18-10-2013, 21:52
Personalmente ho avuto un orgasmo multiplo con questi annunci.......780 TI e g-sync??? Waaa :D

Max775
18-10-2013, 21:57
è tutta una montatura della massoneria del marketing, di cui Sweeny, Carmack & soci ne sono i gran maestri :asd: :asd:

Appunto! Perché quei tre "nessuno" sul palco sono lì a fare le vallette per nvidia senza rendersi conto che il vul di turno ha già smascherato la sceneggiata marketing.;)

Sent from my Nexus 7 using Tapatalk 4

appleroof
18-10-2013, 22:01
Appunto! Perché quei tre "nessuno" sul palco sono lì a fare le vallette per nvidia senza rendersi conto che il vul di turno ha già smascherato la sceneggiata marketing.;)

Sent from my Nexus 7 using Tapatalk 4

:rotfl:

liberato87
18-10-2013, 22:06
è tutta una montatura della massoneria del marketing, di cui Sweeny, Carmack & soci ne sono i gran maestri :asd: :asd:

Da noi verranno rappresentati da giorgio mastrota :D

sickofitall
18-10-2013, 22:38
https://www.youtube.com/watch?v=KZyhCKH8IbQ


non dovevi linkare questo filmato, ora ho la scimmia a 1000 :stordita: :help:

liberato87
18-10-2013, 22:40
non dovevi linkare questo filmato, ora ho la scimmia a 1000 :stordita: :help:

quoto :)
ottimo link :D

Max775
18-10-2013, 23:36
Questo è ciò che ha detto Anand (un altro "nessuno" che sicuramente non sa come funziona il v-sync ;-) ) a proposito della dimostrazione di g-sync:

http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

"Switching gears NVIDIA also ran a real world demonstration by spinning the camera around Lara Croft in Tomb Raider. The stutter/tearing effects weren't as pronounced as in NVIDIA's test case, but they were both definitely present on the traditional system and completely absent on the G-Sync machine. I can't stress enough just how smooth the G-Sync experience was, it's a game changer. "

Sent from my Nexus 7 using Tapatalk 4

liberato87
18-10-2013, 23:53
E' tutto sporco marketing! chi è anandtech?!

bronzodiriace
19-10-2013, 00:18
OK, vediamo sta 780ti (si conosce già qualcosa sulla ram video?) e poi decidiamo tra 780 e 780ti con relativo monitor con punto G.

Vul
19-10-2013, 01:38
Io vi ho messo anche lo spiegone teorico sul come funzionano triplo buffering e vsync e chi è dei due a causare l'input lag:

http://www.hwupgrade.it/forum/showpost.php?p=40135852&postcount=9094

Più di questo non posso farci, se non avete chiara l'idea di come funzionino le tecnologie di cui parlate (e peggio gente che viene pagata per parlarne e non distingue correttamente fra le due).

Tra l'altro, nota a termine, visto che tirate in ballo lo stuttering, lo stuttering è il fenomeno di scattini che avviene quando si scende sotto i 60 fps ed è causato dal fatto che i frame rappresentabili (se si ha vsync attivo) possono essere solo multipli o sottomultipli di 60 (ovviamente parliamo di un monitor da 60 hz) per cui anche se si scende a 58 fps i frame sono di fatto 30. Mai chiesti perchè in BF3 quando c'è un esplosione vi sembra che il sistema faccia uno scattino anche se in effetti gli fps non sono calati così tanto da giustificarlo? Il responsabile è quell'attimo in cui gli fps sono scesi per c'è stato un distacco netto di fluidità. "Ah ecco lo vedi Vul, non era marketing il gsync è la rivoluzioooone". No, Nvidia ha già implementato la tecnologia di adaptive vsync (per cui il vsync si disattiva automaticamente se gli fps scendono sotto la frequenza di aggiornamento del monitor) oltre un anno fa.

Ma la cosa ridicola sono i recensori di anandtech:

NVIDIA then dropped the frame rate on both systems down to 50 fps, once again static. The traditional system started to exhibit stuttering as we saw the effects of having a mismatched GPU frame rate and monitor refresh rate. Since the case itself was pathological in nature (you don't always have a constant mismatch between the two), the stuttering was extremely pronounced. The same demo on the g-sync system? Flawless, smooth

Il che è molto interessante e figo, ma è una tecnologia già presente e si chiama adaptive vsync (notare il link preso dal sito ufficiale nvidia e non da quello del fatto quotidiano).

http://www.geforce.com/hardware/technology/adaptive-vsync

Leggetevi questo link, di un anno e mezzo fa di nvidia:

http://www.geforce.com/hardware/technology/adaptive-vsync/technology

Non vi ricorda forse la presentazione di oggi? ;) E guarda un pò è una tecnologia presente nelle vostre (nostre) da 18 mesi. Ed è talmente ininfluente nella vita di tutti i giorni che nemmeno vi siete accorti di avere il magico vsync adattivo di nvidia da oltre un anno nelle schede..? Ma come, eppure da oggi a sentirvi parlare sembra la rivoluzione del secolo e vedete stutter e tearing ovunque..

(preciso che amd non ha nessuna tecnologia di vsync adattivo).

La parte sul tearing onestamente non l'ho capita e come al solito presenta la solita confusione di chi presenta tecnologie in maniera semplificata. Hanno tolto vsync ed entrambe avevano tearing...quindi? Non è che AMD non conosce il vsync. Che poi vedere tearing su un monitor da 144 hz nota bene con una 650 ti su Tomb Raider. Che poi 1/144 = 6ms, ma di quanto vi potete essere girati di visuale in 6 ms perchè ci siano differenze così notevoli da mostrare tearing tangibile...?In pratica era una 650ti con il motore di una Ferrari 430 che faceva quanto 200 fps? :V

In parole povere ciò che si evince dalla presentazione è semplicemente che Nvidia ha ripresentato di nuovo il vsync adattivo cambiandogli nome così come AMD ha ripresentato gli EAX chiamandoli incredibile tecnologia True Audio..

Dai stanno facendo entrambe la gara al riciclare feature di sempre e spacciandole per necessità impellenti almeno voi che seguite l'hardware non ci cascate.

Che poi vediamo chi di voi mi indovina perchè il problema dell'immagine a sinistra non ha niente a che vedere con stuttering/tearing/input lag/fps/vsync e non è legato in alcun modo alla scheda video e qual'è il problema che crea quel difetto nell'immagine (quando lo capirete verrete presi da tristezza come me):

http://images.anandtech.com/doci/7436/DSC_3607.JPG

sickofitall
19-10-2013, 07:21
E' tutto sporco marketing! chi è anandtech?!

gomblotto!!! :asd:

appleroof
19-10-2013, 09:00
Io vi ho messo anche lo spiegone teorico sul come funzionano triplo buffering e vsync e chi è dei due a causare l'input lag:

http://www.hwupgrade.it/forum/showpost.php?p=40135852&postcount=9094

Più di questo non posso farci, se non avete chiara l'idea di come funzionino le tecnologie di cui parlate (e peggio gente che viene pagata per parlarne e non distingue correttamente fra le due).

Tra l'altro, nota a termine, visto che tirate in ballo lo stuttering, lo stuttering è il fenomeno di scattini che avviene quando si scende sotto i 60 fps ed è causato dal fatto che i frame rappresentabili (se si ha vsync attivo) possono essere solo multipli o sottomultipli di 60 (ovviamente parliamo di un monitor da 60 hz) per cui anche se si scende a 58 fps i frame sono di fatto 30. Mai chiesti perchè in BF3 quando c'è un esplosione vi sembra che il sistema faccia uno scattino anche se in effetti gli fps non sono calati così tanto da giustificarlo? Il responsabile è quell'attimo in cui gli fps sono scesi per c'è stato un distacco netto di fluidità. "Ah ecco lo vedi Vul, non era marketing il gsync è la rivoluzioooone". No, Nvidia ha già implementato la tecnologia di adaptive vsync (per cui il vsync si disattiva automaticamente se gli fps scendono sotto la frequenza di aggiornamento del monitor) oltre un anno fa.

Ma la cosa ridicola sono i recensori di anandtech:

NVIDIA then dropped the frame rate on both systems down to 50 fps, once again static. The traditional system started to exhibit stuttering as we saw the effects of having a mismatched GPU frame rate and monitor refresh rate. Since the case itself was pathological in nature (you don't always have a constant mismatch between the two), the stuttering was extremely pronounced. The same demo on the g-sync system? Flawless, smooth

Il che è molto interessante e figo, ma è una tecnologia già presente e si chiama adaptive vsync (notare il link preso dal sito ufficiale nvidia e non da quello del fatto quotidiano).

http://www.geforce.com/hardware/technology/adaptive-vsync

Leggetevi questo link, di un anno e mezzo fa di nvidia:

http://www.geforce.com/hardware/technology/adaptive-vsync/technology

Non vi ricorda forse la presentazione di oggi? ;) E guarda un pò è una tecnologia presente nelle vostre (nostre) da 18 mesi. Ed è talmente ininfluente nella vita di tutti i giorni che nemmeno vi siete accorti di avere il magico vsync adattivo di nvidia da oltre un anno nelle schede..? Ma come, eppure da oggi a sentirvi parlare sembra la rivoluzione del secolo e vedete stutter e tearing ovunque..

(preciso che amd non ha nessuna tecnologia di vsync adattivo).

La parte sul tearing onestamente non l'ho capita e come al solito presenta la solita confusione di chi presenta tecnologie in maniera semplificata. Hanno tolto vsync ed entrambe avevano tearing...quindi? Non è che AMD non conosce il vsync. Che poi vedere tearing su un monitor da 144 hz nota bene con una 650 ti su Tomb Raider. Che poi 1/144 = 6ms, ma di quanto vi potete essere girati di visuale in 6 ms perchè ci siano differenze così notevoli da mostrare tearing tangibile...?In pratica era una 650ti con il motore di una Ferrari 430 che faceva quanto 200 fps? :V

In parole povere ciò che si evince dalla presentazione è semplicemente che Nvidia ha ripresentato di nuovo il vsync adattivo cambiandogli nome così come AMD ha ripresentato gli EAX chiamandoli incredibile tecnologia True Audio..

Dai stanno facendo entrambe la gara al riciclare feature di sempre e spacciandole per necessità impellenti almeno voi che seguite l'hardware non ci cascate.

Che poi vediamo chi di voi mi indovina perchè il problema dell'immagine a sinistra non ha niente a che vedere con stuttering/tearing/input lag/fps/vsync e non è legato in alcun modo alla scheda video e qual'è il problema che crea quel difetto nell'immagine (quando lo capirete verrete presi da tristezza come me):

http://images.anandtech.com/doci/7436/DSC_3607.JPG

tutto mi era capitato di leggere sui forum, tranne che anandtech fosse una rivista online a libro paga nvidia :doh:

allora, io ci riprovo per l'ultima perchè forse siamo partiti con il piede sbagliato (cit. :asd: )

il vsync adattativo è una gran bella feature, infatti io dalla 680 in poi la uso fissa nel pannello di controllo, tranne quando mi voglio divertire con qualche bench/prova di oc per ovvi motivi (qualcuno giura di vedere tearing anche sotto la frequenza nominale del monitor, sebbene mi pareva impossibile data la mia esperienza di ogni giorno, una volta è capitato pure a me con vsync adattivo abilitato, mi pare in TR adesso non ricordo con precisione quale gioco fosse)

questo g-sync fà un passo avanti perchè sincronizzando il refresh del monitor con il FR generato dalla scheda, elimina proprio il bisogno del vsync (con tutti i pro e i contro che comporta, TB nonTB, lag non lag etc) a monte: What the G-Sync modules does is let the Kepler graphics card handle the monitor timing instead of the monitor controlling it capito?

Inoltre sembra porre fine ad ogni minimo problema di frame pacing e stuttering.

Poi è ovvio arriveranno recensioni e prove tecniche, e a meno che la mafia verde non abbia ormai conquistato il mondo la bontà o meno di questa soluzione verrà fuori, nel frattempo si prende atto di quella che pare un'ottima feature (forse un pò limitante perchè hw) senza strapparsi i capelli dalla gioia ma nemmeno frustandosi con il cilicio in penitenza.

appleroof
19-10-2013, 09:29
primo monitor con g-sync, Asus come si era capito, prezzo sui 400$

http://www.legitreviews.com/asus-announces-adoption-nvidia-g-sync-technology_126743

Vul
19-10-2013, 09:41
tutto mi era capitato di leggere sui forum, tranne che anandtech fosse una rivista online a libro paga nvidia :doh:

allora, io ci riprovo per l'ultima perchè forse siamo partiti con il piede sbagliato (cit. :asd: )

il vsync adattativo è una gran bella feature, infatti io dalla 680 in poi la uso fissa nel pannello di controllo, tranne quando mi voglio divertire con qualche bench/prova di oc per ovvi motivi (qualcuno giura di vedere tearing anche sotto la frequenza nominale del monitor, sebbene mi pareva impossibile data la mia esperienza di ogni giorno, una volta è capitato pure a me con vsync adattivo abilitato, mi pare in TR adesso non ricordo con precisione quale gioco fosse)

questo g-sync fà un passo avanti perchè sincronizzando il refresh del monitor con il FR generato dalla scheda, elimina proprio il bisogno del vsync (con tutti i pro e i contro che comporta, TB nonTB, lag non lag etc) a monte: What the G-Sync modules does is let the Kepler graphics card handle the monitor timing instead of the monitor controlling it capito?

Inoltre sembra porre fine ad ogni minimo problema di frame pacing e stuttering.

Poi è ovvio arriveranno recensioni e prove tecniche, e a meno che la mafia verde non abbia ormai conquistato il mondo la bontà o meno di questa soluzione verrà fuori, nel frattempo si prende atto di quella che pare un'ottima feature (forse un pò limitante perchè hw) senza strapparsi i capelli dalla gioia ma nemmeno frustandosi con il cilicio in penitenza.

Non ho concluso nvidia paghi nessuno.
Ho detto che quello che ha scritto la news su anandtech si è dimenticato che tutto ciò che ha descritto è presente da più di un anno su schede nvidia.

E comunque aspetto chi mi dica perchè ciò che succede in questa foto non ha niente a che vedere con le schede video e di cosa si tratti :D:

http://images.anandtech.com/doci/7436/DSC_3607.JPG

Sia chiaro la mia non è voglia di far polemica, sono solo incazzato come consumatore con AMD e Nvidia che tirano fuori feature/tecnologie trite e ritrite spacciandole come necessità e facendo vedere alle persone problemi che non si erano mai accorte di avere. Non sanno più cosa inventarsi per convincerci a cambiare schede video, la verità è questa. E fa particolarmente ridere come presentino questi non problemi su monitor da 144 hz come il vg248qe sul quale vedere tearing o quell'effetto scia con occhio umano è proprio impossibile (il motivo per cui l'immagine a sx presenta scia è perchè non c'è attivato il trace free nelle impostazioni monitor non a presunti stutter/vsync/tear che non generano immagini "sfaciolanti", il problema è palesemente derivante da settings monitor che sembrano fatti ad hoc differentemente dal monitor accanto).

Qui potete vedere un immagine di un monitor da 120hz che presenta e non presenta il problema scia:

http://www.tftcentral.co.uk/images/benq_xl2420t/ama_comparison.jpg

Cosa cambia? Le impostazioni d'accelerazione o quello che negli ips è più comunemente chiamato overdrive.

Insomma, nell'immagine i monitor non sono settati nello stesso modo e io la trovo una cosa assolutamente evidente, dato che le schede video generano immagini perfette e senza scie, problemi simili derivano da settings errati del monitor che sembra intenzionalmente impostato per avere un terrificante tempo di risposta (peccato che il monitor sia un 144 hz da gaming non un acerozzo da 60 euro).

appleroof
19-10-2013, 09:53
Non ho concluso nvidia paghi nessuno.
Ho detto che quello che ha scritto la news su anandtech si è dimenticato che tutto ciò che ha descritto è presente da più di un anno su schede nvidia.

E comunque aspetto chi mi dica perchè ciò che succede in questa foto non ha niente a che vedere con le schede video e di cosa si tratti :D:

http://images.anandtech.com/doci/7436/DSC_3607.JPG

Sia chiaro la mia non è voglia di far polemica, sono solo incazzato come consumatore con AMD e Nvidia che tirano fuori feature/tecnologie trite e ritrite spacciandole come necessità e facendo vedere alle persone problemi che non si erano mai accorte di avere. Non sanno più cosa inventarsi per convincerci a cambiare schede video, la verità è questa. E fa particolarmente ridere come presentino questi non problemi su monitor da 144 hz come il vg248qe sul quale vedere tearing o quell'effetto scia con occhio umano è proprio impossibile.

però qui non devi cambiare alcuna scheda video :D il g-sync è compatibile con vga dalla gtx650 in su (quindi pure la tua)

cmq, ripeto, io finora non ho mai visto una soluzione hw come questa che sincronizza perfettamente il refresh del monitor alla vga, non mi pare una cosa trita e ritrita poi mica voglio convincerti ci mancherebbe :boh:

Giustaf
19-10-2013, 10:00
ma...parlando di cose serie....

che prezzo vi aspettate per la 780ti?? :oink: :oink:

appleroof
19-10-2013, 10:02
non ho capito ancora una cosa, funzionerà anche a 120hz e in 3d?

per il refresh si, per il 3d non saprei ancora...


che prezzo vi aspettate per la 780ti?? :oink: :oink:

ci si aspetta 650$ e taglio al prezzo della 780 attuale...

Vul
19-10-2013, 10:02
ma...parlando di cose serie....

che prezzo vi aspettate per la 780ti?? :oink: :oink:

Se Nvidia l'ha definita "l'anti 290x" la fascia di prezzo dev'esser quella.

Altrimenti non è un anti 290x ma una scheda video ultra veloce e basta :D

sickofitall
19-10-2013, 10:04
non ho capito ancora una cosa, funzionerà anche a 120hz e in 3d?

si, fino a 120hz

http://i.imgur.com/YN9cQ4bl.jpg (http://imgur.com/YN9cQ4b)

appleroof
19-10-2013, 10:08
The NVIDIA GeForce GTX 780 Ti is not the cut down GTX 770 Ti we all thought NVIDIA would announce but rather a faster edition of the GeForce GTX 780 which could feature the same specifications as featured on the Quadro K6000 graphic card with 2880 Cuda cores and 12 GB of GDDR5 memory running across a 384-bit interface or it could have one more SMX module enabled resulting in 2496 Cuda cores while keeping keeping the same memory configuration.

http://wccftech.com/nvidia-announces-geforce-gtx-780-ti-gk110-enhanced-gamers-launches-november/

FroZen
19-10-2013, 10:11
Bhe l'idea è tanto genaile quanto semplice :eek:

Ma quindi si deve cambiare il monitor? :mbe:

egounix
19-10-2013, 10:16
Bhe l'idea è tanto genaile quanto semplice :eek:

Ma quindi si deve cambiare il monitor? :mbe:

Col modulo gsync?
Se non ho capito male, se il monitor è compatibile, basta il modulo... Il problema è... Andrà saldato, o troveranno il modo di sfruttarlo senza mod?

Chi ha tipo... Hemmm... 5 monitors e va già per il sesto... Che deve fare? :stordita:


Sent from DingDingDong (by Gunther) using my Tralala!

mikael84
19-10-2013, 10:18
The NVIDIA GeForce GTX 780 Ti is not the cut down GTX 770 Ti we all thought NVIDIA would announce but rather a faster edition of the GeForce GTX 780 which could feature the same specifications as featured on the Quadro K6000 graphic card with 2880 Cuda cores and 12 GB of GDDR5 memory running across a 384-bit interface or it could have one more SMX module enabled resulting in 2496 Cuda cores while keeping keeping the same memory configuration.

http://wccftech.com/nvidia-announces-geforce-gtx-780-ti-gk110-enhanced-gamers-launches-november/

Correggimi se sbaglio, praticamente dovrebbe riprendere la quadro, quindi 12gb di VRAM e 2880ST ma non si esclude la possibilita'di disabilitare alcuni SMX mantendo il quantitativo di VRAM:)

FroZen
19-10-2013, 10:19
Chi ha tipo... Hemmm... 5 monitors e va già per il sesto... Che deve fare? :stordita:


Bhe li è un problema non di nvidia ma della neuro.....

FroZen
19-10-2013, 10:19
Correggimi se sbaglio, praticamente dovrebbe riprendere la quadro, quindi 12gb di VRAM e 2880ST ma non si esclude la possibilita'di disabilitare alcuni SMX mantendo il quantitativo di VRAM:)

Speriamo di aver capito male :rotfl:

appleroof
19-10-2013, 10:23
Correggimi se sbaglio, praticamente dovrebbe riprendere la quadro, quindi 12gb di VRAM e 2880ST ma non si esclude la possibilita'di disabilitare alcuni SMX mantendo il quantitativo di VRAM:)

i 12gb mi paiono improbabili, i 2880st molto meno :fagiano:

appleroof
19-10-2013, 10:25
da quanto ho capito si, solo un monitor asus lo supporta ( con aggiunta di un pezzo esterno )...

certo che se fosse compatibile comprando solo un aggeggino esterno.... :sofico:

Ci viene detto che verranno commercializzati dei kit di espansione che andranno ad aggiungere il modulo G-Sync ai monitor già esistenti.

http://www.gamemag.it/news/nvidia-fuori-dalle-console-next-gen-per-lavorare-sul-pc-e-spiega-come-funziona-il-g-sync_49270.html

:boh:

<Masquerade>
19-10-2013, 10:32
Ci viene detto che verranno commercializzati dei kit di espansione che andranno ad aggiungere il modulo G-Sync ai monitor già esistenti.

http://www.gamemag.it/news/nvidia-fuori-dalle-console-next-gen-per-lavorare-sul-pc-e-spiega-come-funziona-il-g-sync_49270.html

:boh:

speriamo x G-Sync, anche nel supporto di pannelli ips con elevata ris. allora lo prenderei.

mikael84
19-10-2013, 10:33
Speriamo di aver capito male :rotfl:

Infatti:asd:

i 12gb mi paiono improbabili, i 2880st molto meno :fagiano:

A me sembra impossibile, una simile versione costerebbe un'occhio della testa:)

appleroof
19-10-2013, 10:33
non ci resta che sperare in una ampia compatibilità allora...

non saprei..se fanno il modulo compatibile e non costa una fortuna ci farò senz'altro un pensierino...ma non penso proprio che personalmente prenderò un altro monitor fullhd che abbia il modulo integrato, più avanti, quando deciderò di prendere un monitor 1440p o addirittura 4k, ne troverò uno con il modulo allora al 99% lo prenderò (al di là della vga che poi avrò nel case, siccome un monitor mi dura anni e nel tempo posso tornare ai verdi se avessi fatto una parentesi con i rossi, meglio averlo che non...)


speriamo x G-Sync, anche nel supporto di pannelli ips con elevata ris. allora lo prenderei.

esatto, letto dopo :D

<Masquerade>
19-10-2013, 10:34
Asus è tra le marche che supporteranno G-Sync.
quindi immagino che il PB278Q presto lo faranno anche predisposto x il G-Sync.

sickofitall
19-10-2013, 10:38
Asus è tra le marche che supporteranno G-Sync.
quindi immagino che il PB278Q presto lo faranno anche predisposto x il G-Sync.

già, questa tecnologia spero non sia riservata solo ai monitor gaming da 120hz

<Masquerade>
19-10-2013, 10:52
già, questa tecnologia spero non sia riservata solo ai monitor gaming da 120hz

non vedo perché no, se ho capito bene sincronizza n di fps al pari di n di hz, così si evitano tanti problemini famosi. può andar bene anche un pannello 60hz

<Masquerade>
19-10-2013, 11:01
che prezzo vi aspettate per la 780ti?? :oink: :oink:

tra i 549 e 649€

mikael84
19-10-2013, 11:06
tra i 549 e 649€

Sperando che non disabilitino uno SMX e 16 TMU, altrimenti 2496ST mi sembrano pochini. Anche se col clock di una 780 custom si supera mediamente la titan a default

<Masquerade>
19-10-2013, 11:11
Sperando che non disabilitino uno SMX e 16 TMU, altrimenti 2496ST mi sembrano pochini. Anche se col clock di una 780 custom si supera mediamente la titan a default
quoto

slide1965
19-10-2013, 11:11
speriamo x G-Sync, anche nel supporto di pannelli ips con elevata ris. allora lo prenderei.
:mano:

eXeS
19-10-2013, 11:15
già, questa tecnologia spero non sia riservata solo ai monitor gaming da 120hz
Secondo me i 60Hz saranno quelli che ne beneficeranno di più, se non ricordo male quando si parlava di tearing associato all'adattivo sul thread di GK104 emerse proprio che la casistica fosse circoscritta ai possessori di display a 60Hz, io ad esempio come vul faccio fatica a trovarne una reale utilità a 120 o 144Hz, per il semplice fatto che l'entità di quanto due frame possono essere diversi dopo 8ms, è sicuramente inferiore di quanto lo saranno dopo 16ms, rendendo quindi il tearing più difficile da percepire con il crescere della frequenza di refresh.

eXeS
19-10-2013, 11:18
:mano:
Ma per i display che avevi deciso di fare, tenere gli ips 1440p, oppure i tn 1080 a 120Hz ?

sickofitall
19-10-2013, 11:22
Secondo me i 60Hz saranno quelli che ne beneficeranno di più, se non ricordo male quando si parlava di tearing associato all'adattivo sul thread di GK104 emerse proprio che la casistica fosse circoscritta ai possessori di display a 60Hz, io ad esempio come vul faccio fatica a trovarne una reale utilità a 120 o 144Hz, per il semplice fatto che l'entità di quanto due frame possono essere diversi dopo 8ms, è sicuramente inferiore di quanto lo saranno dopo 16ms, rendendo quindi il tearing più difficile da percepire con il crescere della frequenza di refresh.

concordo, da 120 a 144 non cambia una mazza, piuttosto dovrebbero costruire schermi con strobe backlight sempre attiva, in modo che da 8ms si passi a 1/2ms, eliminando di fatto il ghosting

Eizo già lo ha fatto, ha 120hz ma arriva a 240hz con questa tecnica, solo che costa una fucilata :stordita:

<Masquerade>
19-10-2013, 11:32
Eizo già lo ha fatto, ha 120hz ma arriva a 240hz con questa tecnica, solo che costa una fucilata :stordita:

piglialo, la DCII @1320 se lo merita un monitor del genere :sborone:

slide1965
19-10-2013, 11:42
Ma per i display che avevi deciso di fare, tenere gli ips 1440p, oppure i tn 1080 a 120Hz ?
Per un paio di settimane ho fatto prove alternando l'asus a 144hz e l'ips e alla fine non c'e stato verso e ho scelto di restare su ips,c'è troppa differenza di qualità per i miei gusti al punto da rendermi indigesto l'utilizzo dell'asus nonostante la miglior fluidità.

Al momento ho tutto in vendita,sia il 144hz che due dei 3 ips che uso per il surround, metto qualcosa da parte e mi preparo per il 2014,non si sa mai che esca un ips 1440p a 120hz con gsync:mc: :sofico: :fagiano: :eek:, magari in bundle con GTA5:sofico: :sofico: :sofico: :sofico:

Vul
19-10-2013, 12:00
tra i 549 e 649€

Nvidia è storicamente più cara di AMD a prestazioni simili. Contando che la 290x verrà lanciata ufficialmente a 650 (é il prezzo reference di MSI ufficiale ad esempio) secondo me saranno almeno 700.

Però se verranno confermati i bench leakati della 290x per cui:

-titan è più veloce a 1080p
-titan è più o meno veloce a 1440p
-titan è più lenta solo in 4k
-titan consuma molto meno e scalda paragonabilmente (almeno in furmark, per quanto possa valere furmark)
-titan si occa leggermente di più (anche se il guadagno prestazionale è identico a 290x)

Beh..Se 780ti è più veloce di Titan la vedo male, quindi o AMD dovrà rivedere al ribasso il prezzo di 290x di qualcosa o 780ti si piazzerà a prezzi superiori a 290x.

In ogni caso dovremmo, da consumatori, dovremmo solo che far festa nel pensare che entro natale entro i 500 euro ci ritroveremo qualche scheduzza da prestazioni simil titan.

AceGranger
19-10-2013, 12:02
Col modulo gsync?
Se non ho capito male, se il monitor è compatibile, basta il modulo... Il problema è... Andrà saldato, o troveranno il modo di sfruttarlo senza mod?

Chi ha tipo... Hemmm... 5 monitors e va già per il sesto... Che deve fare? :stordita:


Sent from DingDingDong (by Gunther) using my Tralala!

e no che non va saldato ! se guardi bene è una scheda ad innesto come il PCI-EX; semplicemente Asus ha iniziato ad implementare il G-Sync nel monitor durante la sua progettazione, ha mandato fuori il monitor con l'aggancio per il moduo; ora bastera comprare la schedina e inserirla; il resto dei monitor usciranno gia con l'adattatore e la scheda inserita.

Vul
19-10-2013, 12:06
piglialo, la DCII @1320 se lo merita un monitor del genere :sborone:

Non sono d'accordo.
Per raggiungere i 144 fps, anche con una 780 DC 2, dovrà comunque scendere di dettagli/filtri e non di poco.

Io fra un IPS a 60 hz da un elevatissima resa colorimetrica, ottima resa dei neri (possibilmente con basso input lag e ottimi tempi di risposta, come un Foris o tanti altri modelli come anche un PB248Q sempre di Asus), qualità dell'immagine nettamente superiore ed un TN a 144 hz non sceglierei mai il secondo (a meno che giocare fps online o altri in cui la reattività sia fondamentale sia per me l'attività principale)

I monitor gaming pagano sempre un trade off e andrebbero comprati se le prestazioni sono più importanti della qualità visiva, della resa colorimetrica e degli angoli di visione ed è per questo che vanno consigliati e comprati da chi è interessato molto più a reattività e prestazioni (gente che gioca parecchio ad fps/picchiaduro/giochi sportivi/guida online dove la reattività è un elemento cruciale). Ma non è che non esistano IPS adatti al gioco, con input lag inesistenti, ottimi tempi di risposta e su cui si gioca altrettanto bene.

Speriamo di vedere fra qualche anno 23/24" ips 1440p e 120hz, ma la strada è ancora lunga.

egounix
19-10-2013, 12:09
e no che non va saldato ! se guardi bene è una scheda ad innesto come il PCI-EX; semplicemente Asus ha iniziato ad implementare il G-Sync nel monitor durante la sua progettazione, ha mandato fuori il monitor con l'aggancio per il moduo; ora bastera comprare la schedina e inserirla; il resto dei monitor usciranno gia con l'adattatore e la scheda inserita.

Ottimo, ne compro 7 allora :asd:


Sent from DingDingDong (by Gunther) using my Tralala!

<Masquerade>
19-10-2013, 12:19
Non sono d'accordo.
cut

questione di gusti.
So che a sick gli piace questa tipologia di monitor, ci si trova meglio per giocare. per questo gli ho scritto quel messaggio.

Vul
19-10-2013, 12:29
leggendo la sua firma non si direbbe :D

liberato87
19-10-2013, 12:31
Non sono d'accordo.
Per raggiungere i 144 fps, anche con una 780 DC 2, dovrà comunque scendere di dettagli/filtri e non di poco.


dipende dal gioco.
e comunque chi cerca reattività preferisce scendere a compromessi. in ogni caso anche avere 100 fissi è tanta roba su un 120hz (ho monitor a 120hz da 4 anni ne sono dipendente).

poi per il monitor ognuno ha i suoi gusti.. io se gioco su un 60hz mi sembra che il pc abbia problemi, mi sembra tutto rallentato.
di contro ho venduto un monitor a 120hz a un mio amico che aveva un ips e ne è rimasto talmente deluso che l ha venduto dopo una settimana :)

<Masquerade>
19-10-2013, 12:31
leggendo la sua firma non si direbbe :D

accidenti, x gaming ha due pannelli uno da 120hz e l'altro da 144hz :asd:
mentre il 1440p lo usa col portatile :asd:

Vul
19-10-2013, 12:32
oops figuraccia, avevo letto solo la parte finale.

Non pensavo avesse tutto questo ben di dio :D

appleroof
19-10-2013, 12:40
So is G-Sync a magic bullet that kills screen-tear and judder with no side-effects whatsoever? The answer there is in the negative. The text on the pendulum in the gazebo demo was the giveaway - crystal-clear at 60fps on both systems, but with evidence of ghosting as the frame-rate dropped down. The lower the frame-rate, the more noticeable the ghosting. However, looking for a similar effect in the Tomb Raider demo proved fruitless - probably because high-frequency detail that took centre-stage to a similar degree wasn't in evidence, along with the fact that the frame-rate never drifted south of 48fps.


e


Crysis 3 running at 2560x1440 on very high settings, with very high textures and 2x SMAA anti-aliasing. Here we're running on GTX Titan and getting performance in the 35-50fps range - a great test for G-Sync. Because v-sync is active in this test, the result is sub-optimal owing to judder. G-Sync would improve frame-rates (because the GPU would not wait for the vertical refresh) and the judder would be completely gone.

questo e altro nell'articolo più approfondito e completo finora sul g-sync:

http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming

sickofitall
19-10-2013, 12:50
piglialo, la DCII @1320 se lo merita un monitor del genere :sborone:

ma figurati, come minimo costerà 2-3000euro e non è certo fatto per il gaming
accidenti, x gaming ha due pannelli uno da 120hz e l'altro da 144hz :asd:
mentre il 1440p lo usa col portatile :asd:
:fagiano:

oops figuraccia, avevo letto solo la parte finale.

Non pensavo avesse tutto questo ben di dio :D
e comunque è sempre una questione di gusti, io ritengo essenziale avere la massima reattività abbinata ai 120hz, inoltre il samsung essendo un signor monitor non ha molto da invidiare a un ips, perche una volta calibrato rende moolto bene (ho un i1 display pro per calibrare)

ti lascio questo video, spero si riesca a capire come mai preferisco un alto refresh :D

https://www.youtube.com/watch?v=Ax8NxWn48tY&feature=youtube_gdata

appleroof
19-10-2013, 12:52
cut
ti lascio questo video, spero si riesca a capire come mai preferisco un alto refresh :D

https://www.youtube.com/watch?v=Ax8NxWn48tY&feature=youtube_gdata

impressionante...tra l'altro mi ha ricordato l'effetto che mi fece il 120hz in firma la prima volta che lo accesi già in 2d (venivo da un s-pva 60hz) : :eek: :p

killeragosta90
19-10-2013, 13:01
The NVIDIA GeForce GTX 780 Ti is not the cut down GTX 770 Ti we all thought NVIDIA would announce but rather a faster edition of the GeForce GTX 780 which could feature the same specifications as featured on the Quadro K6000 graphic card with 2880 Cuda cores and 12 GB of GDDR5 memory running across a 384-bit interface or it could have one more SMX module enabled resulting in 2496 Cuda cores while keeping keeping the same memory configuration.

http://wccftech.com/nvidia-announces-geforce-gtx-780-ti-gk110-enhanced-gamers-launches-november/

Sto avendo delle convulsioni......aaagggghhhhhh......dai che voglio i 2880 cuda cores, il modulo smx abilitato e le versioni costum pompate!

appleroof
19-10-2013, 13:07
Sto avendo delle convulsioni......aaagggghhhhhh......dai che voglio i 2880 cuda cores, il modulo smx abilitato e le versioni costum pompate!

http://3.bp.blogspot.com/_LEWDrCax4LY/TEB1tPIYzlI/AAAAAAAAAog/y8oEuEfSZ3A/s320/stupore.jpg

:asd:

mikael84
19-10-2013, 13:21
Sto avendo delle convulsioni......aaagggghhhhhh......dai che voglio i 2880 cuda cores, il modulo smx abilitato e le versioni costum pompate!

E'impensabile quanto stiano affinando questi transistor:asd:

appleroof
19-10-2013, 13:23
E'impensabile quanto stiano affinando questi transistor:asd:

se fosse in quel modo, è pure merito della maturazione del pp a 28nm (guarda la 290x pure, pare un gioiellino in attesa di vedere il consumo effettivo nelle rece)

Vul
19-10-2013, 13:26
So is G-Sync a magic bullet that kills screen-tear and judder with no side-effects whatsoever? The answer there is in the negative. The text on the pendulum in the gazebo demo was the giveaway - crystal-clear at 60fps on both systems, but with evidence of ghosting as the frame-rate dropped down. The lower the frame-rate, the more noticeable the ghosting. However, looking for a similar effect in the Tomb Raider demo proved fruitless - probably because high-frequency detail that took centre-stage to a similar degree wasn't in evidence, along with the fact that the frame-rate never drifted south of 48fps.


e


Crysis 3 running at 2560x1440 on very high settings, with very high textures and 2x SMAA anti-aliasing. Here we're running on GTX Titan and getting performance in the 35-50fps range - a great test for G-Sync. Because v-sync is active in this test, the result is sub-optimal owing to judder. G-Sync would improve frame-rates (because the GPU would not wait for the vertical refresh) and the judder would be completely gone.

questo e altro nell'articolo più approfondito e completo finora sul g-sync:

http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming

Peccato che il ghosting sia un problema legato alla reattività dei monitor (quanto ci mette il singolo pixel a cambiare colore detta volgarmente) ed assolutamente slegato al numero di fps generati dalla scheda video.

http://images.anandtech.com/doci/7436/DSC_3607.JPG

Per cui mostrarmi immagini come quella di anandtech in cui un pendolo presenta ghosting e uno no è palesemente prendere in giro il consumatore visto che il monitor è lo stesso e il ghosting è un fenomeno generato dai monitor non dall'hardware!

Ho cercato di farvici riflettere ieri su quell'immagine di anandtech per farvi capire come quell'esempio fosse la chiara indicazione che la presentazione nvidia di tearing e stuttering su dei monitor a 144 hz tra l'altro identici fosse una grandissima farsa in cui ripresentavano una feature molto utile (il vsync adattivo) in un altra salsa.

Cito prad, la pagina dedicata al ghosting:

"Graphics card":
This does not make any impact on the occurrence of streaking. Of course there are quite many graphics cards out there that deliver a cheap analog output signal. This indeed brings the picture out of focus or makes the color appear paler. But with DVI, the graphics card can only become a ghosting determining factor in terms of performance (see above: "system configuration")
"graphics driver"
Affects the system performance. Additionally there can be differences in configurability. (gamma gradient, "digital vibrance" vSync, and so forth…) But other than that there should be no impact on ghosting.

"vSync"
Please refer to the LCD FAQ for detailed information. vSync is more about smooth animation (tearing, frame drops) than about ghosting and therefore can be interesting for every gamer, of course. vSynch affects the smoothness of the animation and by that its influence is indirect (see above: "system configuration").

"System configuration", "hardware" (how fast is the computer?)
If a game requires too many resources to run smoothly on the PC, ghosting will be perceived differently than when it would run smoothly. Especially in smooth movements, ghosting can be recognized particularly easy because the eye has less trouble following the movement.

E il link è di prad, gente che di monitor un pò ci capisce:
http://www.prad.de/en/monitore/shownews_faq226.html

Che tradotto significa: se il pc sta generando un immagine fluida il ghosting è più facile da notare, (grazie al kaiser..) ma il ghosting è legato al monitor e alla sua velocità di risposta in alcun modo questi è legato a vsync, fps o buffer.

Quindi a causare il ghosting nell'immagine postata da anandtech non è una differenza nelle feature della scheda video o il modulo gsync, semplicemente il monitor a sinistra è intenzionalmente impostato male.

Non interverò in alcun modo ulteriormente sull'argomento perchè le ultime pagine non sembrano degne di un forum di gente che ci capisce di tecnica/hardware ma di un forum di fanboys che si sono sorbiti feature vecchie spacciate per novità e test appositamente condotti con monitor settati male per far scrivere alla gente presente all'evento "sisi omg, molto più smooth, rivoluzionario". Se c'è gente che ci casca son felice per nvidia. Io altro tempo a convincervi non ne perdo.

maxmix65
19-10-2013, 13:38
Ma non basta comprare un monitor senza lag o limitato quasi a 0 cosi ci risparmiamo i soldi??

Vul
19-10-2013, 13:41
Ma non basta comprare un monitor senza lag o limitato quasi a 0 cosi ci risparmiamo i soldi??

il gsync non è legato all'input lag o reattività del monitor, il gsync sincronizza la frequenza del refresh del monitor agli fps generati risolvendo i problemi di stuttering del vsync on e quelli di tearing del vsync off.

Per maggiori dettagli ci sono 6 pagine di post e tanti link postati da tanti utenti diversi.

dewwwxx84
19-10-2013, 13:45
Alla fine risolvono in hardware tutto il discorso riservato al V-sinc eliminando tutta quella parte software che deve gestire la VGA e magari con un conseguente aumento prestazionale visto che la VGA ha meno Driver da gestire. :rolleyes:

appleroof
19-10-2013, 13:52
cut

il gsync sincronizza la frequenza del refresh del monitor agli fps generati risolvendo i problemi di stuttering del vsync on e quelli di tearing del vsync off.

cut

:confused: :wtf: :gluglu: :hic: :yeah:

Vul
19-10-2013, 14:00
:confused: :wtf: :gluglu: :hic: :yeah:

?

Ho solo fatto un riassunto di cos'è il gsync. Sui motivi per cui sia solo una trovata commerciale per riproporre in salsa diversa il vsync adattivo l'ho già spiegato logorroicamente prima, come ho anche spiegato come i monitor della presentazione fossero evidentemente settati in maniera diversa dato che uno presentava evidentemente ghosting e l'altro no che sono difetti dei monitor totalmente slegati alla scheda video con tanto di spiegoni di Prad.

Comunque ho visto questa photoshoppata su internet, effettivamente un pò ci somiglia ad uno stereo la nuova 780ti (che è veramente bellissima):

http://i.imgur.com/m6Qyi1I.jpg

maxmix65
19-10-2013, 14:01
il gsync non è legato all'input lag o reattività del monitor, il gsync sincronizza la frequenza del refresh del monitor agli fps generati risolvendo i problemi di stuttering del vsync on e quelli di tearing del vsync off.

Per maggiori dettagli ci sono 6 pagine di post e tanti link postati da tanti utenti diversi.

Ok scusa quindi se ho capito ipotizzando che giochi a btf3 la tua scheda video fa tra 80 e 100fps quindi con un monitor a 60hz questo prodotto nvidia blocca gli fps in un valore che elimina il tearing??
Diciamo 75 fps
Giusto??

Vul
19-10-2013, 14:19
Ok scusa quindi se ho capito ipotizzando che giochi a btf3 la tua scheda video fa tra 80 e 100fps quindi con un monitor a 60hz questo prodotto nvidia blocca gli fps in un valore che elimina il tearing??
Diciamo 75 fps
Giusto??

Quando vsync e triple buffering vengono attivati, la tua scheda invia 60 frame al secondo al tuo monitor (se parliamo di monitor da 60 hz) nel caso ne faccia di più.

Se invece i tuoi frame scendono sotto i 60 con la tecnologia di adesso (che ha solo nvidia, si chiama vsync adattivo) il vsync viene disattivato automaticamente e in questo modo viene prevenuto lo stuttering (scattini).

La differenza sotto i 60 fps del gsync è che anzichè disattivare il vsync, viene cambiata la frequenza del monitor in maniera dinamica per cui se fai 30 fps nvidia fa andare il tuo monitor a 30 hertz.

Facciamo un caso molto semplice: il tuo monitor è 10 hertz e la tua vga fa 5 fps (puoi moltiplicare per 6 e fare 60 hz monitor, 30 fps vga).

Con vsync adattivo (o meglio, senza vsync visto che viene disattivato se gli fps<Hz) hai una situazione simile 1122334455
Ovvero hai 10 screen da 100 ms a due uguali (poichè la scheda produce la metà dei frames che il monitor può rappresentare quindi per due refresh del monitor viene rappresentato due volte la stessa immagine).

Con gsync invece la frequenza del monitor viene portata a 5 hertz. Per cui in un secondo hai solo 5 frames anzichè 10 che durano il doppio, quindi una situazione simile: 12345

A livello pratico la differenza è assolutamente inesistente e non la puoi vedere visto che il tuo occhio non sa distinguere fra due immagini uguali che durano 100 ms e un immagine unica che ne duri 200 se le immagini sono uguali.
Non è che se tu guardi un immagine fissa a 60 hz o 120 hz o anche su un monitor da 24 hz una di queste immagini ti sembra più fluida.

Forse può avere un impatto sulle prestazioni questa cosa, questo non l'ho capito bene però anche se non capisco come possa.

maxmix65
19-10-2013, 14:24
Quando vsync e triple buffering vengono attivati, la tua scheda invia 60 frame al secondo al tuo monitor (se parliamo di monitor da 60 hz) nel caso ne faccia di più.

Se invece i tuoi frame scendono sotto i 60 con la tecnologia di adesso (che ha solo nvidia, si chiama vsync adattivo) il vsync viene disattivato automaticamente e in questo modo viene prevenuto lo stuttering (scattini).

La differenza sotto i 60 fps del gsync è che anzichè disattivare il vsync, viene cambiata la frequenza del monitor in maniera dinamica per cui se fai 30 fps nvidia fa andare il tuo monitor a 30 hertz.

Facciamo un caso molto semplice: il tuo monitor è 10 hertz e la tua vga fa 5 fps (puoi moltiplicare per 6 e fare 60 hz monitor, 30 fps vga).

Con vsync adattivo (o meglio, senza vsync visto che viene disattivato se gli fps<Hz) hai una situazione simile 1122334455
Ovvero hai 10 screen da 100 ms a due uguali (poichè la scheda produce la metà dei frames che il monitor può rappresentare quindi per due refresh del monitor viene rappresentato due volte la stessa immagine).

Con gsync invece la frequenza del monitor viene portata a 5 hertz. Per cui in un secondo hai solo 5 frames anzichè 10 che durano il doppio, quindi una situazione simile: 12345

A livello pratico la differenza è assolutamente inesistente e non la puoi vedere visto che il tuo occhio non sa distinguere fra due immagini uguali che durano 100 ms e un immagine unica che ne duri 200 se le immagini sono uguali.
Non è che se tu guardi un immagine fissa a 60 hz o 120 hz o anche su un monitor da 24 hz una di queste immagini ti sembra più fluida.

Forse può avere un impatto sulle prestazioni questa cosa, questo non l'ho capito bene però anche se non capisco come possa.

Quindi questa tecnologia si applica nei casi gli fps scendano sotto i 60 nel caso di monitor da 60hz o sotto a 120 nel caso di monitor da 120hz o 144ecc..
Giusto

FroZen
19-10-2013, 14:39
E poi hai BF5 magari ancora client side...


:asd::asd::asd:


la realtà talvolta è maligna....:doh:

FroZen
19-10-2013, 14:40
Accipicchiolina, se mi accorgo della differenza da youtube chissà a esserci davanti....:stordita: ma se si rimane con i 60 fps la cosa rimane uguale? O è comunque consigliabile avere vicino ai 144fps?

vabbè, con il g-sync me ne strafotterei ipoteticamente :D

eXeS
19-10-2013, 14:43
Peccato che il ghosting sia un problema legato alla reattività dei monitor (quanto ci mette il singolo pixel a cambiare colore detta volgarmente) ed assolutamente slegato al numero di fps generati dalla scheda video.


Appunto, essendo indipendente dal numero di fps lo si noterebbe a prescindere dal g-sync, in quel caso particolare invece lo si nota solo sotto i 60 ed è un indizio di come potrebbe funzionare l'apparecchio quando il framerate non raggiunge la frequenza di refresh, ad esempio: effettuare una sorta di interpolazione tra un pezzo di fotogramma e quello successivo, cosa che normalmente causerebbe stuttering con vsync attivo, o tearing senza vsync, e l'interpolazione potrebbe essere il compromesso per rendere l'esperienza più fluida.

A proposito del tearing che si verifica solo al di sopra della frequenza di refresh, video girati dal sottoscritto a 60fps e riprodotti a 30, gioco syndicate, e monitor in firma

vsync-off 50 fps
https://docs.google.com/file/d/0B5EwzAqJgRn7aFhJY3R1N0ZnN3M/edit?usp=sharing

vsync-off 60 fps
https://docs.google.com/file/d/0B5EwzAqJgRn7eFk0Zlg5V1NQeTA/edit?usp=sharing

vsync-on
https://docs.google.com/file/d/0B5EwzAqJgRn7X2p5UTRUck9UekE/edit?usp=sharing

slide1965
19-10-2013, 14:51
impressionante...tra l'altro mi ha ricordato l'effetto che mi fece il 120hz in firma la prima volta che lo accesi già in 2d (venivo da un s-pva 60hz) : :eek: :p
La differenza è proprio tanta e lo confermo anche io ma possiamo girarci attorno fino al 2050 che tanto il problema è sempre quello e rimane:

i 120hz sono una figata negli fps e la differenza dai 60hz e' oserei dire lampante ma da lì in poi subentra il gusto,perche' ogni volta che ho provato ad usare il 120hz non sono riuscito ad accettare l'enorme differenza qualitativa dell'immagine, dei neri e dei colori,del tn rispetto all'ips.

La coperta, al momento è ancora corta
Non interverò in alcun modo ulteriormente sull'argomento perchè le ultime pagine non sembrano degne di un forum di gente che ci capisce di tecnica/hardware ma di un forum di fanboys che si sono sorbiti feature vecchie spacciate per novità e test appositamente condotti con monitor settati male per far scrivere alla gente presente all'evento "sisi omg, molto più smooth, rivoluzionario". Se c'è gente che ci casca son felice per nvidia. Io altro tempo a convincervi non ne perdo.
Premesso che non è una polemica ma una semplice curiosità, giusto per capire il livello di ego.

Mi confermi che tu sei convinto che dentro a questo thread sono tutti dei boccaloni fessacchiotti , tutti tranne te, che hai capito che la mossa di Nvidia è solo fuffa?
è questo quello che pensi?

Vul
19-10-2013, 15:02
Appunto, essendo indipendente dal numero di fps lo si noterebbe a prescindere dal g-sync, in quel caso particolare invece lo si nota solo sotto i 60 ed è un indizio di come potrebbe funzionare l'apparecchio quando il framerate non raggiunge la frequenza di refresh, ad esempio: effettuare una sorta di interpolazione tra un pezzo di fotogramma e quello successivo, cosa che normalmente causerebbe stuttering con vsync attivo, o tearing senza vsync, e l'interpolazione potrebbe essere il compromesso per rendere l'esperienza più fluida.

A proposito del tearing che si verifica solo al di sopra della frequenza di refresh, video girati dal sottoscritto a 60fps e riprodotti a 30, gioco syndicate, e monitor in firma

vsync-off 50 fps
https://docs.google.com/file/d/0B5EwzAqJgRn7aFhJY3R1N0ZnN3M/edit?usp=sharing

vsync-off 60 fps
https://docs.google.com/file/d/0B5EwzAqJgRn7eFk0Zlg5V1NQeTA/edit?usp=sharing

vsync-on
https://docs.google.com/file/d/0B5EwzAqJgRn7X2p5UTRUck9UekE/edit?usp=sharing

E' veramente evidente nei primi 2 video. Nel terzo non è il vsync di per se a causare la scomparsa del tearing (dato che di per se il vsync non fa che limitare gli fps cme nel video due, ma il fatto che il vsync attivi anche il TB).

Comunque anche nel primo ammetto che sia evidentissimo, non so se è causato particolarmente dal video/registrazione ma ad esserci c'è. Va detto che la probabilità di tearing è proprzionale al rapporto frames/refresh per cui non è del tutto improbabile vederlo a 50 anche se è veramente tanto presente nel tuo video.

Prova a fare una prova disattivando il vsync ma attivando il tb anche a 100 fps e il tearing vedrai che scomparirà comunque.

edit: ci ho ragionato su e cercato un pò su internet. Sicuro che non avevi vsync adattivo impostato di default nei driver?

Perchè fenomeni di tearing sembrano essere comuni fra gli utenti nvidia anche sotto i 60 fps in funzione dell'applicazione:

http://www.hardwarecanucks.com/forum/video-cards/61538-screen-tearing-below-60-fps-nvidia-control-panel-vsync-not-working.html

http://www.tomshardware.co.uk/forum/390195-33-adaptive-vsync-screen-tearing-worse

http://www.gamespot.com/forums/pc-mac-games-1000004/why-screen-tear-from-adaptive-vsync-skyrim-29344421/

Effettivamente a me sembra troppo strano che tu abbia tutto quel tearing a 50 fps con vsync disattivato, l'unica possibilità mi sembra sia il vsync adattivo non funzioni bene (e tu abbia solo limitato gli fps) con quel software come riportato su parecchi gruppi di discussione che la funzione di adaptive vsync sia problematica.

Tra l'altro questo tuo video e questa ricerca che ho fatto mi fa venire il dubbio che gsync forse serva veramente semplicemente perchè l'adaptive sync via software non funziona come dovrebbe quindi va implementato lato hardware.

eXeS
19-10-2013, 15:35
E' veramente evidente nei primi 2 video. Nel terzo non è il vsync di per se a causare la scomparsa del tearing (dato che di per se il vsync non fa che limitare gli fps cme nel video due, ma il fatto che il vsync attivi anche il TB).

Comunque anche nel primo ammetto che sia evidentissimo, non so se è causato particolarmente dal video/registrazione ma ad esserci c'è. Va detto che la probabilità di tearing è proprzionale al rapporto frames/refresh per cui non è del tutto improbabile vederlo a 50 anche se è veramente tanto presente nel tuo video.

Prova a fare una prova disattivando il vsync ma attivando il tb anche a 100 fps e il tearing vedrai che scomparirà comunque.


Provato, abilitando il TB da control panel, sempre che funga anche in D3D https://docs.google.com/file/d/0B5EwzAqJgRn7Z3ZfRVVGZGkyV28/edit?usp=sharing



edit: ci ho ragionato su e cercato un pò su internet. Sicuro che non avevi vsync adattivo impostato di default nei driver?

Perchè fenomeni di tearing sembrano essere comuni fra gli utenti nvidia anche sotto i 60 fps in funzione dell'applicazione:

http://www.hardwarecanucks.com/forum/video-cards/61538-screen-tearing-below-60-fps-nvidia-control-panel-vsync-not-working.html

Effettivamente a me sembra troppo strano che tu abbia tutto quel tearing a 50 fps con vsync disattivato, l'unica possibilità mi sembra sia il vsync adattivo non funzioni bene (e tu abbia solo limitato gli fps) con quel software come riportato su parecchi gruppi di discussione.
Con la mia config riesco a giocare praticamente a tutto con vsync tradizionale attivo senza mai scendere sotto i 60, l'adattivo non mi ha mai convinto al 100% in quanto a volte mi dava tearing, l'avevo scartato praticamente da subito, e ti confermo che i miei test sono stati fatti con vsync off.

Syndicate invece con vsync non riesco a giocarlo in quanto trovo che abbia una latenza eccessiva tra movimento del mouse e feedback a video, ho provato ad impostare a 1 il numero dei frame prerenderizzati dalla cpu senza benefici, e quindi la latenza e tearing ho scelto quest'ultima, ed ecco che mi sono accorto che sistematicamente nonostante frame-cap a 60 o sotto i 60, sperimentato per pura curiosità, il tearing è bello evidente durante gli spostamenti laterali.

maxmix65
19-10-2013, 15:44
:D Qualcuno di voi a btf3??
Se si vi mando in pvt ip del teamspeak3 vi dovrei dire una cosa
Ciao

Obrigado
19-10-2013, 15:52
Premesso che non è una polemica ma una semplice curiosità, giusto per capire il livello di ego.

Mi confermi che tu sei convinto che dentro a questo thread sono tutti dei boccaloni fessacchiotti , tutti tranne te, che hai capito che la mossa di Nvidia è solo fuffa?
è questo quello che pensi?

+1 rep!

The_SaN
19-10-2013, 16:29
Provato, abilitando il TB da control panel, sempre che funga anche in D3D https://docs.google.com/file/d/0B5EwzAqJgRn7Z3ZfRVVGZGkyV28/edit?usp=sharing



Con la mia config riesco a giocare praticamente a tutto con vsync tradizionale attivo senza mai scendere sotto i 60, l'adattivo non mi ha mai convinto al 100% in quanto a volte mi dava tearing, l'avevo scartato praticamente da subito, e ti confermo che i miei test sono stati fatti con vsync off.

Syndicate invece con vsync non riesco a giocarlo in quanto trovo che abbia una latenza eccessiva tra movimento del mouse e feedback a video, ho provato ad impostare a 1 il numero dei frame prerenderizzati dalla cpu senza benefici, e quindi la latenza e tearing ho scelto quest'ultima, ed ecco che mi sono accorto che sistematicamente nonostante frame-cap a 60 o sotto i 60, sperimentato per pura curiosità, il tearing è bello evidente durante gli spostamenti laterali.Esatto, è la stessa cosa che faccio con Team Fortress 2.
Gioco tutti i giochi con v-sync a parte questo...proprio perchè la latenza è troppo evidente pure con 1 frame pre-renderizzato, e preferisco il tearing.

Vul
19-10-2013, 16:55
Provato, abilitando il TB da control panel, sempre che funga anche in D3D https://docs.google.com/file/d/0B5EwzAqJgRn7Z3ZfRVVGZGkyV28/edit?usp=sharing



Con la mia config riesco a giocare praticamente a tutto con vsync tradizionale attivo senza mai scendere sotto i 60, l'adattivo non mi ha mai convinto al 100% in quanto a volte mi dava tearing, l'avevo scartato praticamente da subito, e ti confermo che i miei test sono stati fatti con vsync off.

Syndicate invece con vsync non riesco a giocarlo in quanto trovo che abbia una latenza eccessiva tra movimento del mouse e feedback a video, ho provato ad impostare a 1 il numero dei frame prerenderizzati dalla cpu senza benefici, e quindi la latenza e tearing ho scelto quest'ultima, ed ecco che mi sono accorto che sistematicamente nonostante frame-cap a 60 o sotto i 60, sperimentato per pura curiosità, il tearing è bello evidente durante gli spostamenti laterali.

E' veramente strano che tu abbia quel tearing anche con TB. Effettivamente ragionandoci ha senso che sia uguale all'altro test (poichè la vga manda comunque gozziliardi di frame al monitor indipendentemente dal buffer) e quindi agg' dett' na cazzata io.

Secondo me dev'esserci qualche conflitto fra il gioco in questione e le directx comunque.
Puoi fare un ultima prova, vsync on ma non tb. Non dovresti avere input lag in quel caso, ma sono curioso del tearing.

maxmix65
19-10-2013, 16:56
:mc: Unfortunately it seems that right now the LightBoost part of 3DVision [2] (despite the announced monitor supporting it) can not run with G-Sync enabled. You can pick low persistence from a strobing backlight (which is nice for low persistence itself and why people who use 3D Vision 2 monitors in 2D force it on but also great for stereoscopic shutter tech reasons that we care about) with a fixed refresh rate OR dynamic refresh rate (monitor changes image as soon as a new frame is ready on the GPU rather than fighting a fixed timer for new frames) but with a constant backlight so the screen is illuminated during frame transitions.
Confirmed: http://twitter.com/ID_AA_Carmack/status/391315722376593408
- See more at: http://3dvision-blog.com/9157-the-new-nvidia-g-sync-technology-will-support-3d-vision-as-well/#sthash.OAqxXyiN.dpuf

System Requirements for NVIDIA G-SYNC DIY Kit Modification for ASUS VG248QE monitor
GPU:

G-SYNC features require an NVIDIA GeForce GTX650Ti BOOST GPU or higher
GTX TITAN
GTX 780
GTX 770
GTX 760
GTX 690
GTX 680
GTX 670
GTX 660 Ti
GTX 660
GTX 650 Ti Boost
Display:

G-SYNC DIY modification kit requires an ASUS VG248QE monitor.
Driver:

R331.58 or higher ----> Nuovi Driver
Operating System:

Windows 8.1
Windows 8
Windows 7

Vul
19-10-2013, 16:57
Ma in quanti lo usiamo il 3d vision? :D

GIAN.B
19-10-2013, 20:57
concordo, da 120 a 144 non cambia una mazza, piuttosto dovrebbero costruire schermi con strobe backlight sempre attiva, in modo che da 8ms si passi a 1/2ms, eliminando di fatto il ghosting

Eizo già lo ha fatto, ha 120hz ma arriva a 240hz con questa tecnica, solo che costa una fucilata :stordita:

Mi linki il modello esatto Sick? :)

The_SaN
19-10-2013, 21:17
Mi linki il modello esatto Sick? :)Dovrebbe essere L' Eizo FDF2405W.
Non ho idea di quanto costi (quando lo saprò rischierò l'infarto), ma il bello è che "l'effetto" 240Hz non deriva da interpolazione, quindi niente input lag.

Edit: sembra costi sui $6000


http://180degreehealth.com/wp-content/uploads/2013/08/Thyroid-hormones-and-heart-disease.jpg

Vul
19-10-2013, 21:36
Non vorrei fare l'antipatico, ma i 240 hz sono proprio interpolati, c'è anche scritto:

The monitor converts 120 Hz input signals to 240 Hz to reduce ghosting and blurring that is caused during frame changes. This greatly improves sharpness and visibility and reduces eye fatigue that occurs when viewing scrolling or moving images.

Motion interpolation or motion-compensated frame interpolation (MCFI) is a form of video processing in which intermediate animation frames are generated between existing ones, in an attempt to make animation more fluid, and to compensate for display motion blur.

La feature serve a ridurre ghosting/scie come ha scritto giustamente sick e funziona similmente al meccanismo dello stutter dove per generare una quantità costante di fps riempi i refresh del monitor con copie di immagini precedenti.

The_SaN
19-10-2013, 21:48
Non vorrei fare l'antipatico, ma i 240 hz sono proprio interpolati, c'è anche scritto:

The monitor converts 120 Hz input signals to 240 Hz to reduce ghosting and blurring that is caused during frame changes. This greatly improves sharpness and visibility and reduces eye fatigue that occurs when viewing scrolling or moving images.

Motion interpolation or motion-compensated frame interpolation (MCFI) is a form of video processing in which intermediate animation frames are generated between existing ones, in an attempt to make animation more fluid, and to compensate for display motion blur.

La feature serve a ridurre ghosting/scie come ha scritto giustamente sick e funziona similmente al meccanismo dello stutter dove per generare una quantità costante di fps riempi i refresh del monitor con copie di immagini precedenti.Io avevo trovato i dati qui:

http://www.blurbusters.com/eizo-240hz-va-monitor-uses-strobe-backlight/

Sul manuale non fa alcun riferimento all'interpolazione MCFI...

http://www.eizo.com/global/support/db/files/manuals/03V24694A1/Manual-EN.pdf#page=15

Vul
19-10-2013, 23:26
Io avevo trovato i dati qui:

http://www.blurbusters.com/eizo-240hz-va-monitor-uses-strobe-backlight/

Sul manuale non fa alcun riferimento all'interpolazione MCFI...

http://www.eizo.com/global/support/db/files/manuals/03V24694A1/Manual-EN.pdf#page=15

Boh dalla descrizione sembra comunque un interpolazione (ovvero la creazione di frame aggiuntivi per aumentare la fluidità). L'unica differenza sembra che solo la seconda immagine viene illuminata (in modo da non causare input lag, ma se illumina la seconda immagine sta gia creando input lag o no?.

Edit tftcentral descrive lo strobe backlight così:

Scanning and strobed backlights are also found in many newer HDTV's. However, many of them create far more input lag than computer monitors due to them combining motion interpolation along with scanning backlights.

Boh, cose complicate, e direi siamo ot.

The_SaN
20-10-2013, 03:49
Boh dalla descrizione sembra comunque un interpolazione (ovvero la creazione di frame aggiuntivi per aumentare la fluidità). L'unica differenza sembra che solo la seconda immagine viene illuminata (in modo da non causare input lag, ma se illumina la seconda immagine sta gia creando input lag o no?.L'interpolazione è il calcolo effettuato per creare un'immagine intermediaria. Sono calcoli (complessi) basati su predizione, che richiedono sforzo macchina e quindi impiegano tempo per essere conclusi, da qui l'input lag.
Nel caso dello strobe backlight il segnale 120Hz viene "raddoppiato", il monitor applica l'overdrive per migliorare il tempo di risposta dei pixel nel primo frame, e illumina il secondo frame (che è reattivo, ma stabile e senza blur).
Niente calcoli, niente lag.

Ovviamente non sono 240Hz veri, ma un modo di rendere più "fluidi" i 120Hz eliminando il blur causato dall'overdrive.

Edit tftcentral descrive lo strobe backlight così:

Scanning and strobed backlights are also found in many newer HDTV's. However, many of them create far more input lag than computer monitors due to them combining motion interpolation along with scanning backlights.

Boh, cose complicate, e direi siamo ot.In pratica dice che rispetto ai monitor pc, se usi MCFI + strobe può dare più input lag...credo che proprio dovuto al calcolo di interpolazione.

illidan2000
20-10-2013, 08:54
Ma in quanti lo usiamo il 3d vision? :D

io ce l'ho, ma non lo uso da tempo

Obrigado
20-10-2013, 09:02
http://www.youtube.com/watch?v=NffTOnZFdVs&feature=player_detailpage

Obrigado
20-10-2013, 09:09
http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/


NON CI POSSO CREDERE!

appleroof
20-10-2013, 09:40
puoi tradurre?

oltre al g-sync sarebbe disponibile il lightboost (qui casomai non sai cos'è: http://translate.google.it/translate?sl=en&tl=it&js=n&prev=_t&hl=it&ie=UTF-8&u=http%3A%2F%2Fwww.blurbusters.com%2Fzero-motion-blur%2Flightboost-faq%2F&act=url )

appleroof
20-10-2013, 09:50
gentilissimo :D

;)

liberato87
20-10-2013, 10:12
Mi sembra strano che Vul ancora non abbia niente da ridire sul lightboost

<Masquerade>
20-10-2013, 14:26
ma figurati, come minimo costerà 2-3000euro e non è certo fatto per il gaming


:eek:

The_SaN
20-10-2013, 14:34
http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/


NON CI POSSO CREDERE!Questa è un'ottima notizia.

Vul
20-10-2013, 14:40
Qualcuno può spiegare BENE cosa sia il backlight strobing?

slide1965
20-10-2013, 14:43
Mi sembra strano che Vul ancora non abbia niente da ridire sul lightboost
:asd:
Qualcuno può spiegare BENE cosa sia il backlight strobing?
se non sbaglio dovrebbero essere quelle luci sbrilluccicose che si usano in discoteca a forma di palla.
diciamo che lo vendono da piazzare dietro al monitor per illuminarlo e fare un po di scena:sofico:

Vul
20-10-2013, 14:46
Mi sembra strano che Vul ancora non abbia niente da ridire sul lightboost

perchè non è niente di riciclato a cui han cambiato il nome come il gsync di per se. E' attualmente una cosa utile.

Vul
20-10-2013, 14:48
:asd:

se non sbaglio dovrebbero essere quelle luci sbrillucicose che si usano in discoteca a forma di palla.
diciamo che lo vendono da piazzare dentro al monitor per illuminarlo e fare un po di scena:sofico:

Leggendo, no.

Semplicemente il monito viene illuminato solo quando il pixel è stato completamente convertito al nuovo colore mi pare di aver capito, in questo modo si riduce il motion blur. Ma non capisco come si possa ritenere questa una soluzione priva di lag, visto che il pixel non è illuminato immediatamente ma solo quando viene convertito. Che poi ad essere sincero, stanno spingendo tutte queste feature su dei tn da 120 hz dove il motion blur è praticamente inesistente.

Cioè questo è il motion blur di un istantanea di un xl2420t senza AMA (ma anche con AMA ci vuole l'istantanea di 1/120 di secondo per notare il leggero blur) a 60 e 120 hz:

http://www.tftcentral.co.uk/images/benq_xl2420t/ama_comparison_all2.jpg

A me sembra tanto che con sto gsync stiano tanto spingendo feature in un segmento che non è più popolare per vari motivi (monitor tn da 120 hz) e dove tutte queste immense problematiche di motion blur sono praticamente inesistenti.

ertruffa
20-10-2013, 14:50
http://www.blurbusters.com/confirmed-nvidia-g-sync-includes-a-strobe-backlight-upgrade/


NON CI POSSO CREDERE!

bene, ma in teoria quando dovrebbe essere disponibile il tutto.

Vul
20-10-2013, 14:55
Quando comprerai un monitor da 120 hz tn e cercherai di autoconvincerti di vedere motion blur che devi assolutamente eliminare.

Obrigado
20-10-2013, 14:59
Quando comprerai un monitor da 120 hz tn e cercherai di autoconvincerti di vedere motion blur che devi assolutamente eliminare.

vul!

sinceramente


SPARATI!

ertruffa
20-10-2013, 15:00
vul!

sinceramente


SPARATI!

ignore e via la paura......

Obrigado
20-10-2013, 15:04
Quando comprerai un monitor da 120 hz tn e cercherai di autoconvincerti di vedere motion blur che devi assolutamente eliminare.

beata ignoranza. (rende il mondo piu' semplice!!!)

http://www.blurbusters.com/wp-content/uploads/2013/06/motion-blur-graph.png

http://www.blurbusters.com/faq/60vs120vslb/



prima di postare sui forum la gente dovrebbe imparare a leggere.



poi se tu non noti differenze.... il problema e' TUO!!!

sickofitall
20-10-2013, 15:08
:sbonk:

The_SaN
20-10-2013, 15:09
L'interpolazione è il calcolo effettuato per creare un'immagine intermediaria. Sono calcoli (complessi) basati su predizione, che richiedono sforzo macchina e quindi impiegano tempo per essere conclusi, da qui l'input lag.
Nel caso dello strobe backlight il segnale 120Hz viene "raddoppiato", il monitor applica l'overdrive per migliorare il tempo di risposta dei pixel nel primo frame, e illumina il secondo frame (che è reattivo, ma stabile e senza blur).
Niente calcoli, niente lag.

Ovviamente non sono 240Hz veri, ma un modo di rendere più "fluidi" i 120Hz eliminando il blur causato dall'overdrive.

In pratica dice che rispetto ai monitor pc, se usi MCFI + strobe può dare più input lag...credo che proprio dovuto al calcolo di interpolazione.

Qualcuno può spiegare BENE cosa sia il backlight strobing?
La risposta l'ho data, eh :D

Vul
20-10-2013, 15:11
beata ignoranza. (rende il mondo piu' semplice!!!)

http://www.blurbusters.com/wp-content/uploads/2013/06/motion-blur-graph.png

http://www.blurbusters.com/faq/60vs120vslb/



prima di postare sui forum la gente dovrebbe imparare a leggere.



poi se tu non noti differenze.... il problema e' TUO!!!

Il motion blur dipende da monitor a monitor eh.

Paragonare i monitor "perchè sono da 100 hz" è come paragonare le schede video in base alla quantità di ram te ne rendi conto vero?

E poi sarei io l'ignorante.

Obrigado
20-10-2013, 15:13
Il motion blur dipende da monitor a monitor eh.

ti rispondo con una domanda:

sai cosa' c'e' tra un fotogramma e l'altro?

quando ti rispondarai capirai chela persistenza (a 60fps) di un fotogramma sullo schermo e' di 16.66ms e che se mi inserisci un fotogramma nero o mi blocchi la retroilluminazione non avro' una immagine statica, ma vedro' direttamente il frame successivo.

il blur esiste indipentemente dal refresh sugli lcd fino a quando un fotogramma e' diverso da quello che lo anticipa!


Paragonare i monitor "perchè sono da 100 hz" è come paragonare le schede video in base alla quantità di ram.

amico mio sei spacciato.

sei destinato ad avere grandi problemi nella società.

mi spiace davvero.


credevo non esistessero persone come te, ma sbagliavo...

oggi e' il giorno della verita'.


il giorno dove ho capito tutto.

sickofitall
20-10-2013, 15:15
Il motion blur dipende da monitor a monitor eh.

Paragonare i monitor "perchè sono da 100 hz" è come paragonare le schede video in base alla quantità di ram.

http://profile.ak.fbcdn.net/hprofile-ak-ash2/71056_119872594699304_817289_n.jpg

Vul
20-10-2013, 15:16
amico mio sei spacciato.

sei destinato ad avere grandi problemi nella società.

mi spiace davvero.


credevo non esistessero persone come te, ma sbagliavo...

oggi e' il giorno della verita'.


il giorno dove ho capito tutto.

su tftcentral puoi vedere prove di monitor da 120hz uno vicino all'altro. vienimi a dire che non ci sono differenze evidenti dimotion blur fra di loro.

Il bello è che ti ho anche messo una foto di un monitor da 120 hz sopra di fascia media-economica che non ha motion blur.

Lol

Obrigado
20-10-2013, 15:21
su tftcentral puoi vedere prove di monitor da 120hz uno vicino all'altro. vienimi a dire che non ci sono differenze evidenti dimotion blur fra di loro.

Il bello è che ti ho anche messo una foto di un monitor da 120 hz sopra di fascia media-economica che non ha motion blur.

Lol

lo sai cosa c'e' tra un frame e l'altro?

FreeMan
20-10-2013, 15:23
Finitela :rolleyes:

>bYeZ<

Vul
20-10-2013, 15:40
Ho finito totalmente ogni speranza:

http://en.wikipedia.org/wiki/Display_motion_blur#Causes

Il motion blur non è legato alla frequenza d'aggiornamento dal monitor ma dal response time del pannello in questione.

E' strapieno di monitor da 120 hz sul quale non vedrete alcun motion blur, avete l'immagine prima di un 2420t senza ama e tanti pannelli da 60 hz hanno meno motion blur di alcuni da 120hz.

Paragonare il motion blur in base al refresh dei pannelli è come paragonare le prestazioni delle schede video dalla quantità di ram.

Il motivo per cui i monitor da 120 hz solitamente hanno meno blur è perchè sono dei TN, dei monitor da gaming fatti apposta per essere reattivi. Ciò non significa che si possa legare i blurring/ghosting/scie alla frequenza del monitor.

Detto questo avevo ancora qualche speranza 10 pagine fa, ma la quantità di disinformazione completa in questo thread è disarmante e non sono certamente pagato per fare da informatore.

The_SaN
20-10-2013, 15:57
Ma il bello è che avete ragione tutti e 2, e vi state bastonando per una questione di ego.
Il blur dipende dalla reattività base del pixel e da quanto/come viene applicato l'overdrive. E sono caratteristiche intrinseche del pannello.

Il grafico postato da Obrigado, però, fa riferimento ad un'altra situazione.
Stesso pannello, cambi la frequenza, applichi lo strobe in modi diversi e ottieni diversi timing di blur.
Se applichi lo strobe al 10%, il risultato è praticamente identico ad un crt.

Edit:

Strobe 100% = flash di 2.4ms
Strobe 10% = flash di 1.4ms

E quindi si capisce perchè il blur è minore a 10%.

maxmix65
20-10-2013, 16:42
Ma il bello è che avete ragione tutti e 2, e vi state bastonando per una questione di ego.
Il blur dipende dalla reattività base del pixel e da quanto/come viene applicato l'overdrive. E sono caratteristiche intrinseche del pannello.

Il grafico postato da Obrigado, però, fa riferimento ad un'altra situazione.
Stesso pannello, cambi la frequenza, applichi lo strobe in modi diversi e ottieni diversi timing di blur.
Se applichi lo strobe al 10%, il risultato è praticamente identico ad un crt.

Edit:

Strobe 100% = flash di 2.4ms
Strobe 10% = flash di 1.4ms

E quindi si capisce perchè il blur è minore a 10%.

Ma il povero monitor iiyama e2403ws da 60hz quindi e' buono :D
Mi sembra che non abbia sto gran ritardo rispetto ad un crt
http://www.lesnumeriques.com/moniteur-ecran-lcd/face-a-face/2162-2972-sretard.html

Raven
20-10-2013, 16:50
Ho finito totalmente ogni speranza:


E noi la pazienza... Hai continuato il flame anche DOPO l'avvertimento del mod: 7gg di sospensione...

The_SaN
20-10-2013, 17:20
Ma il povero monitor iiyama e2403ws da 60hz quindi e' buono :D
Mi sembra che non abbia sto gran ritardo rispetto ad un crt
http://www.lesnumeriques.com/moniteur-ecran-lcd/face-a-face/2162-2972-sretard.htmlAspè :D
Il Retard d'affichage è l'input lag, e non c'entra nulla con il tempo di risposta del pixel (blur).

NODREAMS
20-10-2013, 21:23
Ma quando si avranno notizie sulla GTX 780Ti ?

antonioslash
20-10-2013, 23:06
gli ultimi giorni non ho seguito.. insomma con questa 780ti la 780 dovrebbe scendere vero? si può azzardare qualche previsione?

<Masquerade>
20-10-2013, 23:16
si può azzardare qualche previsione?

la 780 sotto i 500 e la Ti sopra?

liberato87
20-10-2013, 23:20
gli ultimi giorni non ho seguito.. insomma con questa 780ti la 780 dovrebbe scendere vero? si può azzardare qualche previsione?

imho dipende da quanto effettivamente andrà la 290x, e quanto costerà.
la 780ti uscendo dopo sarà comunque una contromossa. io penso uscirà sui 650 (stesso prezzo di lancio della 780).

xbeatx
21-10-2013, 07:26
http://overlordforum.com/topic/603-nvidia-g-sync/

slide1965
21-10-2013, 11:31
ips 27 2560x1440 120hz gsync:sbav: :sbav: :sbavvv: :rolleyes:??

ertruffa
21-10-2013, 11:40
ips 27 2560x1440 120hz gsync:sbav: :sbav: :sbavvv: :rolleyes:??

sarebbe l'ideale, vediamo i costi.:O

MrBrillio
21-10-2013, 11:53
Mannaia a loro.. Ho appena preso il pb278q...

Inviato dal mio GT-I9505 con Tapatalk

okorop
21-10-2013, 12:20
$120 premium over non G-Sync same model
It didn’t take that long for Asus to officially announce the adoption of Nvidia’s G-Sync tech. Asus has gone on the record saying that it plans to release a G-Sync-enhanced VG248QE gaming monitor in the first half of 2014 with pricing set at $399 USD in North America.

This monitor is not entirely new, there is a model available without G-Sync today that sells for $279.99 at Newegg. So Nvidia’s “small premium” for a better gaming monitor is $120 for a small PCB with a few memory chips and some sort of processor.

3D vision also works on this monitor with is a plus for a few adopters of this technology but we cannot escape the feeling that most gamers have larger monitors than 24 inches. In our humble opinion the Asus VG278HE, a 27-inch monitor would make more sense and this one currently sells for $379.99 without G-Sync. Add the G-Sync premium and you land at the magical $499 price point.

G-Sync monitors will be limited to Display Port only without audio support, which is again an obstacle but they will be able to have adaptive V-Sync refresh rate called G-Sync from 30 to 144 Hz. In theory your graphics card will push between 30FPS and 144FPS and monitor will draw exactly the same amount of frames eliminating skipping and tearing that we are all too familiar with.

Game frames tend to vary each millisecond, so having a way to convince the monitor that in this moment it should draw 73 FPS, next one at 37 FPS and if the scene is easier to render push the max that should be at 144FPS. This is what G-Sync is all about.

However, a $120 premium won’t be an easy sell as people tend to be very slow with monitor upgrades. Personally, I use an old 26-incher in 1920x1200 and it works just fine in games and for work. At the moment 27-inch full HD monitors start at about €180/$199 and they are sufficient for most casual gamers. Nvidia of course aims for the higher end gaming market and hopes to attract the mainstream gamers with time, but the prices are not working in its favour – and neither is the fact that high-end buyers don’t tend to buy 24-inch monitors.

http://fudzilla.com/home/item/32882-asus-confirms-24-inch-g-sync-monitor-for-$399

Phenomenale
21-10-2013, 13:11
Intanto su Chiphell si fanno speculazioni sulla 780TI, dopo i primi entusiasmi per la possibilità del GK110 FULL la teoria è stata accantonata altrimenti si sarebbe chiamata Titan TI.
La tesi attualmente in corso è che Nvidia voglia rispondere ai 4GB di VRAM della R9-290 proseguendo nella "corsa alla vram" con un modello da 6Gb ma a prezzi consumer... un GK110 con 2496 cuda cores e 6 giga onboard (e magari un turbo booster rivisto e migliorato, che non tagli le frequenze in maniera ossessiva come quello attuale).

Resto in attesa di qualche leak, sono certo che i sample della 780TI inizieranno presto a girare in "certi" ambienti... :fiufiu:



EDIT: Tanto per trollare (in senso buono XD) ma dai forum asiatici poco tempo fa giravano dei GPU-Z con un GK110 avente 1920 cuda cores abilitati e frequenze di clock abbastanza elevate, che tutti "supponevano" dover essere la 770TI. Invece a Montreal propongono una 780TI parlando di "TDP inferiore"..... ma dico io (per trollare XD) se tanto mi da tanto non è che è quella la loro "nuova" proposta.....???

http://videocardz.com/images/2013/09/GTX-770-Ti.jpg

MrBrillio
21-10-2013, 13:41
EDIT: Tanto per trollare (in senso buono XD) ma dai forum asiatici poco tempo fa giravano dei GPU-Z con un GK110 avente 1920 cuda cores abilitati e frequenze di clock abbastanza elevate, che tutti "supponevano" dover essere la 770TI. Invece a Montreal propongono una 780TI parlando di "TDP inferiore"..... ma dico io (per trollare XD) se tanto mi da tanto non è che è quella la loro "nuova" proposta.....???


Ma con 400 cuda cores in meno come farebbe ad essere più performante della 780 liscia se fosse davvero quello lo screen di gpu-z?
Cioè l'avere frequenze più elevate permetterebbe davvero di avere prestazioni migliori? :mbe:

Goofy Goober
21-10-2013, 13:47
1440p 120hz??!?!?!?!?!?

http://gifs.gifbin.com/1233314731_e17c864bd6e0c3.gif

mikael84
21-10-2013, 13:57
Ma con 400 cuda cores in meno come farebbe ad essere più performante della 780 liscia se fosse davvero quello lo screen di gpu-z?
Cioè l'avere frequenze più elevate permetterebbe davvero di avere prestazioni migliori? :mbe:

Teoricamente son circa 150mhz di differenza tra i vari shader ma ovviamente clock to clock una 780 andrebbe meglio.
Come ti spieghi questo
http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_780_OC/26.html

Stessa cosa;)

appleroof
21-10-2013, 14:03
ips 27 2560x1440 120hz gsync:sbav: :sbav: :sbavvv: :rolleyes:??

sarebbe l'ideale, vediamo i costi.:O

Quoto...

MrBrillio
21-10-2013, 14:09
Teoricamente son circa 150mhz di differenza tra i vari shader ma ovviamente clock to clock una 780 andrebbe meglio.
Come ti spieghi questo
http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_780_OC/26.html
Stessa cosa;)

In che senso scusa?

cire92cry
21-10-2013, 14:15
ips 27 2560x1440 120hz gsync:sbav: :sbav: :sbavvv: :rolleyes:??

:eek: :eek: :eek: certo che ti servirebbe almeno un tri sli di 780 per avere 120 fps XD

mikael84
21-10-2013, 14:20
In che senso scusa?

Nel senso che dipende tutto dal clock, come vedi basta clockare leggermente una 780 ed in media riesce ad andare meglio ma se dovessimo utilizzare le stesse frequenze identiche la Titan andrebbe ovviamente meglio e mediamente la differenza e'di 150mhz in 2SMX-75mhz a SMX :)

MrBrillio
21-10-2013, 14:30
Nel senso che dipende tutto dal clock, come vedi basta clockare leggermente una 780 ed in media riesce ad andare meglio ma se dovessimo utilizzare le stesse frequenze identiche la Titan andrebbe ovviamente meglio e mediamente la differenza e'di 150mhz in 2SMX-75mhz a SMX :)

Ah ok..però capisco su schede diverse, ma sulla stessa scheda che senso avrebbe "tirare la coperta" e diminuire i cuda cores per aumentare le frequenze? Cioè...da un lato ci smenerebbe comunque o no :confused:

mikael84
21-10-2013, 14:43
Ah ok..però capisco su schede diverse, ma sulla stessa scheda che senso avrebbe "tirare la coperta" e diminuire i cuda cores per aumentare le frequenze? Cioè...da un lato ci smenerebbe comunque o no :confused:

La 1920ST dovrebbe essere la risposta alla 290 liscia, la 780TI la diretta risposta alla 290x.
Vedila come una 770 a 1920ST(10SMX) piu'che una 780:)

Max775
21-10-2013, 14:56
E' gia stato ipotizzato che la 780Ti potrebbe essere la versione consumer della Tesla K20, cosi' come la Titan lo e' della K20X?

Titan -> 2688 cores, 14 SMX 6GB a 384 bit
780Ti -> 2496 cores, 13 SMX, 5GB a 320 bit
780 -> 2304 cores, 12 SMX, 3GB a 384 bit

appleroof
21-10-2013, 15:04
E' gia stato ipotizzato che la 780Ti potrebbe essere la versione consumer della Tesla K20, cosi' come la Titan lo e' della K20X?

Titan -> 2688 cores, 14 SMX 6GB a 384 bit
780Ti -> 2496 cores, 13 SMX, 5GB a 320 bit
780 -> 2304 cores, 12 SMX, 3GB a 384 bit

io la vedrei meglio come un gk110 con 15smx, 384bit/3 o 6 gb di vram, con la titan in eol ed un prezzo in linea con la 780 attuale (la quale a sua volta scenderebbe)

Giustaf
21-10-2013, 15:09
io la vedrei meglio come un gk110 con 15smx, 384bit/3 o 6 gb di vram, con la titan in eol ed un prezzo in linea con la 780 attuale (la quale a sua volta scenderebbe)

anche a 550€ una 780ti in prospettiva di g-sync la prenderei ad occhi chiusi proprio!

Phenomenale
21-10-2013, 15:11
io la vedrei meglio come un gk110 con 15smx, 384bit/3 o 6 gb di vram, con la titan in eol ed un prezzo in linea con la 780 attuale
Anche io, ma facciamo una considerazione: Nvidia ha sempre fatto versioni professionali (quadro/tesla) delle GPU gaming mantenendo un ratio 3:1 sul prezzo, ad esempio il GK110-400 prezzato $3000 su Tesla e $1000 su GTX (Titan).
Ordunque, il GK110 FULL (a.k.a. GK180) viene $5000 su Quadro, rispettando il ratio 3:1 la 780TI dovrebbe venire almeno $1600... IMHO i conti non tornerebbero. Poi Nvidia ci ha abituato a magheggiare su prezzi :doh:
Tutto può essere. :sofico:

devil_mcry
21-10-2013, 15:15
ips 27 2560x1440 120hz gsync:sbav: :sbav: :sbavvv: :rolleyes:??

ahahaha un sogno

dubito lo vedremo a breve

AceGranger
21-10-2013, 15:16
Anche io, ma facciamo una considerazione: Nvidia ha sempre fatto versioni professionali (quadro/tesla) delle GPU gaming mantenendo un ratio 3:1 sul prezzo, ad esempio il GK110-400 prezzato $3000 su Tesla e $1000 su GTX (Titan).
Ordunque, il GK110 FULL (a.k.a. GK180) viene $5000 su Quadro, rispettando il ratio 3:1 la 780TI dovrebbe venire almeno $1600... IMHO i conti non tornerebbero. Poi Nvidia ci ha abituato a magheggiare su prezzi :doh:
Tutto può essere. :sofico:

EDIT: ho scritto una cavolata, Nvidia ha ABBASSATO il prezzo della Quadro K6000 a $2000, a questo punto hai ragione tu, la 780 Sarà il GK180 FULL a $660 di listino (giusto il ratio 3:1) ;)

Fonte prezzi: http://www.amazon.com/PNY-DisplayPort-Profesional-Graphics-VCQ6000-PB/dp/B0044XUD1U

bè ma cona che la Quadro K6000 con il GK110 Full ha pure 12 Gb di ram, che poco non costano...

Phenomenale
21-10-2013, 15:17
bè ma cona che la Quadro K6000 con il GK110 Full ha pure 12 Gb di ram, che poco non costano...
No: ho sbagliato ad aggiungere quella nota, facevo troppe cose insieme :doh:

Max775
21-10-2013, 15:33
io la vedrei meglio come un gk110 con 15smx, 384bit/3 o 6 gb di vram, con la titan in eol ed un prezzo in linea con la 780 attuale (la quale a sua volta scenderebbe)

Dubito fortemente un full GK110 a $600-700. Per quanto sia buono il pp a 28nm, i pochi esemplari perfetti sono destinati alle Tesla K40 e Quadro K6000. Dubito anche che ritireranno la Titan prima della prossima generazione.

<Masquerade>
21-10-2013, 15:39
edit

<Masquerade>
21-10-2013, 15:41
La 1920ST dovrebbe essere la risposta alla 290 liscia, la 780TI la diretta risposta alla 290x.
Vedila come una 770 a 1920ST(10SMX) piu'che una 780:)

io la vedrei + come una 780 (+ vicino a questa) che 770. dato che a parte i 1920sp, per il resto sarebbe uguale alla 780.

Max775
21-10-2013, 15:42
edit

Quella che probabilmente sara' a 20nm.

The_SaN
21-10-2013, 15:43
:eek: :eek: :eek: certo che ti servirebbe almeno un tri sli di 780 per avere 120 fps XDIl bello è che con i Gsync non sei "obbligato" a farli ;)

<Masquerade>
21-10-2013, 15:44
Quella che probabilmente sara' a 20nm.

cosa mi rispondi a fare se ho editato?

Giustaf
21-10-2013, 15:48
:asd:

Max775
21-10-2013, 15:48
cosa mi rispondi a fare se ho editato?

Forse perche' hai editato mentre io stavo rispondendo? :eek:

appleroof
21-10-2013, 15:49
Dubito fortemente un full GK110 a $600-700. Per quanto sia buono il pp a 28nm, i pochi esemplari perfetti sono destinati alle Tesla K40 e Quadro K6000. Dubito anche che ritireranno la Titan prima della prossima generazione.

se il prezzo lo decidono le prestazioni, come sempre (tranne per Titan) è stato, allora tanto dovrebbe venire, visto che la 290x pare andare praticamente come Titan ad un prezzo ventilato di 650$....

sul pp già mi trovi più d'accordo, la speranza è che dopo un anno di gk110 il pp sia abbastanza maturo da permettere rese decenti (anche perchè di Tesla e Quadro numericamente credo ne vendano molte meno che Geforce), però in effetti è la considerazione che trovo più condivisibile a sfavore dell'ipotesi del chip con 15smx

sulla Titan, hanno già mangiato abbastanza: abbassarla di prezzo sarebbe un'ulteriore caduta di stile, peggio che sostituirla con una vga che ha un chip della stessa famiglia, forse va pure meglio e costa meno...ma sopratutto se la lasciano sul mercato e si crea la situazione del trittico che indicavi, avremmo 3 vga con prestazioni che si differenziano tra loro in una forbice di quanto, 10%?

tutto imho come sempre :fagiano: :D

<Masquerade>
21-10-2013, 15:50
Forse perche' hai editato mentre io stavo rispondendo? :eek:

ma che strano, se fosse così dal tuo quote dovrebbe risultare il mio post prima che fosse editato :eek:

cire92cry
21-10-2013, 16:04
Il bello è che con i Gsync non sei "obbligato" a farli ;)

Si ho capito però allora tanto vale un 60 hz poi be se riesci a farne 100 allora ok il 120 ha senso però se sei intorno ai 70 80 conviene un 60 hz :D

Max775
21-10-2013, 16:14
ma che strano, se fosse così dal tuo quote dovrebbe risultare il mio post prima che fosse editato :eek:

Mi hai beccato! Ho usato i miei poteri telepatici per estrapolare il tuo post dalla parola "edit" e rispondere alla tua domanda originale. Fine OT.

devil_mcry
21-10-2013, 16:18
Mi hai beccato! Ho usato i miei poteri telepatici per estrapolare il tuo post dalla parola "edit" e rispondere alla tua domanda originale. Fine OT.

indipendentemente da cosa hai fatto, ha ragione lui

se uno modifica un post e lo valida dopo che qualcun'altro ha premuto quote e ha aperto l'editor, il post con il quote non riporterà mai le modifiche validate (in questo caso l'EDIT non ha modo di essere registrato)

l'unico modo per far incrociare le due cose è usare il multiquote, ma aprendo l'editor poi si vede che qualcosa non torna

Max775
21-10-2013, 16:21
Si ho capito però allora tanto vale un 60 hz poi be se riesci a farne 100 allora ok il 120 ha senso però se sei intorno ai 70 80 conviene un 60 hz :D

Considera che anche con G-sync il refresh massimo e' sempre dettato dal monitor, mentre il refresh minimo sara' di 30Hz. Quindi con un ipotetico monitor G-sync da 60Hz, non avresti molti vantaggi se fai 70-80 fps di media perche' saresti comunque cappato a 60Hz.

Se invece hai un monitor da 144Hz con G-sync, se sei in media intorno ai 70-80fps con minimi di 40-50, il monitor con G-sync variera' il refresh dinamicamente da 40 a 80Hz a seconda dei fps.

mikael84
21-10-2013, 16:27
io la vedrei + come una 780 (+ vicino a questa) che 770. dato che a parte i 1920sp, per il resto sarebbe uguale alla 780.

Vero hai ragione, ho saltato la parte principale:doh: . Cmq penso sia diretta concorrente della 290 liscia

Max775
21-10-2013, 16:28
indipendentemente da cosa hai fatto, ha ragione lui

se uno modifica un post e lo valida dopo che qualcun'altro ha premuto quote e ha aperto l'editor, il post con il quote non riporterà mai le modifiche validate (in questo caso l'EDIT non ha modo di essere registrato)

l'unico modo per far incrociare le due cose è usare il multiquote, ma aprendo l'editor poi si vede che qualcosa non torna

Grazie per la chiarificazione avvocato. Ho letto la domanda di Maq, cliccato reply e ho risposto, punto. Ora, invece di discutere su come funziona VBB, possiamo continuare a parlare del topic del thread?

appleroof
21-10-2013, 16:28
cut
Se invece hai un monitor da 144Hz con G-sync, se sei in media intorno ai 70-80fps con minimi di 40-50, il monitor con G-sync variera' il refresh dinamicamente da 40 a 80Hz a seconda dei fps.

se entro l'anno prox mi esce un monitor 1440p 120hz con gsync, a prezzo abbordabile, mi sà che mi risulterebbe molto difficile aspettare i 4k 60hz a prezzi buoni.... :sofico:

<Masquerade>
21-10-2013, 16:30
spec ufficiali della GTX 780Ti

http://abload.de/img/2036042jpk40tjvj4j1ltsbcvr.jpg (http://abload.de/image.php?img=2036042jpk40tjvj4j1ltsbcvr.jpg)

mikael84
21-10-2013, 16:36
spec ufficiali della GTX 780Ti



Sembrano abbastanza affidabili:fiufiu: :asd:

Max775
21-10-2013, 16:44
se entro l'anno prox mi esce un monitor 1440p 120hz con gsync, a prezzo abbordabile, mi sà che mi risulterebbe molto difficile aspettare i 4k 60hz a prezzi buoni.... :sofico:

Quello sarebbe ideale. Io volevo prendere l' Asus 24" a 144Hz per Natale da usare solo per il gaming e tenere l'IPS per il resto. Ora con l'annuncio del G-sync aspettero' per la versione compatibile a meno che il mod per il vg248qe sara' fattibile senza troppe complicazioni.

Sarebbe interessante aprire un vg248qe per vedere se c'e' una scheda rimovibile on uno slot che potrebbe essere usato per il modulo G-sync.

ertruffa
21-10-2013, 16:46
Sembrano abbastanza affidabili:fiufiu: :asd:

non mi convince il numero di shaders:asd: :asd:

appleroof
21-10-2013, 16:48
Quello sarebbe ideale. Io volevo prendere l' Asus 24" a 144Hz per Natale da usare solo per il gaming e tenere l'IPS per il resto. Ora con l'annuncio del G-sync aspettero' per la versione compatibile a meno che il mod per il vg248qe sara' fattibile senza troppe complicazioni.

Sarebbe interessante aprire un vg248qe per vedere se c'e' una scheda rimovibile on uno slot che potrebbe essere usato per il modulo G-sync.

qui hai letto? http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming (circa metà pagina "how to upgrade to g-sync")

LurenZ87
21-10-2013, 16:49
spec ufficiali della GTX 780Ti

http://abload.de/img/2036042jpk40tjvj4j1ltsbcvr.jpg (http://abload.de/image.php?img=2036042jpk40tjvj4j1ltsbcvr.jpg)

http://2.bp.blogspot.com/-c9Y6TsB_iwk/UXqnlVW97iI/AAAAAAAABjo/fBi_XrqSk9M/s1600/shut+up.jpg

Inviato dal mio Nexus 4

Max775
21-10-2013, 16:57
qui hai letto? http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming (circa metà pagina "how to upgrade to g-sync")

Bene a sapersi. Aspettero' la pubblicazione delle istruzioni per il mod. Se non richiedera' saldature non sarebbe male, altrimenti dovro' aspettare il modello aggiornato.

Edit:
Ho appena notato questo paragrafo:

"If you prefer to simply buy a monitor off the shelf from a retailer or e-tailer, NVIDIA G-SYNC monitors developed and manufactured by monitor OEMs will be available for sale next year. These monitors will range in size and resolution, scaling all the way up to deluxe 3840x2160 “4K” models, resulting in the ultimate combination of image quality, image smoothness, and input responsiveness."

Speranza per un 1440p 120Hz?

Phenomenale
21-10-2013, 16:58
Da chiphell è sbucato fuori questo leak, non mi assumo responsabilità: :help:
http://www.chiploco.com/nvidia-gtx-780-ti-gpu-z-specifications-29788/

Sostanzialmente è quello che pensavo io...

LurenZ87
21-10-2013, 17:02
Da chiphell è sbucato fuori questo leak, non mi assumo responsabilità: :help:
http://www.chiploco.com/nvidia-gtx-780-ti-gpu-z-specifications-29788/

Sostanzialmente è quello che pensavo io...

Spero sia vero, così riduco la scelta sulla nuova vga...

Inviato dal mio Nexus 4

<Masquerade>
21-10-2013, 17:38
che cos'è una 2496sp che boosta al max a 1050mhz invece di 1000 circa??

se è in quel modo cmq dovrebbe andare come la Titan...

xbeatx
21-10-2013, 18:00
Si ho capito però allora tanto vale un 60 hz poi be se riesci a farne 100 allora ok il 120 ha senso però se sei intorno ai 70 80 conviene un 60 hz :D

scusami ma non ti seguo :) perchè conviene un 60hz con 70/80 fps?
significa che castri il potenziale della scheda video
con il g-sync il refresh dichiarato del monitor non è più un valore fisso ... diventa il limite massimo ... avendo margine fino 120hz otterresti 70fps/70hz o 80fps/80hz , con un monitor a 60hz si fermerebbe a 60fps

Phenomenale
21-10-2013, 18:03
che cos'è una 2496sp che boosta al max a 1050mhz invece di 1000 circa??
se è in quel modo cmq dovrebbe andare come la Titan...
Yes!

antonioslash
21-10-2013, 18:26
Da chiphell è sbucato fuori questo leak, non mi assumo responsabilità: :help:
http://www.chiploco.com/nvidia-gtx-780-ti-gpu-z-specifications-29788/

Sostanzialmente è quello che pensavo io...

ottimo quindi si prevede un calo della 780..

devil_mcry
21-10-2013, 18:32
ottimo quindi si prevede un calo della 780..

molto probabilmente rimarrà tutto com'è ora

la 780 costa di fatto 500e (anche modelli OC), la 780 Ti uscirà a 650

slide1965
21-10-2013, 18:32
se entro l'anno prox mi esce un monitor 1440p 120hz con gsync, a prezzo abbordabile, mi sà che mi risulterebbe molto difficile aspettare i 4k 60hz a prezzi buoni.... :sofico:
Oserei dire che sarebbe quasi impossibile :sofico:
a parte che in 4k scordiamoci i 120hz, vuoi per la banda vuoi perché non basta un 4way di titan per tenerli:D
4k va preteso solo a 60hz al momento ma se mi uscisse un 2560x1440 120hz IPS con gsync non avrei dubbi e il 4k lo mollerei anche a pari prezzo ;)

appleroof
21-10-2013, 18:42
Oserei dire che sarebbe quasi impossibile :sofico:
a parte che in 4k scordiamoci i 120hz, vuoi per la banda vuoi perché non basta un 4way di titan per tenerli:D
4k va preteso solo a 60hz al momento ma se mi uscisse un 2560x1440 120hz IPS con gsync non avrei dubbi e il 4k lo mollerei anche a pari prezzo ;)

guarda meglio il post che mi hai quotato

cire92cry
21-10-2013, 18:45
scusami ma non ti seguo :) perchè conviene un 60hz con 70/80 fps?
significa che castri il potenziale della scheda video
con il g-sync il refresh dichiarato del monitor non è più un valore fisso ... diventa il limite massimo ... avendo margine fino 120hz otterresti 70fps/70hz o 80fps/80hz , con un monitor a 60hz si fermerebbe a 60fps

Nel senso che un monitor 4K 120 hz già costerà molto di più di un 60hz poi se il tuo hardware riesce a fare i 120 100 fps sicuramente noti la differenza ma se ne fai 70 80 nonostante ne fai più di 60 non noti molto la differenza. :D
Il mio era più un ragionamento pensando anche al costo perchè tenere gli fps sopra a 100 su un 4k sarà dura per molti anni :D

Torniamo IT :)

Sono curioso di vedere la 780 TI

xbeatx
21-10-2013, 19:09
Nel senso che un monitor 4K 120 hz già costerà molto di più di un 60hz poi se il tuo hardware riesce a fare i 120 100 fps sicuramente noti la differenza ma se ne fai 70 80 nonostante ne fai più di 60 non noti molto la differenza. :D
Il mio era più un ragionamento pensando anche al costo perchè tenere gli fps sopra a 100 su un 4k sarà dura per molti anni :D

Torniamo IT :)

Sono curioso di vedere la 780 TI

per i 4K ci vorrà ancora del tempo ... però i WQHD koreani che raggiungono 120Hz già ci sono ... fra qualche mese pure con il Gsync se hai visto il link che ho messo qualche pagina indietro ... come prezzi sono relativamente accessibili :fagiano:

ps: c'è Tom Petersen di Nvidia su PcPer live per chi volesse seguire ... presenta il G-sync

http://www.pcper.com/live/

<Masquerade>
21-10-2013, 19:12
Da chiphell è sbucato fuori questo leak, non mi assumo responsabilità: :help:
http://www.chiploco.com/nvidia-gtx-780-ti-gpu-z-specifications-29788/

Sostanzialmente è quello che pensavo io...

Cmq fake, non tornano i valori di pixel e texture fillrate.
in particolare quello del texture è a dir poco esagerato, per una scheda con quelle spec dovrebbe venire 187.6

mikael84
21-10-2013, 19:22
Cmq fake, non tornano i valori di pixel e texture fillrate.
in particolare quello del texture è a dir poco esagerato, per una scheda con quelle spec dovrebbe venire 187.6

Vero
Pixel dovrebbe dare 43,2 e ci siamo quasi
Texture 187,6
Neppure con 224TMU arriva a 205
Stiamo a vedere

<Masquerade>
21-10-2013, 20:09
Vero
Pixel dovrebbe dare 43,2 e ci siamo quasi
Texture 187,6
Neppure con 224TMU arriva a 205
Stiamo a vedere

per avere quei valori dovrebbe essere come una Titan (224TMU), ma con base clock di 916mhz invece di 837.

mikael84
21-10-2013, 21:54
per avere quei valori dovrebbe essere come una Titan (224TMU), ma con base clock di 916mhz invece di 837.

Verissimo

killeragosta90
21-10-2013, 22:32
Da chiphell è sbucato fuori questo leak, non mi assumo responsabilità: :help:
http://www.chiploco.com/nvidia-gtx-780-ti-gpu-z-specifications-29788/

Sostanzialmente è quello che pensavo io...

Non mi piacciono queste specifiche :O

Spero sia un bel fake come si presuppone :O

Ludus
22-10-2013, 08:50
Non mi piacciono queste specifiche :O

Spero sia un bel fake come si presuppone :O

Perché no?
Se la prezzano al valore attuale delle 780 e queste si deprezzano di un centone abbondante, non mi dispiacerebbe.

MrBrillio
22-10-2013, 09:14
Perché no?
Se la prezzano al valore attuale delle 780 e queste si deprezzano di un centone abbondante, non mi dispiacerebbe.

Mi sa che è difficile che abbasseranno i prezzi delle 780/titan di molto in previsione dell'uscita della Ti. Alla fine da questo weekend parte la promozione dei giochi in bundle....inoltre quando l hanno presentata come la scheda video "più veloce" realizzata, non so perchè ma ho pensato subito all eventuale prezzo.
Però sinceramente visto il gran parlare che si sta facendo del 4k mi sarei aspettato una dual gpu che in tal senso sarebbe stata più appropriata....alla fine forti del Gsync avrebbero potuto osare una scheda del genere...tanto so che uscirà non appena compro le vga io :muro:

MrBrillio
22-10-2013, 09:54
Sì sì una bella dual GPU che grazie al Gsync poteva essere sfruttata ancora meglio..senza quelle magagnette classiche dello SLI/CF...
Anche se ieri durante l'intervista con Tom Petersen mi è parso di capire che il gsync falsa un po' le rilevazioni con lo SLI.

FroZen
22-10-2013, 10:52
Sì sì una bella dual GPU che grazie al Gsync poteva essere sfruttata ancora meglio..senza quelle magagnette classiche dello SLI/CF...

:mbe: sempre Sli rimane................g-sync o non g-sync...........

MrBrillio
22-10-2013, 10:59
Naaa intendevo che il gsync potrebbe risolvere quelle magagne di stutter che capitano con lo sli

appleroof
22-10-2013, 13:58
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Death-Refresh-Rate/Potential-Benefits-New-Interface

mtofa
22-10-2013, 14:08
Mi iscrivo

mircocatta
22-10-2013, 14:44
il g-sync funzionerà solo su nvidia giusto? perchè se così non fosse anche le console ne guadagnerebbero


edit: domanda forse idiota visto che un monitor non può sapere se è collegato tramite dvi con una nvidia o ati :asd: scusate :asd:
nel caso, ottimo :) non vedo l'ora di vederne i benefici! meglio aspettare a cambiare monitor :D

FroZen
22-10-2013, 14:47
il g-sync funzionerà solo su nvidia giusto?

Basta avere Mantle

:asd:

Pare di si ovviamente.............poi si vedrà in futuro......

@catta: (ma ti ho in steam come amico?!? mi ricordi qualcuno...) leggi qui
" This new feature will combine changes to the graphics driver as well as change to the monitor to alter the way refresh rates and Vsync have worked for decades."

MrBrillio
22-10-2013, 14:57
Basta avere Mantle
:asd:
Pare di si ovviamente.............poi si vedrà in futuro......
@catta: (ma ti ho in steam come amico?!? mi ricordi qualcuno...) leggi qui
" This new feature will combine changes to the graphics driver as well as change to the monitor to alter the way refresh rates and Vsync have worked for decades."

Magari nel futuro saranno anche compatibili con AMD eh...da quello che è saltato fuori ieri sera non sembrava una tecnologia così chiusa...certo bisognerebbe sviluppare l hw secondo le specifiche di gsync, ma non escluderei un ipotetico supporto ad altre gpu....anche perchè mi sembra strano che un'opportunità così ghiotta per piazzare milioni di monitor fiammanti venga "sprecata" dai vari produttori no? Un conto è vendere monitor con GSync (che tutti probabilmente acquisterebbero) ai soli utenti Nvidia, un'altro paio di maniche sarebbe rendere una tecnologia del genere fruibile da tutti senza distinzione di gpu...sarebbe molto più alto l'introito..credo.

maxmix65
22-10-2013, 15:02
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-G-Sync-Death-Refresh-Rate/Potential-Benefits-New-Interface

Praticamente che farebbe sta cosa??
Blocca gli fps ad esempio a 70 o 80 a salire fissi su un monitor a seconda della potenza della scheda alzando gli hz del monitor ??
Oppure anche se fai 40 fps fa scendere gli hz del monitor a 40??

FroZen
22-10-2013, 15:14
Praticamente che farebbe sta cosa??
Blocca gli fps ad esempio a 70 o 80 a salire fissi su un monitor a seconda della potenza della scheda alzando gli hz del monitor ??
Oppure anche se fai 40 fps fa scendere gli hz del monitor a 40??

La seconda che hai detto...........

appleroof
22-10-2013, 17:00
Praticamente che farebbe sta cosa??
Blocca gli fps ad esempio a 70 o 80 a salire fissi su un monitor a seconda della potenza della scheda alzando gli hz del monitor ??
Oppure anche se fai 40 fps fa scendere gli hz del monitor a 40??

si, questa: se hai un monitor 144hz, per fare l'esempio proprio dell'articolo, il refresh sarà legato agli fps in tempo reale...quindi se fai 45fps hai 45hz, se fai 70fps hai 70hz, se fai 120fps hai 120hz etc...in finale si rende inutile quindi il vsync (e pure l'adaptive vsync) con gli svanataggi in termini di lag che esso può portare.

devil_mcry
22-10-2013, 17:03
La seconda che hai detto...........

già attualmente puoi forzare il pannello lcd a fare più fps di quanti ne fa di fabbrica con nVidia, da un bel po'

percui, come ora con un 60hz puoi arrivare a 70-80, un domani con quella tecnologia avrai la copertura quasi completa, sempre 1:1 con il monitor

maxmix65
22-10-2013, 17:12
si, questa: se hai un monitor 144hz, per fare l'esempio proprio dell'articolo, il refresh sarà legato agli fps in tempo reale...quindi se fai 45fps hai 45hz, se fai 70fps hai 70hz, se fai 120fps hai 120hz etc...in finale si rende inutile quindi il vsync (e pure l'adaptive vsync) con gli svanataggi in termini di lag che esso può portare.

Ok
Comunque io faccio un altra cosa nei giochi sopratutto online non uso la sincronia verticale ma cappo gli fps ad esempio a 80 senza che possano scendere o salire..
Provateci io ho eliminato cosi il tearing e non ho problemi di lag ecc..
Forse sara' una mia impressione ma secondo me gioco meglio
Ho provato a lasciare liberi gli fps ma quando fluttuano gioco peggio
Monitor 60hz

FroZen
22-10-2013, 17:13
già attualmente puoi forzare il pannello lcd a fare più fps di quanti ne fa di fabbrica con nVidia, da un bel po'

percui, come ora con un 60hz puoi arrivare a 70-80, un domani con quella tecnologia avrai la copertura quasi completa, sempre 1:1 con il monitor

Si ma il tuo pannello spara sempre quegli Hz target, mica si adattava al ribasso e dinamicamente in base a quello che spara fuori la vga ;) con il tearing orizzontale come risultato quando il frame rate è minore del pannello....

devil_mcry
22-10-2013, 17:16
Si ma il tuo pannello spara sempre quegli Hz target, mica si adattava al ribasso e dinamicamente in base a quello che spara fuori la vga ;) con il tearing orizzontale come risultato quando il frame rate è minore del pannello....
no ma dopo andra sotto e sopra volendo

quindi sia a 40fps in dinamico, sia a 70-80 in dinamico, su un 60hz

appleroof
22-10-2013, 17:41
Ok
Comunque io faccio un altra cosa nei giochi sopratutto online non uso la sincronia verticale ma cappo gli fps ad esempio a 80 senza che possano scendere o salire..
Provateci io ho eliminato cosi il tearing e non ho problemi di lag ecc..
Forse sara' una mia impressione ma secondo me gioco meglio
Ho provato a lasciare liberi gli fps ma quando fluttuano gioco peggio
Monitor 60hz

:boh:

The_SaN
22-10-2013, 18:06
Ok
Comunque io faccio un altra cosa nei giochi sopratutto online non uso la sincronia verticale ma cappo gli fps ad esempio a 80 senza che possano scendere o salire..
Provateci io ho eliminato cosi il tearing e non ho problemi di lag ecc..
Forse sara' una mia impressione ma secondo me gioco meglio
Ho provato a lasciare liberi gli fps ma quando fluttuano gioco peggio
Monitor 60hzForzando il cap fps rimuovi il lag perchè non sincronizzi nulla.
Però strano che non noti tearing, in questo modo (teoricamente) non lo rimuovi...anzi, potresti pure peggiorarlo.

maxmix65
22-10-2013, 18:12
Forzando il cap fps rimuovi il lag perchè non sincronizzi nulla.
Però strano che non noti tearing, in questo modo (teoricamente) non lo rimuovi...anzi, potresti pure peggiorarlo.

Se avete battlefield 3 vi faccio vedere che sparisce tutto in questo modo..

Max775
22-10-2013, 18:22
Forzando il cap fps rimuovi il lag perchè non sincronizzi nulla.
Però strano che non noti tearing, in questo modo (teoricamente) non lo rimuovi...anzi, potresti pure peggiorarlo.

Appunto. Avere il cap sui fps senza sincronia non puo' eliminare il tearing, ma al massimo puo alleviarlo se il cap e' settato intorno al refresh del monitor.