PSYHS
08-07-2015, 14:19
Ciao a tutti,
sono in procinto di ricevere il mio primo monitor con tecnologia nvidia G-SYNC (e non vedo l'ora, perchè sono videogiocatore da una vita e sono particolarmente sensibilie sia, da una parte, al tearing dell'immagine, che dall'altra all'input lag conseguente all'uso del V-SYNC) ma ho un dubbio sul funzionamento di questa tecnologia, spero che qualcuno possa illuminarmi a riguardo....
Allora, a quanto ho capito il chip integrato nel monitor si occupa di far sì che il REFRESH RATE del monitor sia costantemente sincronizzato con i FRAME AL SECONDO emessi dalla VGA GTX, è corretto?
Ora, se le cose stanno così, e se uno ha un setup per cui, mediamente, con dettagli alti, arriva intorno ai 50-60 fps nei giochi, significa che in realtà il refresh rate del monitor sarà sempre intorno ai 50-60 Hz, è corretto?
il mio dubbio è: QUESTO AVVIENE ANCHE IN CASO IN CUI IL MONITOR SUPPORTI Refresh Rates più veloci, come 120 o 144hz? :confused:
Se fosse così, sarebbe un peccato perchè in questo modo si perde la vera velocità di aggiornamento a cui può andare il monitor. :muro:
In pratica, anche se uno ha speso di più per un monitor 144hz, se giocando la sua VGA lo spinge al massimo a 60fps, avrà esattamente la stessa esperienza che non se avesse un semplice monitor a 60Hz, giusto?! (parlo di ghosting e blurring, non ovviamente di tearing, che è eliminato dal GSYNC).
Oppure in realtà il GSYNC fa un qualche tipo di calcolo che gli consente di usare multipli, ES: 60 Fps dalla VGA -> 120Hz di refresh rate sul monitor (sfrutto un multiplo degli fps in cui ogni immagine generata dalla VGA mi persiste a video per due cicli di immagine) di modo comunque da mantenere il vantaggio del pannello più veloce?!?!
Se qualcuno lo sa, mi illumini please!!! :help:
GRAAASSSIE MILLLE!!! :D
sono in procinto di ricevere il mio primo monitor con tecnologia nvidia G-SYNC (e non vedo l'ora, perchè sono videogiocatore da una vita e sono particolarmente sensibilie sia, da una parte, al tearing dell'immagine, che dall'altra all'input lag conseguente all'uso del V-SYNC) ma ho un dubbio sul funzionamento di questa tecnologia, spero che qualcuno possa illuminarmi a riguardo....
Allora, a quanto ho capito il chip integrato nel monitor si occupa di far sì che il REFRESH RATE del monitor sia costantemente sincronizzato con i FRAME AL SECONDO emessi dalla VGA GTX, è corretto?
Ora, se le cose stanno così, e se uno ha un setup per cui, mediamente, con dettagli alti, arriva intorno ai 50-60 fps nei giochi, significa che in realtà il refresh rate del monitor sarà sempre intorno ai 50-60 Hz, è corretto?
il mio dubbio è: QUESTO AVVIENE ANCHE IN CASO IN CUI IL MONITOR SUPPORTI Refresh Rates più veloci, come 120 o 144hz? :confused:
Se fosse così, sarebbe un peccato perchè in questo modo si perde la vera velocità di aggiornamento a cui può andare il monitor. :muro:
In pratica, anche se uno ha speso di più per un monitor 144hz, se giocando la sua VGA lo spinge al massimo a 60fps, avrà esattamente la stessa esperienza che non se avesse un semplice monitor a 60Hz, giusto?! (parlo di ghosting e blurring, non ovviamente di tearing, che è eliminato dal GSYNC).
Oppure in realtà il GSYNC fa un qualche tipo di calcolo che gli consente di usare multipli, ES: 60 Fps dalla VGA -> 120Hz di refresh rate sul monitor (sfrutto un multiplo degli fps in cui ogni immagine generata dalla VGA mi persiste a video per due cicli di immagine) di modo comunque da mantenere il vantaggio del pannello più veloce?!?!
Se qualcuno lo sa, mi illumini please!!! :help:
GRAAASSSIE MILLLE!!! :D