Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Schede madri ASUS Z390: ROG Maximus XI Formula e Gene
Schede madri ASUS Z390: ROG Maximus XI Formula e Gene
La tecnologia AI Overclocking è al centro di queste due schede madri ASUS della famiglia Republic of Gamers, modelli che spiccano per la dotazione completa e per la costruzione pensata per gli utenti più appassionati.
Battlefield V su GeForce RTX: quanto incide il Ray Tracing sulle prestazioni
Battlefield V su GeForce RTX: quanto incide il Ray Tracing sulle prestazioni
Battlefield V è il primo gioco a supportare il Ray Tracing secondo l'uso che ne viene fatto dalle DirectX Raytracing. Lo abbiamo testato su 7 differenti schede video e in questo articolo trovate uno spaccato delle prestazioni dell'ultimo titolo DICE con Frostbite Engine, con particolare attenzione all'implementazione del Ray Tracing.
Intel 2018 Architecture day: le CPU e GPU del futuro, passando per 3D stack
Intel 2018 Architecture day: le CPU e GPU del futuro, passando per 3D stack
Intel prepara la strada dell'evoluzione tecnologica attesa nei prossimi anni fornendo dettagli sulle proprie future soluzioni CPU a 10 nanometri e GPU, dal 2020 anche su schede PCI Express. Ma la novità più interessante riguarda Foveros, la tecnologia di 3D stacking che permette di costruire chip sempre più complessi e integrati
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 26-11-2017, 22:27   #1
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Città: Stella!
Messaggi: 10433
[Thread Ufficiale] NVIDIA G-SYNC: guida pratica all'uso

Visto che molti hanno dubbi/incertezze in merito ai corretti funzionamento ed impostazione del G-SYNC, ho ritenuto opportuno creare questo thread dedicato per discutere di questa tecnologia. Consigli e suggerimenti sono, ovviamente, ben accetti.



Indice dei contenuti
1) Cos'è
2) Come funziona
3) Come sfruttarlo
4) Come configurarlo
5) Pareri ed esperienza personale

a) Riferimenti utili
b) Liste di monitor G-SYNC sul mercato
c) FAQ
d) Installazione, aggiornamento e impostazione ottimale dei driver NVIDIA
e) Differenze/analogie con AMD FreeSync
f) Breve guida al V-SYNC e a tecniche "alternative" per eliminare/ridurre tearing/stuttering/input lag
g) Breve guida alla calibrazione del monitor tramite Lagom test



1) Cos'è
La tecnologia per monitor NVIDIA G-SYNC è una tecnica di "sincronizzazione adattiva" che elimina o quanto meno riduce notevolmente:

a) L'input lag (ritardo di input). I monitor G-SYNC garantiscono un ritardo minimo tra comandi della tastiera e azioni su schermo.
b) Tearing (strappo/tremolio dell'immagine).
c) Stuttering (saltellamento/scattosità dell'immagine).

Esempio di stuttering (percepibile, ovviamente, solo con un video).

Esempio di tearing.


L'esperienza di gioco su PC diventa molto più fluida, veloce e reattiva. Infatti G-SYNC allinea dinamicamente la velocità di refresh del display al frame rate della GPU. Il refresh del monitor non rappresenta un limite e supporta velocità da 0 Hz fino al massimo consentito dal pannello del monitor. NVIDIA collabora con i produttori di pannelli per offrire sul mercato la più ampia gamma di pannelli ad alta velocità, da 60 Hz a 240 Hz.

I monitor G-SYNC integrano un modulo hardware sviluppato ad hoc da NVIDIA che, oltre a gestire il G-SYNC in senso stretto, sostituisce nel funzionamento lo scaler della GPU (quando il monitor è collegato tramite DisplayPort, vedi più avanti). Tale chip, inoltre, gestisce un overdrive variabile che elimina l'effetto scia, prevedendo il frame successivo e regolando i parametri dell'overdrive stesso dello schermo del monitor.



Infine, G-SYNC HDR (High Dynamic Range) riproduce un'ampissima gamma di colori con una luminosità estremamente intensa per assicurare una grafica vivida.



2) Come funziona
Sin dalla loro prima immissione sul mercato, i monitor hanno sempre avuto frequenze di aggiornamento (refresh rate) fisse - tipicamente di 60 Hz. Ma a causa della natura dinamica e variabile dei giochi per PC, le GPU renderizzano i frame a velocità variabile. Quando la GPU cerca di sincronizzarsi con il monitor, si verifica tearing persistente. L'attivazione del V-SYNC (Vertical-SYNC) permette di eliminare il tearing ma causa un aumento di latenza e stuttering.

G-SYNC è in grado di eliminare questo compromesso, sincronizzando perfettamente il display con la GPU, a prescindere dal frame rate, restituendo un'esperienza videoludica di assoluto livello.

Ma i quali sono i benefici del G-SYNC rispetto al V-SYNC?
Col V-SYNC attivo, la GPU e il display sono sincronizzati così che la prima invia frame renderizzati al secondo ad una cadenza fissa (60 volte al secondo su monitor con refresh rate di 60 Hz). Sono due gli svantaggi associati all'uso del V-SYNC:
1) Stuttering, poiché la GPU potrebbe renderizzare frame a velocità inferiore di un frame ogni 1/60 secondi (o 60 FPS, frame per second).
2) Input lag, in quanto la risposta all'input è fissata e limitata a 1/60 secondi.

I monitor con tecnologia G-SYNC risolvono questi svantaggi accettando e visualizzando a schermo i frame non appena questi sono renderizzati dalla GPU. Questo comporta un'esperienza di gioco più fluida e un input lag minimizzato.

Il range di funzionamento del G-SYNC di qualsiasi monitor che supporta questa tecnologia è sempre compreso tra 30 Hz - massimo refresh rate del monitor (60, 75, 144, 165, 240 Hz, in base alle specifiche del monitor). Ma che succede quando la GPU si trova ad operare al di fuori di questo range? Sono due i casi possibili, ovviamente.

a) La GPU è in grado di generare più FPS del massimo refresh rate del monitor. Si faccia riferimento al punto 4) del paragrafo 4 per una spiegazione esaustiva.
b) La GPU genera meno di 30 FPS. In questo caso, il chip dedicato installato nel monitor provvede a far funzionare il display ad una frequenza di aggiornamento che può essere fino a 4 volte superiore agli FPS generati dalla GPU. Per esempio, se la GPU genera 25 FPS, il monitor si porterà a lavorare ad una frequenza di 50 Hz, re-visualizzando per 2 cicli lo stesso frame. Se la GPU genera 7 FPS, il monitor lavorerà a 28 Hz (x4). Per ovvi motivi, al di sotto di 7 FPS questo "escamotage" non funziona più. Chiaramente, questa modalità non è la panacea definitiva e non rende le immagini più fluide di quanto la GPU non sia in grado di fare, ma permette in ogni caso di evitare tearing e stuttering eccessivo. Va da sé che è consigliabile regolare meglio le impostazioni grafiche o aggiornare la propria GPU se quest'ultima non è in grado di lavorare a più di 30 FPS, in quanto il G-SYNC non è stato pensato per operare, di norma, in queste condizioni limite.



3) Come sfruttarlo
Utilizzare il G-SYNC è molto semplice. L'hardware ed il software richiesti sono i seguenti:

a) Una GPU NVIDIA GeForce GTX 650Ti BOOST (architettura Kepler) o superiore/più recente.
b) Un monitor G-SYNC compatibile.
c) Un cavo con supporto al protocollo DisplayPort (DP) 1.2. Generalmente è fornito col monitor; è sempre consigliabile utilizzare il cavo fornito dal produttore del monitor, o nel caso un cavo di buona qualità, specie per monitor con refresh rate elevato (>144 Hz).
d) Windows 7, 8, 8.1 o 10.
e) Driver R340.52 o più recenti.

A questo punto è sufficiente collegare l'ingresso DP del monitor (generalmente nei monitor G-SYNC c'è un solo ingresso DP, quindi non ci si può sbagliare) con un'uscita DP della scheda video utilizzando il cavo a disposizione. Se nel sistema sono già installati driver NVIDIA, il G-SYNC dovrebbe risultare subito attivo. Per esserne certi, basta andare nel pannello di controllo dei driver NVIDIA e alla voce "Configura G-SYNC" verificare che vi sia una spunta su "Attiva G-SYNC per la modalità a schermo intero". Faccio notare che, sebbene con gli ultimi driver sia possibile sfruttare G-SYNC anche in modalità finestra, è in modalità schermo intero che la tecnologia restituisce le migliori performance.



Vale la pena verificare, inoltre, che la frequenza di aggiornamento (refresh rate) del monitor sia impostata correttamente al valore massimo supportato dal pannello. Per farlo, andare su "Cambia risoluzione" e verificare che risoluzione e refresh rate siano impostati correttamente in base alle specifiche del monitor.



Un'ulteriore conferma può consistere nel verificare l'OSD del monitor; generalmente i monitor G-SYNC indicano nel proprio menù OSD se la modalità G-SYNC è attiva o meno.



4) Come configurarlo
La procedura riportata nel paragrafo 3 è sufficiente per utilizzare il G-SYNC senza problemi. Tuttavia, tramite il pannello di controllo dei driver NVIDIA, è possibile effettuare ulteriori configurazioni per adattare il funzionamento del G-SYNC alle proprie specifiche esigenze. Di seguito, i passaggi da effettuare sul pannello di controllo.

1) Nella prima voce "Configura impostazioni immagine con anteprima" selezionare "Usa le impostazioni avanzate dell'immagine 3D" è premere "Applica".



2) Su "Configura impostazioni 3D", "Impostazioni globali", verificare che "Tecnologia monitor" sia impostata su "G-SYNC".



3) Su "Configura impostazioni 3D", "Impostazioni globali", verificare che la "Frequenza di aggiornamento preferita" sia impostata su "La più alta disponibile" (vedi figura sopra).

4) A questo punto, ci si deve soffermare sulla voce "Configura impostazioni 3D", "Impostazioni globali", "Sincronizzazione verticale". Sebbene questa voce possa lasciare intendere una configurazione del V-SYNC che poco ha a che fare col G-SYNC, in realtà essa permette di gestire il comportamento del monitor nel caso in cui gli FPS generati dalla GPU siano superiori al refresh rate massimo del monitor, ovvero al limite superiore di operatività del G-SYNC (che, vale la pena ricordare, è sempre compreso nel range 30 Hz - massimo refresh rate del monitor). A titolo di esempio, considerando un monitor G-SYNC con refresh rate massimo di 144 Hz, le impostazioni qui discusse si applicano nel momento in cui la GPU è in grado di elaborare più di 144 FPS.

Fatta questa dovuta premessa, le possibilità che si hanno sono le seguenti (ovviamente il G-Sync deve risultare attivo). Si faccia riferimento alla figura sopra.

a) V-SYNC attivo. Vuol dire che la GPU non genererà mai più FPS di quelli corrispondenti al massimo refresh rate del monitor (es., mai più di 144 FPS per un monitor con refresh rate massimo di 144 Hz). Fintanto che gli FPS sono inferiori al massimo refresh rate del monitor, il G-SYNC lavora come previsto. Non si hanno tearing né stuttering, in nessun caso. Nel caso in cui la GPU fosse in grado di generare un numero di FPS superiore al massimo refresh rate del monitor, il G-SYNC viene disattivato e si attiva il classico V-SYNC. Questo può portare ad avere un aumento di input lag, nel senso che la GPU potrebbe potenzialmente generare un maggior numero di FPS che, di conseguenza, andrebbero a ridurre ulteriormente l'input lag. Non che a 144 FPS (o in generale agli FPS corrispondenti al massimo refresh rate del monitor) l'input lag sia alto, tutt'altro, ma alcuni giocatori potrebbero comunque desiderare il massimo beneficio possibile da questo punto di vista. La modalità appena descritta è utile per non far lavorare la GPU più del dovuto, facendole generare inutilmente frame che il monitor non sarebbe comunque in grado di visualizzare. In questo modo, ovviamente, si risparmia energia e le temperature della GPU sono più basse nel momento in cui GPU e monitor lavorano, rispettivamente, a 144 FPS/Hz.

b) V-SYNC disattivato. La GPU lavora sempre al 100% (durante elaborazione 3D, ovviamente, non in generale), generando il massimo numero possibile di FPS in ogni scena. Fintanto che gli FPS generati sono inferiori del massimo refresh rate del monitor, il G-SYNC risulta attivo e lavora come previsto, eliminando tearing e stuttering. L'input lag è ridotto. Quando gli FPS sono superiori al massimo refresh rate del monitor, il G-SYNC si disattiva, non si ha stuttering ma si avrà tearing. L'input lag è ridotto al minimo possibile per ogni scena renderizzata. E' un'impostazione utile solo per chi vuole il minor input lag possibile, in ogni condizione, al prezzo di avere tearing, però.

c) Veloce (FastSync attivo). La GPU lavora sempre al 100% (durante elaborazione 3D, ovviamente, non in generale), generando il massimo numero possibile di FPS in ogni scena. Fintanto che gli FPS generati sono inferiori del massimo refresh rate del monitor, il G-SYNC risulta attivo e lavora come previsto, eliminando tearing e stuttering. L'input lag è ridotto. Quando gli FPS sono superiori al massimo refresh rate del monitor, il G-SYNC si disattiva ed entra in gioco la modalità NVIDIA cosiddetta "FastSync". Quando quest'ultima è attiva, si continua a non avere stuttering né tearing, l'input lag è ridotto ma non come nel caso b). Ha senso se si gioca online e si vuole avere basso input lag, senza però perdere i vantaggi di zero tearing. Più o meno combina i vantaggi delle impostazioni a) e b). Potrebbe dare problemi con alcuni giochi, quindi è da provare caso per caso.

Nota bene: in ogni caso, il V-SYNC va sempre disattivato nelle opzioni di qualsiasi gioco ed è sempre preferibile giocare in modalità schermo intero.

L'immagine seguente riassume un po' tutte le considerazioni svolte sinora (nota: ulteriori approfondimenti a seguire).



Fatto questo, non vi resta altro da fare che far partire il vostro gioco preferito e godere dei vantaggi di questa tecnologia! Se avete programmi come la combo MSI Afterburner/RivaTuner attivi, potete verificare tramite le informazioni OSD se quanto riportato nel precedente punto 4) risulta rispettato o meno.

Buon divertimento!



5) Pareri ed esperienza personale
In questo paragrafo conclusivo, volevo cercare di descrivere "a parole" l'esperienza che ci si può aspettare da un monitor con G-SYNC attivo, visto che immagini/video non sono di certo sufficienti per comprenderne appieno il potenziale. Sono necessarie due premesse, in ogni caso.

1) La percezione di tearing/stuttering/input lag è del tutto soggettiva. Alcuni potrebbero notare questi "difetti" immediatamente, altri affatto, altri solo in determinate circostanze. L'esperienza che riporto di seguito è personale e, dunque, non generalizzabile per chiunque.
2) L'unico modo incontrovertibile per capire davvero come funziona il G-SYNC è provarlo di persona, con i propri occhi.

Fatte queste dovute premesse, posso cercare di descrivere il salto di qualità che ho avuto passando da un "classico" monitor a refresh rate fisso a 60 Hz ad uno G-SYNC con refresh rate massimo di 165 Hz (Dell S2417DG). Nei giochi, la cosa che ho notato immediatamente è una sensazione di fluidità incredibile, unita alla totale assenza di scie. Questo, si badi bene, vale in generale, sia a FPS elevati che non (ovviamente sempre con un certo margine al di sopra di 30 FPS). Per fare un paragone rapido ed efficace, posso affermare senza problemi che 60 FPS con G-SYNC attivo "sembrano" decisamente più fluidi dei classici 60 FPS "cappati" col V-SYNC. Completamente un'altra storia. In gioco tutto diventa più chiaro e facilmente identificabile. Nei titoli più frenetici, si ha maggiore consapevolezza di quanto sta accadendo, rendendo l'esperienza molto più coinvolgente. Inoltre, anche variazioni di FPS considerevoli (per esempio, un passaggio repentino da più di 100 FPS a 60 o meno FPS) non sono affatto evidenti, e spesso è possibile accorgersene solo usando software che mostrano gli FPS in OSD.

Anche rispetto al caso di V-SYNC disattivato o di "stratagemmi" come giocare in finestra senza bordi (che consente di non avere né tearing, né stuttering, né aumento di input lag anche senza refresh varaibile), il miglioramento nel mio caso è stato assolutamente evidente. Personalmente, utilizzare una delle due tecniche appena citate non mi ha mai dato una buona sensazione di fluidità, probabilmente perché i miei occhi non "digeriscono" bene il disallineamento tra FPS generati ed Hz visualizzati. Ho sempre ritenuto la soluzione migliore attivare il V-SYNC e giocare con FPS costanti pari al refresh rate del monitor. Ma come detto poco sopra, anche in questo caso il G-SYNC si è rivelato migliore, dal mio punto di vista.

Concludo parlando dell'input lag. Personalmente, non sono mai stato molto sensibile a questa problematica, quindi non saprei dare un parere in merito. Probabilmente il fatto di non giocare online non mi ha mai fatto preoccupare troppo di tale "problematica".



a) Riferimenti utili
Panoramica sul G-SYNC
FAQ NVIDIA
Tecnologie associate al G-SYNC
Video esplicativi (nota: per capire bene come funziona il G-SYNC si consiglia di visionare coi propri occhi la tecnologia in funzione, si veda il paragrafo 5 per alcune informazioni a riguardo)
Monitor G-SYNC HDR
Il famoso "test del pendolo", per vedere il G-SYNC all'opera (nota: restituisce un'idea precisa solo su monitor G-SYNC!)



b) Liste di monitor G-SYNC sul mercato
https://www.144hzmonitors.com/list-of-g-sync-monitors/
https://www.blurbusters.com/gsync/li...sync-monitors/

Annunciati monitor 4K 144 Hz HDR con G-SYNC:
https://www.hwupgrade.it/news/perife...cio_75794.html



c) FAQ
D: Che aumento di prestazioni posso aspettarmi dalla tecnologia G-SYNC?
R: Il G-SYNC assicura che ogni frame renderizzato dalla GPU sia visualizzato con perfetta sincronia dal monitor, fino al suo refresh rate massimo, ma non aumenta in alcun modo la velocità con cui la GPU è in grado di renderizzare ciascun frame.

D: Come lavora il G-SYNC in caso di configurazioni SLI (multi GPU NVIDIA)?
R: Il G-SYNC viene effettivamente gestito dalla GPU connessa al monitor compatibile. Le configurazioni SLI lavorano esattamente come configurazioni a GPU singola.

D: Il G-SYNC funziona con tutti i giochi?
R: Sì. Tuttavia, alcuni (per fortuna rari) giochi potrebbero manifestare problemi con G-SYNC attivo, pertanto in questi casi è consigliabile disattivare tale tecnologia. NVIDIA assicura che giochi problematici in tal senso verranno gestiti automaticamente dai driver grafici, portando alla disattivazione automatica del G-SYNC per tali giochi.

D: Qual è l'impatto del G-SYNC sulla latenza di input?
R: Diversamente dal V-SYNC, il G-SYNC ha un impatto notevolmente inferiore sulla latenza di input, e questo lo rende un'ottima scelta per sparatutto in prima persona e giochi online competitivi. Tuttavia, se si desidera avere il minor input lag possibile, si faccia riferimento al punto 4) del paragrafo 4.

D: Quali sono i requisiti hardware/software per G-SYNC?
R: Oltre ad un monitor compatibile, occorre un cavo DisplayPort 1.2 connesso direttamente alla GPU. G-SYNC funziona a partire da una NVIDIA GeForce GTX 650Ti BOOST o superiore/più recente. I sistemi operativi supportati sono Windows 7, 8, 8.1 e 10. Occorrono driver dalla versione R340.52 o più recenti.

D: I monitor G-SYNC funzionano con le GPU della concorrenza (ovvero, AMD)?
R: Sì, ma tutti i vantaggi associati alla tecnologia G-SYNC sono persi. Il monitor si comporterà come un "classico" monitor a frequenza di aggiornamento fissa (pari alla massima supportata dal pannello).

D: Quali sono i requisiti minimi per notebook G-SYNC?
R: Il notebook deve essere esplicitamente G-SYNC compatibile, ovvero deve adottare un pannello apposito e rispettare i requisiti che seguono. GPU compatibili: GeForce GTX 980, 980M, 970M or 965M (le configurazioni SLI di queste GPU sono supportate). Windows 7, 8, 8.1 and 10. Driver R352.06 o più recenti.



d) Installazione, aggiornamento e impostazione ottimale dei driver NVIDIA
Ritengo possa essere utile una breve guida su come installare, aggiornare e configurare al meglio i driver NVIDIA. Di seguito, alcune informazioni e consigli utili.

a) Installazione
1) Scaricare i driver dal sito ufficiale NVIDIA, selezionando in modo opportuno GPU e sistema operativo in possesso.
2) Installare i driver. Personalmente, io installo solo driver GPU, PhysX ed audio (se sfruttate gli altoparlanti del monitor e il chip integrato sulla scheda video). Non installo i driver per il 3D virtuale né GeForce Experience, che non gradisco.

b) Aggiornamento
1) Scaricare l'ultima versione di DDU, Display Driver Uninstaller, scompattando la relativa cartella compressa.
2) Disinstallare i driver Nvidia dall'elenco dei programmi installati.
3) Riavviare il PC in modalità provvisoria.
4) Eseguire DDU.
5) Selezionare "Clean and restart".
6) Seguire il precedente punto a).



c) Impostazione ottimale
Si da per scontato che ogni impostazione sia a default, così come da installazione pulita dei driver. Di seguito si danno impostazioni "globali" che hanno un peso pressoché nullo sulle performance e che quindi possono essere attivate senza problemi di sorta. Per ulteriori informazioni (es. DSR, MFAA, ecc.), rimando a guide dedicate.

1) Aprire il pannello di controllo dei driver Nvidia.
2) Su "Regola le impostazioni dell'immagine con anteprima" selezionare "Usa le impostazioni dell'immagine 3D avanzate", cliccare su "Applica".
3) Su "Gestisci le impostazioni 3D", "Impostazioni globali", modificare le voci che seguono.
3.1) "Filtro anisotropico": "16X"
3.2) "Filtro struttura - Qualità": "Alta qualità"
3.3) "Modalità di gestione dell'alimentazione": "Adattivo". A differenza di "Potenza ottimale", "Adattivo" lesina meno sul risparmio energetico della GPU, evitando eventuali indesiderati cali di frequenza su GPU/VRAM con conseguenti cali indesiderati di FPS durante i giochi. "Prestazioni massime" è sconsigliato, quanto meno sulla pagina delle "Impostazioni globali", poiché può portare ad avere frequenze inutilmente elevate su GPU/VRAM anche in assenza di carichi grafici significativi.

Consiglio di non modificare altri parametri, in quanto eventuali modifiche possono portare ad eventuali instabilità e/o performance scarse.



e) Differenze/analogie con AMD FreeSync (basato sul thread ufficiale dell'utente Bivvoz)
Premetto che la seguente sezione non vuole essere in alcun modo esaustiva, per qualsivoglia tipo di approfondimento rimando all'ottimo thread ufficiale creato dal buon Bivvoz.

FreeSync è una tecnologia proprietaria AMD che, sostanzialmente, assolve agli stessi scopi del G-SYNC NVIDIA. Il FreeSync comunica con un hardware basato su uno standard open (Adaptive Sync) che sfrutta un segnale della connessione DisplayPort (successivamente introdotto anche su HDMI) chiamato "vblank" per variare la frequenza di aggiornamento del monitor e sincronizzarla al frame rate della GPU.

Ovviamente, proprio come per G-SYNC, serve un monitor FreeSync compatibile e una GPU AMD recente. A differenza di G-SYNC, che funziona sempre nel range 30 Hz - refresh rate massimo del monitor, ogni monitor con supporto al FreeSync ha un range ben definito di frequenze di lavoro. Per esempio, alcuni monitor con supporto al FreeSync hanno un refresh rate massimo di 144 Hz, ma garantiscono il funzionamento del FreeSync solo in range come 48-90 Hz. E' dunque bene informarsi accuratamente, leggendo recensioni, schede tecniche o pareri di altri utenti, riguardo quale sia la frequenza effettivamente "coperta" dal FreeSync del monitor a cui si è interessati.

Al di fuori del range supportato, ci sono due possibilità tra cui scegliere: tornare ad avere tearing o passare all'attivazione del V-SYNC. Attivando il V-SYNC in presenza di FreeSync, si pone un limite massimo sopra cui il frame rate non può salire, pari alla frequenza massima di FreeSync supportata dal monitor. In questo caso, il V-SYNC si attiverà anche se si scende sotto la frequenza minima supportata dal FreeSync, ma almeno a questo si può ovviare con LFC (Low Framerate Compensation).

LFC è una funzione adottata successivamente da FreeSync che entra in funzione automaticamente in presenza di un monitor compatibile che abbia frequenza massima di supporto FreeSync pari a 2.5 volte quella minima di supporto. Un esempio tipico è 30-75 Hz. Questa funzionalità permette di restare sincronizzati anche in presenza di frame rate inferiori alla frequenza minima supportata dal FreeSync, semplicemente raddoppiando la frequenza e ripetendo due volte lo stesso frame. Per esempio, a 25 FPS il monitor lavorerà a 50 Hz ripetendo ogni frame due volte. Pertanto, il funzionamento è analogo a quanto proposto da NVIDIA con G-SYNC, ma a differenza di quest'ultimo non è sempre garantito e va verificato monitor per monitor.

AMD sta attualmente lavorando ad una evoluzione di FreeSync: FreeSync 2. Quest'ultimo non sarà un vero e proprio successore di FreeSync e non andrà a sostituirlo, sarà più che altro una versione più avanzata che si affiancherà a FreeSync e avrà delle caratteristiche aggiuntive. La caratteristica principale riguarderà l'HDR, introducendo una tecnologia che riduce l'input lag tipica del tone mapping HDR. La seconda novità è che LFC dovrà essere sempre garantito. FreeSync 2 è più restrittivo di Freesync, pertanto richiede caratteristiche da monitor premium con conseguenti e probabili costi superiori.

Ricapitolando, pro e contro di FreeSync rispetto a G-SYNC sono i seguenti.

Pro
- Si basa su uno standard aperto, dunque qualsiasi produttore può adottarlo senza costi di licenza.
- Il punto di cui sopra si traduce in monitor immessi sul mercato senza ulteriore "sovrapprezzo" rispetto a versioni analoghe senza FreeSync. Questo porta ad avere monitor più convenienti delle controparti G-SYNC, a parità di altre caratteristiche (ma questo vale esattamente solo per monitor che hanno range di supporto frequenze completi, vedi anche sotto). Tipicamente, un monitor G-SYNC "equivalente" alla sua controparte FreeSync può costare 100/150 EUR in più.

Contro
- Essendo uno standard aperto, ogni produttore è libero di implementare il FreeSync come meglio crede. Questo porta ad avere sul mercato monitor con range radicalmente diversi e variabili l'un l'altro, quindi l'eventuale acquirente deve informarsi correttamente prima di procedere all'acquisto.
- LFC non è sempre garantito (deve essere verificata la regola riportata sopra). FreeSync 2 rimuoverà questa eventuale mancanza.
- FreeSync non supporta l'overdrive variabile.



f) Breve guida al V-SYNC e a tecniche "alternative" per eliminare/ridurre tearing/stuttering/input lag
In questa appendice, vorrei cercare di discutere delle varie tipologie di V-SYNC e di metodi alternativi per eliminare/ridurre tearing/stuttering/input lag. Due premesse: a) il taglio sarà volutamente "empirico", senza scendere in tecnicismi; b) l'analisi sarà riferita, in particolare, alle tecnologie NVIDIA, ma specifico fin da subito che anche per AMD ci sono tecniche analoghe (rimando a guide specifiche per chi fosse interessato).

f1) V-SYNC con doppio buffering
La metodologia più vecchia e semplice di V-SYNC, ormai soppiantata dal triplo buffering (anche se alcuni giochi, disgraziatamente, continuano ad implementarla). Quando attivo, nella pratica accade questo: finché la GPU è potenzialmente in grado di generare un numero di FPS superiore al refresh rate nominale del monitor (esempio tipico, 60 Hz), gli FPS mostrati a schermo coincidono numericamente con gli Hz del pannello (es. 60 Hz -> 60 FPS, 120 Hz -> 120 FPS, etc.). Ovviamente non c'è tearing, non c'è stuttering, viene aggiunta un po' di latenza di input.

Ma che succede nel caso in cui la GPU non è in grado di generare un numero di FPS almeno pari al refresh rate nominale del pannello? Una cosa "terribile" per noi videogiocatori: gli FPS mostrati a schermo vengono dimezzati rispetto al refresh rate nominale. Facciamo un esempio. Monitor con refresh rate nominale di 60 Hz, V-SYNC con doppio buffering attivo, GPU che in una data scena non riesce a generare 60 FPS ma, supponiamo, "solo" 59 FPS. Accade questo: la GPU genera, effettivamente, solo 30 FPS, ovvero un valore numerico pari alla metà del refresh rate nominale del monitor. Questo avverrà fintanto che la GPU non sarà in grado di generare, potenzialmente, almeno 60 FPS in una data scena. Se questa condizione viene soddisfatta, gli FPS mostrati a schermo tornano ad essere effettivamente 60, sincronizzati con i 60 Hz del monitor. E che succede se, malauguratamente, la GPU in una data scena non riesce a produrre neanche 30 FPS? Semplice... Gli FPS si dimezzano di nuovo, passando a 15. La situazione tornerà alla "normalità" (60 FPS) solo nel momento in cui la GPU sarà effettivamente in grado di generare almeno 60 FPS. L'esempio appena esposto può essere generalizzato a monitor con refresh rate nominali differenti (es. 120 Hz -> 60 FPS, poi 30 FPS, ...; 100 Hz -> 50 FPS, poi 25 FPS, ...).

Risulta chiaro che gli eventuali "saltelli" di FPS (il vero e proprio stuttering) rendono l'esperienza videoludica di pessimo livello.

f2) V-SYNC con triplo buffering
In caso di funzionamento nominale, il principio di funzionamento è identico al V-SYNC con doppio buffering. La differenza si ha proprio nel momento in cui la GPU non riesce a generare un numero di FPS almeno pari al refresh rate del monitor. In questo caso, gli FPS effettivamente visualizzati coincidono con quelli effettivamente producibili dalla GPU. Se quest'ultima genera 59 FPS, su schermo si vedranno 59 FPS.

Tutto bene, quindi? Non esattamente. Infatti, nel momento in cui non vi è più il match tra FPS ed Hz del refresh rate, si avverte immediatamente un rallentamento dell'azione a schermo (si veda il primo video linkato in questo post per farsi un'idea). Tale rallentamento non è fastidioso come un vero e proprio saltellamento (stuttering), ma di certo non rende piacevole il gameplay se si protrae a lungo. Inoltre, rispetto al V-SYNC con doppio buffering, la modalità a triplo buffering aumenta ulteriormente l'input lag.

Nota: l'impostazione "Triplo buffering" presente sul pannello di controllo dei driver Nvidia non vale per i giochi sviluppati in DirectX, quindi è inutile andarla a modificare. Valeva, in principio, solo per giochi sviluppati in OpenGL. Parlo al passato perché non so se, ad oggi, tale impostazione continua ad essere effettivamente valida.

f3) Modalità finestra senza bordi
Negli ultimi tempi, molti giochi consentono di scegliere, oltre alla modalità schermo intero e finestra, anche una modalità chiamata "finestra senza bordi". Posto che il V-SYNC funziona solo in modalità schermo intero, che succede utilizzando la finestra senza bordi (o la semplice finestra)? Semplicemente, la GPU lavorerà sempre al massimo in ogni scena, generando il massimo numero possibile di FPS, come se il V-SYNC fosse disattivato. Dunque si ha tearing? No, il tearing risulterà assente perché il gioco riprodotto in finestra sarà sincronizzato in frequenza con il refresh rate impostato sul pannello di controllo del sistema operativo.

Abbiamo dunque trovato la panacea di tutti i mali? Purtroppo, la risposta è di nuovo negativa. Infatti ci sono diversi svantaggi associati a questa modalità:

a) Non tutti i giochi la prevedono, dunque non è sempre utilizzabile.
b) Spesso è meno stabile e può dare problemi rispetto allo schermo intero. Inoltre, rispetto a quest'ultima modalità, le performance sono un po' ridotte.
c) Nel caso di refresh rate nominali "bassi" (es. 60 Hz) e di GPU relativamente potente, quest'ultima potrebbe ritrovarsi a generare inutilmente più frame di quelli effettivamente visualizzati a schermo, con un inutile dispendio energetico e conseguente aumento di temperature. La problematica si presenta in modo analogo nel caso di schermo intero senza V-SYNC. Risolvibile tramite limitatori di FPS (che alcuni giochi integrano direttamente).
d) L'immagine resta comunque "tremolante" in quanto gli FPS non sono perfettamente sincronizzati al refresh rate del monitor, di conseguenza la sensazione di fluidità restituita non è comparabile.

f4) Sincronizzazione verticale adattiva NVIDIA
Da non confondere col protocollo Adaptive Sync, questa modalità opzionale di V-SYNC è prerogativa delle recenti GPU NVIDIA e può essere attivata globalmente (sconsigliato) o in modo specifico per ogni gioco/applicazione 3D. Si trova su "Configura impostazioni 3D", "Impostazioni globali", "Sincronizzazione verticale". In caso di monitor G-SYNC, non è selezionabile fintanto che il G-SYNC risulta attivo (in questo caso, la voce funziona in modo diverso; si faccia riferimento al punto 4) del paragrafo 4).

Come si comporta questa modalità? L'algoritmo funziona in questo modo: fintanto che la GPU è potenzialmente in grado di generare più FPS del refresh rate del monitor, è attivo il classico V-SYNC, quindi non si ha stuttering né tearing. Quando la GPU non è in grado di generare un numero di FPS almeno pari al refresh rate del monitor, il V-SYNC si disattiva. Pertanto, anche in questo caso ci continua a non avere stuttering (né rallentamenti). Si può avere, però, occasionale tearing.* Secondo l'esperienza del sottoscritto, è una tecnica valida nel caso di giochi con V-SYNC interno "buggato" (nel senso che non fa funzionare a dovere il buffering triplo). Ha, tuttavia, i suoi intrinseci svantaggi, tra cui occasionale tearing anche quando c'è corrispondenza tra FPS e refresh rate del monitor.

Nota bene: per garantire il corretto funzionamento di tale modalità, il V-SYNC va disattivato all'interno del gioco in esame. Inoltre, dal pannello di controllo si può anche impostare una modalità "dimezzata" che, appunto, dimezza la frequenza di sincronizzazione del pannello (es., per un pannello con refresh rate a 60 Hz, gli FPS generati sono al massimo 30).

*Colgo subito l'occasione per sfatare il mito secondo cui sia ha tearing solo quando gli FPS sono superiori al refresh rate del monitor. Non è vero, per niente. Fonte: esperienza empirica.



g) Breve guida alla calibrazione del monitor tramite Lagom test
Sul sito http://www.lagom.nl/lcd-test/ è riportata una procedura per calibrare un monitor in modo non professionale, ovvero senza la necessità di sonda colorimetrica. Il cosiddetto Lagom test prevede diverse regolazioni, ma sono 4 in particolare le pagine su cui soffermarsi per la calibrazione: contrasto, livello del nero, saturazione bianco, calibrazione gamma. Gli altri non sono interessanti, nel senso che sono semplici verifiche, non ti permettono di calibrare il monitor.

Per effettuare la calibrazione, si possono usare le impostazioni OSD del monitor oppure il pannello di controllo della scheda video - che in genere consente un controllo più granulare. Col mio monitor ho usato le impostazioni colore del pannello di controllo Nvidia, regolando ogni componente RGB (contrasto e gamma) separatamente. Si può anche regolare, in modo più approssimativo, l'intero canale RGB. Un altro metodo rapido - e spesso efficace - è usare la brillantezza digitale (ma senza esagerare, altrimenti i colori vengono snaturati).

Tornando al Lagom test. In merito al contrasto, semplicemente verifica che i rettangoli di colore siano tutti perfettamente visualizzati, anche quelli più estremi a destra e sinistra (in fondo vedi immagini di esempio che ti fanno capire quali impostazioni dovrebbero essere corrette e quali no).

In merito alla calibrazione gamma, test più importante in assoluto per avere colori "reali" e un'immagine non sbiadita o troppo scura, devi regolare la gamma delle componenti RGB fino a che, in ogni barra di colore, le colonne interne "sfumano" (si confondono, ovvero non sei più in grado di distinguerle) intorno al valore 2.2. Praticamente, devi fare così: regoli la gamma del rosso finché la prima barra rossa non sfuma a 2.2. Poi regoli il verde finché la seconda barra verde non sfuma a 2.2. Poi il blu. Le colonne più importanti sono le prime 4, perché rappresentano il 48% della luminanza totale. In genere le colonne rimanenti risultano ben sfumate se le prime 4 sono a posto. Se hai un monitor TN, considera che questa tecnologia tende inevitabilmente a mostrare una gamma più bassa nella parte superiore dello schermo (colori più sbiaditi) e una più alta nella parte inferiore (colori più scuri). In questo caso, per calibrare bene il monitor, devi guardarlo perpendicolarmente ad una certa distanza, e fare in modo che il centro delle colonne (2.2) sia a metà altezza dello schermo. Questa regolazione, se fatta come si deve, cambia la qualità dei colori del monitor dal giorno alla notte! Sul mio Dell TN la differenza è abissale, calibrato per bene sembra migliore dell'IPS che uso a lavoro.

Per quanto riguarda, infine, livello del nero e saturazione del bianco, semplicemente regola il contrasto finché non vedi distintamente tutti i quadrati, specie quelli neri (gli ultimi bianchi potresti far fatica a visualizzarli, in ogni caso, ma non è così importante). Fatto questo torna alla calibrazione gamma e verifica che le colonne siano rimaste "confuse" a 2.2., altrimenti regola nuovamente la gamma RGB.



Il contenuto di questo post è rilasciato con licenza Creative Commons Attribution-Noncommercial-Share Alike 2.5.
__________________
NVIDIA G-SYNC: guida pratica all'uso - Fai una buona azione anche tu, boicotta Nvidia.

Ultima modifica di bagnino89 : 09-05-2018 alle 09:55.
bagnino89 è online   Rispondi citando il messaggio o parte di esso
Old 26-11-2017, 22:27   #2
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Città: Stella!
Messaggi: 10433
Post di servizio
__________________
NVIDIA G-SYNC: guida pratica all'uso - Fai una buona azione anche tu, boicotta Nvidia.

Ultima modifica di bagnino89 : 27-11-2017 alle 15:04.
bagnino89 è online   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 13:30   #3
GigoBoso
Bannato
 
Iscritto dal: Nov 2013
Messaggi: 6463
Bellissimo articolo che spiega tutto, tranne però che tipo di monitor è adatto a sfruttare il G-sync, che caratteristiche deve avere?

Ad esempio come si comporterebbe se messo su una TV full HD moderna che in teoria dovrebbe funzionare bene anche come monitor?
GigoBoso è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 13:46   #4
TigerTank
Senior Member
 
L'Avatar di TigerTank
 
Iscritto dal: Jun 2003
Città: Prov. Milano
Messaggi: 36382
Quote:
Originariamente inviato da GigoBoso Guarda i messaggi
Bellissimo articolo che spiega tutto, tranne però che tipo di monitor è adatto a sfruttare il G-sync, che caratteristiche deve avere?

Ad esempio come si comporterebbe se messo su una TV full HD moderna che in teoria dovrebbe funzionare bene anche come monitor?
Il gsync è un modulo hardware proprietario per cui ovviamente devi comprare un modello di monitor certificato che lo abbia
Lato AMD invece ci sono i monitor freesync, più "universali" in quanto la tecnologia AMD va più a braccetto con lo standard di riferimento VESA, cioè l'adaptive-sync.

Al momento non mi pare che le tv supportino nemmeno l'adaptive-sync.

@bagnino89: bel lavoro! Ti lascio QUESTO link, magari dacci un'occhiata, a partire da quella immagine riassuntiva nel post 131
__________________
Phanteks Enthoo Primo | Evga 850W P2 | 9700K@5GHz 1,3V WIP + Asus Strix Z390-F | 16GB DDR4 Ripjaws V 3200MHz CL16 | Evga 1070SC SLi @ 2050/8800MHz | Acer XB270HU G-Sync | Crucial MX300 525GB+Samsung 850 EVO 500GB+WD vari | Corsair Gaming Strafe+Logitech G602 | Soundblaster Z| Windows 10 Pro FC|Tim 200/20 Mbps |

Ultima modifica di TigerTank : 27-11-2017 alle 13:54.
TigerTank è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 13:50   #5
GigoBoso
Bannato
 
Iscritto dal: Nov 2013
Messaggi: 6463
Quote:
Originariamente inviato da TigerTank Guarda i messaggi
Il gsync è un modulo hardware proprietario per cui ovviamente devi comprare un modello che lo abbia
Lato AMD invece ci sono i monitor freesync, più "universali" in quanto la tecnologia AMD va più a braccetto con lo standard di riferimento VESA, cioè l'Adaptive-Sync.
Devo comprare sia la scheda grafica che il monitor, ero indirizzato verso una nvdia 1060, quindi con G-sync, la mia domanda diventa:

esistono an TV usabili come monitor che siano affidabili come un monitor?
GigoBoso è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 14:03   #6
Growan
Senior Member
 
Iscritto dal: Dec 2011
Città: Torino
Messaggi: 7957
Quote:
Originariamente inviato da GigoBoso Guarda i messaggi
Devo comprare sia la scheda grafica che il monitor, ero indirizzato verso una nvdia 1060, quindi con G-sync, la mia domanda diventa:

esistono an TV usabili come monitor che siano affidabili come un monitor?
I monitor per PC sono tutta un'altra cosa, soprattutto riguardo al G-Sync che non esiste per le TV, quindi io consiglio sempre di separare le due cose...
Growan è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 14:07   #7
Bivvoz
Senior Member
 
L'Avatar di Bivvoz
 
Iscritto dal: Jan 2010
Città: Ma Milan l'é un gran Milan
Messaggi: 24746
Salve "collega"... nel senso che io ho aperto il thread su freesync

Ti do un consiglio per evitare di creare confusione, non usare la dicitura "Adaptive Sync" per descrivere un sync adattivo generico (a maggior ragione se lo scrivi maiuscolo), usala solo quando parli dello standard vesa.

Per esempio io scriverei "NVIDIA G-SYNC è una tecnica di tipo sync adattivo"

Anche perchè Nvidia complica ulteriormente le cose chiamando "adaptive sync" il vsync che si spegne da solo quando il freamerate cala

P.S: spero di aver fatto una cosa gradita a riportare un problema che mi si è presentato nell'altro thread e che mi perdoniate l'intrusione

Ultima modifica di Bivvoz : 27-11-2017 alle 14:16.
Bivvoz è online   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 14:21   #8
GigoBoso
Bannato
 
Iscritto dal: Nov 2013
Messaggi: 6463
Quote:
Originariamente inviato da Growan Guarda i messaggi
I monitor per PC sono tutta un'altra cosa, soprattutto riguardo al G-Sync che non esiste per le TV, quindi io consiglio sempre di separare le due cose...
Capito ed è ciò che sospettavo, solo che mi faceva comodo in quanto ho anche il cavo dell'antenna per vedere la TV.
Anni fa esistevano gli appositi e buoni Monitor/TV mentre ora sembrano essere spariti.
GigoBoso è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 14:52   #9
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Città: Stella!
Messaggi: 10433
Quote:
Originariamente inviato da GigoBoso Guarda i messaggi
Bellissimo articolo che spiega tutto, tranne però che tipo di monitor è adatto a sfruttare il G-sync, che caratteristiche deve avere?

Ad esempio come si comporterebbe se messo su una TV full HD moderna che in teoria dovrebbe funzionare bene anche come monitor?
Ciao e grazie per i complimenti.

La risposta alla tua domanda è spiegata chiaramente da TigerTank nel post di seguito. Mi permetto di dire che G-SYNC è una tecnologia proprietaria Nvidia, che non è possibile integrare "a posteriori" su monitor/TV.

In realtà, agli albori del G-SYNC, c'erano alcuni monitor che consentivano l'installazione di un chip compatibile, ma la cosa è nata e morta lì. Ad oggi, G-SYNC esiste solo su monitor certificati da NVIDIA. Nulla vieterebbe a quest'ultima di stringere accordi con produttori di TV per implementare la tecnologia anche su questi, ma non credo si abbia l'interesse di farlo, da ambo le parti (sia NVIDIA che i produttori).

Per quanto riguarda le TV, vedo più probabile l'adozione di un "generico" Adaptive Sync, che si possa implementare anche su HDMI (solitamente le TV non hanno ingressi DisplayPort). Tra l'altro, la nuova Xbox sembra supportare l'Adaptive Sync, quindi credo che tra non molto si inizierà a muovere qualcosa sulle TV in tal senso.

Quote:
Originariamente inviato da TigerTank Guarda i messaggi
Il gsync è un modulo hardware proprietario per cui ovviamente devi comprare un modello di monitor certificato che lo abbia
Lato AMD invece ci sono i monitor freesync, più "universali" in quanto la tecnologia AMD va più a braccetto con lo standard di riferimento VESA, cioè l'adaptive-sync.

Al momento non mi pare che le tv supportino nemmeno l'adaptive-sync.

@bagnino89: bel lavoro! Ti lascio QUESTO link, magari dacci un'occhiata, a partire da quella immagine riassuntiva nel post 131
Grazie, prendo spunto!

Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Salve "collega"... nel senso che io ho aperto il thread su freesync

Ti do un consiglio per evitare di creare confusione, non usare la dicitura "Adaptive Sync" per descrivere un sync adattivo generico (a maggior ragione se lo scrivi maiuscolo), usala solo quando parli dello standard vesa.

Per esempio io scriverei "NVIDIA G-SYNC è una tecnica di tipo sync adattivo"

Anche perchè Nvidia complica ulteriormente le cose chiamando "adaptive sync" il vsync che si spegne da solo quando il freamerate cala

P.S: spero di aver fatto una cosa gradita a riportare un problema che mi si è presentato nell'altro thread e che mi perdoniate l'intrusione
Grazie, hai fatto benissimo a dirmelo. Tra l'altro avevo già in programma di parlare anche del FreeSync e di linkare il tuo thread, col tempo farò tutto.

Comunque, in generale sono contento che ci sia interesse sull'argomento.
__________________
NVIDIA G-SYNC: guida pratica all'uso - Fai una buona azione anche tu, boicotta Nvidia.
bagnino89 è online   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 15:00   #10
guant4namo
Senior Member
 
L'Avatar di guant4namo
 
Iscritto dal: Sep 2012
Messaggi: 18877
Ottimo lavoro caro
__________________
Se hai bisogno, noi ti aiutiamo volentieri, ma quando hai risolto perdi un attimo e scrivi a tutti come hai fatto.
Ci sarà sempre qualcuno che prima o poi avrà il tuo stesso problema e vorrà sapere come sei uscito dai guai.

Gruppo Telegram Hearthstone Italia: https://t.me/hearthstoneitaliauno
guant4namo è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 16:05   #11
Bivvoz
Senior Member
 
L'Avatar di Bivvoz
 
Iscritto dal: Jan 2010
Città: Ma Milan l'é un gran Milan
Messaggi: 24746
Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Grazie, hai fatto benissimo a dirmelo. Tra l'altro avevo già in programma di parlare anche del FreeSync e di linkare il tuo thread, col tempo farò tutto.

Comunque, in generale sono contento che ci sia interesse sull'argomento.
Io credo che in futuro queste tecnologie saranno sempre più diffuse.
Nvidia ha creato g-sync e un modulino proprietario per applicarlo e questo perchè quando lo ha fatto non c'era nulla di simile.
Successivamente AMD ha smosso i produttori di scaler e spinto per uno standard aperto e questo è un bene ma è evidente che gli scaler di terze parti e le implementazioni dei produttori di monitor non sono ancora all'altezza di quelli proprietario Nvidia e probabilmente è per questo che Nvidia continua sullo standard proprietario.
Però sia gli scaler che gli standard migliorano continuamente, ora anche in HDMI 2.1 è stato inserito il protocollo VRR (Variable Refresh Rate) che non è altro che Adaptive Sync del DisplayPort, anche le console si appoggiano a questi standard e presto ci saranno le tv supportato.
La vedo dura che Nvidia continui con lo standard proprietario e questo non vuole dire la morte del gsync, vuole semplicemente dire che gsync si appoggerà ad hardware standard come freesync quando gli hardware saranno ben consolidati.
Ogni tanto si fa confusione dicendo che freesync è open, no freesync è tecnologia proprietaria di AMD che comunica con un hardware basato su uno standard open.
Bivvoz è online   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 16:11   #12
guant4namo
Senior Member
 
L'Avatar di guant4namo
 
Iscritto dal: Sep 2012
Messaggi: 18877
Io sono sempre più tentato di acquistare questo monitor: Acer Predator XB271HU , qualcuno per caso lo ha e mi sa dire come si comporta con il G-SYNC e tutto ad esso collegato?
__________________
Se hai bisogno, noi ti aiutiamo volentieri, ma quando hai risolto perdi un attimo e scrivi a tutti come hai fatto.
Ci sarà sempre qualcuno che prima o poi avrà il tuo stesso problema e vorrà sapere come sei uscito dai guai.

Gruppo Telegram Hearthstone Italia: https://t.me/hearthstoneitaliauno
guant4namo è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 16:38   #13
The_ouroboros
Senior Member
 
L'Avatar di The_ouroboros
 
Iscritto dal: May 2007
Città: Irlanda
Messaggi: 5276
Quote:
Originariamente inviato da guant4namo Guarda i messaggi
Io sono sempre più tentato di acquistare questo monitor: Acer Predator XB271HU , qualcuno per caso lo ha e mi sa dire come si comporta con il G-SYNC e tutto ad esso collegato?
ottimamente
__________________
Xbox: TheDarkCisco Uplay: TheDarkCisco Battle.net: TheCisco #2448
Config PC
The_ouroboros è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 16:41   #14
Bivvoz
Senior Member
 
L'Avatar di Bivvoz
 
Iscritto dal: Jan 2010
Città: Ma Milan l'é un gran Milan
Messaggi: 24746
Quote:
Originariamente inviato da guant4namo Guarda i messaggi
Io sono sempre più tentato di acquistare questo monitor: Acer Predator XB271HU , qualcuno per caso lo ha e mi sa dire come si comporta con il G-SYNC e tutto ad esso collegato?
Se è gsync funziona sempre bene, se così non fosse non avrebbe la certificazione.
Non è come freesync che basandosi su uno standard aperto i produttori di monitor possono fare un po' quello che gli pare compresi lavori fatti con i piedi.
Bivvoz è online   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 20:32   #15
SPARTANO93
Senior Member
 
L'Avatar di SPARTANO93
 
Iscritto dal: Jun 2010
Città: Trento
Messaggi: 1688
ho da quasi 2 anni un monitor aoc g2460pg 1080p 144hz con g-sync usato con una gtx 970 e non tornerei mai indietro quando cambierò scheda video sarà un problema trovare un monitor con risoluzione superiore con g-sync ad un buon prezzo però
__________________
galaxy s7 Team Racing oN3 PC: ALIMENTATORE xfx pro550w - MOBO Gigabyte ab350 gaming 3 - GPU Msi 1080 gaming X - CPU Ryzen 7 1700 @3,7 - Noctua U12S - CASE zalman z11 plus - RAM 16gb ddr4 corsair vengeance 3200mhz - SSD Samsung 840 Pro 256Gb - Monitor Asus ROG SWIFT PG279Q
SPARTANO93 è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 21:14   #16
TigerTank
Senior Member
 
L'Avatar di TigerTank
 
Iscritto dal: Jun 2003
Città: Prov. Milano
Messaggi: 36382
Idem con il mio in firma....credo che cambierei solo con un futuro 4K gsync over 60Hz, salvo scimmie irresistibili per un 21:9 1440p.

Quote:
Originariamente inviato da guant4namo Guarda i messaggi
Io sono sempre più tentato di acquistare questo monitor: Acer Predator XB271HU , qualcuno per caso lo ha e mi sa dire come si comporta con il G-SYNC e tutto ad esso collegato?
Vedi un pò a quanto lo trovi....altrimenti considerati i prezzi attuali dei 16:9, diventa interessante l'AOC Agon AG352UCG, 3440x1440 100Hz gsync a 845€ sull'amazzonia.
Come 16:9 c'era l'AOC Agon AG271QG che veniva meno di 700€. Asus e Acer viaggiano più alti.
__________________
Phanteks Enthoo Primo | Evga 850W P2 | 9700K@5GHz 1,3V WIP + Asus Strix Z390-F | 16GB DDR4 Ripjaws V 3200MHz CL16 | Evga 1070SC SLi @ 2050/8800MHz | Acer XB270HU G-Sync | Crucial MX300 525GB+Samsung 850 EVO 500GB+WD vari | Corsair Gaming Strafe+Logitech G602 | Soundblaster Z| Windows 10 Pro FC|Tim 200/20 Mbps |

Ultima modifica di TigerTank : 27-11-2017 alle 21:19.
TigerTank è offline   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 21:49   #17
Bivvoz
Senior Member
 
L'Avatar di Bivvoz
 
Iscritto dal: Jan 2010
Città: Ma Milan l'é un gran Milan
Messaggi: 24746
Quote:
Originariamente inviato da TigerTank Guarda i messaggi
Idem con il mio in firma....credo che cambierei solo con un futuro 4K gsync over 60Hz, salvo scimmie irresistibili per un 21:9 1440p.



Vedi un pò a quanto lo trovi....altrimenti considerati i prezzi attuali dei 16:9, diventa interessante l'AOC Agon AG352UCG, 3440x1440 100Hz gsync a 845€ sull'amazzonia.
Come 16:9 c'era l'AOC Agon AG271QG che veniva meno di 700€. Asus e Acer viaggiano più alti.
Penso che uno dei monitor gsync più interessanti sia il AG271QG, ma io sono uno che tente a non esagerare
Bivvoz è online   Rispondi citando il messaggio o parte di esso
Old 27-11-2017, 23:17   #18
TigerTank
Senior Member
 
L'Avatar di TigerTank
 
Iscritto dal: Jun 2003
Città: Prov. Milano
Messaggi: 36382
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Penso che uno dei monitor gsync più interessanti sia il AG271QG, ma io sono uno che tente a non esagerare
Sì, appunto era ottimo quando stava su amazon a parecchio meno di 700€...ora sta solo da terzi ben oltre tale cifra.
__________________
Phanteks Enthoo Primo | Evga 850W P2 | 9700K@5GHz 1,3V WIP + Asus Strix Z390-F | 16GB DDR4 Ripjaws V 3200MHz CL16 | Evga 1070SC SLi @ 2050/8800MHz | Acer XB270HU G-Sync | Crucial MX300 525GB+Samsung 850 EVO 500GB+WD vari | Corsair Gaming Strafe+Logitech G602 | Soundblaster Z| Windows 10 Pro FC|Tim 200/20 Mbps |
TigerTank è offline   Rispondi citando il messaggio o parte di esso
Old 28-11-2017, 00:36   #19
PaolinoB
Senior Member
 
L'Avatar di PaolinoB
 
Iscritto dal: Jan 2002
Città: Asti
Messaggi: 729
ottima tecnologia, con il Dell S2417DG mi trovo decisamente bene
diciamo scheda video a parte.. ma ci sto lavorando
__________________
I5 4670K | MSI Gaming 5 Z97 | Thermaltake 630W | 16Gb Ram DDR3 | Nvidia GTX 1080 Ti | Dell S2417DG | Xbox Live: Tanz79
PaolinoB è offline   Rispondi citando il messaggio o parte di esso
Old 28-11-2017, 01:14   #20
guant4namo
Senior Member
 
L'Avatar di guant4namo
 
Iscritto dal: Sep 2012
Messaggi: 18877
Quote:
Originariamente inviato da SPARTANO93 Guarda i messaggi
ho da quasi 2 anni un monitor aoc g2460pg 1080p 144hz con g-sync usato con una gtx 970 e non tornerei mai indietro quando cambierò scheda video sarà un problema trovare un monitor con risoluzione superiore con g-sync ad un buon prezzo però
Lo avevo anche io visto l'aoc che hai te.
L'unica cosa è il pannello TN. Rispetto ad un IPS la qualità dell'immagine (imho, correggetemi se sbaglio) è nettamente inferiore. Per il resto penso siamo li li , no?
__________________
Se hai bisogno, noi ti aiutiamo volentieri, ma quando hai risolto perdi un attimo e scrivi a tutti come hai fatto.
Ci sarà sempre qualcuno che prima o poi avrà il tuo stesso problema e vorrà sapere come sei uscito dai guai.

Gruppo Telegram Hearthstone Italia: https://t.me/hearthstoneitaliauno
guant4namo è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Schede madri ASUS Z390: ROG Maximus XI Formula e Gene Schede madri ASUS Z390: ROG Maximus XI Formula e...
Battlefield V su GeForce RTX: quanto incide il Ray Tracing sulle prestazioni Battlefield V su GeForce RTX: quanto incide il R...
Intel 2018 Architecture day: le CPU e GPU del futuro, passando per 3D stack Intel 2018 Architecture day: le CPU e GPU del fu...
DJI Osmo Pocket: il cinema in una mano. La recensione DJI Osmo Pocket: il cinema in una mano. La recen...
Huawei Mate 20, recensione completa: ecco l'anti iPhone XR Huawei Mate 20, recensione completa: ecco l'anti...
Facebook: bug ha messo a rischio le foto...
Una marea di prodotti (ben 14) dodocool ...
LG G7 Fit, un buon midrange nato vecchio...
Il visore VR più venduto nel 2018 è Play...
Falso sito ''IMPS'': in 500mila ci credo...
Oggi su Amazon metà prezzo su tan...
Cambio al vertice del Radeon Tecnolologi...
Intel Xeon W-3175X, la CPU a 28 core da ...
PES 2019 Lite gratuito: ecco come scaric...
Qualcomm si ritira dal mercato dei serve...
Chrome potrebbe presto avere una divisio...
Virgin Galactic vola a 82,68km dalla sup...
Formula E 2018-2019, GP di Ad Diriyah: p...
Honor 10 Lite è il nuovo smartpho...
OnePlus 5 e OnePlus 5T ricevono Android ...
AnyDVD HD
Chromium
CCleaner Portable
CCleaner Standard
NTLite
PassMark PerformanceTest
Backup4all
BitDefender Antivirus Free Edition
GeForce Experience
Thunderbird Portable
Firefox 64
Internet Download Manager
K-Lite Mega Codec Pack
K-Lite Codec Pack Full
K-Lite Codec Pack Standard
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 12:58.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2018, Jelsoft Enterprises Ltd.
Served by www1v