View Full Version : Sono 78 gli schermi compatibili con la tecnologia AMD Freesync
Redazione di Hardware Upg
03-05-2016, 11:31
Link alla notizia: http://www.hwupgrade.it/news/skvideo/sono-78-gli-schermi-compatibili-con-la-tecnologia-amd-freesync_62440.html
AMD pubblica una lista completa, con specifiche tecniche dettagliate, degli schermi compatibili con la tecnologia FreeSync. Da privilegiare i modelli che possono scendere ad una frequenza di refresh molto bassa
Click sul link per visualizzare la notizia.
grilloparlanteIII
03-05-2016, 11:44
Per quel che so, la bassa frequenza affatica gli occhi.
Per quel che so, la bassa frequenza affatica gli occhi.
Sui CRT sicuro
grilloparlanteIII
03-05-2016, 12:20
@cata81
hai qualche 20, 21",... a led?
Da domani impostatelo a basse frequenze e vedrai come starai meglio :)
Qui non si parla di HZ, per avere una maggiore fatica o meno, o più qualità d'immagine.
Qui si parla del sincronismo dei frames x second che fa la GPU e "stamparli" sullo schermo alla stessissima velocità. Ad esempio, se la GPU lavora a 63fps, lo schermo si sincronizza a 63fps, facendo che l'esperienza di gioco sia molto più gradevole. Io preferisco giocare a 45fps sincronizzati con freesync o g-sync, che a 60 con V-Sync.
Kekko1978
03-05-2016, 12:37
Mancano all'appello i pannelli coreani, Crossover per esempio ne ha 2 con il freesync e ce ne sono anche altri da 3440x1400 @ 75 Hz.
... Low Framerate Compensation (LFC) .... presente solo se la frequenza massima di refresh e almeno due volte e mezzo la frequenza minima.
Non ho ancora ben capito perchè la frequenza necessaria sia il doppio e mezzo e non il doppio. Il doppio dovrebbe essere sufficiente.
Se per esempio avessimo un display 30-60Hz, nel momento in cui il framerate dovesse scendere a 29FPS, sincronizzo il monitor a 58 Hz (valore entro il range) mostrando lo stesso frame due volte.
Allo stesso modo, se dovessi scendere a 12 FPS, potrei sincronizzare il monitor a 36Hz mostrando lo stesso frame 3 volte, e così via.
Pinco Pallino #1
03-05-2016, 13:19
Per quel che so, la bassa frequenza affatica gli occhi.
Non sugli LCD.
E' anche per questa ragione che si percepisce l'effetto scia...
TigerTank
03-05-2016, 14:30
Per mia esperienza posso dire che è vero che gsync e freesync sono un aiuto prezioso se si scende di fps.....ma anche in presenza di questi imho più framerate c'è e meglio è! ;)
@Bivvoz
Riesci a fare un esempio di "salto intelligente"?
In teoria trattandosi di LCD (dove il refresh non è necessariamente un aggiornamento di tutto lo schermo), la differenza tra 30Hz con singolo frame e 60Hz con frame ripetuto non dovrebbe notarsi, a meno che non ci sia qualche inghippo legato all'elettronica del monitor.
MaxFactor[ST]
03-05-2016, 15:15
Una bella comparativa non ce la fate?
Mi interesserebbe molto che fossero menzionati anche:
- Spessore della cornice laterale;
- Attacchi posteriori per attacchi sospesi.
In effetti se il passaggio 30-60 risulta traumatico per il monitor, allora un certo margine è meglio prenderselo, per evitare appunto balzi continui.
Secondo voi, se Nvidia si renderà conto che i monitor venduti con freesync sono 100 mila e quelli con gsync solo mille o meno, si prenderà la briga di inserire questa tecnologia nelle future schede? O rimarrà ancorata alla sua proprietaria?
Penso che la risposta si vedrebbe solo nel caso di un calo di vendite delle proprie schede vs AMD per via del Freesync.
Però chiedo un parere a voi
Anche secondo me conterà di più la vendita delle schede video che dei monitor.
Se Nvidia vende pochi moduli gsync è l'affare gsync ad andare male e sfruttare Adaptive Sync sulle schede video non farebbe fiorire le vendite dei moduli gsync, anzi le affonderebbe del tutto.
Diversamente se intaccasse le vendite delle schede video la compatibilità con Adaptive Sync eliminerebbe il problema.
Però tenete conto di una cosa che leggendo i commenti non mi sembra chiara a tutti: Freesync è una tecnologia AMD, una tecnologia proprietaria che risiede nelle schede video e non nei monitor.
Sfrutta lo standard Adaptive Sync per parlare con il monitor, cioè diciamo che se il monitor parla in inglese Freesync gli dice in inglese cosa deve fare.
Nvidia con Gsync invece parla in russo e invece di prendersi la briga di imparare l'inglese ha fatto un modulo da mettere nei monitor che capisce il russo, o meglio è stato fatto così perchè AMD e altri concorrenti non capiscono il russo e quindi non possono a loro volta usarli :)
Ora per poter comunicare con i monitor che parlano inglese dovrebbe modificare Gsync e insegnargli l'inglese, non so questo quanto sia complesso da fare potrebbe essere necessario riscrivere Gsync quasi da zero, alcune funzioni potrebbero non funzionare o dover lavorare in modo diverso.
Ho capito, ma non fanno prima ad inserirla nella GPU come ha fatto AMD invece di rifare un chip che poi dovrà essere infilato nei monitor con costi aggiuntivi? Potrebbe essere anche un azione di marketing per spingere le nuove gpu che buttano fuori, le vecchie possono utilizzare questa tecnologia acquistando un monitor con il Gsync, le nuove gpu invece l'hanno integrata come ha fatto AMD, e coprono tutto il mercato da chi ha le gpu " più vecchie" a chi acquista le nuove.
Fossi Nvidia un pensierino lo farei, e sono sicuro di non perdere quote in futuro.
Ovviamente resta sottinteso che finché avranno un 70-80% di market share se ne foxxeranno.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.