PDA

View Full Version : Da NVIDIA i primi driver per gli schermi G-Sync compatibili


Redazione di Hardware Upg
15-01-2019, 13:41
Link alla notizia: https://www.hwupgrade.it/news/skvideo/da-nvidia-i-primi-driver-per-gli-schermi-g-sync-compatibili_80156.html

Con i driver GeForce 417.71 WHQL NVIDIA estende la compatibilità alla tecnologia G-Sync anche a schermi Adaptive Sync che non sono dotati del modulo hardware G-Sync

Click sul link per visualizzare la notizia.

Bestio
15-01-2019, 13:52
Attendo con ansia i primi feedback degli utenti dotati di monitor Freesync. :)

DukeIT
15-01-2019, 14:19
Ma no... bastavano dei semplici driver per ottenere il G-Sync?

ninja750
15-01-2019, 14:30
Attendo con ansia i primi feedback degli utenti dotati di monitor Freesync. :)

non credo siano molti quelli con nvidia e freesync..

Wonder
15-01-2019, 14:50
non credo siano molti quelli con nvidia e freesync..
Ehh? Saranno la maggioranza invece.
Come tutte le cose propietarie sono destinate a finire, il Gsync farà la stessa fine. Non appena Intel si schiererà (scontato dire da che parte) ci sarà poco scampo

insane74
15-01-2019, 15:47
non credo siano molti quelli con nvidia e freesync..

presente!
non sono un gamer come si può vedere dalla configurazione, ma ho appena cambiato monitor e l'LG supporta freesync, in accoppiata (per ora) con la mia vetusta GTX 770.

pensavo di sostituirla a breve con una RX-qualcosa giusto per guadagnare qualcosa in FHD/2560x1080, per quella volta al mese che riesco a ritagliarmi qualche minuto per gaming-cazzeggio.

Hereticus
15-01-2019, 15:51
... cara Nvidia, mi certifichi questo: ASUS XG438Q così posso acquistarlo?

PS) Beh, forse dovrei prima aspettare che esca e di sapere il relativo costo... (in reni/equivalente)!

oxidized
15-01-2019, 16:06
Ma no... bastavano dei semplici driver per ottenere il G-Sync?

Non penso proprio potranno garantire la stessa performance di quelli col modulo, sicuramente meglio di niente, ma quelli col modulo continueranno a mostrare evidenti vantaggi (e svantaggi di costo)

supertigrotto
15-01-2019, 16:18
Standard proprietario e chiuso come il gsync deve sparire,fra l'altro Intel aveva già firmato quasi due anni fa la compatibilità con il freesync, quindi do per scontato che due dei futuri produttori di schede video sul mercato (Intel e AMD)spingeranno sul freesync 2 che a livello di prestazioni se la gioca alla pari con il gsync .Nvidia alle volte pecca di ingordigia,200 banane di più per uno scrauso chippetto e standard chiuso sono una esagerazione, niente da dire sulle prestazioni e consumi sulle sue schede video che attualmente sono allo stato dell'arte ma forse si é accorta che la ha fatta fuori dal vasino.
Sinceramente sono interessato a una 2060 ,ma ero titubante per la scelta per quanto riguarda il monitor,sicuramente ora come ora ho meno dubbi,basta che si trovano a prezzi umani bei monitor freesync certificati da Nvidia.

Maxt75
15-01-2019, 16:28
Felice possessore di Gsync e amante della qualità. Se è destino che scompaia, che lo faccia pure. L'importante è che la soddisfazione per il mio futuro prodotto NON-Gsync, sia al pari della mia attuale e non un probabile accontentarsi, per risparmiare 150 euro.
Nel frattempo l'HDR sui monitor, anche il più scrauso e truffaldino da 400 nits lo fanno pagare come i diamanti, altro che gsync.

paracarro
15-01-2019, 16:34
Scusate una domandina stupida.
Ho un Samsung U28E570D che supporta il Freesync con una GTX 1080.
Chiaramente in questo momento sul monitor il Freesync è impostato ad off.
Per attivare questa nuova funzionalità devo aggiornare i driver della scheda, attivare il Freesync sul monitor e basta oppure devo fare qualcosa anche a livello di configurazione della GTX???


Grazie

niky89
15-01-2019, 16:40
Nelle Note di rilascio non si parla di questo supporto. Strano.

DukeIT
15-01-2019, 16:41
Non penso proprio potranno garantire la stessa performance di quelli col modulo, sicuramente meglio di niente, ma quelli col modulo continueranno a mostrare evidenti vantaggi (e svantaggi di costo)
il modulo era utile per fidelizzare la clientela contando sulla propria posizione di dominanza (come abitudine di Nvidia, con le sue tecnologie chiuse e proprietarie). Hai intenzione di comprare un monitor e lo prendi compatibile con Nvidia, poi quando devi sostituire la scheda e la prendi Nvidia perché hai il monitor G-Sync, quando cambierai monitor... e così all'infinito. Almeno lo avessero dato gratis...
Ben per loro che hanno fatto marcia indietro, visto che si trovano contro AMD ed Intel con tecnologia free, open, compatibile ed efficiente e la loro mossa rischiava di rivelarsi un boomerang.

calabar
15-01-2019, 17:25
Piuttosto mi chiedo se far parte della lista dei monitor supportati sia una questione di qualità del monitor o di pagamento ad nVidia della certificazione.
Se la situazione fosse quest'ultima si potrebbe creare una situazione antipatica, se tale certificazione avesse ampia diffusione: monitor dal costo maggiorato a causa delle certificazione anche per chi ha schede AMD e di tale certificazione non se ne fa nulla.

calabar
15-01-2019, 17:46
@Bivvoz
Non sottovalutare l'influenza che queste cose hanno sugli acquirenti.
Supponendo che la certificazione sia comunque più economica rispetto al chip gsync, questi monitor avranno comunque una certa appetibilità, chi non vuole lasciarsi chiuse certe possibilità nel caso cambiasse scheda sarebbe incentivato a spendere qualcosa in più per stare tranquillo.
E intanto nVidia avrebbe il duplice vantaggio di fare cassa da monitor che magari verranno usati da schede della concorrenza e al contempo smuovere qualche indeciso ad acquistare le loro schede per paura di non poter sfruttare un monirot freesync (già qualche testimonianza in questo thread).
Stai sicuro che se hanno fatto questa mossa, i loro calcoli li hanno fatti. ;)

Bestio
15-01-2019, 18:02
Che poi la differenza sostanziale tra G-Sync e Freesync era che i Freesync avevano un range limitato, tipo 48/144hz, mentre i Gsync potevano anche scendere.
Ma non credo che ci voglia per forza un chippino hardware per far si che quando gioco scende a 45fps, il frame venga duplicato facendo funzionare il monitor a 90hz, rientrando nel suo range fisico.

non credo siano molti quelli con nvidia e freesync..

Lo ero anche io fino a 6 mesi fa dato che non esistevano 32'' con Gsync e non volevo scendere sotto.
Poi quando finalmente ne è uscito uno l'ho preso sganciandoci 250€ di differenza, di certo ne ho goduto i benefici ma se avessi saputo di questa "marcia indietro" me li sarei risparmiati più che volentieri! :doh:
Ma sono comunque felice che la prima TV OLED con VRR che uscirà me la potrò comprare e goderne comunque i benedici. :cool:

oxidized
15-01-2019, 18:28
il modulo era utile per fidelizzare la clientela contando sulla propria posizione di dominanza (come abitudine di Nvidia, con le sue tecnologie chiuse e proprietarie). Hai intenzione di comprare un monitor e lo prendi compatibile con Nvidia, poi quando devi sostituire la scheda e la prendi Nvidia perché hai il monitor G-Sync, quando cambierai monitor... e così all'infinito. Almeno lo avessero dato gratis...
Ben per loro che hanno fatto marcia indietro, visto che si trovano contro AMD ed Intel con tecnologia free, open, compatibile ed efficiente e la loro mossa rischiava di rivelarsi un boomerang.

Il gsync non ha mai avuto nessun vantaggio e continuerà a non averlo.

Che freesync ha un range limitato è una leggenda metropolitana punto e basta.
Non c'è mai stato nessun range limitato.

Ci sono stati monitor a 35hz fin dall'inizio.
Quello che forse intendi è l'iniziale mancanza di lfc, ma parliamo del 2016.
Il mio monitor attuale scende a 16fps testati.


La prima versione di Freesync era parecchio indietro come prestazioni, e come range di frequenza altro che leggenda metropolitana. Ma voi continuate pure col solito ragionamento che in nvidia sono cattivoni che pensano solo ai soldi e che in AMD sono i nostri salvatori e benefattori. Il g-sync con modulo avrà sempre qualche vantaggio, poi che non vale il costo premium posso pure capirlo, come per le schede qualche anno fa.

BlueKnight
15-01-2019, 18:56
Il mio MG279Q è precedente al 2016, e ha comunque il LFC e un FreeSync Range che va va da 35 a 90 fps.

Non ci sono mai stati problemi di gioventù e limiti tecnici del Freesync.. semplicemente i produttori "risparmiavano" su elettronica e caratteristiche tecniche per non alzare troppo il costo dei monitor.. perché chi prendeva scheda AMD, era considerato un utente che voleva "risparmiare", mentre chi prendeva nVidia era considerato l'utente che voleva il top ed era disposto a spendere!

oxidized
15-01-2019, 18:56
Tipo? In cosa freesync era indietro?

La storia del range limitato mi sembra di averla spiegata abbastanza.
Mancava LFC, cioè la funzione che permette di scendere al di sotto della frequenza minima del monitor.
LFC è stato introdotto all'inizio del 2016, ma siamo qua ancora a dire che freesync ha un range limitato.

Del resto anche gsync non era perfetto,inizialmente non consentiva di superare al frequenza massima.

Tipo che non dava la stessa esperienza visiva, non era fluido pulito allo stesso modo e in parecchi se ne sono accorti, con la seconda generazione è un po' migliorato il tutto, ma anche lì, qualcosa non quadra quando comparato al g-sync che risulta più stabile e più "liscio". nvidia non si metterebbe mai a fare una schedina a parte da vendere ai vari produttori di monitor solo per far vedere che fanno qualcosa in più e per tenersi stretti i clienti, sarebbe fin troppo stupido quando possono prendere in giro la gente allo stesso modo senza la scheda. Quella scheda fa il suo lavoro, poi che sia sovrapprezzata, e che le differenze non spiegano la maggiorazione in prezzo, possiamo discuterne fino al prossimo anno, fatto sta che se vuoi il meglio del meglio e non ti preoccupi fin troppo della spesa prendi quello.

...semplicemente i produttori "risparmiavano" su elettronica e caratteristiche tecniche per non alzare troppo il costo dei monitor.. perché chi prendeva scheda AMD, era considerato un utente che voleva "risparmiare", mentre chi prendeva nVidia era considerato l'utente che voleva il top ed era disposto a spendere!

Questo è un altro motivo per il quale il g-sync costa così tanto in più del freesync, perché nvidia segue più da vicino i produttori di quei monitor con quei modelli in particolare rispetto AMD.

DukeIT
15-01-2019, 19:02
Tipo che non dava la stessa esperienza visiva, non era fluido pulito allo stesso modo e in parecchi se ne sono accorti, con la seconda generazione è un po' migliorato il tutto, ma anche lì, qualcosa non quadra quando comparato al g-sync che risulta più stabile e più "liscio". nvidia non si metterebbe mai a fare una schedina a parte da vendere ai vari produttori di monitor solo per far vedere che fanno qualcosa in più e per tenersi stretti i clienti, sarebbe fin troppo stupido quando possono prendere in giro la gente allo stesso modo senza la scheda. Quella scheda fa il suo lavoro, poi che sia sovrapprezzata, e che le differenze non spiegano la maggiorazione in prezzo, possiamo discuterne fino al prossimo anno, fatto sta che se vuoi il meglio del meglio e non ti preoccupi fin troppo della spesa prendi quello.
Se dici che "non dava la stesssa esperienza visiva", significa che hai testato con attenzione due sistemi simili con due monitor identici, uno con free sync ed uno con G-Sync. Ho seri dubbi che tu l'abbia fatto, ma anche fosse, saremmo ancora sull'empirico, sul soggettivo.
La domanda era: in cosa differiscono le due tecnologie?

oxidized
15-01-2019, 19:08
Scusa ma io non ho mai letto nulla del genere in nessuna prova o recensione.

Io sì invece, soprattutto di gente che conosco personalmente, e non recensioni su internet.

Se dici che "non dava la stesssa esperienza visiva", significa che hai testato con attenzione due sistemi simili con due monitor identici, uno con free sync ed uno con G-Sync. Ho seri dubbi che tu l'abbia fatto, ma anche fosse, saremmo ancora sull'empirico, sul soggettivo.
La domanda era: in cosa differiscono le due tecnologie?

Come sopra.

La risposta è: differiscono in hardware proprietario di nvidia implementato nei monitor che migliora la performance di tale tecnologia, con test e retest prima della vendita.

oxidized
15-01-2019, 19:19
Ah siamo nel campo del "mio cuggino" ho capito.

Che poi se Nvidia stessa ha ceduto e ha deciso di utilizzare la stessa tecnologia senza modulo proprietario direi che stiamo parlando aria fritta.

Io parlerò pure di mio cuggino, ma almeno non faccio il complottista a cui brucia il dietro per qualche motivo.

Ti rendi conto a quanto mercato si è appena aperta nvidia facendo questa mossa? Questo gli garantisce che chi non vuol spendere una fortuna su un monitor, ne compra uno che costa meno senza dover sterzare anche sulla scelta della scheda video, visto l'andamento di mercato recente di nvidia non più super positivo come una volta.

oxidized
15-01-2019, 19:32
A me non brucia proprio niente io ho sempre avuto una scheda AMD e un monitor freesync da 2016 salvo un mesetto con scheda nvidia, non ho pagato la tassa gsync.

Nvidia ha fatto un buona mossa, proprio perchè non c'è nessuna differenza tra gsync e freesync.


Nvidia ha fatto una buona mossa perché così anche quelli che avrebbero comprato una scheda video AMD per via del freesync ora possono tranquillamente comprare una nvidia e non pagare nessuna "tassa g-sync" sul monitor, anche avendo non le stesse identiche prestazioni.

calabar
15-01-2019, 23:09
... ora possono tranquillamente comprare una nvidia e non pagare nessuna "tassa g-sync" sul monitor ...
E speriamo che sia così e non come temo, ossia che i monitor con adaptive sync certificati gsync debbano pagare per tale certificazione.

Comunque hai esordito dichiarando l'evidente supremazia della tecnologia nVidia, ma poi è saltato fuori che tale supremazia non è altro che un'impressione soggettiva tua e di alcuni tuoi conoscenti.
Per quanto mi riguarda, a meno che qualcuno non tiri fuori delle prove oggettive e replicabili, tale superiorità non esiste.

oxidized
15-01-2019, 23:30
E speriamo che sia così e non come temo, ossia che i monitor con adaptive sync certificati gsync debbano pagare per tale certificazione.

Comunque hai esordito dichiarando l'evidente supremazia della tecnologia nVidia, ma poi è saltato fuori che tale supremazia non è altro che un'impressione soggettiva tua e di alcuni tuoi conoscenti.
Per quanto mi riguarda, a meno che qualcuno non tiri fuori delle prove oggettive e replicabili, tale superiorità non esiste.

Sicuramente evidente per chi ha l'occhio allenato a far caso a tali differenze, e poi come ho già detto, a che pro arrivare a sviluppare una scheda da vendere ai vari produttori se non serve a niente come dite, col rischio di fare una grossa figuraccia, e comunque di sprecare un sacco di soldi?

DukeIT
16-01-2019, 00:02
Sicuramente evidente per chi ha l'occhio allenato a far caso a tali differenze, e poi come ho già detto, a che pro arrivare a sviluppare una scheda da vendere ai vari produttori se non serve a niente come dite, col rischio di fare una grossa figuraccia, e comunque di sprecare un sacco di soldi?
Come a che pro? Se Free Sync funziona semplicemente tramite sw aperto, significa che lo stesso monitor può offrire quella tecnologia con qualsiasi scheda... Ma se Nvidia per offrirti quella funzionalità richiede hw proprietario, lega l'acquirente alla scheda ed al monitor, guadagnando su entrambi e impedendoti di fare scelte differenti.
Poi per la gente si sarebbe trattato semplicemente di scelte differenti delle due aziende, non accorgendosi che solo una è proprietaria, ed avrebbe scelto in base alla scheda, e Nvidia avrebbe fidalizzato i propri clienti contando anche su una posizione dominante.

oxidized
16-01-2019, 00:57
Come a che pro? Se Free Sync funziona semplicemente tramite sw aperto, significa che lo stesso monitor può offrire quella tecnologia con qualsiasi scheda... Ma se Nvidia per offrirti quella funzionalità richiede hw proprietario, lega l'acquirente alla scheda ed al monitor, guadagnando su entrambi e impedendoti di fare scelte differenti.
Poi per la gente si sarebbe trattato semplicemente di scelte differenti delle due aziende, non accorgendosi che solo una è proprietaria, ed avrebbe scelto in base alla scheda, e Nvidia avrebbe fidalizzato i propri clienti contando anche su una posizione dominante.


In pratica si chiama rosso perché è rosso.

Intendevo dire, a che pro fare una scheda da vendere ai produttori di monitor, se come dite voi non fa nulla, ed è uguale a freesync? Perché non risparmiare i soldi per progettarla e produrla se non serve a niente? Perché non risparmiarsi una figuraccia quando durante le review qualcuno avrebbe potuto smascherarli dicendo che non c'è assolutamente differenza e la scheda non serve a niente?

calabar
16-01-2019, 01:03
Sicuramente evidente per chi ha l'occhio allenato a far caso a tali differenze, ...
Mi spiace ma non è un argomento convincente. La differenze o c'è o non c'è, e l'opinione di alcune persone che reputano avere l'occhio allenato non è abbastanza.

Ad ogni modo, dando il beneficio del dubbio, mi pare più probabile che la differenza che avete visto possa essere dovuta ad una differenza di qualità tra i monitor piuttosto che alla superiorità (al momento non provata in alcun modo) di una delle tecnologie.

... e poi come ho già detto, a che pro arrivare a sviluppare una scheda da vendere ai vari produttori se non serve a niente come dite, col rischio di fare una grossa figuraccia, e comunque di sprecare un sacco di soldi?
Questa affermazione è davvero molto ingenua. A che pro? Creare un lock-in più forte (come loro solito) e guadagnare dalle certificazioni.
Figuracce ne hanno fatte tante, ma gli utenti comprano comunque i loro prodotti, quindi ho grossi dubbi si facciano problemi per quello.

DukeIT
16-01-2019, 08:38
Si, ma seppure agli inizi vi erano delle differenze tra i due approcci, non erano però tali da giustificare l'esborso richiesto e l'incompatibilità dei monitor.
Alla luce dei risultati ottenuti da AMD sarebbe stato più onesto, da parte di Nvidia, adottare quello standard e semmai adoperarsi per migliorarlo, cosa che ha invece fatto la sola AMD.
Il problema è che a Nvidia conveniva la situazione creatasi, anche se per gli acquirenti ciò significava pagare di più e legarsi ad un marchio senza poter liberamente scegliere, pena la perdita della funzionalità.
Che il G-Sync non avesse alcun senso lo hanno dimostrato tardivamente oggi, di fatto facendo presumere l'abbandono di tale tecnologia, anche se mascherando la cosa con la "certificazione" (e di fatto cercando ancora di guadagnarci sopra, se ciò richiederà una spesa suppletiva). Ovviamente non potevano certamente dire "finora vi abbiamo fregato", e comunque alla fine era anche ovvio che, dopo avere richiesto soldi per il modulo, non potessero dopo pochissimo abbandonarlo scatenando l'ira di chi aveva creduto che quella fosse la strada migliore e dunque valesse la spesa.

al135
16-01-2019, 11:00
Il gsync non ha mai avuto nessun vantaggio e continuerà a non averlo.

io col mio monitor vedo nettamente la differenza con gsync e senza. tearing assente, quando mi muovo immagini nettamente piu attaccate e fluide.
ho fatto la prova togliendolo e utilizzando anche un monitor diverso con freesync (ho avuto anche amd). la differenza con freesync seppur sottile c'è.
gsync , per esperienza avuta, rimane un pelino migliore del freesync. tu hai avuto esperienza diretta o parli tanto per? perche da come scrivi non credo tu lo abbia realmente provato...

DukeIT
16-01-2019, 11:11
Ma la prova con VGA AMD e monitor free sync l'hai fatta con l'ultima versione di free sync? E la diversa risposta può essere dovuta alle diverse caratteristiche del monitor?
In ogni caso se la nuova implementazione del G-Sync avviene ora tramite driver, è una implicita ammissione di Nvidia che il modulo aveva altri scopi...

fireradeon
16-01-2019, 12:21
Qualcuno mi può mettere il link al thread del g synch per favore?

oxidized
16-01-2019, 13:24
Mi spiace ma non è un argomento convincente. La differenze o c'è o non c'è, e l'opinione di alcune persone che reputano avere l'occhio allenato non è abbastanza.

Ad ogni modo, dando il beneficio del dubbio, mi pare più probabile che la differenza che avete visto possa essere dovuta ad una differenza di qualità tra i monitor piuttosto che alla superiorità (al momento non provata in alcun modo) di una delle tecnologie.


Questa affermazione è davvero molto ingenua. A che pro? Creare un lock-in più forte (come loro solito) e guadagnare dalle certificazioni.
Figuracce ne hanno fatte tante, ma gli utenti comprano comunque i loro prodotti, quindi ho grossi dubbi si facciano problemi per quello.

No il tuo di argomento non è convincente, se la differenza c'è non è detto che tutti riescano a vederla, o sfruttino il monitor in modo da poter vedere quella differenza, l'opinione di diverse persone che hanno provato entrambi oltre a contare piu di chi non l'ha fatto, dimostra pure che la differenza c'è. La mia affermazione sarà pure ingenua, ma la tua è basata su niente, ma solo su complottismi contro nvidia pro AMD come al solito fa la maggior parte della userbase dei forum di hardware che pensa di essere più furba o più sveglia "Perché non da soldi ad nvidia" ma li da ai nostri salvatori di AMD che hanno a cuore solo il nostro benessere e i nostri interessi. Di figuracce obiettivamente ne ha fatte molte di più AMD di nvidia, da sempre, ed è proprio per quello che hanno una frazione del mercato di nvidia, non per altri motivi legati ai classici complottismi, mettetevelo in testa, nessuno si è alzato un giorno e ha deciso di cominciare a favorire nvidia perché quel giorno gli stava simpatico il colore verde.

Anche tralasciando il discorso di fidelizzazione dei clienti e guadagno sul modulo c'è da dire che quando Nvidia ha lanciato Gsync era necessario creare nuovi scaler per i monitor.
Gli scaler che esistevano nel 2014 (mi pare) non supportavano la funziona di sync adattivo.
Quindi Nvidia ha creato il modulino.

Quando AMD si è trovata a creare un sistema simile ha usato un approccio diverso tipico di AMD e cioè puntare sugli standard aperti.
(non che AMD lo faccia per il bene del mondo, ci sono motivi di convenienza ma fino a che coincidono con vantaggi per i clienti tanto meglio).
Quindi ha tirato fuori dalla naftalina il segnala vblank che si usava sui monitor crt che però non è mai sparito dai notebook e ha dimostrato che sui portatili si poteva fare un sync adattivo semplicemente via software.
I monitor però non avevano più vblank, così ha collaborato con i produttori di scaler per farlo reinserire (non so se è identico o qualcosa di simile in realtà), il problema rimanente era come far comunicare gli scaler con la vga e a questo hanno ovviato facendo inserire nel DP 1.2 un segnale apposito.
Così sono nati i monitor adaptive sync.

Quindi io non critico Nvidia per aver creato il modulino agli albori del gsync, ma di non averlo abbandonato tempestivamente dopo la creazione di uno standard comune.
Così facendo ha condannato il mercato ad anni di divisione e sovrapprezzi.

Grazie della spiegazione, ammetto che qualcosa di quello che hai scritto non lo sapevo. Tu dici:
"Quindi io non critico Nvidia per aver creato il modulino agli albori del gsync, ma di non averlo abbandonato tempestivamente dopo la creazione di uno standard comune."
Che significa essenzialmente che nvidia ha curato i propri interessi (e lo sta facendo ancora, anche più di prima) che è la stessa cosa che ha fatto AMD scegliendo la tecnologia in versione "open", come anche tu hai detto. Come vedi entrambi curano i propri interessi, noi utenti dobbiamo solo limitarci a scegliere l'hardware migliore a prescindere da brand e clientelismi vari - se Navi sarà una proposta valida, meglio di nvidia, non vedo perché non comprarla, ho comprato AMD in passato e lo rifarò se lo dovessero "meritare"

Si, ma seppure agli inizi vi erano delle differenze tra i due approcci, non erano però tali da giustificare l'esborso richiesto e l'incompatibilità dei monitor.
Alla luce dei risultati ottenuti da AMD sarebbe stato più onesto, da parte di Nvidia, adottare quello standard e semmai adoperarsi per migliorarlo, cosa che ha invece fatto la sola AMD.
Il problema è che a Nvidia conveniva la situazione creatasi, anche se per gli acquirenti ciò significava pagare di più e legarsi ad un marchio senza poter liberamente scegliere, pena la perdita della funzionalità.
Che il G-Sync non avesse alcun senso lo hanno dimostrato tardivamente oggi, di fatto facendo presumere l'abbandono di tale tecnologia, anche se mascherando la cosa con la "certificazione" (e di fatto cercando ancora di guadagnarci sopra, se ciò richiederà una spesa suppletiva). Ovviamente non potevano certamente dire "finora vi abbiamo fregato", e comunque alla fine era anche ovvio che, dopo avere richiesto soldi per il modulo, non potessero dopo pochissimo abbandonarlo scatenando l'ira di chi aveva creduto che quella fosse la strada migliore e dunque valesse la spesa.

Come ho già detto, sul fatto della convenienza, posso essere d'accordo, ma lì poi diventa anche una scelta in parte soggettiva.
Nvidia aprendosi allo standard open non ha dimostrato proprio niente a livello di "inutilità", ha semplicemente dimostrato di volere indietro quel pezzettino di mercato che ha perso ultimamente, e siccome il freesync ha molti più clienti, non perché sia meglio o uguale, ma semplicemente perché costa molto di meno all'utente, ecco quindi che nvidia ha tolto un motivo in più per comprare schede video AMD, ossia il free cost di freesync.


In ogni caso se la nuova implementazione del G-Sync avviene ora tramite driver, è una implicita ammissione di Nvidia che il modulo aveva altri scopi...

Oh ma sei fissato eh? NON è così, nvidia ha fatto una mossa per garantirsi ulteriori acquisti, perché la gente che voleva un monitor adaptive sync prima era forzata con i monitor sovrapprezzati g-sync, mentre ora non più !

calabar
16-01-2019, 14:19
No il tuo di argomento non è convincente, ...
La percezione personale non è un'argomentazione. Le prove lo sono e se GSync fosse davvero superiore come dici, queste prove emergerebbero. Ma non emergono, e questo dovrebbe dirti qualcosa.

La mia argomentazione è basata su questo solido elemento, e si può naturalmente smentire qualora emergessero queste prove verificabili.

Il fatto che poi tu abbia detto che GSync non può che essere migliore perchè altrimenti nVidia non lo avrebbe prodotto dimostra che nella tua tesi c'è anche una certa dose di autoconvincimento. Io e altri ti abbiamo già suggerito ottime motivazioni per cui nVidia avrebbe deciso di fare un proprio chip (tempistiche, lock-in, giustificazione dei costi, ecc...).

Se poi non ti sembrano argomenti validi non so che dirti, se rimarrai con la tua convinzione credo me ne farò una ragione. ;)

oxidized
16-01-2019, 14:30
La percezione personale non è un'argomentazione. Le prove lo sono e se GSync fosse davvero superiore come dici, queste prove emergerebbero. Ma non emergono, e questo dovrebbe dirti qualcosa.

La mia argomentazione è basata su questo solido elemento, e si può naturalmente smentire qualora emergessero queste prove verificabili.

Il fatto che poi tu abbia detto che GSync non può che essere migliore perchè altrimenti nVidia non lo avrebbe prodotto dimostra che nella tua tesi c'è anche una certa dose di autoconvincimento. Io e altri ti abbiamo già suggerito ottime motivazioni per cui nVidia avrebbe deciso di fare un proprio chip (tempistiche, lock-in, giustificazione dei costi, ecc...).

Se poi non ti sembrano argomenti validi non so che dirti, se rimarrai con la tua convinzione credo me ne farò una ragione. ;)

Questa non è una di quelle cose per cui basta guardare un paio di test su internet per vedere come va per farsi qualche idea, non stiamo testando se una scheda fa più o meno fps, o se un processore fa più o meno calcoli, queste sono cose che si possono notare solo guardando personalmente il monitor, come se si stesse parlando di colori, luminosità, e refresh rate, una recensione ti darà l'impressione del recensore, che non è detto abbia l'occhio "allenato" o abbia provando il monitor nei casi nei quali farebbe la differenza. Inoltre io non ho assolutamente detto quello che dici
"Il fatto che poi tu abbia detto che GSync non può che essere migliore perchè altrimenti nVidia non lo avrebbe prodotto"
Se leggi bene, quello che ho scritto è che nvidia non avrebbe mai sprecato soldi per progettare e produrre una schedina da vendere ai produttori per dare solo l'illusione che la loro tecnologia fosse migliore, avrebbero semplicemente fatto come AMD, ma affermando che la loro è migliore perché sì, col classico stile nvidia, invece hanno sviluppato e prodotto hardware proprietario da vendere a chi produce monitor, e fin'ora non è mai uscito fuori che quel hardware sia inutile, da nessun recensore, e da nessuna fonte un minimo attendibile.

calabar
16-01-2019, 15:31
Questa non è una di quelle cose per cui basta guardare un paio di test su internet per vedere come va per farsi qualche idea ...
E allora cosa stiamo testando, le impressioni?
I fenomeni a cui questa tecnologia cerca di portare rimedio non sono un'impressione, ma fenomeni ben definiti. Se una tecnologia è superiore ad un'altra definiamo bene come e in cosa. Se tu (o chiunque qui) non hai le conoscenze per farlo, ci sarà chi è più preparato e saprà cosa andare a misurare.
Freesync inizialmente aveva sicuramente alcuni limiti, poi questi limiti sono stati pian piano superati.
Al di la dell'esperienza personale, nel tempo ho letto diversi articoli su queste tecnologie, i diversi approcci e i vari pro e contro venivano esposti in modo chiaro.

Inoltre io non ho assolutamente detto quello che dici
Oh, è proprio quello che hai detto, ma con altre parole, che dimostrano una certa ingenua fiducia verso nVidia. Oltretutto sembra che continui non vedere i vantaggi per nVidia nella scelta di utilizzare un chip proprietario.

... e fin'ora non è mai uscito fuori che quel hardware sia inutile, da nessun recensore ...
Dipende da cosa intendi per "inutile".
Il chip è utile per come nVidia ha concepito la sua tecnologia, decisione che come dicevano può includere sia ragioni tecniche (le tempistiche, la qualità) che commerciali (il guadagno dalla vendita dei chip, il lock-in, il controllo totale sulla piattaforma).
È però inutile nel senso che non è necessario, non è necessario cioè utilizzare questo approccio con chip proprietario per ottenere gli scopi che queste tecnologie si prefiggono. L'esistenza del freesync lo dimostra. Il suo supporto da parte di nVidia (seppure a modo loro) lo conferma.

oxidized
16-01-2019, 15:56
E allora cosa stiamo testando, le impressioni?
I fenomeni a cui questa tecnologia cerca di portare rimedio non sono un'impressione, ma fenomeni ben definiti. Se una tecnologia è superiore ad un'altra definiamo bene come e in cosa. Se tu (o chiunque qui) non hai le conoscenze per farlo, ci sarà chi è più preparato e saprà cosa andare a misurare.
Freesync inizialmente aveva sicuramente alcuni limiti, poi questi limiti sono stati pian piano superati.
Al di la dell'esperienza personale, nel tempo ho letto diversi articoli su queste tecnologie, i diversi approcci e i vari pro e contro venivano esposti in modo chiaro.


Oh, è proprio quello che hai detto, ma con altre parole, che dimostrano una certa ingenua fiducia verso nVidia. Oltretutto sembra che continui non vedere i vantaggi per nVidia nella scelta di utilizzare un chip proprietario.


Dipende da cosa intendi per "inutile".
Il chip è utile per come nVidia ha concepito la sua tecnologia, decisione che come dicevano può includere sia ragioni tecniche (le tempistiche, la qualità) che commerciali (il guadagno dalla vendita dei chip, il lock-in, il controllo totale sulla piattaforma).
È però inutile nel senso che non è necessario, non è necessario cioè utilizzare questo approccio con chip proprietario per ottenere gli scopi che queste tecnologie si prefiggono. L'esistenza del freesync lo dimostra. Il suo supporto da parte di nVidia (seppure a modo loro) lo conferma.


Certo che stiamo testando le impressioni, le tecnologie sono le medesime salvo qualche piccola differenza o qualche piccola miglioria di una a discapito dell'altra, ma siamo lì, è ovvio che se non sai cosa cerchi, non lo troverai mai, per questo dico che dipende da chi testa tali tecnologie, fin'ora dei vari video che m'è capitato di vedere non ce n'è stato uno che sia stato in grado di dimostrare qualcosa, comprensibile, vista la quasi impossibilità di mostrare certe differenze tramite video.

Puoi fare quel che vuoi, capire fischi per fiaschi, intendere le cose come vuoi tu, ma non è quello che ho detto e si vede che capisci un po' tutto a modo tuo, anche quando si parla di freesync e g-sync.

Per inutile intendo che siccome l'approccio di AMD costa meno, evidentemente, perché nvidia dovrebbe creare una cosa inutile, per ottenere lo stesso goal? Non c'è motivo, quello che dite riguardo forzare a comprare sempre nvidia per via del g-sync ha poco senso, e comunque potrebbe valere lo stesso discorso par AMD col freesync, visto che come il g-sync di nvidia, sono entrambi iterazioni del Vesa adaptive sync, con la differenza che uno praticamente rimane uguale, cambiando solo nome, ed aggiungendo un logo di AMD, e l'altro oltre a cambiare nome cambia anche il modo per cui funziona. La fissa qua sembra comune, nvidia ha semplicemente allargato le sue tasche iniziando il supporto anche sui monitor freesync, che ovviamente non avranno le stesse prestazioni dei g-sync originali.

calabar
16-01-2019, 16:20
Puoi fare quel che vuoi, capire fischi per fiaschi, intendere le cose come vuoi tu, ma non è quello che ho detto e si vede che capisci un po' tutto a modo tuo, anche quando si parla di freesync e g-sync.
Guarda che io capisco benissimo, sei tu che vuoi far passare una tecnologia come migliore senza averne gli elementi.
Se avessi scritto che a te da sensazioni migliori nessuno avrebbe avuto nulla da obiettare. Ma non è questo che hai scritto.

Per inutile intendo che siccome l'approccio di AMD costa meno, evidentemente, perché nvidia dovrebbe creare una cosa inutile, per ottenere lo stesso goal?
Credevo che il motivo, a forza di ripeterlo, fosse ormai ovvio. Non è importante che questa tecnologia abbia costi maggiori se poi puoi venderla a prezzo più alto e guadagnarci ancora di più, con in più il vantaggio del lock-in (chi acquista un monitor G-Sync sarà portato ad acquistare una nVidia anche come scheda successiva, dato che in questa fascia di prodotti di solito i monitor li si tiene più di una scheda video).
nVidia aveva tutti i motivi per farlo, indipendentemente dalla qualità della tecnologia.

... iniziando il supporto anche sui monitor freesync, che ovviamente non avranno le stesse prestazioni dei g-sync originali.
Sono queste tue granitiche certezze che mi lasciano un po' perplesso.

Ad ogni modo direi che le opinioni le abbiamo confrontate, per cui credo non occorra per il momento aggiungere altro da parte mia. :)

oxidized
16-01-2019, 18:21
Guarda che io capisco benissimo, sei tu che vuoi far passare una tecnologia come migliore senza averne gli elementi.
Se avessi scritto che a te da sensazioni migliori nessuno avrebbe avuto nulla da obiettare. Ma non è questo che hai scritto.


Credevo che il motivo, a forza di ripeterlo, fosse ormai ovvio. Non è importante che questa tecnologia abbia costi maggiori se poi puoi venderla a prezzo più alto e guadagnarci ancora di più, con in più il vantaggio del lock-in (chi acquista un monitor G-Sync sarà portato ad acquistare una nVidia anche come scheda successiva, dato che in questa fascia di prodotti di solito i monitor li si tiene più di una scheda video).
nVidia aveva tutti i motivi per farlo, indipendentemente dalla qualità della tecnologia.


Sono queste tue granitiche certezze che mi lasciano un po' perplesso.

Ad ogni modo direi che le opinioni le abbiamo confrontate, per cui credo non occorra per il momento aggiungere altro da parte mia. :)


Niente, vedo che non ci capiamo del tutto va bene, continua a pensare quello che vuoi, farò lo stesso ovviamente

Varg87
16-01-2019, 18:48
Al momento sono quasi tutti monitor 1080p e/o TN con diagonali inferiori a 27". Che culo!
C'è solo da sperare che i modelli non in lista vengano testati per bene dai recensori. 1440p 27/32 neanche per sbaglio.
Da un altro articolo:

NVidia si giustifica dicendo di aver provato circa 400 monitor compatibili FreeSync ma che solamente quelli indicati avrebbero superato rigorosi test incentrati sulla qualità del pannello, sull'accuratezza nella resa dei colori, sulla corrispondenza della frequenza di refresh dichiarata

TN.* Andiamo bene... :asd:

*tralasciando per un momento la tecnologia del monitor, basta leggersi qualche recensione di chi l'ha acquistato e provato per capire che è un monitor di m. e che i colori sono tutt'altro che fedeli. :muro:

Bestio
16-01-2019, 18:57
A sto punto vorrei davvero essermi tenuto anche l'AG322QCX per confrontare fianco a fianco G-Sync e Freesync con GPU Nvidia.

Tra l'altro il mio amico che ce l'ha ha ancora uno sli di 980ti, era chiedere davvero troppo che lo supportassero anche sulle Maxwell? :stordita:

Mparlav
17-01-2019, 21:55
Una recensione interessante:
https://www.techspot.com/article/1779-freesync-and-nvidia-geforce/