ciccio.reborn
26-09-2018, 20:57
Salve,
devo upgradare la mia attuale configurazione e, per motivi di lavoro (foto/video), devo utilizzare l'HDR 4k a 10 bit (non quello a 8 + 2 frc, cioč' dithering).
Ho trovato alcuni monitor che sono effettivamente 4k HDR a 10 bit, ad esempio il Dell UP2718Q o il BEnQ SW271/SW320, ma non riesco a trovare informazioni precise e dettagliate sulle attuali schede grafiche, AMD o NVIDIA, utilizzino i 10bit reali per ciascuna delle tre componenti.
Ad esempio in casa AMD, RX580 o Vega64 sono effettivamente a 10bit reali, oppure bisogna usare la Frontier Edition: e in casa NVIDIA?
Sui siti di AMD/NVIDIA si trovano informazioni generiche, che non specificano se i 10 bit sono reali oppure no, ed anche le varie recensioni che ho trovato non forniscono informazioni precise (ed anche sicure).
Potete aiutarmi?
Grazie
devo upgradare la mia attuale configurazione e, per motivi di lavoro (foto/video), devo utilizzare l'HDR 4k a 10 bit (non quello a 8 + 2 frc, cioč' dithering).
Ho trovato alcuni monitor che sono effettivamente 4k HDR a 10 bit, ad esempio il Dell UP2718Q o il BEnQ SW271/SW320, ma non riesco a trovare informazioni precise e dettagliate sulle attuali schede grafiche, AMD o NVIDIA, utilizzino i 10bit reali per ciascuna delle tre componenti.
Ad esempio in casa AMD, RX580 o Vega64 sono effettivamente a 10bit reali, oppure bisogna usare la Frontier Edition: e in casa NVIDIA?
Sui siti di AMD/NVIDIA si trovano informazioni generiche, che non specificano se i 10 bit sono reali oppure no, ed anche le varie recensioni che ho trovato non forniscono informazioni precise (ed anche sicure).
Potete aiutarmi?
Grazie