Quote:
Originariamente inviato da Xiphactinus
La "cagata" sta al principio: convertire una qualsiasi cosa da SDR ad HDR non ha molto senso!
Bisogna "capire" quale singolo pixel bianco va illuminato di più (quindi in HDR e A CHE LIVELLO) e quale di meno!
Ad esempio , in una scena dove è presente il sole (una bella palla bianca) e magari un foglio di carta bianca (dove in sdr le due cose hanno in origine la stessa luminosità) , questi NON POSSONO ESSERE convertiti in HDR allo stesso modo! Il sole dovrà avere la massima luminosità in hdr nelle possibilità del monitor, il foglio no!
Al limite ci sarebbe bisogno di una "AI" che ad ogni fotogramma "capisca" che tipo di oggetti ci sono nella scena ed agire di conseguenza...... ma servirebbe il doppio di potenza solo per questo, sarebbe sempre uno stratagemma, connessione sempre attiva e latenze maggiori!
|
Esattamente e il solo "effetto HDR" è possibile farlo da anni e anni con Reshade
Solita fuffa Nvidia che si può fare solo con il loro hardware di ultima generazione e con quelli prima no