PDA

View Full Version : Netflix annuncia il supporto all'HDR anche per Windows 10


Redazione di Hardware Upg
21-12-2017, 13:21
Link alla notizia: https://smarthome.hwupgrade.it/news/audio-video/netflix-annuncia-il-supporto-all-hdr-anche-per-windows-10_73117.html

Il servizio di streaming video annuncia la compatibilità con il nuovo standard video HDR anche per il sistema operativo Windows 10. Ecco dunque le novità in arrivo.

Click sul link per visualizzare la notizia.

jepessen
21-12-2017, 13:39
Bene, una buona notizia... Speriamo solo che i contenuti HDR aumentino...

dOnDa
21-12-2017, 13:39
marchettina?

Mars4ever
21-12-2017, 13:46
Se solo qualcuno si degnasse si spiegare che cavolo significa filmati HDR... :mbe:

peronedj
21-12-2017, 14:44
Se solo qualcuno si degnasse di far uscire sti benedetti monitor per pc con hdr... :mbe:

fixed

cignox1
21-12-2017, 15:31
>>Se solo qualcuno si degnasse si spiegare che cavolo significa filmati HDR.

Vuol dire, "semplicemente", che il filmato mantiene una maggiore informazione circa la luminositá della scena. Se lo schermo é in grado di gestisce il formato, é anche in grado di riprodurre una maggiore quantitá di valori di luminositá.

Esempio:
immagina una caverna buia. Fuori é una bella giornata. Ti metti davanti all'ingresso e fai una foto: orca, l'ingresso é buono, ma l'interno é completamente nero.
Allora alzi gli iso e magari pure l'esposizione. Ora vedi le rocce all'interno, ma fuori é tutto inguaribilmente sovraesposto.

Perché non riesci a fare una foto che riprenda bene sia l'interno che l'esterno? Perché le foto "classiche" (e quindi anche i video) possono memorizzare solo una gamma relativamente ristretta di luminositá, e le caratteristiche di esposizione decidono quale finestra viene scelta. Tra la caverna buia e il sole dritto in faccia c'é un rapporto di 10 milioni a uno (esempio a caso) ma la tua foto puó rappresentarne solo 10 mila a uno, sta a te scegliere quale regolando esposizione, iso etc.

Ora, in genere questo non é un problema: tanto sia le stampe che gli schermi tradizionali piú di un tot non possono fare.

Ma ora il limite sta diventando stretto: non é solo una questione di range, ma anche di risoluzione: quanto due livelli di luminositá devono essere diversi perché la fotografia li tratti come 2 valori distinti.

Hanno quindi inventato il concetto di HDR (high dynamic range). In CGI ha giá anni e anni alle spalle: fai il rendering in HDR e converti solo alla fine in LDR.

Poi hanno inventato le foto HDR: si creano solitamente con esposizionni multiple e possono essere usate in CGI per illuminare una scena.

Ora le propongono (in versione credo molto depotenziata) anche per i video. Non ho ancora visto bene una tv HDR, quindi non so se il miglioramento c'é, peró potenzialmente dovrebbe consentire un maggior realismo, perché l'occhio umano non ha solo una ottima risoluzione spaziale (a cui diamo risposta con FHD e UHD) e cromatica, ma anche di luminositá.

Spero che questo ti sia di aiuto.

sterock77
21-12-2017, 16:54
>>Se solo qualcuno si degnasse si spiegare che cavolo significa filmati HDR.

Vuol dire, "semplicemente", che il filmato mantiene una maggiore informazione circa la luminositá della scena. Se lo schermo é in grado di gestisce il formato, é anche in grado di riprodurre una maggiore quantitá di valori di luminositá.

Esempio:
immagina una caverna buia. Fuori é una bella giornata. Ti metti davanti all'ingresso e fai una foto: orca, l'ingresso é buono, ma l'interno é completamente nero.
Allora alzi gli iso e magari pure l'esposizione. Ora vedi le rocce all'interno, ma fuori é tutto inguaribilmente sovraesposto.

Perché non riesci a fare una foto che riprenda bene sia l'interno che l'esterno? Perché le foto "classiche" (e quindi anche i video) possono memorizzare solo una gamma relativamente ristretta di luminositá, e le caratteristiche di esposizione decidono quale finestra viene scelta. Tra la caverna buia e il sole dritto in faccia c'é un rapporto di 10 milioni a uno (esempio a caso) ma la tua foto puó rappresentarne solo 10 mila a uno, sta a te scegliere quale regolando esposizione, iso etc.

Ora, in genere questo non é un problema: tanto sia le stampe che gli schermi tradizionali piú di un tot non possono fare.

Ma ora il limite sta diventando stretto: non é solo una questione di range, ma anche di risoluzione: quanto due livelli di luminositá devono essere diversi perché la fotografia li tratti come 2 valori distinti.

Hanno quindi inventato il concetto di HDR (high dynamic range). In CGI ha giá anni e anni alle spalle: fai il rendering in HDR e converti solo alla fine in LDR.

Poi hanno inventato le foto HDR: si creano solitamente con esposizionni multiple e possono essere usate in CGI per illuminare una scena.

Ora le propongono (in versione credo molto depotenziata) anche per i video. Non ho ancora visto bene una tv HDR, quindi non so se il miglioramento c'é, peró potenzialmente dovrebbe consentire un maggior realismo, perché l'occhio umano non ha solo una ottima risoluzione spaziale (a cui diamo risposta con FHD e UHD) e cromatica, ma anche di luminositá.

Spero che questo ti sia di aiuto.
Descrizione splendida, anche se in alcuni casi anche le foto in hdr mi sebravano molto artefatte e poco reali, del tipo rendere visibili dei dettagli falsando la luminosità della parte di foto togliendo atmosfera e realismo, perchè anche tu se hai il sole in faccia dentro alla grotta non vedi :D

cignox1
22-12-2017, 07:06
--in alcuni casi anche le foto in hdr mi sebravano molto artefatte e poco reali, del tipo rendere visibili dei dettagli falsando la luminosità della parte di foto togliendo atmosfera e realismo, perchè anche tu se hai il sole in faccia dentro alla grotta non vedi

Le foto cosiddette HDR non sono in realtá "vere" HDR nel momento in cui vengono visualizzate: i monitor sono comunque LDR (anche quelli HDR, rispetto al range permesso da certi formati, sono sostanzialmente LDR), solo che vengono passate attraverso un algoritmo di "Tone mapping" che converte da HDR a LDR. Le cosiddette immagini HDR che vediamo sempre piú spesso sono create da tone mappers che permettono di mantenere il contrasto locale (quindi i dettagli) su un ampio range di luminositá.

E sí, anche gli occhi non hanno un range completo (e devono variare l'apertura in base alla luminositá) peró hanno una gamma decisamente superiore a quella di molte fotocamete (anche se non conosco i dettagli tecnici dei modelli piú evoluti, che magari fanno molto meglio).

piefab
22-12-2017, 07:13
Il sistema sarà veramente efficace solo quando oltre alla sorgente e al computer/tv con supporto HDR, ci sarà anche un display certificato HDR600 o 1000, ossia con supporto ai 10bit e valori di luminosità e contrasto sufficienti per sfruttare a pieno il nuovo formato.

Nightingale
22-12-2017, 09:50
>>Se solo qualcuno si degnasse si spiegare che cavolo significa filmati HDR.

Vuol dire, "semplicemente", che il filmato mantiene una maggiore informazione circa la luminositá della scena. Se lo schermo é in grado di gestisce il formato, é anche in grado di riprodurre una maggiore quantitá di valori di luminositá.

Esempio:
immagina una caverna buia. Fuori é una bella giornata. Ti metti davanti all'ingresso e fai una foto: orca, l'ingresso é buono, ma l'interno é completamente nero.
Allora alzi gli iso e magari pure l'esposizione. Ora vedi le rocce all'interno, ma fuori é tutto inguaribilmente sovraesposto.

Perché non riesci a fare una foto che riprenda bene sia l'interno che l'esterno? Perché le foto "classiche" (e quindi anche i video) possono memorizzare solo una gamma relativamente ristretta di luminositá, e le caratteristiche di esposizione decidono quale finestra viene scelta. Tra la caverna buia e il sole dritto in faccia c'é un rapporto di 10 milioni a uno (esempio a caso) ma la tua foto puó rappresentarne solo 10 mila a uno, sta a te scegliere quale regolando esposizione, iso etc.

Ora, in genere questo non é un problema: tanto sia le stampe che gli schermi tradizionali piú di un tot non possono fare.

Ma ora il limite sta diventando stretto: non é solo una questione di range, ma anche di risoluzione: quanto due livelli di luminositá devono essere diversi perché la fotografia li tratti come 2 valori distinti.

Hanno quindi inventato il concetto di HDR (high dynamic range). In CGI ha giá anni e anni alle spalle: fai il rendering in HDR e converti solo alla fine in LDR.

Poi hanno inventato le foto HDR: si creano solitamente con esposizionni multiple e possono essere usate in CGI per illuminare una scena.

Ora le propongono (in versione credo molto depotenziata) anche per i video. Non ho ancora visto bene una tv HDR, quindi non so se il miglioramento c'é, peró potenzialmente dovrebbe consentire un maggior realismo, perché l'occhio umano non ha solo una ottima risoluzione spaziale (a cui diamo risposta con FHD e UHD) e cromatica, ma anche di luminositá.

Spero che questo ti sia di aiuto.

Un commento come "i vecchi tempi" di hwupgrade (e mi riferisco alla community, non alla redazione).
Grande!

Tanto valore aggiunto. Complimenti e grazie.

Titanox2
22-12-2017, 09:53
Se solo qualcuno si degnasse si spiegare che cavolo significa filmati HDR... :mbe:

cavilli per chi ha solid da buttare come per le tv 4k