NVIDIA implementa il supporto ai 4K a 60Hz anche su HDMI, con qualche compromesso

NVIDIA implementa il supporto ai 4K a 60Hz anche su HDMI, con qualche compromesso

Con gli ultimi driver beta rilasciati durante la scorsa settimana, NVIDIA ha introdotto il supporto alla risoluzione 4K a 60Hz anche sulle attuali HDMI, anche se solo giungendo a qualche compromesso

di pubblicata il , alle 15:49 nel canale Schede Video
NVIDIA
 

Molti monitor 4K garantiscono la massima risoluzione a 60Hz solamente se connessi ad una porta DisplayPort. Questo perché la bandwidth delle attuali connessioni HDMI è semplicemente troppo ridotta per poter garantire sessanta aggiornamenti al secondo alla risoluzione 3840x2160. NVIDIA, tuttavia, sta abilitando i 60Hz d'aggiornamento anche via HDMI, ma solamente con alcuni modelli di televisori.

La notizia è emersa in via non ufficiale sui forum di Anandtech, in cui l'utente saeedkunna è riuscito a collegare una scheda video basata su NVIDIA Kepler (con gli ultimi driver beta R340) ad un televisore 4K attraverso collegamento HDMI 1.4, sfruttando una frequenza d'aggiornamento dell'immagine pari a 60Hz. Si tratta di una caratteristica prevista solamente su HDMI 2.0, ma che si può ottenere anche sugli standard meno recenti "grazie" ad un sensibile degrado nella qualità d'immagine.

Alcuni modelli di televisori 4K, come i Sony XBR 55X900A e i Samsung UE40HU6900 citati da Anandtech, implementano una modalità con qualità d'immagine ridotta che permette di riprodurre contenuti 4K a 60Hz rientrando nelle specifiche di bandwidth di HDMI 1.4, pari a 8,16Gbps. Questi televisori diminuiscono il peso dei singoli fotogrammi usando il "chroma subsampling", ovvero riducono i dati relativi alla crominanza per garantire una risoluzione maggiore a parità di banda disponibile.

I produttori di televisori utilizzano, nello specifico il subsampling Y'CbCr 4:2:0, una modalità che richiede circa un quarto dei dati relativi ai colori di un singolo fotogramma, con una riproduzione senza perdite della luminanza, ma con una frazione della bandwidth richiesta per la crominanza. Al momento, la connessione HDMI da PC verso TV è praticata con un sampling lossless 4:4:4, mentre il sampling 4:2:0 è utilizzato soprattutto per le sorgenti digitali, come Blu-Ray, le trasmissioni televisive, o lo streaming video (ed anche nei codec MPEG e JPEG).

Un approccio, quello dei produttori di TV 4K, che si sposa perfettamente con la riproduzione di contenuti multimediali, dal momento che sono già codificati con un subsampling decisamente simile. Tuttavia, si tratta di una soluzione non adatta alla riproduzione dei contenuti video di un sistema desktop, in cui il chroma subsampling non permetterebbe di ottenere un output definito per testo ed interfaccia grafica statica.

In ogni caso, con il diffondersi di TV 4K 4:2:0, la stessa NVIDIA ha confermato il supporto per le schede video basate su Kepler, con i nuovi driver R340. In attesa dei primi televisori con pieno supporto agli standard HDMI 2.0, la soluzione scelta da NVIDIA è l'unica per ottenere i 60Hz via HDMI, mentre DisplayPort 1.2 è l'unico metodo attuale in grado di riprodurre immagini a 4K e frequenza d'aggiornamento di 60Hz con subsampling 4:4:4.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

16 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
sbaffo23 Giugno 2014, 16:01 #1
a che pro aumentare la risoluzione per poi abbassare la nitidezza?
elevul23 Giugno 2014, 16:04 #2
Purtroppo questa funzione non è supportata dai pannelli 4k economici, come i Seiki.
Sapo8423 Giugno 2014, 16:27 #3
Originariamente inviato da: sbaffo
a che pro aumentare la risoluzione per poi abbassare la nitidezza?


Perché i contenuti 4K hanno già quel subsampling.

Tuttavia, si tratta di una soluzione non adatta alla riproduzione dei contenuti video di un sistema desktop, in cui il chroma subsampling non permetterebbe di ottenere un output definito per testo ed interfaccia grafica statica


Beh, dipende comunque, testo nero su fondo bianco o comunque con differenze notevoli di luma rimarrebbe comunque molto definito.
Una differenza notevole la si avrebbe sui bordi di colore differente, che comunque non sono poi così diffusi.
Secondo me il risultato finale non dovrebbe nemmeno essere così male (poi immagino dipende anche dall'upscale del chroma).
AceGranger23 Giugno 2014, 16:47 #4
eh, ma quindi con TV dotate delle nuove HDMI 2.0 le attuali GPU, con la sola riprogrammazione delle porte via driver, saranno in grado di trasferire appieno il segnale 4K su HDMI ?
sbaffo23 Giugno 2014, 16:50 #5
Originariamente inviato da: Sapo84
Perché i contenuti 4K hanno già quel subsampling.
...
Secondo me il risultato finale non dovrebbe nemmeno essere così male (poi immagino dipende anche dall'upscale del chroma).

I contenuti [U]video[/U] 4k hanno quel subsampling. E' come dire che si usa quel subsampling dove non c'è bisogno di nitidezza , ma allora non c'è bisogno neanche della risoluzione 4k, per gli stessi contenuti.
Probabilmente la verità sta nel mezzo come dici tu.
tuttodigitale23 Giugno 2014, 17:19 #6
Originariamente inviato da: AceGranger
eh, ma quindi con TV dotate delle nuove HDMI 2.0 le attuali GPU, con la sola riprogrammazione delle porte via driver, saranno in grado di trasferire appieno il segnale 4K su HDMI ?

probabile, ma lo stesso vale per i televisori: un aggiornamento al firmware ed ecco che le HDMI 1.4 potrebbero diventare magicamente delle 2.0.
Il "problema" è il seguente: i produttori devono giustificare l'acquisto di nuovi prodotti. Vedi quanti smartphone vengono aggiornati o il TrueAudio delle RADEON HD7790.

Per quanto se ne dica, l'hdmi 1.4 è l'equivalente del Component di 10 anni fa. i 30 fps ricordano i 1080p interlacciati usufruibili solo con ingressi analogici.
L'aggravante è che all'epoca un ingresso digitale non era ancora disponibile, ma oggi displayport è una realtà più che consolidata.

I prossimi televisori 4k avranno una novità rispetto all'attuale generazione: i 60Hz alla risoluzione nativa del pannello
come se con il passaggio dal bianco e nero ai colori si fosse perso l'audio.

Originariamente inviato da: sbaffo
I contenuti [U]video[/U] 4k hanno quel subsampling. E' come dire che si usa quel subsampling dove non c'è bisogno di nitidezza , ma allora non c'è bisogno neanche della risoluzione 4k, per gli stessi contenuti.
Probabilmente la verità sta nel mezzo come dici tu.

Certamente la perdita di qualità non è elevata quanto l'autore dell'articolo scrive. Volete una prova? basta copiare l'immagine del dektop e salvarla in formato jpeg (alla massima qualità e riaprirla.
LucaLindholm23 Giugno 2014, 19:30 #7

Sui 4K sono perplesso ...

Finché non si farà un bel display da 26-27" IPS 4K con aspetto 16:10 (a un prezzo decente) io non mi schiodo dal mio ASUS VK266H a 1920*1200.

Asus, Samsung, LG e Sharp mi dovranno pur spiegare perché produrre un FULLHD 1920*1080 da 5" per gli smartphone è così facile, mentre produrre dei 16:10 a risoluzioni maggiori del FULLHD (a costi abbastanza accessibili, visto che siamo nel 2014 avanzato) diventa addirittura un'impresa IMPOSSIBILE.

Io scommetto che faranno prima a portare il 4K sugli smartphone (perché NON si può restare con solo 300-400 ppi, bisogna arrivare al doppio come minimo) che a esaudire il mio desiderio (che non è solo il mio).

N.B.: 3840*2160 non è il 4K, bensì l'ULTRA-HD, ovvero il semplice raddoppio della lunghezza e dell'altezza del FHD.
Il 4K DCI è 4096*2160.
Il VERO <<4K>> è 4096*2560.
Si inizi a chiamare tutto con i termini giusti, visto che siamo un forum di tecnologia.
Pier220423 Giugno 2014, 20:00 #8
Mi sto chiedendo se non è prematuro oggi parlare di 4k home quando non esistono sorgenti a quella risoluzione, ne contenuti.

Attualmente per i TV non è meglio puntare sulla qualità alle risoluzioni che abbiamo piuttosto che spingere in un settore deserto come il 4k?

Ho visto il TV LG Amoled, da restare a bocca aperta, peccato che il prezzo è fuori portata, ma non è che i 4k siano da meno.
elevul23 Giugno 2014, 20:07 #9
Originariamente inviato da: LucaLindholm
Finché non si farà un bel display da 26-27" IPS 4K con aspetto 16:10 (a un prezzo decente) io non mi schiodo dal mio ASUS VK266H a 1920*1200.

Asus, Samsung, LG e Sharp mi dovranno pur spiegare perché produrre un FULLHD 1920*1080 da 5" per gli smartphone è così facile, mentre produrre dei 16:10 a risoluzioni maggiori del FULLHD (a costi abbastanza accessibili, visto che siamo nel 2014 avanzato) diventa addirittura un'impresa IMPOSSIBILE.

Io scommetto che faranno prima a portare il 4K sugli smartphone (perché NON si può restare con solo 300-400 ppi, bisogna arrivare al doppio come minimo) che a esaudire il mio desiderio (che non è solo il mio).

N.B.: 3840*2160 non è il 4K, bensì l'ULTRA-HD, ovvero il semplice raddoppio della lunghezza e dell'altezza del FHD.
Il 4K DCI è 4096*2160.
Il VERO <<4K>> è 4096*2560.
Si inizi a chiamare tutto con i termini giusti, visto che siamo un forum di tecnologia.


Ci sono due problemi:
1. il mercato smartphone è infinitamente maggiore del mercato monitor PC (specialmente a questi livelli), e i PPI alti sono sopportati senza problemi
2. gli stampi che usano per tagliare i pannelli sono settati per i 16:9 perché tutto si è mosso a 16:9. Scalarli su e giù in dimensioni costa meno che tenere stampi per 16:9, 16:10, 21:9, ecc, per un mercato che alla fine della fiera è piccolo.

Either way, non ti conviene un 28" 4096x2560 con windows, sarebbe inutilizzabile. Minimo 48".
elevul23 Giugno 2014, 20:09 #10
Originariamente inviato da: Pier2204
Mi sto chiedendo se non è prematuro oggi parlare di 4k home quando non esistono sorgenti a quella risoluzione, ne contenuti.

Attualmente per i TV non è meglio puntare sulla qualità alle risoluzioni che abbiamo piuttosto che spingere in un settore deserto come il 4k?

Ho visto il TV LG Amoled, da restare a bocca aperta, peccato che il prezzo è fuori portata, ma non è che i 4k siano da meno.


I pannelli OLED di grande dimensione sono estremamente costosi da produrre, e il margine è piccolo.
I pannelli LCD 4k costano poco più dei 1080p (come Seiki ha dimostrato) e possono venderli a prezzi altissimi markettandolo come nuova tecnologia, quindi margine molto maggiore di profitto.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^