View Full Version : NVIDIA implementa il supporto ai 4K a 60Hz anche su HDMI, con qualche compromesso
Redazione di Hardware Upg
23-06-2014, 15:49
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-implementa-il-supporto-ai-4k-a-60hz-anche-su-hdmi-con-qualche-compromesso_52897.html
Con gli ultimi driver beta rilasciati durante la scorsa settimana, NVIDIA ha introdotto il supporto alla risoluzione 4K a 60Hz anche sulle attuali HDMI, anche se solo giungendo a qualche compromesso
Click sul link per visualizzare la notizia.
a che pro aumentare la risoluzione per poi abbassare la nitidezza?
Purtroppo questa funzione non è supportata dai pannelli 4k economici, come i Seiki. :(
a che pro aumentare la risoluzione per poi abbassare la nitidezza?
Perché i contenuti 4K hanno già quel subsampling.
Tuttavia, si tratta di una soluzione non adatta alla riproduzione dei contenuti video di un sistema desktop, in cui il chroma subsampling non permetterebbe di ottenere un output definito per testo ed interfaccia grafica statica
Beh, dipende comunque, testo nero su fondo bianco o comunque con differenze notevoli di luma rimarrebbe comunque molto definito.
Una differenza notevole la si avrebbe sui bordi di colore differente, che comunque non sono poi così diffusi.
Secondo me il risultato finale non dovrebbe nemmeno essere così male (poi immagino dipende anche dall'upscale del chroma).
AceGranger
23-06-2014, 16:47
eh, ma quindi con TV dotate delle nuove HDMI 2.0 le attuali GPU, con la sola riprogrammazione delle porte via driver, saranno in grado di trasferire appieno il segnale 4K su HDMI ?
Perché i contenuti 4K hanno già quel subsampling.
...
Secondo me il risultato finale non dovrebbe nemmeno essere così male (poi immagino dipende anche dall'upscale del chroma).
I contenuti video 4k hanno quel subsampling. E' come dire che si usa quel subsampling dove non c'è bisogno di nitidezza , ma allora non c'è bisogno neanche della risoluzione 4k, per gli stessi contenuti.
Probabilmente la verità sta nel mezzo come dici tu.
tuttodigitale
23-06-2014, 17:19
eh, ma quindi con TV dotate delle nuove HDMI 2.0 le attuali GPU, con la sola riprogrammazione delle porte via driver, saranno in grado di trasferire appieno il segnale 4K su HDMI ?
probabile, ma lo stesso vale per i televisori: un aggiornamento al firmware ed ecco che le HDMI 1.4 potrebbero diventare magicamente delle 2.0.
Il "problema" è il seguente: i produttori devono giustificare l'acquisto di nuovi prodotti. Vedi quanti smartphone vengono aggiornati o il TrueAudio delle RADEON HD7790.
Per quanto se ne dica, l'hdmi 1.4 è l'equivalente del Component di 10 anni fa. i 30 fps ricordano i 1080p interlacciati usufruibili solo con ingressi analogici.
L'aggravante è che all'epoca un ingresso digitale non era ancora disponibile, ma oggi displayport è una realtà più che consolidata.
I prossimi televisori 4k avranno una novità rispetto all'attuale generazione: i 60Hz alla risoluzione nativa del pannello :mbe:
come se con il passaggio dal bianco e nero ai colori si fosse perso l'audio.
I contenuti video 4k hanno quel subsampling. E' come dire che si usa quel subsampling dove non c'è bisogno di nitidezza , ma allora non c'è bisogno neanche della risoluzione 4k, per gli stessi contenuti.
Probabilmente la verità sta nel mezzo come dici tu.
Certamente la perdita di qualità non è elevata quanto l'autore dell'articolo scrive. Volete una prova? basta copiare l'immagine del dektop e salvarla in formato jpeg (alla massima qualità) e riaprirla.
LucaLindholm
23-06-2014, 19:30
Finché non si farà un bel display da 26-27" IPS 4K con aspetto 16:10 (a un prezzo decente) io non mi schiodo dal mio ASUS VK266H a 1920*1200.
Asus, Samsung, LG e Sharp mi dovranno pur spiegare perché produrre un FULLHD 1920*1080 da 5" per gli smartphone è così facile, mentre produrre dei 16:10 a risoluzioni maggiori del FULLHD (a costi abbastanza accessibili, visto che siamo nel 2014 avanzato) diventa addirittura un'impresa IMPOSSIBILE.
Io scommetto che faranno prima a portare il 4K sugli smartphone (perché NON si può restare con solo 300-400 ppi, bisogna arrivare al doppio come minimo) che a esaudire il mio desiderio (che non è solo il mio).
N.B.: 3840*2160 non è il 4K, bensì l'ULTRA-HD, ovvero il semplice raddoppio della lunghezza e dell'altezza del FHD.
Il 4K DCI è 4096*2160.
Il VERO <<4K>> è 4096*2560.
Si inizi a chiamare tutto con i termini giusti, visto che siamo un forum di tecnologia.
Pier2204
23-06-2014, 20:00
Mi sto chiedendo se non è prematuro oggi parlare di 4k home quando non esistono sorgenti a quella risoluzione, ne contenuti.
Attualmente per i TV non è meglio puntare sulla qualità alle risoluzioni che abbiamo piuttosto che spingere in un settore deserto come il 4k?
Ho visto il TV LG Amoled, da restare a bocca aperta, peccato che il prezzo è fuori portata, ma non è che i 4k siano da meno.
Finché non si farà un bel display da 26-27" IPS 4K con aspetto 16:10 (a un prezzo decente) io non mi schiodo dal mio ASUS VK266H a 1920*1200.
Asus, Samsung, LG e Sharp mi dovranno pur spiegare perché produrre un FULLHD 1920*1080 da 5" per gli smartphone è così facile, mentre produrre dei 16:10 a risoluzioni maggiori del FULLHD (a costi abbastanza accessibili, visto che siamo nel 2014 avanzato) diventa addirittura un'impresa IMPOSSIBILE.
Io scommetto che faranno prima a portare il 4K sugli smartphone (perché NON si può restare con solo 300-400 ppi, bisogna arrivare al doppio come minimo) che a esaudire il mio desiderio (che non è solo il mio).
N.B.: 3840*2160 non è il 4K, bensì l'ULTRA-HD, ovvero il semplice raddoppio della lunghezza e dell'altezza del FHD.
Il 4K DCI è 4096*2160.
Il VERO <<4K>> è 4096*2560.
Si inizi a chiamare tutto con i termini giusti, visto che siamo un forum di tecnologia.
Ci sono due problemi:
1. il mercato smartphone è infinitamente maggiore del mercato monitor PC (specialmente a questi livelli), e i PPI alti sono sopportati senza problemi
2. gli stampi che usano per tagliare i pannelli sono settati per i 16:9 perché tutto si è mosso a 16:9. Scalarli su e giù in dimensioni costa meno che tenere stampi per 16:9, 16:10, 21:9, ecc, per un mercato che alla fine della fiera è piccolo.
Either way, non ti conviene un 28" 4096x2560 con windows, sarebbe inutilizzabile. Minimo 48". :)
Mi sto chiedendo se non è prematuro oggi parlare di 4k home quando non esistono sorgenti a quella risoluzione, ne contenuti.
Attualmente per i TV non è meglio puntare sulla qualità alle risoluzioni che abbiamo piuttosto che spingere in un settore deserto come il 4k?
Ho visto il TV LG Amoled, da restare a bocca aperta, peccato che il prezzo è fuori portata, ma non è che i 4k siano da meno.
I pannelli OLED di grande dimensione sono estremamente costosi da produrre, e il margine è piccolo.
I pannelli LCD 4k costano poco più dei 1080p (come Seiki ha dimostrato) e possono venderli a prezzi altissimi markettandolo come nuova tecnologia, quindi margine molto maggiore di profitto.
tuttodigitale
25-06-2014, 16:11
I pannelli OLED di grande dimensione sono estremamente costosi da produrre, e il margine è piccolo.
I pannelli LCD 4k costano poco più dei 1080p (come Seiki ha dimostrato) e possono venderli a prezzi altissimi markettandolo come nuova tecnologia, quindi margine molto maggiore di profitto..
Gli oled, stando alle stime di qualche anno fa, sarebbero meno costosi da produrre degli lcd con relativa lampada CCFL.
Il problema è che le FAB in grado di produrre LCD sono immensamente maggiori rispetto quelle in grado di produrre OLED. Il costo degli OLED è mantenuto alto per la scarsa offerta, dovuta come detto sopra alla volontà da parte dei produttori di non cannibalizzare le vendite degli lcd, diventati tra le altre cose economicissimi grazie alla tecnologia edge-led.
AceGranger
25-06-2014, 16:37
probabile, ma lo stesso vale per i televisori: un aggiornamento al firmware ed ecco che le HDMI 1.4 potrebbero diventare magicamente delle 2.0.
Il "problema" è il seguente: i produttori devono giustificare l'acquisto di nuovi prodotti. Vedi quanti smartphone vengono aggiornati o il TrueAudio delle RADEON HD7790.
Per quanto se ne dica, l'hdmi 1.4 è l'equivalente del Component di 10 anni fa. i 30 fps ricordano i 1080p interlacciati usufruibili solo con ingressi analogici.
L'aggravante è che all'epoca un ingresso digitale non era ancora disponibile, ma oggi displayport è una realtà più che consolidata.
I prossimi televisori 4k avranno una novità rispetto all'attuale generazione: i 60Hz alla risoluzione nativa del pannello :mbe:
come se con il passaggio dal bianco e nero ai colori si fosse perso l'audio.
Certamente la perdita di qualità non è elevata quanto l'autore dell'articolo scrive. Volete una prova? basta copiare l'immagine del dektop e salvarla in formato jpeg (alla massima qualità) e riaprirla.
per i televisori non so se basterebbe un aggiornamento firmware, perchè le schede video hanno la GPU che elabora tutto e l'uscita video è collegata al frame buffer, quindi con i driver fai tutto; le TV hanno dei chip stand-alone, che se tipo non sono in grado di regge il carico di lavoro c'è poco da aggiornare i firmware...
.
Gli oled, stando alle stime di qualche anno fa, sarebbero meno costosi da produrre degli lcd con relativa lampada CCFL.
Il problema è che le FAB in grado di produrre LCD sono immensamente maggiori rispetto quelle in grado di produrre OLED. Il costo degli OLED è mantenuto alto per la scarsa offerta, dovuta come detto sopra alla volontà da parte dei produttori di non cannibalizzare le vendite degli lcd, diventati tra le altre cose economicissimi grazie alla tecnologia edge-led.
Fonte?
Da quello che so io è esattamente l'opposto, che è appunto il motivo per cui Samsung ancora non ha rilasciato tablet con schermo sAmoled+.
Attenzione a interpretare il funzionamento;
il formato YUV e' fondamentale perche' usato nel video e nella televsione a tutti i livelli, broadcast compreso, fin dalla nascita della tv a colori, e prevede che i lsegnale di luminanza abbia risoluzione massima.
Mi spiego meglio; la trasmissione prevede una immagine bianconero , y appunto, che ha la massima risoluzione possibile ovvero puo' essere 768x576 o 1280x720 o 1920x1080 o 3840x2160 , ma rimane coinunque un'immagine bianconero.
In fase di codifica si producono altre 3 immagini che contengono le differenze dei 3 colori, ovvero, somamando una delle immagini a quella originale bianconero si aggiunge o sottrae il colore corrispondente; quindi abbiamo 3 immagini a differenza di colore di nome r-y b-y e g-y; con una formuletta matematica si scopre che basta trasmetterne due e la terza si ricalcola con una matrice dentro al tv, ed ecco che il g-y viene eliminato.
A seconda del formato che puo' essere 4:2:2 (broadcast) 4:1:1 (pal) 4:2:0 (ntsc) si decide di riscalare le immagini differenza di colore r-y e b-y eliminando 2 punti su 5 orizzontale oppure 2/5 e dimezzare quelli verticali o nel caso del 4:2:0 si eliminano 3 pnti su 4 orizzontale e 1 su 2 verticale (qui ho semplificato un pochino).
La quantita' di dati usati per r-y e b-y quindi darebbe 1/8 e 1/8 , in realta' e' 1/10 1/10 ma vi rispamio i dettagli anche perche' non so quale sia il sampling delle differenze colore in 4k, sta di fatto che prima si trasmettevano 24bit e ora se ne trasmettono 10 quindi basta meno di meta' banda.
Perche' si usa questo trucco? perche' nella retina dell'occhio umano i recettori che distinguono i colori sono di gran lunga inferiori di numero dei recettori che misurano la luminosita' globale....quindi non si e' fatto altro che copiare la natura....
lo scotto da pagare e' appunto nella bassa risoluzione delle immagine colorate;
provate a mettere delle scritte piccole rosse su sfondo blu e vedrete che macello; se le mettete rosse su sfondo bianco vedrete la scritte col colore che somiglia ad una macchia ma si nota poco.
tuttodigitale
27-06-2014, 15:40
per i televisori non so se basterebbe un aggiornamento firmware, perchè le schede video hanno la GPU che elabora tutto e l'uscita video è collegata al frame buffer, quindi con i driver fai tutto; le TV hanno dei chip stand-alone, che se tipo non sono in grado di regge il carico di lavoro c'è poco da aggiornare i firmware...
mi sono espresso male. Dicevo che con ogni probabilità già esistono televisori con HW compatibile con HDMI 2.0, non certo che tutti i televisori fossero in grado di gestire il nuovo standard. Quel che è certo che nell'uno o nell'altro caso la novità, anche qualora l'implementazione richiedesse la sola modifica del firmware, non sarà data gratis.
Esempio lampante, la dimostrazione da parte di AMD al computex, di un monitor attualmente in commercio compatibile con free-sync grazie alla sola modifica del firmware.
Fonte?
Da quello che so io è esattamente l'opposto, che è appunto il motivo per cui Samsung ancora non ha rilasciato tablet con schermo sAmoled+.
Nel 2009 quando gli oled di grandi dimensioni sembravano imminenti, i principali produttori di display hanno fatto sapere che in virtù della crisi era cosa saggia accantonare la strada oled a data da destinarsi.
Come concausa, l'introduzione della tecnologia edge led, ha permesso di rimodernare il design dei televisori e soprattutto ha eliminato la necessità delle lampade CCFL, che erano un vero proprio macigno a livello di costi (sappiamo anche che i televisori meno costosi da fabbricare sono stati venduti a prezzo maggiorato grazie alla forza del marketing).
I costi alti sono dovute alle leggi di mercato. Manca la concorrenza e chi ha la forza economica di innovare è già leader nel settore..
I produttori cercano di aggiungere novità solo poco alla volta. Il mercato TV è florido nonostante grandissimi salti di qualità non ci siano stati dall'introduzione del Pioneer Kuro
Littlesnitch
05-07-2014, 11:07
Mi sto chiedendo se non è prematuro oggi parlare di 4k home quando non esistono sorgenti a quella risoluzione, ne contenuti.
Attualmente per i TV non è meglio puntare sulla qualità alle risoluzioni che abbiamo piuttosto che spingere in un settore deserto come il 4k?
Ho visto il TV LG Amoled, da restare a bocca aperta, peccato che il prezzo è fuori portata, ma non è che i 4k siano da meno.
Beh dai un 55" UHD anche di quelli curvi lo prendi a circa 2000€, non è che siamo fuori dal mondo e soprattutto Samsung e LG hanno una differenza di circa 200€ tra FHD e UHD. Il problema è che la sola Panasonic integra la DP per poterli utilizzare anche come monitor.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.