View Full Version : Samsung annuncia il primo monitor con DisplayPort
Redazione di Hardware Upg
26-07-2007, 10:16
Link alla notizia: http://www.hwupgrade.it/news/periferiche/22104.html
L'azienda coreana annuncia il supporto a DisplayPort tramite un monitor da 30 pollici, che vedrà il mercato solo nel corso del prossimo anno
Click sul link per visualizzare la notizia.
II ARROWS
26-07-2007, 10:21
10bit di profondità? Non è un po' pochino? °_°
Inoltre, già il DVI e l'HDMI possono andare anche ben oltre al 2560x1600... a che serve introdurre un altra presa con meno qualità?
jacky2142
26-07-2007, 10:21
Strano che non ci sia il prezzo:D
PsyCloud
26-07-2007, 10:31
si sono pochi ma credo si riferisca a 10 bit per canale cromatico.
ShadowX84
26-07-2007, 10:37
10bit di profondità? Non è un po' pochino? °_°
Inoltre, già il DVI e l'HDMI possono andare anche ben oltre al 2560x1600... a che serve introdurre un altra presa con meno qualità?
Serve sapere le cose: :rolleyes:
Il DVI non può raggiungere una risoluzione di 2560X1600.
Per raggiungere tale risoluzione è necessario utilizzare due canali DVI, hai mai sentito parlare di DVI-DualLink?
L'HDMI altro non è che il DVI con in più il segnale audio, quindi lascio a te le conclusioni.
BrightSoul
26-07-2007, 10:43
10bit di profondità? Non è un po' pochino? °_°
credo che intenda 10 bit per canale :confused:
10bit di profondità? Non è un po' pochino? °_°
Vediamo un pò, colori reali con 8 bit 16777216, colori reali con 10 bit 1073741824.
Non mi sembra così poco, in teoria !
si sono pochi ma credo si riferisca a 10 bit per canale cromatico.
quoto, 10 bit significano 1024 livelli, improponibili per la rappresentazione di tutti i colori; per il singolo canale invece è un buon valore, si passa dai 16 milioni di colori a oltre un miliardo (anche se poi in realtà il segnale che arriverà sarà sempre un 3x8 bit, e quindi te ne fai niente)
10bit per R, G e B.
Sono 30bit, ovvero 1024 gradazioni per CANALE.
Per la cronaca JPG ha 24bit 3*8bit ovvero 256 gradazioni per canale. Tra l'altro a quanto ne so, solo Matrox sulle P650-750 ha DAC a 10bit per il miglior colore possibile...
Prorpio pochi non mi sembrano...
velociraptor68
26-07-2007, 10:49
La visualizzazione cromatica sui monitor utilizza il metodo additivo RGB (red green blu) ogni componente colore può contare, di solito, una profondità di 8bit che corrispondono a 256 sfumature decimali. La combinazione delle 256 sfumature per ogni canale (RGB) genera i famosi 16.777.216 di colori 256 ^3. Da questa premessa si capisce che una profondità di 10bit genera 1024 sfumature per un totale di 1 miliardo di colori. Se sbag-lio mi corriggerete. :D
(anche se poi in realtà il segnale che arriverà sarà sempre un 3x8 bit, e quindi te ne fai niente)
Ecco come dicevo poi se la VGA esce a 8bit/canale non serve a niente, ma voglio sperare che le DAC usate per DisplayPort saranno a 10bit per le schede di fascia medio/alta.
30bit sono 1'073'741'824 colori ;)
nico88desmo
26-07-2007, 11:13
Le ultime nVidia e Ati sono a 10 bit.
Crisa...
26-07-2007, 11:16
30bit sono 1'073'741'824 colori ;)
colori che un qualsiasi lcd non visualizzerà mai!! :D
II ARROWS
26-07-2007, 11:16
Ho capito, basta! XD
Credevo fossero tutti i canali...
Per ShadowX84:
Il Dual Link si raggiunge con un singolo connettore DVI... solo che ha più PIN... Ed è sempre DVI. Come si dice...
Serve sapere le cose. ;)
ma una foto dell'ingresso DisplayPort non c'è in giro eh?
con il DVI-DualLink mi sembra si possa arrivare fino a 2560x2048 se non erro
trovata la foto :p
http://static.blogo.it/gadgetblog/displayport/displayport.jpg
que va je faire
26-07-2007, 11:44
azz co stò connettore si riskia di connettere il monitor alla e-sata :D
Per chi ha parlato della VGA: la VGA è analogica e quindi non ha senso parlare di bit, quelli al max importano al DAC (Digital-to-Analog Converter) della scheda video.
Piuttosto mi domando se esisteranno adattatori per la DVI...
Ma sono tanto belli i connettori con le viti, che sono gli unici che le imprese di pulizie e/o mamme (senza mancare di rispetto a nessuno) non staccano durante le pulizie...
Speriamo abbiamo una buona trazione che se poi sono molli come alcuni Usb andiamo a ridere con i falsi contatti... sigh...
capitan_crasy
26-07-2007, 12:11
Oltre ad Intel anche AMD con il chipset RS780 e Nvidia con Nforce MCP78 hanno in programma di supportare il DisplayPort...
mestesso
26-07-2007, 12:18
Ma mi chiedo io, perché tutti sti colori quando l'occhio umano è in grado di distinguere "solo" (mi sembra) poco più di 10 milioni di colori?
Bluknigth
26-07-2007, 13:01
In effetti vista la foto vedo USB e e-SATA molto a rischio...
Ma non potevano inventersi qualcosa di retrocompatibile col connettore DVI?
Riguardo i colori, se non ricordo male l'occhio umano può distinguere fino a 16 milioni di colori che sono i classci 24bit.
Di certo non sono umano perchè faccio fativa a vedere la differenza tra 256.000 e 16 milioni.
Comunque non devo essere il solo perchè se non ricordo male molti LCD di nuova generazione possono visualizzarne solo 256K.
retrocompatibile vuol dire vendere di meno.
comunque sapevo anche io che l'occhio umano vede "solo" 24 bit di colore e che gia i 32 erano uno spreco....
mha
comunque sapevo anche io che l'occhio umano vede "solo" 24 bit di colore e che gia i 32 erano uno spreco....
Credo sia un po' come il discorso del frame rate.
E' vero ke l'occhio vede "solo" 24 bit di colore, ma è anche vero che riguarda il mondo reale. Quello proiettato è comunque virtuale, quindi paragonare le definizioni è impossibile. Anche alla più alta definizione raggiungibile l'immagine sullo schermo non avrà MAI la stessa...come dire..."realtà", purezza, definizione, nitidezza ecc. della visuale dell'occhio umano. Rimane comunque un'immagine piana dispetto di una 3D
coschizza
26-07-2007, 15:31
Riguardo i colori, se non ricordo male l'occhio umano può distinguere fino a 16 milioni di colori che sono i classci 24bit.
non è esatto l'occhio umano puo vedere molti colori in meno di quelli ceh si possono ottenere con i classici 24bit ma alla fine quello che è in grado di rilevare in molto molto maggiore sono le tonalità cromatiche dei colori, quindi usare palette a 24 o 32 bit alla fine server comunque a prescindere dal fatto che non tutti i colori possono essere percepiti contemporaneamente dall'occhio.
dovendo per forza paragonare l'occhio a un sensore CCD di un obiettivo digitale invece si puo dire che la "risoluzione" media dell'occhi che è la somma dei coni e bastoncelli è intorno ai 120 milioni quindi comunque troppo per pensare di imitarlo con le tecnologie attuali.
avvelenato
26-07-2007, 16:00
Ma mi chiedo io, perché tutti sti colori quando l'occhio umano è in grado di distinguere "solo" (mi sembra) poco più di 10 milioni di colori?
me lo domando anche io, considerando oltretutto che:
gli lcd fanno fatica a coprire lo spazio colore coperto da un occhio umano, i migliori eizo (migliaia di euro) coprono lo spazio adobe a fatica.
quindi queste miliardi di gradazioni sono concentrate su uno spazio colori sottoinsieme di quello dell'occhio umano, quindi gradazioni che l'occhio non può cogliere.
inoltre la risposta dell'occhio alla luce è logaritmica e non lineare, di conseguenza la cosa più logica da fare sarebbe dedicare più bit ai toni medi e scuri.
poi non so, magari come per la notizia dei millemila khz della pleistescion arriverà qualcuno più tecnico a delucidarmi sull'utilità dei 10bit/canale; anzi lo spero.
Beh non scordiamoci i futuri OLED...
eta_beta
26-07-2007, 19:50
hdmi 1.3a ha una profondita di 10 bit per canale
e i nuovi film in bluray o HDdvd sono codificati a 10 bit per canale
certo che se mettiamo un pannello tn
alla fine sempre 6 bit di colore verranno rappresentati
MenageZero
26-07-2007, 19:57
(anche se poi in realtà il segnale che arriverà sarà sempre un 3x8 bit, e quindi te ne fai niente)
Ecco come dicevo poi se la VGA esce a 8bit/canale non serve a niente, ma voglio sperare che le DAC usate per DisplayPort saranno a 10bit per le schede di fascia medio/alta.
30bit sono 1'073'741'824 colori ;)
che te ne fai di un(maschile) DAC in questo discorso ? dvi, hdmi(=dvi+audio) e DisplayPort sono intefacce digitali ;)
non so se le attuali gpu possano già generare un output con colore codificato con più di 3x8 bit, ma, se il displayport si diffonde e se hanno già iniziato a parlare di "supporto nativo" per il dp nelle prossime gpu integrate, sicuramente in tempi brevi le nuove potranno
mmorselli
26-07-2007, 20:50
Ma mi chiedo io, perché tutti sti colori quando l'occhio umano è in grado di distinguere "solo" (mi sembra) poco più di 10 milioni di colori?
L'uomo vede 4 milioni di colori mediamente... ma la donna no, loro vedono colori come Fucsia, Bellatrix, Mela, Pesca (per noi sono solo frutti), Lilla e infinite sfumature di Rosa .... E' un monitor che cerca di fare breccia nel promettente mercato femminile :D
coschizza
26-07-2007, 21:01
che te ne fai di un(maschile) DAC in questo discorso ? dvi, hdmi(=dvi+audio) e DisplayPort sono intefacce digitali ;)
non so se le attuali gpu possano già generare un output con colore codificato con più di 3x8 bit, ma, se il displayport si diffonde e se hanno già iniziato a parlare di "supporto nativo" per il dp nelle prossime gpu integrate, sicuramente in tempi brevi le nuove potranno
gia da anni le gpu usano dac a 10 bit per colore e quelle con uscita dvi sono tutte compatibili a leggere le specifiche
coschizza
26-07-2007, 21:08
poi non so, magari come per la notizia dei millemila khz della pleistescion arriverà qualcuno più tecnico a delucidarmi sull'utilità dei 10bit/canale; anzi lo spero.
immagina di avere uno sfondo sullo schermo si 1 solo colore magari il rosso, poi mostra tutta la griglia di colori possibili partendo dal nero che puoi ottenere con questo e ne ricavi solo 256 (8bit) capirai che il fatto di avere un formato cosi ristretto ti limita di molto e il fatto che le sfumature di colore non siano lineari lo noti subito, con 10bit almeno arrivi a 1024 colori.
devi pensare che pero questo è il pasaggio finale da gpu a monitor ma per lo stesso motivo i calcoli dentro il frame buffer delle ultime gpu in circolazione avvienne fino a 32bit per colore in questo modo hai talmente tante gradazioni che l'errore che normalmente si propaga durante le tante elaborazioni interne sui pixel viene di molto ridotto.
questo è il motivo per il quale tutti gli effetti come l'HDR vengono elaborati dentro la gpu o a 64bit o a 128bit, questo perche altrimenti noteresti subito dei fastidiosi scalini nell'immagine finale causata dalla poca precisione del formato utilizzato, gestire un tale formato con il comune 24bit rende di fatto l'effetto tuttaltro che spettacolare cosi come siamo abituati a vederlo oggi.
per darti un altro aiuto posso dire che se hai capito del perche gli scanner comuni hanno un numero di bit per colore spoporzionato rispetto a quello che sarà l'immagine risultante allora capirai anche questa faccenda delle gpu.
BUM!
Lancio Display Port sul mercato: 30 morti dopo il conto!!
:D
Naufr4g0
27-07-2007, 09:42
Ci voleva proprio un'altra porta, quando ancora ci sono in circolazioni moltissimi monitor che non hanno nemmeno la porta DVI. :/
davethefunker
27-07-2007, 11:26
Eheh..non hanno il Dvi e ancora meno hanno l'hdmi che a mio parere viene volutamente limitato al mondo delle tv in quanto abbianate ancora pesantemente alle console e in futuro ovviamente a blueray o hd-dvd..cmq sia si sa il mercato sforna nuove tecnologie per poter far continuare a girare l'economia non è nulla di nuovo è da secoli che succede così solo che nel mondo della tecnologia i tempi si stanno sempre piu' restringendo creando così un effetto notevolmente piu' visibile e "sconvolgente"..
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.