View Full Version : l'occhio umano quanti megapixel ha?
nibbiubum
16-10-2008, 18:45
?
marklevi
16-10-2008, 18:49
boh
tu che ne dici?
p.s. prova a fare un cerca ;)
divino-marchese
17-10-2008, 08:40
E il cervello che processore usa?
Ah ah ah
Ma soprattutto quanta ram ha?
Però la domanda non è poi così male! Sicuramente è un dato quantificabile.
e la cornea quante righe riesce a risolvere? e qual'è l'apertura massima della pupilla? :D
in effetti le domande potrebbero ottenere risposte interessanti, anche se credo che un confronto potrebbe essere improponibile
raffaele75
17-10-2008, 12:42
pensavo fosse una s*****ata ed invece una risposta c'è...
324 megapixel
naturalmente è una stima
http://www.clarkvision.com/imagedetail/eye-resolution.html
domthewizard
17-10-2008, 12:44
pensavo fosse una s*****ata ed invece una risposta c'è...
324 megapixel
naturalmente è una stima
http://www.clarkvision.com/imagedetail/eye-resolution.html
ora che hai dato una risposta, sai che ci tocca un altro obbrobbrio stile N95 da parte di nokia, dove la fotocamera abrà più mpx dell'occhio umano?http://www.lightside.it/images/smiles/omg.gif
pensavo fosse una s*****ata ed invece una risposta c'è...
324 megapixel
naturalmente è una stima
http://www.clarkvision.com/imagedetail/eye-resolution.html
curioso e interessante questo link :)
interessanti anche un paio di dati: la sensibilità dell'occhio in condizioni di luce normali pari a ISO 1, e la lunghezza focale di 16,7mm sulla retina e di 22,3 per i raggi che fuoriescono dall'occhio
divino-marchese
17-10-2008, 12:56
pensavo fosse una s*****ata ed invece una risposta c'è...
324 megapixel
naturalmente è una stima
http://www.clarkvision.com/imagedetail/eye-resolution.html
Il problema è che la visione umana è affare ben più complesso della definizione, che ne so, che è in grado di dare la retina (sparo!) ... non è certo questo dato che mi farà scegliere la prossima fotocamera? :D
PS Resta in sospeso la mai domanda sul processore che elabora i dati del sensore ... ih ih ih
raffaele75
17-10-2008, 15:38
Overall, the retina seems to process about ten one-million-point images per second
http://library.thinkquest.org/C001501/the_saga/compare.htm
sul tipo di compressione jpg però non ho trovato niente :D
Satviolence
18-10-2008, 16:21
curioso e interessante questo link :)
interessanti anche un paio di dati: la sensibilità dell'occhio in condizioni di luce normali pari a ISO 1, e la lunghezza focale di 16,7mm sulla retina e di 22,3 per i raggi che fuoriescono dall'occhio
Dice anche che la sensibilità è variabile da 1 a 800 pixel; inoltre la gamma dinamica per quanto riguarda la luminosità è molto superiore a quella di qualsiasi supporto fotografico.
^TiGeRShArK^
19-10-2008, 02:12
e la cornea quante righe riesce a risolvere? e qual'è l'apertura massima della pupilla? :D
in effetti le domande potrebbero ottenere risposte interessanti, anche se credo che un confronto potrebbe essere improponibile
la pupilla di notte può arrivare ad un massimo di 7mm di apertura :O
Per la risoluzione, un occhio con 10/10, riesce a risolvere dettagli estremamente fini, pari a circa 30".
Ovviamente il tutto però dipende da vari fattori.
In primis il potere risolutivo è maggiore di giorno.
Poi varia a secondo della posizione del punto che si sta osservando rispetto al campo visivo, infatti la fovea ha un potere risolutivo maggiore.
Inoltre anche il contrasto dell'oggetto da risolvere rispetto allo sfondo è molto importante, maggiore è il contrasto, maggiore sarà il potere risolutivo dell'occhio.
Infine, se non ricordo male, il potere risolutivo lineare (ad esempio quando si guardano delle linee elettriche poste a grande distanza) dovrebbe essere maggiore del potere risolutivo "puntiforme".
^TiGeRShArK^
19-10-2008, 02:22
Dice anche che la sensibilità è variabile da 1 a 800 pixel; inoltre la gamma dinamica per quanto riguarda la luminosità è molto superiore a quella di qualsiasi supporto fotografico.
e certo, per fortuna abbiamo una sensibilità logaritmica...
quindi riusciamo a scorgere sia luminosità etremamente deboli (teoricamente una stella di 6° magnitudiine) che la luce solare.
Il sole è di magnitudine -26,7, quindi è circa 200.000.000.000 di volte + luminoso della stella + debole che riusciamo a scorgere :p
Satviolence
20-10-2008, 21:29
e certo, per fortuna abbiamo una sensibilità logaritmica...
quindi riusciamo a scorgere sia luminosità etremamente deboli (teoricamente una stella di 6° magnitudiine) che la luce solare.
Il sole è di magnitudine -26,7, quindi è circa 200.000.000.000 di volte + luminoso della stella + debole che riusciamo a scorgere :p
Figata!
Comunque penso che l'occhio in se come strumento ottico in certe caratteristiche non sia il massimo... Ma da quello che ho letto in giro il cervello ha un ruolo fondamentale nel trattamento delle immagini.
Black_Air
21-10-2008, 17:49
avrei una domanda da porre (anche se credo piuttosto banale).
Ho visto che tenendo un occhio libero di guardare naturalmente e l'altro attraverso l'obiettivo della reflex (tenendo la macchina di traverso si riesce comodamente), la lunghezza della focale attraverso cui vedo in entrambi gli occhi un'immagine (non uguale perchè in quello con la reflex ne vedo solo un "ritaglio") con le stesse proporzioni è 55mm che, moltiplicato per 1,5 dell'apsc, fa circa 83mm, cioè 30° davanti a noi.
Qualcuno sa qual'è il significato di questo numero?
Grazie
Black_Air
21-10-2008, 17:59
mi rispondo da solo con questo link che ho trovato....
http://www.nadir.it/pandora/occhio-e-fotocamere/dassio.htm
... che però mi smentisce alla grande, mmm, boh, cercherò di capire!
Ho trovato anche un articolo interessante in cui si parla di definizione potere risolutivo dell'occhio.
QUI (http://www.galassiere.it/occhio1.htm)
ps. adesso ho capito perchè il 28mm f/1.4 si è rivalutato così tanto con l'arrivo delle apsc
nibbiubum
22-10-2008, 21:41
secondo me l'occhio umano è inferiore a molte macchine fotografiche o videocamere.. immaginate di fare una fotografia di un occhio.. e paragonarla
con una foto di una super fotocamera.. e poi mettetela al computer..
second me si vede meglio la seconda..
e poi l'occhio non ha lo zoom..:P uahuahuhah
ficofico
22-10-2008, 23:12
la pupilla di notte può arrivare ad un massimo di 7mm di apertura
Per la risoluzione, un occhio con 10/10, riesce a risolvere dettagli estremamente fini, pari a circa 30".
Ovviamente il tutto però dipende da vari fattori.
In primis il potere risolutivo è maggiore di giorno.
Poi varia a secondo della posizione del punto che si sta osservando rispetto al campo visivo, infatti la fovea ha un potere risolutivo maggiore.
Inoltre anche il contrasto dell'oggetto da risolvere rispetto allo sfondo è molto importante, maggiore è il contrasto, maggiore sarà il potere risolutivo dell'occhio.
Infine, se non ricordo male, il potere risolutivo lineare (ad esempio quando si guardano delle linee elettriche poste a grande distanza) dovrebbe essere maggiore del potere risolutivo "puntiforme".
e certo, per fortuna abbiamo una sensibilità logaritmica...
quindi riusciamo a scorgere sia luminosità etremamente deboli (teoricamente una stella di 6° magnitudiine) che la luce solare.
Il sole è di magnitudine -26,7, quindi è circa 200.000.000.000 di volte + luminoso della stella + debole che riusciamo a scorgere
secondo me l'occhio umano è inferiore a molte macchine fotografiche o videocamere.. immaginate di fare una fotografia di un occhio.. e paragonarla
con una foto di una super fotocamera.. e poi mettetela al computer..
second me si vede meglio la seconda..
e poi l'occhio non ha lo zoom..:P uahuahuhahNon so, mi è sembrata più tecnica questa tua ultima spiegazione.... mi hai convinto alla grande.... tutti quei paroloni.... e che vorranno mai dire......
nibbiubum
23-10-2008, 19:30
Non so, mi è sembrata più tecnica questa tua ultima spiegazione.... mi hai convinto alla grande.... tutti quei paroloni.... e che vorranno mai dire......
thanks very muchK!K!!!!!!!!!!
ficofico
23-10-2008, 19:59
:eek:
^TiGeRShArK^
24-10-2008, 01:53
:eek:
:asd:
non coglie l'ironia il ragazzo :asd:
kontimatteo
24-10-2008, 11:04
Almeno sappiamo che quando le case costruttrici arriveranno a 324 megapixel sulle compattine si fermeranno :D
Stormblast
24-10-2008, 13:52
i miei c'hanno pure l'IS. :O
Io ho un problema di back focus.. devo andare in assistenza!
immaginate allora un tv mega-iper-fullHD 324000p non si riuscirebbe a notare la differenzza tra un film e la realtà:eek:
immaginate allora un tv mega-iper-fullHD 324000p non si riuscirebbe a notare la differenzza tra un film e la realtà:eek:
ma che centra?
la realtà è 3d la riproduzione odierna è 2d, e si cerca di restituire tridimensionalità all'immagine in vari modi ma cmq 2d rimane, la risoluzione è relativamente importante, dipende dalla distanza...
nibbiubum
26-10-2008, 20:42
Almeno sappiamo che quando le case costruttrici arriveranno a 324 megapixel sulle compattine si fermeranno :D
ma perchè dov'è scritto che non si può andare olte questi cosiddetti 324megapixel dell'occhio umano? che a me sinceramente neanche sembra vero che l'occhio abbia 324milioni di pixel.. io non li vedo... a e sembra di averne una 20di milioni... poi non sò voi... :)
nibbiubum
26-10-2008, 20:45
ma che centra?
la realtà è 3d la riproduzione odierna è 2d, e si cerca di restituire tridimensionalità all'immagine in vari modi ma cmq 2d rimane, la risoluzione è relativamente importante, dipende dalla distanza...
ma cosa stai dicendo dai?? ma perchè molti di voi vanno contro la tecnologia... anche a me piacciono le cose naturali e concrete..
ma è come se guardi fuori da una finestra.. on vedi il 3d vedi
una figura dentro un rettangolo.. poi certo se ti giri dentro la tua stanza e tocchi le cose è 3d... ma nel caso di un film o una fotografia.. è come se guardi entro la finestra.. cmq vedi una specie di 3d fittizzio.. ma cmq 3d solo che irreale perchè registrato.. ma in realtà tutto reale perchè è tutto accaduto... (a meno chè non sia un film fatto al computer) :)
cavolo quanto sono profondo:cool: :) ;)
Satviolence
26-10-2008, 21:45
Ma sei un troll o che altro?
ma perchè dov'è scritto che non si può andare olte questi cosiddetti 324megapixel dell'occhio umano? che a me sinceramente neanche sembra vero che l'occhio abbia 324milioni di pixel.. io non li vedo... a e sembra di averne una 20di milioni... poi non sò voi... :)
ma cosa stai dicendo dai?? ma perchè molti di voi vanno contro la tecnologia... anche a me piacciono le cose naturali e concrete..
ma è come se guardi fuori da una finestra.. on vedi il 3d vedi
una figura dentro un rettangolo.. poi certo se ti giri dentro la tua stanza e tocchi le cose è 3d... ma nel caso di un film o una fotografia.. è come se guardi entro la finestra.. cmq vedi una specie di 3d fittizzio.. ma cmq 3d solo che irreale perchè registrato.. ma in realtà tutto reale perchè è tutto accaduto... (a meno chè non sia un film fatto al computer) :)
cavolo quanto sono profondo:cool: :) ;)
Ti quoto, e ti consiglio di contare oltre ai pixel anche i neuroni.:O
nibbiubum
27-10-2008, 00:00
mmh no.. vedo che proprio non siete creativi..
per scoprire nuovi orizzonti ci vuole creatività..
e spesso la creatività è molto reale.. attenti:D
dunque vi sto dicendo che non ho scritto tutte caxxxate!!:Prrr:
mmh no.. vedo che proprio non siete creativi..
per scoprire nuovi orizzonti ci vuole creatività..
e spesso la creatività è molto reale.. attenti:D
dunque vi sto dicendo che non ho scritto tutte caxxxate!!:Prrr:
Si vede che ne hai scoperti di nuovi orizzonti :asd: ma mo si chiama creatività?:stordita:
^TiGeRShArK^
27-10-2008, 00:52
mmh no.. vedo che proprio non siete creativi..
per scoprire nuovi orizzonti ci vuole creatività..
e spesso la creatività è molto reale.. attenti:D
dunque vi sto dicendo che non ho scritto tutte caxxxate!!:Prrr:
ah ok...
quindi sarei io quello che scrive cazzate :)
mi raccomando, quando farai pubblicare i tuoi studi su Nature o su qualche rivista scientifica di pari valore facci sapere :)
nibbiubum
27-10-2008, 13:03
ah ok...
quindi sarei io quello che scrive cazzate :)
mi raccomando, quando farai pubblicare i tuoi studi su Nature o su qualche rivista scientifica di pari valore facci sapere :)
si ma come al solito tante chiacchiere e niente arrosto..
sapete soltanto giudicare!:muro: :D
ditemi cosa ho scritto di sbagliato.. e poi ne riparleremo... auhauha!!
GUSTAV]<
27-10-2008, 20:54
http://en.wikipedia.org/wiki/Retina
http://hyperphysics.phy-astr.gsu.edu/hbase/vision/rodcone.html
GUSTAV]<
27-10-2008, 21:15
Premesso che un pixel e' formato da 3 subpixel Rosso-Verde-Blu.. :O
La retina e' formata da circa 100 millioni di bastoncini e 5 milioni di coni
http://en.wikipedia.org/wiki/Cone_cell (coni = Visione a colori)
http://en.wikipedia.org/wiki/Rod_cell (bastoncini = Visione b/n)
quindi 5.000.000/3 = 1.6 Mpixel x la visione a colori
e 100.000.000/3 = 33.3 Mpixel x la visione bianco/nero
x ogni occhio.. :O
Okkio xo' che l'occhio funziona diversamente. xche'
bisogna distinguere fra' visione centrale e visione periferica...
la visione centrale e' quella dove si focalizza l'immagine e quindi e' formata maggiormente
da coni (senisibili ai colori) e bastoncini (sensibili alla luminosita')
la visione periferica invece e' formata soprattutto dai bastoncini quindi non e' molto sensibile ai colori.. :rolleyes:
bye
GUSTAV]<
27-10-2008, 21:24
Almeno sappiamo che quando le case costruttrici arriveranno a 324 megapixel sulle compattine si fermeranno :D
molti di meno... :D
diciamo complessivamente 40 Mpixel x occhio, ripartiti in :
circa 2 Mpixel x la visione centrale a colori
e circa 36 Mpixel x la visione laterale in b/n
Le stime ovviamente non sono precise, xche' alcuni "razze" genetiche
potrebbero averne di piu' altre di meno... :rolleyes:
GUSTAV]<
27-10-2008, 21:33
Dimenticavo..
nell' occhio umano c'e' anche bella porzione di "bad pixel" che si chiama punto ceco,
dove praticamente la vista e' del tutto assente.. :rolleyes:
nibbiubum
27-10-2008, 21:48
<;24753959']molti di meno... :D
diciamo complessivamente 40 Mpixel x occhio, ripartiti in :
circa 2 Mpixel x la visione centrale a colori
e circa 36 Mpixel x la visione laterale in b/n
Le stime ovviamente non sono precise, xche' alcuni "razze" genetiche
potrebbero averne di piu' altre di meno... :rolleyes:
ma allora avevo ragione io... diciamo che alcune macchine già superano l'occhio umano secondo le varie stime che ci sono in giro..
certo niente si da mai per certo quello è scontato!
Satviolence
27-10-2008, 23:01
<;24753782']Premesso che un pixel e' formato da 3 subpixel Rosso-Verde-Blu.. :O
La retina e' formata da circa 100 millioni di bastoncini e 5 milioni di coni
http://en.wikipedia.org/wiki/Cone_cell (coni = Visione a colori)
http://en.wikipedia.org/wiki/Rod_cell (bastoncini = Visione b/n)
quindi 5.000.000/3 = 1.6 Mpixel x la visione a colori
e 100.000.000/3 = 33.3 Mpixel x la visione bianco/nero
x ogni occhio.. :O
Sei completamente ubriaco... :D
C'è un errore di fondo. Prima di tutto perché mai l'occhio dovrebbe funzionare in RGB? Lo sanno tutti che l'occhio funziona in HSV (hue, saturation, value, cioè tonalità, saturazione e luminosità).
Qui siamo alle basi della teoria del colore. Un colore può essere descritto come miscela di tre colori primari (modello descrittivo) OPPURE tramite tre componenti di tonalità, saturazione e luminosità (modello percettivo).
Gli occhi umani lavorano proprio in quest'ultima modalità: i cono rilevano tonalità e saturazione, i bastoncelli la luminosità. Niente RGB, l'occhio e il cervello non funzionano in questo modo.
Dal momento che la macchina fotografica e l'occhio funzionano in modo fondamentalmente diverso, non è possibile confrontarli sulla base degli elementi sensibili.
Altre note riguardo al modello HSV: ci sono molte applicazioni tecnologiche che sfruttano questo modello. Le varie compressioni in mpeg sfruttano questo modo di descrivere i colori, quindi DVD, divx, tv via satellite, digitale terrestre e anche il jpeg con cui vengono salvate le foto funzionano in questo modo. La connessione S-video trasporta un segnale di luminanza e uno di crominanza, che possono essere associati rispettivamente a tonalita e saturazione il primo, a luminosità il secondo. Il sistema VHS, quello delle videocassette, si chiama in questo modo perché appunto descrive Value, Hue, Saturation.
Satviolence
27-10-2008, 23:09
ma allora avevo ragione io... diciamo che alcune macchine già superano l'occhio umano secondo le varie stime che ci sono in giro..
certo niente si da mai per certo quello è scontato!
Eh?!? :cry:
^TiGeRShArK^
27-10-2008, 23:14
Sei completamente ubriaco... :D
C'è un errore di fondo. Prima di tutto perché mai l'occhio dovrebbe funzionare in RGB? Lo sanno tutti che l'occhio funziona in HSV (hue, saturation, value, cioè tonalità, saturazione e luminosità).
Qui siamo alle basi della teoria del colore. Un colore può essere descritto come miscela di tre colori primari (modello descrittivo) OPPURE tramite tre componenti di tonalità, saturazione e luminosità (modello percettivo).
Gli occhi umani lavorano proprio in quest'ultima modalità: i cono rilevano tonalità e saturazione, i bastoncelli la luminosità. Niente RGB, l'occhio e il cervello non funzionano in questo modo.
Dal momento che la macchina fotografica e l'occhio funzionano in modo fondamentalmente diverso, non è possibile confrontarli sulla base degli elementi sensibili.
Altre note riguardo al modello HSV: ci sono molte applicazioni tecnologiche che sfruttano questo modello. Le varie compressioni in mpeg sfruttano questo modo di descrivere i colori, quindi DVD, divx, tv via satellite, digitale terrestre e anche il jpeg con cui vengono salvate le foto funzionano in questo modo. La connessione S-video trasporta un segnale di luminanza e uno di crominanza, che possono essere associati rispettivamente a tonalita e saturazione il primo, a luminosità il secondo. Il sistema VHS, quello delle videocassette, si chiama in questo modo perché appunto descrive Value, Hue, Saturation.
mi hai anticipato :p
E comunque la gamma dinamica del nostro occhio è semplicemente inarrivabile con la tecnologia attuale :cool:
nibbiubum
27-10-2008, 23:28
mi hai anticipato :p
E comunque la gamma dinamica del nostro occhio è semplicemente inarrivabile con la tecnologia attuale :cool:
ma certo che non è paragonabile..
però credo che i risultati siano gli stessi..
cioè quando guardiamo in un film due persone che parlano
o quando le guardiamo dal vivo.. diciamo che vediamo cmq
due cose simili (immaggini!!) quindi dai non fate tanto gli scenziati..
un paragone si può fare è come... anzi se ancora non ve ne siete
accorti ne avete fatto più di 1...
certo che sono due meccanismi diversi..
e cmq nulla è impossibile.. e irragiungibile
GUSTAV]<
27-10-2008, 23:30
Sei completamente ubriaco... :D
questi "complimenti" li tieni x te' :fuck:
C'è un errore di fondo. Prima di tutto perché mai l'occhio dovrebbe funzionare in RGB? Lo sanno tutti che l'occhio funziona in HSV (hue, saturation, value, cioè tonalità, saturazione e luminosità).
hai letto i link ? no eh ? :asd:
Qui siamo alle basi della teoria del colore. Un colore può essere descritto come miscela di tre colori primari (modello descrittivo) OPPURE tramite tre componenti di tonalità, saturazione e luminosità (modello percettivo).
Gli occhi umani lavorano proprio in quest'ultima modalità: i cono rilevano tonalità e saturazione, i bastoncelli la luminosità. Niente RGB, l'occhio e il cervello non funzionano in questo modo.
Dal momento che la macchina fotografica e l'occhio funzionano in modo fondamentalmente diverso, non è possibile confrontarli sulla base degli elementi sensibili.
inutile dire bim bum bam, il colore e dato da intensita' e frequenza,
composto dalla sommatoria delle righe spettrali, il resto e' fuffa... :D
Altre note riguardo al modello HSV: ci sono molte applicazioni tecnologiche che sfruttano questo modello. Le varie compressioni in mpeg sfruttano questo modo di descrivere i colori, quindi DVD, divx, tv via satellite, digitale terrestre e anche il jpeg con cui vengono salvate le foto funzionano in questo modo. La connessione S-video trasporta un segnale di luminanza e uno di crominanza, che possono essere associati rispettivamente a tonalita e saturazione il primo, a luminosità il secondo. Il sistema VHS, quello delle videocassette, si chiama in questo modo perché appunto descrive Value, Hue, Saturation.
e non hai capito neppure questo, luminanza e crominanza furono creati per
dare retrocompatibilita alla tv b/n.... :rolleyes:
le copressioni Jpeg sfruttano la scarsa attenzione al dettaglio del nostro occhio,
per compreimere, con perdita di informazione, a livelli altissimi...
http://it.wikipedia.org/wiki/VHS VHS=Video Home System
GUSTAV]<
27-10-2008, 23:35
mi hai anticipato :p
E comunque la gamma dinamica del nostro occhio è semplicemente inarrivabile con la tecnologia attuale :cool:
non diciamo sciocchezze,
e' proprio per superare le limitazioni del nostro okkio che sono stati realizzati
gli intensificatori di brillanza, altrimenti nel buio noi siamo cechi come le talpe.. :D
e lo stesso potrei dire del campo infrarosso o uv.. :D
^TiGeRShArK^
27-10-2008, 23:42
<;24755804']questi "complimenti" li tieni x te' :fuck:
hai letto i link ? no eh ? :asd:
inutile dire bim bum bam, il colore e dato da intensita' e frequenza,
composto dalla sommatoria delle righe spettrali, il resto e' fuffa... :D
e non hai capito neppure questo, luminanza e crominanza furono creati per
dare retrocompatibilita alla tv b/n.... :rolleyes:
le copressioni Jpeg sfruttano la scarsa attenzione al dettaglio del nostro occhio,
per compreimere, con perdita di informazione, a livelli altissimi...
http://it.wikipedia.org/wiki/VHS VHS=Video Home System
nei divx c'è una sotto-campionatura dei canali rosso e blu, dimezzando la risoluzione effettiva, ma l'immagine risultante è assolutamente indistinguibile (a meno di non avere un immagine totalmente rossa o totalmente blu) perchè il picco di sensibilità del nostro occhio è in corrispondenza del canale verde.
Il nostro occhio è inoltre particolarmente sensibile alle variazioni di colore, infatti oggetti ben + contrastati sono molto + visibili rispetto ad oggetti dai colori simili.
Su questo principio sono state inventate le mimetiche per i militari :p
Quindi alla fine non è vero che il nostro occhio vede a 33 mpixel in bianco e nero e a 3 mpixel a colori, ma l'immagine composita ha una risoluzione di circa 100mpixel dato che i bastoncelli servono solo per la luminanza e non sono sensibili ai colori, ai quali si devono aggiungere i 6 mpixel per la crominanza.
La divisione per 3 è sbagliata dato che anche le nostre macchine fotografiche funzionano esattamente allo stesso modo e quindi dovremmo dividere per tre anche il loro valore di mpixel :p
GUSTAV]<
27-10-2008, 23:48
(VHS in origine significava Vertical Helical Scan)
Cmq, il modo migliore per "trasportare" le immagini a colori non e' luminanza + crominanza,
ma lo R+G+B.. :rolleyes:
http://www.ncsu.edu/scivis/lessons/colormodels/color_models2.html
http://www.ncsu.edu/scivis/lessons/colormodels/electromagline-alt2.gif
Queste le lunghezze d'onda...
http://www.ncsu.edu/scivis/lessons/colormodels/spectrum.jpg
GUSTAV]<
28-10-2008, 00:03
nei divx c'è una sotto-campionatura dei canali rosso e blu, dimezzando la risoluzione effettiva, ma l'immagine risultante è assolutamente indistinguibile (a meno di non avere un immagine totalmente rossa o totalmente blu) perchè il picco di sensibilità del nostro occhio è in corrispondenza del canale verde.
Il nostro occhio è inoltre particolarmente sensibile alle variazioni di colore, infatti oggetti ben + contrastati sono molto + visibili rispetto ad oggetti dai colori simili.
Su questo principio sono state inventate le mimetiche per i militari :p
Quindi alla fine non è vero che il nostro occhio vede a 33 mpixel in bianco e nero e a 3 mpixel a colori, ma l'immagine composita ha una risoluzione di circa 100mpixel dato che i bastoncelli servono solo per la luminanza e non sono sensibili ai colori, ai quali si devono aggiungere i 6 mpixel per la crominanza.
La divisione per 3 è sbagliata dato che anche le nostre macchine fotografiche funzionano esattamente allo stesso modo e quindi dovremmo dividere per tre anche il loro valore di mpixel :p
La divisione x 3 e' esattissima, in quanto i subpixel sono singoli rivelatori,
ai quali e' stato applicato un filtro R/G/B :D
Poi il nostro occhio e' diverso, xche coni e bastoncini sono disposti secondo il criterio
di mantenere piu' risoluzione al centro del fuoco...
sebbene il nostro occhio ha anche dei difetti, che un sensore CCD non ha,
come il punto ceco, in piena area utile... stigrancaxxi ! :D
il DIVX fa' parte di uno standard di compressione, che sfrutta le "falle" della
nostra visione, per ridurre drasticamente (con perdita di informazione)
le dimensioni del file o del flusso dati... ma questo non c'entra... nulla :D
Satviolence
28-10-2008, 00:23
<;24755804']
hai letto i link ? no eh ? :asd:
Tu piuttosto li hai capiti?
Ci sono coni più o meno sensibili a diverse frequenze, ma la distinzione fondamentale rimane quella tra coni e bastoncelli, cioè tra cellule che distinguono i colori e cellule che distinguono la luminosità: questo è molto più vicino al modello HSV che al modello RGB. Se l'occhio funzionasse in questa modalità i bastoncelli non ci sarebbero proprio.
inutile dire bim bum bam, il colore e dato da intensita' e frequenza,
composto dalla sommatoria delle righe spettrali, il resto e' fuffa... :D
Hai veramente delle argomentazioni molto forti e stringenti.
RGB o HSV sono modelli di rappresentazione dei colori, e sono validi entrambe. Vuoi forse dire che la rappresentazione HSV non viene usata da nessuna parte.
e non hai capito neppure questo, luminanza e crominanza furono creati per
dare retrocompatibilita alla tv b/n.... :rolleyes:
NO.
I luminanza e crominanza sono specifici del segnale s-video, che è nato dopo i primi televisori a colori.
le copressioni Jpeg sfruttano la scarsa attenzione al dettaglio del nostro occhio,
per compreimere, con perdita di informazione, a livelli altissimi...
Guarda un po' cosa dice sempre la Wikipedia a proposito della compressione in JPEG:
Color space transformation
First, the image should be converted from RGB into a different color space called YCbCr. It has three components Y, Cb and Cr: the Y component represents the brightness of a pixel, the Cb and Cr components represent the chrominance (split into blue and red components). This is the same color space as used by digital color television as well as digital video including video DVDs, and is similar to the way color is represented in analog PAL video and MAC but not by analog NTSC, which uses the YIQ color space (ma è sempre del tipo HSV). The YCbCr color space conversion allows greater compression without a significant effect on perceptual image quality (or greater perceptual image quality for the same compression). The compression is more efficient as the brightness information, which is more important to the eventual perceptual quality of the image, is confined to a single channel, more closely representing the human visual system.
http://it.wikipedia.org/wiki/VHS VHS=Video Home System
Ma non è l'unico significato di VHS!
E comunque il succo del discorso non era il significato dell'acronimo, ma questo:
VHS tapes have approximately 3 MHz of video bandwidth, which is achieved at a relatively low tape speed by the use of helical scan recording of a frequency modulated luminance (black and white) signal, with a down-converted "color under" chroma (color) signal recorded directly at the baseband. Because VHS is an analog system,
E in generale, quando si parla di comprimere o trasmettere immagini, sia in analogico che in digitale, si parla praticamente sempre di crominanza e luminanza, non di colori fondamentali. Questo perché, giustamente, tutti quelli che hanno inventato questi sistemi hanno deciso che il segnale doveva essere trattato così come lo tratta il nostro occhio e il nostro cervello.
Tra le altre cose, a te viene più facile definire un colore definendone le componenti o scegliendo prima il colore, poi la saturazione e quindi la luminosità?
Satviolence
28-10-2008, 00:40
<;24756013'](VHS in origine significava Vertical Helical Scan)
Cmq, il modo migliore per "trasportare" le immagini a colori non e' luminanza + crominanza,
ma lo R+G+B.. :rolleyes:
Dove viene detta questa cosa? Puoi riportare testualmente quello che viene detto?
^TiGeRShArK^
28-10-2008, 00:54
<;24756176']La divisione x 3 e' esattissima, in quanto i subpixel sono singoli rivelatori,
ai quali e' stato applicato un filtro R/G/B :D
no, perchè altrimenti devi dividere per tre anche i pixel delle macchine fotografiche.
Ad ogni pixel è applicato un filtro rosso verde o blu che fa passare solo una lunghezza d'onda e poi il risultato viene interpolato.
quindi se dividi per 3 il numero di recettori colorati del nostro occhio devi fare lo stesso anche per i pixel della macchina fotografica.
Inoltre noi abbiamo anche 100milioni di recettori della luminosità il cui numero non va diviso per 3, quindi servirebbe una macchina da 300 mpixel per ottenere un risultato equivalente sul canale della luminanza.
Poi il nostro occhio e' diverso, xche coni e bastoncini sono disposti secondo il criterio
di mantenere piu' risoluzione al centro del fuoco...
sebbene il nostro occhio ha anche dei difetti, che un sensore CCD non ha,
come il punto ceco, in piena area utile... stigrancaxxi ! :D
Magari esistessero macchine fotografiche oggi come oggi lontanamente paragonabili ai nostri occhi :asd:
il DIVX fa' parte di uno standard di compressione, che sfrutta le "falle" della
nostra visione, per ridurre drasticamente (con perdita di informazione)
le dimensioni del file o del flusso dati... ma questo non c'entra... nulla :D
Come non c'entra nulla?
E' un modo per eliminare informazioni praticamente inutili.
Se fossero utili percepiremmo una perdita di qualità, cosa che evidentemente non avviene.
D'altronde tu eri pure convinto che i pixel della macchina fotografica non andassero divisi per 3... :p
E' segno dell'ottima qualità di queste tecniche ;)
GUSTAV]<
29-10-2008, 15:05
Solo alcune contestazioni poi chiudo :Prrr:
NO.
I luminanza e crominanza sono specifici del segnale s-video, che è nato dopo i primi televisori a colori.
e questo e' sbagliato !
"The idea of transmitting a color television signal as luma and chrominance comes from Georges Valensi, who patented it in 1938. Previous color television systems tried to transmit RGB signals in different ways and were incompatible with monochrome receivers"
Luma e croma sono stati inventati (prima) per le trasmissioni tv a colori...
http://en.wikipedia.org/wiki/Color_television
insomma esperimenti fatti ai bell labs per questo scopo
http://en.wikipedia.org/wiki/Luma_(video)
http://en.wikipedia.org/wiki/Chrominance
il segnale s-viedo e' stato realizzato come una via di mezzo fra' il videocomposito (peggiore) e il sistema RGB (Migliore).
Guarda un po' cosa dice sempre la Wikipedia a proposito della compressione in JPEG:
Color space transformation
First, the image should be converted from RGB into a different color space called YCbCr. It has three components Y, Cb and Cr: the Y component represents the brightness of a pixel, the Cb and Cr components represent the chrominance (split into blue and red components). This is the same color space as used by digital color television as well as digital video including video DVDs, and is similar to the way color is represented in analog PAL video and MAC but not by analog NTSC, which uses the YIQ color space (ma è sempre del tipo HSV). The YCbCr color space conversion allows greater compression without a significant effect on perceptual image quality (or greater perceptual image quality for the same compression). The compression is more efficient as the brightness information, which is more important to the eventual perceptual quality of the image, is confined to a single channel, more closely representing the human visual system.
Cosa c'entra la compressione... :rolleyes:
Ogni Jpeg o sistema di compressione immagini, cerca di utilizzare algoritmi x ingannare
l'occhio e risparmare byte di memoria...
ma da questo a dire che il Jpeg e' un modello preciso della nosta visione ce ne passa.. :Prrr:
Ma non è l'unico significato di VHS!
E comunque il succo del discorso non era il significato dell'acronimo, ma questo:
VHS tapes have approximately 3 MHz of video bandwidth, which is achieved at a relatively low tape speed by the use of helical scan recording of a frequency modulated luminance (black and white) signal, with a down-converted "color under" chroma (color) signal recorded directly at the baseband. Because VHS is an analog system,
E in generale, quando si parla di comprimere o trasmettere immagini, sia in analogico che in digitale, si parla praticamente sempre di crominanza e luminanza, non di colori fondamentali. Questo perché, giustamente, tutti quelli che hanno inventato questi sistemi hanno deciso che il segnale doveva essere trattato così come lo tratta il nostro occhio e il nostro cervello.
Tra le altre cose, a te viene più facile definire un colore definendone le componenti o scegliendo prima il colore, poi la saturazione e quindi la luminosità?
il nome VHS delle cassette, e te lo ripeto per l'ennesima volta..
VHS=Video Home System (in origine era Vertical Helix Scan)
http://simple.wikipedia.org/wiki/VHS
e te lo ripero x l'ennesima volta, in trasmissione luma e croma sono organizzati
in questo modo, per dare compatibilita' con il Bianco/nero.
Il metodo migliore invece, per la tecnologia attuale e' l' RGB...
RGB e' il PIXEL della Fotocamera, RGB e' il pixel del monitor PC,
RGB sono i segnali della VGA analogica del PC... RGB e' la stampa in tricromia
delle stampanti a colori... basta ? No ?
Anche la Fotocamera della nasa spedita su marte prevede 3 filtri RGB (oltre ad altri)
per ricomporre l'immagine a colori del pianeta rosso... :sofico:
http://fawkes4.lpl.arizona.edu/images.php?gID=79&cID=2
Dove viene detta questa cosa? Puoi riportare testualmente quello che viene detto?
http://en.wikipedia.org/wiki/RGB_color_model
^TiGeRShArK^
29-10-2008, 15:30
<;24779488']
in questo modo, per dare compatibilita' con il Bianco/nero.
Il metodo migliore invece, per la tecnologia attuale e' l' RGB...
RGB e' il PIXEL della Fotocamera, RGB e' il pixel del monitor PC,
RGB sono i segnali della VGA analogica del PC... RGB e' la stampa in tricromia
delle stampanti a colori... basta ? No ?
Anche la Fotocamera della nasa spedita su marte prevede 3 filtri RGB (oltre ad altri)
per ricomporre l'immagine a colori del pianeta rosso... :sofico:
http://fawkes4.lpl.arizona.edu/images.php?gID=79&cID=2
Le stampanti a colori non usano la sintesi additiva ma quella sottrattiva e quindi usano lo spazio di colore CMYK (Cyan, magenta, Yellow, Black).
Le immagini della NASA inoltre non usano dei piccoli filtri colorati sui vari pixel dell'immagine a griglia di Bayer (o come cazz si chiama :Prrr:), ma scattano tre foto ognuna con un filtro diverso per poi ricombinare le tre immagini.
quanto al sistema HSV (che è solo uno tra i tanti utilizzati per la composizione dei colori), ecco cosa dice wikipedia:
Il modello HSB è particolarmente orientato alla prospettiva umana, essendo basato sulla percezione che si ha di un colore in termini di tinta, sfumatura e tono.
Motivation
It is sometimes preferable in working with art materials, digitized images, or other media, to use the HSV or HSL color model over alternative models such as RGB or CMYK, because of differences in the ways the models emulate how humans perceive color.
GUSTAV]<
29-10-2008, 15:37
no, perchè altrimenti devi dividere per tre anche i pixel delle macchine fotografiche.
Ad ogni pixel è applicato un filtro rosso verde o blu che fa passare solo una lunghezza d'onda e poi il risultato viene interpolato.
quindi se dividi per 3 il numero di recettori colorati del nostro occhio devi fare lo stesso anche per i pixel della macchina fotografica.
Inoltre noi abbiamo anche 100milioni di recettori della luminosità il cui numero non va diviso per 3, quindi servirebbe una macchina da 300 mpixel per ottenere un risultato equivalente sul canale della luminanza.
Fondamentalmante la definizione Corretta di pixel e' quella di un punto di luce, che
puo' assumere qualsivoglia colore e Intensita' sia in ricezione che in trasmissione...
http://en.wikipedia.org/wiki/Pixel
"picture element is the smallest piece of information in an image"
Quindi per realizzare questo e' necessario dividere il pixel in 3 subpixel RGB
E questo e' anche il pixel dei CMOS Foveon X3 sensor
http://en.wikipedia.org/wiki/Foveon_X3_sensor
che rispetta quindi la definizione di Pixel :cool:
O delle videocamere professionali, dove correttamente e' utilizzato il sistema 3CCD
che appunto forma il pixel come composizione dei 3 subpixel RGB :cool:
http://en.wikipedia.org/wiki/Charge-coupled_device
In alcuni casi xo' il sensore CCD della fotocamere, viene "truffaldinamente"
dichiarato solo come quantita' di elementi sensibili alla luce... :rolleyes:
Perche' viene applicato un filtro RGB a matrice sbilanciata
http://en.wikipedia.org/wiki/Bayer_filter
che incrementa i subpixel Verdi a scapito di quelli ROSSI e BLU.. :rolleyes:
Quindi in alcuni casi 1Mpixel di ripresa video non corrisponde a 1Mpixel di visualizzato
al monitor, se non per interpolazione dei dati del CCD :rolleyes:
Enjoy... :Prrr:
^TiGeRShArK^
29-10-2008, 15:53
infatti, lo so bene dato che ho anche una videocamera con 3 CCD :Prrr:
però riguardo al discorso foto:
Comparison to Bayer filter sensors – actual samples
Sigma's SD14 site has galleries of full-resolution images showing the color produced by the current state of Foveon technology. The 14-MP Foveon chip produces 4.7 MP native-size RGB files; 14-MP Bayer filter cameras produce a 14 MP native file size by interpolation (demosaicing). Direct visual comparison of images from 12.7-MP Bayer sensors and 14.1 MP Foveon sensors show Bayer images ahead on fine monochrome detail, such as the lines between bricks on a distant building, but the Foveon images are ahead on color resolution.[27]
Il nostro occhio ha il vantaggio di avere 100mpixel "reali" oltre ai 6 mpixel (o quanti sono chenonmiricordopiù) colorati, dunque unisce i vantaggi di ambedue le tecnologie :p
GUSTAV]<
29-10-2008, 15:54
Le stampanti a colori non usano la sintesi additiva ma quella sottrattiva e quindi usano lo spazio di colore CMYK (Cyan, magenta, Yellow, Black).
esistono anche stampanti RGB.. :asd:
cmq si tratta sempre di tricromia...
Le immagini della NASA inoltre non usano dei piccoli filtri colorati sui vari pixel dell'immagine a griglia di Bayer (o come cazz si chiama :Prrr:), ma scattano tre foto ognuna con un filtro diverso per poi ricombinare le tre immagini.
quanto al sistema HSV (che è solo uno tra i tanti utilizzati per la composizione dei colori), ecco cosa dice wikipedia:
ma se ti ho messo anche la foto dei filtri.. guardare i link, no eh ? :Prrr: :Prrr:
Se tutto viene modellato sulla visione umana, allora bisognerebbe compensare
anche i vari effetti di distorsione visiva e di distorsione della percezione... :p
nibbiubum
29-10-2008, 16:50
non credevo di scatenare questo dibattito scientifico...
ma in parte anche se non ci sto capendo nulla.. sono happy:D
uahuahua
^TiGeRShArK^
29-10-2008, 20:11
<;24780421']esistono anche stampanti RGB.. :asd:
cmq si tratta sempre di tricromia...
ma se ti ho messo anche la foto dei filtri.. guardare i link, no eh ? :Prrr: :Prrr:
Se tutto viene modellato sulla visione umana, allora bisognerebbe compensare
anche i vari effetti di distorsione visiva e di distorsione della percezione... :p
quella è la griglia di Bayer di cui parlavo prima...
E, tranquillo, che alla NASA non usano affatto sensori con la griglia di Bayer ;)
qui (http://www.sbig.com/) puoi trovare qualche camera CCD "piuttosto seria" per uso astronomico, io usavo la ormai inesistente SBIG ST-6 e ti posso assicurare che non c'era alcun filtro sul CCD ;)
Satviolence
29-10-2008, 20:29
GUSTAV]< ha una tale confusione in testa che se dovessi mettermi a fare osservazioni su tutte le cose sbagliate che dice perderei veramente troppo tempo, e di certo non è il miglior modo per passare il poco tempo libero che ho. Oltre al fatto che si andrebbe troppo fuori tema, perché il tema iniziale era "quanti mpixel ha l'occhio umano".
Altroché dibattito scientifico...
Se GUSTAV]< vuole la ragione che se la prenda, se questo può farlo sentire meglio...
Comunque la risposta giusta alla domanda iniziale è senz'altro quella data da raffaele75:
pensavo fosse una s*****ata ed invece una risposta c'è...
324 megapixel
naturalmente è una stima
http://www.clarkvision.com/imagedetail/eye-resolution.html
Sopratutto, se a GUSTAV]< non piace questa risposta, dovrebbe pure spiegare perché.
E di certo negare che l'occhio funzioni distinguendo in modo separato la luminosità e i colori è sbagliato.
GUSTAV]<
29-10-2008, 20:58
GUSTAV]< ha una tale confusione in testa che se dovessi mettermi a fare osservazioni su tutte le cose sbagliate che dice perderei veramente troppo tempo, e di certo non è il miglior modo per passare il poco tempo libero che ho.
-cut-
fra' i due il confuso non sono io :D
GUSTAV]<
29-10-2008, 21:39
Riassumendo, non ci trovo nulla di complicato....
Occhio umano :
Bastoncini sensibili alla luce = 100 milioni
http://en.wikipedia.org/wiki/Rod_cell
Coni sensibili ad uno dei tre' colori primari = 5 milioni
http://en.wikipedia.org/wiki/Cone_cell
definizione di pixel
http://en.wikipedia.org/wiki/Pixel
Il pixel generico, come quello della VGA = 640x480 pixel
nella tecnologia attuale e' formato da 3 subpixel RGB, per riprodurre nel modo migliore,
intensita' e colore del punto elementare...
mentre invece il pixel del sensore ccd e' spesso calcolato come numero di punti
elementari, non facendo nessuna distinzione fra' i vari colori... :rolleyes:
Misurando con il Pixel standard, cioe' RGB
la visione e' formata da
5 milioni di coni "RGB" = 1.66 Mega pixel
100 milioni di bastoncini = 33.3 Mega pixel
Misurato invece con il Pixel di "luminanza", cioe' con la stessa misura dei CCD
sarebbe invece :
5 milioni di coni "RGB" = 5 Mega pixel in bianco e nero cioe' di sola luminanza
100 milioni di bastoncini = 100 Mega pixel in bianco e nero cioe' di sola luminanza
piu' facile di cosi...
ciao belli :Prrr:
nibbiubum
29-10-2008, 22:22
<;24785940']Riassumendo, non ci trovo nulla di complicato....
Occhio umano :
Bastoncini sensibili alla luce = 100 milioni
http://en.wikipedia.org/wiki/Rod_cell
Coni sensibili ad uno dei tre' colori primari = 5 milioni
http://en.wikipedia.org/wiki/Cone_cell
definizione di pixel
http://en.wikipedia.org/wiki/Pixel
Il pixel generico, come quello della VGA = 640x480 pixel
nella tecnologia attuale e' formato da 3 subpixel RGB, per riprodurre nel modo migliore,
intensita' e colore del punto elementare...
mentre invece il pixel del sensore ccd e' spesso calcolato come numero di punti
elementari, non facendo nessuna distinzione fra' i vari colori... :rolleyes:
Misurando con il Pixel standard, cioe' RGB
la visione e' formata da
5 milioni di coni "RGB" = 1.66 Mega pixel
100 milioni di bastoncini = 33.3 Mega pixel
Misurato invece con il Pixel di "luminanza", cioe' con la stessa misura dei CCD
sarebbe invece :
5 milioni di coni "RGB" = 5 Mega pixel in bianco e nero cioe' di sola luminanza
100 milioni di bastoncini = 100 Mega pixel in bianco e nero cioe' di sola luminanza
piu' facile di cosi...
ciao belli :Prrr:
si ma non hai scritto il risultato... quanto fa? scrivi il totaleeeeee :)
Satviolence
29-10-2008, 22:32
Riassumendo, mi pare che tu abbia cambiato un po' la tua versione... Veramente tu stai facendo confusione.
All'inizio dicevi questo:
<;24753782']Premesso che un pixel e' formato da 3 subpixel Rosso-Verde-Blu.. :O
La retina e' formata da circa 100 millioni di bastoncini e 5 milioni di coni
http://en.wikipedia.org/wiki/Cone_cell (coni = Visione a colori)
http://en.wikipedia.org/wiki/Rod_cell (bastoncini = Visione b/n)
quindi 5.000.000/3 = 1.6 Mpixel x la visione a colori
e 100.000.000/3 = 33.3 Mpixel x la visione bianco/nero
Poi hai aggiunto le considerazioni anche sui bastoncelli...
Basta decidersi!
Che tesi vuoi sostenere? Devi dare UNA risposta, non 4!
Tra l'altro, passi da 1,6 Mpixel a 100 Mpixel... Ci sono 2 ordini di grandezza in mezzo.
Se ti chiedo quanto pesi cosa rispondi? che pesi dai 10 ai 1000 kg?
P.S.: chi è che fa confusione?
GUSTAV]<
29-10-2008, 23:00
Riassumendo, mi pare che tu abbia cambiato un po' la tua versione... Veramente tu stai facendo confusione.
All'inizio dicevi questo:
Poi hai aggiunto le considerazioni anche sui bastoncelli...
Basta decidersi!
Che tesi vuoi sostenere? Devi dare UNA risposta, non 4!
Tra l'altro, passi da 1,6 Mpixel a 100 Mpixel... Ci sono 2 ordini di grandezza in mezzo.
Se ti chiedo quanto pesi cosa rispondi? che pesi dai 10 ai 1000 kg?
P.S.: chi è che fa confusione?
un sensore CCD da 10 Mpixel b/n con R(1/3) G(1/3) B(1/3) genera
un immagine a colori, sullo schermo da 3.33.. Mpixel
(un CCD da 10Mpixel b/n Bayer forma un immagine a colori da 10 Mpixel, ma che e' frutto
di un algoritmo di interpolazione...)
In pratica, quando le ditte misurano il Pixel del sensore CCD si rifanno al solo
elemento sensibile alla luce...
Mentre invece quando costruiscono il monitor intendono per Pixel il Punto formato
da 3 subpixel RGB
In ogni caso l'interpretazione corretta di pixel e' questa :
http://en.wikipedia.org/wiki/Pixel
Cioe' il punto elementare che puo' rappresentare qualsiasi colore, con qualsiasi intensita'
quindi in contrasto con il "pixel" di sola intensita' come inteso dai costruttori di CCD.. :D
Da questa discussione nasce l'idea della necassita' di distinguere i due tipi di Pixel...
Il pixel, come da definizione ideale,
e il pixel elementare, cioe' di sola intensita'
In conclusione 1 pixel RGB = 3 pixel "b"/n opportunamente filtrati..
Satviolence
29-10-2008, 23:12
Sei veramente convinto di quello che stai dicendo?
Sei sicuro che questa tua "teoria" possa essere applicata all'occhio umano?
Comunque sei OT: quanti mpixel ha l'occhio umano, e perché?
Dai 1 risposta e 1 motivo.
SingWolf
02-11-2008, 02:48
:rotfl::rotfl::rotfl:
Ganzo sto thread!
:rotfl::rotfl::rotfl:
Ma la risposta finale qual'è?
^TiGeRShArK^
02-11-2008, 02:59
<;24787130']un sensore CCD da 10 Mpixel b/n con R(1/3) G(1/3) B(1/3) genera
un immagine a colori, sullo schermo da 3.33.. Mpixel
(un CCD da 10Mpixel b/n Bayer forma un immagine a colori da 10 Mpixel, ma che e' frutto
di un algoritmo di interpolazione...)
In pratica, quando le ditte misurano il Pixel del sensore CCD si rifanno al solo
elemento sensibile alla luce...
Mentre invece quando costruiscono il monitor intendono per Pixel il Punto formato
da 3 subpixel RGB
In ogni caso l'interpretazione corretta di pixel e' questa :
http://en.wikipedia.org/wiki/Pixel
Cioe' il punto elementare che puo' rappresentare qualsiasi colore, con qualsiasi intensita'
quindi in contrasto con il "pixel" di sola intensita' come inteso dai costruttori di CCD.. :D
Da questa discussione nasce l'idea della necassita' di distinguere i due tipi di Pixel...
Il pixel, come da definizione ideale,
e il pixel elementare, cioe' di sola intensita'
In conclusione 1 pixel RGB = 3 pixel "b"/n opportunamente filtrati..
aspè..
stai facendo un pò di confusione :mbe:
è vero che un pixel è dato dall'unione di + subpixel, ma, proprio per la definizione di pixel che tu stesso hai postato, esso non è altro che un punto elementare capace di fornire un qualsiasi colore.
Quindi per rappresentare un'immagine a 10 mpixel sono necessari 30 sub/mpixel.
Ma l'informazione dell'immagine è quella di 10 mpixel, non 30.
Infatti l'occhio ha una risoluzione di 100Mpixel in luminanza (che possono essere rappresentati con 300 sub/mpixel) e di circa 6 mpixel colorati (che sono rappresentati da circa 6 sub/mpixel).
Una cosa è la rappresentazione e una cosa è la quantità di informazione.
Le macchine fotografiche invece, a differenza dell'occhio, per via della griglia di Bayer necessitano del triplo di PIXEL (e non subpixel) per rappresentare la stessa quantità di informazione di una ideale sorgente analogica.
Quindi nel caso della luminanza, per essere corretti, il numero di pixel va raddoppiato per 3 (per i coni), mentre se consideriamo i bastoncelli il rapporto è 1:1.
Per questo *secondo me* per ottenere una risoluzione equivalente ad una macchina fotografica sono necessari 300 + 6 MPixel (sia che usi la griglia di Bayer, sia che usi 3 sensori separati).
^TiGeRShArK^
02-11-2008, 03:08
:rotfl::rotfl::rotfl:
Ganzo sto thread!
:rotfl::rotfl::rotfl:
Ma la risposta finale qual'è?
Ovviamente la mia :O
:asd:
..scherzi a parte..io sono piuttosto convinto del mio ragionamento dato che, come ho spiegato, una cosa è la quantità di informazione effettivamente contenuta che può essere espressa con 3 subpixel (o con 3 byte guardandola dal lato prettamente informatico) e che è equivalente a quella del nostro occhio, altra cosa è la rappresentazione dell'informazione.
Quindi dato che per rappresentare i dettagli presi dal nostro occhio a 100mpixel di luminanza e 6 di crominanza (anche se in realtà sono molti di + dato che abbiamo anche ottime capacità di interpolazione tra un frame e il successivo e abbiamo capacità di distinguere frame che arrivano in certi casi anche a 1/200 di secondo) servono 300 + 6 msubpixel, per me l'occhio sarebbe equivalente ad una videocamera capace di prendere immagini a 100 mpixel di luminanza + 6 di crominanza per una 60ina di frame al secondo...
Il valore di 24 frame al secondo analogici dei film serve solo per ingannare la retina poichè vengono presentate immagini che sono una media delle esposizioni in diversi istanti.
Infatti, se avete notato, nei giochi in cui le immagini sono perfette e non esiste il fenomeno del motion blur, per avere una sensazione di fluidità completa si deve arrivare a circa 60 fps (variabili da individuo ad individuo).
SingWolf
02-11-2008, 04:25
Comunque sia io penso che l'occhio non abbia né pixel né fps....
Cioè guardate lo spigolo del vostro schermo, è perfettamente lineare, o meglio, secondo me i pixel sono infiniti.... non so come spiegare....
Vabbé vado a dormi che è meglio... :sofico:
Raghnar-The coWolf-
02-11-2008, 10:43
:rotfl::rotfl::rotfl:
Ganzo sto thread!
:rotfl::rotfl::rotfl:
Ma la risposta finale qual'è?
La risposta finale è, tecnicamente, 5/3=1.6 MP a colori e 100 MP in Bianco e Nero.
Il problema è che questa informazione viene modificata e interpolata dal cervello umano in maniera assolutamente dinamica e con algoritmi complicatissimi ed efficientissimi (basti pensare che la distribuzione RGB non è 1/3 per uno, ma è più complicata) e che quindi porta una quantità di informazione nettamente superiore a quella che è la definizione nuda e cruda, specialmente nel trattare oggetti statici.
Come se riprendessi con una telecamera 1,6 MP l'immagine che ho davanti muovendola continuamente, e poi con un algoritmo riunissi i fotogrammi per formare un unica foto di definizione impressionante. Inoltre i bastoncelli in B/N danno anche informazione di risoluzione, anche se no di colore..etc...
Il risultato che è tanto di megapixel dell'occhio che bisognerebbe parlare, ma di definizione dell'apparato visivo in toto, ovvero occhio + cervello, e definizione nel senso di punti per pollice, perchè dare una risoluzione in MP a un'immagine che viene composta in modo dinamico è un po' un suicidio... Percui è più comodo basarsi sulla definizione che l'occhio riesce a risolvere in termini di "secondi d'arco" ovvero la risoluzione angolare che si riesce a risolvere nella visione (che è il metro con cui vengono valutati i telescopi).
e questo può essere fatto tendenzialmente a posteriori:
Mostrando cioè tante stampe/schermi a risoluzioni diverse e vedere chi riconosce la differenza di risoluzione. Il ragazzo del link Clarckvision dice di aver provato a mostrare stampe a 600dpi che sono state tutte riconosciute come le più risolute, perchè in base a sue considerazioni l'occhio ha una definizione di 500 dpi spicci (che corrisponde più o meno anche con la mia esperienza), e questo, proiettato su tutto l'arco visivo che è di tanti gradi, forma un'equivalente di 500 Megapixel e rotti, anche se il sensore è notevolmente meno definito.
L'unica risposta univoca che si può dare a questa domanda in realtà è che non ha senso valutare il numero di megapixel della vista umana, così come non ha senso parlare di "velocità del processore" del cervello, perchè il sistema umano si fonda su basi diverse (e assolutamente più complicate) di un sistema relativamente semplicissimo come una macchina fotografica o un computer.
Satviolence
02-11-2008, 11:15
E' veramente una cosa incredibile... le risposte che vanno a considerare la densità di coni e bastoncelli si prestano ad essere criticate per vari motivi e fanno assunzioni arbitrarie di non poco conto in modo troppo leggero.
In realtà tra l'occhio umano e una macchina fotografica ci sono tante e tali differenze che l'unico modo per confrontarli è considerarne le prestazioni finali, come era stato detto nei primi post, da cui deriva una risoluzione "equivalente" di 300 Mpixel circa.
Tra le altre cose nessuno finora ha considerato che l'occhio umano ha una ampiezza del campo visivo periferico di circa 160°... Che corrispondono quasi a un Fisheye, ma senza distorsioni, e vanno ben oltre il campo visivo di 118° di una lente grandangolare con focale 13 mm equivalenti.
una cosa da considerare è che l'angolo di visuale dell'occhio è ben inferiore a quello di una reflex
l'occhio avrà anche una focale effettiva di X mm rapportata al 35mm, ma fateci caso, ad esempio guardando una scrivania con su alcuni oggetti, puntatene uno, quello lo vedete bene, ma tutto il resto lo "intravedete" (passatemi il termine), nel senso che ce l'avete nella visuale ma non definito come la porzione che puntate.
per via delle infinite potenzialità del cervello, che elabora e memorizza tutte le info, per avere un quadro dettagliato e completo anche solo di 1 mq, vi ritroverete a muovere gli occhi in modo da scandagliare tutta la superficie
l'occhio analizza finemente ogni dettaglio per poi lasciare al cervello il compito di comporre l'immagine di insieme
per questo, secondo me, fare i conti sulla risolvenza dell'occhio spanneggiando a megapixel è molto impreciso
Satviolence
02-11-2008, 12:15
...
l'occhio avrà anche una focale effettiva di X mm rapportata al 35mm, ma fateci caso, ad esempio guardando una scrivania con su alcuni oggetti, puntatene uno, quello lo vedete bene, ma tutto il resto lo "intravedete" (passatemi il termine), nel senso che ce l'avete nella visuale ma non definito come la porzione che puntate.
...
per questo, secondo me, fare i conti sulla risolvenza dell'occhio spanneggiando a megapixel è molto impreciso
Sono fondamentalmente d'accordo.
Il fatto che l'occhio umano abbia una zona di visione distinta e una zona di visione periferica meno definita non è altro che una delle differenze che mi portano a dire che l'occhio umano è troppo diverso da una macchina fotografica per fare un confronto basato sul numero di elementi sensibili alla luce. Meglio parlare delle prestazioni finali quindi.
Sarà pur vero che una macchina fotografica definisce in modo dettagliato un più ampio angolo di visuale, per esempio 90°, ma al di fuori di questo angolo è assolutamente cieca, a differenza dell'occhio umano che vede, magari male, tutto quello che è compreso in 160° di visuale.
E poi... perché ostinarsi a confrontare l'occhio umano con una macchina fotografica, quando in realtà ho più che altro le funzioni di una telecamera, visto che tratta immagini in movimento?
E poi... perché ostinarsi a confrontare l'occhio umano con una macchina fotografica, quando in realtà ho più che altro le funzioni di una telecamera, visto che tratta immagini in movimento?
si arriverà un giorno (non troppo lontano a quanto pare) in cui non ci sarà differenza tra videocamera e fotocamera, definizioni fino ad oggi adottate per evidenti limiti progettuali (se eccelle nelle foto non lo fa nei video e viceversa)
l'occhio in un certo modo fa alla stessa maniera, mescolando foto e video in un ibrido che priva di significato l'una e l'altra definizione
GUSTAV]<
02-11-2008, 14:06
si, e' un mezzo casino.... :D
Riassunto :
1 pixel del monitor e' formato da 3 subpixel colorati RGB
1 pixel del sensore CCD e' formato da 1 subpixel generico
Il pixel del CCD puo' diventare un pixel R o G o B a secondo del filtro colorato che gli viene messo davanti... :rolleyes:
Sta' tutto qui' il problema.. :D
Tecnicamente, lasciando perdere la percezione,
Bastoncini sensibili alla luce = 100 milioni
Coni sensibili ad uno dei tre' colori primari = 5 milioni
Quindi paragonata ad un CCD della fotocamera, un occhio ha 105 Mpixel
che riportati su un monitor a colori diventano 35 Mpixel
:happy:
Satviolence
02-11-2008, 15:00
<;24834531']
Quindi paragonata ad un CCD della fotocamera, un occhio ha 105 Mpixel
che riportati su un monitor a colori diventano 35 Mpixel
:happy:
NO.
Il potere risolutivo è tanto maggiore quanto più vicine sono due sorgenti luminose che vengono percepite ancora come distinte. Questa capacità è collegata all'abilità di distinguere i contorni degli oggetti e dei loro dettagli, e per far questo la distinzione dei colori non è importante.
La cosa importante per distinguere i contorni è cogliere le variazioni di luminosità complessiva (intesa come energia complessiva [W/m^2] incidente su una data superficie, per esempio quella di un pixel o di un bastoncello), considerando l'intero spettro visibile.
Per far questo puoi usare un elemento fotosensibile che copra l'intero spettro visibile (per esempio un bastoncello), oppure un numero qualsiasi di elementi fotosensibili che lavorano insieme, ciascuno dei quali copre solo una parte dell'intero spettro visibile, ma che complessivamente coprono tutto lo spettro visibile. In quest'ultimo caso devi "sommare" il segnale di più elementi sensibili per avere una misura dell'energia che complessivamente incide su una data superficie.
Quindi, per quanto riguarda la misura dell'intensità luminosa, espressa in W/m^2, 1 elemento sensibile che copre tutto lo spettro è equivalente alla somma di n elementi sensibili, ciascuno dei quali copre 1/n -esimo dello spettro visibile. Quindi un bastoncello al limite equivale a 3 subpixel RGB, non a 1 subpixel.
Ma questo paragone a me sembra dannatamente forzato: ripeto che le differenze sono tali che l'unico modo per confrontare una fotocamera e l'occhio umano è considerandone le prestazioni complessive. Un altra differenza fondamentale per esempio è che noi vediamo con due occhi, e che l'immagine che si forma nel cervello deriva dalla composizione di due segnali.
Comunque, con il criterio delle prestazioni complessive risulta che l'occhio ha un potere risolutivo paragonabile grossomodo a quello di una ipotetica fotocamera da 300 Mpixel.
GUSTAV]<
02-11-2008, 18:47
-cut-
Tutto sbagliato :D
confondi l'interpolazione con la risoluzione effettiva.. :Prrr:
Raghnar-The coWolf-
02-11-2008, 19:00
Stai sbagliando te Gustav.
Il pixel è per convenzione il pixel di immagine che si va a formare, non il numero di singoli elementi rilevatori.
Per formare un pixel di immagine, c'è bisogno di un rilevatore Rosso, un rilevatore Blu e un rilevatore Verde.
E l'occhio umano ha complessivamente 5 milioni di rivelatori di colori in toto, quindi da dividere per 3 per formare un immagine a colori.
Esattamente come la mia fotocamera viene detta a 10 MP perchè forma un immagine sullo schermo a 10 MP, il che non è il numero complessivo di singoli transistor presenti sul sensore.
Poi, comunque, questo disquisire sul numero di MP non ha comunque senso, dato che non è solo il numero di coni e bastoncelli a stabilire la risoluzione dell'apparato visivo, ma anche il sistema cerebrale con le 5 zone V...
Satviolence
02-11-2008, 19:59
<;24838792']Tutto sbagliato :D
confondi l'interpolazione con la risoluzione effettiva.. :Prrr:
Interpolazione DI CHE?
Perché rispondi a caso, giusto per contraddirmi?
Non ho MAI usato quella parola.
Ha senso continuare a discutere in queste condizioni?
GUSTAV]<
02-11-2008, 20:06
Stai sbagliando te Gustav.
Il pixel è per convenzione il pixel di immagine che si va a formare, non il numero di singoli elementi rilevatori.
Per formare un pixel di immagine, c'è bisogno di un rilevatore Rosso, un rilevatore Blu e un rilevatore Verde.
E l'occhio umano ha complessivamente 5 milioni di rivelatori di colori in toto, quindi da dividere per 3 per formare un immagine a colori.
Esattamente come la mia fotocamera viene detta a 10 MP perchè forma un immagine sullo schermo a 10 MP, il che non è il numero complessivo di singoli transistor presenti sul sensore.
Poi, comunque, questo disquisire sul numero di MP non ha comunque senso, dato che non è solo il numero di coni e bastoncelli a stabilire la risoluzione dell'apparato visivo, ma anche il sistema cerebrale con le 5 zone V...
la tua fotocamera da 10Mp ha il filtro di bayer dal quale un algoritmo
ricava x interoplazione i 10Mp che vedi a schermo...
http://en.wikipedia.org/wiki/Bayer_filter
Satviolence
02-11-2008, 20:12
<;24839979']la tua fotocamera da 10Mp ha il filtro di bayer dal quale un algoritmo
ricava x interoplazione i 10Mp che vedi a schermo...
http://en.wikipedia.org/wiki/Bayer_filter
A sto' punto, seguendo il tuo ragionamento precedente, non sono da dividere per 3 i bastoncelli dell'occhio umano, ma i pixel della fotocamera. Stai sostenendo tutto e il contrario di tutto.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.