Quote:
Originariamente inviato da leddlazarus
infatti i sensori sono effettivamente da X mpix pero' il singolo pixel del sensore non è realmente un pixel immagine e
hai detto bene "interpolare" quindi i punti dell'immagine sono calcolati quindi non "reali".
prova ad ingrandire un sensore e capisci quello che ti dico, ma che puoi trovare dovunque sulla rete.
se un pixel di una immagine ha profondità colore minima di 24 bit (8+8+8) e un pixel del sensore puo' essere solo rosso , verde o blu con profondità di 8 bit, dimmi come fa un immagine catturata da un sensore da X mpix ad essere realmente da X mpix.
dietro c'è il lavoro del processore della macchina (oppure il PC in caso di RAW) che elabora le informazioni ed ottiene l'immagine finale.
che poi sia una ottima approssimazione va bene, ma i mpix ottenuti non sono proprio "reali".
|
nel primo pixel jho i subpixel (R1, G1, B1, G1'), nel secondo pixel ho i subpixel (R2, G2, b2, G2') ecc; il primo pixel è formato esattamente dall'interplùolazione dei valori nella prima parentesi; il secondo pixel sulla stessa riga dall'interpolazione dei valori di luminanza e crominanza dei subpixel (G1, B1, R2, G2'); quindi, con 6 subpixel ho ottenuto 2 pixel; e questo eprchè siamo sul bordo, per cui i subpixel R1 e G1' non vengono riutizzati. L'interpolazione è normale che avvenga in ogni caso; questo avviene anche con i sensori foveon, perchè si devono ricavare tutti i colori a partire dai 3 utilizzati di base e dalle rispettive variazioni di intensità luminosa.
Che i sensori non abbiano effettivamente x Mpixel è risaputo, ma a partire dagli x milioni di punti si riescono a ricavare quasi x milioni di pixel reali