View Single Post
Old 09-01-2012, 23:26   #65
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
No! Non sono isole, piuttosto fitte mine di profondità! NON E' IL SINGOLO GRANO l'unità spaziale interessata dall'assorbimento: è la PORZIONE DI STRATO in cui sono dispersi più grani sovrapposti rispetto alla superficie (non stiamo facendo geometria elementare e non sono punti infinitesimi su un piano ), quindi dal punto di vista della radiazione, il mezzo, cioè lo strato spesso in cui sono dispersi più grani sovrapposti, è STATISTICAMENTE OMOGENEO e perciò completamente (e uniformemente per ogni zona presa sopra la superficie) assorbente; questo anche se dal punto di vista dell'immagine la dimensione del grano influirà sicuramente sul campionamento spaziale (e inversamente sulla cinetica di reazione: vedi quanto hai detto sulla sensibilità).
Quelle che tu chiami zone fotosensibili e non fotosensibili (a parte che una cosa è un mezzo praticamente trasparente in cui è disperso un materiale sensibile e tutt'altro i materiali non fotosensibili che circondano o coprono la zona attiva di un fotorecettore a stato solido) nella pellicola costituiscono una DISPERSIONE OMOGENEA e quindi dal punto di vista della radiazione che la attraversa è come avere un unico mezzo con assorbimento intermedio (anche la nebbia è una dispersione ma non ci vedi buchi attraverso e ti sembra continua e uniforme). Non è come per i pixel di un sensore che hanno le parti fotosensibili disposte planarmente e PERIODICAMENTE separate da parti che non contribuiscono a comporre l'immagine. Solo per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola (qui è inutile tirar fuori la banale chimica dei sali di argento quanto piuttosto capire cosa è una dispersione in chimica e che dal punto di vista della superficie non ci sono "buchi" dato che un vuoto in una zona può essere coperto da un pieno sottostante e viceversa).
Comunque, pazienza, se non sei convinto, la chiacchierata l'abbiamo fatta ed è inutile che ripeta ancora queste cose..
1) il problema è quel "può" essere coperto e con una distribuzione random la certezza non l'avrai mai.
2) non è neppure sufficiente che un fotone colpisca un grano e liberi un atomo di Ag perchè si crei l'opacità necessaria ad avere un "punto immagine", poichè questo fenomeno deve ripertersi più volte per avere un numero n (spesso maggiore o uguale a 4) di atomi di Ag per singolo grano; se guardi l'immagine che hai postato, puoi renderti conto che con una distrbuzione casuale, i problemi puoi averli anche con raggi perpendicolari alla superficie del frame (cosa che col digitale non avverrà mai).
3) anche ammesso che un raggio colpisca un grano deve farlo con un angolo tale da penetrare all'interno e non da venire riflesso, cosa che accade molto più spesso di quanto si pensi. Questo perchè i grani non sono fotosensibili ma lo sono i sali d'argento al loro interno.
4) Le curve sensitometriche delle pellicole presentano una parte piatta sia all'inizio (zona di velo) sia alla fine (zona di saturazione) e prima di queste, altre due zone dove la curva cresce ma non con una proporzionalità diretta rispetto alla radiazione incidente. Questo significa che hai una tratta in cui la risposta è praticamente pari a 0 (velo) o, comunque, coperta dall'opacità caratteristica della pellicola. Una (piede) in cui esiste una proporzionalità, ma la risposta non è sufficiente a generare un'immagine; una tratta, quella lineare, in cui si ha creazione dell'immagine e la proporzionalità tra radiazione incidente e atomi di Ag creati è diretta; un'altra in cui la creazione di nuovi atomi aggiunge poco all'immagine latente; infine una in cui si ha saturazione della pellicola con le conseguenze che conosciamo . Al contrario, la risposta dei sensori digitali è, per loro natura, pressochè lineare, il che significa che presentano una sensibilità maggiore alla radiazione incidente, rispetto alla pellicola. Il contro è che hanno poca tolleranza in prossimità della soglia di saturazione, motivo per cui tendono ad avere meno gamma dinamica e a gestire peggio le scene con forte contrasto. Per ovviare a questo incinveniente, si cerca di rendere, artificialmente, la risposta dei sensori, più simile a quella della pellicola con i vari algoritmi di HDR per cui si inventano i nomi più fantasiosi. Questo semplicemente per dire che, anche con la pellicola, non è sufficiente che un raggio colpisca un "grano" fotorecettore ma, ancora più che con i sensori digitali, è necessario che il processo si ripeta più volte.
5) detto ciò, concludo che non sono l'unico che devi convincere del fatto che la luce che colpisce la pellicola viene assorbita per intero e non ci sono dispersioni, ma anche kodak, agfa, ilford, fujifilm e chi per essi, dato che sono soliti mettere, sia nelle pellicole in b/n che in quelle a colori, uno strato di materiale antiriflettente sul fondo della pellicola, proprio per evitare le interferenze dei raggi che, attraversando tutto il materiale fotoassorbente, raggiungono il fondo e tornano indietro.
6) A queste considerazioni, aggiungo il brevetto di un sistema di scansione digitale e relativa maschera per compensare il light fall off di una pellicola fotografica. Isole o bombe, il problema esiste lo stesso e non è l'unico. Come ho già detto, in un sensore digitale, la componente aggiuntiva è quella relativa al pixel vignetting anche se le stesse misure di dxomark, che continuo a mettere in discussione a livello quantitativo ma che, dal punto di vista qualitativo, mettono in evidenza un fenomeno reale, dimostrano che i progressi fatti nella progettazione delle microlenti dei sensori digitali hanno permesso, nel tempo, di ridurre l'incidenza di questo fenomeno, pur diminuendo notevolmente le dimensioni dei pixel.
Concludendo, anch'io sono dell'idea che rimarremo ognuno sulle sue posizioni; comunque mi ha fatto piacere fare questa chiacchierata che reputo interessante e istruttiva

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Guarda capisco benissimo il tuo discorso, però non capisco di contro cosa interessi a noi di fare considerazioni su fenomeni che incrementano il rumore, visto che l'argomento in topic riguarda una caduta di esposizione e l'abbiamo già allargato abbastanza.. Non che non sia piacevole andare a spulciare tutto aggiungendo il crosstalk e le guide nel pixel, ma mi preoccupa visto quanto stiamo scrivendo.. Anzi, direi che sull'argomento principale le conclusioni le abbiamo già tratte e da parte mia direi che basta.
semplicemente perchè il problema illustrato dal link che avete postato riguarda principalmente il crosstalk e i modi per combatterlo.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Infatti speravo di aver chiarito che non ho mai detto che sia la causa del fenomeno, altrimenti non avrei sottolineato più volte il fatto che la superfice fotosensibile dei sensori attuali non coincide interamente col pixel (più o meno a seconda delle tecnologie, ma sempre sostanzialmente inferiore) e ciò lo definiscono col fill-factor. E proprio per questo motivo servono le microlenti (tecnologia che abbiamo detto viene affinata con le generazioni negli anni) che però risulta pure ABBIANO LIMITI a convogliare i raggi più inclinati sull'area sensibile del pixel (quindi da una parte vengono affinate dall'altra il pixel pitch riducendosi peggiora il tutto con gli FSI).
su questo pare abbiamo raggiunto un accordo. Il discorso andrebbe integrato con considerazioni che spaziano anche sugli algoritmi di ricostruzione del segnale, molto più sofisticati e tali da permettere di ottenere, su un sensore di oggi, molto più affollato di uno di uno di qualche anno fa, un'immagine migliore nonostante il SNR per pixel non sia affatto migliorato

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Infatti ne abbiamo parlato perché era concorde con la tendenza dei dati di DxO al ridursi del pixel pitch.
i dati di dxomark sono stati ottenuti con un procedimento molto poco scientifico e porta a conclusioni sballate proprio perchè fa una comparazione tra sensori di tipo diverso, progettati in periodi differennti con tecnologie diverse, Se prendessimo per buone quelle conclusioni, in maniera del tutto acritica e decontestualizzando i singoli risultati, arriveremmo a concludere che ccd con pixel pitch maggiore si comportano peggio di cmos fsi con pixel pitch che è quasi la metà. La mia critica era rivolta anche a questo aspetto.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Allora era stata un'ipotesi basata sulle richieste di lettura veloce del liveview e che mi sembrò sensata per i CCD delle reflex ovviamente dato che nessuna con questa tecnologia l'aveva mai implementato. Comunque sperando che non finiremo , se t'interessa nello specifico, ti cito quel pezzetto che è vecchio di un anno:

Mi era solo rimasto impresso, ma chissene, se hai i dati e puoi confermare che i CCD delle reflex sono basati su tecnologia full-frame-transfer mi fido: se citi qualcosa correggerò quello che credevo di avere imparato da te, tutto qui..
hai ragione; ho riguardato il data sheet del sensore della d200 ed è un interleaved data transfer con alternate righe di elementi fotosensibili e registri e 4 canali di lettura, uno dedicato al rosso, uno al blu e 2 al verde, mentre quello della d80 ha un canale di lettura dedicato al verde e uno alternativamente al blu e al rosso. nvece sono di tipo full frame quelli delle medio formato (ma pure quelli necessitano di microlenti). Di conseguenza, anche la superficie dei ccd della comparativa non sfruttano l'intera superficie fotosensibile (anche se, rispetto ai cmos fsi, hanno, quindi, il solo vantaggio di non avere altri circuiti al di sopra del fotodiodo.

Ultima modifica di yossarian : 10-01-2012 alle 14:36.
yossarian è offline   Rispondi citando il messaggio o parte di esso