View Single Post
Old 05-01-2012, 18:18   #60
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Io sbaglio a dare come dato di fatto le conclusioni di DxO: anche se dalla letteratura il fenomeno viene confermato, hai ragione a dire che quelle misure non spiegano quale sia il suo peso. Ma anche te dai come dato di fatto (e su questo basi la tua giustificazione dell'aumento nascosto di esposizione ) su qualcosa di cui non hai nessuna prova, senza contare il fatto che per come è fatta la pellicola la ritengo basata su presupposti errati.



Ma anche no.. Peccato, infatti, che i grani siano dipersi in uno strato relativamente spesso (rispetto allo strato assorbitore di un fotosito e persino senza ombra di dubbio più trasparente degli strati dielettrici e non, che coprono il fotosito) e soprattutto non abbiano i vincoli alla diffusione della radiazione che dà invece un monostrato di pixel con apertura geometricamente limitata non solo come superficie ma anche in profondità.
La pellicola non ha le microlenti perché NON NE HA BISOGNO: infatti nessuno si è mai posto il problema semplicemente perché non ne aumenterebbero l'efficienza per nulla, dato che si comporta a prescindere dai grani come un continuo: la radiazione nel suo cammino incontra COMUNQUE SEMPRE UN GRANO a causa della disposizione tridimensionale casuale di questi! Il punto è che barriere geometriche a livello della superficie sensibile che possano creare fenomeni di vignetting dovuti al pixel non ce ne sono proprio nella pellicola (detto in altri termini il fill-factor è 100%)! Come dici te le microlenti sono la soluzione (e come si legge indietro non ho mai detto il contrario solo che hanno dei limiti) a difetti e limiti nei pixel dei sensori attuali (che avranno tanti vantaggi ma non credo siano perfetti e mi sembra sciocco idealizzarli oltre i loro limiti).
ho unito questi 2 punti eprchè la risposta è unica e riguarda il comportamento della pellicola. Sulla pellicola, i grani sono dispersi e non c'è confinamento in profondità, però la superficie fotosensibile è discreta. In una pellicola, mediamente, ci sono da 12 a 20 (in alcuni casi qualcuno in più) strati sovrapposti di diversa natura e come ultimo strato un antiriflettente. Una radiazione che l'attraversa in diagonale va ad interessare areole delle varie superfici e, in particolare, degli strati fotoassorbenti, sfalsate le une rispetto alle altre, provocando, nella migliore delle ipotesi, errori nella rappresentazione dei colori di una determinata area dell'immagine, nella peggiore delle ipotesi, ossia quando i raggi non colpisconmo materiale fotoassorbente, perdita di informazione, ovvero light fall off, esattamente come avviene nei sensori digitali. La differenza è che la disposizione dei grani fotosensibili sulla pellicola è di tipo random e non simmetrica e questo rende il fenomeno meno evidente per due ragioni: il fatto che una volta innescata la reazione tra luce e sali d'argento si formino degli agglomerati (aumento delle aree "eccitate" a scapito della creazione di aree non fotoensibili più ampie (cosa trascurabile a cattura della luce avvenuta); il fatto che la probabilità che un raggio manchi tutte le superfici fotosensibili è più bassa (ma questo dipende dal tipo di pellicola, in base a cui varia la concentrazione e le dimensioni dei grani). C'è poi un terzo effetto che rende il fenomeno meno "visibile" (nel vero senso della parola) e cioè che l'occhio umano è molto più sensibile a disturbi che seguano un pattern di tipo simmetrico (principio su cui si bassano gli algoritmi di antialising che utilizzano griglie di base di tipo smmetrico per un numero limitato di sample e di tipo random per i restanti. Questo significa solo che la pellicola è meno soggetta al light fall off di un sensore digitale, ma non immune.
Vediamo adesso cme è fatto un sensore. Tu parti dal principio che un raggio luminmoso che entri iin diagonale attraverso una microlente non colpisca un elemento fotosensibile. In realtà le cose non stanno affatto così, a meno che quel raggio non finisca sulla parte superficiale occupata dagli elementi circuitali preposti a funzioni differenti dalla cattura della luce. Ma questo vale solo per i cmos di tipo FSI che hanno, al di sotto della superficie uno strato composto dalle metallizzazioni, disposte sui bordi della superficie del pixel e, sotto questo strato, un tunnel composto da materiali non necessariamente riflettenti, che conduce al fotodiodo. Questo significa che una radiazione diagonale che attraversa la microlente e non colpisce i circuiti in superficie, in mancanza di un tunnel con pareti riflettenti arriva a colpire, comunque, un fotodiodo: quello di uno dei pixel contigui, causando un fenomeno analogo a quello che avvine con la pellicola e che si definisce optical crosstalk e dà origine a errori nella rilevazione dei valori corretti per quel singolo pixel e per quello vicino di cui "si è preso" i fotoni. Il risultato è rumore. Per questo motivo, sui cmos FSI, il tunnel viene schermato in modo da ridurre al minmo il fenomeno del crosstalk. In questo modo, i fotoni che entrano in dagonale e non colpisocono i circuiti superficiali, rimbalzano sulle pareti del tunnel, esattamente come in una fibra ottica, fino ad arrivare al fotodiodo CORRETTO. Sui CCD FF transfer e sui CMOS BSI, invece, la superficie fotoassorbente è sopra agli altri elementi circuitali, il che significa che un raggio che entra in diagonale attraverso la microlente, ha ottime probabilità di colpire il corretto fotodiodo. Ovviamente, queste probabilità sono vicine al 100% se il pixel è di grandi dimensioni e calano al diminuire delle dimensioni del pixel stesso. Nei foveon, che come struttura ricalcano la pellicola, una radiazione diagonale può fare veri disastri, non perchè non colpisce elementi fotosensibili, ma perchè, almeno finora, non è stato possibile realizzare un tunnel schermato tra pixel contigui a causa dell sviluppo in profondità e, quindi il crosstalk ottico è incontrollabile e, con basse luci, quando il SNR è molto basso, questo tipo di disturbo è quello che crea più problemi (questo è il vero motivo per cui questo tipo di tecnologia non ha preso piede).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

E invece sì, te lo ripeto non stiamo parlando di supposizioni in questo caso, ma di PROFILI NOTI E MISURATI: lo ripeto prova ad applicare il tuo ragionamento ai profili di vignettatura misurati da DxO per le FF nelle prove sulle lenti. Il tuo discorso sulla QE non incide sulla vignettatura semplicemente perché TUTTI i pixel sono più sensibili (tanto quelli centrali quanto quelli marginali) quindi il rapporto 3:1 incidera sicuramente sul SNR a parità di ISO (infatti nessuno ha mai detto che la D3 è più rumorosa della D300), ma in proprorzione resta il fatto che il sensore più largo subirà maggiormente la vignettatura (sia fisiologica, che dovuta a pixel vignetting dato che i suoi pixel marginali sono molto più off-axis di una APS). Quindi lo ripeto ancora, la tua spiegazione che considera solo la vignettatura va contro la dispersione (dall'alto a destra al basso a sinistra) dei dati raccolti. In ogni caso mi hai sicuramente convinto sul fatto che possa in parte avere un peso anche lei anche se lo considero ridotto.
non ho fatto supposizioni; ho comparato i profili di vignettatura presi su photozone, per lenti veloci, su FF e aps-c e ho constatato che, solo nei casi peggiori, il rapporto è di 3:1 come avviene con la QE di FF e aps-c a parità di tecnologia e numero di pixel. Questo significa che il light fall off ai bordi può arrivare ad essere fino a 3 volte (nel caso peggiore) superiore su un sensore che ha 3 volte la capacità di catturare luce, mentre,man mano che ci si sposta verso il centro, per quanto ho detto prima, questo rapporto diminuisce, finmo ad invertirsi, a vantaggio dei FF nelle arre centrali.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Dai mi perdonerai l'omonimia.. APS-C era un formato di pellicola, benché sia passato nel dire comune (grazie alle imprecisione pure della stampa) riferirsi a quello per i formati ridotti del digitale, nessuno di questi (Nikon-Pentax-Sony 1,5x; Canon 1,6x; Sigma 1,7x) ricalca le stesse misure, quindi per tagliare la testa al toro personalmente preferisco chiamarli indistintamente formati APS (assieme al pochissimo comune Canon 1,3x) per distinguerli dal 24x36.
ok

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Guarda per me va bene usare anche la tua catalogazione, però nelle pubblicazioni più recenti fanno la distinzione fra:
  • PPS (i più semplici, passivi, che non considereremo ovviamente),
  • APS (minore frazione di pixel libera rispetto ai precedenti e ai CCD, ma competitivi con questi per altri vantaggi e possono avere diverso numero di transistori integrati),
  • DPS (come dice il nome si distingue dal precedente per la conversione A/D direttamente sul pixel, quindi non mi sembra la tua stessa accezione, dato che mi pare ovvio aggiungano un ulteriore livello di complessità nell'integrazione e perciò si riduce ancora la frazione di pixel libera cioè il fill-factor)
Ovviamente questo è detto molto a grandi linee, perché mi ero documentato ovviamente solo fino ad un certo punto senza entrare troppo nello specifico (ma almeno così cerchiamo d'intenderci e se vuoi aggiungere altro ti ascolto perché comunque capisco tranquillamente ).
L'articolo che ti ho citato, mantiene questa distinzione, quindi non sono SOLO 4 strati per fare la guida d'onda, ma se leggi la parte sul DPS vedi che i pixel a blocchi di 4 condividono pure l'ADC che riduce (e rende anche asimmetriche) le misurazioni finali. Con ciò vogliono dimostrare,come fanno espressamente notare, che l'aumento d'integrazione complica i problemi di cui stiamo parlando (on-axis e off-axis). Tanto che nelle conclusioni, oltre a consigliare un compromesso verso la minore complessità nell'integrazione, suggeriscono la possibilità di uso per le microlenti, invece del biossido di silicio (compatibile coi processi litografici e perciò a basso costo) di materiali polimerici per superare i limiti di concentrazione di cui abbiamo già parlato.
guarda, per me possiamo tenere per buona la distinzione tra DPS e APS, anche se, di fatto, i transistor degli aps servono proprio per effettuare operazioni come il controllo di guadagno per pixel o per gruppo di pixel, l'amplificazione e la digitalizzazione. I sensori cmos messi in commercio sin dall'inizio, effettuano tutti la conversione A/D sul sensore stesso. Quelle che cambiano sono le modalità con cui lo fanno. Di solito, il principio è che l'analisi del segnale non si limiti al singolo pixel proprio a causa di tutti i fenomeni che potrebbero indurre in errore. Quindi si analizza il pixel insieme ad un gruppo più o meno numeroso di pixel contigui, per mediare i valori ottenuti per ogni canale. I sistemi più complessi utilizzano addirittura più livelli, partendo da un gruppo di 4 (RGBG) ed estendendo l'analisi ai pixel contigui di ognuno dei 4, per ciascun colore. L?amplificazione del segnale, invece, avvien per singolo pixel. Anche il numero di transistor che controllano il processo di acquisizione dell'immagine non è standard. Ad esempio, sulle macchne fotografiche si usa la configurazione 3T perchè è sufficiente ad acquisire un'immagine statica con una singola esposizione; il problema si ha quando si acquisiscono immagini in movimento: in quel caso, con 3 transistor l'acquisizione avviene per step successivi (rolling shutter) che porta al fenomeno dello skew (quando si muove velocemente la camera in orizzontale, le li'immagine sembra ondeggiare). Le cineprese di fascia alta, utilizzano 5T o 6T come minimo.
Tornando al documento della Stanford, si tratta di un'analisi un po' datata, riferita ad una tecnologia oggi di comune applicazione. Anzi, rispetto a quel documento, in cui si consiglia l'adozione di uno strato riflettente come guida (il 4), oggi si tende ad estendere la guida a tutta la profondità del canale.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
L'articolo parla di molte cose, ma sulla parte che ci interessa (paragrafo 3 e sottolineo non parla di crosstalk) ci sono pochi dubbi visto che te l'ho citato e chiunque può leggere le conclusioni che trae sui due problemi..
But pixels near the edge receive a bundle of rays that would normally pass through the aperture and travel to substrate positions that are
displaced from the pixel floor. These rays would strike the edge of the pixel tunnel or travel to regions within the floor of adjacent pixels. The microlens must redirect these rays so that they travel through the pixel tunnel and reach the photodetector position at the substrate. The loss of light due to the failure to redirect these rays is called pixel vignetting.
Redirection of the rays is achieved by appropriate placement of the microlenses with respect to the pixel
aperture.


questo passo, tratto testualmente dall'articolo in questione, nel punto in grassetto parla proprio del fenomeno del crosstalk ottico, ovvero fotoni che attraversano il substrato in diagonale, raggiungendo il "pavimento", ossia il fondo, dove si trova il fotodiodo, di un pixel adiacente. L'articolo è incentrato proprio sul fatto che AL DIMINUIRE DELLE DIMENSIONI DEI PIXEL, questo fenomeno viene accentuato, in quanto, mentre lo scaling sugli assi x e y (che chiamo l per comodità) avviene esnsa problemi, ben più difficile è ridurre le dmensioni lungo l'asse z , ovvero in profondità. Questo comporta che, ogni volta che si fa scaling, il rapporto tra l/z diminuisce. Questo crea sempre più problemi al corretto indirizzamento della luce che attraversa la microlente con angoli non favorevoli. Attenzione, l'articolo non parla della luce che cade sugli spoazi tra pixel ma delle difficoltà ad indirizzare la luce che cade sul pixel.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Col discorso che fai, in pratica, stai confermando quello che ho detto finora: ovvero che allo scalare del pixel pitch verso il basso (più Mpx), la NA della microlente a causa di limitazioni tecniche diminuisce e può non riuscire a stare dietro all'angolo di accettanza della pupilla di uscita dell'obiettivo. Di conseguenza stai confermando, proprio tu, che il f# (o diaframma che dir si voglia) dell'obiettivo viene limitato a livello di ogni pixel (d'altronde, lo ripeto, non ci sono dubbi su questo fenomeno in letteratura).
attenzione, lo ripeto, le microlenti sono la soluzione. Il problema è lo scaling delle dimensioni dei pixel, soprattutto quando questo avviene al di sotto di certi valori. Ovvio che la microlente deve coprire il pixel e non può prenderne 4 contigui, altrimenti perderebbe ogni utilità. Ovvio che se diminuisco le dimensioni di un pixel diminuiscono anche quelle delle microlenti (è una conseguenza fisiologica). Per questo motivo ho detto che le microlenti gapless vanno in controtendenza, perchè abbracciano anche lo spazio vuoto tra pixel, per cercare di indirizzare anche quella radiazione verso la superficie fotosensibile. Così facendo, sono meno legate all'andamento delle dimensioni lineari dei pixel (anche perchè con le operazioni di scalig diminuiscono anche le distanze tra pixel ma in misura minore di quanto non facciano le dimensioni stesse dei pixe. In tal modo i rapporti tra dimensioni e distanze reciproche diminuiscono, al fine di ridurre disturbi reciproci di tipo elettronico). Ora, il problema è che, anche se le microlenti sono in grado di fare il loro lavoro, non possono, comunque, riuscire a deviare tutta la radiazione in modo che cada perpendicolarmente. E qui sorge il problema dell'indirizzamento lungo il tunnel che le microlenti non possono fare da sole ma devono essere aiutate e, tanto più cala il rapporto l/z tanto più hanno bisogno d'aiuto.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
1) Non metto in dubbio che possano esserci configurazioni con più o meno frazione di pixel libera (fill-factor), anzi ti ho proprio citatato l'articolo [19] che parlava di come incide l'integrazione sul problema, però resta che le microlenti devono comunque correggere quel problema e secondo gli articoli hanno dei limiti di NA massima (come alla fine del discorso precedente hai affermato pure tu).
2) A quanto mi risulta sui sensori "grandi" (cioè quelli di fotocamere a lenti intercambiabili), non c'è ancora alcun BSI e non mi sembra che prevedano di impiegarli a breve per una serie di ragioni che per ora li rendono più appetibili sui sensori "piccoli" di cellulari e compatte. Quando ci saranno (o anche solo appena testeranno le sigma con X3) vedremo quanto cambieranno le analisi di DxO. Per i CCD i dati ci sono, anche se non sappiamo né OE delle microlenti né fill-factor dei CCD delle fotocamere di cui abbiamo parlato. Tuttavia su tal discorso, la risposta me la servi proprio te quando enumeri le tipologie in ordine di velocità inverso all'occlusione:
per il discorso NA delle microlenti vale quello che ho detto sopra. Sui BSI, per ora, i problemi sono 2: sono più fragili a livello costruttivo e con rese inferiori e quindi, per il momento, meno indicati e convenienti per formati grandi; hanno il problema del crosstalk. Un BSI, rispetto ad un FSI ha una OE decisamente superiore ma che, soprattutto in basse luci, viene compensata negativamente (e con gli interessi) dal crsstalk, sopratutto di tipo periferico. Quindi, se vanno bene per formati piccoli, poichè riescono ad avere una OE elevata anche con pixel di piccole dimensioni e impiegati su fotocamere non fatte per lavorare con luci basse, non risultano convenienti su sensori con pixel grandi, di tipo FSI, con tecnologia consolidata, che compensa la minor OE con la quasi totale assenza di optical crosstalking. Degli X3 ho fatto cenno all'inizio. Per quanto riguarda i CCD, io ho i dati di quello della d200 e gli schemi di quelli della d200 e della d80

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Bene, ora visto che lo sai.. Retoricamente non ricordo, ma dimmi un po' quale di queste 3 tipologie usavano per quelle reflex del grafico (o le reflex in generale)??
Bene questo spiega e adesso possiamo intuire perché non fanno molto meglio dei CMOS (questo lo ricordo perché una volta me lo hai fatto notare proprio tu ).
per le reflex full frame transfer, mentre per immagini in movimento si usavano gli interline transfer. Ecco perchè le reflex con CCD non fanno video

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Visto che i due fenomeni che ho citato: cioè "problema di NA della microlente" e "pixel vignetting allontanandosi dall'asse" dici che non affliggono tipologie di sensori diverse dai cmos aps (fsi sott'inteso: bsi me lo risparmi vero fino a che non ne faranno una.. Se no prendiamo pure il sensore organico! ).
Visto che l'altra volta volevo mettere qualcosa di schematico te lo cito ora dato che riguarda un CCD:

Fa le stesse considerazioni ripetute finora e chiarisce meglio a livello ottico quello che sto cercando di dire:
  • l'angolo phi dipende dal diaframma dell'obiettivo come si vede dal grafico e a seconda dell'accettanza della microlente che dipende dalla sua NA viene limitato.
  • l'angolo delta dipende da quanto è fuori asse il pixel e quindi determina il fenomeno AGGIUNTIVO di caduta per i pixel ai bordi che richiede microlenti decentrate.
L'articolo dei laboratori Hitachi riguarda l'ottimizzazione delle microlenti per migliorarne l'efficienza sia per la concentrazione in asse che fuori asse e si riferisce a un generico CCD da 1/3" da 0,4Mpx.
non ho detto che non riguarda i ccd ma che gli articoli citati della Stanford parlavano di cmos fsi e non di altre tipologie di sensori. Il problema degli angoli "storti" esiste con qualsiasi superficie fotoassorbente che non sia continua (ovvero con tutte) . La differenza è che con alcune non si possono prendere contromisure (pellicola), con altre le contromisure sono solo parziali (sensori cmos BSI, CCD FF, X3) con altre, che sono quelle che presentano maggoiri problemi, per fortuna ci sono anche le migliori soluzioni (cmos FSI)
yossarian è offline   Rispondi citando il messaggio o parte di esso