View Single Post
Old 05-01-2012, 16:10   #58
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
infatti, con l'analogico, avveniva lo stesso ma non era possibile rendersene conto e nessuno si è mai lamentato
Io sbaglio a dare come dato di fatto le conclusioni di DxO: anche se dalla letteratura il fenomeno viene confermato, hai ragione a dire che quelle misure non spiegano quale sia il suo peso. Ma anche te dai come dato di fatto (e su questo basi la tua giustificazione dell'aumento nascosto di esposizione ) su qualcosa di cui non hai nessuna prova, senza contare il fatto che per come è fatta la pellicola la ritengo basata su presupposti errati.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
non cambia un bel niente; la pellicola non ha i pixel ma ha una superficie granulare e tra un grano e l'altro c'è un mezzo non fotoassorbente e, quindi, del tutto inutile ai fini della cattura della luce; in più, la pellicola non ha neppure le microlenti. Ad essere pignoli sta messa pure peggio
Ma anche no.. Peccato, infatti, che i grani siano dipersi in uno strato relativamente spesso (rispetto allo strato assorbitore di un fotosito e persino senza ombra di dubbio più trasparente degli strati dielettrici e non, che coprono il fotosito) e soprattutto non abbiano i vincoli alla diffusione della radiazione che dà invece un monostrato di pixel con apertura geometricamente limitata non solo come superficie ma anche in profondità.
La pellicola non ha le microlenti perché NON NE HA BISOGNO: infatti nessuno si è mai posto il problema semplicemente perché non ne aumenterebbero l'efficienza per nulla, dato che si comporta a prescindere dai grani come un continuo: la radiazione nel suo cammino incontra COMUNQUE SEMPRE UN GRANO a causa della disposizione tridimensionale casuale di questi! Il punto è che barriere geometriche a livello della superficie sensibile che possano creare fenomeni di vignetting dovuti al pixel non ce ne sono proprio nella pellicola (detto in altri termini il fill-factor è 100%)! Come dici te le microlenti sono la soluzione (e come si legge indietro non ho mai detto il contrario solo che hanno dei limiti) a difetti e limiti nei pixel dei sensori attuali (che avranno tanti vantaggi ma non credo siano perfetti e mi sembra sciocco idealizzarli oltre i loro limiti).

Quote:
Originariamente inviato da yossarian Guarda i messaggi
l'aps-c non sposta di una virgola le mie considerazioni che sono basate sul rapporto tra la QE del singolo pixel e la caduta di luce misurata da dxomark. Ripeto il concetto: a parità di tecnologia di sensori e microlenti, tra una d3 e una d300 c'è un rapporto di QE pari a 3:1.
E invece sì, te lo ripeto non stiamo parlando di supposizioni in questo caso, ma di PROFILI NOTI E MISURATI: lo ripeto prova ad applicare il tuo ragionamento ai profili di vignettatura misurati da DxO per le FF nelle prove sulle lenti. Il tuo discorso sulla QE non incide sulla vignettatura semplicemente perché TUTTI i pixel sono più sensibili (tanto quelli centrali quanto quelli marginali) quindi il rapporto 3:1 incidera sicuramente sul SNR a parità di ISO (infatti nessuno ha mai detto che la D3 è più rumorosa della D300), ma in proprorzione resta il fatto che il sensore più largo subirà maggiormente la vignettatura (sia fisiologica, che dovuta a pixel vignetting dato che i suoi pixel marginali sono molto più off-axis di una APS). Quindi lo ripeto ancora, la tua spiegazione che considera solo la vignettatura va contro la dispersione (dall'alto a destra al basso a sinistra) dei dati raccolti. In ogni caso mi hai sicuramente convinto sul fatto che possa in parte avere un peso anche lei anche se lo considero ridotto.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
il fatto che il tuo ragionamento fosse riferito all'aps-c (aps sono tutti i formati di cmos attuali, pochè sta active pixel sensor, quindi vale per i c, hli h e i ff )
Dai mi perdonerai l'omonimia.. APS-C era un formato di pellicola, benché sia passato nel dire comune (grazie alle imprecisione pure della stampa) riferirsi a quello per i formati ridotti del digitale, nessuno di questi (Nikon-Pentax-Sony 1,5x; Canon 1,6x; Sigma 1,7x) ricalca le stesse misure, quindi per tagliare la testa al toro personalmente preferisco chiamarli indistintamente formati APS (assieme al pochissimo comune Canon 1,3x) per distinguerli dal 24x36.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
DPS sta semplicemente per digital pixel sensor (oovero fa riferimento a tutti i tipi di sensore digitale) ma, nell'articolo, fa riferimento a cmos con 4 layer di tipo metallico, usati per le interconnessioni e come parziale guida d'onda
Guarda per me va bene usare anche la tua catalogazione, però nelle pubblicazioni più recenti fanno la distinzione fra:
  • PPS (i più semplici, passivi, che non considereremo ovviamente),
  • APS (minore frazione di pixel libera rispetto ai precedenti e ai CCD, ma competitivi con questi per altri vantaggi e possono avere diverso numero di transistori integrati),
  • DPS (come dice il nome si distingue dal precedente per la conversione A/D direttamente sul pixel, quindi non mi sembra la tua stessa accezione, dato che mi pare ovvio aggiungano un ulteriore livello di complessità nell'integrazione e perciò si riduce ancora la frazione di pixel libera cioè il fill-factor)
Ovviamente questo è detto molto a grandi linee, perché mi ero documentato ovviamente solo fino ad un certo punto senza entrare troppo nello specifico (ma almeno così cerchiamo d'intenderci e se vuoi aggiungere altro ti ascolto perché comunque capisco tranquillamente ).
L'articolo che ti ho citato, mantiene questa distinzione, quindi non sono SOLO 4 strati per fare la guida d'onda, ma se leggi la parte sul DPS vedi che i pixel a blocchi di 4 condividono pure l'ADC che riduce (e rende anche asimmetriche) le misurazioni finali. Con ciò vogliono dimostrare,come fanno espressamente notare, che l'aumento d'integrazione complica i problemi di cui stiamo parlando (on-axis e off-axis). Tanto che nelle conclusioni, oltre a consigliare un compromesso verso la minore complessità nell'integrazione, suggeriscono la possibilità di uso per le microlenti, invece del biossido di silicio (compatibile coi processi litografici e perciò a basso costo) di materiali polimerici per superare i limiti di concentrazione di cui abbiamo già parlato.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
veramente l'articolo dice un'altra cosa: mette in relazione l'apertura delle microlenti e quella dell'ottica al variare delle dimensioni dei pixel del sensore e dice che al diminuire di queste dimensioni, per compensare la diminuzione di concentrazione di luce sulla superficie del singolo pixel è necessario adottare microlenti con aperture numeriche inferiori ma questo porta come conseguenza che deve diminuire anche la lunghezza focale, cosa che, di fatto, non avviene, poichè le operazioni di scaling difficilmente coinvolgono la struttura verticale del sensore (sicuramente non la coinvolgono nella stessa misura di quelle orizzontali). Questo significa che hai pixel più piccoli ma con la stessa lunghezza focale o che, comunque,il rapporto tra dimensioni del pixel e lunghezza focale diminuisce; adottare microlenti con apertura inferiore provoca, in queste situazioni, il fenomeno del crosstalk ottico tra pixel contigui.
L'articolo parla di molte cose, ma sulla parte che ci interessa (paragrafo 3 e sottolineo non parla di crosstalk) ci sono pochi dubbi visto che te l'ho citato e chiunque può leggere le conclusioni che trae sui due problemi..

Col discorso che fai, in pratica, stai confermando quello che ho detto finora: ovvero che allo scalare del pixel pitch verso il basso (più Mpx), la NA della microlente a causa di limitazioni tecniche diminuisce e può non riuscire a stare dietro all'angolo di accettanza della pupilla di uscita dell'obiettivo. Di conseguenza stai confermando, proprio tu, che il f# (o diaframma che dir si voglia) dell'obiettivo viene limitato a livello di ogni pixel (d'altronde, lo ripeto, non ci sono dubbi su questo fenomeno in letteratura).

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Per i ccd e i cmos BSI questo non vale per il semplice motivo che non esiste un canale tra superifice del sensore e parte fotosensibile, poichè la parte fotosensibile è posta al di sopra dei circuiti elettronici. Le conseguenze sono che ccd e cmos BSI hanno una OE notevolmente superiore ai cmos FSI a parità di dimensioni, ma non c'è modo di evitare il fenomeno del crosstalk ottico. Lo stesso succede con i sensori x3 di foveon.
1) Non metto in dubbio che possano esserci configurazioni con più o meno frazione di pixel libera (fill-factor), anzi ti ho proprio citatato l'articolo [19] che parlava di come incide l'integrazione sul problema, però resta che le microlenti devono comunque correggere quel problema e secondo gli articoli hanno dei limiti di NA massima (come alla fine del discorso precedente hai affermato pure tu).
2) A quanto mi risulta sui sensori "grandi" (cioè quelli di fotocamere a lenti intercambiabili), non c'è ancora alcun BSI e non mi sembra che prevedano di impiegarli a breve per una serie di ragioni che per ora li rendono più appetibili sui sensori "piccoli" di cellulari e compatte. Quando ci saranno (o anche solo appena testeranno le sigma con X3) vedremo quanto cambieranno le analisi di DxO. Per i CCD i dati ci sono, anche se non sappiamo né OE delle microlenti né fill-factor dei CCD delle fotocamere di cui abbiamo parlato. Tuttavia su tal discorso, la risposta me la servi proprio te quando enumeri le tipologie in ordine di velocità inverso all'occlusione:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Prendi un ccd full frame transfer, di sicuro non ha la stessa OE di un frame transfer o di un interline transfer. Nel primo caso, la porzione di superficie non occupata da elementi fotosensibili e decisamente piccola in percentuale rispetto alla superficie totale.
Bene, ora visto che lo sai.. Retoricamente non ricordo, ma dimmi un po' quale di queste 3 tipologie usavano per quelle reflex del grafico (o le reflex in generale)??
Bene questo spiega e adesso possiamo intuire perché non fanno molto meglio dei CMOS (questo lo ricordo perché una volta me lo hai fatto notare proprio tu ).

Visto che i due fenomeni che ho citato: cioè "problema di NA della microlente" e "pixel vignetting allontanandosi dall'asse" dici che non affliggono tipologie di sensori diverse dai cmos aps (fsi sott'inteso: bsi me lo risparmi vero fino a che non ne faranno una.. Se no prendiamo pure il sensore organico! ).
Visto che l'altra volta volevo mettere qualcosa di schematico te lo cito ora dato che riguarda un CCD:

Fa le stesse considerazioni ripetute finora e chiarisce meglio a livello ottico quello che sto cercando di dire:
  • l'angolo phi dipende dal diaframma dell'obiettivo come si vede dal grafico e a seconda dell'accettanza della microlente che dipende dalla sua NA viene limitato.
  • l'angolo delta dipende da quanto è fuori asse il pixel e quindi determina il fenomeno AGGIUNTIVO di caduta per i pixel ai bordi che richiede microlenti decentrate.
L'articolo dei laboratori Hitachi riguarda l'ottimizzazione delle microlenti per migliorarne l'efficienza sia per la concentrazione in asse che fuori asse e si riferisce a un generico CCD da 1/3" da 0,4Mpx.
Chelidon è offline   Rispondi citando il messaggio o parte di esso