View Single Post
Old 02-01-2012, 23:48   #55
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Avevo cominciato a risponderti all'ultimo ma non avevo postato per impegni, ora vedo che in parte hai modificato l'ultima riga e aggiunto un'intervento quindi pazienta se lo leggerò dopo e troverai in parte risposta anche al secondo.
Esistono anche gli esposimetri esterni, che era quello che usava eurostar nella prova pellicola-sensore che si è persa nei meandri di quella discusssione. Sulla pellicola l'unica "caduta" è quella dovuta alla vignettatura "fisiologica" dell'obiettivo, solo il pixel con la sovrastruttura non esposta determina gli altri due fenomeni descritti nelle pubblicazioni.
Il primo colpisce tutti i pixel ed è il "limite di apertura numerica" cioè il fatto che l'apertura del pixel non sta dietro a quello che gli arriva dalla lente (cioè il colpevole di DxO) cito la pubblicazione:

Quindi è un problema esasperato dalla porzione superficiale coperta dalla circuiteria e dalla profondità dello strato fotosensibile. La prima richiede maggiore concentrazione alla microlente e pone un vincolo sull'apertura della stessa, la seconda pone un vincolo sulla focale della microlente, di conseguenza la sua apertura numerica (tradotto per tutti è il diaframma o f-stop della microlente, anche se non sono propriamente la stessa cosa) ha un LIMITE TECNICO imposto da quei due fattori geometrici.
Il secondo colpisce i pixel periferici ed è il "pixel vignetting" cioè riorientare i raggi via via che ci si allontana dall'asse centrale, (un pixel sul bordo ha il paraocchi: analogamente a quanto succede con la lente per la luce che arriva dalle estremità che trova il barilotto e più vetro e perciò crea la vignettatura) e questo si somma al profilo di vignettatura fisiologica della lente; che questa aumenti sui sensori digitali è cosa già nota da tempo. Questa è sempre stata considerata la funzione principale delle microlenti perchè come ammettono nell'articolo sul primo problema sono vincolati (e suggeriscono infatti che nell'ideazione di sensori per immagini si privilegi una progettazione semplificata della circuiteria per contenere il problema).

In parole povere alzano bandiera bianca sul risolvere il primo problema e si occupano più che altro del secondo, che è quello che consideri sempre anche te. MA QUESTO NON VUOL DIRE che il primo problema smette di esistere semplicemente perché non ci sono sforzi per compensarlo più di tanto con le microlenti, SOLO che c'è un limite tecnologico noto nelle tecnica delle microlenti.
veramente l'articolo dice un'altra cosa: mette in relazione l'apertura delle microlenti e quella dell'ottica al variare delle dimensioni dei pixel del sensore e dice che al diminuire di queste dimensioni, per compensare la diminuzione di concentrazione di luce sulla superficie del singolo pixel è necessario adottare microlenti con aperture numeriche inferiori ma questo porta come conseguenza che deve diminuire anche la lunghezza focale, cosa che, di fatto, non avviene, poichè le operazioni di scaling difficilmente coinvolgono la struttura verticale del sensore (sicuramente non la coinvolgono nella stessa misura di quelle orizzontali). Questo significa che hai pixel più piccoli ma con la stessa lunghezza focale o che, comunque,il rapporto tra dimensioni del pixel e lunghezza focale diminuisce; adottare microlenti con apertura inferiore provoca, in queste situazioni, il fenomeno del crosstalk ottico tra pixel contigui. Per evitare che ciò accada, piuttosto che focalizzare gli sforzi sulla riduzione dell'apertura numerica delle microlenti, si cerca di ridurre il fenomeno del crosstalk attraverso barriere (che si comportano allo stesso idenico modo delle pareti di una fibra ottica) poste lungo le pareti del canale che dalla superficie del pixel porta al fotodiodo. Tutta questa menata, però, è riferita solo ed esclusivamente, ai cmos aps con tecnologia FSI. Per i ccd e i cmos BSI questo non vale per il semplice motivo che non esiste un canale tra superifice del sensore e parte fotosensibile, poichè la parte fotosensibile è posta al di sopra dei circuiti elettronici. Le conseguenze sono che ccd e cmos BSI hanno una OE notevolmente superiore ai cmos FSI a parità di dimensioni, ma non c'è modo di evitare il fenomeno del crosstalk ottico. Lo stesso succede con i sensori x3 di foveon.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
No, aspetta il mezzo stop è contato (ripeto con approssimazioni che sovrastimano MOLTO) solo per una vignettatura su APS, su FF la vignettatura agli estremi raddoppia circa o più (vedi profili misurati da DxO per es. e prova ora a far tornare i tuoi ragionamenti! Ammiro l'impegno ma pure stavolta ti sei dimenticato dell'area: è un fenomeno che pesa di più quanto più ci si allontana dall'asse quindi sono peggio i sensori grandi). Quindi il paradosso è che la tua teoria coi miei conti alla carlona, direbbe che sulle FF la caduta dovrebbe essere addirittura superiore al misurato (riprova che sto sovrastimando molto l'effetto) mentre sulle APS molto inferiore al misurato (riprova che non è quello il fenomeno che spiega le differenze del grafico altrimenti la distribuzione sarebbe specchiata dall'altra parte con le FF in basso). L'unica conclusione del mio esempio è che sovrastimiamo MOLTO l'effetto della vignettatura sull'esposizione complessiva.
Invece la tendenza è concorde con la riduzione del pixel, così come previsto per il primo difetto quindi non vedo perché dovrei pensare a un fenomeno secondario (vignettatura) che non tiene conto di quell'andamento. A maggior ragione, poi, se c'è un aggravio della vignettatura col pixel vignetting, allora significa dare un peso ancora maggiore al primo difetto (che si arrendono perfino dal correggere a differenza dell'altro!) dato che hanno la medesima genesi.
il fatto che il tuo ragionamento fosse riferito all'aps-c (aps sono tutti i formati di cmos attuali, pochè sta active pixel sensor, quindi vale per i c, hli h e i ff ) non sposta di una virgola le mie considerazioni che sono basate sul rapporto tra la QE del singolo pixel e la caduta di luce misurata da dxomark. Ripeto il concetto: a parità di tecnologia di sensori e microlenti, tra una d3 e una d300 c'è un rapporto di QE pari a 3:1. Se consideriamo solo la vignettatura fisica (ma non è l'unico fattore) sarebbe necessaria una perdita di luce 3 volte superiore sui bordi di una FF per far registrare gli stessi valori da dxomark e spingere allo stesso livello di livello di compensazione una FF .

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ovviamente non è solo la riduzione (pixel pitch) che influisce, ma anche questo è concorde col fatto che, come spiegato nell'articolo, dipende dalla tecnologia di produzione e dal progetto della microlente. Sicuramente sono state affinate diversamente negli anni (quante volte abbiamo sentito parlare di nuove lenti gapless o altri affinamenti come quelli a cui ti riferisci appunto), ciò può spiegare perché un modello più vecchio o di gamma inferiore a parità di pitch possa fare peggio.
le microlenti gapless vanno proprio in direzione contraria alla riduzione dell'apertura numerica al diminuire delle dimensioni. O meglio, al diminuire delle dimensioni, invece di ridurre proporzionalmente l'apertura numerica con la conseguenza di lasciare aree del sensore non coperte da microlenti, si preferisce coprire l'intera superficie del sensore e, a livello di canali interni, guidare la luce sul fotodiodo per evitare il crosstalk. IN seguito sarà chiaro perchè ho tirato in ballo i CCD.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ma non hai guardato attentamente l'analisi di DxO? Certo che l'avrebbe superato è analogo al grafico dopo, la caduta a f/1.4 è solo ovviamente proporzionalmente minore a quella a f/1.2 però se osservi i grafici sono perfettamente IDENTICI come dispersione dei dati! Lì le Nikon guardacaso danno i risultati che prevedevamo cioè le più vecchie o quelle di fascia bassa (microlenti meno affinate: l'hai appena fatto pure te il discorso ) fanno peggio nonostante il pixel pitch.
http://www.dxomark.com/itext/insights_tstop/Tstop1.jpg
Mi ricollego a questo, lo so che dicevi d200/d80 probabilmente a parità di sensore sul modello top gamma all'epoca mettevano microlenti migliori e invece dopo con d300/d90/d300s erano rientrati e non valeva più la pena differenziare. Tra 30D e 20D c'è un po' di differenza, ma tra 20D e la 350D di fascia bassa ma uscita quasi in contemporanea NO, magari quando hanno sostituito il modello x0D 18 mesi dopo avevano affinato le microlenti nel processo produttivo (costerà sicuramente meno cambiare l'ultimo piuttosto che riprogettare tutti i processi litografici del sensore). Lo stesso si può dire per altri casi: fra 7D e 550D (18Mpx) c'è differenza (come tra 20D e 30D) e pure lì quella della generazione dopo fa meglio, ma ad esempio fra 50D e 500D (15Mpx) NO, un altro caso esmplare che non muta è D40X/D60 (10Mpx) che sono praticamente la stessa macchina (con la D80 attaccata pure), così come D50/D70/D40 (6Mpx). Anche k20d e k-7 hanno lo stesso identico sensore a sentito comune, peccato che uno può fare i video e l'altro no quindi NON è sicuramente lo stesso identico sensore! Certo non è come passare dal bianco al nero, esistono i toni di grigio: non avranno riprogettato tutto ma qualcosa ogni tanto affinano.
li ho guardati molto bene, anzi ho fatto di più; li ho confrontati con i grafici relativi al rumore
Un sensore identico ad un altro, con microlenti migliori, a parità di iso, fa segnare SNR più elevati a causa della maggior OE e del miglior contenimento del crosstalk (nel caso dei cmos FSI). Invece, prendendo le stesse misurazioni di dxolabs, questo non avviene; in alcuni casi il comportamento è identico, in altri, addirittura, venno meglio quelli che fanno registrare cadute di luce più elevate. Scusa tanto, ma i conti non tornanno affatto .
In quanto alla tipologia dei sensori, quello della d200 e quello della d80 differiscono solo leggerissimamente a livello di dimensioni lineari, pur conservando la stessa area e le stesse dimensioni dei singoli pixel, in quanto la d200 ha 4 readout channel contro i 2 della d80. Tra 20d e 30d il sensore è lo stesso, mentre è leggermente differente quello della 350d. Il fatto che la k7 faccia i video e la k20 no non ha alcun significato: in una fotocamera non è il sensore l'unica componente elettronica presente; prensìdi un pc senza un codec, ad esempio, per il formato AVCHD e poi prendine uno identico dotato del codec necessario. L'hardware è lo stesso, le funzionalità no
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
D'altronde come fai ad essere sicuro di cosa facciano nella produzione e che mantengano sempre lo stesso protocollo dall'inizio alla fine in tutti i casi simili? Di sicuro non vengono a dircelo a noi! Perfino quando riutilizzano lo stesso sensore (Sony) su più fotocamere a distanza di 6 mesi o un anno, a me vengono seri e fondati dubbi non possa essere stato affinato qualcosa, visto come a volte cambia la QI.
non necessariamente a livello hardware. Due sensori identici con identiche microlenti, identico filtro antimoire e, per giunta, stesso processore, non implicano la stessa QI. Questo può dirtelo chiunque abbia qualche nozione di elettronica digitale. Se, ad esempio, traslo verso sinistra il valore di offset della dark current, ottengo una riduzione della relativa componente di rumore, con la conseguenza che il sistema tende a "piallare" tutti i dettagli fini anche sui file RAW. Il tutto viene fatto semplicemnete impostando valori di offset differenti a livello software

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Riguardo le tipologie di CMOS, visto che so trovi interessanti queste cose, in un'altro della bibliografia [19] del 2000 (citato nel nostro di riferimento trovato da Mercuri0), fa proprio un paragone fra tecnologia APS e DPS per mostrare come l'aggiunta complessità riduce la OE. Ti ho tenuto per ultimo il discorso CCD, perché l'articolo a cui ci riferiamo è sui CMOS e ovviamente si riferisce a quelli, ma nel [13] della bibliografia ad esempio che è uno studio sul calcolo della OE, accenna che è un problema generale.
l'articolo che hai linkato fa un paragone tra cmos a 2 layer e cmos a 4 layer. APS sta per active pixel sensor ed è contrapposto a PPS, ovvero la tipologia di sensori con tecnologia mos di tipo passivo inizialmente messi sul mercato, estremamente economici, che si basavano su un principio di funzionamento analogo a quello dei ccd avendo una OE ed una QE decisamente inferiori. Gli aps hanno circuiti di ampificazione, lettura dei valori di soglia per ogni pixel e digitalizzazione sul sensore. DPS sta semplicemente per digital pixel sensor (oovero fa riferimento a tutti i tipi di sensore digitale) ma, nell'articolo, fa riferimento a cmos con 4 layer di tipo metallico, usati per le interconnessioni e come parziale guida d'onda della radiazione all'interno del tunnel tra superficie del sensore e fotodiodo, ovvero quello di cui parlavo prima; nello specifico si usa una barriera di tipo metallico perchè risulta più efficiente di una basata sulle riflessioni indotte da materiali con differenti indici di rifrazione e, a dirla tutta, oggi l'estensione di questa barriera arriva ben oltre lo spessore del layer n°4 indicato nell'articolo linkato, arrivando fin quasi al livello del fotodiodo. Tra l'altro, tra le soluzioni proposte per ridurre il pixel vignetting, alla fine dello stesso articolo, c'è proprio l'adozione di microlenti (ripeto: sono lka soluzione e non il problema).
p.s. non è che i cmos mi piacciono tanto. Personalmente non li trovo particolarmente attraenti; il fatto è che fanno parte del mio lavoro, quindi, comunque, devo averci a che fare, anche non volendo

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Non ci voleva molto a intuirlo, visto che anche nei CCD la parte sensibile non occupa comunque tutta la superficie del pixel
"tutta no, ma buona parte si" . Prendi un ccd full frame transfer, di sicuro non ha la stessa OE di un frame transfer o di un interline transfer. Nel primo caso, la porzione di superficie non occupata da elementi fotosensibili e decisamente piccola in percentuale rispetto alla superficie totale.
Quote:
Originariamente inviato da Chelidon Guarda i messaggi

tra l'altro è questo che distingue i sensori dalla pellicola,
neppure la superficie della pellicola è completamente fotoassorbente, anzi. Il numero di fotorecettori non è infinito e non rappresentano un continuum, il che significa che buona parte della radiazione incidente non viene catturata dalla superficie e gli errori imputabili a raggi non perpendicolari alla superficie compaionjo allo stesso modo di quanto avviene con il crosstalk ottica nei sensori digitali. La perdita di luce con la pellicola, di conseguenza, non si limita al solo vignetting fisico, imputabile alla geometria della lente.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

là non hai questi problemi perché non hai microlenti con la loro NA anche perché comunque le microlenti ce le hanno pure loro proprio per migliorare l'efficienza, come può indovinare chiunque. Io sta cosa è dall'inizio che la ripeto, anche se LL l'ha fatta passare in secondo piano (essendo stati i primi contattati da DxO avevano visto solo i primi dati delle Canon) e addirittura su pentaxiani mi pare questo pensiero distorto stia sfociando nella leggenda che le vecchie col CCD ne siano immuni.. Quando dico che le prove sono più affidabili se fatte da laboratori c'è un motivo..
continui a partire dall'assunto che le microlenti siano il problema, mentre invece sono la soluzione. La pellicola si comporta ben peggio dei sensori digitali nei confronti del rumore, presenta una superficie fotoasorbente NON CONTINUA (benchè si definisca analogico) e non può essere dotata di microlenti (che sono un vantaggio per una superficie fotoassorbente non continua e non una svantaggio).
In quanto alle prove, andrebbero fatte in laboratorio, ma sapendo cosa si va a misurare, cosa che spesso non avviene (e mi riferisco anche alle prove fatte con dxomark)

Ultima modifica di yossarian : 03-01-2012 alle 02:57.
yossarian è offline   Rispondi citando il messaggio o parte di esso