PDA

View Full Version : Ottiche Luminose inutili sul digitale?!


Chelidon
09-03-2011, 13:44
Premetto che, nonostante abbia usato un titolo provocatorio per stimolare il dibattito, :D sono molto scettico :rolleyes: io per primo sull'argomento di cui sto per chiedere un'opinione spassionata, ma veniamo al dunque.

Prendo spunto da una discussione che, anche se passata all'inizio un po' in sordina su pentaxiani, può fare molto scalpore e interessa tutti i marchi e che consiglio di leggere :read: (http://www.pentaxiani.it/forum/viewtopic.php?f=13&t=33189&hilit=pentax+non+inganna+i+clienti#p460347) (magari lasciando correre sugli ovvi campanilismi, :p come la connotazione leggendaria con cui là si spiega addirittura perché il marchio abbia progettato varie ottiche con apertura 2.4 quando poteva farle più aperte, che mi sembra un po' tirata per i capelli.. :) ).

Tutto nasce da un articolo di Luminous-Landscape (non sono proprio degli sprovveduti (http://www.luminous-landscape.com/about/critic.shtml), per chi non li conoscesse è una webzine piuttosto professionale che tratta principalmente di medioformato e fascia alta e che prospera vendendo molte guide e corsi avanzati), questo a sua volta cita e fa riferimento a misure sperimentali degli altrettanto celebri DxOlabs (http://www.dxomark.com/index.php/About/DxO-Labs-DxOMark-s-sponsor) (quelli del controverso DxOmark per intenderci e che sviluppano il noto programma per RAW (http://www.dxo.com/intl/photo)).

Il punto della questione è che risulterebbe provato sperimentalmente (dalle analisi di Dxo (http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues)) che le ottiche luminose (per dare un'idea: il comportamento sarebbe presente solo da f/2 a salire) sui sensori digitali in realtà subirebbero una perdita di luminosità proporzionale all'aumentare dell'apertura.
Detto in parole povere, un'ottica f/1.2 in realtà si comporterebbe come se fosse più chiusa dell'apertura nominale fino a perdere 1 stop nei casi peggiori (quindi come fosse invece un f/1.8) e in maniera simile gli f/1.4 perderebbero 2/3 di stop e così via. L'articolo si spinge oltre, affermando che i produttori stessi sono sempre stati consapevoli del problema rispetto alla pellicola, tant'è che nessuno normalmente si accorge della sottoesposizione, perché le fotocamere sono programmate per compensare questa caduta fisiologica, alzando celatamente e all'insaputa dell'utente il valore ISO nel caso si utilizzino aperture da f/2 compreso in su; riporto per semplicità di spiegazione il grafico dei guadagni di compensazione accertati da Dxo su 4 macchine prese in esame:
http://www.dxomark.com/itext/insights_tstop/Tstop3.jpg

Avrete notato che prima ho usato l'espressione "l'ottica si comporta come se fosse" questo perché, al termine dell'articolo di DxO, s'ipotizza che il fenomeno sia causato da una perdita dei raggi più obliqui, che a priori arriverebbero con una data apertura. Detto in parole povere, è come se l'elemento sensibile sul sensore avesse un paraocchi e perciò limitasse l'apertura massima effettiva del sistema.
In pratica ciò significa che avrebbe tanto conseguenze sull'esposizione quanto allo stesso modo sulla PdC (quindi è come se effettivamente l'ottica avesse apertura inferiore anche come sfocato, tradotto fotograficamente parlando ;) ).

Nell'articolo di LL (http://www.luminous-landscape.com/essays/an_open_letter_to_the_major_camera_manufacturers.shtml), ci spendono sopra abbastanza considerazioni: sottolineano il fatto che il CMOS (come è abbastanza noto) è costruito in modo da avere al di sopra dell'elemento sensibile la circuiteria e si spingono (secondo me senza essere perfettamente distaccati :confused: ) a giustificare il fatto che le medioformato e le leica usino sensori CCD per questo motivo. Penso in questo esagerino e traggano conclusioni che non sono verificate, tanto che quelli di DxO non parlano affatto di CCD vs. CMOS, anzi nei loro grafici compaiono oltre a molte canon (che come si sa hanno solo CMOS) anche alcune fotocamere nikon (di quelle che montavano CCD) e i risultati sono mediamente simili se non peggiori. Ovviamente nel loro articolo usano toni da chi si sente (comprensibilmente se fosse dimostrato) un po' preso per i fondelli, tanto che hanno chiesto pubblicamente mediante una lettera ufficiale spiegazioni ai maggiori produttori e si lamentano che da fine novembre ancora non hanno ricevuto ancora alcuna risposta su un tema di tal peso. Se volete comprendere meglio il fatto di per sé vi consiglio perciò di leggere prima la pagina dei dati raccolti da DxO (http://www.dxomark.com/index.php/en/Our-publications/DxOMark-Insights/F-stop-blues) che è molto più "asettica" (anticipo per chi non sa l'inglese): commentando i dati, loro si limitano a dare come possibile conclusione, che si dovrebbe considerare con attenzione l'apertura massima pubblicizzata, perché potrebbe nella realtà dipendere dal sensore e non dare tanto quanto ci si aspetta.

ficofico
09-03-2011, 14:14
Avevo già letto l'articolo....immagino come saranno contenti quelli del consorzio m4/3 :D

... il problema secondo me è più accademico che altro.....chi vuole sfocare davvero prende una full frame e il problema è limitato al massimo, chi HA BISOGNO di una aps-c o fà naturalistica o sportiva, e quindi normalmente non và sotto gli f2,8 ( to magari f2 col 200 f2).... chi prende una aps-c di bassa/media gamma non si accorge di nulla e dice wow lo stesso quando scatta a f1,8 ;)

ARARARARARARA
09-03-2011, 18:28
QUOTE:
"Detto in parole povere, è come se l'elemento sensibile sul sensore avesse un paraocchi e perciò limitasse l'apertura massima effettiva del sistema.
In pratica ciò significa che avrebbe tanto conseguenze sull'esposizione quanto allo stesso modo sulla PdC (quindi è come se effettivamente l'ottica avesse apertura inferiore anche come sfocato, tradotto fotograficamente parlando )."


per la luminosità un discorso del genere può aver senso, non sono un ing elettronico quindi non mi esprimo e lo prendo per vero, ma per lo sfocato posso dire che è la cosa più stupida che abbia mai sentito dire? Quelli di DXO hanno mai usato una relfex o sono sempre solo li a giocare con i test? Se faccio una foto a f/1.4 la PDC è nattamente inferiore a quella che ho a f/2 ed è una prova che chiunque può fare e in circa 8 secondi si sfata questa leggenda metropolitana, del resto la fisica è fisica, la PDC diminuisce all'aumentare dell'apertura (e per aumentare si intende come sempre un minor valore di f/)

uncletoma
09-03-2011, 21:08
alzando celatamente e all'insaputa dell'utente il valore ISO nel caso si utilizzino aperture da f/2 compreso in su
Io non so se quanto scritto da LL, basandosi sui dati del (tristemente) noto DxOMark2011, sia vero, ma la teoria del complotto mi perplime assai. Pero' piace molto agli americani.
Vabbe', chiamiamo Mulder e Scully, ci illumineranno loro :D


@ARARARARARARA: LL non dice che la PdC sia uguale a f/1.4 e f/2, bensi' afferma che un'ottica f/1.2 montata su ASP-C si comporta come una f/1.8 su 35mm. E' diverso.

AlexSwitch
10-03-2011, 10:31
Domanda da " semiprofano ": perchè il DxOMark è tristemente noto?

Raghnar-The coWolf-
10-03-2011, 11:13
Io pensavo fosse un articolo a proposito delle sorti mirabolanti e progressive dei 100k ISO :P

E pensare che Voigtlander vende il Nokton 50/0.95 per u4/3! XD

In realtà la verifica è semplice e possiamo farla anche noi:
Se così fosse basta prendere un'ottica vintage F/1.2 o inferiore (ad esempio la versione C mount 20/0.95 da montare su u4/3 se vogliamo esagerare, se no un normale 50/1.2 vintage esempio Nikkor o Pentax montato su Canon).
Dato che non comunica elettronicamente con la macchina, la macchina Canon (con esposimetro TTL) non ha possibilità di sapere se si tratta di un F/1.2 o un F/8 (a meno che non sia montato un secondo esposimetro esterno a nostra insaputa, ma non credo proprio e cmq si può fare un test anche per quello).
E a questo punto basta vedere se per esporre allo stesso modo servono tempi adeguatamente proporzionati agli f-stop del diaframma oppure no (ovviamente entro un certo limite, anche perchè un ottica F/1.2 in realtà sarà verosimilmente un F/1.3 per la trasmittanza dei vetri che non è il 100% ;)).

Se l'effetto è così vistoso si verifica in un lampo.

Qualcuno di voi ha ottiche di questo tipo?

@ARARARARA: se è questione di paraocchi e non raccolta dei raggi obliqui anche la PdC ne risente. E quello sarebbe il modo di verificarlo con ogni lente.
http://www.phme.it/2010/03/occhio-al-cammino/
Se i raggi che arrivano più obliqui non vengono raccolti è A TUTTI GLI EFFETTI come se il diaframma fosse più chiuso.

Più che altro se è questione di raggi obliqui significa che tale effetto è tanto più vistoso quanto più è corta la focale (qualcuno ha un Nikon 24mm F/1.4? :P)

mashiro2004
10-03-2011, 14:04
Se n'era parlato tempo fa sul forum dei pentaxiani e qualcuno aveva fatto le dovute prove e pare proprio che purtroppo sia vero... :cry: :cry:

blade9722
10-03-2011, 18:51
Se impatta anche sulla PdC, la verifica è semplice: basta inquadrare un palo della luce lontano di notte, mettere a fuoco alla minima distanza, misurare il cerchio di confusione e vedere se aumenta con l'aumentare del diaframma.

Chelidon
10-03-2011, 20:05
Avevo già letto l'articolo....immagino come saranno contenti quelli del consorzio m4/3 :D
Questo sarebbe davvero il colmo considerato quanto è stato in questi anni bistrattato il 4/3 nell'opinione comune.. :p

chi vuole sfocare davvero prende una full frame e il problema è limitato al massimo, chi HA BISOGNO di una aps-c o fà naturalistica o sportiva, e quindi normalmente non và sotto gli f2,8 ( to magari f2 col 200 f2).... chi prende una aps-c di bassa/media gamma non si accorge di nulla e dice wow lo stesso quando scatta a f1,8 ;)
Sì, ma il problema non è limitato: invece te lo ritrovi tale e quale anche su FF o qualsiasi altro sensore a quanto pare (e quelli di DxO hanno messo i dati sulle perdite soprattutto di molte FF digitali), anzi se tieni conto di ciò che fai notare cioè che di solito ottiche con quelle aperture si usano prevalentemente accoppiate ai dorsi FF il problema investe sopratutto loro e dovrebbe essere molto meno sentito dall'utenza APS.
Infatti guarda caso perché s'inca@@a gente come quelli di LL: proprio perché magari sono coloro che cercano di più il massimo sfocato e si aspettano l'eccellenza da uno strumento che si possono permettere di acquistare. Magari sono sempre gli stessi che sentono molto più forte il retaggio della pellicola da cui in questi anni in un certo senso li hanno convinti più o meno che valeva la pena di fare la transizione.

Riassumendo il punto sarebbe quello che sia LL che DxO scrivono nelle conclusioni: cioè converrebbe veramente spendere in proporzione veramente tanto per incrementi che potrebbero essere minimi?

O detto con le parole di Luminous-Landscape:
Due to the complexity of design and manufacture (let alone the high cost and weight) of large aperture lenses, one may actually end up with better results at virtually the same ISO and depth of field using lenses with more modest maximum apertures.

Mi scuso se la metafora un po' troppo semplicistica può aver fuorviato: volevo un riassunto e non un trattato tecnico di ottica geometrica.
Quelli di DXO hanno mai usato una relfex o sono sempre solo li a giocare con i test? Se faccio una foto a f/1.4 la PDC è nattamente inferiore a quella che ho a f/2 ed è una prova che chiunque può fare e in circa 8 secondi si sfata questa leggenda metropolitana, del resto la fisica è fisica, la PDC diminuisce all'aumentare dell'apertura (e per aumentare si intende come sempre un minor valore di f/) Proprio perché la fisica è la fisica e le leggi si applicano allo stesso modo, che il discorso vale anche per lo sfocato: in pratica è la stessa cosa che fa il diaframma. Infatti l'ottica in sè nasce a TA ed è quindi capace di far convergere tutti i raggi anche quelli che focalizza dalle parti più distali del centro della lente (che semplificando molto sono responsabili del fatto che vedi lo sfocato), poi via via chiudendo il diaframma ELIMINI i raggi più distali quelli che partendo dall'oggetto fanno i cammini più lunghi (selezioni un cono più ristretto del ventaglio che arriva sulla lente) perciò oltre a perdere proporzionalmente la capacità di raccogliere luce aumenti la PdC. Qualsiasi cosa stia davanti all'elemento sensibile sul sensore (che potrebbe essere circuiteria, tanto quanto una microlente poco efficace per angoli d'incidenza troppo inclinati.. ma SOTTOLINEAMO che la causa NON è nota, per ora pare si abbiano solo dei dati sperimentali che possono far pensare a certe ipotesi) si potrebbe comportare in maniera simile ad un secondo diaframma; tutto lì, quindi la spiegazione di DxOlabs non è tanto campata per aria dal punto di vista fisico.

Capisco che l'argomento possa suscitare delle risposte di sbotto o incredulità e so che è difficile trattenersi un attimino, ma magari prima d'intervenire sarebbe gradito si leggesse e cercasse di comprendere di cosa stanno parlando negli articoli almeno.
Io (lo ripeto) sono il primo a restare tuttora molto scettico, tanto meno tendo mai a dar credito all'esistenza di complotti come uncletoma ;) (tanto che mi pare altrettanto strano che se ne accorgano ora dopo tutto questo tempo che non si usa più prevalentemente la pellicola, anche se pure è vero che è difficile fare questo genere di confronti..), ma preferirei vedere una discussione seria piuttosto che degli interventi d'impeto che poco c'entrano con l'argomento. :)

Domanda da " semiprofano ": perchè il DxOMark è tristemente noto? Perché spaccano il capello in quattro e danno punteggi su cose su cui non è così indispensabile.. :stordita:

Io pensavo fosse un articolo a proposito delle sorti mirabolanti e progressive dei 100k ISO :P Fregato, l'ho intuito anch'io che finiva così ma un altro titolo stimolante non mi è venuto.

E pensare che Voigtlander vende il Nokton 50/0.95 per u4/3! XD

In realtà la verifica è semplice e possiamo farla anche noi:
Se così fosse basta prendere un'ottica vintage F/1.2 o inferiore (ad esempio la versione C mount 20/0.95 da montare su u4/3 se vogliamo esagerare, se no un normale 50/1.2 vintage esempio Nikkor o Pentax montato su Canon). Guarda cosa nomini, ;) guarda da dove parte la discussione ;) e chiediti perché secondo te consiglio di leggere la prima discussione :p (volevi che non ci avessero già pensato.. :sofico: vai all'ultimo intervento della discussione pentaxiana :read:)

Stefano Villa
10-03-2011, 20:36
Vi posto il test che ho appena completato.

EOS 500D + EF 50 f/1,4

La prima foto è stata fatta con la lente correttamente installata, la seconda invece, per ingannare il corpo, con i contatti dell'obiettivo coperti con del nastro (sullo schermo risulta f/00)
Entrambe le foto sono scattate in RAW e poi convertite in JPEG, tutti i valori in post produzione sono impostati a 0, niente contrasto niente correzione dell'illuminazione periferica, nessuna riduzione del rumore, ecc ecc...

Questi i parametri di scatto per entrambe le foto

50mm - f/1,4 - 1/250 - ISO3200 - No Flash

FOTO 1

http://www.flickr.com/photos/loste87/5515095725/

FOTO 2

http://www.flickr.com/photos/loste87/5515693504/

A voi la parola !!!

ARARARARARARA
10-03-2011, 21:10
@ARARARARARARA: LL non dice che la PdC sia uguale a f/1.4 e f/2, bensi' afferma che un'ottica f/1.2 montata su ASP-C si comporta come una f/1.8 su 35mm. E' diverso.


Ma grazie al ca...voletto di bruxelles! Se prendo una grande formato con pellicola polaroid 20x24" (circa 60x70 cm per indenderci) a f/1.2 la pdc sarà infima, infatti più è grande il formato e più le lenti sono tendenzialmente chiuse, su medioformato f/1.4 è una vera e propria assurdità, già f/2.8 ha un campo ridottissimo!

uncletoma
10-03-2011, 21:17
@Chelidon: il mio sarcasmo era diretto contro LL e DxO, non contro di te. Avevo gia' letto quell'articolo diverso tempo fa, idem la famosa lettera aperta, e rimango perplesso sulla tempistica della scoperta.
Ora come ora le macchine a rullino sono fuori produzione, trovare rullini e' un'impresa titanica (giusto qualche Fuji in rari negozi) e loro dicono: ecco, e' cosi'. Adesso? Perche' non tre o quattro anni fa, quando sarebbe stato possibile un confronto serio tra Full frame e pellicola 135mm?
E' anche possibile che le case creino delle lenti che siano nominalmente piu' aperte di quanto lo siano nella realta'. Altrimenti non mi spiegherei i 50mm f/1.8 a meno di 100 euro. Quando ai tempi comprai (usato) il mio 50mm Zeiss 1.4 lo pagai una cifra assurda (sul mezzo milione di lire, e parlo degli anni 80).
Che sia lo scotto da pagare nel volere ottiche luminose, "economiche" (rispetto ad altri marchi) in un mercato che, rispetto agli ani d'oro della fotografia, e' molto ma molto piu' piccolo?
Stefano, il soggetto cemtrale della foto 1 e' sfocato se si guarda a massima grandezza *_*
In effetti la foto 2 ha il soggetto a fuoco ed e' migliore complessivamente. Ma, imho, nessuna delle due risolve il rebus :)

ARARARARARARA
10-03-2011, 21:33
Ora come ora le macchine a rullino sono fuori produzione, trovare rullini e' un'impresa titanica (giusto qualche Fuji in rari negozi) e loro dicono: ecco, e' cosi'. Adesso? Perche' non tre o quattro anni fa, quando sarebbe stato possibile un confronto serio tra Full frame e pellicola 135mm?

I rullini sono fuori produzione? Bah, l'assurda scelta di pellicole nei negozi torinesi mi fa pensare il contrario, inoltre poche settimane fa kodak ha presentato una nuova pellicola a colori!

Chelidon
10-03-2011, 22:45
Vi posto il test che ho appena completato. Ma scusa come fai ad essere sicuro che senza contatti scatti a TA le canon non hanno diaframma controllato elettronicamente? Senza contatti scattano comunque?
Comunque forse il bilanciamento del bianco un po' diverso, non saprei dire se ci sia effettivamente differenza; magari l'istogramma aiuta? :confused:

Ma grazie al ca...voletto di bruxelles! Se prendo una grande formato con pellicola polaroid 20x24" (circa 60x70 cm per indenderci) a f/1.2 la pdc sarà infima, infatti più è grande il formato e più le lenti sono tendenzialmente chiuse, su medioformato f/1.4 è una vera e propria assurdità, già f/2.8 ha un campo ridottissimo! (a parte che non oso :p pensare ad un f/1.2 che copra 6x7 cm e grazie al cielo che nessuno l'abbia mai ideato..) Faccio molta fatica a capire cosa c'entri sinceramente con quello che ti ha fatto notare, cosa volevi dire? :confused: Hai capito adesso che quelli di DxO si riferiscono ad un'interazione fra apertura della lente e "apertura del fotosito"?

@Chelidon: il mio sarcasmo Ma infatti manco mi è passato per la mente del sarcasmo ;) solo non volevo mettermi a quotare altro :)

Se impatta anche sulla PdC, la verifica è semplice: basta inquadrare un palo della luce lontano di notte, mettere a fuoco alla minima distanza, misurare il cerchio di confusione e vedere se aumenta con l'aumentare del diaframma. Forse facile a parole penso sia difficile da attuare nella pratica se non impossibile, :boh: comunque prove qualitative ci sono verso la fine della prima discussione che ho citato.. ;)

PS: Anche perché la PdC non si distribuisce secondo delle regole "semplici" e mi pare che il CoC sia un'altra cosa (adesso non chiedermelo che è troppo tardi enon connetto) che dipende da molte variabili: oltre che da "come si osserva", pure dal formato

Raghnar-The coWolf-
11-03-2011, 10:34
I test fatti lì Chelidon non mi soddisfanno pienamente.
Innanzitutto, per quanto riguarda l'esposizione, c'è quello dell'armadio che è in contrasto con quello dell'HD.
In secondo luogo la differenza di mezzo stop, come ho detto, non mi scandalizza.
La trasmittanza della lente non è mai 100%, e i produttori, furbetti, non dicono che l'apertura non implica maggiore luminosità.

Ad esempio è noto che il SSamyang 85mm F/1.4 è mezzo stop più buio del Nikkor Ais 85mm F/1.4.

Le lenti per il Cinema, che sono un tantino più professionali, infatti segnalano non solo l'apertura ma anche la trasmittanza.
Infatti il corredo Zeiss T/1.3 è appunto un corredo di lenti F/1.2 che però, ai fini della luminosità (ma non della PdC), sono F/1.3 (ad esempio se guardi qua (http://www.phme.it/2010/10/una-serata-sul-set/)ho fatto delle foto all'ultimo girato, con Distagon 25mm F/1.2, però se noti la ghiera dei diaframmi che si intravede segnala T 1.3, 2, 2.8...etc...) . Questo perchè se devi usare quelle lenti con una cinepresa a pellicola (che esistono ancora, e anzi sono in rinascimento, e la pellicola per questo non sta affatto scomparendo, anzi..) e un esposimetro esterno non puoi permetterti di cannare l'esposizione di mezzo stop.

Le prove della PdC evidenziano invece una differenza fra F/1.2 e F/1.4
Andrebbe provata con diverse lenti per essere sicuro, oppure con una decisamente sovrabbondante (come quel famoso Nokton o il Leica Noctilux, su NEX-CMOS)
Noi siamo un po' fuori portata, su Luminous Landscape potrebbero attrezzarsi...

uncletoma
11-03-2011, 20:34
I rullini sono fuori produzione? Bah, l'assurda scelta di pellicole nei negozi torinesi mi fa pensare il contrario, inoltre poche settimane fa kodak ha presentato una nuova pellicola a colori!
Beati voi torinesi, qui nel tigullio si trovano pochi rullini fuji, per di piu' quelli piu' sgrausi e a prezzi assurdi :cry:
Quasi quasi vengo su e faccio scorta :D

Chelidon
12-03-2011, 12:39
La trasmittanza della lente non è mai 100%, e i produttori, furbetti, non dicono che l'apertura non implica maggiore luminosità.

La trasmittanza della lente non è mai 100%, e i produttori, furbetti, non dicono che l'apertura non implica maggiore luminosità.

Ho dato per scontato questo discorso (ne accennano varie volte pure loro comunque dei T-stop) anche perché si suppone costante e connaturato a un ottica, mentre invece i dati di DxO differiscono a seconda dei sensori accoppiati all'ottica, cosa che farebbe pensare che il fenomeno può essere più o meno rilevante.
Come ho anche dato per scontato il fatto che il diaframma dichiarato possa essere approssimato (ad esempio mi sembra di ricordare ci fossero dei test di qualche rivista in cui saltava fuori che il canon 50/1.2 sia in realtà solo 1/3 di stop più luminoso del 50/1.4 mentre il pentax lo sia di 1/2 ma approssimazioni di questo tipo ce le hanno più o meno tutti gli obiettivi, per non parlare della chiusura del diaframma che è meccanico e non perfettamente circolare di solito.. :sofico: ).

I test fatti lì Chelidon non mi soddisfanno pienamente.
Innanzitutto, per quanto riguarda l'esposizione, c'è quello dell'armadio che è in contrasto con quello dell'HD.
In secondo luogo la differenza di mezzo stop, come ho detto, non mi scandalizza.
In quella discussione ci sono vari test, io mi riferivo alle conclusioni dell'ultimo post (http://www.pentaxiani.it/forum/viewtopic.php?f=13&t=33189&hilit=pentax+non+inganna+i+clienti&start=120#p512501) in cui è stato fatto il confronto con un esposimetro esterno (in realtà ha solo dato anticipazioni di quanto ha visto per gli scatti digitali in quanto quella prova è ancora incompleta, dato che deve ancora sviluppare le pellicole per verificare l'altra metà del confronto), anche se mi sembra molto difficile che possa avere una sottoesposizione maggiore a 1.4 che a TA :wtf: quell'utente è affidabile e ci tiene a fare test ripetibili ("non popolonici" come si usa nel gergo là :p ), fai caso alle assicurazioni che fa sulla costanza dell'esposimetro esterno. ;)

Su quello dell'armadio effettivamente non vedo differenze di sorta nemmeno io (e nemmeno colui che le ha fatte e lo dice infatti). Tieni conto però che stiamo dando per scontate molte cose, come che ci siano differenze nel comportamento delle pentax dalla posizione A rispetto al diaframma preimpostato e sui raw (quelli di DxO hanno confermato l'inganno degli ISO ufficialmente solo per quelle quattro macchine del grafico e non danno molte spiegazioni sul come, ma per esempio l'esposizione potrebbe anche solo semplicemente essere leggermente alzata con una curva sul JPEG :boh:). Ti faccio notare una cosa che riguarda il metodo e che secondo me di solito hai molto ben presente anche te. In pratica anche infischiandosi delle premesse (cioè supponendo senza avere conferme che tutti i marchi abbiano uguale comportamento) con questo "genere di esperimenti" puoi solo appurare se la macchina t'inganna con la compensazione ISO (che tra l'altro è inferiore alla caduta), niente di più. Per verificare la "questione del sensore" bisogna avere un riferimento o di esposizione (presupposto che le variabili di esposizione siano adeguatamente veritiere ) o un paragone con la pellicola.
Infatti il test prima quello dell'armadio (cioè quello che tu chiami dell'HD (http://www.pentaxiani.it/forum/viewtopic.php?f=13&t=33189&hilit=pentax+non+inganna+i+clienti&start=75#p464003)) è fatto con una canon (con la stessa procedura di quello fatto qui da Stefano Villa) e sembra confermare un mezzo stop d'aiuto nell'esposizione coi contatti (come riportano in media a f/1.4 i dati del grafico di DxO che ho messo).


Le prove della PdC evidenziano invece una differenza fra F/1.2 e F/1.4

Anch'io ci vedo una differenza (a dire il vero fra 1.2 e 1.4 noto molto prima la differenza nell'aberrazione cromatica (http://www.pentaxiani.it/forum/download/file.php?id=7642&t=1&sid=eec338e939bc9345f466b2ef9616b207) che mi tenterebbe quasi a pensare che differenze di quell'ordine sullo sfocato pure un'aberrazione come la sferica forse potrebbe spiegarle), ma posso dire alla stessa stregua che mi sembra molto più rilevante il salto negli stop chiusi che nei primi (lo so che da 1.2 a 1.4 ce ne sta mezzo ;) ); però se devo dirla tutta, :p so anche benissimo che l'andamento non è proporzionale con gli stop ovviamente :rolleyes: (per quello dicevo in precedenza che sarà praticamente impossibile verificare qualcosa del genere sulla PdC).


Andrebbe provata con diverse lenti per essere sicuro, oppure con una decisamente sovrabbondante (come quel famoso Nokton o il Leica Noctilux, su NEX-CMOS)
Noi siamo un po' fuori portata, su Luminous Landscape potrebbero attrezzarsi...
Mah con tutto il rispetto per LL, mi aspetterei piuttosto qualcosa da DxOlabs.. Visto che ne hanno la capacità e che hanno gettato la pietra nello stagno dovrebbero, prima d'inventarsi teorie ipotetiche sul fenomeno, essere loro ad approfondire con più prove e rendere magari un po' più chiare le metodologie con cui hanno dedotto i dati (ma questo è un brutto vizio che hanno molti di quelli che fanno pseudo-tecnicismo sul web).

giosimar
12-03-2011, 23:32
Se n'era parlato tempo fa sul forum dei pentaxiani e qualcuno aveva fatto le dovute prove e pare proprio che purtroppo sia vero... :cry: :cry:

il test sulla k5 con il 50 f1.2 l'ha fatto Eurostar, e riferiva risultati simili a quelli riportati da luminous landscape, almeno per quanto riguarda la quantità di luce registrabile sul sensore.
Sinceramente, considerando le ottiche che possiede, le capacità tecniche, l'esperienza e l'onesta intellettuale che lo contraddistinguono, tendo a fidarmi delle sue opinioni e dei suoi test.

blade9722
13-03-2011, 08:38
Vi posto il test che ho appena completato.

EOS 500D + EF 50 f/1,4

La prima foto è stata fatta con la lente correttamente installata, la seconda invece, per ingannare il corpo, con i contatti dell'obiettivo coperti con del nastro (sullo schermo risulta f/00)
Entrambe le foto sono scattate in RAW e poi convertite in JPEG, tutti i valori in post produzione sono impostati a 0, niente contrasto niente correzione dell'illuminazione periferica, nessuna riduzione del rumore, ecc ecc...

Questi i parametri di scatto per entrambe le foto

50mm - f/1,4 - 1/250 - ISO3200 - No Flash

FOTO 1

http://www.flickr.com/photos/loste87/5515095725/

FOTO 2

http://www.flickr.com/photos/loste87/5515693504/

A voi la parola !!!

Il tuo test sembra smentire la tesi, visto che la foto senza contattatura è sovraesposta rispetto all'altra

blade9722
13-03-2011, 08:40
Forse facile a parole penso sia difficile da attuare nella pratica se non impossibile, :boh: comunque prove qualitative ci sono verso la fine della prima discussione che ho citato.. ;)


No, è facile, solo che è difficile spiegarlo a parole, una di queste sere farò un esempio.


PS: Anche perché la PdC non si distribuisce secondo delle regole "semplici" e mi pare che il CoC sia un'altra cosa (adesso non chiedermelo che è troppo tardi enon connetto) che dipende da molte variabili: oltre che da "come si osserva", pure dal formato

Raghnar-The coWolf-
16-03-2011, 13:39
Ma Eurostar non ha postato immagini e una review dei suoi ultimi scatti con esposimetro esterno se non sbaglio O_o

giosimar
16-03-2011, 21:02
Ma Eurostar non ha postato immagini e una review dei suoi ultimi scatti con esposimetro esterno se non sbaglio O_o

E' una domanda o una constatazione?

Chelidon
19-03-2011, 15:44
Il tuo test sembra smentire la tesi, visto che la foto senza contattatura è sovraesposta rispetto all'altra

No, secondo me ti sbagli ;) avevo già provato a prendere quella senza contatti di Stefano e per ottenere all'incirca lo stesso istogramma di quella coi contatti, si deve alzare di almeno +0,25 in modo da portare l'istogramma più a destra. Quindi la sottoesposizione sembrerebbe confermarla anche lui almeno in parte, anche se lo ripeto non mi torna il bilanciamento del bianco fra le due foto e non vorrei dipendesse dalla differenza d'illuminazione ambientale fra le due (se è stata fatta con illuminazione al tungsteno, comunque si nota la presenza di una fonte di luce ambientale e sembra avere un peso diverso fra i due scatti.. :boh:).

No, è facile, solo che è difficile spiegarlo a parole, una di queste sere farò un esempio.

Fare l'esperimento a diversi diaframmi SICURAMENTE è facile, tanto che se ci fai caso è quello che hanno già fatto là e che ho già commentato.. ;)
(Guarda il link nella mia citazione che riprendo qui di seguito e capirai a cosa mi riferisco :read:)
Il punto è che tutt'altra cosa è riuscire a trarre conclusioni sul fatto che la PdC vari come dovrebbe o meno visto che non c'è una proporzionalità diretta ma "già si riduce via via meno, di per sé" aprendo.
Anch'io ci vedo una differenza (a dire il vero fra 1.2 e 1.4 noto molto prima la differenza nell'aberrazione cromatica (http://www.pentaxiani.it/forum/download/file.php?id=7642&t=1&sid=eec338e939bc9345f466b2ef9616b207) che mi tenterebbe quasi a pensare che differenze di quell'ordine sullo sfocato pure un'aberrazione come la sferica forse potrebbe spiegarle), ma posso dire alla stessa stregua che mi sembra molto più rilevante il salto negli stop chiusi che nei primi (lo so che da 1.2 a 1.4 ce ne sta mezzo ;) ); però se devo dirla tutta, :p so anche benissimo che l'andamento non è proporzionale con gli stop ovviamente :rolleyes: (per quello dicevo in precedenza che sarà praticamente impossibile verificare qualcosa del genere sulla PdC).

Ma Eurostar non ha postato immagini e una review dei suoi ultimi scatti con esposimetro esterno se non sbaglio O_o
Come esempi da vedere là ci sono solo quelle dell'armadio e dell'HD di cui abbiamo già parlato (le seconde sembrerebbero confermare il comportamento della Canon sull'esposizione falsata), ma sul secondo tipo di confronto (quello con la pellicola di eurostar) hai perfettamente ragione, infatti mi ricito:

in realtà ha solo dato anticipazioni di quanto ha visto per gli scatti digitali in quanto quella prova è ancora incompleta, dato che deve ancora sviluppare le pellicole per verificare l'altra metà del confronto
Però posso fare anche notare che guarda caso sta vendendo un 50/1.2 che aveva nel corredo da parecchio e non mi pare sia uno sprovveduto.. :boh:

giosimar
23-03-2011, 02:29
Stasera non avevo molto da fare ed ho fatto questa prova.

ho preso la k7 e l' A 50mm f2 , montando quest'ultimo non in posizione "A" ma con scelta manuale dei diaframmi.
ho acceso la macchina, ho impostato la modalità manuale, ho poggiato la macchina sul tavolo, messo a fuoco un soggetto qualsiasi ed ho scattato 3 foto.

Una a f2 1/30 , un'altra a f2.8 1/15 , un'ultima a f2 1/25

Teoricamente le prime due dovrebbero essere esposte allo stesso modo, ma così non è. La foto a 1/30 di secondo è leggermente sottoesposta. D'altronde, almeno ai miei occhi, la differenza seppur palese è inferiore a 1/3 di stop, in quanto la foto a 1/25 di secondo è sovraesposta rispetto a quella scattata a f2.8

le foto qui non riesco a metterle, quindi metto il link alla discussione su pentaxiani.
http://www.pentaxiani.it/forum/viewtopic.php?f=13&t=33189&start=120#p547921

Mercuri0
24-03-2011, 17:05
Sto usando un Hexanon 57mm f1.4 sulla GF1. Il problema non riguarda certamente il DOF che a f1.4 è senz'altro più stretto. Non fatto misure scentifiche né ne farò :D
(ma prima o poi posterò qualche foto, anche se finora a f1.4 ho scattato pochissimo, questa sarà sopra gli f2)

http://lh6.ggpht.com/_FZIlGMIfmeA/TYtp3PwWUfI/AAAAAAAAA7E/-Qxho8SBIFg/s640/P1060440-1.jpg (https://picasaweb.google.com/atn.vinci/Pubblico#5587676160526275058)

Ho notato, comunque, che con tale ottica in alcune condizioni la GF1 visualizza nei pochi secondi del primo preview della foto un risultato sottesposto, mentre la foto risulta poi correttamente esposta anche in macchina. Boh.

C'era un thread su dpreview in cui analizzavano a fondo la questione, dicendo che per alcuni aspetti la cosa non riguarda solo il digitale ma era fisiologica. (Discorsi di aperture equivalenti e robe simili)

E poi la trasmittività dove la mettiamo? Su dxomark tutti gli zoom f2.8 pare abbiano una trasmittività di un f3.3.

In realtà non mi sono interessato troppo della questione, troppe foto da fare e da organizzare per pensarci :D

Avevo già letto l'articolo....immagino come saranno contenti quelli del consorzio m4/3 :D

I consorzisti immagino lo sapessero prima di scegliere i parametri del sistema, forse è anche per questo che Olympus per il 4/3 ha fatto ottiche telecentriche?

Noi utenti ci divertiamo un sacco come al solito :) (sempre con l'Hexanon)
http://lh5.ggpht.com/_FZIlGMIfmeA/TYtsCeoExPI/AAAAAAAAA7U/uuhdbYSHTlU/s640/P1060420-1.jpg (https://picasaweb.google.com/atn.vinci/Pubblico#5587678552519918834)

Alcuni anche con il Voigtlander f0.95
http://vimeo.com/17062701
(qui ci sono anche gli zoom f2 4/3)
http://vimeo.com/18956665

Mercuri0
25-03-2011, 18:46
Alla fine ho fatto delle prove :D

Con l'Hexanon a f1.4 + GF1 in M, l'esposimetro della macchina mi segnala una sottoesposizione di 1/6 di stop a f1.4, se dimezzo progressivamente il tempo di scatto a partire da f2.8. A f2 non noto nessun problema.

Visualmente, mi sembra torni, la foto è leggermente sottoesposta e se seguo le indicazioni della macchina ritorna correttamente esposta.

Almeno con l'hexanon la GF1 si direbbe non "bari" sull'iso, semplicemente misura la scena a secondo di quanta luce gli arriva.

Ho trovato un post di Andy Westlake su dpreview che ha fatto una cosa simile con un Noctilux 50 f0.95 sempre sulla GF1
http://forums.dpreview.com/forums/read.asp?forum=1018&message=36768003

L'effetto è rilevante per F# < f.1.2 e cmq avere una lente più aperta è comunque vantaggioso. O beh :D

edit: discussione fighissima sulle microlenti e su come limitano le ottiche aperte (che mai leggerò)
"'In summary, the microlens should have an f/# that is smaller than that of the imaging lens by a factor that depends on the desired concentration.' "
http://forums.dpreview.com/forums/read.asp?forum=1018&message=36025858

Come Canon riscala l'istogramma, misurato nel 2008
http://www.pages.drexel.edu/~par24/rawhistogram/CanonRawScaling/CanonRawScaling.html
(i valori alti per i mezzi-iso penso significhino solo che questi iso sono fatti "in digitale")

bart_simpson
25-03-2011, 21:21
usando una vecchia ottica olympus 50 1.4, che non comunica con la macchina fotografica, ho notato che l'esposizione non risulta corretta.

ma tecnicamente come viene messo in pratica l'imbroglio?
la macchina chiude il diaframma?
se fosse così basterebbe fare una foto allo specchio, la macchina fotografa sè stessa col diaframma chiuso.

giosimar
26-03-2011, 02:13
la macchina aumenta il guadagno sul sensore, quindi sostanzialmente aumenta gli iso senza comunicarlo all'utente ed esponendo in base a quello che viene letto dall'elettronica della macchina.

mercuri0, ma tu usi una m4/3 ?!? O____o
mesà che il tuo caso è ancora differente...
Da quello che ho capito, il full format dovrebbe risentire maggiormente del problema, meno gli apsc, ancor meno le m4/3

e comunque, con un'ottica manuale non si avrà mai il problema dell'innalzamento degli iso, semmai la macchina segnalerà una sottoesposizione o imposterà tempi più lunghi di come dovrebbero essere.
La correzione nasce con ottiche in cui sono presenti almeno gli automatismi sull'apertura del diaframma.

Itachi
27-03-2011, 18:11
Si ma la mia domanda é..... A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?


Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?

giosimar
28-03-2011, 00:42
Si ma la mia domanda é..... A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?


Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?

attenzione, un f1.2 rimane comunque più luminoso di un f1.4, e così via.
Semmai la differenza in termini di luminosità non è quella che dovrebbe essere da dati di targa, per rispondere alla tua domanda.

Quanto sia la differenza, dipende dal formato, dall'ottica e dal sensore.

Mercuri0
29-03-2011, 21:08
la macchina aumenta il guadagno sul sensore, quindi sostanzialmente aumenta gli iso senza comunicarlo all'utente ed esponendo in base a quello che viene letto dall'elettronica della macchina.

mercuri0, ma tu usi una m4/3 ?!? O____o
mesà che il tuo caso è ancora differente...
Da quello che ho capito, il full format dovrebbe risentire maggiormente del problema, meno gli apsc, ancor meno le m4/3

Non ho letto da nessuna parte che dipende dalle dimensioni del sensore, pare sia qualcosa che può avere a che fare con le microlenti.


e comunque, con un'ottica manuale non si avrà mai il problema dell'innalzamento degli iso, semmai la macchina segnalerà una sottoesposizione o imposterà tempi più lunghi di come dovrebbero essere.
La correzione nasce con ottiche in cui sono presenti almeno gli automatismi sull'apertura del diaframma.

Non saprei, Itachi dice che il suo Olympus f.1.4 da foto sottoesposte. Siccome la mia macchina dà le foto correttamente esposte con le ottiche manuali a f1.4, mi viene da pensare - ma chiedo opinioni - che le reflex devono compensare una differente lettura dell'esposimetro rispetto a quello che verrà registrato dal sensore, mentre le EVIL semplicemente espongono direttamente sul sensore quindi, l'esposimetro già compensa di suo.

Si ma la mia domanda é..... A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?

Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?
Probabilmente dipende dalla macchina. Le misure che ho letto (che per coincidenza riguardavano la mia) danno una piccola perdita a f1.2 e qualcosa di più a 0.95. La mia macchina ha misurato 1/6 di stop di perdita a f1.4 su una Hexanon 57mm f1.4

La lente aperta conviene sempre, se decente. Oggi è certo più facile alzare l'iso.

giosimar
30-03-2011, 01:19
Non ho letto da nessuna parte che dipende dalle dimensioni del sensore, pare sia qualcosa che può avere a che fare con le microlenti.


appunto. A parità di ottica, sensori differenti inquadrano angoli differenti. Il 50mm del full frame è il 75mm dell'apsc ed il 100 del m4/3. I raggi che arrivano sui sensori hanno angolazioni differenti nei tre casi, l'effetto "malevolo" dovrebbe diminuire con il diminuire dell'angolo inquadrato.
E' una mia supposizione, mi aspetto che chi ha un corredo con un corpo full frame ed uno apsc prima o poi faccia le sue brave prove.


Itachi dice che il suo Olympus f.1.4 da foto sottoesposte. Siccome la mia macchina dà le foto correttamente esposte con le ottiche manuali a f1.4, mi viene da pensare - ma chiedo opinioni - che le reflex devono compensare una differente lettura dell'esposimetro rispetto a quello che verrà registrato dal sensore, mentre le EVIL semplicemente espongono direttamente sul sensore quindi, l'esposimetro già compensa di suo.

Anche la mia reflex dà foto correttamente esposte a f qualsiasi se gli faccio leggere la luce... :mbe:
il problema è che il tempo segnalato è tale che non è la metà rispetto a quello che si ha chiudendo il diaframma di 1 stop, ma un po' più lungo, mentre se metto il tempo "teorico" sottoespone.
Questo avviene se lavoro in manuale, impostando manualmente i diaframmi sull'obiettivo. Al contrario, la stessa lente impostata in automatico dà un'esposizione anche leggermente sovraesposta a parità di diaframma, indice del fatto che è intervenuto qualcosa a correggere la lettura esposimetrica.


E comunque, concordo sul fatto che la lente aperta conviene sempre, anche se evidentemente meno rispetto al passato.

yossarian
29-11-2011, 00:43
il test di dxolabs e la relativa spiegazione mi lasciano alquanto perplesso.
Inizio dal test. Prendo, ad esempio, canon: la 7d, la 550d hanno lo stesso sensore ma, a giudicare dai risultati di dxomark, la 550d è quella che si comporta meglio, seguita dalla 7d. Questo significa che la 7d dovrebbe alzare di più gli iso per compensare ma, all'atto pratico, la qualità di immagine e la quantità di rumore è praticamente identica. Peggio ancora va con nikon: il sensore della d300, secondo dxomark, riceve più luce di quello della d300s. La prima non ha microlenti gapless, la seconda si. La prima ha più rumore e meno gamma dinamica ad alti ISO. Stendo un velo pietoso sul confronto tra d200 e d300s o tra 20d e d200 (i 3200 iso della prima sonmo più puliti dei 1600 iso della seconda). Poichè con illuminazione scarsa, la quantità di luce che raggiunge ogni fotosito diventa un parametro vitale, se fossero veri i risultati di quel test, le fotocamere che "ricevono più luce" a parità di condizioni, dovrebbero comportarsi meglio.
Passiamo alla spiegazione, che riporto alla lettera: “We can suspect,” Guichard continued, “that sensors collect the incoming light all the more improperly, in that this light comes from a more oblique angle. Since faster lens have, by definition, a wider opening, they raise the proportion of oblique light, hence the proportion of lost energy which never lands on the pixels.”
Il discorso degli angoli obliqui vale anche per la pellicola e non solo per i sensori digitali. Ses la luce non arriva sulla superficie di un sensore non arriva neppure su quella della pellicola e, anzi, se arriva con un angolo "sbagliato" su un sensore digitale, ci sono le microlenti che ne correggono l'angolo di incidenza (cosa che non avviene sulla pellicola). L'unico elemento di disturbo "fisico" è il filtro antimoire ma allora questo discorso verrebbe a cadere con le macchine dotate di sensore privo di tale filtro.

Chelidon
11-12-2011, 22:08
Approfitto :) del tuo intervento, anche visto che non avevo più letto il resto..

Vorrei farti notare, (ma sicuramente lo sai te per primo ;) ) che la pellicola è un mezzo continuo (certo in approssimazione, perché ci sono i grani ma il senso resta), mentre il sensore è per principio discreto: i fotositi non sono contigui fra loro e prima dello strato assorbitore ci sono comunque strutture che limitano la penetrazione dei fotoni sia in profondità che fra un sito e quelli immediatamente contigui. Se lo vedi come un problema di prestazione come apertura della microlente-fotosito (pensando in termini di angolo di accettanza) che può limitare l'apertura massima del sistema ottico a monte, direi che sul principio del ragionamento resterebbe poco di cui discutere (guarda se hai tempo anche il link tecnico dal forum di dpreview che ha messo Mercurio). :fagiano:
Certo sulla rilevanza da dargli nella pratica si può avere qualsiasi opinione, ma se la cosa salta fuori da più parti in siti e tempi diversi in maniera indipendente ed è stata addirittura prevenuta a livello di progettazione dai produttori all'unanimità (palesemente già per via delle microlenti, senza citare l'escamotage dell'ISO scoperto ora): direi che per quanto riguarda il fenomeno è conclamato e noto almeno ai reparti tecnici (che quelli marketing non vogliano che la questione sia troppo pubblicizzata è ovvio, visto le campagne sostenute per convincere al passaggio dopo la pellicola).
Per dirti la fonte che ha citato Mercurio è del 2008, quindi escluderei la congiura dell'ultim'ora di DxO, :stordita: anzi a me pare molto più strano che nessuna testata se ne sia mai accorta nei propri test e la cosa sembri sottaciuta. Lo stesso LL s'indigna per i produttori reflex, ma non azzarda a lamentarsi :wtf: anche con la fascia ancora più alta del suo target: medioformato e Leica vengono anzi giustificate per avere sensori CCD, :confused: quando l'immunità al fenomeno dei CCD nelle reflex non è per niente affermata guardando i dati di DxO, (anzi ne soffrono ovviamente pure loro, tanto più che le microlenti ce le hanno tutti i sensori, e proprio Leica in primis considera un passo avanti il compromesso delle microlenti sfalsate ai bordi del sensore, per limitare i problemi coi loro grandangoli).

Sul discorso che fai fra 7D e 550D, c'è che la differenza fra le due è 0,1EV e dubito :boh: che si noterebbe visivamente se anche compensassero in maniera diversa (figuriamoci come rumore se compensassero per essere pari). Te dici che hanno lo stesso sensore, ma come facciamo a sapere che non ci siano differenze di batch dei sensori (se non versioni affinate o con diverse microlenti), o semplicemente di trasparenza del IRcut o tutto ciò che mettono davanti, per non dire che non sappiamo nemmeno l'incertezza delle misurazioni (come sempre in questi test :rolleyes:). Sulle altre di generazioni diverse può benissimo darsi che la miniaturizzazione del fotosito-microlente accentui il problema e spiegherebbe perché FF fanno meglio e nelle aps o forse più semplicemente dipende dall'accoppiata e dai suoi affinamenti comunque non mi sembra ci sia una variabilità altissima. Ma poi non ti seguo, :confused: non capisco cosa c'entri il rumore che vedi nell'immagine visto che con tecnologie differenti non ha senso trarre conclusioni, a prescindere dal fatto che il gain possa essere molto diverso (e non lo sarebbe comunque). In ogni caso il grafico del gain è l'ultimo quelli che citi si riferiscono al difetto di esposizione rispetto a quello previsto nominalmente dal diaframma (non fanno alcuna considerazione sul rumore, occhio! Anche perché le differenze sarebbero comunque molto meno influenti rispetto all'affinamento della tecnologia, guarda bene).


Almeno con l'hexanon la GF1 si direbbe non "bari" sull'iso, semplicemente misura la scena a secondo di quanta luce gli arriva.
Per forza, è proprio quello il punto, la compensazione può intervenire solo se la macchina SA che l'apertura ha un valore definito e sotto la soglia preimpostata: che l'hexanon senza alcuna contattiera sia a 1.4 o a 8 non può determinarlo da una misura assoluta di esposizione della scena senza un riferimento. Ti accenno visto che hai ritirato fuori dopo il dubbio.
Le mirrorless quando usano lenti adattate (e quindi senza possibilità di comunicare) usano l'esposimetro come le reflex che possono lavorare anche senza contatti tipo le pentax, ma non possono determinare l'apertura. Infatti sicuramente dovrai rimisurare ogni volta che cambi diaframma sulla ghiera dell'obiettivo, mentre di solito un obiettivo che comunica permette di fare la misurazione una volta sola a TA e INVECE andare di conti, se IMPOSTI in macchina un altro diaframma, perché conosce il riferimento del diaframma TA comunicato dall'obiettivo ;). Adesso dovrebbe esserti chiaro come lavorano con l'esposimetro le reflex, la differenza fra una lente coi contatti isolati e perché questo a volte può dare dei problemi (ad esempio le canon EF non hanno l'attuatore del diaframma, ma il controllo è elettronico, come le u4/3 perciò coprendo i contatti potrei usarle solo a diaframma fisso.. e magari intuirai più chiaramente anche i problemi dei nikoniani con le lenti senza chip ..e perché invece i pentaxiani se ne possono sbattere che una lente sia attuale o meno e parlano di usare un tastino verde per l'esposizione se non ci sono i contatti.. :sofico:).


Si ma la mia domanda é..... A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?


Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?
Il punto è che oltre una certa soglia (circa f/2) la differenza si riduce sempre di più a sentire le prove come se si fosse limitati comunque. Quindi in poche parole da 2 a 1.8 cambia poco 1.8 a 1.4 cambia meno, da 1.4 a 1.2 ancora meno

yossarian
12-12-2011, 00:22
non discuto l'asserzione iniziale ma l'attendibilità, a livello quantitativo, dei test di dxomark e simili.
Partiamo dall'affermazione iniziale; come ha detto Raghnar, c'è da tener conto della trasmittanza di un obiettivo che non è mai pari ad 1. Questo significa che non tutta la luce che passa attraverso la lente frontale arriva a quella posteriore. Quindi, se una lente f/1.2 si comporta, nella realtà, come una f/1.4, questo vale sia che il supporto sia digitale che analogico (anche assumendo che la pellicola sia un mezzo continuo). La cosa non ha ripercussioni solo sulla sensibilità, ma anche sulla qualità dello "sfocato" che non è minimamente influenzato dal livello di sensibilità (reale o teorico), come si vede anche dalla seconda immagine di questo link http://forums.dpreview.com/forums/read.asp?forum=1018&message=36768003 (già postato da Mercuri0).
Poi, c'è il supporto di tipo digitale, il che significa non continuità della superficie fotosensibile (e in questo ccd e cmos non fanno differenza). Per risolvere questo incinveniente, ci sono le microlenti, possibilmente gapless e ribassate; questo per cercare di raccogliere tutta la luce incidente sulla superficie del sensore e ridurre al minimo il rischio di interferenze distruttive tra percorsi differenti all'interno di ogni singola microlente.
Quello di cui i progettisti sono a conoscenza, da sempre, è sicuramente quello relativo alla trasmittanza; ma questo è un problema che affligge sia il digitale che l'analogico: una lente che nominalmente è un f/1.2 ma si comporta come un f/1.4 lo fa sia con un sensore che con la pellicola e questo influenzerà sia il bokeh che il livello del SNR. Alzare, col digitale, il valore degli iso, per "simulare" un f/1.2, può avere influenza sul SNR ma non sulla quantità di sfocato. Con la pellicola non è possibile intervenire neppure sul SNR e questa è l'unica differenza con il digitale.

MaraFonte
12-12-2011, 00:35
In effetti perché usare lenti luminose quando l'iphone non le usa?

Chelidon
12-12-2011, 20:25
Aspetta, yossarian, :) lo so che è un bel casino capirla bene e un po' si parte prevenuti (anche io l'ho trovata piuttosto sconcertante), ma se mi rispondi così mi viene il dubbio che non hai intuito nel verso giusto la questione.. :wtf:

Non si mette in dubbio che ogni lente abbia un difetto di trasmissione (è connaturato alle leggi di rifrazione e per quanto esistano i trattamenti antiriflessi non sono perfetti), cioé la faccenda già accennata da Ragnar del T-number inferiore al F-number. Ma non è quello che hanno misurato nei grafici di DxO che stai citando (è vero che non sono chiarissimi :rolleyes: a dire a quale esposizione si riferiscano, ma mi sembra che i dati si possano tranquillamente interpretare :read: ). Una riduzione di trasmissione dovuta alle lenti rispetto a quella prevista dall'apertura infatti: SAREBBE COSTANTE con qualsiasi valore di diaframma, quindi anche a f/8 tu otterresti un'esposizione inferiore alla prevista (ovviamente stiamo assumendo che meccanicamente il diaframma abbia delle tolleranze trascurabili rispetto all'ordine di grandezza considerato, cosa in genere valida per gli obiettivi commerciali; non sto a metterti test che lo provano ma puoi fidarti che se avessero un delta di mezzo EV o giù di lì non arriverebbero sul mercato soprattutto per lenti di quel calibro).
Invece quello che nei grafici di DxO riportano come delta-EV è un fenomeno non costante ma dipendente dall'apertura ovvero a f/2,8 o meno è negligibile mentre si riscontra al di sopra: infatti il grafico riferito a f/1,4 in media riporta uno scostamento di 0,5 EV mentre a f/1,2 la media è attorno a 0,8 EV (che vuol dire che nei casi peggiori il sistema da 1,4 a 1,2 non "sentirebbe" la differenza); inoltre il fatto stesso che vari a seconda della fotocamera mi sembra la perfetta dimostrazione che non sia connaturato alla lente.

yossarian
12-12-2011, 21:53
Aspetta, yossarian, :) lo so che è un bel casino capirla bene e un po' si parte prevenuti (anche io l'ho trovata piuttosto sconcertante), ma se mi rispondi così mi viene il dubbio che non hai intuito nel verso giusto la questione.. :wtf:

Non si mette in dubbio che ogni lente abbia un difetto di trasmissione (è connaturato alle leggi di rifrazione e per quanto esistano i trattamenti antiriflessi non sono perfetti), cioé la faccenda già accennata da Ragnar del T-number inferiore al F-number. Ma non è quello che hanno misurato nei grafici di DxO che stai citando (è vero che non sono chiarissimi :rolleyes: a dire a quale esposizione si riferiscano, ma mi sembra che i dati si possano tranquillamente interpretare :read: ). Una riduzione di trasmissione dovuta alle lenti rispetto a quella prevista dall'apertura infatti: SAREBBE COSTANTE con qualsiasi valore di diaframma, quindi anche a f/8 tu otterresti un'esposizione inferiore alla prevista (ovviamente stiamo assumendo che meccanicamente il diaframma abbia delle tolleranze trascurabili rispetto all'ordine di grandezza considerato, cosa in genere valida per gli obiettivi commerciali; non sto a metterti test che lo provano ma puoi fidarti che se avessero un delta di mezzo EV o giù di lì non arriverebbero sul mercato soprattutto per lenti di quel calibro).
Invece quello che nei grafici di DxO riportano come delta-EV è un fenomeno non costante ma dipendente dall'apertura ovvero a f/2,8 o meno è negligibile mentre si riscontra al di sopra: infatti il grafico riferito a f/1,4 in media riporta uno scostamento di 0,5 EV mentre a f/1,2 la media è attorno a 0,8 EV (che vuol dire che nei casi peggiori il sistema da 1,4 a 1,2 non "sentirebbe" la differenza); inoltre il fatto stesso che vari a seconda della fotocamera mi sembra la perfetta dimostrazione che non sia connaturato alla lente.

se si tenesse conto solo delle trasmittanza il comportamento sarebbe uniforme a tutte le aperture. Di fatto, un'ottica si comporta come una guida d'onda, attraversata da radiazione incoerente e lungo la quale sono disseminati mezzi (le lenti o i gruppi di lenti, oltre che l'aria) che presentano un indice di rifrazione differente. Questo significa che i raggi luminosi sono deviati nel passaggio dall'aria ad una lente e viceversa e queste deviazioni, per quanto previste, non possono essere del tutto compensate (anche perchè la deviazione è differente a seconda delle componenti cromatiche). Quello che ipotizzo (è solo un'ipotesi, poichè non sono un esperto di ottica ma che può essere suffragata dal fatto che l'adozione del paraluce serve proprio a ridurre l'incidenza della radiazione "indesiderata") è che ad aperture maggiori (così come a focali più corte) corrispondano maggiori interferenze (e più problemi sugli angoli di incidenza della luce sulla superficie fotosensibile) tra le varie componenti della luce che attraversano l'obiettivo e che queste interferenze diano luogo ad una degradazione delle prestazioni dell'obiettivo stesso.
D'altra parte, l'argomento della discusisone mi pare sia il comportamento delle ottiche al variare dell'apertura e, solo di conseguenza, il comportamento del sensore e dell'elettronica della macchina (tra un cmos e un ccd non c'è differenza, a parità di formato, se si limita l'analisi alla quantità di luce che colpisce il singolo fotosito per unità di tempo). Il fatto che i valori registrati da dxomark varino ocn la fotocamera non lo riterrei un elemento attendibile, soprattutto alla luce del fatto che, secondo quelle stime, la d300s ha più necessità di correggere il valore rispetto alla d300, mentre, di fatto, la prima ha una QE superiore alla seconda. Se, poi, guardo il confronto tra d80 e d200 (praticamente lo stesso sensore, con l'unica differenza che uno ha 2 readout channel e l'altro 4), resto ancora più perplesso

Donagh
13-12-2011, 10:42
Si ma la mia domanda é..... A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?


Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?

per lo sfocato...
io sto ammirando pure le caratteristiche di bokeh del 50 1.0...
ho notato anche io negli anni nella pratica che scattando a 1.4 con il 50 1.4 o a 1.2 con l 85 1.2 la macchina certe volte mi sottoespone...
(5d) pero sia ben chiaro lo sfocato in termini di resa cambia ai vari stop...

yossarian
13-12-2011, 13:51
per lo sfocato...
io sto ammirando pure le caratteristiche di bokeh del 50 1.0...
ho notato anche io negli anni nella pratica che scattando a 1.4 con il 50 1.4 o a 1.2 con l 85 1.2 la macchina certe volte mi sottoespone...
(5d) pero sia ben chiaro lo sfocato in termini di resa cambia ai vari stop...

questo potrebbe confermare la mia teoria, secondo cui il problema non è legato alla tipologia di sensore ma alla trasmissione della luce attraverso l'ottica. Il fatto che a TA ci sia la tendenza ad alzare gli ISO rispetto a quelli nominali potrebbe solo essere un tentativo di correggere l'esposizione.

p.s. come ti trovi con l'85 f/1.2 su FF?

Donagh
13-12-2011, 14:29
l 85 1.2 spacca non ce che dire su ff non per il diaframma ma per i colori e la sua resa particolare microcontrasto bello sfocato etc... (ho la versione II)
pero è specialistico non me lo sono nemmeno portato in america (preferendo il 135f2 ben più pratico e adatto a molte situazioni anche "veloci")

si secondo me è quello perché anche con ottiche adattate su ff
zeiss e leica a volte faceva così!

misurando a zona totale visto che le grandi aperture vignettano la macchina facendo la media della scena fa la media della "parte più scura data dalla vignettatura".... magari dai un occhiata al mio sito di foto ...

yossarian
13-12-2011, 19:32
l 85 1.2 spacca non ce che dire su ff non per il diaframma ma per i colori e la sua resa particolare microcontrasto bello sfocato etc... (ho la versione II)
pero è specialistico non me lo sono nemmeno portato in america (preferendo il 135f2 ben più pratico e adatto a molte situazioni anche "veloci")

si secondo me è quello perché anche con ottiche adattate su ff
zeiss e leica a volte faceva così!

misurando a zona totale visto che le grandi aperture vignettano la macchina facendo la media della scena fa la media della "parte più scura data dalla vignettatura".... magari dai un occhiata al mio sito di foto ...

ho dato un'occhiata, soprattutto alla sezione "ritratti" e ho visto che hai fatto uso, soprattutto, del 135 f/2 e del 50 f/1.4. Io sto cercando un'ottica, principalmente da ritratto, da montare, inizialmente, su aps-c (7d e 30d) e, magari, in futuro, su FF. Tu che hai avuto modo di provarle tutte, cosa mi consiglieresti?

ficofico
13-12-2011, 19:55
Se hai intenzione di passare al full frame allora 135 f2, se invece rimarrai su aps-c probabilmente ti consiglierei il 50

Donagh
13-12-2011, 20:31
Se hai intenzione di passare al full frame allora 135 f2, se invece rimarrai su aps-c probabilmente ti consiglierei il 50

anche io dico lo stesso!

l 85 solo se fai ritratti e ti esalta e hai già le altre due focali!

ps io ho 24 2.8, 50 1.4, 85 1.2 mk2, 135 f2

il 50 lo trovo insostituibile
come il 135...

http://www.photo4u.it/album_pic.php?pic_id=556635

si vede? 135 a f2

yossarian
13-12-2011, 22:22
Se hai intenzione di passare al full frame allora 135 f2, se invece rimarrai su aps-c probabilmente ti consiglierei il 50

anche io dico lo stesso!

l 85 solo se fai ritratti e ti esalta e hai già le altre due focali!

ps io ho 24 2.8, 50 1.4, 85 1.2 mk2, 135 f2

il 50 lo trovo insostituibile
come il 135...

http://www.photo4u.it/album_pic.php?pic_id=556635

si vede? 135 a f2

quindi la cosa migliore sarebbe averli tutti e due, per ogni evenienza. :D
Grazie per i consigli :)

Chelidon
14-12-2011, 18:35
Allora a me il discorso sembra molto chiaro e prego di leggere bene proprio perché capisco possa non essere banale per chiunque. :read: A me con una preparazione di tipo fisico mi pare sensato come ragionamento teorico, d'altra parte per come è messa però dovrebbero mettersi a fare le misurazioni in una maniera controllata per validare l'ipotesi del fenomeno. Ma non mi sembra che ci sia interesse né da parte di DxO che ha lanciato la pietra e nascosto la mano, né ovviamente dai tecnici stessi che probabilmente nemmeno si sognano possa esistere un dibattito del genere fra gli utenti e in ogni caso è difficile una comunicazione diretta.
Se posso permettermi, non vorrei risultare pedante, :) però IMHO stai uscendo parecchio dal seminato:
se si tenesse conto solo delle trasmittanza il comportamento sarebbe uniforme a tutte le aperture. Di fatto, un'ottica si comporta come una guida d'onda, attraversata da radiazione incoerente e lungo la quale sono disseminati mezzi (le lenti o i gruppi di lenti, oltre che l'aria) che presentano un indice di rifrazione differente. Non so cosa vuoi intendere, ma una guida d'onda non serve a costruire un'immagine, ma ha uno scopo diverso: staresti parlando di una fibra ottica, se proprio vuoi fare l'analogia nel visibile di un concetto che si usa nel campo della trasmissione dei segnali EM.
Questo significa che i raggi luminosi sono deviati nel passaggio dall'aria ad una lente e viceversa e queste deviazioni, per quanto previste, non possono essere del tutto compensate (anche perchè la deviazione è differente a seconda delle componenti cromatiche). Quello che ipotizzo (è solo un'ipotesi, poichè non sono un esperto di ottica ma che può essere suffragata dal fatto che l'adozione del paraluce serve proprio a ridurre l'incidenza della radiazione "indesiderata") è che ad aperture maggiori (così come a focali più corte) corrispondano maggiori interferenze (e più problemi sugli angoli di incidenza della luce sulla superficie fotosensibile) tra le varie componenti della luce che attraversano l'obiettivo e che queste interferenze diano luogo ad una degradazione delle prestazioni dell'obiettivo stesso. Questo si può tranquillamente descrivere con la classica ottica geometrica, lascia stare l'interferenza che a quelle lunghezze d'onda e in questo contesto non ha senso parlarne. Quelle che descrivi come deviazioni e che non ha niente a che fare con interferenza né tanto meno il paraluce, è il fenomeno della dispersione (ovvero che l'indice di rifrazione varia in misura più o meno maggiore in funzione di lambda a seconda del materiale: è il motivo per cui esistono le aberrazioni cromatiche e si compensano oltre che con doppietti, tripletti, ecc. anche limitandole a monte con vetri a bassa dispersione).
D'altra parte, l'argomento della discusisone mi pare sia il comportamento delle ottiche al variare dell'apertura e, solo di conseguenza, il comportamento del sensore e dell'elettronica della macchina (tra un cmos e un ccd non c'è differenza, a parità di formato, se si limita l'analisi alla quantità di luce che colpisce il singolo fotosito per unità di tempo). Il fatto che i valori registrati da dxomark varino ocn la fotocamera non lo riterrei un elemento attendibile, soprattutto alla luce del fatto che, secondo quelle stime, la d300s ha più necessità di correggere il valore rispetto alla d300, mentre, di fatto, la prima ha una QE superiore alla seconda. Secondo me, ti sei troppo concentrato a pensare al sensore e non ti accorgi che il punto è un altro. :) Non c'entra nulla la QE o la sensibilità del sensore non stanno facendo considerazioni sull'SNR, dicono solo che la macchina DEVE ALZARE la sensibilità perché glielo hanno scritto nel firmware per compensare il fenomeno noto sperimentalmente (a DxO, così come presumibilmente ai produttori), che aprendo oltre f/2 le lenti non si comportano come dovrebbero. Fin qui c'è solo la descrizione di un dato di fatto riportato da DxO come da altre fonti in forma di scostamento nell'esposizione rispetto a quella prevista.
Poi c'è l'ipotesi del fenomeno che sono il primo a dire di essere scettico e che può essere opinata o meno purché argomentando se la si è compresa, ma finora è quella più verosimile dal punto di vista fisico, IMHO. Imputare lo scostamento a un difetto di trasmissione non è compatibile, per le ragioni che ho provato a spiegare e di cui ti puoi assicurare anche tu se sei abbastanza curioso da andare a leggerti dei fenomeni di riflessione/rifrazione.

So perfettamente che l'ipotesi di spiegazione del fenomeno può risultare poco chiara (deve essere chiaro che è un problema di ciò che sta davanti al sensore come ottica cioé lente e microlente-struttura del pixel non di sensibilità del fotosito) ai più e se serve, appena ho un attimo, provo a cercare di spiegare il concetto in maniera più comprensibile, spero almeno perché non mi ritengo per nulla un divulgatore. :fagiano:

yossarian
15-12-2011, 01:03
Allora a me il discorso sembra molto chiaro e prego di leggere bene proprio perché capisco possa non essere banale per chiunque. :read: A me con una preparazione di tipo fisico mi pare sensato come ragionamento teorico, d'altra parte per come è messa però dovrebbero mettersi a fare le misurazioni in una maniera controllata per validare l'ipotesi del fenomeno. Ma non mi sembra che ci sia interesse né da parte di DxO che ha lanciato la pietra e nascosto la mano, né ovviamente dai tecnici stessi che probabilmente nemmeno si sognano possa esistere un dibattito del genere fra gli utenti e in ogni caso è difficile una comunicazione diretta.
Se posso permettermi, non vorrei risultare pedante, :) però IMHO stai uscendo parecchio dal seminato:
Non so cosa vuoi intendere, ma una guida d'onda non serve a costruire un'immagine, ma ha uno scopo diverso: staresti parlando di una fibra ottica, se proprio vuoi fare l'analogia nel visibile di un concetto che si usa nel campo della trasmissione dei segnali EM.

In fisica, ottica, e telecomunicazioni, una guida d'onda è una struttura lineare che convoglia e confina onde elettromagnetiche all'interno di un percorso compreso fra le due estremità consentendone cioè una propagazione guidata. Essa è dunque un mezzo di trasmissione.
Questa è la definizione generale di guida d'onda che è semplicemente un mezzo per guidare un'onda o una serie di onde EM da un punto ad un altro, costringendole a seguire un percorso obbligato anzichè uno libero. Una fibra ottica è un tipo di guida d'onda che si usa per trasferire onde EM a una o più frequenze diverse, ma anche un obiettivo è una guida d'onda che, ovviamente, non facendo uso di una trasmittente laser, non trasferisce una radiazione di tipo coerente. Di fatto una guida d'onda non serve per creare un'immagine ma neppure per trasmettere un suono, ma solo per trasportare onde EM; quello che si fa con queste onde dipende solo ed esclusivamnete da cosa si usa come trasmettitore e come ricevitore. Se uso una sorgente luminosa come trasmettitore (o, meglio, il riflesso delle onde EM emesse da questa sorgente luminosa su un altro corpo) e una pellicola fotografica o una matrice di fotodiodi abbinati ad un filtro di tipo bayer o ad una struttura multilayer, tipo foveon e "costringo" questa radiazione a passare all'interno di un percorso obbligato che la guidi verso la struttura preposta a riceverla, non faccio altro che utilizzare una guida d'onda e il risultato che otterrò è una immagine. SE lavoro nel campo delle microonde, la guida d'onda sarà di tipo metallico, in quello delle ottiche posso utilizzare una fibra ottica o qualunque cosa permetta di indirizzare le onde E.M. lungo un percorso prestabilito, per mezzo di pareti riflettenti (a frequenze ottiche anche una parete a specchio può assolvere lo stesso compito di una fibra ottica; dipende solo dal tipo e dalla quantità di luce che devo farci passare dentro).



Questo si può tranquillamente descrivere con la classica ottica geometrica, lascia stare l'interferenza che a quelle lunghezze d'onda e in questo contesto non ha senso parlarne. Quelle che descrivi come deviazioni e che non ha niente a che fare con interferenza né tanto meno il paraluce, è il fenomeno della dispersione (ovvero che l'indice di rifrazione varia in misura più o meno maggiore in funzione di lambda a seconda del materiale: è il motivo per cui esistono le aberrazioni cromatiche e si compensano oltre che con doppietti, tripletti, ecc. anche limitandole a monte con vetri a bassa dispersione).


le aberrazioni cromatiche sono solo uno degli effetti del passaggio della luce attraverso mezzi con indice di rifrazione differente. Questo passaggio si può schematizzare con l'attraversamento di un prisma che scompone la luce in diverse componenti a differenti lunghezze d'onda e con angoli diversi. Questo avviene non su un solo raggio lumminoso ma su tanti e le componenti che si vengono a creare, spesso non arrivano in fase tra loro. Se eliminiamo l'interferenza, abbiamo eliminato una delle principali componenti del rumore di tipo random pattern. Quelle che limitano la nitidezza dell'immagine quando si usano lenti "veloci" a TA e che vanno, comunemente, sotto il nome di aberrazioni, non sono altro che fenomeni di interferenza noti come tilt aberrations, tanto che uno dei sistemi in via di sperimentazione, per cercare di correggere o limitare questo fenomeno è quello di ricostruire le informazioni corrette sulle fasi delle radiazioni incidenti per pixel.


Secondo me, ti sei troppo concentrato a pensare al sensore e non ti accorgi che il punto è un altro. :) Non c'entra nulla la QE o la sensibilità del sensore non stanno facendo considerazioni sull'SNR, dicono solo che la macchina DEVE ALZARE la sensibilità perché glielo hanno scritto nel firmware per compensare il fenomeno noto sperimentalmente (a DxO, così come presumibilmente ai produttori), che aprendo oltre f/2 le lenti non si comportano come dovrebbero. Fin qui c'è solo la descrizione di un dato di fatto riportato da DxO come da altre fonti in forma di scostamento nell'esposizione rispetto a quella prevista.


al contrario; ho detto che il fenomeno è legato al comportamento delle ottiche; il discorso sulla QE è legato all'analisi della quantità di luce che dovrebbe colpire il singolo fotosito e che, invece, risulta inferiore a causa delle cosiddette "aberrazioni". La QE non entra in gioco solo quando si parla di SNR ma anche quando si parla di corretta valutazione dell'esposizione. Anzi, in realtà, parlare di QE è riduttivo, poichè questa è solo una delle componenti, ovvero il rapporto tra radiazione incidente e coppie elettrone-lacuna create, anche se, di fatto, è il parametro che viene convertito in segnale elettrico e letto dalla cpu. Quello che succede è che la cpu legge i valori sull'esposizione fornitigli, li confronta con quelli teorici e corregge l'esposizione e lo fa variando il livello di amplificazione del sensore. Ovviamente, il "quanto" deve correggere dipende dalle necessità: le FF i cui pixel catturano più luce tendono a correggere meno delle APS-C, quelle dotate di microlenti che, a parità di dimensioni del sensore e dei pixel catturano più luce correggono meno (e qui non mi tornano i valori di d300 e d300s, a meno che la d300 non abbia la tendenza a sottoesporre) e dalle impostazioni di default. Ad esempio, stando ai valori di dxomark, a parità di condizioni ed avendo lo stesso identico sensore, tra d200 e d80 i casi sono 2: o la prima tende a sottoesporre o la seconda a sovraesporre (stesso dicasi per 30d e 20d), così come la 5d, che è quella che corregge meno di tutti, pur avendo fotositi leggermente più piccoli di quelli della d3s e non avendo microlenti gapless, dovrebbe tendere a sottoesporre (cosa, per altro, confermata anche da Donagh).
Probabilmente non ci arrivo, ma continuo a non vederci niente di strano, anzi ritengo probabile che un'operazione del genere avvenga anche con ottiche meno "veloci", in condizioni di scarsa luce.

Chelidon
17-12-2011, 15:46
Guarda non per continuare a voler fare botta/risposta che sono pure argomenti abbastanza ampi ed è difficili esaurirli con 4 parole riassunte: non so come te l'abbiano spiegata, ma fidati hai un po' le idee confuse su cosa sia una guida d'onda e anche sull'ottica stai facendo strafalcioni (le aberrazioni te lo ripeto NON sono dovute a fenomeni d'interferenza!). :wtf:
Se vuoi capire meglio, cerca di approfondirne il funzionamento e fai MOLTO caso su quali principi si basa la trasmissione di una radiazione (in linea di massima monocromatica e coerente fra l'altro e questo già dovrebbe farti venire parecchi dubbi col tuo paragone lente/guida d'onda) all'interno di una fibra ottica (fenomeno di riflessione totale), e invece cosa voglia dire focalizzare un'immagine (non c'è nessun confinamento, anzi in ottica fisica si considerano i diversi cammini ottici) che è quanto fa una lente a partire da luce incoerente e non monocromatica (quindi cosa ci faresti, seppure ben avessi informazioni sulla fase.. :stordita:).
La QE non entra in gioco solo quando si parla di SNR ma anche quando si parla di corretta valutazione dell'esposizione. Anzi, in realtà, parlare di QE è riduttivo, poichè questa è solo una delle componenti, ovvero il rapporto tra radiazione incidente e coppie elettrone-lacuna create, anche se, di fatto, è il parametro che viene convertito in segnale elettrico e letto dalla cpu. Quello che succede è che la cpu legge i valori sull'esposizione fornitigli, li confronta con quelli teorici e corregge l'esposizione e lo fa variando il livello di amplificazione del sensore. Ovviamente, il "quanto" deve correggere dipende dalle necessità: le FF i cui pixel catturano più luce tendono a correggere meno delle APS-C, quelle dotate di microlenti che, a parità di dimensioni del sensore e dei pixel catturano più luce correggono meno (e qui non mi tornano i valori di d300 e d300s, a meno che la d300 non abbia la tendenza a sottoesporre) e dalle impostazioni di default. Ad esempio, stando ai valori di dxomark, a parità di condizioni ed avendo lo stesso identico sensore, tra d200 e d80 i casi sono 2: o la prima tende a sottoesporre o la seconda a sovraesporre (stesso dicasi per 30d e 20d), così come la 5d, che è quella che corregge meno di tutti, pur avendo fotositi leggermente più piccoli di quelli della d3s e non avendo microlenti gapless, dovrebbe tendere a sottoesporre (cosa, per altro, confermata anche da Donagh).
:eh: Penso tu abbia equivocato, provo a spiegarmi.
Come hai detto la Qe è un parametro del dispositivo che indica solo l'efficienza del processo di conversione.
Ai fini dell'esposizione non te ne frega niente se hai un fotosito buono o pessimo (semmai te ne accorgerai nell'immagine in termini di rumore) ci pensa l'hardware e il software a rinormalizzare il tutto per fornire all'utente un riferimento che è poi il valore di sensibilità in ISO. Provo a renderlo comprensibile: se il tuo fotosito è molto efficiente avrai molto meno bisogno di AMPLIFICARE il segnale per definire un certo valore di sensibilità ISO rispetto a un fotosito poco efficiente (con tutto ciò che ne consegue nel peggioramento dell'SNR; in parole povere e semplificate: il primo sensore partirà con un ISO base più alto e potrà spingersi più avanti a parità di "amplificazione elettronica" rispetto al secondo). Ma questa è una cosa "a basso livello" di cui all'interfaccia software non gliene può fregar di meno, perché lavora già col parametro ISO; te fai lo stesso discorso quindi non diciamo cose molte diverse, :) ma poi equivochi l'amplificazione elettronica, con quello di cui parla DxO che è semplicemente un aumento dell'ISO fatto all'insaputa dell'utente (lo chiamano "gain" ma e se leggi l'articolo di DxO nel paragrafo "Raising ISO to compensate light loss" si riferisco a questo :read:). Che le FF abbiano migliore Qe delle APS (oppure estendilo pure ai casi di sensori migliori rispetto ai più vecchi) risulterà semplicemente come sappiamo nel rumore delle immagini a parità di ISO. Quindi il discorso che fai non ti torna perché pensi che il gain del grafico che ho riportato sia "a basso livello", mentre in realtà è già riparametrato perché ragiona in termini di ISO.
Per i grafici prima di DxO le differenze fra fotocamere diverse, per come è spiegata, si suppongono considerando che a seconda della tecnologia del sensore e delle microlenti, si ha una limitazione nell'apertura numerica del pixel che può essere diversa e che quindi limita diversamente il sistema ottico a monte. Quindi penso siano corrette le tue considerazioni sulla dimensione dei pixel e l'incidenza del fenomeno.
Probabilmente non ci arrivo, ma continuo a non vederci niente di strano, anzi ritengo probabile che un'operazione del genere avvenga anche con ottiche meno "veloci", in condizioni di scarsa luce.
Se non è chiaro lo ripeto, il fenomeno è il seguente: scatto a f/8 e l'esposimetro dà una certa coppia (ISO 100 e tempo che so 1/10s), poi misuro a f/2,8 e l'eposimetro dà una coppia con la proporzione prevista cioè 3-stop in meno (ISO 100 e tempo 1/80s), infine misuro a f/1,2 e l'esposimetro mi trova una coppia inferiore alla proporzione prevista cioé invece di 2,5-stop mi salta fuori 1-stop in meno del previsto. A questo punto la fotocamera dovrebbe impostare un tempo 1/225s, invece per far tornare i conti alza l'ISO a 200 FACENDOMI CREDERE CHE SIA ANCORA A 100 per poter darmi il tempo previsto di 1/450s e mascherare la perdita di uno stop a f/1.2 (NON PUO' ESSERE un problema di trasmissione, cioè T-number perché altrimenti la perdita sarebbe una caduta costante a tutti i diaframmi e te ne accorgeresti solo confrontando le coppie misurate con un'altra lente avente trasmissione migliore/peggiore). Dato che l'eposimetro di norma con le lenti moderne fa la misura una volta sola a TA e poi si calcola le coppie per l'apertura a seconda di cosa imposta l'utente, può barare solo quando sa che il diaframma avrà un valore critico (cioé a quanto risulta da f/2 in su). Quindi se usi una lente senza contatti e il diaframma lo imposti manualmente, lo smascheri perché è costretto a fare la misura di volta in volta dato che non sa quale diaframma hai impostato.

yossarian
19-12-2011, 20:55
Guarda non per continuare a voler fare botta/risposta che sono pure argomenti abbastanza ampi ed è difficili esaurirli con 4 parole riassunte: non so come te l'abbiano spiegata, ma fidati hai un po' le idee confuse su cosa sia una guida d'onda e anche sull'ottica stai facendo strafalcioni (le aberrazioni te lo ripeto NON sono dovute a fenomeni d'interferenza!). :wtf:

in un sistema come un obiettivo fotografico non esistono solo le aberrazioni cromatiche. Ci sono 7 tipi di aberrazioni differenti approssimabili con l'ottica geometrica (e solo 2 o 3 danno origine a fenomeni di cromatismo visibili) e una serie di altri tipi di aberrazioni per cui l'ottica geometrica non è sufficiente e che provocano fenomeni di blurring in alcune parti dell'immagine, alla stregua di quanto avviene con la diffrazione.

Se vuoi capire meglio, cerca di approfondirne il funzionamento e fai MOLTO caso su quali principi si basa la trasmissione di una radiazione (in linea di massima monocromatica e coerente fra l'altro e questo già dovrebbe farti venire parecchi dubbi col tuo paragone lente/guida d'onda) all'interno di una fibra ottica (fenomeno di riflessione totale), e invece cosa voglia dire focalizzare un'immagine (non c'è nessun confinamento, anzi in ottica fisica si considerano i diversi cammini ottici) che è quanto fa una lente a partire da luce incoerente e non monocromatica (quindi cosa ci faresti, seppure ben avessi informazioni sulla fase.. :stordita:).

nelle fibre ottiche multimodali si trasmette con led la cui luce è tutt'altro che coerente e la finestra utilizzata è piuttosto ampia anche se confinata ad un singolo colore (ma non ad una singola frequenza). Gli stessi laser HE-NE trasmettono all'interno una finestra (molto ristretta, in effetti ma, comunque, molto più ampia dei laser a semiconduttore usati per le telecomunicazioni). Ma questo è un limite dei dispositivi, la cui frequenza di trasmissione è dettata dall'ampiezza della cavità in cui avvengono le oscillazioni. Ad esempio, i FEL possono trasmettere su un ampio range di frequenze e lo stesso possono fare, almeno in teoria, i diodi a cavità accoppiate, con l'uso di specchi a indici di rifrazione differenti e un dielettrico all'interno della cavità stessa, sfruttando l'effetto Kerr per modulare la lunghezza virtuale della cavità e variare gli angoli di riflessione dei fotoni.
Per quanto interessanti, non credo che siano questi gli argomenti della discussione, però.


:eh: Penso tu abbia equivocato, provo a spiegarmi.
Come hai detto la Qe è un parametro del dispositivo che indica solo l'efficienza del processo di conversione.
Ai fini dell'esposizione non te ne frega niente se hai un fotosito buono o pessimo (semmai te ne accorgerai nell'immagine in termini di rumore) ci pensa l'hardware e il software a rinormalizzare il tutto per fornire all'utente un riferimento che è poi il valore di sensibilità in ISO. Provo a renderlo comprensibile: se il tuo fotosito è molto efficiente avrai molto meno bisogno di AMPLIFICARE il segnale per definire un certo valore di sensibilità ISO rispetto a un fotosito poco efficiente (con tutto ciò che ne consegue nel peggioramento dell'SNR; in parole povere e semplificate: il primo sensore partirà con un ISO base più alto e potrà spingersi più avanti a parità di "amplificazione elettronica" rispetto al secondo). Ma questa è una cosa "a basso livello" di cui all'interfaccia software non gliene può fregar di meno, perché lavora già col parametro ISO; te fai lo stesso discorso quindi non diciamo cose molte diverse, :) ma poi equivochi l'amplificazione elettronica, con quello di cui parla DxO che è semplicemente un aumento dell'ISO fatto all'insaputa dell'utente (lo chiamano "gain" ma e se leggi l'articolo di DxO nel paragrafo "Raising ISO to compensate light loss" si riferisco a questo :read:). Che le FF abbiano migliore Qe delle APS (oppure estendilo pure ai casi di sensori migliori rispetto ai più vecchi) risulterà semplicemente come sappiamo nel rumore delle immagini a parità di ISO. Quindi il discorso che fai non ti torna perché pensi che il gain del grafico che ho riportato sia "a basso livello", mentre in realtà è già riparametrato perché ragiona in termini di ISO.

continuo a non vederci alcuna differenza. Se un determinato sensore ha una QE inferiore rispetto ad un altro, l'elettronica compensa questa carenza aumentando l'amplificazione, come hai detto e questo aumento è già contenuto all'interno del valore ISO impostato. Questo significa che,ad esempio, se prendo una SLT, il cui specchio sottrae un 30% di luminosità al sensore, a 100 ISO impostati sulla macchina mi corrisponderanno, in realtà 130 ISO di un'ipotetica macchina identica di tipo SLR. Questo significa che il firmware della macchina è settato in modo tale che la perdita del 30% venga compensata aumentando, in teoria della stessa quantità, l'amplificazione.
Se uso una lente più luminosa, il firmware della macchina aumenta l'amplificazione per compensare le perdite ai bordi del frame. Supponiamo che la perdita sia del 30%, per uniformità con la situazione precedente.
La differenza sta solo nel fatto che nel primo caso, secondo dxomark, gli iso sono 100 e nel secondo sono 130. Questo non significa che nel secondo caso il produttore sta barando, ma semplicemente che nel primo caso ha operato in modo tale da compensare una perdita facilmente quantificabile perchè insita nell'architettura hardware della macchina e, in particolare, nella tipologia di specchio adottato. Nel secondo caso non è in grado di fare lo stesso, perchè la "caduta di luce" dipende dal tipo di ottica di ottica e dall'apertura usata. Quindi non è cosa connaturata alla macchina ma dipende da un elemento aggiuntivo che si può usare o no. Nel momento in cui imposti una lente veloce a TA, la macchina "legge" la quantità di luce media e la confronta con il valore di target impostato. Se il valore rilevato è più basso aumenta l'amplificazione di quel tanto necessario a riportarlo al valore stabilito. Se l'ottica "comunica" con la cpu, allora il mascheramento è semplice, alla stregua di quanto avviene con lo specchio SLT; se si usa un'ottica che non comunica con la cpu, allora la compensazione avviene lo stesso, ma il "trucco" viene scoperto.


Se non è chiaro lo ripeto, il fenomeno è il seguente: scatto a f/8 e l'esposimetro dà una certa coppia (ISO 100 e tempo che so 1/10s), poi misuro a f/2,8 e l'eposimetro dà una coppia con la proporzione prevista cioè 3-stop in meno (ISO 100 e tempo 1/80s), infine misuro a f/1,2 e l'esposimetro mi trova una coppia inferiore alla proporzione prevista cioé invece di 2,5-stop mi salta fuori 1-stop in meno del previsto. A questo punto la fotocamera dovrebbe impostare un tempo 1/225s, invece per far tornare i conti alza l'ISO a 200 FACENDOMI CREDERE CHE SIA ANCORA A 100 per poter darmi il tempo previsto di 1/450s e mascherare la perdita di uno stop a f/1.2 (NON PUO' ESSERE un problema di trasmissione, cioè T-number perché altrimenti la perdita sarebbe una caduta costante a tutti i diaframmi e te ne accorgeresti solo confrontando le coppie misurate con un'altra lente avente trasmissione migliore/peggiore). Dato che l'eposimetro di norma con le lenti moderne fa la misura una volta sola a TA e poi si calcola le coppie per l'apertura a seconda di cosa imposta l'utente, può barare solo quando sa che il diaframma avrà un valore critico (cioé a quanto risulta da f/2 in su). Quindi se usi una lente senza contatti e il diaframma lo imposti manualmente, lo smascheri perché è costretto a fare la misura di volta in volta dato che non sa quale diaframma hai impostato.
infatti non è un problema di trasmissione ma di perdita di luce con obiettivi a TA. Il fenomeno ha altre cause (light fall e vignetting sono due fenomeni connessi all'utilizzo di ottiche veloci a TA che potrebbero causare questo tipo di comportamento). D'altra parte, la macchina non può variare il tempo di scatto (se imposti il diaframma) perchè lo stesso avviene anche in caso di utilizzo della modalità M; quindi, se imposti tempo e diaframma, per compensare la perdita di luce l'unica via è lavorare sull'amplificazione.
Come si vede dalle immagini dei test sulle ottiche e come detto da alcuni utenti che partecipano a questa discussione, passando da un'ottica f/1.2 ad una f/1.4 o f/1.8, cambia lo sfocato, quindi, da questo punto di vista, la differenza c'è. Ovviamente, con ottiche più aperte c'è anche una fisiologica maggior diminuzione della luce soprattutto sui bordi del frame ed è questo che l'aumento degli ISO va a compensare.

Donagh
23-12-2011, 13:02
http://i.pbase.com/o6/65/644165/1/71078435.gTRmsIyL.IMG_0850.jpg
http://ic2.pbase.com/o6/65/644165/1/78720027.I3uAvMqx.IMG_2247.jpg
f 1.2....
spero le vedete....

http://ic2.pbase.com/o6/65/644165/1/79775837.MQKcf3xh.IMG_2430.jpg

1.4...

Chelidon
28-12-2011, 00:29
in un sistema come un obiettivo fotografico non esistono solo le aberrazioni cromatiche. [...]
Perdona un attimo, ma di cosa stiamo parlando: :confused: di ottica applicata alla fotografia mi sembra :) (non di tecniche di contrasto di fase da microscopisti, :sofico: altrimenti pure io ti potrei chiamare "aberrazione" qualsasi difetto sul piano immagine), quindi le aberrazioni a cui ci si riferisce sono quelle classiche dell'ottica geometria (sferica, cromatica, coma, astigmatismo, vignettatura, ecc.) e sono tutte dovute a limiti nella progettazione del sistema ottico.. no? Non c'è nessuna interferenza, ma se ce ne è una di cui non sei convinto possiamo anche discuterne in mp. :mano:
Riguardo al dopo, anch'io non vorrei continuare a scrivere solo tanto per farlo visto che risulta poco costruttivo e mi sembra di saltare di palo in frasca. In ogni caso per intenderci già quando parli di "finestra" mi verrebbe da riprenderti sul fatto che un laser che non sia monocromatico e coerente non è un laser per definizione. Il fatto che si possano regolare diverse frequenze di emissione non toglie che selezionatane una si abbia qualcosa di monodisperso (ciò vale tanto sia per un He-Ne da laboratorio, sia per un diodo laser da lettore CD, sia per il FEL che sei andato a pescare), ripeterò ancora in linea di massima, :p visto che aggiungerai che alla radiazione vorrai applicare un qualsiasi processo non-lineare a piacere, ma il principio resta quello e se discutiamo così finiamo solo di confondere altri con mille casi particolari. :)
D'altra parte, la macchina non può variare il tempo di scatto (se imposti il diaframma) perchè lo stesso avviene anche in caso di utilizzo della modalità M; quindi, se imposti tempo e diaframma, per compensare la perdita di luce l'unica via è lavorare sull'amplificazione. Però dimmi cosa cambia? Alla fine il punto non è su quale delle due variabili rimaste intervenga, piuttosto il fatto che stia barando, ovvero che non ti dice che varia l'esposizione perché non vuole che tu sappia della caduta. Per collegarci al paragone che mi fai col SLT quel caso è esattamente agli antipodi di questo: :O là c'è stata una comunicazione trasparente col pubblico, dato che è stato dichiarato ufficialmente che lo specchio semiriflettente, proprio in maniera analoga al discorso del T-stop, dà una perdità di trasmissione costante a prescindere dal diaframma (Sony questo lo dice anche per l'obiettivo da ritratto con filtro apodizzante per migliorare lo sfocato, che ha un T-stop sensibilmente inferiore a uno senza; ma ovviamente ciò non comporta una perdita sulla PdC). Quindi in quei casi sai cosa stai comprando e a cosa vai incontro, invece in questo caso, acquisti una lente f/1.2 che poi a causa del sensore potrebbe trovarsi limitata a comportarsi come una f/2. Mi sembra normale che il fatto faccia sollevare quelli di LL, dato che renderebbe molto poco appetibili le lenti molto luminose (nonostante il costo), solo a causa di un limite tecnologico (a quanto pare noto) di accoppiamento con una non sufficiente apertura numerica dei fotositi. (vedi articolo citato da Mercuri0 (http://www.imageval.com/public/Papers/EI%205678-01%20Peter%20Catrysse.pdf) :read: dove si accenna che le microlenti funzionano entro certi vincoli e che la corsa ai Mpx acuisce il problema; se hai accesso alle pubblicazioni scientifiche nella biografia trovi anche materiale molto più avanzato, se hai bisogno mp ;) )
Come si vede dalle immagini dei test sulle ottiche e come detto da alcuni utenti che partecipano a questa discussione, passando da un'ottica f/1.2 ad una f/1.4 o f/1.8, cambia lo sfocato, quindi, da questo punto di vista, la differenza c'è. Quali? Occhio che non si mette in dubbio che aprendo una variazione ci sia, ma che la varazione sia molto inferiore a quella prevista con quell'apertura: lo sfocato dipende da molti aspetti, anche la sottocorrezione di una aberrazione può influire molto sulla sua resa da un diaframma a un'altro.
Personalmente ci andrei molto cauto nel proclamare considerazioni sullo sfocato a sentimento, puoi rileggerti la prima pagina d'interventi qui per intuire perché, resta il fatto che se il fenomeno fosse quello ipotizzato INFLUIREBBE pure sulla PdC.
Misurazioni su questo aspetto NON SONO STATE FATTE e non le ritengo alla portata del modo di operare dell'utente comune. Ovviamente se si vogliono fare :rolleyes: delle considerazioni sensate: bisogna considerare molti fattori e spesso approssimazioni (a volte oltre alla magnificazione, perfino le differenze fra pupilla d'ingresso e d'uscita se il progetto ottico non è simmetrico) e in ogni caso la PdC non ha un'andamento semplice e proprozionale (detto in parole povere già in linea teorica allargare di uno stop il diaframma influisce molto meno a TA che da un diaframma molto più chiuso).
infatti non è un problema di trasmissione ma di perdita di luce con obiettivi a TA. Il fenomeno ha altre cause (light fall e vignetting sono due fenomeni connessi all'utilizzo di ottiche veloci a TA che potrebbero causare questo tipo di comportamento).
Visto che alla fine ci siamo capiti e mi pare adesso concordiamo non si debba imputare al T-stop connaturato alla trasmissione della lente, allora proviamo ad assumere la tua nuova ipotesi: cioè la caduta di luce ai bordi per vignettatura a TA. Considero il caso peggiore possibile, cioé facciamo che il fisso luminoso da un capitale sia una lente particolarmente balorda sotto questo aspetto. :sofico: Assumiamo quindi che a TA (f/1.2) perda 1,5 stop su un'area pari al 30% dell'immagine (è un'approssimazione becera che non considera la gradualità, ma mi pare giusto lavorare molto per eccesso rispetto alla vignettatura degli obiettivi reali) rispetto ad un diaframma f/2.8 in cui il fotogramma non abbia vignettatura (ancora approssimo a favore della tua tesi ;) ). Ora dato che una lettura dell'esposizione è comunque mediata sul fotogramma (facciamo ancora finta con un'altra approssimazione becera per eccesso che la matrix non dia maggiore priorità al centro del fotogramma), una caduta netta di quel tipo si diluisce comunque in proporzione all'aera coperta. Quindi la caduta che misurerebbe l'esposimetro in media sul fotogramma sarebbe -1,5x0,3=-0,45 (solo mezzo stop) che non mi sembra proprio dare conto del fenomeno misurato (più di 1-stop nei casi più gravi), questo senza tirare in ballo che sarebbe un fenomeno con intensità variabile a seconda dell'ottica e probabilmente massimo per i grandangolari luminosi. Certamente può contribuire, riguardo al "quanto" considera che gli obiettivi che più perdono su aps fanno uno stop sul limite estremo e poi rapidamente calano* a coprire un'area che col peso maggiore difficilmente interessa un quarto del fotogramma: quindi se anche ai bordi avessi una caduta forte, sull'esposizione complessiva del fotogramma nella pratica influirebbe poco.
*La vignettatura come aberrazione assiale cala la trasmissione dal centro con la potenza quarta del coseno dell'angolo, certo si aggiunge il discorso del fuori asse della microlente come fai notare ma comunque siamo lì considerati i profili di vignettatura che si misurano.
C'è un'altra considerazione: soprattutto a parità di lente, se dipendesse dalla vignettatura (fisiologica+offset) ne avresti la conferma qualora il dato dei sensori FF fosse molto peggiore di quello degli APS, invece è proprio l'esatto contrario! Detto ciò mi sentirei di confutare questa ipotesi come causa predominante, visto il grafico sottostante di DxO.
http://www.dxomark.com/itext/insights_tstop/Tstop2.jpg
Ora non che a me piaccia difendere questa teoria dell'apertura limitata dal pixel, ma a parte l'essere molto più verosimile di altre possibili spiegazioni, se nell'ambiente è conosciuto come problema noto (anche qui a parte DxO, c'è l'articolo della Stanford già citato e cercando come ti ho detto trovi approfondimenti benché non alla portata di tutti) e si trova che nelle pubblicazioni scientifiche non vi sono remore nel considerare il fenomeno, ma anzi sembra se ne tenga conto perfino per sviluppi futuri, non vedo il senso di "voltarsi da un'altra parte"... :boh:

spero le vedete....

Perdona Donagh ma a parte i bei ritratti :) fatico a capire cosa intendessi far vedere... anche perché do per scontato tu sappia di sicuro che la PdC varia con la distanza del soggetto. :fagiano:

yossarian
28-12-2011, 04:51
chiudo la parentesi sui fibre ottiche e affini con una precisazione: nel post precedente ho citato di proposito i laser He-Ne perchè sono tra quelli con "finestra" di trasmissione più stretta ma, nonostante ciò, sempre di finestra si tratta. I diodi laser hanno finestre decisamente più ampie e i led, usati n accoppiamento con fibre multimodo, non sono né coerenti né monocromatici. Infine, una nota sulle aberrazioni; vengono spiegate con l'ottica geometrica solo in prima approssimazione, ma sono originate da fenomeni che non non rientrano nelle approssimazioni tipiche dell'ottica geometrica (che tratta solo le aberrazioni di Seidel). In quanto a fenomeni di interferenze "visibili", mi limito a citarne solo 2: gli effetti della diffrazione e il moire (me, se preferisci, l'aliasing più in generale).


Però dimmi cosa cambia? Alla fine il punto non è su quale delle due variabili rimaste intervenga, piuttosto il fatto che stia barando, ovvero che non ti dice che varia l'esposizione perché non vuole che tu sappia della caduta. Per collegarci al paragone che mi fai col SLT quel caso è esattamente agli antipodi di questo: :O là c'è stata una comunicazione trasparente col pubblico, dato che è stato dichiarato ufficialmente che lo specchio semiriflettente, proprio in maniera analoga al discorso del T-stop, dà una perdità di trasmissione costante a prescindere dal diaframma (Sony questo lo dice anche per l'obiettivo da ritratto con filtro apodizzante per migliorare lo sfocato, che ha un T-stop sensibilmente inferiore a uno senza; ma ovviamente ciò non comporta una perdita sulla PdC).

nel caso della slt, sony sa, all'incirca, qual è la perdita di luminosità dovuta allo specchio e la compensa a priori. Nel caso delle lenti "luminose" non è possibile fare la stessa operazione, in quanto la perdita di luminosità varia da lente a lente: un 85 f/1.2 si comporta diversamente da un 50 f/1.2 o da un 35 f/1.4 (ammettendo che la prendendo due lenti identiche il comportamento sia perfettamente lo stesso). Inoltre un 50 mm canon non sarà uguale ad un 50 mm zeiss o a uno sigma o tokina a parità di apertura. In una scala da 1 a 100, quanto è fattibile "creare un profilo" per ogni lente sul mercato e per quelle future? L'alternativa è adattare la sensibilità al volo, a seconda della lente montata. Continuo a non vedere dolo nel fatto che con lenti che comunicano con la cpu questo "trucco" sia mascherato. Ora, immagina canon che ti vende il 50 f/1.2 con l'avvertenza che su 7d si comporterà come un "f/1.37", su 40d come un "f/1.33", su 5d come un "f/1.25", ecc, perchè in caso contrario sta imbrogliando; il tutto partendo dall'assunto, errato, che la compensazione in iso sia proporzionale alla caduta di luce sul sensore.........:rolleyes:


Quindi in quei casi sai cosa stai comprando e a cosa vai incontro, invece in questo caso, acquisti una lente f/1.2 che poi a causa del sensore potrebbe trovarsi limitata a comportarsi come una f/2.

e qui non ci troviamo d'accordo. La "caduta di luce" avviene anche con la pellicola, ma non puoi scoprire il "trucco" andando a misurare la sensibilità perchè questa non varia. Tra pellicola e sensore le causa di perdita della luminosità sono le stesse, tranne che per un elemento, ovvero, e qui hai in parte ragione, le perdite dovute al fatto che il singolo pixel di un sensore riesce a catturare luce fino ad un determinato angolo di incidenza. Infine, chi acquista una lente f/1.2, considerati i prezzi, spero che prima si sia documentato a sufficienza, magari guardando i test MTF, le immagini prodotte, ecc. Ad esempio, tra l'85 f/1.2 e l'85 f/1.8, basta andare su photozone per rendersi conto delle differenze in termini di sfocato, risolvenza, contenimento di aberrazioni e fringing, tralasciando il discorso sulla qualità costruttiva. Il tempo di scatto minimo teorico è solo una delle componenti del costo finale e, tenendo conto delle possibilità permesse dagli iso assurdi impostabili con le attuali fotocamere (anche grazie alle manipolazioni dei file anche il RAW che, ormai, con l'introduzione della tecnologia mos, è tutt'altro che un formato "grezzo") , nemmeno quello a peso specifico più alto


Mi sembra normale che il fatto faccia sollevare quelli di LL, dato che renderebbe molto poco appetibili le lenti molto luminose (nonostante il costo), solo a causa di un limite tecnologico (a quanto pare noto) di accoppiamento con una non sufficiente apertura numerica dei fotositi. (vedi articolo citato da Mercuri0 (http://www.imageval.com/public/Papers/EI%205678-01%20Peter%20Catrysse.pdf) :read: dove si accenna che le microlenti funzionano entro certi vincoli e che la corsa ai Mpx acuisce il problema; se hai accesso alle pubblicazioni scientifiche nella biografia trovi anche materiale molto più avanzato, se hai bisogno mp ;) )


l'articolo parla solo dei sensori di tipo aps FSI e, infatti, parla dell'indirizzamento della luce al'interno del tunnel che conduce al fotodiodo. Però, dalle rilevazioni fatto con dxomark, lo stesso problema si riscontra con i CCD, anzi, a dire il vero, quelli si comportano peggio sono proprio questi ultimi con la "strana" eccezione del sensore della d200, identico a quello della d80. L'articolo parla dei problemi derivanti dalle diminuzioni delle dimensioni dei pixel ma, sempre dalle misurazioni fatte con dxomark, chi si comporta peggio sono i ccd da 6 Mpixel seguiti da quelli da 10. Questo cosa significa? Nell'articolo si fa cenno al fatto che al diminuire dele dimensioni dei pixel il problema principale nella progettazione delle microlenti non è più solo quello di focalizzare la radiazione verso il centro del pixel ma, per i fotositi periferici per cui l'angolo di incidenza non è sempre favorevole, permettere alla radiazione stessa di superare gli strati circuitali non fotosensibili posti tra la superficie del sensore e il fotodiodo. I sistemi usati sono diversi: traslare le microlenti rispetto al centro del pixel o dal disegnare le microlenti periferiche in modo tale da creare degli angoli "di rimbalzo" che guidino il maggior numero possibile di fotoni incidenti sulla superficie sensibile del pixel; diminuire lo "spessore" degli strati che formano la parte non sensibile del pixel; ridurre l'altezza delle microlenti; utilizzare 2 strati di microlenti di piccolo spessore, traslare tra loro in modo tale da creare degli angoli di "rimbalzo" favorevoli.
In ogni caso, il fatto stesso che ci progettino microlenti e che ci si dia tanto da fare per migliorarne l'efficienza, dimostra che il problema esiste, è riconosciuto e si cerca di ridurne l'incidenza. Ovviamente, la diminuzione delle dimensioni dei pixel rende il tutto più difficile, perchè il tunnel attraverso cui si deve guidare la radiazione diventa più stretto ma i risultati rilevati sperimentalmente dimostrano che cmos FSI da 16 o 18 Mpixel di oggi si comportano meglio di ccd da 6 o 10 Mpixel di 5 o 6 anni fa.


Quali? Occhio che non si mette in dubbio che aprendo una variazione ci sia, ma che la varazione sia molto inferiore a quella prevista con quell'apertura: lo sfocato dipende da molti aspetti, anche la sottocorrezione di una aberrazione può influire molto sulla sua resa da un diaframma a un'altro.
Personalmente ci andrei molto cauto nel proclamare considerazioni sullo sfocato a sentimento, puoi rileggerti la prima pagina d'interventi qui per intuire perché, resta il fatto che se il fenomeno fosse quello ipotizzato INFLUIREBBE pure sulla PdC.
Misurazioni su questo aspetto NON SONO STATE FATTE e non le ritengo alla portata del modo di operare dell'utente comune. Ovviamente se si vogliono fare :rolleyes: delle considerazioni sensate: bisogna considerare molti fattori e spesso approssimazioni (a volte oltre alla magnificazione, perfino le differenze fra pupilla d'ingresso e d'uscita se il progetto ottico non è simmetrico) e in ogni caso la PdC non ha un'andamento semplice e proprozionale (detto in parole povere già in linea teorica allargare di uno stop il diaframma influisce molto meno a TA che da un diaframma molto più chiuso).


ok, lasciamo da parte le considerazioni sullo sfocato e atteniamoci ai risultati del test di dxomark. Inozio col dire che la "correzione applicata a livello di iso non è necessari<mente proporzionale alla reale perdita di luminosità rilevata, pochè dipende non solo da questa ma anche dal livello di compensazione impostato. Ripeto di nuovo gli esempi citati: d200 e d80, così come 30d e 20d o 7d e 550d, hanno lo stesso sensore (quando dico stesso intendo identico), con lo stesso tipo di microlenti, eppure la correzione applicata è differente. La 5d corregge meno della d3s pur avendo pixel più piccoli e non avendo microlenti gapless. Questo tanto per citare i casi più evidenti che rendono errata la tesi che compensazione e caduta di luce siano sempre e comunque direttamente proporzionali.


Visto che alla fine ci siamo capiti e mi pare adesso concordiamo non si debba imputare al T-stop connaturato alla trasmissione della lente, allora proviamo ad assumere la tua nuova ipotesi: cioè la caduta di luce ai bordi per vignettatura a TA. Considero il caso peggiore possibile, cioé facciamo che il fisso luminoso da un capitale sia una lente particolarmente balorda sotto questo aspetto. :sofico: Assumiamo quindi che a TA (f/1.2) perda 1,5 stop su un'area pari al 30% dell'immagine (è un'approssimazione becera che non considera la gradualità, ma mi pare giusto lavorare molto per eccesso rispetto alla vignettatura degli obiettivi reali) rispetto ad un diaframma f/2.8 in cui il fotogramma non abbia vignettatura (ancora approssimo a favore della tua tesi ;) ). Ora dato che una lettura dell'esposizione è comunque mediata sul fotogramma (facciamo ancora finta con un'altra approssimazione becera per eccesso che la matrix non dia maggiore priorità al centro del fotogramma), una caduta netta di quel tipo si diluisce comunque in proporzione all'aera coperta. Quindi la caduta che misurerebbe l'esposimetro in media sul fotogramma sarebbe -1,5x0,3=-0,45 (solo mezzo stop)


che in effetti è quello che sembrerebbe succedere con le FF, a f/1.2, (5d, 5d MII, 1Ds MIII e nesuna delle 3 dotata di particolari accorgimenti nella progettazione delle micorlenti).


che non mi sembra proprio dare conto del fenomeno misurato (più di 1-stop nei casi più gravi), questo senza tirare in ballo che sarebbe un fenomeno con intensità variabile a seconda dell'ottica e probabilmente massimo per i grandangolari luminosi. Certamente può contribuire, riguardo al "quanto" considera che gli obiettivi che più perdono su aps fanno uno stop sul limite estremo e poi rapidamente calano* a coprire un'area che col peso maggiore difficilmente interessa un quarto del fotogramma: quindi se anche ai bordi avessi una caduta forte, sull'esposizione complessiva del fotogramma nella pratica influirebbe poco.
*La vignettatura come aberrazione assiale cala la trasmissione dal centro con la potenza quarta del coseno dell'angolo, certo si aggiunge il discorso del fuori asse della microlente come fai notare ma comunque siamo lì considerati i profili di vignettatura che si misurano.
C'è un'altra considerazione: soprattutto a parità di lente, se dipendesse dalla vignettatura (fisiologica+offset) ne avresti la conferma qualora il dato dei sensori FF fosse molto peggiore di quello degli APS, invece è proprio l'esatto contrario! Detto ciò mi sentirei di confutare questa ipotesi come causa predominante, visto il grafico sottostante di DxO.
http://www.dxomark.com/itext/insights_tstop/Tstop2.jpg


nella serie di approssimazioni "becere" :D che hai fatto, non hai tenuto conto di una cosa: nei casi più gravi, chi si avvicina ad 1 eV sono i sensori aps-c; anzi sono convinto che, se nel grafico con apertura 1.2 fosse stata presente anche nikon, le varie d80, d40, ecc, avrebbero superato l'unità abbondantemente :sofico: . Ora, se è vero che la vignettatura è visibile soprattutto sui sensori FF, è anche vero che su quelli di formato ridotto è sufficiente una caduta di luce di molto inferiore percentualmente, per creare maggiori problemi. A parità di tecnologia e di risoluzione, in condizioni ottimali, ad esempio, il singolo pixel della d3 è capace di cattuare 3 volte i fotoni che può catturare un pixel della d300. Quindi, l'accoppiamento lente-microlenti per una aps-c rispetto ad una FF è molto più critico in caso di condizioni non ideali come quelle poste da un'ottica, soprattutto grandangolare, con grande apertura. A questo aggiungi che la maggior parte delle ottiche sono progettate per sensori FF, il che significa che se si riducono le componenti di vegnettatura di tipo meccanico e, forse, ottico, non si riducono le altre, anzi, quella dovuta all'accoppiamento lente-microlente peggiora. In ogni caso, anche ammesso che ciò non avvenga (sto diventando becero anche io :D ), ovvero, ammettendo che anche a TA un sensore aps-c abbia una risposta analoga ad un FF sull'intera superficie e tenendo conto solo del fenomeno della vignettatura visibile ai bordi, qualora il rapporto tra i rispettivi valori di caduta di luce sia di 1:3, allora l'aps-c compenserà nella stessa misura del FF, ossia, secondo i tuoi calcoli, di 0,5 eV circa (anche se è evidente che l'andamento delle compensazioni non è lineare neppure stando ai risultati sperimentali).


Ora non che a me piaccia difendere questa teoria dell'apertura limitata dal pixel, ma a parte l'essere molto più verosimile di altre possibili spiegazioni, se nell'ambiente è conosciuto come problema noto (anche qui a parte DxO, c'è l'articolo della Stanford già citato e cercando come ti ho detto trovi approfondimenti benché non alla portata di tutti) e si trova che nelle pubblicazioni scientifiche non vi sono remore nel considerare il fenomeno, ma anzi sembra se ne tenga conto perfino per sviluppi futuri, non vedo il senso di "voltarsi da un'altra parte"... :boh:


quella dell'apertura limitata dei pixel non è una teoria ma è parte di un problema reale che si affronta nel momento in cui si fa operazione di scaling delle dimensioni. Ma non è l'unico problema. Ripeto, neppure con una tecnologia diversa dalla cmos FSI (citata nell'articolo della Stanford), neppure con pixel grandi o, addirittura, usando la pellicola (a meno che non si voglia considerare quest'ultima come un mezzo continuo, ma l'approssimazione sarebbe troppo becera) un'ottica f/1.2 si comporterebbe da f/1.2 reale. Una lente non è un sistema ideale e l'ottica geometrica spiega solo in prima approssimazione quello che succede; a questo aggiungi che qualunque fenomeno provochi una diminuzione della radiazione luminosa sulla "superficie utile" risulta più critico quando la superficie fotosensibile è più piccola e più scomoda da raggiungere. Infine, che un diaframma più aperto comporta una distribuzione meno uniforme della radiazione sul piano di cattura dell'immagine.
Per come la vedo, l'unica cosa che è cambiata, rispetto al passato, ovvero all'uso dell'analogico o dei sensori ccd di qualche anno fa, è che adesso ci si è resi conto del fenomeno solo perchè ci sono strumenti che hanno permesso di fare analisi più approfondite rispetto al passato anche ai non addetti ai lavori. Per il resto, mettere in un unico calderone i risultati di dxomark (che, ripeto, dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore), un articolo di Stanford che parla dei problemi connessi allo scaling geometrico dei pixel, i problemi di accoppiamento lente-sensore e, a questo punto, non vedo perchè tralasciare l'effetto blurring del filtro antimoire o gli effetti del filtro IR o, magari, come ho sentito da qualcuno, le aberrazioni introdotte dalle microlenti (che sono il rimedio e non la causa degli eventuali problemi di accoppiamento lente-sensore, soprattutto quando le dimensioni ddei sensori e dei pixel si riducono), non mi pare un modo di procedere troppo scientifico

yossarian
29-12-2011, 13:43
rileggendo l'articolo di dxomark in cui si parla delle misurazioni effettuate sui sensori con ottiche f/1.2 e f/1.4, mi sono venute in mente una serie di questioni.
nell'articolo si parla di una caduta di intensità luminosa rilevata ai bordi utilizzando ottiche luminose, ma manca un'analisi approfondita di un fenomeno, per altro già noto e che provoca altri effetti visibili come, ad esempio la vignettatura.
1) la "perdita di luce" avviene rispetto a cosa? Ad un ipotetico obiettivo ideale di uguale apertura e stessa trasmittanza? Rispetto al centro (e grazie, verrebbe da aggiungere :D )?
2) nell'articolo si afferma che il conseguente innalzamento degli ISO per compensare la "perdita di luce" provochi più rumore senza portare benefici. In realtà anche la stessa caduta di luce provoca un peggioramento del SNR e questo dovrebbe significare che i sensori che nel test (http://www.dxomark.com/index.php/Publications/DxOMark-Insights/F-stop-blues) presentano il fenomeno in maniera più accentuata dovrebbero presentare cifre di rumore più elevate. Se prendiamo sensori con caratteristiche analoghe (d200, d80, d60, d40x) scopriamo che, mentre, in teoria, tra d60, d40x e d200 a f/1.2 dovrebbe esserci quasi 1/2 eV di vantaggio, come rumore, a favore della terza, nei fatti, secondo le misurazioni di dxomark (http://www.dxomark.com/index.php/Cameras/Compare-Camera-Sensors/Compare-cameras-side-by-side/(appareil1)/196%7C0/(brand)/Nikon/(appareil2)/514%7C0/(brand2)/Nikon/(appareil3)/203%7C0/(brand3)/Nikon), le cose non stanno affatto così (anzi la d60 fa meglio della d200, anche se di poco). Discorso analogo per d300 e d300s e d3 e d3s. Se guardo poi questo (http://www.dxomark.com/index.php/Cameras/Compare-Camera-Sensors/Compare-cameras-side-by-side/(appareil1)/645%7C0/(brand)/Canon/(appareil2)/619%7C0/(brand2)/Canon/(appareil3)/203%7C0/(brand3)/Nikon) , in cui ho inserito 7d e 550d (identico comportamento) e d200 (che dovrebbe fare meglio, almeno fino a 1600 iso), la cosa diventa imbarazzante. E' evidente che la "perdita di luce" e il fatto che la 7d "compensi" più della d200 non sono sufficienti a far registrare un SNR peggiore.
3) nel commento al primo grafico è riportato questo: This loss seems to increase when the pixel size decreases, as shown on the figure below.. Ora, scusami, ma la cosa è tutt'altro che evidente. sensori da quasi 8 micron di pixel pitch e per di più di tipo ccd, fanno peggio di altri da poco più di 4 micron di pixel pitch, per di più di tipo cmos FSI, ovvero il tipo trattato dall'articolo della Stanford perchè è quello che presenta le maggiori criticità ai bordi nelle operazioni di scaling geometrico. Anzi, a ben guardare, pare che i sensori ccd con pixel pitch di 8 micron sono quelli che si comportano peggio in assoluto :sofico:
4) le fotocamere compensano la caduta di luce alzando gli ISO. 7d con f/1.2, caduta di luce di circa 0,95 eV (ossia quasi 1 eV, compensazione di circa 0,58; a f/1.4, light loss di 0,65, compensazione di 0,36 circa. Ovvero, con ottiche luminose, a partire da f/2.8, la aps-c hanno tutte tendenza a sottoesporre, visto che hanno la necessità di compensare ma compensano meno di quanto perdono? Con la 7d o con la 30d, a f/2.8 non ho mai avuto problemi di sottoesposizione. Quando proverò ottiche più luminose vedremo cosa succede.

Questo non significa girarsi dall'altra parte, anche perchè, lo ripeto, si tratta di un fenomeno già noto e che dà luogo anche ad effetti molto più visibili; è un fenomeno che esisteva già con la pellicola anche se non era possibile quantificarlo e che con i sensori digitali ha solo aggiunto qualche elemento in più.
Passando a cose più serie, ossia le pubblicazioni scientifiche, è evidente che questo (e altri) fenomeni, fossero già noti ben prima della "scoperta" dei tecnici di dxomark e non solo ai progettisti di lenti e sensori digitali (basta guardare le date degli articoli che si trovano online) :D .
Allo stesso modo, il vignetting e fenomeni di light fall, soprattutto in prossimità dei margini del frame, erano fenomeni noti ben prima dell'era digitale. Questo significa che, ad esempio, le microlenti, contrariamente a quanto scritto da chi ha iniziato il thread su dpreview, non sono la causa del vignetting ma, se mai, il rimedio: il pixel vignetting è solo una componente del fenomeno globale ed è l'unica imputabile al digitale ma microlenti progettate bene ne introducono poco ma, in compenso, aumentano notevolmente la capacità dei singoli pixel di catturare luce anche con angoli meno favorevoli; questo spiega il perchè, contrariamente a quanto affermato dai tecnici di dxomark, il teorema "pixel più grandi = meno light fall" non è valido in toto ma solo a parità di tecnologia (delle microlenti). Tra le altre cose, sempre il citato articolo di Stanford parla dei problemi connessi alle operazioni di scaling dimensionale dei pixel e, in particolare, alla necessità di progettare microlenti che non solo tendano a focalizzare la luce verso il centro del pixel, ma anche a guidarla in modo tale che raggiunga la parte fotosensibile dello stesso (con riferimento ai cmos di tipo aps FSI). Questo perchè, in caso contrario, si hanno due fenomeni: abbassamento dell'efficienza ottica del pixel (che ha come conseguenza il light fall) e accentuazione dei fenomeni di optical pixel crosstalk (ovvero interferenze tra radiazioni incidenti su pixel confinanti, da non confondere con il crosstalk di tipo elettronico). Questi fenomeni, ovviamente, sono tanto più presenti nelle zone periferiche, dove gli angoli di incidenza sono meno favorevoli e si accentuano al diminuire delle dimensioni dei pixel.
Solo poche righe su questo articolo (http://www.pages.drexel.edu/~par24/rawhistogram/CanonRawScaling/CanonRawScaling.html); qui in parte è confermato l'oggetto del thread, ossia l'incremento della sensibilità per compensare le perdite di luminosità. In realtà, l'articolo è incentrato su un altro punto: ossia sulle manipolazioni che vengono fatte sui file RAW che, come ho ripetuto più volte, non solo in questo thread, sono tutt'altro che grezzi (e canon è, probabilmente, quella che manipola di meno i RAW).
Detto ciò, continuo a non vedere il presunto "complotto" o imbroglio a chiamalo come vuoi, da cui si salverebbero solo i produttori di pellicole perchè queste ultime non possono variare al volo gli ISO quando c'è una perdita di luminosità su parte del frame :D .
Piuttosto, guardando le date, vedo che la lettera aperta di LL è di ottobre 2010 e cita un articolo di dxolabs di fine novembre dello stesso anno :fagiano:

Chelidon
02-01-2012, 21:13
Avevo cominciato a risponderti al penultimo appena l'avevi scritto ma poi non avevo postato per impegni, ora vedo che in parte hai modificato l'intervento nell aprte finale e iniziale, oltre ad aver aggiunto un'intervento quindi pazienta se lo leggerò dopo e troverai in parte risposta anche al secondo.
La "caduta di luce" avviene anche con la pellicola, ma non puoi scoprire il "trucco" andando a misurare la sensibilità perchè questa non varia. Tra pellicola e sensore le causa di perdita della luminosità sono le stesse, tranne che per un elementoEsistono anche gli esposimetri esterni, che era quello che usava eurostar nella prova pellicola-sensore che si è persa nei meandri di quella discusssione. Sulla pellicola l'unica "caduta" è quella dovuta alla vignettatura "fisiologica" dell'obiettivo, solo il pixel con la sovrastruttura non esposta determina gli altri due fenomeni descritti nelle pubblicazioni.
Il primo colpisce tutti i pixel ed è il "limite di apertura numerica" cioè il fatto che l'apertura del pixel non sta dietro a quello che gli arriva dalla lente (cioè il colpevole di DxO) cito la pubblicazione:
In summary, the microlens should have an f/# that is smaller than that of the imaging lens by a factor that depends on the desired concentration.
The dilemma in pixel scaling for CMOS imagers is the following. Small pixel sizes require imaging lenses with small f/#s to obtain a sufficient photon supply at the sensor surface (see section Photon noise). Concentration of light onto the photosensitive area in small pixels requires a microlens with even smaller f/#. Given the small pixel aperture, the smaller f/# means shorter focal length. The focal length is determined by the sensor thickness (stack height). When CMOS technology scales, the lateral dimensions (e.g., transistor size and pixel size) shrink but the stack height usually increases.
Quindi è un problema esasperato dalla porzione superficiale coperta dalla circuiteria e dalla profondità dello strato fotosensibile. La prima richiede maggiore concentrazione alla microlente e pone un vincolo sull'apertura della stessa, la seconda pone un vincolo sulla focale della microlente, di conseguenza la sua apertura numerica (tradotto per tutti è il diaframma o f-stop della microlente, anche se non sono propriamente la stessa cosa) ha un LIMITE TECNICO imposto da quei due fattori geometrici.
Il secondo colpisce i pixel periferici ed è il "pixel vignetting" cioè riorientare i raggi via via che ci si allontana dall'asse centrale, (un pixel sul bordo ha il paraocchi: analogamente a quanto succede con la lente per la luce che arriva dalle estremità che trova il barilotto e più vetro e perciò crea la vignettatura) e questo si somma al profilo di vignettatura fisiologica della lente; che questa aumenti sui sensori digitali è cosa già nota da tempo. Questa è sempre stata considerata la funzione principale delle microlenti perchè come ammettono nell'articolo sul primo problema sono vincolati (e suggeriscono infatti che nell'ideazione di sensori per immagini si privilegi una progettazione semplificata della circuiteria per contenere il problema).
Given the difficulties associated with microlens design, the main purpose of the microlens array is no longer concentration. Rather, the most important function is the redirection of light onto the photodetector for off-axis pixels. To achieve proper redirection of light, the microlenses must be offset from the center of the pixel aperture.
In parole povere alzano bandiera bianca sul risolvere il primo problema e si occupano più che altro del secondo, che è quello che consideri sempre anche te. MA QUESTO NON VUOL DIRE che il primo problema smette di esistere semplicemente perché non ci sono sforzi per compensarlo più di tanto con le microlenti, SOLO che c'è un limite tecnologico noto nelle tecnica delle microlenti.
che in effetti è quello che sembrerebbe succedere con le FF nei casi più gravi (5d, 5d MII, 1Ds MIII e nesuna delle 3 dotata di particolari accorgimenti nella progettazione delle micorlenti). No, aspetta il mezzo stop è contato (ripeto con approssimazioni che sovrastimano MOLTO) solo per una vignettatura su APS, su FF la vignettatura agli estremi raddoppia circa o più (vedi profili misurati da DxO per es. e prova ora a far tornare i tuoi ragionamenti! :Perfido: Ammiro l'impegno :) ma pure stavolta ti sei dimenticato dell'area: è un fenomeno che pesa di più quanto più ci si allontana dall'asse quindi sono peggio i sensori grandi). Quindi il paradosso è che la tua teoria coi miei conti alla carlona, direbbe che sulle FF la caduta dovrebbe essere addirittura superiore al misurato (riprova che sto sovrastimando molto l'effetto) mentre sulle APS molto inferiore al misurato (riprova che non è quello il fenomeno che spiega le differenze del grafico altrimenti la distribuzione sarebbe specchiata dall'altra parte con le FF in basso). L'unica conclusione del mio esempio è che sovrastimiamo MOLTO l'effetto della vignettatura sull'esposizione complessiva.
Invece la tendenza è concorde con la riduzione del pixel, così come previsto per il primo difetto quindi non vedo perché dovrei pensare a un fenomeno secondario (vignettatura) che non tiene conto di quell'andamento. A maggior ragione, poi, se c'è un aggravio della vignettatura col pixel vignetting, allora significa dare un peso ancora maggiore al primo difetto (che si arrendono perfino dal correggere a differenza dell'altro!) dato che hanno la medesima genesi. :sofico:
Ovviamente non è solo la riduzione (pixel pitch) che influisce, ma anche questo è concorde col fatto che, come spiegato nell'articolo, dipende dalla tecnologia di produzione e dal progetto della microlente. Sicuramente sono state affinate diversamente negli anni (quante volte abbiamo sentito parlare di nuove lenti gapless o altri affinamenti come quelli a cui ti riferisci appunto), ciò può spiegare perché un modello più vecchio o di gamma inferiore a parità di pitch possa fare peggio.
nei casi più gravi, chi si avvicina ad 1 eV sono i sensori aps-c; anzi sono convinto che, se nel grafico con apertura 1.2 fosse stata presente anche nikon, le varie d80, d40, ecc, avrebbero superato l'unità abbondantemente
Ma non hai guardato attentamente l'analisi di DxO? :Prrr: Certo che l'avrebbe superato è analogo al grafico dopo, :p la caduta a f/1.4 è solo ovviamente proporzionalmente minore a quella a f/1.2 però se osservi i grafici sono perfettamente IDENTICI come dispersione dei dati! Lì le Nikon guardacaso danno i risultati che prevedevamo cioè le più vecchie o quelle di fascia bassa (microlenti meno affinate: l'hai appena fatto pure te il discorso ;) ) fanno peggio nonostante il pixel pitch.
http://www.dxomark.com/itext/insights_tstop/Tstop1.jpg
Ripeto di nuovo gli esempi citati: d200 e d80, così come 30d e 20d hanno lo stesso sensore (quando dico stesso intendo identico), con lo stesso tipo di microlenti Mi ricollego a questo, lo so che dicevi d200/d80 ;) probabilmente a parità di sensore sul modello top gamma all'epoca mettevano microlenti migliori e invece dopo con d300/d90/d300s erano rientrati e non valeva più la pena differenziare. Tra 30D e 20D c'è un po' di differenza, ma tra 20D e la 350D di fascia bassa ma uscita quasi in contemporanea NO, magari quando hanno sostituito il modello x0D 18 mesi dopo avevano affinato le microlenti nel processo produttivo :boh: (costerà sicuramente meno cambiare l'ultimo piuttosto che riprogettare tutti i processi litografici del sensore). Lo stesso si può dire per altri casi: :boh: fra 7D e 550D (18Mpx) c'è differenza (come tra 20D e 30D) e pure lì quella della generazione dopo fa meglio, ma ad esempio fra 50D e 500D (15Mpx) NO, un altro caso esmplare che non muta è D40X/D60 (10Mpx) che sono praticamente la stessa macchina (con la D80 attaccata pure), così come D50/D70/D40 (6Mpx). Anche k20d e k-7 hanno lo stesso identico sensore a sentito comune, peccato che uno può fare i video e l'altro no quindi NON è sicuramente lo stesso identico sensore! :asd: Certo non è come passare dal bianco al nero, esistono i toni di grigio: non avranno riprogettato tutto ma qualcosa ogni tanto affinano. D'altronde come fai ad essere sicuro di cosa facciano nella produzione e che mantengano sempre lo stesso protocollo dall'inizio alla fine in tutti i casi simili? Di sicuro non vengono a dircelo a noi! Perfino quando riutilizzano lo stesso sensore (Sony) su più fotocamere a distanza di 6 mesi o un anno, a me vengono seri e fondati dubbi non possa essere stato affinato qualcosa, visto come a volte cambia la QI.
l'articolo parla solo dei sensori di tipo aps FSI e, infatti, parla dell'indirizzamento della luce al'interno del tunnel che conduce al fotodiodo. Però, dalle rilevazioni fatto con dxomark, lo stesso problema si riscontra con i CCD, anzi, a dire il vero, quelli si comportano peggio sono proprio questi ultimiRiguardo le tipologie di CMOS, visto che so trovi interessanti queste cose, in un'altro della bibliografia [19] del 2000 (http://www-isl.stanford.edu/groups/elgamal/abbas_publications/C074.pdf) (citato nel nostro di riferimento trovato da Mercuri0), fa proprio un paragone fra tecnologia APS e DPS per mostrare come l'aggiunta complessità riduce la OE. Ti ho tenuto per ultimo il discorso CCD, perché l'articolo a cui ci riferiamo è sui CMOS e ovviamente si riferisce a quelli, ma nel [13] (http://www.opticsinfobase.org/abstract.cfm?&id=69473) della bibliografia ad esempio che è uno studio sul calcolo della OE, accenna che è un problema generale.
Experimental evidence shows that OE can be a significant factor when an image sensor pixel is implemented by using either charge-coupled-device (CCD) or CMOS technology.
Non ci voleva molto a intuirlo, visto che anche nei CCD la parte sensibile non occupa comunque tutta la superficie del pixel (tra l'altro è questo che distingue i sensori dalla pellicola, là non hai questi problemi perché non hai microlenti con la loro NA), anche perché comunque le microlenti ce le hanno pure i ccd proprio per migliorare l'efficienza, come può indovinare chiunque. Io sta cosa è dall'inizio che la ripeto, anche se LL l'ha fatta passare in secondo piano (essendo stati i primi contattati da DxO probabilmente avranno visto solo i primi dati delle Canon) e addirittura su pentaxiani mi pare questo pensiero distorto stia sfociando nella leggenda che le vecchie col CCD ne siano immuni.. :doh: Quando dico che le prove sono più affidabili se fatte da laboratori c'è un motivo.. :rolleyes:

yossarian
02-01-2012, 23:48
Avevo cominciato a risponderti all'ultimo ma non avevo postato per impegni, ora vedo che in parte hai modificato l'ultima riga e aggiunto un'intervento quindi pazienta se lo leggerò dopo e troverai in parte risposta anche al secondo.
Esistono anche gli esposimetri esterni, che era quello che usava eurostar nella prova pellicola-sensore che si è persa nei meandri di quella discusssione. Sulla pellicola l'unica "caduta" è quella dovuta alla vignettatura "fisiologica" dell'obiettivo, solo il pixel con la sovrastruttura non esposta determina gli altri due fenomeni descritti nelle pubblicazioni.
Il primo colpisce tutti i pixel ed è il "limite di apertura numerica" cioè il fatto che l'apertura del pixel non sta dietro a quello che gli arriva dalla lente (cioè il colpevole di DxO) cito la pubblicazione:

Quindi è un problema esasperato dalla porzione superficiale coperta dalla circuiteria e dalla profondità dello strato fotosensibile. La prima richiede maggiore concentrazione alla microlente e pone un vincolo sull'apertura della stessa, la seconda pone un vincolo sulla focale della microlente, di conseguenza la sua apertura numerica (tradotto per tutti è il diaframma o f-stop della microlente, anche se non sono propriamente la stessa cosa) ha un LIMITE TECNICO imposto da quei due fattori geometrici.
Il secondo colpisce i pixel periferici ed è il "pixel vignetting" cioè riorientare i raggi via via che ci si allontana dall'asse centrale, (un pixel sul bordo ha il paraocchi: analogamente a quanto succede con la lente per la luce che arriva dalle estremità che trova il barilotto e più vetro e perciò crea la vignettatura) e questo si somma al profilo di vignettatura fisiologica della lente; che questa aumenti sui sensori digitali è cosa già nota da tempo. Questa è sempre stata considerata la funzione principale delle microlenti perchè come ammettono nell'articolo sul primo problema sono vincolati (e suggeriscono infatti che nell'ideazione di sensori per immagini si privilegi una progettazione semplificata della circuiteria per contenere il problema).

In parole povere alzano bandiera bianca sul risolvere il primo problema e si occupano più che altro del secondo, che è quello che consideri sempre anche te. MA QUESTO NON VUOL DIRE che il primo problema smette di esistere semplicemente perché non ci sono sforzi per compensarlo più di tanto con le microlenti, SOLO che c'è un limite tecnologico noto nelle tecnica delle microlenti.


veramente l'articolo dice un'altra cosa: mette in relazione l'apertura delle microlenti e quella dell'ottica al variare delle dimensioni dei pixel del sensore e dice che al diminuire di queste dimensioni, per compensare la diminuzione di concentrazione di luce sulla superficie del singolo pixel è necessario adottare microlenti con aperture numeriche inferiori ma questo porta come conseguenza che deve diminuire anche la lunghezza focale, cosa che, di fatto, non avviene, poichè le operazioni di scaling difficilmente coinvolgono la struttura verticale del sensore (sicuramente non la coinvolgono nella stessa misura di quelle orizzontali). Questo significa che hai pixel più piccoli ma con la stessa lunghezza focale o che, comunque,il rapporto tra dimensioni del pixel e lunghezza focale diminuisce; adottare microlenti con apertura inferiore provoca, in queste situazioni, il fenomeno del crosstalk ottico tra pixel contigui. Per evitare che ciò accada, piuttosto che focalizzare gli sforzi sulla riduzione dell'apertura numerica delle microlenti, si cerca di ridurre il fenomeno del crosstalk attraverso barriere (che si comportano allo stesso idenico modo delle pareti di una fibra ottica) poste lungo le pareti del canale che dalla superficie del pixel porta al fotodiodo. Tutta questa menata, però, è riferita solo ed esclusivamente, ai cmos aps con tecnologia FSI. Per i ccd e i cmos BSI questo non vale per il semplice motivo che non esiste un canale tra superifice del sensore e parte fotosensibile, poichè la parte fotosensibile è posta al di sopra dei circuiti elettronici. Le conseguenze sono che ccd e cmos BSI hanno una OE notevolmente superiore ai cmos FSI a parità di dimensioni, ma non c'è modo di evitare il fenomeno del crosstalk ottico. Lo stesso succede con i sensori x3 di foveon.


No, aspetta il mezzo stop è contato (ripeto con approssimazioni che sovrastimano MOLTO) solo per una vignettatura su APS, su FF la vignettatura agli estremi raddoppia circa o più (vedi profili misurati da DxO per es. e prova ora a far tornare i tuoi ragionamenti! :Perfido: Ammiro l'impegno :) ma pure stavolta ti sei dimenticato dell'area: è un fenomeno che pesa di più quanto più ci si allontana dall'asse quindi sono peggio i sensori grandi). Quindi il paradosso è che la tua teoria coi miei conti alla carlona, direbbe che sulle FF la caduta dovrebbe essere addirittura superiore al misurato (riprova che sto sovrastimando molto l'effetto) mentre sulle APS molto inferiore al misurato (riprova che non è quello il fenomeno che spiega le differenze del grafico altrimenti la distribuzione sarebbe specchiata dall'altra parte con le FF in basso). L'unica conclusione del mio esempio è che sovrastimiamo MOLTO l'effetto della vignettatura sull'esposizione complessiva.
Invece la tendenza è concorde con la riduzione del pixel, così come previsto per il primo difetto quindi non vedo perché dovrei pensare a un fenomeno secondario (vignettatura) che non tiene conto di quell'andamento. A maggior ragione, poi, se c'è un aggravio della vignettatura col pixel vignetting, allora significa dare un peso ancora maggiore al primo difetto (che si arrendono perfino dal correggere a differenza dell'altro!) dato che hanno la medesima genesi. :sofico:

il fatto che il tuo ragionamento fosse riferito all'aps-c (aps sono tutti i formati di cmos attuali, pochè sta active pixel sensor, quindi vale per i c, hli h e i ff :p ) non sposta di una virgola le mie considerazioni che sono basate sul rapporto tra la QE del singolo pixel e la caduta di luce misurata da dxomark. Ripeto il concetto: a parità di tecnologia di sensori e microlenti, tra una d3 e una d300 c'è un rapporto di QE pari a 3:1. Se consideriamo solo la vignettatura fisica (ma non è l'unico fattore) sarebbe necessaria una perdita di luce 3 volte superiore sui bordi di una FF per far registrare gli stessi valori da dxomark e spingere allo stesso livello di livello di compensazione una FF .


Ovviamente non è solo la riduzione (pixel pitch) che influisce, ma anche questo è concorde col fatto che, come spiegato nell'articolo, dipende dalla tecnologia di produzione e dal progetto della microlente. Sicuramente sono state affinate diversamente negli anni (quante volte abbiamo sentito parlare di nuove lenti gapless o altri affinamenti come quelli a cui ti riferisci appunto), ciò può spiegare perché un modello più vecchio o di gamma inferiore a parità di pitch possa fare peggio.


le microlenti gapless vanno proprio in direzione contraria alla riduzione dell'apertura numerica al diminuire delle dimensioni. O meglio, al diminuire delle dimensioni, invece di ridurre proporzionalmente l'apertura numerica con la conseguenza di lasciare aree del sensore non coperte da microlenti, si preferisce coprire l'intera superficie del sensore e, a livello di canali interni, guidare la luce sul fotodiodo per evitare il crosstalk. IN seguito sarà chiaro perchè ho tirato in ballo i CCD. :D


Ma non hai guardato attentamente l'analisi di DxO? :Prrr: Certo che l'avrebbe superato è analogo al grafico dopo, :p la caduta a f/1.4 è solo ovviamente proporzionalmente minore a quella a f/1.2 però se osservi i grafici sono perfettamente IDENTICI come dispersione dei dati! Lì le Nikon guardacaso danno i risultati che prevedevamo cioè le più vecchie o quelle di fascia bassa (microlenti meno affinate: l'hai appena fatto pure te il discorso ;) ) fanno peggio nonostante il pixel pitch.
http://www.dxomark.com/itext/insights_tstop/Tstop1.jpg
Mi ricollego a questo, lo so che dicevi d200/d80 ;) probabilmente a parità di sensore sul modello top gamma all'epoca mettevano microlenti migliori e invece dopo con d300/d90/d300s erano rientrati e non valeva più la pena differenziare. Tra 30D e 20D c'è un po' di differenza, ma tra 20D e la 350D di fascia bassa ma uscita quasi in contemporanea NO, magari quando hanno sostituito il modello x0D 18 mesi dopo avevano affinato le microlenti nel processo produttivo :boh: (costerà sicuramente meno cambiare l'ultimo piuttosto che riprogettare tutti i processi litografici del sensore). Lo stesso si può dire per altri casi: :boh: fra 7D e 550D (18Mpx) c'è differenza (come tra 20D e 30D) e pure lì quella della generazione dopo fa meglio, ma ad esempio fra 50D e 500D (15Mpx) NO, un altro caso esmplare che non muta è D40X/D60 (10Mpx) che sono praticamente la stessa macchina (con la D80 attaccata pure), così come D50/D70/D40 (6Mpx). Anche k20d e k-7 hanno lo stesso identico sensore a sentito comune, peccato che uno può fare i video e l'altro no quindi NON è sicuramente lo stesso identico sensore! :asd: Certo non è come passare dal bianco al nero, esistono i toni di grigio: non avranno riprogettato tutto ma qualcosa ogni tanto affinano.

li ho guardati molto bene, anzi ho fatto di più; li ho confrontati con i grafici relativi al rumore :sofico:
Un sensore identico ad un altro, con microlenti migliori, a parità di iso, fa segnare SNR più elevati a causa della maggior OE e del miglior contenimento del crosstalk (nel caso dei cmos FSI). Invece, prendendo le stesse misurazioni di dxolabs, questo non avviene; in alcuni casi il comportamento è identico, in altri, addirittura, venno meglio quelli che fanno registrare cadute di luce più elevate. Scusa tanto, ma i conti non tornanno affatto :mbe: .
In quanto alla tipologia dei sensori, quello della d200 e quello della d80 differiscono solo leggerissimamente a livello di dimensioni lineari, pur conservando la stessa area e le stesse dimensioni dei singoli pixel, in quanto la d200 ha 4 readout channel contro i 2 della d80. Tra 20d e 30d il sensore è lo stesso, mentre è leggermente differente quello della 350d. Il fatto che la k7 faccia i video e la k20 no non ha alcun significato: in una fotocamera non è il sensore l'unica componente elettronica presente; prensìdi un pc senza un codec, ad esempio, per il formato AVCHD e poi prendine uno identico dotato del codec necessario. L'hardware è lo stesso, le funzionalità no :D

D'altronde come fai ad essere sicuro di cosa facciano nella produzione e che mantengano sempre lo stesso protocollo dall'inizio alla fine in tutti i casi simili? Di sicuro non vengono a dircelo a noi! Perfino quando riutilizzano lo stesso sensore (Sony) su più fotocamere a distanza di 6 mesi o un anno, a me vengono seri e fondati dubbi non possa essere stato affinato qualcosa, visto come a volte cambia la QI.


non necessariamente a livello hardware. Due sensori identici con identiche microlenti, identico filtro antimoire e, per giunta, stesso processore, non implicano la stessa QI. Questo può dirtelo chiunque abbia qualche nozione di elettronica digitale. Se, ad esempio, traslo verso sinistra il valore di offset della dark current, ottengo una riduzione della relativa componente di rumore, con la conseguenza che il sistema tende a "piallare" tutti i dettagli fini anche sui file RAW. Il tutto viene fatto semplicemnete impostando valori di offset differenti a livello software :p


Riguardo le tipologie di CMOS, visto che so trovi interessanti queste cose, in un'altro della bibliografia [19] del 2000 (http://www-isl.stanford.edu/groups/elgamal/abbas_publications/C074.pdf) (citato nel nostro di riferimento trovato da Mercuri0), fa proprio un paragone fra tecnologia APS e DPS per mostrare come l'aggiunta complessità riduce la OE. Ti ho tenuto per ultimo il discorso CCD, perché l'articolo a cui ci riferiamo è sui CMOS e ovviamente si riferisce a quelli, ma nel [13] (http://www.opticsinfobase.org/abstract.cfm?&id=69473) della bibliografia ad esempio che è uno studio sul calcolo della OE, accenna che è un problema generale.


l'articolo che hai linkato fa un paragone tra cmos a 2 layer e cmos a 4 layer. APS sta per active pixel sensor ed è contrapposto a PPS, ovvero la tipologia di sensori con tecnologia mos di tipo passivo inizialmente messi sul mercato, estremamente economici, che si basavano su un principio di funzionamento analogo a quello dei ccd avendo una OE ed una QE decisamente inferiori. Gli aps hanno circuiti di ampificazione, lettura dei valori di soglia per ogni pixel e digitalizzazione sul sensore. DPS sta semplicemente per digital pixel sensor (oovero fa riferimento a tutti i tipi di sensore digitale) ma, nell'articolo, fa riferimento a cmos con 4 layer di tipo metallico, usati per le interconnessioni e come parziale guida d'onda della radiazione all'interno del tunnel tra superficie del sensore e fotodiodo, ovvero quello di cui parlavo prima; nello specifico si usa una barriera di tipo metallico perchè risulta più efficiente di una basata sulle riflessioni indotte da materiali con differenti indici di rifrazione e, a dirla tutta, oggi l'estensione di questa barriera arriva ben oltre lo spessore del layer n°4 indicato nell'articolo linkato, arrivando fin quasi al livello del fotodiodo. Tra l'altro, tra le soluzioni proposte per ridurre il pixel vignetting, alla fine dello stesso articolo, c'è proprio l'adozione di microlenti (ripeto: sono lka soluzione e non il problema).
p.s. non è che i cmos mi piacciono tanto. Personalmente non li trovo particolarmente attraenti; il fatto è che fanno parte del mio lavoro, quindi, comunque, devo averci a che fare, anche non volendo :D



Non ci voleva molto a intuirlo, visto che anche nei CCD la parte sensibile non occupa comunque tutta la superficie del pixel

"tutta no, ma buona parte si" :D . Prendi un ccd full frame transfer, di sicuro non ha la stessa OE di un frame transfer o di un interline transfer. Nel primo caso, la porzione di superficie non occupata da elementi fotosensibili e decisamente piccola in percentuale rispetto alla superficie totale.


tra l'altro è questo che distingue i sensori dalla pellicola,

neppure la superficie della pellicola è completamente fotoassorbente, anzi. Il numero di fotorecettori non è infinito e non rappresentano un continuum, il che significa che buona parte della radiazione incidente non viene catturata dalla superficie e gli errori imputabili a raggi non perpendicolari alla superficie compaionjo allo stesso modo di quanto avviene con il crosstalk ottica nei sensori digitali. La perdita di luce con la pellicola, di conseguenza, non si limita al solo vignetting fisico, imputabile alla geometria della lente.



là non hai questi problemi perché non hai microlenti con la loro NA anche perché comunque le microlenti ce le hanno pure loro proprio per migliorare l'efficienza, come può indovinare chiunque. Io sta cosa è dall'inizio che la ripeto, anche se LL l'ha fatta passare in secondo piano (essendo stati i primi contattati da DxO avevano visto solo i primi dati delle Canon) e addirittura su pentaxiani mi pare questo pensiero distorto stia sfociando nella leggenda che le vecchie col CCD ne siano immuni.. :doh: Quando dico che le prove sono più affidabili se fatte da laboratori c'è un motivo.. :rolleyes:

continui a partire dall'assunto che le microlenti siano il problema, mentre invece sono la soluzione. La pellicola si comporta ben peggio dei sensori digitali nei confronti del rumore, presenta una superficie fotoasorbente NON CONTINUA (benchè si definisca analogico) e non può essere dotata di microlenti (che sono un vantaggio per una superficie fotoassorbente non continua e non una svantaggio).
In quanto alle prove, andrebbero fatte in laboratorio, ma sapendo cosa si va a misurare, cosa che spesso non avviene (e mi riferisco anche alle prove fatte con dxomark)

Chelidon
03-01-2012, 00:12
Soc! Ma sai che non riesco a capire se fai fatica a crederci per un pregiudizio duro a morire o semplicemente non leggi attentamente gli articoli!? :wtf: Comunque in un caso o nell'altro non capisco (visto che so che sui sensori in genere sei molto interessato :) ) perché non ti assicuri di avere considerato bene tutto prima di scrivere..
guardando le date, vedo che la lettera aperta di LL è di ottobre 2010 e cita un articolo di dxolabs di fine novembre dello stesso anno :fagiano: Ad esempio qua ti saresti risparmiato la battuta, :stordita: visto che spiegano proprio nella lettera che hanno avuto contatti con DxO, che gli ha fatto notare per primi i risultati che poi hanno reso pubblici...
Per il resto, mettere in un unico calderone i risultati di dxomark (che, ripeto, dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore), un articolo di Stanford che parla dei problemi connessi allo scaling geometrico dei pixel, i problemi di accoppiamento lente-sensore e, a questo punto, non vedo perchè tralasciare l'effetto blurring del filtro antimoire o gli effetti del filtro IR A me pare ovvio che nell'articolo di Stanford la parte che interessa a noi sia solo il discorso delle microlenti :mbe: e che il lettore accorto scarti il resto dei ragionamenti. :OT:
Spero di non sembrare che ci vada giù pesante, ma il calderone lo fai te, se vai a tirare in ballo fenomeni che non causano la perdità di esposizione riscontrata, ma semplicemente difetti nell'immagine o altre cose che nulla centrano. :confused:
rileggendo l'articolo di dxomark in cui si parla delle misurazioni effettuate sui sensori con ottiche f/1.2 e f/1.4, mi sono venute in mente una serie di questioni.
nell'articolo si parla di una caduta di intensità luminosa rilevata ai bordi utilizzando ottiche luminose, ma manca un'analisi approfondita di un fenomeno, per altro già noto e che provoca altri effetti visibili come, ad esempio la vignettatura.
Non c'è l'analisi che chiedi perché non parlano da nessuna parte di una caduta ai bordi! :mc: Mi chiedo dove lo leggi visto che ti sei fissato un po' su questo, comunque rileggi l'ultimo mio intervento, dove ti ho fatto notare che il fenomeno che ipotizzi non spiega la distribuzione dei dati, se ancora non sei convinto. :)
la "perdita di luce" avviene rispetto a cosa? Ad un ipotetico obiettivo ideale di uguale apertura e stessa trasmittanza? Rispetto al centro (e grazie, verrebbe da aggiungere :D )?
dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore
Sul fatto che sono stati molto ermetici in quella paginetta ti do certamente ragione :mano: e anch'io mi sarei aspettato un approfondimento più chiaro e scientifico (ma non sarebbe la prima volta che in un secondo momento sull'ondata di richieste chiariscono le procedure tenute e articolino meglio la fondatezza delle loro conclusioni, ad esempio come in questo caso :read: (http://www.dxomark.com/index.php/Publications/DxOMark-Insights/Pushed-ISO-Let-s-make-it-clear)). Però, se ti dai da fare e cerchi un attimo, :read: mi pare piuttosto scontato che siano i dati aggregati presi dai loro database con due tipologie di misurazione distinte:
una è il delta di esposizione rispetto a quella prevista nella progressione degli stop per aperture grandi (si riferiscono a misure di T-stop (http://www.dxomark.com/index.php/About/In-depth-measurements/DxOMark-testing-protocols/Light-transmission) al variare dell'apertura e dicono che la differenza si presenta sopra f/2, anche se a supporto mettono solo i due grafici per f/1.2 e f/1.4). Infatti, se ti vai a guardare le loro prove di trasmittanza degli obiettivi a TA sono concordi con quei dati: col 50/1.2 a TA la 450D fa T-1.7 mentre la 5D fa T-1.4.
l'altra è portata a sostegno del fatto che le case conoscono il problema ed è concettualmente una verifica dello standard ISO (http://www.dxomark.com/index.php/About/In-depth-measurements/DxOMark-testing-protocols/ISO-sensitivity) quando varia l'apertura sopra f/2.8 tipo quelle che usano per i punti delle curve ISO.
In entrambi i casi puoi farti un'idea del protocollo che utilizzano, se ti leggi quei due link che ti ho messo, dove spiegano come fanno le misure e mi sembra siano sicuramente più precise e affidabili di quelle degli utenti (che comunque finora confermano quelle di DxO).
2) nell'articolo si afferma che il conseguente innalzamento degli ISO per compensare la "perdita di luce" provochi più rumore senza portare benefici. In realtà anche la stessa caduta di luce provoca un peggioramento del SNR e questo dovrebbe significare che i sensori che nel test (http://www.dxomark.com/index.php/Publications/DxOMark-Insights/F-stop-blues) presentano il fenomeno in maniera più accentuata dovrebbero presentare cifre di rumore più elevate.
Stai parlando dei punteggi di DxO dati alle fotocamere per il rumore, immagino. Scusa ma trovo il discorso poco chiaro e mi sembra ci sia una trave gigantesca a cui non fai caso qui ma dopo sì: cioè che bisogna considerare anche la tecnologia del sensore che ovviamente ha ripercussioni sull'SNR. Sia con questo punto che col successivo mi sembra di averti già risposto nel precedente intervento.
Sul punto 4) hai ragione: l'amplificazione non trasparente dell'ISO è solo un pagliativo e non corregge interamente la perdita, ma mi chiedo anche quanti noterebbero comunque che un'obiettivo del genere perda 0,4-0,3 EV solo a tutta apertura! Occhio a f/2 e f/2.8 la perdità si riduce e sfido se c'è chi con una scena varia (non lo sfondo uniforme di un test) riesca a distinguere differenze di esposizione inferiori al quarto di stop e abbia l'accortezza mentale di collegare tutti i pezzi del puzzle fino a notare che è un problema che capita solo col costoso obiettivo luminoso a TA!

A parte il discorso che ti ho già fatto che sulla pellicola hai solo vignettatura e non problemi dovuti a pixel che non ci sono proprio! Visto che i fenomeni che abbiamo descritto sorgono perché l'area sensibile non coincide con l'area del pixel: per questo servono le microlenti proprio come fai notare tu. Su tutto quello dopo sono perfettamente d'accordo e l'ho letto anch'io: le microlenti hanno un ruolo fondamentale e a detta dei "tecnici" per ora in parte sono l'anello debole che va migliorato e limita sia l'integrazione esagerata (DPS) che scalare Mpx.

Detto ciò, continuo a non vedere il presunto "complotto" o imbroglio a chiamalo come vuoi, da cui si salverebbero solo i produttori di pellicole perchè queste ultime non possono variare al volo gli ISO quando c'è una perdita di luminosità su parte del frame :D A parte che l'imbroglio deriva dal fatto di alzare la sensibilità senza comunicarlo e ciò è imbroglio non rispetto alla pellicola, quanto piuttosto rispetto alle lenti più buie che non ne hanno bisogno e costano esponenzialmente molto meno. Come fatto notare da chi ha sollevato la questione.
Dimentichi che ora non è che la situazione sia scegli o la tecnologia pellicola o quella sensore. Dato che c'è stato un ordine temporale e ora i secondi hanno soppiantato la prima, anche grazie ad un certo numero di vantaggi (ben sottolineati dalla pubblicità quando si trattava di fare il passaggio), si potrebbe notare che i fenomeni descritti siano uno svantaggio degli attuali sensori (benché palesemente noto stranamente sottaciuto) e sotto questa luce (come ho già fatto notare indietro) si capisce il vespaio di polemiche di LL e altri che quel passaggio l'hanno conosciuto.

yossarian
03-01-2012, 00:54
A me pare ovvio che nell'articolo di Stanford la parte che interessa a noi sia solo il discorso delle microlenti :mbe: e che il lettore accorto scarti il resto dei ragionamenti. :OT:
Spero di non sembrare che ci vada giù pesante, ma il calderone lo fai te, se vai a tirare in ballo fenomeni che non causano la perdità di esposizione riscontrata, ma semplicemente difetti nell'immagine o altre cose che nulla centrano. :confused:


sull'articolo di stanford ho risposto sopra e lo ripeto: parla di scaling delle dimensioni lineari dei pixel DI TIPO APS FSI e non di altre tipologie di sensori digitali. Nell'articolo di stanford si parla della necessità di "guidare" la radiazione verso la parte fotosensibile facendole attraversare il tunnel che la separa dalla superficie del sensore. Ora, probabilmente capisco la tua difficoltà nell'identificare la tipologia di sensore a cui si riferisce, poichè i non addetti ai lavori non sanno che queste considerazini non sono applicabili ai cmos BSI, agli X3 e ai ccd. Quindi, stai prendendo un articolo che parla di una tipologia specifica di sensori e stai estendendo le conclusioni ad altre tipologie per cui l'articolo di stanford non trova applicazione. Inoltre, gli articoli citati parlano di dimensioni di 3 e 1,2 micron per pixel rispettivamente (parliamo di reflex o di compatte?)


Non c'è l'analisi che chiedi perché non parlano da nessuna parte di una caduta ai bordi! :mc: Mi chiedo dove lo leggi visto che ti sei fissato un po' su questo, comunque rileggi l'ultimo mio intervento, dove ti ho fatto notare che il fenomeno che ipotizzi non spiega la distribuzione dei dati, se ancora non sei convinto. :)


veramente non vedo nessun tipo di analisi ma solo una serie di dati messi li, riferiti ad un effetto già noto da tempo (e presente anche con la pellicola), dovuti, principalmente, alla non continuità della superficie di cattura della luce. Da questo punto di vista, un ccd full frame transfer, anche senza microlenti, presenta una superficie con caratteristiche di OE (equivalente) superiore a quella della miglior pellicola. Se vuoi un'analisi un po' più approfondita, magari guardati i risultati dell'Imatest.


Sul fatto che sono stati molto ermetici in quella paginetta ti do certamente ragione :mano: e anch'io mi sarei aspettato un approfondimento più chiaro e scientifico (ma non sarebbe la prima volta che in un secondo momento sull'ondata di richieste chiariscono le procedure tenute e articolino meglio la fondatezza delle loro conclusioni, ad esempio come in questo caso :read: (http://www.dxomark.com/index.php/Publications/DxOMark-Insights/Pushed-ISO-Let-s-make-it-clear)). Però, se ti dai da fare e cerchi un attimo, :read: mi pare piuttosto scontato che siano i dati aggregati presi dai loro database con due tipologie di misurazione distinte:
una è il delta di esposizione rispetto a quella prevista nella progressione degli stop per aperture grandi (si riferiscono a misure di T-stop (http://www.dxomark.com/index.php/About/In-depth-measurements/DxOMark-testing-protocols/Light-transmission) al variare dell'apertura e dicono che la differenza si presenta sopra f/2, anche se a supporto mettono solo i due grafici per f/1.2 e f/1.4). Infatti, se ti vai a guardare le loro prove di trasmittanza degli obiettivi a TA sono concordi con quei dati: col 50/1.2 a TA la 450D fa T-1.7 mentre la 5D fa T-1.4.
l'altra è portata a sostegno del fatto che le case conoscono il problema ed è concettualmente una verifica dello standard ISO (http://www.dxomark.com/index.php/About/In-depth-measurements/DxOMark-testing-protocols/ISO-sensitivity) quando varia l'apertura sopra f/2.8 tipo quelle che usano per i punti delle curve ISO.
In entrambi i casi puoi farti un'idea del protocollo che utilizzano, se ti leggi quei due link che ti ho messo, dove spiegano come fanno le misure e mi sembra siano sicuramente più precise e affidabili di quelle degli utenti (che comunque finora confermano quelle di DxO).


lo ripeto per l'ennesima volta: quelli di dxolabs hanno scoperto l'acqua calda :sofico: . Un'ottica più aperta, soprattutto con un barilotto non troppo lungo, ha più difficoltà a convogliare la luce in modo parallelo all'asse dell'obiettivo verso la superficie del sensore. Questo significa che molti raggi raggiungono la superficie fotoassorbente con angoli non ottimali e parte dell'informazione viene persa per tutta una serie di fenomeni di cui i più evidenti sono spiegabili con l'ottica geometrica e si manifestano, in particolare, nelle zone del sensore più distanti dal centro. Questo avviene perchè la superficie di cattura non è continua e omogenea ma vale con qualunque mezzo, analogico o digitale. La cosa paradossale è che si punta il dito contro le microlenti e la loro ridotta NA per giustificare il fenomeno. Ora, non mi pare troppo difficile capire che ciò che serve a focalizzare la luce sulla parte fotosensibile non può essere responsabile del fatto che la luce obliqua non arrivi sulla parte fotosensibile. Immaginiamo una serie di raggi obliqui che colpisce una superficie fotosensibile. Tutti quelli che cadono al di fuori dell'area atta a catturare la luce sono irrimediabilmente persi. Questo vale tanto per un sensore digitale quanto per una pellicola fotografica. Una microlente, per quanto scarsa, riesce a catturare parte (piccolissima?, sempre meglio di niente) di questa luce e a deviarla verso la superficie fotosensibile. Questo è un passo avanti non un passo indietro.


Stai parlando dei punteggi di DxO dati alle fotocamere per il rumore, immagino. Scusa ma trovo il discorso poco chiaro e mi sembra ci sia una trave gigantesca a cui non fai caso qui ma dopo sì: cioè che bisogna considerare anche la tecnologia del sensore che ovviamente ha ripercussioni sull'SNR. Sia con questo punto che col successivo mi sembra di averti già risposto nel precedente intervento.

ma anche no, visto che ho paragonato, di proposito, sensori identici sotto tutti i punti di vista.



Sul punto 4) hai ragione: l'amplificazione non trasparente dell'ISO è solo un pagliativo e non corregge interamente la perdita, ma mi chiedo anche quanti noterebbero comunque che un'obiettivo del genere perda 0,4-0,3 EV solo a tutta apertura! Occhio a f/2 e f/2.8 la perdità si riduce e sfido se c'è chi con una scena varia (non lo sfondo uniforme di un test) riesca a distinguere differenze di esposizione inferiori al quarto di stop e abbia l'accortezza mentale di collegare tutti i pezzi del puzzle fino a notare che è un problema che capita solo col costoso obiettivo luminoso a TA!

nessuno; infatti, con l'analogico, avveniva lo stesso ma non era possibile rendersene conto e nessuno si è mai lamentato :sofico:


A parte il discorso che ti ho già fatto che sulla pellicola hai solo vignettatura e non problemi dovuti a pixel che non ci sono proprio! Visto che i fenomeni che abbiamo descritto sorgono perché l'area sensibile non coincide con l'area del pixel: per questo servono le microlenti proprio come fai notare tu. Su tutto quello dopo sono perfettamente d'accordo e l'ho letto anch'io: le microlenti hanno un ruolo fondamentale e a detta dei "tecnici" per ora in parte sono l'anello debole che va migliorato e limita sia l'integrazione esagerata (DPS) che scalare Mpx.



non cambia un bel niente; la pellicola non ha i pixel ma ha una superficie granulare e tra un grano e l'altro c'è un mezzo non fotoassorbente e, quindi, del tutto inutile ai fini della cattura della luce; in più, la pellicola non ha neppure le microlenti. Ad essere pignoli sta messa pure peggio :p


A parte che l'imbroglio deriva dal fatto di alzare la sensibilità senza comunicarlo e ciò è imbroglio non rispetto alla pellicola, quanto piuttosto rispetto alle lenti più buie che non ne hanno bisogno e costano esponenzialmente molto meno. Come fatto notare da chi ha sollevato la questione.
Dimentichi che ora non è che la situazione sia scegli o la tecnologia pellicola o quella sensore. Dato che c'è stato un ordine temporale e ora i secondi hanno soppiantato la prima, anche grazie ad un certo numero di vantaggi (ben sottolineati dalla pubblicità quando si trattava di fare il passaggio), si potrebbe notare che i fenomeni descritti siano uno svantaggio degli attuali sensori (benché palesemente noto stranamente sottaciuto) e sotto questa luce (come ho già fatto notare indietro) si capisce il vespaio di polemiche di LL e altri che quel passaggio l'hanno conosciuto.

nessuno sottace niente; in rete ci sono centinaia di articoli che parlano dei problemi di focalizzazione della luce incidente con angoli non favorevoli su una superficie fotosensibile. Con la pellicola non potevi prendere nessun tipo di provvedimento, con il digitale puoi fare misurazioni più accurate, vedendo quello che realmente avviene a livello di sensore e non basandosi su misurazioni di un esposimetro esterno che non dà alcuna informazione sul comportamento della superficie fotoassorbente ma solo nozioni sul suo comportamento presunto in base alla luce in arrivo misurata e, infine, è possibile cercare di prendere provvedimenti agendo direttamente a livello di sensore. In quanto a imbrogli o presunti tali, mi pare che si stia facendo accademia su un punto veramente di poco importanza e non si tiene conto che con l'avvento del digitale e, in particolare, della tecnologia mos, è possibile manipolare le immagini anche in raw, persino prima dell'uscita dal sensore e che le lenti costosissime, sono tali non solo in quanto più "veloci" ma anche perchè, spesso, hanno anche altre caratteristiche decisamente superiori rispetto alle loro controparti low budget.

Chelidon
05-01-2012, 16:10
infatti, con l'analogico, avveniva lo stesso ma non era possibile rendersene conto e nessuno si è mai lamentato

Io sbaglio :) a dare come dato di fatto le conclusioni di DxO: anche se dalla letteratura il fenomeno viene confermato, hai ragione a dire che quelle misure non spiegano quale sia il suo peso. :mano: Ma anche te dai come dato di fatto (e su questo basi la tua giustificazione dell'aumento nascosto di esposizione :eek:) su qualcosa di cui non hai nessuna prova, senza contare il fatto che per come è fatta la pellicola la ritengo basata su presupposti errati.

non cambia un bel niente; la pellicola non ha i pixel ma ha una superficie granulare e tra un grano e l'altro c'è un mezzo non fotoassorbente e, quindi, del tutto inutile ai fini della cattura della luce; in più, la pellicola non ha neppure le microlenti. Ad essere pignoli sta messa pure peggio

Ma anche no.. Peccato, infatti, che i grani siano dipersi in uno strato relativamente spesso (rispetto allo strato assorbitore di un fotosito e persino senza ombra di dubbio più trasparente degli strati dielettrici e non, che coprono il fotosito) e soprattutto non abbiano i vincoli alla diffusione della radiazione che dà invece un monostrato di pixel con apertura geometricamente limitata non solo come superficie ma anche in profondità.
La pellicola non ha le microlenti perché NON NE HA BISOGNO: infatti nessuno si è mai posto il problema semplicemente perché non ne aumenterebbero l'efficienza per nulla, dato che si comporta a prescindere dai grani come un continuo: la radiazione nel suo cammino incontra COMUNQUE SEMPRE UN GRANO a causa della disposizione tridimensionale casuale di questi! Il punto è che barriere geometriche a livello della superficie sensibile che possano creare fenomeni di vignetting dovuti al pixel non ce ne sono proprio nella pellicola (detto in altri termini il fill-factor è 100%)! :mbe: Come dici te le microlenti sono la soluzione (e come si legge indietro non ho mai detto il contrario solo che hanno dei limiti) a difetti e limiti nei pixel dei sensori attuali (che avranno tanti vantaggi ma non credo siano perfetti e mi sembra sciocco idealizzarli oltre i loro limiti). ;)

l'aps-c non sposta di una virgola le mie considerazioni che sono basate sul rapporto tra la QE del singolo pixel e la caduta di luce misurata da dxomark. Ripeto il concetto: a parità di tecnologia di sensori e microlenti, tra una d3 e una d300 c'è un rapporto di QE pari a 3:1.

E invece sì, te lo ripeto non stiamo parlando di supposizioni in questo caso, ma di PROFILI NOTI E MISURATI: lo ripeto prova ad applicare il tuo ragionamento ai profili di vignettatura misurati da DxO per le FF nelle prove sulle lenti. Il tuo discorso sulla QE non incide sulla vignettatura semplicemente perché TUTTI i pixel sono più sensibili (tanto quelli centrali quanto quelli marginali) quindi il rapporto 3:1 incidera sicuramente sul SNR a parità di ISO (infatti nessuno ha mai detto che la D3 è più rumorosa della D300), ma in proprorzione resta il fatto che il sensore più largo subirà maggiormente la vignettatura (sia fisiologica, che dovuta a pixel vignetting dato che i suoi pixel marginali sono molto più off-axis di una APS). Quindi lo ripeto ancora, la tua spiegazione che considera solo la vignettatura va contro la dispersione (dall'alto a destra al basso a sinistra) dei dati raccolti. In ogni caso mi hai sicuramente convinto sul fatto che possa in parte avere un peso anche lei anche se lo considero ridotto. :mano:

il fatto che il tuo ragionamento fosse riferito all'aps-c (aps sono tutti i formati di cmos attuali, pochè sta active pixel sensor, quindi vale per i c, hli h e i ff )

Dai mi perdonerai l'omonimia.. :sofico: APS-C era un formato di pellicola, benché sia passato nel dire comune (grazie alle imprecisione pure della stampa) riferirsi a quello per i formati ridotti del digitale, nessuno di questi (Nikon-Pentax-Sony 1,5x; Canon 1,6x; Sigma 1,7x) ricalca le stesse misure, quindi per tagliare la testa al toro personalmente preferisco chiamarli indistintamente formati APS (assieme al pochissimo comune Canon 1,3x) per distinguerli dal 24x36.

DPS sta semplicemente per digital pixel sensor (oovero fa riferimento a tutti i tipi di sensore digitale) ma, nell'articolo, fa riferimento a cmos con 4 layer di tipo metallico, usati per le interconnessioni e come parziale guida d'onda

Guarda per me va bene usare anche la tua catalogazione, però nelle pubblicazioni più recenti fanno la distinzione fra:
PPS (i più semplici, passivi, che non considereremo ovviamente),
APS (minore frazione di pixel libera rispetto ai precedenti e ai CCD, ma competitivi con questi per altri vantaggi e possono avere diverso numero di transistori integrati),
DPS (come dice il nome si distingue dal precedente per la conversione A/D direttamente sul pixel, quindi non mi sembra la tua stessa accezione, dato che mi pare ovvio aggiungano un ulteriore livello di complessità nell'integrazione e perciò si riduce ancora la frazione di pixel libera cioè il fill-factor)
Ovviamente questo è detto molto a grandi linee, perché mi ero documentato ovviamente solo fino ad un certo punto senza entrare troppo nello specifico (ma almeno così cerchiamo d'intenderci :) e se vuoi aggiungere altro ti ascolto perché comunque capisco tranquillamente ;) ).
L'articolo che ti ho citato, mantiene questa distinzione, quindi non sono SOLO 4 strati per fare la guida d'onda, ma se leggi la parte sul DPS vedi che i pixel a blocchi di 4 condividono pure l'ADC che riduce (e rende anche asimmetriche) le misurazioni finali. Con ciò vogliono dimostrare,come fanno espressamente notare, che l'aumento d'integrazione complica i problemi di cui stiamo parlando (on-axis e off-axis). Tanto che nelle conclusioni, oltre a consigliare un compromesso verso la minore complessità nell'integrazione, suggeriscono la possibilità di uso per le microlenti, invece del biossido di silicio (compatibile coi processi litografici e perciò a basso costo) di materiali polimerici per superare i limiti di concentrazione di cui abbiamo già parlato.


veramente l'articolo dice un'altra cosa: mette in relazione l'apertura delle microlenti e quella dell'ottica al variare delle dimensioni dei pixel del sensore e dice che al diminuire di queste dimensioni, per compensare la diminuzione di concentrazione di luce sulla superficie del singolo pixel è necessario adottare microlenti con aperture numeriche inferiori ma questo porta come conseguenza che deve diminuire anche la lunghezza focale, cosa che, di fatto, non avviene, poichè le operazioni di scaling difficilmente coinvolgono la struttura verticale del sensore (sicuramente non la coinvolgono nella stessa misura di quelle orizzontali). Questo significa che hai pixel più piccoli ma con la stessa lunghezza focale o che, comunque,il rapporto tra dimensioni del pixel e lunghezza focale diminuisce; adottare microlenti con apertura inferiore provoca, in queste situazioni, il fenomeno del crosstalk ottico tra pixel contigui.

L'articolo parla di molte cose, ma sulla parte che ci interessa (paragrafo 3 e sottolineo non parla di crosstalk) ci sono pochi dubbi visto che te l'ho citato e chiunque può leggere le conclusioni che trae sui due problemi.. :rolleyes:

Col discorso che fai, in pratica, stai confermando quello che ho detto finora: ovvero che allo scalare del pixel pitch verso il basso (più Mpx), la NA della microlente a causa di limitazioni tecniche diminuisce e può non riuscire a stare dietro all'angolo di accettanza della pupilla di uscita dell'obiettivo. Di conseguenza stai confermando, proprio tu, che il f# (o diaframma che dir si voglia) dell'obiettivo viene limitato a livello di ogni pixel (d'altronde, lo ripeto, non ci sono dubbi su questo fenomeno in letteratura).


Per i ccd e i cmos BSI questo non vale per il semplice motivo che non esiste un canale tra superifice del sensore e parte fotosensibile, poichè la parte fotosensibile è posta al di sopra dei circuiti elettronici. Le conseguenze sono che ccd e cmos BSI hanno una OE notevolmente superiore ai cmos FSI a parità di dimensioni, ma non c'è modo di evitare il fenomeno del crosstalk ottico. Lo stesso succede con i sensori x3 di foveon.

1) Non metto in dubbio che possano esserci configurazioni con più o meno frazione di pixel libera (fill-factor), anzi ti ho proprio citatato l'articolo [19] che parlava di come incide l'integrazione sul problema, però resta che le microlenti devono comunque correggere quel problema e secondo gli articoli hanno dei limiti di NA massima (come alla fine del discorso precedente hai affermato pure tu).
2) A quanto mi risulta sui sensori "grandi" (cioè quelli di fotocamere a lenti intercambiabili), non c'è ancora alcun BSI e non mi sembra che prevedano di impiegarli a breve per una serie di ragioni che per ora li rendono più appetibili sui sensori "piccoli" di cellulari e compatte. Quando ci saranno (o anche solo appena testeranno le sigma con X3) vedremo quanto cambieranno le analisi di DxO. :) Per i CCD i dati ci sono, anche se non sappiamo né OE delle microlenti né fill-factor dei CCD delle fotocamere di cui abbiamo parlato. Tuttavia su tal discorso, la risposta me la servi proprio te quando enumeri le tipologie in ordine di velocità inverso all'occlusione:

Prendi un ccd full frame transfer, di sicuro non ha la stessa OE di un frame transfer o di un interline transfer. Nel primo caso, la porzione di superficie non occupata da elementi fotosensibili e decisamente piccola in percentuale rispetto alla superficie totale.

Bene, ora visto che lo sai.. :Perfido: Retoricamente non ricordo, ma dimmi un po' quale di queste 3 tipologie usavano per quelle reflex del grafico (o le reflex in generale)?? :)
Bene questo spiega e adesso possiamo intuire perché non fanno molto meglio dei CMOS (questo lo ricordo perché una volta me lo hai fatto notare proprio tu :p).

Visto che i due fenomeni che ho citato: cioè "problema di NA della microlente" e "pixel vignetting allontanandosi dall'asse" dici che non affliggono tipologie di sensori diverse dai cmos aps (fsi sott'inteso: bsi me lo risparmi vero fino a che non ne faranno una.. :p Se no prendiamo pure il sensore organico! :Prrr: ).
Visto che l'altra volta volevo mettere qualcosa di schematico te lo cito ora dato che riguarda un CCD:
http://img819.imageshack.us/img819/1656/ccdmicrolens.png (http://imageshack.us/photo/my-images/819/ccdmicrolens.png/)
Fa le stesse considerazioni ripetute finora e chiarisce meglio a livello ottico quello che sto cercando di dire:
l'angolo phi dipende dal diaframma dell'obiettivo come si vede dal grafico e a seconda dell'accettanza della microlente che dipende dalla sua NA viene limitato.
l'angolo delta dipende da quanto è fuori asse il pixel e quindi determina il fenomeno AGGIUNTIVO di caduta per i pixel ai bordi che richiede microlenti decentrate.
L'articolo dei laboratori Hitachi (http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=156740) riguarda l'ottimizzazione delle microlenti per migliorarne l'efficienza sia per la concentrazione in asse che fuori asse e si riferisce a un generico CCD da 1/3" da 0,4Mpx.

Chelidon
05-01-2012, 16:14
In quanto alla tipologia dei sensori, quello della d200 e quello della d80 differiscono solo leggerissimamente a livello di dimensioni lineari, pur conservando la stessa area e le stesse dimensioni dei singoli pixel, in quanto la d200 ha 4 readout channel contro i 2 della d80. Tra 20d e 30d il sensore è lo stesso, mentre è leggermente differente quello della 350d.
Il fatto che la k7 faccia i video e la k20 no non ha alcun significato: in una fotocamera non è il sensore l'unica componente elettronica presente

Quello k20d/k7 era un esempio per dire due sensori (CMOS) a prima vista e dalle caratteristiche note esattamente identici, ma che all'atto pratico non lo sono: visto che il primo ha 2 canali di lettura, mentre il secondo è la versione a 4 canali (per sostenere ovviamente il transfer-rate del video). Per un caso fortuito torna proprio come d200/d80 (CCD). Il discorso che facevo è ovviamente: se cambiano così profondamente il sensore (ok non lo riprogettano da zero, ma c'è comunque un bel cambiamento!), come facciamo noi a sapere che non abbiano cambiato altro di più semplice (come le microlenti) o che semplicemente la geometria non vari troppo per poter mantenere le stesse considerazioni come fosse un unico caso di sensore. Io là non c'ero e i progetti non li daranno di pubblico dominio certo! :sofico: Quindi altro non posso fare che constatare alcune eccezioni fuori dalla regola che vale: cioè la maggior parte delle fotocamere che SEMBRA adottino lo stesso sensore danno comunque misurazione uguale o molto vicina.
Li esempi li ho già fatti, ma ricapitolando: sembrano accomunate D50/D70/40, 1Dmk2/1Dmk2N, D40X/D60/D80, 50D/500D, D300/D90/D300s, 20D/350D, 1000D/400D; restano lontane d80/d200, 20D/30D, 400D/40D e 550D/7D.


Un sensore identico ad un altro, con microlenti migliori, a parità di iso, fa segnare SNR più elevati a causa della maggior OE e del miglior contenimento del crosstalk (nel caso dei cmos FSI). Invece, prendendo le stesse misurazioni di dxolabs, questo non avviene; in alcuni casi il comportamento è identico, in altri, addirittura, venno meglio quelli che fanno registrare cadute di luce più elevate.

Scusa non avevo capito, adesso che ti sei rispiegato mi sembra più chiaro. In pratica dici se 30D e 20D hanno lo stesso sensore ma diverse microlenti deve avere SNR più alto la 30D; lo stesso vale per gli altri casi discordi che ho enumerato. Allora ho provato a dare un occhio all'SNR 18% su screen ovviamente, e premesso che i punti al variare dell'ISO spesso sono spostati abbastanza da vanificare i confronti e che trovo difficoltoso distinguere differenze inferiori a 0,5 Db (l'assumo come sensibilità minima), questo è quello che ho rilevato nei confronti (le coppie sono in ordine di previsione: "/" indica prima quella che perde più nel grafico, "-" quelle uguali):

7D/550D circa 1 Db peggio la 7D sì ma ad alti ISO uguali (la 550D risulta uguale alla 500D :confused:)
500D-50D uguali sì
400D/40D quasi uguali no (forse 0,5 Db peggio la 400D sì che però è uguale alla 1000D sì)
20D/30D uguali no (e praticamente identiche alla 350D sì che perde solo ad alti ISO forse quasi 0,5 Db)
D300s/-D90-/D300 sotto di 0,5 Db o appena più la D300 rispetto alla D300s :confused: (sopra alla D300 di 1,5 Db o più la D90 no)
D60-D40X-/D80 peggio di meno di 1 Db la D60 rispetto alla D40X :confused: ma la D80 praticamente uguale alla D60 sì (si stacca peggiorando ad altissimi ISO) fa peggio di 1 Db della D40X. :confused:
D80/D200 peggio di più di 0,5 Db la D80 della D200 sì
D50-D70-D40 uguali sì (D70 cala di 0,5 Db ad altissimi ISO)

Ora io non so quanti fenomeni hardware o semplicemente correzioni software possano incidere (E QUANTO!) su quel dato di SNR 18% al variare dell'ISO: ci sono alcuni casi in cui prevede correttamente sì, altri no, in molti casi sembra si contraddica, :boh: ma sopratutto non è mai coerente con le differenze previste né da me, né da te, quando ci sono quindi non riesce nemmeno a smentire il grafico (nei :confused: dice addirittura cose imprevedibili). Gli scostamenti fra coppie insolite del grafico in ogni caso non sono mai superiori al 1/4 di stop (d80/d200) e 1 Db di SNR 18% affermano che corrisponde a un terzo di stop, quindi tira un po' le somme con gli ordini di grandezza. Ma ritorniamo a questo che sappiamo entrambi:

non necessariamente a livello hardware. Due sensori identici con identiche microlenti, identico filtro antimoire e, per giunta, stesso processore, non implicano la stessa QI. Questo può dirtelo chiunque abbia qualche nozione di elettronica digitale. Se, ad esempio, traslo verso sinistra il valore di offset della dark current, ottengo una riduzione della relativa componente di rumore, con la conseguenza che il sistema tende a "piallare" tutti i dettagli fini anche sui file RAW. Il tutto viene fatto semplicemnete impostando valori di offset differenti a livello software :p
Quindi cosa concludiamo guardando l'SNR? :boh:

Per chiudere il piacevole confronto, non so cos'altro si possa dire :) se non che il fenomeno è previsto, per le considerazioni sulle misure di DxO sarebbe bello avere dei dati più precisi su questo concordo. :mano:

yossarian
05-01-2012, 18:18
Io sbaglio :) a dare come dato di fatto le conclusioni di DxO: anche se dalla letteratura il fenomeno viene confermato, hai ragione a dire che quelle misure non spiegano quale sia il suo peso. :mano: Ma anche te dai come dato di fatto (e su questo basi la tua giustificazione dell'aumento nascosto di esposizione :eek:) su qualcosa di cui non hai nessuna prova, senza contare il fatto che per come è fatta la pellicola la ritengo basata su presupposti errati.



Ma anche no.. Peccato, infatti, che i grani siano dipersi in uno strato relativamente spesso (rispetto allo strato assorbitore di un fotosito e persino senza ombra di dubbio più trasparente degli strati dielettrici e non, che coprono il fotosito) e soprattutto non abbiano i vincoli alla diffusione della radiazione che dà invece un monostrato di pixel con apertura geometricamente limitata non solo come superficie ma anche in profondità.
La pellicola non ha le microlenti perché NON NE HA BISOGNO: infatti nessuno si è mai posto il problema semplicemente perché non ne aumenterebbero l'efficienza per nulla, dato che si comporta a prescindere dai grani come un continuo: la radiazione nel suo cammino incontra COMUNQUE SEMPRE UN GRANO a causa della disposizione tridimensionale casuale di questi! Il punto è che barriere geometriche a livello della superficie sensibile che possano creare fenomeni di vignetting dovuti al pixel non ce ne sono proprio nella pellicola (detto in altri termini il fill-factor è 100%)! :mbe: Come dici te le microlenti sono la soluzione (e come si legge indietro non ho mai detto il contrario solo che hanno dei limiti) a difetti e limiti nei pixel dei sensori attuali (che avranno tanti vantaggi ma non credo siano perfetti e mi sembra sciocco idealizzarli oltre i loro limiti).

ho unito questi 2 punti eprchè la risposta è unica e riguarda il comportamento della pellicola. Sulla pellicola, i grani sono dispersi e non c'è confinamento in profondità, però la superficie fotosensibile è discreta. In una pellicola, mediamente, ci sono da 12 a 20 (in alcuni casi qualcuno in più) strati sovrapposti di diversa natura e come ultimo strato un antiriflettente. Una radiazione che l'attraversa in diagonale va ad interessare areole delle varie superfici e, in particolare, degli strati fotoassorbenti, sfalsate le une rispetto alle altre, provocando, nella migliore delle ipotesi, errori nella rappresentazione dei colori di una determinata area dell'immagine, nella peggiore delle ipotesi, ossia quando i raggi non colpisconmo materiale fotoassorbente, perdita di informazione, ovvero light fall off, esattamente come avviene nei sensori digitali. La differenza è che la disposizione dei grani fotosensibili sulla pellicola è di tipo random e non simmetrica e questo rende il fenomeno meno evidente per due ragioni: il fatto che una volta innescata la reazione tra luce e sali d'argento si formino degli agglomerati (aumento delle aree "eccitate" a scapito della creazione di aree non fotoensibili più ampie (cosa trascurabile a cattura della luce avvenuta); il fatto che la probabilità che un raggio manchi tutte le superfici fotosensibili è più bassa (ma questo dipende dal tipo di pellicola, in base a cui varia la concentrazione e le dimensioni dei grani). C'è poi un terzo effetto che rende il fenomeno meno "visibile" (nel vero senso della parola) e cioè che l'occhio umano è molto più sensibile a disturbi che seguano un pattern di tipo simmetrico (principio su cui si bassano gli algoritmi di antialising che utilizzano griglie di base di tipo smmetrico per un numero limitato di sample e di tipo random per i restanti. Questo significa solo che la pellicola è meno soggetta al light fall off di un sensore digitale, ma non immune.
Vediamo adesso cme è fatto un sensore. Tu parti dal principio che un raggio luminmoso che entri iin diagonale attraverso una microlente non colpisca un elemento fotosensibile. In realtà le cose non stanno affatto così, a meno che quel raggio non finisca sulla parte superficiale occupata dagli elementi circuitali preposti a funzioni differenti dalla cattura della luce. Ma questo vale solo per i cmos di tipo FSI che hanno, al di sotto della superficie uno strato composto dalle metallizzazioni, disposte sui bordi della superficie del pixel e, sotto questo strato, un tunnel composto da materiali non necessariamente riflettenti, che conduce al fotodiodo. Questo significa che una radiazione diagonale che attraversa la microlente e non colpisce i circuiti in superficie, in mancanza di un tunnel con pareti riflettenti arriva a colpire, comunque, un fotodiodo: quello di uno dei pixel contigui, causando un fenomeno analogo a quello che avvine con la pellicola e che si definisce optical crosstalk e dà origine a errori nella rilevazione dei valori corretti per quel singolo pixel e per quello vicino di cui "si è preso" i fotoni. Il risultato è rumore. Per questo motivo, sui cmos FSI, il tunnel viene schermato in modo da ridurre al minmo il fenomeno del crosstalk. In questo modo, i fotoni che entrano in dagonale e non colpisocono i circuiti superficiali, rimbalzano sulle pareti del tunnel, esattamente come in una fibra ottica, fino ad arrivare al fotodiodo CORRETTO. Sui CCD FF transfer e sui CMOS BSI, invece, la superficie fotoassorbente è sopra agli altri elementi circuitali, il che significa che un raggio che entra in diagonale attraverso la microlente, ha ottime probabilità di colpire il corretto fotodiodo. Ovviamente, queste probabilità sono vicine al 100% se il pixel è di grandi dimensioni e calano al diminuire delle dimensioni del pixel stesso. Nei foveon, che come struttura ricalcano la pellicola, una radiazione diagonale può fare veri disastri, non perchè non colpisce elementi fotosensibili, ma perchè, almeno finora, non è stato possibile realizzare un tunnel schermato tra pixel contigui a causa dell sviluppo in profondità e, quindi il crosstalk ottico è incontrollabile e, con basse luci, quando il SNR è molto basso, questo tipo di disturbo è quello che crea più problemi (questo è il vero motivo per cui questo tipo di tecnologia non ha preso piede).



E invece sì, te lo ripeto non stiamo parlando di supposizioni in questo caso, ma di PROFILI NOTI E MISURATI: lo ripeto prova ad applicare il tuo ragionamento ai profili di vignettatura misurati da DxO per le FF nelle prove sulle lenti. Il tuo discorso sulla QE non incide sulla vignettatura semplicemente perché TUTTI i pixel sono più sensibili (tanto quelli centrali quanto quelli marginali) quindi il rapporto 3:1 incidera sicuramente sul SNR a parità di ISO (infatti nessuno ha mai detto che la D3 è più rumorosa della D300), ma in proprorzione resta il fatto che il sensore più largo subirà maggiormente la vignettatura (sia fisiologica, che dovuta a pixel vignetting dato che i suoi pixel marginali sono molto più off-axis di una APS). Quindi lo ripeto ancora, la tua spiegazione che considera solo la vignettatura va contro la dispersione (dall'alto a destra al basso a sinistra) dei dati raccolti. In ogni caso mi hai sicuramente convinto sul fatto che possa in parte avere un peso anche lei anche se lo considero ridotto. :mano:



non ho fatto supposizioni; ho comparato i profili di vignettatura presi su photozone, per lenti veloci, su FF e aps-c e ho constatato che, solo nei casi peggiori, il rapporto è di 3:1 come avviene con la QE di FF e aps-c a parità di tecnologia e numero di pixel. Questo significa che il light fall off ai bordi può arrivare ad essere fino a 3 volte (nel caso peggiore) superiore su un sensore che ha 3 volte la capacità di catturare luce, mentre,man mano che ci si sposta verso il centro, per quanto ho detto prima, questo rapporto diminuisce, finmo ad invertirsi, a vantaggio dei FF nelle arre centrali.


Dai mi perdonerai l'omonimia.. :sofico: APS-C era un formato di pellicola, benché sia passato nel dire comune (grazie alle imprecisione pure della stampa) riferirsi a quello per i formati ridotti del digitale, nessuno di questi (Nikon-Pentax-Sony 1,5x; Canon 1,6x; Sigma 1,7x) ricalca le stesse misure, quindi per tagliare la testa al toro personalmente preferisco chiamarli indistintamente formati APS (assieme al pochissimo comune Canon 1,3x) per distinguerli dal 24x36.


ok


Guarda per me va bene usare anche la tua catalogazione, però nelle pubblicazioni più recenti fanno la distinzione fra:
PPS (i più semplici, passivi, che non considereremo ovviamente),
APS (minore frazione di pixel libera rispetto ai precedenti e ai CCD, ma competitivi con questi per altri vantaggi e possono avere diverso numero di transistori integrati),
DPS (come dice il nome si distingue dal precedente per la conversione A/D direttamente sul pixel, quindi non mi sembra la tua stessa accezione, dato che mi pare ovvio aggiungano un ulteriore livello di complessità nell'integrazione e perciò si riduce ancora la frazione di pixel libera cioè il fill-factor)
Ovviamente questo è detto molto a grandi linee, perché mi ero documentato ovviamente solo fino ad un certo punto senza entrare troppo nello specifico (ma almeno così cerchiamo d'intenderci :) e se vuoi aggiungere altro ti ascolto perché comunque capisco tranquillamente ;) ).
L'articolo che ti ho citato, mantiene questa distinzione, quindi non sono SOLO 4 strati per fare la guida d'onda, ma se leggi la parte sul DPS vedi che i pixel a blocchi di 4 condividono pure l'ADC che riduce (e rende anche asimmetriche) le misurazioni finali. Con ciò vogliono dimostrare,come fanno espressamente notare, che l'aumento d'integrazione complica i problemi di cui stiamo parlando (on-axis e off-axis). Tanto che nelle conclusioni, oltre a consigliare un compromesso verso la minore complessità nell'integrazione, suggeriscono la possibilità di uso per le microlenti, invece del biossido di silicio (compatibile coi processi litografici e perciò a basso costo) di materiali polimerici per superare i limiti di concentrazione di cui abbiamo già parlato.


guarda, per me possiamo tenere per buona la distinzione tra DPS e APS, anche se, di fatto, i transistor degli aps servono proprio per effettuare operazioni come il controllo di guadagno per pixel o per gruppo di pixel, l'amplificazione e la digitalizzazione. I sensori cmos messi in commercio sin dall'inizio, effettuano tutti la conversione A/D sul sensore stesso. Quelle che cambiano sono le modalità con cui lo fanno. Di solito, il principio è che l'analisi del segnale non si limiti al singolo pixel proprio a causa di tutti i fenomeni che potrebbero indurre in errore. Quindi si analizza il pixel insieme ad un gruppo più o meno numeroso di pixel contigui, per mediare i valori ottenuti per ogni canale. I sistemi più complessi utilizzano addirittura più livelli, partendo da un gruppo di 4 (RGBG) ed estendendo l'analisi ai pixel contigui di ognuno dei 4, per ciascun colore. L?amplificazione del segnale, invece, avvien per singolo pixel. Anche il numero di transistor che controllano il processo di acquisizione dell'immagine non è standard. Ad esempio, sulle macchne fotografiche si usa la configurazione 3T perchè è sufficiente ad acquisire un'immagine statica con una singola esposizione; il problema si ha quando si acquisiscono immagini in movimento: in quel caso, con 3 transistor l'acquisizione avviene per step successivi (rolling shutter) che porta al fenomeno dello skew (quando si muove velocemente la camera in orizzontale, le li'immagine sembra ondeggiare). Le cineprese di fascia alta, utilizzano 5T o 6T come minimo.
Tornando al documento della Stanford, si tratta di un'analisi un po' datata, riferita ad una tecnologia oggi di comune applicazione. Anzi, rispetto a quel documento, in cui si consiglia l'adozione di uno strato riflettente come guida (il 4), oggi si tende ad estendere la guida a tutta la profondità del canale.


L'articolo parla di molte cose, ma sulla parte che ci interessa (paragrafo 3 e sottolineo non parla di crosstalk) ci sono pochi dubbi visto che te l'ho citato e chiunque può leggere le conclusioni che trae sui due problemi.. :rolleyes:


But pixels near the edge receive a bundle of rays that would normally pass through the aperture and travel to substrate positions that are
displaced from the pixel floor. These rays would strike the edge of the pixel tunnel or travel to regions within the floor of adjacent pixels. The microlens must redirect these rays so that they travel through the pixel tunnel and reach the photodetector position at the substrate. The loss of light due to the failure to redirect these rays is called pixel vignetting.
Redirection of the rays is achieved by appropriate placement of the microlenses with respect to the pixel
aperture.

questo passo, tratto testualmente dall'articolo in questione, nel punto in grassetto parla proprio del fenomeno del crosstalk ottico, ovvero fotoni che attraversano il substrato in diagonale, raggiungendo il "pavimento", ossia il fondo, dove si trova il fotodiodo, di un pixel adiacente. L'articolo è incentrato proprio sul fatto che AL DIMINUIRE DELLE DIMENSIONI DEI PIXEL, questo fenomeno viene accentuato, in quanto, mentre lo scaling sugli assi x e y (che chiamo l per comodità) avviene esnsa problemi, ben più difficile è ridurre le dmensioni lungo l'asse z , ovvero in profondità. Questo comporta che, ogni volta che si fa scaling, il rapporto tra l/z diminuisce. Questo crea sempre più problemi al corretto indirizzamento della luce che attraversa la microlente con angoli non favorevoli. Attenzione, l'articolo non parla della luce che cade sugli spoazi tra pixel ma delle difficoltà ad indirizzare la luce che cade sul pixel.


Col discorso che fai, in pratica, stai confermando quello che ho detto finora: ovvero che allo scalare del pixel pitch verso il basso (più Mpx), la NA della microlente a causa di limitazioni tecniche diminuisce e può non riuscire a stare dietro all'angolo di accettanza della pupilla di uscita dell'obiettivo. Di conseguenza stai confermando, proprio tu, che il f# (o diaframma che dir si voglia) dell'obiettivo viene limitato a livello di ogni pixel (d'altronde, lo ripeto, non ci sono dubbi su questo fenomeno in letteratura).


attenzione, lo ripeto, le microlenti sono la soluzione. Il problema è lo scaling delle dimensioni dei pixel, soprattutto quando questo avviene al di sotto di certi valori. Ovvio che la microlente deve coprire il pixel e non può prenderne 4 contigui, altrimenti perderebbe ogni utilità. Ovvio che se diminuisco le dimensioni di un pixel diminuiscono anche quelle delle microlenti (è una conseguenza fisiologica). Per questo motivo ho detto che le microlenti gapless vanno in controtendenza, perchè abbracciano anche lo spazio vuoto tra pixel, per cercare di indirizzare anche quella radiazione verso la superficie fotosensibile. Così facendo, sono meno legate all'andamento delle dimensioni lineari dei pixel (anche perchè con le operazioni di scalig diminuiscono anche le distanze tra pixel ma in misura minore di quanto non facciano le dimensioni stesse dei pixe. In tal modo i rapporti tra dimensioni e distanze reciproche diminuiscono, al fine di ridurre disturbi reciproci di tipo elettronico). Ora, il problema è che, anche se le microlenti sono in grado di fare il loro lavoro, non possono, comunque, riuscire a deviare tutta la radiazione in modo che cada perpendicolarmente. E qui sorge il problema dell'indirizzamento lungo il tunnel che le microlenti non possono fare da sole ma devono essere aiutate e, tanto più cala il rapporto l/z tanto più hanno bisogno d'aiuto.


1) Non metto in dubbio che possano esserci configurazioni con più o meno frazione di pixel libera (fill-factor), anzi ti ho proprio citatato l'articolo [19] che parlava di come incide l'integrazione sul problema, però resta che le microlenti devono comunque correggere quel problema e secondo gli articoli hanno dei limiti di NA massima (come alla fine del discorso precedente hai affermato pure tu).
2) A quanto mi risulta sui sensori "grandi" (cioè quelli di fotocamere a lenti intercambiabili), non c'è ancora alcun BSI e non mi sembra che prevedano di impiegarli a breve per una serie di ragioni che per ora li rendono più appetibili sui sensori "piccoli" di cellulari e compatte. Quando ci saranno (o anche solo appena testeranno le sigma con X3) vedremo quanto cambieranno le analisi di DxO. :) Per i CCD i dati ci sono, anche se non sappiamo né OE delle microlenti né fill-factor dei CCD delle fotocamere di cui abbiamo parlato. Tuttavia su tal discorso, la risposta me la servi proprio te quando enumeri le tipologie in ordine di velocità inverso all'occlusione:


per il discorso NA delle microlenti vale quello che ho detto sopra. Sui BSI, per ora, i problemi sono 2: sono più fragili a livello costruttivo e con rese inferiori e quindi, per il momento, meno indicati e convenienti per formati grandi; hanno il problema del crosstalk. Un BSI, rispetto ad un FSI ha una OE decisamente superiore ma che, soprattutto in basse luci, viene compensata negativamente (e con gli interessi) dal crsstalk, sopratutto di tipo periferico. Quindi, se vanno bene per formati piccoli, poichè riescono ad avere una OE elevata anche con pixel di piccole dimensioni e impiegati su fotocamere non fatte per lavorare con luci basse, non risultano convenienti su sensori con pixel grandi, di tipo FSI, con tecnologia consolidata, che compensa la minor OE con la quasi totale assenza di optical crosstalking. Degli X3 ho fatto cenno all'inizio. Per quanto riguarda i CCD, io ho i dati di quello della d200 e gli schemi di quelli della d200 e della d80 :D


Bene, ora visto che lo sai.. :Perfido: Retoricamente non ricordo, ma dimmi un po' quale di queste 3 tipologie usavano per quelle reflex del grafico (o le reflex in generale)?? :)
Bene questo spiega e adesso possiamo intuire perché non fanno molto meglio dei CMOS (questo lo ricordo perché una volta me lo hai fatto notare proprio tu :p).


per le reflex full frame transfer, mentre per immagini in movimento si usavano gli interline transfer. Ecco perchè le reflex con CCD non fanno video :D


Visto che i due fenomeni che ho citato: cioè "problema di NA della microlente" e "pixel vignetting allontanandosi dall'asse" dici che non affliggono tipologie di sensori diverse dai cmos aps (fsi sott'inteso: bsi me lo risparmi vero fino a che non ne faranno una.. :p Se no prendiamo pure il sensore organico! :Prrr: ).
Visto che l'altra volta volevo mettere qualcosa di schematico te lo cito ora dato che riguarda un CCD:
http://img819.imageshack.us/img819/1656/ccdmicrolens.png (http://imageshack.us/photo/my-images/819/ccdmicrolens.png/)
Fa le stesse considerazioni ripetute finora e chiarisce meglio a livello ottico quello che sto cercando di dire:
l'angolo phi dipende dal diaframma dell'obiettivo come si vede dal grafico e a seconda dell'accettanza della microlente che dipende dalla sua NA viene limitato.
l'angolo delta dipende da quanto è fuori asse il pixel e quindi determina il fenomeno AGGIUNTIVO di caduta per i pixel ai bordi che richiede microlenti decentrate.
L'articolo dei laboratori Hitachi (http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=156740) riguarda l'ottimizzazione delle microlenti per migliorarne l'efficienza sia per la concentrazione in asse che fuori asse e si riferisce a un generico CCD da 1/3" da 0,4Mpx.

non ho detto che non riguarda i ccd ma che gli articoli citati della Stanford parlavano di cmos fsi e non di altre tipologie di sensori. Il problema degli angoli "storti" esiste con qualsiasi superficie fotoassorbente che non sia continua (ovvero con tutte) :D . La differenza è che con alcune non si possono prendere contromisure (pellicola), con altre le contromisure sono solo parziali (sensori cmos BSI, CCD FF, X3) con altre, che sono quelle che presentano maggoiri problemi, per fortuna ci sono anche le migliori soluzioni (cmos FSI) :p

yossarian
05-01-2012, 18:43
Quello k20d/k7 era un esempio per dire due sensori (CMOS) a prima vista e dalle caratteristiche note esattamente identici, ma che all'atto pratico non lo sono: visto che il primo ha 2 canali di lettura, mentre il secondo è la versione a 4 canali (per sostenere ovviamente il transfer-rate del video). Per un caso fortuito torna proprio come d200/d80 (CCD). Il discorso che facevo è ovviamente: se cambiano così profondamente il sensore (ok non lo riprogettano da zero, ma c'è comunque un bel cambiamento!), come facciamo noi a sapere che non abbiano cambiato altro di più semplice (come le microlenti) o che semplicemente la geometria non vari troppo per poter mantenere le stesse considerazioni come fosse un unico caso di sensore. Io là non c'ero e i progetti non li daranno di pubblico dominio certo! :sofico: Quindi altro non posso fare che constatare alcune eccezioni fuori dalla regola che vale: cioè la maggior parte delle fotocamere che SEMBRA adottino lo stesso sensore danno comunque misurazione uguale o molto vicina.
Li esempi li ho già fatti, ma ricapitolando: sembrano accomunate D50/D70/40, 1Dmk2/1Dmk2N, D40X/D60/D80, 50D/500D, D300/D90/D300s, 20D/350D, 1000D/400D; restano lontane d80/d200, 20D/30D, 400D/40D e 550D/7D.


su k7 e k20d non mi sono pronunciato, perchè non conosco gli "articoli". Su d200 e d80 si perchè ho qualcosa in più di qualche semplice misurazione. In ogni caso, cambiare le microlenti non è affatto semplice. Parliamo di un sistema estremamente complesso basato su equilibri a volte veramente precari e che richiedono parecchi studi e sperimentazioni e tanti investimenti. Questo significa che, una volta trovata una cosa che funziona, si cerca di farla durare il più a lungo per ammortizzare le spese e per evitare di dover iniziare di nuovo tutto da capo senza alcun motivo. Sui sensori dello stesso tipo, qualora varino leggermente le geometrie complessive, la variazione viene ammortizzata dai pixel della cornice che non sono usati per la cattura della luce ma per altre funzioni (in ogni sensore è differente il numero di pixel totali da quello di pixel utilizzati come superficie di cattura).


Scusa non avevo capito, adesso che ti sei rispiegato mi sembra più chiaro. In pratica dici se 30D e 20D hanno lo stesso sensore ma diverse microlenti deve avere SNR più alto la 30D; lo stesso vale per gli altri casi discordi che ho enumerato. Allora ho provato a dare un occhio all'SNR 18% su screen ovviamente, e premesso che i punti al variare dell'ISO spesso sono spostati abbastanza da vanificare i confronti e che trovo difficoltoso distinguere differenze inferiori a 0,5 Db (l'assumo come sensibilità minima), questo è quello che ho rilevato nei confronti (le coppie sono in ordine di previsione: "/" indica prima quella che perde più nel grafico, "-" quelle uguali):

7D/550D circa 1 Db peggio la 7D sì ma ad alti ISO uguali (la 550D risulta uguale alla 500D :confused:)
500D-50D uguali sì
400D/40D quasi uguali no (forse 0,5 Db peggio la 400D sì che però è uguale alla 1000D sì)
20D/30D uguali no (e praticamente identiche alla 350D sì che perde solo ad alti ISO forse quasi 0,5 Db)
D300s/-D90-/D300 sotto di 0,5 Db o appena più la D300 rispetto alla D300s :confused: (sopra alla D300 di 1,5 Db o più la D90 no)
D60-D40X-/D80 peggio di meno di 1 Db la D60 rispetto alla D40X :confused: ma la D80 praticamente uguale alla D60 sì (si stacca peggiorando ad altissimi ISO) fa peggio di 1 Db della D40X. :confused:
D80/D200 peggio di più di 0,5 Db la D80 della D200 sì
D50-D70-D40 uguali sì (D70 cala di 0,5 Db ad altissimi ISO)

Ora io non so quanti fenomeni hardware o semplicemente correzioni software possano incidere (E QUANTO!) su quel dato di SNR 18% al variare dell'ISO: ci sono alcuni casi in cui prevede correttamente sì, altri no, in molti casi sembra si contraddica, :boh: ma sopratutto non è mai coerente con le differenze previste né da me, né da te, quando ci sono quindi non riesce nemmeno a smentire il grafico (nei :confused: dice addirittura cose imprevedibili). Gli scostamenti fra coppie insolite del grafico in ogni caso non sono mai superiori al 1/4 di stop (d80/d200) e 1 Db di SNR 18% affermano che corrisponde a un terzo di stop, quindi tira un po' le somme con gli ordini di grandezza. Ma ritorniamo a questo che sappiamo entrambi:

Quindi cosa concludiamo guardando l'SNR? :boh:

che non sono attendibili, ma questo io già lo sapevo. Per questo motivo ho sollevato questa obiezione. Il fatto è che non è possibile etrapolare il risultato di un benchmark senza contestualizzarlo. In particolare, i test sintstici sono utili solo a capire eventuali difetti, limiti o problemi. Ad esempio, il test sul SNR di dxomak, fatto sui raw prima dell'operazione di demosaicing, ha solo l'utilità di far vedere chi si comporta meglio prima di quell'operazione, ma non ti dà informazioni sul fatto che uno potrebbe applicare un filtro prima del demosaicing, mentre un altro lo fa dopo. In questo modo, i risultati sono falsati, perchè, magari, dove secondo dxomark ci sono 2 stop, magari, sull'immagine definitiva ce n'è uno solo o anocra di meno o, magari, di più. E' come il driver del chip grafico che fa application detect e, con quel particolare benchmark disabilita gli effetti grafici più pesanti, indipendentemente dalle impostazioni dategli, per far segnare punteggi più elevati.


Per chiudere il piacevole confronto, non so cos'altro si possa dire :) se non che il fenomeno è previsto, per le considerazioni sulle misure di DxO sarebbe bello avere dei dati più precisi su questo concordo. :mano:

il fenomeno esiste perchè è fisiologico che ci sia, il problema non è legato alla presenza delle microlenti e della loro limitata apertura numerica (senza le cose sarebbero decisamente peggiori) ma, semmai, alle operazioni di scaling delle dimensioni dei pixel. Le microlenti, gapless, doppio strato, con guida d'onda, con estensione della superficie fotoassorbente al di sotto della barriera sono delle soluzioni non perfette ma, al momento soddisfacenti fino a determinate dimensioni dei pixel. Altre soluzioni, come lenti telecentriche, tranne nel caso del formato 4/3 le vedo impraticabili. Tutti gli articoli parlano dei problemi connessi alle operazioni di pixel scaling e il tenore è del tipo: attenzione, se si scende al di sotto di certi valori, bisogna adottare soluzioni differenti o integrare le attuali che rischiano di non essere più sufficienti. D'altra parte, non sono certo io a negare i problemi connessi con le operazioni di scaling dei pixel, di cui questo è solo uno. Al contrario di alcuni recensori online o di riviste cartacee, anche importanti (mi vengono in mente quelle del gruppo di cui fa parte progresso fotografico), che stanno portando, da qualche tempo, avanti la tesi secondo cui non sono importanti le dimensioni dei pixel ma quelle del sensore, per cui sensori delle stesse dimensioni, con pixel count differente, si comportano allo stesso modo, io sono tra quelli che sostengono la tesi che le dimensioni dei pixel contano e che per ottenere le stesse prestazioni di sensori con pixel più grandi si devono, a volte, fare miracoli (e non sempre bastano) :D

Chelidon
08-01-2012, 17:36
Sulla pellicola, i grani sono dispersi e non c'è confinamento in profondità, però la superficie fotosensibile è discreta. In una pellicola, mediamente, ci sono da 12 a 20 (in alcuni casi qualcuno in più) strati sovrapposti di diversa natura e come ultimo strato un antiriflettente.
:mbe: Ma non parliamo due lingue diverse, vero?? :) A me non pare sia una superficie discreta! :sofico: Nella pellicola non B&N possono esserci quanti strati vuoi IN PROFONDITA', ma questo non vuol dire superficie sensibile discretizzata a casa mia e mi sembra evidente per quanto ho già detto sulla disposizione dei grani. Quindi i 2 fenomeni di cui abbiamo parlato finora che interessano il pixel, non intervengono. Che poi ci siano più strati sensibilizzati diversamente benissimo, ma è ovvio che saranno TRASPARENTI nello spettro complementare (utilizzano la sintesi sottrativa), quindi in prima approssimazione si comportano ognuno distintamente come assorbitore (praticamente totale nella propria banda e trasparente nel complementare, se il sistema ha funzionato ed è stato affinato tirando avanti per più di mezzo secolo!) in una delle tre regioni di spettro visibile per cui sono sensibilizzati.
ossia quando i raggi non colpisconmo materiale fotoassorbente, perdita di informazione, ovvero light fall off, esattamente come avviene nei sensori digitali. Quindi no: colpiscono SEMPRE materiale fotoassorbente DIVERSAMENTE dai pixel dei sensori digitali (se pure al limite infinitesimale così non fosse, non importa in approssimazione è sicuramente su un ordine di grandezza completamente differente dalla situazione dei pixel sul sensore).
Che gli strati siano in successione ed estesi (ed entrambi non sono lasciati al caso ma sicuramente correlati alle caratteristiche degli strati e alla penetrazione della radiazione) e vi possano essere fenomeni di diffusione, non toglie comunque che una lente per quanto corretta ha comunque una profondità di fuoco diversa al variariare della lunghezza d'onda. Anche all'inverso su un elemento sensibile poco esteso come profondità ciò darebbe problemi, ma come al solito una cosa è citare un fenomeno, tutt'altro è vedere l'ordine di grandezza dello stesso (ricordiamo per non perderci di vista nei ragionamenti che stiamo parlando di un 20um circa di spessore totale per una generica pellicola). E' inutile quindi spingersi a cercare il pelo nell'uovo per la pellicola, quando invece in un sensore l'area fotosensibile è MACROSCOPICAMENTE ridotta rispetto all'area del pixel (si parla di fill-factor di decine di percento non a caso); considerala se preferisci semplicemente una questione di ordine di grandezza.
Lo so che fai l'analogia col crosstalk, ma nel pixel del sensore come hai fatto notare è un problema di luce non perfettamente concentrata dalla microlente o che viene riflessa da altre parti della struttura a valle del CFA, mentre in un "sistema omogeneo" (senza CFA tra l'altro) come la pellicola (che non ha zone fotosensibili distinte: i pixel) ha poco senso definirlo tale: perciò ti ho parlato di diffusione che sarà tanto ridotta quanto più è assorbitore il mezzo (e occhio a dare per scontato che faccia meglio il silicio).
In ogni caso questo fenomeno (per me su pellicola data l'assenza di pixel è diffusione, ma te chiamalo pure crosstalk) siamo d'accordo che non influisce comunque su eventuali "cadute" di esposizione, quindi ripeto la pellicola continua a subire solo la vignettatura fisiologica dell'obiettivo e non altri fenomeni di perdita di trasmissione dovuti alla geometria dei pixel.
Tu parti dal principio che un raggio luminmoso che entri iin diagonale attraverso una microlente non colpisca un elemento fotosensibile. In realtà le cose non stanno affatto così, a meno che quel raggio non finisca sulla parte superficiale occupata dagli elementi circuitali preposti a funzioni differenti dalla cattura della luce. Ma questo vale solo per i cmos di tipo FSI Scusa ma se non ci riferiamo ai CMOS FSI a quali ci riferiamo dato che sulle fotocamere a lenti intercambiabili attuali ci sono questi? :boh: Quando ci saranno i BSI (o il sensore organico di fuji che taglia la testa al toro ed elimina le microlenti) vedremo se cambieranno le misure o i produttori elimineranno la correzione "nascosta" di sensibilità ad ampie aperture! :p
i fotoni che entrano in dagonale e non colpisocono i circuiti superficiali, rimbalzano sulle pareti del tunnel, esattamente come in una fibra ottica, fino ad arrivare al fotodiodo CORRETTO. Sì stavolta QUESTA è una guida d'onda, sono perfettamente d'accordo! :)

questo passo, tratto testualmente dall'articolo in questione, nel punto in grassetto parla proprio del fenomeno del crosstalk ottico, ovvero fotoni che attraversano il substrato in diagonale, raggiungendo il "pavimento", ossia il fondo, dove si trova il fotodiodo, di un pixel adiacente. Sicuramente anche questo è crosstalk, però in tal caso avviene per i pixel ai margini (off-axis) come conseguenza del non avere decentrato le microlenti, perciò mi pareva fossimo d'accordo (così come lo definisce al termine della citazione riportata) nel chiamare questo fenomeno di cui abbiamo parlato finora "pixel vignetting"; sono d'accordo sul fatto che se il fascio non illumina un pixel marginale, in secondo luogo, la sua microlente lo andrà a focalizzare in parte su quello a fianco se non si provvede a decentrarla (o a realizzare obiettivi più telecentrici).

Per questo motivo ho detto che le microlenti gapless vanno in controtendenza, perchè abbracciano anche lo spazio vuoto tra pixel, per cercare di indirizzare anche quella radiazione verso la superficie fotosensibile. Così facendo, sono meno legate all'andamento delle dimensioni lineari dei pixel (anche perchè con le operazioni di scalig diminuiscono anche le distanze tra pixel ma in misura minore di quanto non facciano le dimensioni stesse dei pixe. In tal modo i rapporti tra dimensioni e distanze reciproche diminuiscono, al fine di ridurre disturbi reciproci di tipo elettronico). Ora, il problema è che, anche se le microlenti sono in grado di fare il loro lavoro, non possono, comunque, riuscire a deviare tutta la radiazione in modo che cada perpendicolarmente.
Proprio quello che sto cercando di dire da un po'... ;) Hai ragione a voler sottolineare che la colpa è la riduzione del pixel e la microlente cerca di starci dietro, forse sembrava che me la prendessi solo con lei, ma constatavo semplicemente che con pixel aventi aree sensibili difficilmente raggiungibili (e ciò peggiora al calare del pixel pitch come da tendenza dei dati di DxO) il problema si acuisce e la microlente fatica sempre più a stare dietro alle richieste di apertura del sistema ottico a monte.

per le reflex full frame transfer, mentre per immagini in movimento si usavano gli interline transfer. Ecco perchè le reflex con CCD non fanno video
Deciditi però! :Prrr: Perché una volta te l'avevo fatto notare anche io che nessuna reflex con CCD supportava il liveview (e avevo ipotizzato full-frame-transfer) e subito mi avevi corretto dicendo che comunque erano tutte interline, sottolineando il fatto che la d200 aveva proprio i 4 canali per l'elevato transfer-rate richiesto dalla raffica. Ora compito a casa visto che li hai, vai a vedere e ci dicci cos'è (o meglio ancora metti qualcosa :) ) una volta per tutte! :asd:


Questo significa che, una volta trovata una cosa che funziona, si cerca di farla durare il più a lungo per ammortizzare le spese e per evitare di dover iniziare di nuovo tutto da capo senza alcun motivo. Va bene, ma tra la 20D e la 30D c'è una generazione (cosa sono 18 mesi?) vuoi che in un tal lasso di tempo si siedano sugli allori e non cambino proprio nulla.. :boh:

Per tutto quello dopo siamo d'accordo (ho apprezzato che hai voluto precisare sui 3T/4T/ecc. ;) ) e fortuna che non ci siamo messi ad allargare il discorso :p alla trattazione dei dati raw o peggio ancora alla diffrazione! :asd:

yossarian
08-01-2012, 19:12
:mbe: Ma non parliamo due lingue diverse, vero?? :) A me non pare sia una superficie discreta! :sofico: Nella pellicola non B&N possono esserci quanti strati vuoi IN PROFONDITA', ma questo non vuol dire superficie sensibile discretizzata a casa mia e mi sembra evidente per quanto ho già detto sulla disposizione dei grani. Quindi i 2 fenomeni di cui abbiamo parlato finora che interessano il pixel, non intervengono. Che poi ci siano più strati sensibilizzati diversamente benissimo, ma è ovvio che saranno TRASPARENTI nello spettro complementare (utilizzano la sintesi sottrativa), quindi in prima approssimazione si comportano ognuno distintamente come assorbitore (praticamente totale nella propria banda e trasparente nel complementare, se il sistema ha funzionato ed è stato affinato tirando avanti per più di mezzo secolo!) in una delle tre regioni di spettro visibile per cui sono sensibilizzati.

il singolo strato della pellicola ha meteriale fotoassorbente discreto. Un grano è l'equivalente di un'area individuale, confinata da materiale non fotoassorbente, "un'isola fotoassorbente in un mare non fotoassorbente". E il principio che si applica alla progettazione delle pellicole è lo stesso di quello utilizzato per i sensori, con la differenza che non puoi amplificare il segnale. Pellicola fatte per scattare con buone ocndizione di luce hanno grani molto più piccoli e in numero maggiore, pellicole fatte scattare con poca luce hanno grani più grandi e meno numerosi, basanndosi sul principio universalmente valido che un fotorecettore più grande ha maggiore probabilità di catturare fotoni anche quando il numero di questi che cade sulla superficie è basso. In ognmi caso, sempre di insieme finito di punti si tratta, ovvero di insieme discreto. http://finearts.fontbonne.edu/tech/photo/film/film_gen.html. Ti risparmio i dettagli sulla reazione chimica tra, ad esempio, AgBr e fotone incidente :D


Quindi no: colpiscono SEMPRE materiale fotoassorbente DIVERSAMENTE dai pixel dei sensori digitali (se pure al limite infinitesimale così non fosse, non importa in approssimazione è sicuramente su un ordine di grandezza completamente differente dalla situazione dei pixel sul sensore).
Che gli strati siano in successione ed estesi (ed entrambi non sono lasciati al caso ma sicuramente correlati alle caratteristiche degli strati e alla penetrazione della radiazione) e vi possano essere fenomeni di diffusione, non toglie comunque che una lente per quanto corretta ha comunque una profondità di fuoco diversa al variariare della lunghezza d'onda. Anche all'inverso su un elemento sensibile poco esteso come profondità ciò darebbe problemi, ma come al solito una cosa è citare un fenomeno, tutt'altro è vedere l'ordine di grandezza dello stesso (ricordiamo per non perderci di vista nei ragionamenti che stiamo parlando di un 20um circa di spessore totale per una generica pellicola). E' inutile quindi spingersi a cercare il pelo nell'uovo per la pellicola, quando invece in un sensore l'area fotosensibile è MACROSCOPICAMENTE ridotta rispetto all'area del pixel (si parla di fill-factor di decine di percento non a caso); considerala se preferisci semplicemente una questione di ordine di grandezza.


quello che ho detto e ribadisco è che si tratta di un fenomeno presente anche sulla pellicola anche se su quest'utlima è meno visibile per tutta una serie di motivi (tra cui quello che non possibile quantificarlo in quanto non è misurabile). Inoltre, la disposizione casuale dei grani all'interno dei singoli strati non garantisce l'immunità totale dal fenomeno neppure sui raggi che si propagano con angoli ottimali. Il fatto che la pellicola sia meno soggetta a questo fenomeno non significa che ne sia esente.


Lo so che fai l'analogia col crosstalk, ma nel pixel del sensore come hai fatto notare è un problema di luce non perfettamente concentrata dalla microlente o che viene riflessa da altre parti della struttura a valle del CFA, mentre in un "sistema omogeneo" (senza CFA tra l'altro) come la pellicola (che non ha zone fotosensibili distinte: i pixel) ha poco senso definirlo tale: perciò ti ho parlato di diffusione che sarà tanto ridotta quanto più è assorbitore il mezzo (e occhio a dare per scontato che faccia meglio il silicio).


ribadisco il concetto: la pellicola è suddivisibile in zone fotosensibili e zone non fotosensibili e l'equivalente dei pixel sono i grani di sali d'argento.
Questo (http://luisegonzalez.hubpages.com/hub/Photographic-Slide-Film-a-review-of-color-films) è uno dei tanti link dove puoi vedere il variera delle dimensioni dei grani delle pellicole al variare della sensibilità. Non noti una certa similitudine con i pixel? Ovviamente quell'immagine rende solo l'idea delle dimensioni, perchè, a dfferenza dei sensori digitali, dove il reticolo è simmetrico, la disposizione dei sali d'argento all'interno di uno strato è di tipo random (simile a quella mostrata nell'altro link), quindi puoi avere addensamenti ini alcune zone e spazi vuoti relativamente ampi in altre. Quello che resta costante è il numero medio di grani per frame per quella determinata pellicola.


In ogni caso questo fenomeno (per me su pellicola data l'assenza di pixel è diffusione, ma te chiamalo pure crosstalk) siamo d'accordo che non influisce comunque su eventuali "cadute" di esposizione, quindi ripeto la pellicola continua a subire solo la vignettatura fisiologica dell'obiettivo e non altri fenomeni di perdita di trasmissione dovuti alla geometria dei pixel.

vale quanto detto sopra e aggiungo un'altra elemento di cui la letteratura tende a tacere ma che non fa che rafforzare il parallelismo tra pellicola e sensori digitali, ovvero la presenza di fenomeni di aliasing, ossia di interferenze tra segnali di fotorecettori vicini, presenti anche in pellicola e solo meno visibili per quanto detto in un precedente post a proposito della sensibilità dell'occhio umano verso disturbi disposti su reticoli di tipo simmetrico o meno. :D


Scusa ma se non ci riferiamo ai CMOS FSI a quali ci riferiamo dato che sulle fotocamere a lenti intercambiabili attuali ci sono questi? :boh: Quando ci saranno i BSI (o il sensore organico di fuji che taglia la testa al toro ed elimina le microlenti) vedremo se cambieranno le misure o i produttori elimineranno la correzione "nascosta" di sensibilità ad ampie aperture! :p
Sì stavolta QUESTA è una guida d'onda, sono perfettamente d'accordo! :)

fino a qualche anno fa, a parte le canon, tutte le fotocamere ad ottica intercambiabile facevano uso di CCD FF transfer. Oggi, la stragrande maggrioranza delle medio formato, ottica intercambiabile, fa uso di ccd FF transfer, la maggior parte delle leica, anche FF, idem. Se passiamo al cinema, molte cineprese fanno uso di sensori di tipo ccd (ad esempio le sony f35 e f23, ma anche altre della serie cinealta). Le sigma usano sensori foveon x3 (cmos ma non a matrice bayer e privi di filtro AA). NOn esistono solo i cmos fsi di tipo bayer trattati negli articoli citati, mi pare. Invece quello che è stato fatto è prendere una serie di test, per altro opinabili, di dxomark, fatti su sensori con tecnologie differenti, metterli a sistema con due articoli che trattano i problemi connessi alle operazioni di scaling dei sensori cmos FSI (quindi una sola tipologia) e arrivare alla conclusione (sbagliata) che le microlenti sono la causa del problema) :p


Sicuramente anche questo è crosstalk, però in tal caso avviene per i pixel ai margini (off-axis) come conseguenza del non avere decentrato le microlenti, perciò mi pareva fossimo d'accordo (così come lo definisce al termine della citazione riportata) nel chiamare questo fenomeno di cui abbiamo parlato finora "pixel vignetting"; sono d'accordo sul fatto che se il fascio non illumina un pixel marginale, in secondo luogo, la sua microlente lo andrà a focalizzare in parte su quello a fianco se non si provvede a decentrarla (o a realizzare obiettivi più telecentrici).

il pixel vignetting ed il pixel optical crosstalk sono due fenomeni differenti dovuti al non corretto allinemento dei raggi incidenti con l'asse della microlente. Il primo provoca il light fall off vero e proprio che è dovuto a quei raggi che non arrivano al fotodiodo perchè finiscono nello spazio tra pixel contigui o sull'area occupata dai circuiti preposti ad altre funzioni e non fotosensibili, presenti in prossimità della superficie nei cmos FSI. Il secondo, invece, riguarda quei raggi che superano queste barriere, arrivano al tunnel di quello specifico fotodiodo, ma con un angolo tale per cui non finiscono su quel fotodiodo ma su quello di un pixel vicino. Questo secondo fenomeno è la causa di uno dei tipi di rumore presenti ed evidenti, soprattutto con basse luci. Dai due articoli che hai citato, viene fuori che, allo stato attuale, il secondo costituisce un problema maggiore rispetto al primo e che indirizzare la luce verso il "tunnel" non è più sufficiente, ma che questa va guidata anche all'interno del tunnel. Ovviamente, entrambi i fenomeni èpossono verificarsi in qualunque punto del sensore (non esiste solo l'ottica geometrica, ma ci sono altre cause che provocano la deviazione dei raggi dalla loro corretta traiettoria), ma sono, per ovvie ragioni (geometrie, in questo caso), più probabili e frequenti nelle zone periferiche della superficie del pixel


Proprio quello che sto cercando di dire da un po'... ;) Hai ragione a voler sottolineare che la colpa è la riduzione del pixel e la microlente cerca di starci dietro, forse sembrava che me la prendessi solo con lei, ma constatavo semplicemente che con pixel aventi aree sensibili difficilmente raggiungibili (e ciò peggiora al calare del pixel pitch come da tendenza dei dati di DxO) il problema si acuisce e la microlente fatica sempre più a stare dietro alle richieste di apertura del sistema ottico a monte.


la questione non è prendersela solo con la microlente o meno. La microlente non è responsabile del fenomeno; il problema è solo e soltanto connesso alle operazioni di scaling delle dimensioni dei pixel. Lo stesso articolo che hai più volte citato, parla esplicitamente di probemi connessi alle operazioni di scaling geometrico de pixel, di cui quello dell'indirizzamento della luce sul fotodiodo è solo uno. Si potrebbe anche titolare "quello che si può fare per bilanciare i danni provocati dalla continua rincorsa ai Mpixel" :D , che è quello che chi progetta l'elettronica e l'ottica delle macchine fotografica si trova a dover fare tutti i giorni.


Deciditi però! :Prrr: Perché una volta te l'avevo fatto notare anche io che nessuna reflex con CCD supportava il liveview (e avevo ipotizzato full-frame-transfer) e subito mi avevi corretto dicendo che comunque erano tutte interline, sottolineando il fatto che la d200 aveva proprio i 4 canali per l'elevato transfer-rate richiesto dalla raffica. Ora compito a casa visto che li hai, vai a vedere e ci dicci cos'è (o meglio ancora metti qualcosa :) ) una volta per tutte! :asd:


non mi risulta di aver mai detto che la d200 ha un ccd interleave transfer e se lo avessi fatto avrei detto una cazzata. :sofico: Una raffica da 5 foto al secondo su un sensore da 10 Mpixel di tipo aps-c non è così elevata da giustificare l'adozione di un sensore di tipo non FF transfer. Il live view non c'entra niente con la tipologia di sensore. Posso averlo con ccd o cmos indifferentemente. Il problema del live view è il sistema di AF utlizzato, semmai, che non ha nulla a che vedere con il tipo di sensore.


Va bene, ma tra la 20D e la 30D c'è una generazione (cosa sono 18 mesi?) vuoi che in un tal lasso di tempo si siedano sugli allori e non cambino proprio nulla.. :boh:


per rimanere in casa canon, il modulo AF della 20d e della 30d è lo stesso che trovi oggi sulla 600d, con il punto centrale a doppia croce e gli altri 8 lineari (mentre sulla serie semipro, dalla 40d in poi, è stato migliorato, tenendo il centrale a doppia croce ma con gli altri 8 a croce) :D

Chelidon
09-01-2012, 20:14
il singolo strato della pellicola ha meteriale fotoassorbente discreto. Un grano è l'equivalente di un'area individuale, confinata da materiale non fotoassorbente, "un'isola fotoassorbente in un mare non fotoassorbente".
No! Non sono isole, piuttosto fitte mine di profondità! :Prrr: NON E' IL SINGOLO GRANO l'unità spaziale interessata dall'assorbimento: è la PORZIONE DI STRATO in cui sono dispersi più grani sovrapposti rispetto alla superficie (non stiamo facendo geometria elementare e non sono punti infinitesimi su un piano :nono:), quindi dal punto di vista della radiazione, il mezzo, cioè lo strato spesso in cui sono dispersi più grani sovrapposti, è STATISTICAMENTE OMOGENEO e perciò completamente (e uniformemente per ogni zona presa sopra la superficie) assorbente; questo anche se dal punto di vista dell'immagine la dimensione del grano influirà sicuramente sul campionamento spaziale (e inversamente sulla cinetica di reazione: ;) vedi quanto hai detto sulla sensibilità).

ribadisco il concetto: la pellicola è suddivisibile in zone fotosensibili e zone non fotosensibili e l'equivalente dei pixel sono i grani di sali d'argento. Quelle che tu chiami zone fotosensibili e non fotosensibili (a parte che una cosa è un mezzo praticamente trasparente in cui è disperso un materiale sensibile e tutt'altro i materiali non fotosensibili che circondano o coprono la zona attiva di un fotorecettore a stato solido) nella pellicola costituiscono una DISPERSIONE OMOGENEA e quindi dal punto di vista della radiazione che la attraversa è come avere un unico mezzo con assorbimento intermedio (anche la nebbia è una dispersione ma non ci vedi buchi attraverso e ti sembra continua e uniforme). Non è come per i pixel di un sensore che hanno le parti fotosensibili disposte planarmente e PERIODICAMENTE separate da parti che non contribuiscono a comporre l'immagine. Solo per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola (qui è inutile tirar fuori la banale chimica dei sali di argento quanto piuttosto capire cosa è una dispersione in chimica e che dal punto di vista della superficie non ci sono "buchi" dato che un vuoto in una zona può essere coperto da un pieno sottostante e viceversa).
Comunque, pazienza, se non sei convinto, la chiacchierata l'abbiamo fatta :) ed è inutile che ripeta ancora queste cose..
http://img27.imageshack.us/img27/9753/colorfilm.png (http://imageshack.us/photo/my-images/27/colorfilm.png/)
il pixel vignetting ed il pixel optical crosstalk sono due fenomeni differenti Guarda capisco benissimo il tuo discorso, però non capisco di contro cosa interessi a noi di fare considerazioni su fenomeni che incrementano il rumore, :boh: visto che l'argomento in topic riguarda una caduta di esposizione e l'abbiamo già allargato abbastanza.. :stordita: Non che non sia piacevole andare a spulciare tutto aggiungendo il crosstalk e le guide nel pixel, ma mi preoccupa visto quanto stiamo scrivendo.. :fagiano: Anzi, direi che sull'argomento principale le conclusioni le abbiamo già tratte e da parte mia direi che basta. :)

La microlente non è responsabile del fenomeno; il problema è solo e soltanto connesso alle operazioni di scaling delle dimensioni dei pixel.
Infatti speravo di aver chiarito che non ho mai detto che sia la causa del fenomeno, altrimenti non avrei sottolineato più volte :read: il fatto che la superfice fotosensibile dei sensori attuali non coincide interamente col pixel (più o meno a seconda delle tecnologie, ma sempre sostanzialmente inferiore) e ciò lo definiscono col fill-factor. E proprio per questo motivo servono le microlenti (tecnologia che abbiamo detto viene affinata con le generazioni negli anni) che però risulta pure ABBIANO LIMITI a convogliare i raggi più inclinati sull'area sensibile del pixel (quindi da una parte vengono affinate dall'altra il pixel pitch riducendosi peggiora il tutto con gli FSI).
Lo stesso articolo che hai più volte citato, parla esplicitamente di probemi connessi alle operazioni di scaling geometrico de pixel
Infatti ne abbiamo parlato perché era concorde con la tendenza dei dati di DxO al ridursi del pixel pitch.
Si potrebbe anche titolare "quello che si può fare per bilanciare i danni provocati dalla continua rincorsa ai Mpixel" , che è quello che chi progetta l'elettronica e l'ottica delle macchine fotografica si trova a dover fare tutti i giorni.
Appunto di questo abbiamo fin qui parlato, penso, e ormai mi sembra lapalissiano visto che ne abbiamo già discusso ampiamente. :mano:

non mi risulta di aver mai detto che la d200 ha un ccd interleave transfer e se lo avessi fatto avrei detto una cazzata. :sofico: Una raffica da 5 foto al secondo su un sensore da 10 Mpixel di tipo aps-c non è così elevata da giustificare l'adozione di un sensore di tipo non FF transfer. Il live view non c'entra niente con la tipologia di sensore.
Allora era stata un'ipotesi basata sulle richieste di lettura veloce del liveview e che mi sembrò sensata per i CCD delle reflex ovviamente dato che nessuna con questa tecnologia l'aveva mai implementato. Comunque sperando che non finiremo :ot:, se t'interessa nello specifico, ti cito quel pezzetto che è vecchio di un anno:


certo se mi vieni a dire che non sono tutti del tipo interline transfer i CCD che fanno video (su compatte o videocamere) e viceversa per i full-frame transfer sulle reflex allora la mia supposizione risulta parecchio campata per aria! :p
al contrario, sulle reflex si usano gli interline per avere una raffica più elevata. Con un frame trasfer hai un solo read out channel mentre, ad esempio, la D200 ne ha 4.
Mi era solo rimasto impresso, ma chissene, :p se hai i dati e puoi confermare che i CCD delle reflex sono basati su tecnologia full-frame-transfer mi fido: :) se citi qualcosa correggerò quello che credevo di avere imparato da te, tutto qui.. ;)

yossarian
09-01-2012, 23:26
No! Non sono isole, piuttosto fitte mine di profondità! :Prrr: NON E' IL SINGOLO GRANO l'unità spaziale interessata dall'assorbimento: è la PORZIONE DI STRATO in cui sono dispersi più grani sovrapposti rispetto alla superficie (non stiamo facendo geometria elementare e non sono punti infinitesimi su un piano :nono:), quindi dal punto di vista della radiazione, il mezzo, cioè lo strato spesso in cui sono dispersi più grani sovrapposti, è STATISTICAMENTE OMOGENEO e perciò completamente (e uniformemente per ogni zona presa sopra la superficie) assorbente; questo anche se dal punto di vista dell'immagine la dimensione del grano influirà sicuramente sul campionamento spaziale (e inversamente sulla cinetica di reazione: ;) vedi quanto hai detto sulla sensibilità).
Quelle che tu chiami zone fotosensibili e non fotosensibili (a parte che una cosa è un mezzo praticamente trasparente in cui è disperso un materiale sensibile e tutt'altro i materiali non fotosensibili che circondano o coprono la zona attiva di un fotorecettore a stato solido) nella pellicola costituiscono una DISPERSIONE OMOGENEA e quindi dal punto di vista della radiazione che la attraversa è come avere un unico mezzo con assorbimento intermedio (anche la nebbia è una dispersione ma non ci vedi buchi attraverso e ti sembra continua e uniforme). Non è come per i pixel di un sensore che hanno le parti fotosensibili disposte planarmente e PERIODICAMENTE separate da parti che non contribuiscono a comporre l'immagine. Solo per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola (qui è inutile tirar fuori la banale chimica dei sali di argento quanto piuttosto capire cosa è una dispersione in chimica e che dal punto di vista della superficie non ci sono "buchi" dato che un vuoto in una zona può essere coperto da un pieno sottostante e viceversa).
Comunque, pazienza, se non sei convinto, la chiacchierata l'abbiamo fatta :) ed è inutile che ripeta ancora queste cose..
http://img27.imageshack.us/img27/9753/colorfilm.png (http://imageshack.us/photo/my-images/27/colorfilm.png/)


1) il problema è quel "può" essere coperto e con una distribuzione random la certezza non l'avrai mai.
2) non è neppure sufficiente che un fotone colpisca un grano e liberi un atomo di Ag perchè si crei l'opacità necessaria ad avere un "punto immagine", poichè questo fenomeno deve ripertersi più volte per avere un numero n (spesso maggiore o uguale a 4) di atomi di Ag per singolo grano; se guardi l'immagine che hai postato, puoi renderti conto che con una distrbuzione casuale, i problemi puoi averli anche con raggi perpendicolari alla superficie del frame (cosa che col digitale non avverrà mai).
3) anche ammesso che un raggio colpisca un grano deve farlo con un angolo tale da penetrare all'interno e non da venire riflesso, cosa che accade molto più spesso di quanto si pensi. Questo perchè i grani non sono fotosensibili ma lo sono i sali d'argento al loro interno.
4) Le curve sensitometriche delle pellicole presentano una parte piatta sia all'inizio (zona di velo) sia alla fine (zona di saturazione) e prima di queste, altre due zone dove la curva cresce ma non con una proporzionalità diretta rispetto alla radiazione incidente. Questo significa che hai una tratta in cui la risposta è praticamente pari a 0 (velo) o, comunque, coperta dall'opacità caratteristica della pellicola. Una (piede) in cui esiste una proporzionalità, ma la risposta non è sufficiente a generare un'immagine; una tratta, quella lineare, in cui si ha creazione dell'immagine e la proporzionalità tra radiazione incidente e atomi di Ag creati è diretta; un'altra in cui la creazione di nuovi atomi aggiunge poco all'immagine latente; infine una in cui si ha saturazione della pellicola con le conseguenze che conosciamo :D . Al contrario, la risposta dei sensori digitali è, per loro natura, pressochè lineare, il che significa che presentano una sensibilità maggiore alla radiazione incidente, rispetto alla pellicola. Il contro è che hanno poca tolleranza in prossimità della soglia di saturazione, motivo per cui tendono ad avere meno gamma dinamica e a gestire peggio le scene con forte contrasto. Per ovviare a questo incinveniente, si cerca di rendere, artificialmente, la risposta dei sensori, più simile a quella della pellicola con i vari algoritmi di HDR per cui si inventano i nomi più fantasiosi. Questo semplicemente per dire che, anche con la pellicola, non è sufficiente che un raggio colpisca un "grano" fotorecettore ma, ancora più che con i sensori digitali, è necessario che il processo si ripeta più volte.
5) detto ciò, concludo che non sono l'unico che devi convincere del fatto che la luce che colpisce la pellicola viene assorbita per intero e non ci sono dispersioni, ma anche kodak, agfa, ilford, fujifilm e chi per essi, dato che sono soliti mettere, sia nelle pellicole in b/n che in quelle a colori, uno strato di materiale antiriflettente sul fondo della pellicola, (http://nsac.ca/envsci/staff/jhoyle/students/tnaugler2/Films.html) proprio per evitare le interferenze dei raggi che, attraversando tutto il materiale fotoassorbente, raggiungono il fondo e tornano indietro.
6) A queste considerazioni, aggiungo il brevetto di un sistema di scansione digitale e relativa maschera per compensare il light fall off di una pellicola fotografica (http://es.patents.com/us-6577378.html). Isole o bombe, il problema esiste lo stesso e non è l'unico. Come ho già detto, in un sensore digitale, la componente aggiuntiva è quella relativa al pixel vignetting anche se le stesse misure di dxomark, che continuo a mettere in discussione a livello quantitativo ma che, dal punto di vista qualitativo, mettono in evidenza un fenomeno reale, dimostrano che i progressi fatti nella progettazione delle microlenti dei sensori digitali hanno permesso, nel tempo, di ridurre l'incidenza di questo fenomeno, pur diminuendo notevolmente le dimensioni dei pixel.
Concludendo, anch'io sono dell'idea che rimarremo ognuno sulle sue posizioni; comunque mi ha fatto piacere fare questa chiacchierata che reputo interessante e istruttiva :)


Guarda capisco benissimo il tuo discorso, però non capisco di contro cosa interessi a noi di fare considerazioni su fenomeni che incrementano il rumore, :boh: visto che l'argomento in topic riguarda una caduta di esposizione e l'abbiamo già allargato abbastanza.. :stordita: Non che non sia piacevole andare a spulciare tutto aggiungendo il crosstalk e le guide nel pixel, ma mi preoccupa visto quanto stiamo scrivendo.. :fagiano: Anzi, direi che sull'argomento principale le conclusioni le abbiamo già tratte e da parte mia direi che basta. :)


semplicemente perchè il problema illustrato dal link che avete postato riguarda principalmente il crosstalk e i modi per combatterlo.


Infatti speravo di aver chiarito che non ho mai detto che sia la causa del fenomeno, altrimenti non avrei sottolineato più volte :read: il fatto che la superfice fotosensibile dei sensori attuali non coincide interamente col pixel (più o meno a seconda delle tecnologie, ma sempre sostanzialmente inferiore) e ciò lo definiscono col fill-factor. E proprio per questo motivo servono le microlenti (tecnologia che abbiamo detto viene affinata con le generazioni negli anni) che però risulta pure ABBIANO LIMITI a convogliare i raggi più inclinati sull'area sensibile del pixel (quindi da una parte vengono affinate dall'altra il pixel pitch riducendosi peggiora il tutto con gli FSI).


su questo pare abbiamo raggiunto un accordo. Il discorso andrebbe integrato con considerazioni che spaziano anche sugli algoritmi di ricostruzione del segnale, molto più sofisticati e tali da permettere di ottenere, su un sensore di oggi, molto più affollato di uno di uno di qualche anno fa, un'immagine migliore nonostante il SNR per pixel non sia affatto migliorato :D


Infatti ne abbiamo parlato perché era concorde con la tendenza dei dati di DxO al ridursi del pixel pitch.


i dati di dxomark sono stati ottenuti con un procedimento molto poco scientifico e porta a conclusioni sballate proprio perchè fa una comparazione tra sensori di tipo diverso, progettati in periodi differennti con tecnologie diverse, Se prendessimo per buone quelle conclusioni, in maniera del tutto acritica e decontestualizzando i singoli risultati, arriveremmo a concludere che ccd con pixel pitch maggiore si comportano peggio di cmos fsi con pixel pitch che è quasi la metà. La mia critica era rivolta anche a questo aspetto.



Allora era stata un'ipotesi basata sulle richieste di lettura veloce del liveview e che mi sembrò sensata per i CCD delle reflex ovviamente dato che nessuna con questa tecnologia l'aveva mai implementato. Comunque sperando che non finiremo :ot:, se t'interessa nello specifico, ti cito quel pezzetto che è vecchio di un anno:

Mi era solo rimasto impresso, ma chissene, :p se hai i dati e puoi confermare che i CCD delle reflex sono basati su tecnologia full-frame-transfer mi fido: :) se citi qualcosa correggerò quello che credevo di avere imparato da te, tutto qui.. ;)

hai ragione; ho riguardato il data sheet del sensore della d200 ed è un interleaved data transfer con alternate righe di elementi fotosensibili e registri e 4 canali di lettura, uno dedicato al rosso, uno al blu e 2 al verde, mentre quello della d80 ha un canale di lettura dedicato al verde e uno alternativamente al blu e al rosso. nvece sono di tipo full frame quelli delle medio formato (ma pure quelli necessitano di microlenti). Di conseguenza, anche la superficie dei ccd della comparativa non sfruttano l'intera superficie fotosensibile (anche se, rispetto ai cmos fsi, hanno, quindi, il solo vantaggio di non avere altri circuiti al di sopra del fotodiodo.

Chelidon
10-01-2012, 13:35
il problema è quel "può" essere coperto. Con una distribuzine random dei granuli contenenti sali d'argento, la certezza della copertura non puoi averla comunque Certo nel particolare se gioco una volta al casinò posso anche vincere, :D ma perdi di vista che ho la CERTEZZA STATISTICA che se gioco un numero elevato di volte perderò (per questo i casinò funzionano :p e sono redditizi)! Te lo ripeto nello strato non c'è un grano ma molti, anche perché altrimenti l'efficienza di assorbimento dello strato sarebbe molto bassa e di sicuro non hanno studiato per 50 anni degli strati con spessori casuali.
i problemi puoi averli anche con raggi perpendicolari alla superficie del frame (cosa che col digitale non avverrà mai)
Anche se per assurdo tutto andasse storto in un punto della superficie (ed è improbabile se nello strato ci sono molti grani) per misurare quel difetto dovresti avercelo uguale statisticamente in tanti altri punti della superficie, quindi siamo ancora da capo con la statistica per i grandi numeri.
Le curve sensitometriche delle pellicole
Tutto il discorso che fai sulla non linearità della pellicola (è banale che i sensori abbiano dei vantaggi altrimenti non l'avrebbero soppiantata) è corretto ma fuori luogo con il discorso della discretizzazione. In ogni caso, a parte ciò, nella quasi totalità dei casi nella pratica reale in fotografia lavori senza il problema del difetto di reciprocità.
Occhio alle considerazioni semplicistiche che fai sulla chimica dell'emulsione (ci sono i pigmenti sensibilizzanti e la riduzione ad argento metallico avviene in massa durante lo sviluppo).
Lo strato sul fondo come dice il nome anche nello schema fujifilm che ti ho riportato è uno strato antialone e serve ad assorbire il resto della radiazione rimanente per evitare che venendo riflessa e diffusa indietro produca degli aloni (di nuovo NON c'è INTERFERENZA nel senso fisico del termine, se lo usi come sinonimo di disturbo invece ci siamo capiti :) ).
Il brevetto non conferma il tuo fenomeno: :mbe: è un generico sistema di correzione della vignettatura durante la stampa a proiezione; anzi specifica proprio dopo che sta parlando di vignettatura dell'obiettivo fotografico e del proiettore, quindi sei te che a furia di vederla per i sensori, dai al termine fall-off sempre una connotazione specifica del pixel quando invece è un termine generico usato in alternativa a vignetting.

semplicemente perchè il problema illustrato dal link che avete postato riguarda principalmente il crosstalk e i modi per combatterlo.
Però, mi sembrava di aver già detto di limitarci ai fenomeni che producono la "caduta di esposizione" visto che in quell'articolo parlano di tutta la roba problematica con la miniaturizzazione ed è già andata bene che non abbiamo parlato pure dell'annoso discorso della diffrazione! :sofico:

Sul dopo concordo perfettamente con te! :mano:

Se prendessimo per buone quelle conclusioni, in maniera del tutto acritica e decontestualizzando i singoli risultati, arriveremmo a concludere che ccd con pixel pitch maggiore si comportano peggio di cmos fsi con pixel pitch che è quasi la metà. La mia critica era rivolta anche a questo aspetto.
Però, mi sembra che abbiamo contestualizzato pure i dati dei CCD (assunto che i progetti delle microlenti possano essere stati affinati negli anni) e appurato, ora, che sia valido questo:

ho riguardato il data sheet del sensore della d200 ed è un interleaved data transfer con alternate righe di elementi fotosensibili e registri e 4 canali di lettura, uno dedicato al rosso, uno al blu e 2 al verde, mentre quello della d80 ha un canale di lettura dedicato al verde e uno alternativamente al blu e al rosso. nvece sono di tipo full frame quelli delle medio formato (ma pure quelli necessitano di microlenti). Di conseguenza, anche la superficie dei ccd della comparativa non sfruttano l'intera superficie fotosensibile (anche se, rispetto ai cmos fsi, hanno, quindi, il solo vantaggio di non avere altri circuiti al di sopra del fotodiodo. Mi sembra che sia plausibile che quei CCD interleaved possano avere un fill-factor non troppo diverso da quello dei CMOS FSI delle altre reflex e quindi arrivino a cadute simili a parità di generazione delle microlenti.

Certo se ci fossero altri dati, tipo quello della M9 o le medioformato, o anche le Sigma X3 si potrebbero avere altre conferme o magari no e ampliare le supposizioni. :boh: Terremo d'occhio come evolverà la situazione semmai! ;)

yossarian
10-01-2012, 15:52
Certo nel particolare se gioco una volta al casinò posso anche vincere, :D ma perdi di vista che ho la CERTEZZA STATISTICA che se gioco un numero elevato di volte perderò (per questo i casinò funzionano :p e sono redditizi)! Te lo ripeto nello strato non c'è un grano ma molti, anche perché altrimenti l'efficienza di assorbimento dello strato sarebbe molto bassa e di sicuro non hanno studiato per 50 anni degli strati con spessori casuali.

Anche se per assurdo tutto andasse storto in un punto della superficie (ed è improbabile se nello strato ci sono molti grani) per misurare quel difetto dovresti avercelo uguale statisticamente in tanti altri punti della superficie, quindi siamo ancora da capo con la statistica per i grandi numeri.


i grandi numeri sono poco indicativi in valore assoluto e portano alla certezza statistica solo quando il numero di prove tende ad infinito (la pellicola non ha infiniti grani e i raggi di luce non sono infiniti) :D



Tutto il discorso che fai sulla non linearità della pellicola (è banale che i sensori abbiano dei vantaggi altrimenti non l'avrebbero soppiantata) è corretto ma fuori luogo con il discorso della discretizzazione. In ogni caso, a parte ciò, nella quasi totalità dei casi nella pratica reale in fotografia lavori senza il problema del difetto di reciprocità.
Occhio alle considerazioni semplicistiche che fai sulla chimica dell'emulsione (ci sono i pigmenti sensibilizzanti e la riduzione ad argento metallico avviene in massa durante lo sviluppo).
Lo strato sul fondo come dice il nome anche nello schema fujifilm che ti ho riportato è uno strato antialone e serve ad assorbire il resto della radiazione rimanente per evitare che venendo riflessa e diffusa indietro produca degli aloni (di nuovo NON c'è INTERFERENZA nel senso fisico del termine, se lo usi come sinonimo di disturbo invece ci siamo capiti :) ).
Il brevetto non conferma il tuo fenomeno: :mbe: è un generico sistema di correzione della vignettatura durante la stampa a proiezione; anzi specifica proprio dopo che sta parlando di vignettatura dell'obiettivo fotografico e del proiettore, quindi sei te che a furia di vederla per i sensori, dai al termine fall-off sempre una connotazione specifica del pixel quando invece è un termine generico usato in alternativa a vignetting.


http://chestofbooks.com/arts/photography/The-Fundamentals-Of-Photography/Chapter-XI-Halation.html

http://ceeserver.cee.cornell.edu/wdp2/cee6100/6100_monograph/mono_05_F09_frame%20cameras.pdf

http://motion.kodak.com/motion/uploadedFiles/US_plugins_acrobat_en_motion_newsletters_filmEss_04_How-film-makes-image.pdf

Da questi testi non mi pare si parli di radiazione in eccesso da nessuna parte ma del semplice fenomeno causato dalla radiazione che, attraversando gli stati fotoassorbenti, arriva sul fondo e viene, in parte, riflessa verso l'interno della pellicola, causano aloni. e partiamo dal presupposto che ci sia "radiazione in eccesso" dovremo anche partire dall'assunto che, per ottenere lo stesso risultato, si può sottoesporre un determinato frame rispetto ai valori teorici corretti di esposizione. Invece nella valutazione della corretta esposizione di una pellicola, si tiene conto anche della quantità di luce "dispersa", allo stesso modo in cui si calcolano gli ISO equivalenti nei sensori digitali (tenendo conto della OE e della QE, tra le altre cose).



Però, mi sembra che abbiamo contestualizzato pure i dati dei CCD (assunto che i progetti delle microlenti possano essere stati affinati negli anni) e appurato, ora, che sia valido questo:
Mi sembra che sia plausibile che quei CCD interleaved possano avere un fill-factor non troppo diverso da quello dei CMOS FSI delle altre reflex e quindi arrivino a cadute simili a parità di generazione delle microlenti.


in teoria, a parità di tecnologia delle microlenti e di tutto il resto, un ccd, anche di tipo interleaved, è sempre avvantaggiato rispetto ad un cmos fsi, perchè non ha i circuiti elettrici che occupano parte del pixel vero e proprio. Ovvio che, stando a quei risultati (e non solo a quelli), i ccd che equipaggiano le vecchie nikon sono peggiori dei cmos di vecchie e nuova generazione e questo dipende dal fatto che, evidentemente, il sistema di microlenti è di qualità inferiore e, molto probabilmente, anche la QE risulta inferiore.


Certo se ci fossero altri dati, tipo quello della M9 o le medioformato, o anche le Sigma X3 si potrebbero avere altre conferme o magari no e ampliare le supposizioni. :boh: Terremo d'occhio come evolverà la situazione semmai! ;)

so che tutti i sensori attuali, anche su MF, montano, oggi, sistemi di microlenti piuttosto avanzati, nonostante le dimensioni dei pixel e la tecnologia adottata per i sensori stessi. Gli X3 e molte medio formato non hanno filtro AA, però non ho altri dati al riguardo. Infine, si deve anche valutare la tipologia delle ottiche: quelle di nikon e canon delle macchine prese in esame sono ottiche nate per FF (dove, comunque, a TA danno lo stesso problemi) e adattate ad altri formati. Se su MF esistono ottiche dedicate di tipo telecentrico o quasi telentrico, il problema, se esiste, è molto più contenuto

Chelidon
10-01-2012, 21:36
i grandi numeri sono poco indicativi in valore assoluto e portano alla certezza statistica solo quando il numero di prove tende ad infinito (la pellicola non ha infiniti grani e i raggi di luce non sono infiniti) Ti rispondo anch'io con una battuta: :D anche il borsellino nel mondo reale non è infinito quindi trovo difficile che qualcuno possa dimostrarmi che non finisce molto, ma molto, ma proprio molto :asd: prima del caso cantoriano.. (http://en.wikipedia.org/wiki/Georg_Cantor) :p

Da questi testi non mi pare si parli di radiazione in eccesso da nessuna parte ma del semplice fenomeno causato dalla radiazione che, attraversando gli stati fotoassorbenti, arriva sul fondo e viene, in parte, riflessa verso l'interno della pellicola, causano aloni
Ehm.. :) Guarda che stiamo parlando della stessa cosa... :Prrr: Anche il grano perfettamente investito dalla radiazione non l'assorbe tutta ovviamente, proprio così come il "silicio" ha la sua QE.. ;) Quindi quello strato serve ad eliminare immagini fantasma riflesse da dietro, proprio come dici te...

so che tutti i sensori attuali, anche su MF, montano, oggi, sistemi di microlenti piuttosto avanzati, nonostante le dimensioni dei pixel e la tecnologia adottata per i sensori stessi Sicuramente! Lo credo anch'io visto che dicevo che qualsiasi sensore a causa del fill-factor sensibilmente inferiore al 100% ne ha bisogno:
per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola

Gli X3 e molte medio formato non hanno filtro AA, però non ho altri dati al riguardo. Infine, si deve anche valutare la tipologia delle ottiche: quelle di nikon e canon delle macchine prese in esame sono ottiche nate per FF (dove, comunque, a TA danno lo stesso problemi) e adattate ad altri formati. Se su MF esistono ottiche dedicate di tipo telecentrico o quasi telentrico, il problema, se esiste, è molto più contenuto
Appena metteranno qualcosa ci si butta un occhio! :) (anche se secondo me presto o tardi quando avranno più dati amplieranno anche loro quella paginetta)
Sul telecentrismo che viene spesso invocato anche negli articoli sulle microlenti c'è da dire che le ottiche del 4/3 e quelle recenti dovrebbero esserlo maggiormante magari vedo di spulciare un po' il database se ci sono valori di T-stop con lenti molto aperte.. :boh:

R.Raskolnikov
09-05-2012, 22:01
A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?
La differenza tra un f/1.4 e un f/1.8 è sempre stata minore di uno stop.
La scala dei diaframmi è:
1, 1.4, 2, 2.8, 4, 5.6, 8, 11, 16, 22, 32, 45...

Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?
Io mi fiderei poco di quel tutti....in questo campo e specialmente tra i fotoamatori girano false verità e leggende metropolitane assurde. Sui forum, poi, se ne leggono di tutti i colori (la peggiore, ma più gettonata, è: "con questa lente da1 milione di euro farai foto migliori").
Poi ci sono vari parametri con cui giudicare un obiettivo. Per taluni certi parametri possono essere significativi, per altri no!
Per fare un esempio un po' estremo, per alcuni la qualità dei materiali (non lenti) con cui è costruito un obiettivo è fondamentale, per me no. Sembra una stupidata, ma nella realtà tanti professionisti preferiscono ottiche solide come rocce, a discapito di tutto il resto (relativamente).

Poi non si capisce di che ottica parli. Il Canon 50 1.2 è "migliore" del Canon 50 1.4 (tranne per le aberrazioni cromatiche).
Comunque è ovvio che ha senso comprare un f1.2 piuttosto di un f1.4, esattamente come avrebbe senso fare il contrario.
Chi si compra un'ottica super-luminosa lo fa per vari, e disparati motivi.
La differenza di profondità di campo è, a mio giudizio, forse l'ultimo di questi motivi.
Ma, ovviamente, già se uno si chiede se ha senso, significa che per lui NON ha alcun senso.

P.S.:
Riguardo alla notizia a me sembra una gran vaccata.
Se fosse così lo si sarebbe saputo dopo 1 giorno...forse meno. :sofico:
Il punto è che svelare complotti va molto di moda, ma in realtà sono quasi sempre bufale.

R.Raskolnikov
09-05-2012, 22:24
http://i.pbase.com/o6/65/644165/1/71078435.gTRmsIyL.IMG_0850.jpg
http://ic2.pbase.com/o6/65/644165/1/78720027.I3uAvMqx.IMG_2247.jpg
Scusa se mi permetto, ma la ragazza ha troppe ombre sul viso. Le vedi?
Il modo più semplice per attenuarle è (come minimissimo sindacale) un pannello di polisitrolo di fronte al soggetto (ovviamente non inquadrato)...ed anche un flashatina per illuminare gli occhi non sarebbe stata male. Avrebbe anch'essa giovato a quelle orribili ombre.
Con i flash anulari, per esempio, si crea un cerchio di luce stupendo negli occhi, che dona un'incredibile vivacità e vitalità allo sguardo.
Ci sarebbero (tante) altre cose da dire, ma le ombre sul viso sono la più evidente.
Comunque la cosa più importante in questo genere di foto è lo sguardo del soggetto....dev'essere vivo, interessante. Poi c'è la posa (non il tempo di posa, proprio il modo di incrociare le braccia, le gambe, la posa della "modella"). La tecnica viene (molto) dopo.
L'attrezzatura, che qui giudicano tutti essenziale e sulla quale fanno discorsi kilometrici, conta forse l'1%. Forse meno.
La seconda che hai postato è venuta decisamente meglio (fra l'altro mi sembra che assomigli ad Ambra Angiolini). Per eliminare certi difetti della pelle è utile, a volte, sovraesporre (poco)...specialmente nei primissimi piani, dove i normali difetti della pelle sono molto visibili.
Ciao.

Chelidon
18-05-2012, 17:39
Io mi fiderei poco di quel tutti.... In realtà quel tutti è un bel pochi o quasi nessuno, visto che a parte su pentaxiani non ho visto girare la voce in molti altri forum (nazionali). In ogni caso se ti leggi le pagine indietro ci sono pubblicazioni scientifiche (certo non tutti vi possono accedere) che affrontano il fenomeno e indicano possibili vie risolutive e al contempo limiti e problemi.


Chi si compra un'ottica super-luminosa lo fa per vari, e disparati motivi.
La differenza di profondità di campo è, a mio giudizio, forse l'ultimo di questi motivi.
Può darsi, però probabilmente coi sensori attuali che arrivano tranquillamente a 3200 ISO e volendo esagerare (benché molto meno bene) vanno pure ben oltre, non credo sia più l'esigenza di luminosità il motivo principale per un ottica iperluminosa (parere personalissimo).

Riguardo alla notizia a me sembra una gran vaccata.
Se fosse così lo si sarebbe saputo dopo 1 giorno...forse meno. :sofico:
Il punto è che svelare complotti va molto di moda, ma in realtà sono quasi sempre bufale. Quelli di Luminous-Landscape però non mi sembrano proprio degli sprovveduti (comunque se guardi all'inizio c'è chi aveva messo un link molto vecchio in cui qualcuno si era già accorto del barare sull'esposizione anni prima dei test di DxO). Verissimo però che l'effetto possa interessare pochi casi (aperture iperluminose) e in maniera difficilmente percepibile.

Chelidon
06-06-2012, 08:54
Yossarian, guarda un po' dopo il brevetto del sensore organico di fuji, hanno messo un altra notizia (http://www.fotografidigitali.it/news/quantumfilm-una-rivoluzione-per-il-mondo-dei-sensori-fotografici_42457.html) di una proposta commerciale di un sensore con uno strato organico superiore che serve a ridurre a monte i soliti problemi di fill-factor (e pure QE parrebbe) dei sensori tradizionali.

Sembra che le idee sull'argomento comincino a fioccare! :sofico:

yossarian
06-06-2012, 11:11
Yossarian, guarda un po' dopo il brevetto del sensore organico di fuji, hanno messo un altra notizia (http://www.fotografidigitali.it/news/quantumfilm-una-rivoluzione-per-il-mondo-dei-sensori-fotografici_42457.html) di una proposta commerciale di un sensore con uno strato organico superiore che serve a ridurre a monte i soliti problemi di fill-factor (e pure QE parrebbe) dei sensori tradizionali.

Sembra che le idee sull'argomento comincino a fioccare! :sofico:

si, ma non mi è molto chiaro come dovrebbe funzionare questa nuova tecnologia. O meglio, non mi è chiaro come può garantire un fill factor del 100% e un'efficienza quantica dello stesso livello. 1) Nessuna pellicola (come nessun sensore digitale) è in grado di catturare il 100% della radiazione incidente; 2) non vedo come il sostituire una superficie fotoassorbente continua (un fotodiodo) con una discreta, per ciascun pixel, possa migliorare la capacità di catturare la luce; il vantaggio della pellicola rispetto ai sensori digitali è che non è divisa per pixel ma presenta una superficie continua anche se i fotorecettori sono in numero discreto. Al contrario, in questo caso, si avrebbe una superficie divisa per pixel, ciascuno dei quali con un numero discreto di fotorecettori :confused: . L'unica cosa che mi viene in mente è che, al contrario di quello che accade con le attuali tecnologie,tutta la superficie del pixel potrà essere usata come fotorecettore d i circuiti saranno collocati in uno strato sottostante, ma questo è possibile anche con i CMOS BSI di tipo stacked (http://www.fotografidigitali.it/news/nuovo-design-per-i-sensori-cmos-retroilluminati-di-piccole-dimensioni-sony_40406.html). 3) non si toglie il filtro bayer e, quindi, parte della luce incidente viene riflessa. 4) ci saranno ancora problemi di aliasing e, di conseguenza, necessiterà un filtro AA con perdita di nitidezza. Infine la cosa che mi lascia più perplesso è che sul sito di InVisage ho trovato solo scarne informazioni assimilabili a slogan pubblicitari con qualche immagine ma nessuna spiegazioni che sia un minimo dettagliata

Chelidon
09-06-2012, 12:27
si, ma non mi è molto chiaro come dovrebbe funzionare questa nuova tecnologia.
Non hanno spiegato quasi nulla :muro: e perciò ci si mette un attimo a capirlo, ma è esattamente quello che hai intuito dopo:
L'unica cosa che mi viene in mente è che, al contrario di quello che accade con le attuali tecnologie,tutta la superficie del pixel potrà essere usata come fotorecettore d i circuiti saranno collocati in uno strato sottostante
Ti dico quel poco che ho intuito dalle presentazioni perché non ho trovato nulla di tecnico. :boh:
O meglio, non mi è chiaro come può garantire un fill factor del 100% e un'efficienza quantica dello stesso livello.
Ovvio che non può farlo, nulla è perfettamente ideale, però se passi mettiamo caso da una QE=0,5 a QE=0,7 hai già guadagnato circa mezzo stop di sensibilità. Certo che senza dati :doh: si possono solo fare supposizioni: in teoria i quantum-dot sono ottimi come efficienze, ma se ho capito bene sono dispersi in una matrice polimerica conduttiva (come idea concettualmente ha molte anologie con certe celle fotovoltaiche organiche), quindi sicuramente bisogna vedere all'atto pratico l'insieme come si comporta. :boh:
Per quanto riguarda il fill-factor è lo stesso discorso del brevetto di fuji (http://www.fotografidigitali.it/news/fujifilm-la-mirrorless-che-vedremo-al-ces-non-avra-il-sensore-organico_40008.html): la sovrastruttura che fa il processo di conversione fotone-elettrone è continua e ovviamente non ha sopra nemmeno delle metallizzazioni, cosa che è il difetto principale delle strutture tradizionali (non BSI). Certo che però come avrai notato (ed era una cosa che mi ero chiesto pure per il fuji, che se non erro, elimina addirittura le microlenti) la zona sensibile è uno strato continuo e a quel punto nessuno ci dice quanto i fotoelettroni da un punto possano andare a finire su pixel adiacenti (molto dipenderà dallo spessore dello strato rispetto all'ampiezza del pixel: può essere tutto e il contrario). Si potrebbe ritornare quindi ai discorsi di crosstalk che facevi te e probabilmente è per questo motivo che per questo InVisage nello schema son ben presenti dopotutto sempre le microlenti.
non si toglie il filtro bayer e, quindi, parte della luce incidente viene riflessa
Ovvio per risolvere quel problema dovrebbero fare uno strato in cui i quantum-dot sono segregati su ogni pixel in base al loro spettro di assorbimento, facile dirlo in teoria :fagiano: e magari pure provarlo su tre pixel in laboratorio, tutt'altra complessità farlo industrialmente! :stordita:
Soprattutto considerato che nell'annuncio originario :read: (http://www.invisageinc.com/page.aspx?cont=Announcements) dicevano che quello strato lì è deposto mediante spin-coating: parliamo di una tecnica semplice industrialmente e che ovviamente non permette un controllo del genere. :sofico:
questo è possibile anche con i CMOS BSI di tipo stacked (http://www.fotografidigitali.it/news/nuovo-design-per-i-sensori-cmos-retroilluminati-di-piccole-dimensioni-sony_40406.html).

Alla fine i vantaggi sarebbero più o meno gli stessi del simile brevetto fuji: puoi controllare la sensibilità a radiazioni indesiderate (detto in parole povere elimini il filtro IR-cut) e risolvi le limitazioni del fill-factor in maniera industrialmente più semplice che fare un BSI. :fagiano:

yossarian
09-06-2012, 15:26
Ovvio che non può farlo, nulla è perfettamente ideale, però se passi mettiamo caso da una QE=0,5 a QE=0,7 hai già guadagnato circa mezzo stop di sensibilità. Certo che senza dati :doh: si possono solo fare supposizioni: in teoria i quantum-dot sono ottimi come efficienze, ma se ho capito bene sono dispersi in una matrice polimerica conduttiva (come idea concettualmente ha molte anologie con certe celle fotovoltaiche organiche), quindi sicuramente bisogna vedere all'atto pratico l'insieme come si comporta. :boh:


infatti, senza dati concreti si può affermare tutto e il contrario di tutto e la cosa che mi lascia perplesso è proprio la mancanza di documentazione adeguata. Quando si presenta una nuova tecnologia si usano white paper o simili per spiegare come e perchè quel dispositivo funziona in quel determinato modo. Qui si hanno solo una serie di affermazioni categoriche da accettare su base fideistica. :mbe:



Per quanto riguarda il fill-factor è lo stesso discorso del brevetto di fuji (http://www.fotografidigitali.it/news/fujifilm-la-mirrorless-che-vedremo-al-ces-non-avra-il-sensore-organico_40008.html): la sovrastruttura che fa il processo di conversione fotone-elettrone è continua e ovviamente non ha sopra nemmeno delle metallizzazioni, cosa che è il difetto principale delle strutture tradizionali (non BSI). Certo che però come avrai notato (ed era una cosa che mi ero chiesto pure per il fuji, che se non erro, elimina addirittura le microlenti) la zona sensibile è uno strato continuo e a quel punto nessuno ci dice quanto i fotoelettroni da un punto possano andare a finire su pixel adiacenti (molto dipenderà dallo spessore dello strato rispetto all'ampiezza del pixel: può essere tutto e il contrario). Si potrebbe ritornare quindi ai discorsi di crosstalk che facevi te e probabilmente è per questo motivo che per questo InVisage nello schema son ben presenti dopotutto sempre le microlenti.



infatti, stavo pensando la stessa cosa e non solo in funziona e del crosstalk: in una pellicola non serve stabilire a quale "pixel" appartiene quel fotone catturato perchè, di fatto, i "pixel" sono i microgranuli che si occupano direttamente del processo di cattura e conversione. In questo caso, in cui hai una "superficie continua" che cattura la luce e un insieme discreto che si occupa del processo di conversione, mi chiedo come si possa confinare la radiazione incidente sul pixel X e come la si possa distinguere da quella che cade sui pixel contigui.



Ovvio per risolvere quel problema dovrebbero fare uno strato in cui i quantum-dot sono segregati su ogni pixel in base al loro spettro di assorbimento, facile dirlo in teoria :fagiano: e magari pure provarlo su tre pixel in laboratorio, tutt'altra complessità farlo industrialmente! :stordita:
Soprattutto considerato che nell'annuncio originario :read: (http://www.invisageinc.com/page.aspx?cont=Announcements) dicevano che quello strato lì è deposto mediante spin-coating: parliamo di una tecnica semplice industrialmente e che ovviamente non permette un controllo del genere. :sofico:


mi chiedo come; gli unici sistemi che conosciamo per selezionare le diverse componenti dello spettro luminoso sono l'utilizzo di maschere o la disposizione a strati ed entrambe hanno vantaggi e svantaggi ma nessuna delle due permette la cattura del 100% della radiazione incidente (anzi, in realtà, nessuna tecnologia conosciuta permette di ottenere un simile risultato) e nessuna delle due è immune al problema del crosstalk che, anzi, ad esempio, proprio nei BSI e negli X3 è più problematico



Alla fine i vantaggi sarebbero più o meno gli stessi del simile brevetto fuji: puoi controllare la sensibilità a radiazioni indesiderate (detto in parole povere elimini il filtro IR-cut) e risolvi le limitazioni del fill-factor in maniera industrialmente più semplice che fare un BSI. :fagiano:

si, l'idea sembrerebbe quella di ottenere i vantaggi di un BSI con minore spesa anche se, ripeto, le descrizioni fatte mi lasciano molto perplesso

Chelidon
09-06-2012, 16:37
Qui si hanno solo una serie di affermazioni categoriche da accettare su base fideistica. :mbe: Marketing? :stordita:



In questo caso, in cui hai una "superficie continua" che cattura la luce e un insieme discreto che si occupa del processo di conversione, mi chiedo come si possa confinare la radiazione incidente sul pixel X e come la si possa distinguere da quella che cade sui pixel contigui. Sicuramente il crosstalk sarà influenzato dlla lunghezza di diffusione del fotoelettrone e quindi come dicevo può variare a seconda del rapporto fra spessore dello strato sensibile e larghezza del pixel sottostante. Ovvio che avranno fatto i loro conti e se mettono delle microlenti lo fanno per quei motivi lì come spesso hai ricordato pure te. ;)



mi chiedo come; gli unici sistemi che conosciamo Sono nanostrutture fatte apposta per quello: se sono quantum-dot è intrisecamente controllabile la caratteristica di assorbimento, la gap del materiale può essere controllata con le dimensioni. Il problema è appunto come implementarli: qua se ho capito bene ne hanno dispersi di diversi tipi (in modo da coprire lo spettro visibile indistintamente) in una matrice di un polimero conduttore.


per selezionare le diverse componenti dello spettro luminoso sono l'utilizzo di maschere o la disposizione a strati ed entrambe hanno vantaggi e svantaggi ma nessuna delle due permette la cattura del 100% della radiazione incidente Mi pare ovvio però che la QE sia riferita allo strato sensibile non ovviamente a quello che c'è sopra, è normale sia così per qualsiasi sensore considerarlo "nudo", ovvio che te fai notare che scrivono delle panzane da marketing nella presentazione. :asd: In ogni caso è vero che la CFA si mangia per ogni pixel della trasmissione ma deve per forza altrimenti non filtrerebbe. Agli albori del digitale mi pare, però si usassero CFA con terne che permettevano sintesi sottrativa (CMY) invece che additiva (RGB) e dato che l'assorbimento era complementare i sensori guadagnavano in sensibilità (l'uovo di colombo :p ). Però se sono state abbandonate, ipotizzo che probabilmente avevano altri problemi che non rendevano interessante il "gioco". :boh:

Mercuri0
27-08-2013, 09:12
Scusatemi se ridico qualcosa di cui avete già discusso, non ho letto tuttto tutto.

si, ma non mi è molto chiaro come dovrebbe funzionare questa nuova tecnologia. O meglio, non mi è chiaro come può garantire un fill factor del 100% e un'efficienza quantica dello stesso livello. 1) Nessuna pellicola (come nessun sensore digitale) è in grado di catturare il 100% della radiazione incidente; 2) non vedo come il sostituire una superficie fotoassorbente continua (un fotodiodo) con una discreta, per ciascun pixel, possa migliorare la capacità di catturare la luce; il vantaggio della pellicola rispetto ai sensori digitali è che non è divisa per pixel ma presenta una superficie continua anche se i fotorecettori sono in numero discreto. Al contrario, in questo caso, si avrebbe una superficie divisa per pixel, ciascuno dei quali con un numero discreto di fotorecettori :confused: . L'unica cosa che mi viene in mente è che, al contrario di quello che accade con le attuali tecnologie,tutta la superficie del pixel potrà essere usata come fotorecettore d i circuiti saranno collocati in uno strato sottostante, ma questo è possibile anche con i CMOS BSI di tipo stacked (http://www.fotografidigitali.it/news/nuovo-design-per-i-sensori-cmos-retroilluminati-di-piccole-dimensioni-sony_40406.html). 3) non si toglie il filtro bayer e, quindi, parte della luce incidente viene riflessa. 4) ci saranno ancora problemi di aliasing e, di conseguenza, necessiterà un filtro AA con perdita di nitidezza. Infine la cosa che mi lascia più perplesso è che sul sito di InVisage ho trovato solo scarne informazioni assimilabili a slogan pubblicitari con qualche immagine ma nessuna spiegazioni che sia un minimo dettagliata

Il sensore organico di fujifilm-panasonic immagino lo vedremo quando e se uscirà. Io ne sono molto interessato perché per come lo presentano può aprire nuovi spazi nel design delle lenti, per via del maggiore angolo di incidenza che sarebbe consentito.
(interessanti sopratutto sulle mirrorless, magari full frame)

Avevo capito che avrebbero rimosso il filtro IR, essendo lo strato organico insensibile a quelle frequenze.


Invece per quanto riguarda approcci molto molto diversi indico il "digital film" di Fossum.
http://ericfossum.com/Publications/Papers/Gigapixel%20Digital%20Film%20Sensor%20Proposal.pdf

Che si basa su "jots", pixel estremamente piccoli (molto sotto la diffrazione) con solo 1-bit di dinamica (fotone si, fotone no). Una spece di Super Audio CD per le foto.

Ci sono molti che ci studiano perché fa figo dire "gigapixel sensor" o "quanta sensor" e menate varie. Magari prima o poi ci si arriva per davvero, se la fotografia computazionale non ci porta su altre strade.

Chelidon
01-09-2013, 12:59
Sicuramente stanno ricercando su quel genere di sensori per i vantaggi di cui avevamo discusso, ma altrettanto sicuramente dubito li vedremo a breve. Già i BSI ancora nessuno li implementa su sensori grandi, questi organici probabilmente verrano dopo...

Molto interessante l'idea affermata nell'articolo che citi: è sicuramente un bell'approccio quello descritto! Non è che debba per forza puntare a immagini da Gigapixel come fanno notare nell'articolo il sovracampionamento può dare dei vantaggi e l'immagine può avere una risoluzione arbitraria.. è in parte pure un po' che presumeva anni fa Raghnar-the-coWolf

wyoming
02-09-2013, 19:37
mi sono fatto spesso questa domanda. premesso che a me non piace fotografare con poca pdc quindi scatto a tutta apertura principalmente per questioni di luminosità, con le macchine che possiedo ora cerco di non superare i 1600 iso, quando comprerò corpi nuovi potrei recuparare un paio di stop avendo ancora foto accettabili usando sempre meno le massime aperture.
ho trovato interessante il fatto da cui è partita la discussione, mi spiace di non avere obiettivi più luminosi di f1.8 altrimenti farei volentieri qualche prova. sarebbe veramente uno sberleffo ma bisogna ammettere che il mercato fotografico è tutto un gigantesco specchio per allodole. a partire dal più piccolo accessorio, come il famoso cartoncino grigio che andava tanto di moda e costava come un quadro d'autore ed era completamente inutile, i pannelli riflettenti con ricarichi del 10000% ecc... fino ovviamente a fotocamere ed obiettivi.
io di obiettivi ne ho usati tanti e non ne ho mai visto nessuno che desse il massimo sotto f4. anzi direi che tutti quelli che ho usato, o di cui ho letto recensioni, hanno generalmente la resa maggiore da 5.6 a 1 o 2 stop prima della minima apertura.
non sono un esperto di ottica ma vista la mia esperienza andare a spendere palate di soldi per un f 1.2 mi sembra uno spreco. anche a ridurre la pdc piuttosto preferirei comprarmi una ff

Chelidon
08-09-2013, 12:37
Sono d'accordo, questa cosa di cui abbiamo parlato qua, alla fine interessa marginalmente l'utente amatoriale. Almeno quello accorto e informato, non parlo dell'entusiasta che se se lo può permettere stravede per comprare l'obiettivo non-plus-ultra alla prima uscita! :asd:
Hai ragione a dire che per l'utente medio che a mala pena avrà il 50/1.8 ci sono ben altre pollate su cui lo intortano... :sofico:

Infatti non a caso quando lo avevo citato avevo sottolineato che il problema ha creato molto scompiglio a quelli di Luminous-Landscape, che non sono certo amatori: è uno dei rari posti dove si discute quotidianamente di medio-formato e altre cose da professionisti avanzati. Quindi probabilmente per chi ricerca quelle determinate cose, capisco che possa essere sentita molto di più come una grossa presa per i fondelli un fenomeno su cui i produttori di obiettivi hanno per ovvie ragioni di conflitto d'interesse glissato.. :fiufiu:

wyoming
08-09-2013, 17:49
si certo, dal punto di vista "etico" (uso le virgolette per mettere nella giusta prospettiva) sembrerà certamente una presa per le chiappe. se pensiamo ai prezzi dei vetri "griffati" viene effettivamente da ridere. la questione degli angoli di incidenza era nata proprio con l'avvento del digitale ed è quindi indipendente dal tipo di sensore. per rendersene conto basta guardare le compatte contax o minolta della fine anni 90-inizio 2000: erano grandi come una compatta digitale moderna però con un sensore (pellicola) grande quanto quella di una full frame professionale, ebbene avevano obiettivi con zoom 3X e partivano da f3,5.
però la prima cosa che mi salta in mente è stupirmi per il loro stupore, i fabbricanti devono mandare avanti la baracca in qualche modo. tutti sappiamo che il 75% degli acquisti fotografici che facciamo sono "autocompiacimento", basta sviluppare un rullo fatto con una medio formato a soffietto degli anni 50 per rendersene conto.
quindi alla fine i costruttori sono "costretti" dal mercato a tirare fuori sempre cose nuove che siano utili oppure baggianate colossali. questo è sempre stato e i tizi di LL lo sanno meglio di tutti.