View Single Post
Old 28-12-2011, 04:51   #52
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
chiudo la parentesi sui fibre ottiche e affini con una precisazione: nel post precedente ho citato di proposito i laser He-Ne perchè sono tra quelli con "finestra" di trasmissione più stretta ma, nonostante ciò, sempre di finestra si tratta. I diodi laser hanno finestre decisamente più ampie e i led, usati n accoppiamento con fibre multimodo, non sono né coerenti né monocromatici. Infine, una nota sulle aberrazioni; vengono spiegate con l'ottica geometrica solo in prima approssimazione, ma sono originate da fenomeni che non non rientrano nelle approssimazioni tipiche dell'ottica geometrica (che tratta solo le aberrazioni di Seidel). In quanto a fenomeni di interferenze "visibili", mi limito a citarne solo 2: gli effetti della diffrazione e il moire (me, se preferisci, l'aliasing più in generale).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Però dimmi cosa cambia? Alla fine il punto non è su quale delle due variabili rimaste intervenga, piuttosto il fatto che stia barando, ovvero che non ti dice che varia l'esposizione perché non vuole che tu sappia della caduta. Per collegarci al paragone che mi fai col SLT quel caso è esattamente agli antipodi di questo: là c'è stata una comunicazione trasparente col pubblico, dato che è stato dichiarato ufficialmente che lo specchio semiriflettente, proprio in maniera analoga al discorso del T-stop, dà una perdità di trasmissione costante a prescindere dal diaframma (Sony questo lo dice anche per l'obiettivo da ritratto con filtro apodizzante per migliorare lo sfocato, che ha un T-stop sensibilmente inferiore a uno senza; ma ovviamente ciò non comporta una perdita sulla PdC).
nel caso della slt, sony sa, all'incirca, qual è la perdita di luminosità dovuta allo specchio e la compensa a priori. Nel caso delle lenti "luminose" non è possibile fare la stessa operazione, in quanto la perdita di luminosità varia da lente a lente: un 85 f/1.2 si comporta diversamente da un 50 f/1.2 o da un 35 f/1.4 (ammettendo che la prendendo due lenti identiche il comportamento sia perfettamente lo stesso). Inoltre un 50 mm canon non sarà uguale ad un 50 mm zeiss o a uno sigma o tokina a parità di apertura. In una scala da 1 a 100, quanto è fattibile "creare un profilo" per ogni lente sul mercato e per quelle future? L'alternativa è adattare la sensibilità al volo, a seconda della lente montata. Continuo a non vedere dolo nel fatto che con lenti che comunicano con la cpu questo "trucco" sia mascherato. Ora, immagina canon che ti vende il 50 f/1.2 con l'avvertenza che su 7d si comporterà come un "f/1.37", su 40d come un "f/1.33", su 5d come un "f/1.25", ecc, perchè in caso contrario sta imbrogliando; il tutto partendo dall'assunto, errato, che la compensazione in iso sia proporzionale alla caduta di luce sul sensore.........

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Quindi in quei casi sai cosa stai comprando e a cosa vai incontro, invece in questo caso, acquisti una lente f/1.2 che poi a causa del sensore potrebbe trovarsi limitata a comportarsi come una f/2.
e qui non ci troviamo d'accordo. La "caduta di luce" avviene anche con la pellicola, ma non puoi scoprire il "trucco" andando a misurare la sensibilità perchè questa non varia. Tra pellicola e sensore le causa di perdita della luminosità sono le stesse, tranne che per un elemento, ovvero, e qui hai in parte ragione, le perdite dovute al fatto che il singolo pixel di un sensore riesce a catturare luce fino ad un determinato angolo di incidenza. Infine, chi acquista una lente f/1.2, considerati i prezzi, spero che prima si sia documentato a sufficienza, magari guardando i test MTF, le immagini prodotte, ecc. Ad esempio, tra l'85 f/1.2 e l'85 f/1.8, basta andare su photozone per rendersi conto delle differenze in termini di sfocato, risolvenza, contenimento di aberrazioni e fringing, tralasciando il discorso sulla qualità costruttiva. Il tempo di scatto minimo teorico è solo una delle componenti del costo finale e, tenendo conto delle possibilità permesse dagli iso assurdi impostabili con le attuali fotocamere (anche grazie alle manipolazioni dei file anche il RAW che, ormai, con l'introduzione della tecnologia mos, è tutt'altro che un formato "grezzo") , nemmeno quello a peso specifico più alto

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Mi sembra normale che il fatto faccia sollevare quelli di LL, dato che renderebbe molto poco appetibili le lenti molto luminose (nonostante il costo), solo a causa di un limite tecnologico (a quanto pare noto) di accoppiamento con una non sufficiente apertura numerica dei fotositi. (vedi articolo citato da Mercuri0 dove si accenna che le microlenti funzionano entro certi vincoli e che la corsa ai Mpx acuisce il problema; se hai accesso alle pubblicazioni scientifiche nella biografia trovi anche materiale molto più avanzato, se hai bisogno mp )
l'articolo parla solo dei sensori di tipo aps FSI e, infatti, parla dell'indirizzamento della luce al'interno del tunnel che conduce al fotodiodo. Però, dalle rilevazioni fatto con dxomark, lo stesso problema si riscontra con i CCD, anzi, a dire il vero, quelli si comportano peggio sono proprio questi ultimi con la "strana" eccezione del sensore della d200, identico a quello della d80. L'articolo parla dei problemi derivanti dalle diminuzioni delle dimensioni dei pixel ma, sempre dalle misurazioni fatte con dxomark, chi si comporta peggio sono i ccd da 6 Mpixel seguiti da quelli da 10. Questo cosa significa? Nell'articolo si fa cenno al fatto che al diminuire dele dimensioni dei pixel il problema principale nella progettazione delle microlenti non è più solo quello di focalizzare la radiazione verso il centro del pixel ma, per i fotositi periferici per cui l'angolo di incidenza non è sempre favorevole, permettere alla radiazione stessa di superare gli strati circuitali non fotosensibili posti tra la superficie del sensore e il fotodiodo. I sistemi usati sono diversi: traslare le microlenti rispetto al centro del pixel o dal disegnare le microlenti periferiche in modo tale da creare degli angoli "di rimbalzo" che guidino il maggior numero possibile di fotoni incidenti sulla superficie sensibile del pixel; diminuire lo "spessore" degli strati che formano la parte non sensibile del pixel; ridurre l'altezza delle microlenti; utilizzare 2 strati di microlenti di piccolo spessore, traslare tra loro in modo tale da creare degli angoli di "rimbalzo" favorevoli.
In ogni caso, il fatto stesso che ci progettino microlenti e che ci si dia tanto da fare per migliorarne l'efficienza, dimostra che il problema esiste, è riconosciuto e si cerca di ridurne l'incidenza. Ovviamente, la diminuzione delle dimensioni dei pixel rende il tutto più difficile, perchè il tunnel attraverso cui si deve guidare la radiazione diventa più stretto ma i risultati rilevati sperimentalmente dimostrano che cmos FSI da 16 o 18 Mpixel di oggi si comportano meglio di ccd da 6 o 10 Mpixel di 5 o 6 anni fa.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Quali? Occhio che non si mette in dubbio che aprendo una variazione ci sia, ma che la varazione sia molto inferiore a quella prevista con quell'apertura: lo sfocato dipende da molti aspetti, anche la sottocorrezione di una aberrazione può influire molto sulla sua resa da un diaframma a un'altro.
Personalmente ci andrei molto cauto nel proclamare considerazioni sullo sfocato a sentimento, puoi rileggerti la prima pagina d'interventi qui per intuire perché, resta il fatto che se il fenomeno fosse quello ipotizzato INFLUIREBBE pure sulla PdC.
Misurazioni su questo aspetto NON SONO STATE FATTE e non le ritengo alla portata del modo di operare dell'utente comune. Ovviamente se si vogliono fare delle considerazioni sensate: bisogna considerare molti fattori e spesso approssimazioni (a volte oltre alla magnificazione, perfino le differenze fra pupilla d'ingresso e d'uscita se il progetto ottico non è simmetrico) e in ogni caso la PdC non ha un'andamento semplice e proprozionale (detto in parole povere già in linea teorica allargare di uno stop il diaframma influisce molto meno a TA che da un diaframma molto più chiuso).
ok, lasciamo da parte le considerazioni sullo sfocato e atteniamoci ai risultati del test di dxomark. Inozio col dire che la "correzione applicata a livello di iso non è necessari<mente proporzionale alla reale perdita di luminosità rilevata, pochè dipende non solo da questa ma anche dal livello di compensazione impostato. Ripeto di nuovo gli esempi citati: d200 e d80, così come 30d e 20d o 7d e 550d, hanno lo stesso sensore (quando dico stesso intendo identico), con lo stesso tipo di microlenti, eppure la correzione applicata è differente. La 5d corregge meno della d3s pur avendo pixel più piccoli e non avendo microlenti gapless. Questo tanto per citare i casi più evidenti che rendono errata la tesi che compensazione e caduta di luce siano sempre e comunque direttamente proporzionali.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Visto che alla fine ci siamo capiti e mi pare adesso concordiamo non si debba imputare al T-stop connaturato alla trasmissione della lente, allora proviamo ad assumere la tua nuova ipotesi: cioè la caduta di luce ai bordi per vignettatura a TA. Considero il caso peggiore possibile, cioé facciamo che il fisso luminoso da un capitale sia una lente particolarmente balorda sotto questo aspetto. Assumiamo quindi che a TA (f/1.2) perda 1,5 stop su un'area pari al 30% dell'immagine (è un'approssimazione becera che non considera la gradualità, ma mi pare giusto lavorare molto per eccesso rispetto alla vignettatura degli obiettivi reali) rispetto ad un diaframma f/2.8 in cui il fotogramma non abbia vignettatura (ancora approssimo a favore della tua tesi ). Ora dato che una lettura dell'esposizione è comunque mediata sul fotogramma (facciamo ancora finta con un'altra approssimazione becera per eccesso che la matrix non dia maggiore priorità al centro del fotogramma), una caduta netta di quel tipo si diluisce comunque in proporzione all'aera coperta. Quindi la caduta che misurerebbe l'esposimetro in media sul fotogramma sarebbe -1,5x0,3=-0,45 (solo mezzo stop)
che in effetti è quello che sembrerebbe succedere con le FF, a f/1.2, (5d, 5d MII, 1Ds MIII e nesuna delle 3 dotata di particolari accorgimenti nella progettazione delle micorlenti).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
che non mi sembra proprio dare conto del fenomeno misurato (più di 1-stop nei casi più gravi), questo senza tirare in ballo che sarebbe un fenomeno con intensità variabile a seconda dell'ottica e probabilmente massimo per i grandangolari luminosi. Certamente può contribuire, riguardo al "quanto" considera che gli obiettivi che più perdono su aps fanno uno stop sul limite estremo e poi rapidamente calano* a coprire un'area che col peso maggiore difficilmente interessa un quarto del fotogramma: quindi se anche ai bordi avessi una caduta forte, sull'esposizione complessiva del fotogramma nella pratica influirebbe poco.
*La vignettatura come aberrazione assiale cala la trasmissione dal centro con la potenza quarta del coseno dell'angolo, certo si aggiunge il discorso del fuori asse della microlente come fai notare ma comunque siamo lì considerati i profili di vignettatura che si misurano.
C'è un'altra considerazione: soprattutto a parità di lente, se dipendesse dalla vignettatura (fisiologica+offset) ne avresti la conferma qualora il dato dei sensori FF fosse molto peggiore di quello degli APS, invece è proprio l'esatto contrario! Detto ciò mi sentirei di confutare questa ipotesi come causa predominante, visto il grafico sottostante di DxO.

nella serie di approssimazioni "becere" che hai fatto, non hai tenuto conto di una cosa: nei casi più gravi, chi si avvicina ad 1 eV sono i sensori aps-c; anzi sono convinto che, se nel grafico con apertura 1.2 fosse stata presente anche nikon, le varie d80, d40, ecc, avrebbero superato l'unità abbondantemente . Ora, se è vero che la vignettatura è visibile soprattutto sui sensori FF, è anche vero che su quelli di formato ridotto è sufficiente una caduta di luce di molto inferiore percentualmente, per creare maggiori problemi. A parità di tecnologia e di risoluzione, in condizioni ottimali, ad esempio, il singolo pixel della d3 è capace di cattuare 3 volte i fotoni che può catturare un pixel della d300. Quindi, l'accoppiamento lente-microlenti per una aps-c rispetto ad una FF è molto più critico in caso di condizioni non ideali come quelle poste da un'ottica, soprattutto grandangolare, con grande apertura. A questo aggiungi che la maggior parte delle ottiche sono progettate per sensori FF, il che significa che se si riducono le componenti di vegnettatura di tipo meccanico e, forse, ottico, non si riducono le altre, anzi, quella dovuta all'accoppiamento lente-microlente peggiora. In ogni caso, anche ammesso che ciò non avvenga (sto diventando becero anche io ), ovvero, ammettendo che anche a TA un sensore aps-c abbia una risposta analoga ad un FF sull'intera superficie e tenendo conto solo del fenomeno della vignettatura visibile ai bordi, qualora il rapporto tra i rispettivi valori di caduta di luce sia di 1:3, allora l'aps-c compenserà nella stessa misura del FF, ossia, secondo i tuoi calcoli, di 0,5 eV circa (anche se è evidente che l'andamento delle compensazioni non è lineare neppure stando ai risultati sperimentali).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ora non che a me piaccia difendere questa teoria dell'apertura limitata dal pixel, ma a parte l'essere molto più verosimile di altre possibili spiegazioni, se nell'ambiente è conosciuto come problema noto (anche qui a parte DxO, c'è l'articolo della Stanford già citato e cercando come ti ho detto trovi approfondimenti benché non alla portata di tutti) e si trova che nelle pubblicazioni scientifiche non vi sono remore nel considerare il fenomeno, ma anzi sembra se ne tenga conto perfino per sviluppi futuri, non vedo il senso di "voltarsi da un'altra parte"...
quella dell'apertura limitata dei pixel non è una teoria ma è parte di un problema reale che si affronta nel momento in cui si fa operazione di scaling delle dimensioni. Ma non è l'unico problema. Ripeto, neppure con una tecnologia diversa dalla cmos FSI (citata nell'articolo della Stanford), neppure con pixel grandi o, addirittura, usando la pellicola (a meno che non si voglia considerare quest'ultima come un mezzo continuo, ma l'approssimazione sarebbe troppo becera) un'ottica f/1.2 si comporterebbe da f/1.2 reale. Una lente non è un sistema ideale e l'ottica geometrica spiega solo in prima approssimazione quello che succede; a questo aggiungi che qualunque fenomeno provochi una diminuzione della radiazione luminosa sulla "superficie utile" risulta più critico quando la superficie fotosensibile è più piccola e più scomoda da raggiungere. Infine, che un diaframma più aperto comporta una distribuzione meno uniforme della radiazione sul piano di cattura dell'immagine.
Per come la vedo, l'unica cosa che è cambiata, rispetto al passato, ovvero all'uso dell'analogico o dei sensori ccd di qualche anno fa, è che adesso ci si è resi conto del fenomeno solo perchè ci sono strumenti che hanno permesso di fare analisi più approfondite rispetto al passato anche ai non addetti ai lavori. Per il resto, mettere in un unico calderone i risultati di dxomark (che, ripeto, dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore), un articolo di Stanford che parla dei problemi connessi allo scaling geometrico dei pixel, i problemi di accoppiamento lente-sensore e, a questo punto, non vedo perchè tralasciare l'effetto blurring del filtro antimoire o gli effetti del filtro IR o, magari, come ho sentito da qualcuno, le aberrazioni introdotte dalle microlenti (che sono il rimedio e non la causa degli eventuali problemi di accoppiamento lente-sensore, soprattutto quando le dimensioni ddei sensori e dei pixel si riducono), non mi pare un modo di procedere troppo scientifico

Ultima modifica di yossarian : 28-12-2011 alle 18:21.
yossarian è offline   Rispondi citando il messaggio o parte di esso