View Single Post
Old 15-12-2011, 00:03   #47
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Allora a me il discorso sembra molto chiaro e prego di leggere bene proprio perché capisco possa non essere banale per chiunque. A me con una preparazione di tipo fisico mi pare sensato come ragionamento teorico, d'altra parte per come è messa però dovrebbero mettersi a fare le misurazioni in una maniera controllata per validare l'ipotesi del fenomeno. Ma non mi sembra che ci sia interesse né da parte di DxO che ha lanciato la pietra e nascosto la mano, né ovviamente dai tecnici stessi che probabilmente nemmeno si sognano possa esistere un dibattito del genere fra gli utenti e in ogni caso è difficile una comunicazione diretta.
Se posso permettermi, non vorrei risultare pedante, però IMHO stai uscendo parecchio dal seminato:
Non so cosa vuoi intendere, ma una guida d'onda non serve a costruire un'immagine, ma ha uno scopo diverso: staresti parlando di una fibra ottica, se proprio vuoi fare l'analogia nel visibile di un concetto che si usa nel campo della trasmissione dei segnali EM.
In fisica, ottica, e telecomunicazioni, una guida d'onda è una struttura lineare che convoglia e confina onde elettromagnetiche all'interno di un percorso compreso fra le due estremità consentendone cioè una propagazione guidata. Essa è dunque un mezzo di trasmissione.
Questa è la definizione generale di guida d'onda che è semplicemente un mezzo per guidare un'onda o una serie di onde EM da un punto ad un altro, costringendole a seguire un percorso obbligato anzichè uno libero. Una fibra ottica è un tipo di guida d'onda che si usa per trasferire onde EM a una o più frequenze diverse, ma anche un obiettivo è una guida d'onda che, ovviamente, non facendo uso di una trasmittente laser, non trasferisce una radiazione di tipo coerente. Di fatto una guida d'onda non serve per creare un'immagine ma neppure per trasmettere un suono, ma solo per trasportare onde EM; quello che si fa con queste onde dipende solo ed esclusivamnete da cosa si usa come trasmettitore e come ricevitore. Se uso una sorgente luminosa come trasmettitore (o, meglio, il riflesso delle onde EM emesse da questa sorgente luminosa su un altro corpo) e una pellicola fotografica o una matrice di fotodiodi abbinati ad un filtro di tipo bayer o ad una struttura multilayer, tipo foveon e "costringo" questa radiazione a passare all'interno di un percorso obbligato che la guidi verso la struttura preposta a riceverla, non faccio altro che utilizzare una guida d'onda e il risultato che otterrò è una immagine. SE lavoro nel campo delle microonde, la guida d'onda sarà di tipo metallico, in quello delle ottiche posso utilizzare una fibra ottica o qualunque cosa permetta di indirizzare le onde E.M. lungo un percorso prestabilito, per mezzo di pareti riflettenti (a frequenze ottiche anche una parete a specchio può assolvere lo stesso compito di una fibra ottica; dipende solo dal tipo e dalla quantità di luce che devo farci passare dentro).


Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Questo si può tranquillamente descrivere con la classica ottica geometrica, lascia stare l'interferenza che a quelle lunghezze d'onda e in questo contesto non ha senso parlarne. Quelle che descrivi come deviazioni e che non ha niente a che fare con interferenza né tanto meno il paraluce, è il fenomeno della dispersione (ovvero che l'indice di rifrazione varia in misura più o meno maggiore in funzione di lambda a seconda del materiale: è il motivo per cui esistono le aberrazioni cromatiche e si compensano oltre che con doppietti, tripletti, ecc. anche limitandole a monte con vetri a bassa dispersione).
le aberrazioni cromatiche sono solo uno degli effetti del passaggio della luce attraverso mezzi con indice di rifrazione differente. Questo passaggio si può schematizzare con l'attraversamento di un prisma che scompone la luce in diverse componenti a differenti lunghezze d'onda e con angoli diversi. Questo avviene non su un solo raggio lumminoso ma su tanti e le componenti che si vengono a creare, spesso non arrivano in fase tra loro. Se eliminiamo l'interferenza, abbiamo eliminato una delle principali componenti del rumore di tipo random pattern. Quelle che limitano la nitidezza dell'immagine quando si usano lenti "veloci" a TA e che vanno, comunemente, sotto il nome di aberrazioni, non sono altro che fenomeni di interferenza noti come tilt aberrations, tanto che uno dei sistemi in via di sperimentazione, per cercare di correggere o limitare questo fenomeno è quello di ricostruire le informazioni corrette sulle fasi delle radiazioni incidenti per pixel.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Secondo me, ti sei troppo concentrato a pensare al sensore e non ti accorgi che il punto è un altro. Non c'entra nulla la QE o la sensibilità del sensore non stanno facendo considerazioni sull'SNR, dicono solo che la macchina DEVE ALZARE la sensibilità perché glielo hanno scritto nel firmware per compensare il fenomeno noto sperimentalmente (a DxO, così come presumibilmente ai produttori), che aprendo oltre f/2 le lenti non si comportano come dovrebbero. Fin qui c'è solo la descrizione di un dato di fatto riportato da DxO come da altre fonti in forma di scostamento nell'esposizione rispetto a quella prevista.
al contrario; ho detto che il fenomeno è legato al comportamento delle ottiche; il discorso sulla QE è legato all'analisi della quantità di luce che dovrebbe colpire il singolo fotosito e che, invece, risulta inferiore a causa delle cosiddette "aberrazioni". La QE non entra in gioco solo quando si parla di SNR ma anche quando si parla di corretta valutazione dell'esposizione. Anzi, in realtà, parlare di QE è riduttivo, poichè questa è solo una delle componenti, ovvero il rapporto tra radiazione incidente e coppie elettrone-lacuna create, anche se, di fatto, è il parametro che viene convertito in segnale elettrico e letto dalla cpu. Quello che succede è che la cpu legge i valori sull'esposizione fornitigli, li confronta con quelli teorici e corregge l'esposizione e lo fa variando il livello di amplificazione del sensore. Ovviamente, il "quanto" deve correggere dipende dalle necessità: le FF i cui pixel catturano più luce tendono a correggere meno delle APS-C, quelle dotate di microlenti che, a parità di dimensioni del sensore e dei pixel catturano più luce correggono meno (e qui non mi tornano i valori di d300 e d300s, a meno che la d300 non abbia la tendenza a sottoesporre) e dalle impostazioni di default. Ad esempio, stando ai valori di dxomark, a parità di condizioni ed avendo lo stesso identico sensore, tra d200 e d80 i casi sono 2: o la prima tende a sottoesporre o la seconda a sovraesporre (stesso dicasi per 30d e 20d), così come la 5d, che è quella che corregge meno di tutti, pur avendo fotositi leggermente più piccoli di quelli della d3s e non avendo microlenti gapless, dovrebbe tendere a sottoesporre (cosa, per altro, confermata anche da Donagh).
Probabilmente non ci arrivo, ma continuo a non vederci niente di strano, anzi ritengo probabile che un'operazione del genere avvenga anche con ottiche meno "veloci", in condizioni di scarsa luce.

Ultima modifica di yossarian : 15-12-2011 alle 00:22.
yossarian è offline   Rispondi citando il messaggio o parte di esso