Torna indietro   Hardware Upgrade Forum > Fotografia digitale > Mondo Reflex

Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
A distanza di circa 8 mesi arriva l’importante aggiornamento dei MacBook Air: nessun cambiamento estetico, ma una revisione hardware interna con l’upgrade al processore M3. Le prestazioni migliorano rispetto alle generazioni precedenti, e questo fa sorgere una domanda spontanea: a chi è rivolto oggi questo laptop? Cerchiamo di capirlo nella nostra recensione 
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
Da ASUS un monitor particolare ma molto completo: principalmente indirizzato al videogiocatore, può essere sfruttato con efficacia anche per attività creative e di produzione multimediale
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Il nuovo robot aspirapolvere domestico di Dreame abbina funzionalità complete a un moccio flottante che raggiunge al meglio gli angoli delle pareti. Un prodotto tutto in uno semplice da utilizzare ma molto efficace, in grado di rispondere al meglio alle necessità di pulizia della casa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 13-12-2011, 14:29   #41
Donagh
Senior Member
 
L'Avatar di Donagh
 
Iscritto dal: Dec 2001
Città: Trento
Messaggi: 3327
l 85 1.2 spacca non ce che dire su ff non per il diaframma ma per i colori e la sua resa particolare microcontrasto bello sfocato etc... (ho la versione II)
pero è specialistico non me lo sono nemmeno portato in america (preferendo il 135f2 ben più pratico e adatto a molte situazioni anche "veloci")

si secondo me è quello perché anche con ottiche adattate su ff
zeiss e leica a volte faceva così!

misurando a zona totale visto che le grandi aperture vignettano la macchina facendo la media della scena fa la media della "parte più scura data dalla vignettatura".... magari dai un occhiata al mio sito di foto ...
__________________
Un mac e tanta fantasia... Le mie foto: WEB - SELEZIONE SU FLICKR
Donagh è offline   Rispondi citando il messaggio o parte di esso
Old 13-12-2011, 19:32   #42
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Donagh Guarda i messaggi
l 85 1.2 spacca non ce che dire su ff non per il diaframma ma per i colori e la sua resa particolare microcontrasto bello sfocato etc... (ho la versione II)
pero è specialistico non me lo sono nemmeno portato in america (preferendo il 135f2 ben più pratico e adatto a molte situazioni anche "veloci")

si secondo me è quello perché anche con ottiche adattate su ff
zeiss e leica a volte faceva così!

misurando a zona totale visto che le grandi aperture vignettano la macchina facendo la media della scena fa la media della "parte più scura data dalla vignettatura".... magari dai un occhiata al mio sito di foto ...
ho dato un'occhiata, soprattutto alla sezione "ritratti" e ho visto che hai fatto uso, soprattutto, del 135 f/2 e del 50 f/1.4. Io sto cercando un'ottica, principalmente da ritratto, da montare, inizialmente, su aps-c (7d e 30d) e, magari, in futuro, su FF. Tu che hai avuto modo di provarle tutte, cosa mi consiglieresti?

Ultima modifica di yossarian : 13-12-2011 alle 20:09.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 13-12-2011, 19:55   #43
ficofico
Senior Member
 
Iscritto dal: May 2006
Messaggi: 4389
Se hai intenzione di passare al full frame allora 135 f2, se invece rimarrai su aps-c probabilmente ti consiglierei il 50
ficofico è offline   Rispondi citando il messaggio o parte di esso
Old 13-12-2011, 20:31   #44
Donagh
Senior Member
 
L'Avatar di Donagh
 
Iscritto dal: Dec 2001
Città: Trento
Messaggi: 3327
Quote:
Originariamente inviato da ficofico Guarda i messaggi
Se hai intenzione di passare al full frame allora 135 f2, se invece rimarrai su aps-c probabilmente ti consiglierei il 50
anche io dico lo stesso!

l 85 solo se fai ritratti e ti esalta e hai già le altre due focali!

ps io ho 24 2.8, 50 1.4, 85 1.2 mk2, 135 f2

il 50 lo trovo insostituibile
come il 135...

http://www.photo4u.it/album_pic.php?pic_id=556635

si vede? 135 a f2
__________________
Un mac e tanta fantasia... Le mie foto: WEB - SELEZIONE SU FLICKR

Ultima modifica di Donagh : 13-12-2011 alle 20:42.
Donagh è offline   Rispondi citando il messaggio o parte di esso
Old 13-12-2011, 22:22   #45
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da ficofico Guarda i messaggi
Se hai intenzione di passare al full frame allora 135 f2, se invece rimarrai su aps-c probabilmente ti consiglierei il 50
Quote:
Originariamente inviato da Donagh Guarda i messaggi
anche io dico lo stesso!

l 85 solo se fai ritratti e ti esalta e hai già le altre due focali!

ps io ho 24 2.8, 50 1.4, 85 1.2 mk2, 135 f2

il 50 lo trovo insostituibile
come il 135...

http://www.photo4u.it/album_pic.php?pic_id=556635

si vede? 135 a f2
quindi la cosa migliore sarebbe averli tutti e due, per ogni evenienza.
Grazie per i consigli
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 14-12-2011, 18:35   #46
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Allora a me il discorso sembra molto chiaro e prego di leggere bene proprio perché capisco possa non essere banale per chiunque. A me con una preparazione di tipo fisico mi pare sensato come ragionamento teorico, d'altra parte per come è messa però dovrebbero mettersi a fare le misurazioni in una maniera controllata per validare l'ipotesi del fenomeno. Ma non mi sembra che ci sia interesse né da parte di DxO che ha lanciato la pietra e nascosto la mano, né ovviamente dai tecnici stessi che probabilmente nemmeno si sognano possa esistere un dibattito del genere fra gli utenti e in ogni caso è difficile una comunicazione diretta.
Se posso permettermi, non vorrei risultare pedante, però IMHO stai uscendo parecchio dal seminato:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
se si tenesse conto solo delle trasmittanza il comportamento sarebbe uniforme a tutte le aperture. Di fatto, un'ottica si comporta come una guida d'onda, attraversata da radiazione incoerente e lungo la quale sono disseminati mezzi (le lenti o i gruppi di lenti, oltre che l'aria) che presentano un indice di rifrazione differente.
Non so cosa vuoi intendere, ma una guida d'onda non serve a costruire un'immagine, ma ha uno scopo diverso: staresti parlando di una fibra ottica, se proprio vuoi fare l'analogia nel visibile di un concetto che si usa nel campo della trasmissione dei segnali EM.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Questo significa che i raggi luminosi sono deviati nel passaggio dall'aria ad una lente e viceversa e queste deviazioni, per quanto previste, non possono essere del tutto compensate (anche perchè la deviazione è differente a seconda delle componenti cromatiche). Quello che ipotizzo (è solo un'ipotesi, poichè non sono un esperto di ottica ma che può essere suffragata dal fatto che l'adozione del paraluce serve proprio a ridurre l'incidenza della radiazione "indesiderata") è che ad aperture maggiori (così come a focali più corte) corrispondano maggiori interferenze (e più problemi sugli angoli di incidenza della luce sulla superficie fotosensibile) tra le varie componenti della luce che attraversano l'obiettivo e che queste interferenze diano luogo ad una degradazione delle prestazioni dell'obiettivo stesso.
Questo si può tranquillamente descrivere con la classica ottica geometrica, lascia stare l'interferenza che a quelle lunghezze d'onda e in questo contesto non ha senso parlarne. Quelle che descrivi come deviazioni e che non ha niente a che fare con interferenza né tanto meno il paraluce, è il fenomeno della dispersione (ovvero che l'indice di rifrazione varia in misura più o meno maggiore in funzione di lambda a seconda del materiale: è il motivo per cui esistono le aberrazioni cromatiche e si compensano oltre che con doppietti, tripletti, ecc. anche limitandole a monte con vetri a bassa dispersione).
Quote:
Originariamente inviato da yossarian Guarda i messaggi
D'altra parte, l'argomento della discusisone mi pare sia il comportamento delle ottiche al variare dell'apertura e, solo di conseguenza, il comportamento del sensore e dell'elettronica della macchina (tra un cmos e un ccd non c'è differenza, a parità di formato, se si limita l'analisi alla quantità di luce che colpisce il singolo fotosito per unità di tempo). Il fatto che i valori registrati da dxomark varino ocn la fotocamera non lo riterrei un elemento attendibile, soprattutto alla luce del fatto che, secondo quelle stime, la d300s ha più necessità di correggere il valore rispetto alla d300, mentre, di fatto, la prima ha una QE superiore alla seconda.
Secondo me, ti sei troppo concentrato a pensare al sensore e non ti accorgi che il punto è un altro. Non c'entra nulla la QE o la sensibilità del sensore non stanno facendo considerazioni sull'SNR, dicono solo che la macchina DEVE ALZARE la sensibilità perché glielo hanno scritto nel firmware per compensare il fenomeno noto sperimentalmente (a DxO, così come presumibilmente ai produttori), che aprendo oltre f/2 le lenti non si comportano come dovrebbero. Fin qui c'è solo la descrizione di un dato di fatto riportato da DxO come da altre fonti in forma di scostamento nell'esposizione rispetto a quella prevista.
Poi c'è l'ipotesi del fenomeno che sono il primo a dire di essere scettico e che può essere opinata o meno purché argomentando se la si è compresa, ma finora è quella più verosimile dal punto di vista fisico, IMHO. Imputare lo scostamento a un difetto di trasmissione non è compatibile, per le ragioni che ho provato a spiegare e di cui ti puoi assicurare anche tu se sei abbastanza curioso da andare a leggerti dei fenomeni di riflessione/rifrazione.

So perfettamente che l'ipotesi di spiegazione del fenomeno può risultare poco chiara (deve essere chiaro che è un problema di ciò che sta davanti al sensore come ottica cioé lente e microlente-struttura del pixel non di sensibilità del fotosito) ai più e se serve, appena ho un attimo, provo a cercare di spiegare il concetto in maniera più comprensibile, spero almeno perché non mi ritengo per nulla un divulgatore.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 15-12-2011, 01:03   #47
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Allora a me il discorso sembra molto chiaro e prego di leggere bene proprio perché capisco possa non essere banale per chiunque. A me con una preparazione di tipo fisico mi pare sensato come ragionamento teorico, d'altra parte per come è messa però dovrebbero mettersi a fare le misurazioni in una maniera controllata per validare l'ipotesi del fenomeno. Ma non mi sembra che ci sia interesse né da parte di DxO che ha lanciato la pietra e nascosto la mano, né ovviamente dai tecnici stessi che probabilmente nemmeno si sognano possa esistere un dibattito del genere fra gli utenti e in ogni caso è difficile una comunicazione diretta.
Se posso permettermi, non vorrei risultare pedante, però IMHO stai uscendo parecchio dal seminato:
Non so cosa vuoi intendere, ma una guida d'onda non serve a costruire un'immagine, ma ha uno scopo diverso: staresti parlando di una fibra ottica, se proprio vuoi fare l'analogia nel visibile di un concetto che si usa nel campo della trasmissione dei segnali EM.
In fisica, ottica, e telecomunicazioni, una guida d'onda è una struttura lineare che convoglia e confina onde elettromagnetiche all'interno di un percorso compreso fra le due estremità consentendone cioè una propagazione guidata. Essa è dunque un mezzo di trasmissione.
Questa è la definizione generale di guida d'onda che è semplicemente un mezzo per guidare un'onda o una serie di onde EM da un punto ad un altro, costringendole a seguire un percorso obbligato anzichè uno libero. Una fibra ottica è un tipo di guida d'onda che si usa per trasferire onde EM a una o più frequenze diverse, ma anche un obiettivo è una guida d'onda che, ovviamente, non facendo uso di una trasmittente laser, non trasferisce una radiazione di tipo coerente. Di fatto una guida d'onda non serve per creare un'immagine ma neppure per trasmettere un suono, ma solo per trasportare onde EM; quello che si fa con queste onde dipende solo ed esclusivamnete da cosa si usa come trasmettitore e come ricevitore. Se uso una sorgente luminosa come trasmettitore (o, meglio, il riflesso delle onde EM emesse da questa sorgente luminosa su un altro corpo) e una pellicola fotografica o una matrice di fotodiodi abbinati ad un filtro di tipo bayer o ad una struttura multilayer, tipo foveon e "costringo" questa radiazione a passare all'interno di un percorso obbligato che la guidi verso la struttura preposta a riceverla, non faccio altro che utilizzare una guida d'onda e il risultato che otterrò è una immagine. SE lavoro nel campo delle microonde, la guida d'onda sarà di tipo metallico, in quello delle ottiche posso utilizzare una fibra ottica o qualunque cosa permetta di indirizzare le onde E.M. lungo un percorso prestabilito, per mezzo di pareti riflettenti (a frequenze ottiche anche una parete a specchio può assolvere lo stesso compito di una fibra ottica; dipende solo dal tipo e dalla quantità di luce che devo farci passare dentro).


Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Questo si può tranquillamente descrivere con la classica ottica geometrica, lascia stare l'interferenza che a quelle lunghezze d'onda e in questo contesto non ha senso parlarne. Quelle che descrivi come deviazioni e che non ha niente a che fare con interferenza né tanto meno il paraluce, è il fenomeno della dispersione (ovvero che l'indice di rifrazione varia in misura più o meno maggiore in funzione di lambda a seconda del materiale: è il motivo per cui esistono le aberrazioni cromatiche e si compensano oltre che con doppietti, tripletti, ecc. anche limitandole a monte con vetri a bassa dispersione).
le aberrazioni cromatiche sono solo uno degli effetti del passaggio della luce attraverso mezzi con indice di rifrazione differente. Questo passaggio si può schematizzare con l'attraversamento di un prisma che scompone la luce in diverse componenti a differenti lunghezze d'onda e con angoli diversi. Questo avviene non su un solo raggio lumminoso ma su tanti e le componenti che si vengono a creare, spesso non arrivano in fase tra loro. Se eliminiamo l'interferenza, abbiamo eliminato una delle principali componenti del rumore di tipo random pattern. Quelle che limitano la nitidezza dell'immagine quando si usano lenti "veloci" a TA e che vanno, comunemente, sotto il nome di aberrazioni, non sono altro che fenomeni di interferenza noti come tilt aberrations, tanto che uno dei sistemi in via di sperimentazione, per cercare di correggere o limitare questo fenomeno è quello di ricostruire le informazioni corrette sulle fasi delle radiazioni incidenti per pixel.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Secondo me, ti sei troppo concentrato a pensare al sensore e non ti accorgi che il punto è un altro. Non c'entra nulla la QE o la sensibilità del sensore non stanno facendo considerazioni sull'SNR, dicono solo che la macchina DEVE ALZARE la sensibilità perché glielo hanno scritto nel firmware per compensare il fenomeno noto sperimentalmente (a DxO, così come presumibilmente ai produttori), che aprendo oltre f/2 le lenti non si comportano come dovrebbero. Fin qui c'è solo la descrizione di un dato di fatto riportato da DxO come da altre fonti in forma di scostamento nell'esposizione rispetto a quella prevista.
al contrario; ho detto che il fenomeno è legato al comportamento delle ottiche; il discorso sulla QE è legato all'analisi della quantità di luce che dovrebbe colpire il singolo fotosito e che, invece, risulta inferiore a causa delle cosiddette "aberrazioni". La QE non entra in gioco solo quando si parla di SNR ma anche quando si parla di corretta valutazione dell'esposizione. Anzi, in realtà, parlare di QE è riduttivo, poichè questa è solo una delle componenti, ovvero il rapporto tra radiazione incidente e coppie elettrone-lacuna create, anche se, di fatto, è il parametro che viene convertito in segnale elettrico e letto dalla cpu. Quello che succede è che la cpu legge i valori sull'esposizione fornitigli, li confronta con quelli teorici e corregge l'esposizione e lo fa variando il livello di amplificazione del sensore. Ovviamente, il "quanto" deve correggere dipende dalle necessità: le FF i cui pixel catturano più luce tendono a correggere meno delle APS-C, quelle dotate di microlenti che, a parità di dimensioni del sensore e dei pixel catturano più luce correggono meno (e qui non mi tornano i valori di d300 e d300s, a meno che la d300 non abbia la tendenza a sottoesporre) e dalle impostazioni di default. Ad esempio, stando ai valori di dxomark, a parità di condizioni ed avendo lo stesso identico sensore, tra d200 e d80 i casi sono 2: o la prima tende a sottoesporre o la seconda a sovraesporre (stesso dicasi per 30d e 20d), così come la 5d, che è quella che corregge meno di tutti, pur avendo fotositi leggermente più piccoli di quelli della d3s e non avendo microlenti gapless, dovrebbe tendere a sottoesporre (cosa, per altro, confermata anche da Donagh).
Probabilmente non ci arrivo, ma continuo a non vederci niente di strano, anzi ritengo probabile che un'operazione del genere avvenga anche con ottiche meno "veloci", in condizioni di scarsa luce.

Ultima modifica di yossarian : 15-12-2011 alle 01:22.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 17-12-2011, 15:46   #48
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Guarda non per continuare a voler fare botta/risposta che sono pure argomenti abbastanza ampi ed è difficili esaurirli con 4 parole riassunte: non so come te l'abbiano spiegata, ma fidati hai un po' le idee confuse su cosa sia una guida d'onda e anche sull'ottica stai facendo strafalcioni (le aberrazioni te lo ripeto NON sono dovute a fenomeni d'interferenza!).
Se vuoi capire meglio, cerca di approfondirne il funzionamento e fai MOLTO caso su quali principi si basa la trasmissione di una radiazione (in linea di massima monocromatica e coerente fra l'altro e questo già dovrebbe farti venire parecchi dubbi col tuo paragone lente/guida d'onda) all'interno di una fibra ottica (fenomeno di riflessione totale), e invece cosa voglia dire focalizzare un'immagine (non c'è nessun confinamento, anzi in ottica fisica si considerano i diversi cammini ottici) che è quanto fa una lente a partire da luce incoerente e non monocromatica (quindi cosa ci faresti, seppure ben avessi informazioni sulla fase.. ).
Quote:
Originariamente inviato da yossarian Guarda i messaggi
La QE non entra in gioco solo quando si parla di SNR ma anche quando si parla di corretta valutazione dell'esposizione. Anzi, in realtà, parlare di QE è riduttivo, poichè questa è solo una delle componenti, ovvero il rapporto tra radiazione incidente e coppie elettrone-lacuna create, anche se, di fatto, è il parametro che viene convertito in segnale elettrico e letto dalla cpu. Quello che succede è che la cpu legge i valori sull'esposizione fornitigli, li confronta con quelli teorici e corregge l'esposizione e lo fa variando il livello di amplificazione del sensore. Ovviamente, il "quanto" deve correggere dipende dalle necessità: le FF i cui pixel catturano più luce tendono a correggere meno delle APS-C, quelle dotate di microlenti che, a parità di dimensioni del sensore e dei pixel catturano più luce correggono meno (e qui non mi tornano i valori di d300 e d300s, a meno che la d300 non abbia la tendenza a sottoesporre) e dalle impostazioni di default. Ad esempio, stando ai valori di dxomark, a parità di condizioni ed avendo lo stesso identico sensore, tra d200 e d80 i casi sono 2: o la prima tende a sottoesporre o la seconda a sovraesporre (stesso dicasi per 30d e 20d), così come la 5d, che è quella che corregge meno di tutti, pur avendo fotositi leggermente più piccoli di quelli della d3s e non avendo microlenti gapless, dovrebbe tendere a sottoesporre (cosa, per altro, confermata anche da Donagh).
Penso tu abbia equivocato, provo a spiegarmi.
Come hai detto la Qe è un parametro del dispositivo che indica solo l'efficienza del processo di conversione.
Ai fini dell'esposizione non te ne frega niente se hai un fotosito buono o pessimo (semmai te ne accorgerai nell'immagine in termini di rumore) ci pensa l'hardware e il software a rinormalizzare il tutto per fornire all'utente un riferimento che è poi il valore di sensibilità in ISO. Provo a renderlo comprensibile: se il tuo fotosito è molto efficiente avrai molto meno bisogno di AMPLIFICARE il segnale per definire un certo valore di sensibilità ISO rispetto a un fotosito poco efficiente (con tutto ciò che ne consegue nel peggioramento dell'SNR; in parole povere e semplificate: il primo sensore partirà con un ISO base più alto e potrà spingersi più avanti a parità di "amplificazione elettronica" rispetto al secondo). Ma questa è una cosa "a basso livello" di cui all'interfaccia software non gliene può fregar di meno, perché lavora già col parametro ISO; te fai lo stesso discorso quindi non diciamo cose molte diverse, ma poi equivochi l'amplificazione elettronica, con quello di cui parla DxO che è semplicemente un aumento dell'ISO fatto all'insaputa dell'utente (lo chiamano "gain" ma e se leggi l'articolo di DxO nel paragrafo "Raising ISO to compensate light loss" si riferisco a questo ). Che le FF abbiano migliore Qe delle APS (oppure estendilo pure ai casi di sensori migliori rispetto ai più vecchi) risulterà semplicemente come sappiamo nel rumore delle immagini a parità di ISO. Quindi il discorso che fai non ti torna perché pensi che il gain del grafico che ho riportato sia "a basso livello", mentre in realtà è già riparametrato perché ragiona in termini di ISO.
Per i grafici prima di DxO le differenze fra fotocamere diverse, per come è spiegata, si suppongono considerando che a seconda della tecnologia del sensore e delle microlenti, si ha una limitazione nell'apertura numerica del pixel che può essere diversa e che quindi limita diversamente il sistema ottico a monte. Quindi penso siano corrette le tue considerazioni sulla dimensione dei pixel e l'incidenza del fenomeno.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Probabilmente non ci arrivo, ma continuo a non vederci niente di strano, anzi ritengo probabile che un'operazione del genere avvenga anche con ottiche meno "veloci", in condizioni di scarsa luce.
Se non è chiaro lo ripeto, il fenomeno è il seguente: scatto a f/8 e l'esposimetro dà una certa coppia (ISO 100 e tempo che so 1/10s), poi misuro a f/2,8 e l'eposimetro dà una coppia con la proporzione prevista cioè 3-stop in meno (ISO 100 e tempo 1/80s), infine misuro a f/1,2 e l'esposimetro mi trova una coppia inferiore alla proporzione prevista cioé invece di 2,5-stop mi salta fuori 1-stop in meno del previsto. A questo punto la fotocamera dovrebbe impostare un tempo 1/225s, invece per far tornare i conti alza l'ISO a 200 FACENDOMI CREDERE CHE SIA ANCORA A 100 per poter darmi il tempo previsto di 1/450s e mascherare la perdita di uno stop a f/1.2 (NON PUO' ESSERE un problema di trasmissione, cioè T-number perché altrimenti la perdita sarebbe una caduta costante a tutti i diaframmi e te ne accorgeresti solo confrontando le coppie misurate con un'altra lente avente trasmissione migliore/peggiore). Dato che l'eposimetro di norma con le lenti moderne fa la misura una volta sola a TA e poi si calcola le coppie per l'apertura a seconda di cosa imposta l'utente, può barare solo quando sa che il diaframma avrà un valore critico (cioé a quanto risulta da f/2 in su). Quindi se usi una lente senza contatti e il diaframma lo imposti manualmente, lo smascheri perché è costretto a fare la misura di volta in volta dato che non sa quale diaframma hai impostato.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 19-12-2011, 20:55   #49
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Guarda non per continuare a voler fare botta/risposta che sono pure argomenti abbastanza ampi ed è difficili esaurirli con 4 parole riassunte: non so come te l'abbiano spiegata, ma fidati hai un po' le idee confuse su cosa sia una guida d'onda e anche sull'ottica stai facendo strafalcioni (le aberrazioni te lo ripeto NON sono dovute a fenomeni d'interferenza!).
in un sistema come un obiettivo fotografico non esistono solo le aberrazioni cromatiche. Ci sono 7 tipi di aberrazioni differenti approssimabili con l'ottica geometrica (e solo 2 o 3 danno origine a fenomeni di cromatismo visibili) e una serie di altri tipi di aberrazioni per cui l'ottica geometrica non è sufficiente e che provocano fenomeni di blurring in alcune parti dell'immagine, alla stregua di quanto avviene con la diffrazione.
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Se vuoi capire meglio, cerca di approfondirne il funzionamento e fai MOLTO caso su quali principi si basa la trasmissione di una radiazione (in linea di massima monocromatica e coerente fra l'altro e questo già dovrebbe farti venire parecchi dubbi col tuo paragone lente/guida d'onda) all'interno di una fibra ottica (fenomeno di riflessione totale), e invece cosa voglia dire focalizzare un'immagine (non c'è nessun confinamento, anzi in ottica fisica si considerano i diversi cammini ottici) che è quanto fa una lente a partire da luce incoerente e non monocromatica (quindi cosa ci faresti, seppure ben avessi informazioni sulla fase.. ).
nelle fibre ottiche multimodali si trasmette con led la cui luce è tutt'altro che coerente e la finestra utilizzata è piuttosto ampia anche se confinata ad un singolo colore (ma non ad una singola frequenza). Gli stessi laser HE-NE trasmettono all'interno una finestra (molto ristretta, in effetti ma, comunque, molto più ampia dei laser a semiconduttore usati per le telecomunicazioni). Ma questo è un limite dei dispositivi, la cui frequenza di trasmissione è dettata dall'ampiezza della cavità in cui avvengono le oscillazioni. Ad esempio, i FEL possono trasmettere su un ampio range di frequenze e lo stesso possono fare, almeno in teoria, i diodi a cavità accoppiate, con l'uso di specchi a indici di rifrazione differenti e un dielettrico all'interno della cavità stessa, sfruttando l'effetto Kerr per modulare la lunghezza virtuale della cavità e variare gli angoli di riflessione dei fotoni.
Per quanto interessanti, non credo che siano questi gli argomenti della discussione, però.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Penso tu abbia equivocato, provo a spiegarmi.
Come hai detto la Qe è un parametro del dispositivo che indica solo l'efficienza del processo di conversione.
Ai fini dell'esposizione non te ne frega niente se hai un fotosito buono o pessimo (semmai te ne accorgerai nell'immagine in termini di rumore) ci pensa l'hardware e il software a rinormalizzare il tutto per fornire all'utente un riferimento che è poi il valore di sensibilità in ISO. Provo a renderlo comprensibile: se il tuo fotosito è molto efficiente avrai molto meno bisogno di AMPLIFICARE il segnale per definire un certo valore di sensibilità ISO rispetto a un fotosito poco efficiente (con tutto ciò che ne consegue nel peggioramento dell'SNR; in parole povere e semplificate: il primo sensore partirà con un ISO base più alto e potrà spingersi più avanti a parità di "amplificazione elettronica" rispetto al secondo). Ma questa è una cosa "a basso livello" di cui all'interfaccia software non gliene può fregar di meno, perché lavora già col parametro ISO; te fai lo stesso discorso quindi non diciamo cose molte diverse, ma poi equivochi l'amplificazione elettronica, con quello di cui parla DxO che è semplicemente un aumento dell'ISO fatto all'insaputa dell'utente (lo chiamano "gain" ma e se leggi l'articolo di DxO nel paragrafo "Raising ISO to compensate light loss" si riferisco a questo ). Che le FF abbiano migliore Qe delle APS (oppure estendilo pure ai casi di sensori migliori rispetto ai più vecchi) risulterà semplicemente come sappiamo nel rumore delle immagini a parità di ISO. Quindi il discorso che fai non ti torna perché pensi che il gain del grafico che ho riportato sia "a basso livello", mentre in realtà è già riparametrato perché ragiona in termini di ISO.
continuo a non vederci alcuna differenza. Se un determinato sensore ha una QE inferiore rispetto ad un altro, l'elettronica compensa questa carenza aumentando l'amplificazione, come hai detto e questo aumento è già contenuto all'interno del valore ISO impostato. Questo significa che,ad esempio, se prendo una SLT, il cui specchio sottrae un 30% di luminosità al sensore, a 100 ISO impostati sulla macchina mi corrisponderanno, in realtà 130 ISO di un'ipotetica macchina identica di tipo SLR. Questo significa che il firmware della macchina è settato in modo tale che la perdita del 30% venga compensata aumentando, in teoria della stessa quantità, l'amplificazione.
Se uso una lente più luminosa, il firmware della macchina aumenta l'amplificazione per compensare le perdite ai bordi del frame. Supponiamo che la perdita sia del 30%, per uniformità con la situazione precedente.
La differenza sta solo nel fatto che nel primo caso, secondo dxomark, gli iso sono 100 e nel secondo sono 130. Questo non significa che nel secondo caso il produttore sta barando, ma semplicemente che nel primo caso ha operato in modo tale da compensare una perdita facilmente quantificabile perchè insita nell'architettura hardware della macchina e, in particolare, nella tipologia di specchio adottato. Nel secondo caso non è in grado di fare lo stesso, perchè la "caduta di luce" dipende dal tipo di ottica di ottica e dall'apertura usata. Quindi non è cosa connaturata alla macchina ma dipende da un elemento aggiuntivo che si può usare o no. Nel momento in cui imposti una lente veloce a TA, la macchina "legge" la quantità di luce media e la confronta con il valore di target impostato. Se il valore rilevato è più basso aumenta l'amplificazione di quel tanto necessario a riportarlo al valore stabilito. Se l'ottica "comunica" con la cpu, allora il mascheramento è semplice, alla stregua di quanto avviene con lo specchio SLT; se si usa un'ottica che non comunica con la cpu, allora la compensazione avviene lo stesso, ma il "trucco" viene scoperto.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Se non è chiaro lo ripeto, il fenomeno è il seguente: scatto a f/8 e l'esposimetro dà una certa coppia (ISO 100 e tempo che so 1/10s), poi misuro a f/2,8 e l'eposimetro dà una coppia con la proporzione prevista cioè 3-stop in meno (ISO 100 e tempo 1/80s), infine misuro a f/1,2 e l'esposimetro mi trova una coppia inferiore alla proporzione prevista cioé invece di 2,5-stop mi salta fuori 1-stop in meno del previsto. A questo punto la fotocamera dovrebbe impostare un tempo 1/225s, invece per far tornare i conti alza l'ISO a 200 FACENDOMI CREDERE CHE SIA ANCORA A 100 per poter darmi il tempo previsto di 1/450s e mascherare la perdita di uno stop a f/1.2 (NON PUO' ESSERE un problema di trasmissione, cioè T-number perché altrimenti la perdita sarebbe una caduta costante a tutti i diaframmi e te ne accorgeresti solo confrontando le coppie misurate con un'altra lente avente trasmissione migliore/peggiore). Dato che l'eposimetro di norma con le lenti moderne fa la misura una volta sola a TA e poi si calcola le coppie per l'apertura a seconda di cosa imposta l'utente, può barare solo quando sa che il diaframma avrà un valore critico (cioé a quanto risulta da f/2 in su). Quindi se usi una lente senza contatti e il diaframma lo imposti manualmente, lo smascheri perché è costretto a fare la misura di volta in volta dato che non sa quale diaframma hai impostato.
infatti non è un problema di trasmissione ma di perdita di luce con obiettivi a TA. Il fenomeno ha altre cause (light fall e vignetting sono due fenomeni connessi all'utilizzo di ottiche veloci a TA che potrebbero causare questo tipo di comportamento). D'altra parte, la macchina non può variare il tempo di scatto (se imposti il diaframma) perchè lo stesso avviene anche in caso di utilizzo della modalità M; quindi, se imposti tempo e diaframma, per compensare la perdita di luce l'unica via è lavorare sull'amplificazione.
Come si vede dalle immagini dei test sulle ottiche e come detto da alcuni utenti che partecipano a questa discussione, passando da un'ottica f/1.2 ad una f/1.4 o f/1.8, cambia lo sfocato, quindi, da questo punto di vista, la differenza c'è. Ovviamente, con ottiche più aperte c'è anche una fisiologica maggior diminuzione della luce soprattutto sui bordi del frame ed è questo che l'aumento degli ISO va a compensare.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 23-12-2011, 13:02   #50
Donagh
Senior Member
 
L'Avatar di Donagh
 
Iscritto dal: Dec 2001
Città: Trento
Messaggi: 3327


f 1.2....
spero le vedete....



1.4...
__________________
Un mac e tanta fantasia... Le mie foto: WEB - SELEZIONE SU FLICKR
Donagh è offline   Rispondi citando il messaggio o parte di esso
Old 28-12-2011, 00:29   #51
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
in un sistema come un obiettivo fotografico non esistono solo le aberrazioni cromatiche. [...]
Perdona un attimo, ma di cosa stiamo parlando: di ottica applicata alla fotografia mi sembra (non di tecniche di contrasto di fase da microscopisti, altrimenti pure io ti potrei chiamare "aberrazione" qualsasi difetto sul piano immagine), quindi le aberrazioni a cui ci si riferisce sono quelle classiche dell'ottica geometria (sferica, cromatica, coma, astigmatismo, vignettatura, ecc.) e sono tutte dovute a limiti nella progettazione del sistema ottico.. no? Non c'è nessuna interferenza, ma se ce ne è una di cui non sei convinto possiamo anche discuterne in mp.
Riguardo al dopo, anch'io non vorrei continuare a scrivere solo tanto per farlo visto che risulta poco costruttivo e mi sembra di saltare di palo in frasca. In ogni caso per intenderci già quando parli di "finestra" mi verrebbe da riprenderti sul fatto che un laser che non sia monocromatico e coerente non è un laser per definizione. Il fatto che si possano regolare diverse frequenze di emissione non toglie che selezionatane una si abbia qualcosa di monodisperso (ciò vale tanto sia per un He-Ne da laboratorio, sia per un diodo laser da lettore CD, sia per il FEL che sei andato a pescare), ripeterò ancora in linea di massima, visto che aggiungerai che alla radiazione vorrai applicare un qualsiasi processo non-lineare a piacere, ma il principio resta quello e se discutiamo così finiamo solo di confondere altri con mille casi particolari.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
D'altra parte, la macchina non può variare il tempo di scatto (se imposti il diaframma) perchè lo stesso avviene anche in caso di utilizzo della modalità M; quindi, se imposti tempo e diaframma, per compensare la perdita di luce l'unica via è lavorare sull'amplificazione.
Però dimmi cosa cambia? Alla fine il punto non è su quale delle due variabili rimaste intervenga, piuttosto il fatto che stia barando, ovvero che non ti dice che varia l'esposizione perché non vuole che tu sappia della caduta. Per collegarci al paragone che mi fai col SLT quel caso è esattamente agli antipodi di questo: là c'è stata una comunicazione trasparente col pubblico, dato che è stato dichiarato ufficialmente che lo specchio semiriflettente, proprio in maniera analoga al discorso del T-stop, dà una perdità di trasmissione costante a prescindere dal diaframma (Sony questo lo dice anche per l'obiettivo da ritratto con filtro apodizzante per migliorare lo sfocato, che ha un T-stop sensibilmente inferiore a uno senza; ma ovviamente ciò non comporta una perdita sulla PdC). Quindi in quei casi sai cosa stai comprando e a cosa vai incontro, invece in questo caso, acquisti una lente f/1.2 che poi a causa del sensore potrebbe trovarsi limitata a comportarsi come una f/2. Mi sembra normale che il fatto faccia sollevare quelli di LL, dato che renderebbe molto poco appetibili le lenti molto luminose (nonostante il costo), solo a causa di un limite tecnologico (a quanto pare noto) di accoppiamento con una non sufficiente apertura numerica dei fotositi. (vedi articolo citato da Mercuri0 dove si accenna che le microlenti funzionano entro certi vincoli e che la corsa ai Mpx acuisce il problema; se hai accesso alle pubblicazioni scientifiche nella biografia trovi anche materiale molto più avanzato, se hai bisogno mp )
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Come si vede dalle immagini dei test sulle ottiche e come detto da alcuni utenti che partecipano a questa discussione, passando da un'ottica f/1.2 ad una f/1.4 o f/1.8, cambia lo sfocato, quindi, da questo punto di vista, la differenza c'è.
Quali? Occhio che non si mette in dubbio che aprendo una variazione ci sia, ma che la varazione sia molto inferiore a quella prevista con quell'apertura: lo sfocato dipende da molti aspetti, anche la sottocorrezione di una aberrazione può influire molto sulla sua resa da un diaframma a un'altro.
Personalmente ci andrei molto cauto nel proclamare considerazioni sullo sfocato a sentimento, puoi rileggerti la prima pagina d'interventi qui per intuire perché, resta il fatto che se il fenomeno fosse quello ipotizzato INFLUIREBBE pure sulla PdC.
Misurazioni su questo aspetto NON SONO STATE FATTE e non le ritengo alla portata del modo di operare dell'utente comune. Ovviamente se si vogliono fare delle considerazioni sensate: bisogna considerare molti fattori e spesso approssimazioni (a volte oltre alla magnificazione, perfino le differenze fra pupilla d'ingresso e d'uscita se il progetto ottico non è simmetrico) e in ogni caso la PdC non ha un'andamento semplice e proprozionale (detto in parole povere già in linea teorica allargare di uno stop il diaframma influisce molto meno a TA che da un diaframma molto più chiuso).
Quote:
Originariamente inviato da yossarian Guarda i messaggi
infatti non è un problema di trasmissione ma di perdita di luce con obiettivi a TA. Il fenomeno ha altre cause (light fall e vignetting sono due fenomeni connessi all'utilizzo di ottiche veloci a TA che potrebbero causare questo tipo di comportamento).
Visto che alla fine ci siamo capiti e mi pare adesso concordiamo non si debba imputare al T-stop connaturato alla trasmissione della lente, allora proviamo ad assumere la tua nuova ipotesi: cioè la caduta di luce ai bordi per vignettatura a TA. Considero il caso peggiore possibile, cioé facciamo che il fisso luminoso da un capitale sia una lente particolarmente balorda sotto questo aspetto. Assumiamo quindi che a TA (f/1.2) perda 1,5 stop su un'area pari al 30% dell'immagine (è un'approssimazione becera che non considera la gradualità, ma mi pare giusto lavorare molto per eccesso rispetto alla vignettatura degli obiettivi reali) rispetto ad un diaframma f/2.8 in cui il fotogramma non abbia vignettatura (ancora approssimo a favore della tua tesi ). Ora dato che una lettura dell'esposizione è comunque mediata sul fotogramma (facciamo ancora finta con un'altra approssimazione becera per eccesso che la matrix non dia maggiore priorità al centro del fotogramma), una caduta netta di quel tipo si diluisce comunque in proporzione all'aera coperta. Quindi la caduta che misurerebbe l'esposimetro in media sul fotogramma sarebbe -1,5x0,3=-0,45 (solo mezzo stop) che non mi sembra proprio dare conto del fenomeno misurato (più di 1-stop nei casi più gravi), questo senza tirare in ballo che sarebbe un fenomeno con intensità variabile a seconda dell'ottica e probabilmente massimo per i grandangolari luminosi. Certamente può contribuire, riguardo al "quanto" considera che gli obiettivi che più perdono su aps fanno uno stop sul limite estremo e poi rapidamente calano* a coprire un'area che col peso maggiore difficilmente interessa un quarto del fotogramma: quindi se anche ai bordi avessi una caduta forte, sull'esposizione complessiva del fotogramma nella pratica influirebbe poco.
*La vignettatura come aberrazione assiale cala la trasmissione dal centro con la potenza quarta del coseno dell'angolo, certo si aggiunge il discorso del fuori asse della microlente come fai notare ma comunque siamo lì considerati i profili di vignettatura che si misurano.
C'è un'altra considerazione: soprattutto a parità di lente, se dipendesse dalla vignettatura (fisiologica+offset) ne avresti la conferma qualora il dato dei sensori FF fosse molto peggiore di quello degli APS, invece è proprio l'esatto contrario! Detto ciò mi sentirei di confutare questa ipotesi come causa predominante, visto il grafico sottostante di DxO.

Ora non che a me piaccia difendere questa teoria dell'apertura limitata dal pixel, ma a parte l'essere molto più verosimile di altre possibili spiegazioni, se nell'ambiente è conosciuto come problema noto (anche qui a parte DxO, c'è l'articolo della Stanford già citato e cercando come ti ho detto trovi approfondimenti benché non alla portata di tutti) e si trova che nelle pubblicazioni scientifiche non vi sono remore nel considerare il fenomeno, ma anzi sembra se ne tenga conto perfino per sviluppi futuri, non vedo il senso di "voltarsi da un'altra parte"...
Quote:
Originariamente inviato da Donagh Guarda i messaggi
spero le vedete....
Perdona Donagh ma a parte i bei ritratti fatico a capire cosa intendessi far vedere... anche perché do per scontato tu sappia di sicuro che la PdC varia con la distanza del soggetto.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 28-12-2011, 04:51   #52
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
chiudo la parentesi sui fibre ottiche e affini con una precisazione: nel post precedente ho citato di proposito i laser He-Ne perchè sono tra quelli con "finestra" di trasmissione più stretta ma, nonostante ciò, sempre di finestra si tratta. I diodi laser hanno finestre decisamente più ampie e i led, usati n accoppiamento con fibre multimodo, non sono né coerenti né monocromatici. Infine, una nota sulle aberrazioni; vengono spiegate con l'ottica geometrica solo in prima approssimazione, ma sono originate da fenomeni che non non rientrano nelle approssimazioni tipiche dell'ottica geometrica (che tratta solo le aberrazioni di Seidel). In quanto a fenomeni di interferenze "visibili", mi limito a citarne solo 2: gli effetti della diffrazione e il moire (me, se preferisci, l'aliasing più in generale).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Però dimmi cosa cambia? Alla fine il punto non è su quale delle due variabili rimaste intervenga, piuttosto il fatto che stia barando, ovvero che non ti dice che varia l'esposizione perché non vuole che tu sappia della caduta. Per collegarci al paragone che mi fai col SLT quel caso è esattamente agli antipodi di questo: là c'è stata una comunicazione trasparente col pubblico, dato che è stato dichiarato ufficialmente che lo specchio semiriflettente, proprio in maniera analoga al discorso del T-stop, dà una perdità di trasmissione costante a prescindere dal diaframma (Sony questo lo dice anche per l'obiettivo da ritratto con filtro apodizzante per migliorare lo sfocato, che ha un T-stop sensibilmente inferiore a uno senza; ma ovviamente ciò non comporta una perdita sulla PdC).
nel caso della slt, sony sa, all'incirca, qual è la perdita di luminosità dovuta allo specchio e la compensa a priori. Nel caso delle lenti "luminose" non è possibile fare la stessa operazione, in quanto la perdita di luminosità varia da lente a lente: un 85 f/1.2 si comporta diversamente da un 50 f/1.2 o da un 35 f/1.4 (ammettendo che la prendendo due lenti identiche il comportamento sia perfettamente lo stesso). Inoltre un 50 mm canon non sarà uguale ad un 50 mm zeiss o a uno sigma o tokina a parità di apertura. In una scala da 1 a 100, quanto è fattibile "creare un profilo" per ogni lente sul mercato e per quelle future? L'alternativa è adattare la sensibilità al volo, a seconda della lente montata. Continuo a non vedere dolo nel fatto che con lenti che comunicano con la cpu questo "trucco" sia mascherato. Ora, immagina canon che ti vende il 50 f/1.2 con l'avvertenza che su 7d si comporterà come un "f/1.37", su 40d come un "f/1.33", su 5d come un "f/1.25", ecc, perchè in caso contrario sta imbrogliando; il tutto partendo dall'assunto, errato, che la compensazione in iso sia proporzionale alla caduta di luce sul sensore.........

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Quindi in quei casi sai cosa stai comprando e a cosa vai incontro, invece in questo caso, acquisti una lente f/1.2 che poi a causa del sensore potrebbe trovarsi limitata a comportarsi come una f/2.
e qui non ci troviamo d'accordo. La "caduta di luce" avviene anche con la pellicola, ma non puoi scoprire il "trucco" andando a misurare la sensibilità perchè questa non varia. Tra pellicola e sensore le causa di perdita della luminosità sono le stesse, tranne che per un elemento, ovvero, e qui hai in parte ragione, le perdite dovute al fatto che il singolo pixel di un sensore riesce a catturare luce fino ad un determinato angolo di incidenza. Infine, chi acquista una lente f/1.2, considerati i prezzi, spero che prima si sia documentato a sufficienza, magari guardando i test MTF, le immagini prodotte, ecc. Ad esempio, tra l'85 f/1.2 e l'85 f/1.8, basta andare su photozone per rendersi conto delle differenze in termini di sfocato, risolvenza, contenimento di aberrazioni e fringing, tralasciando il discorso sulla qualità costruttiva. Il tempo di scatto minimo teorico è solo una delle componenti del costo finale e, tenendo conto delle possibilità permesse dagli iso assurdi impostabili con le attuali fotocamere (anche grazie alle manipolazioni dei file anche il RAW che, ormai, con l'introduzione della tecnologia mos, è tutt'altro che un formato "grezzo") , nemmeno quello a peso specifico più alto

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Mi sembra normale che il fatto faccia sollevare quelli di LL, dato che renderebbe molto poco appetibili le lenti molto luminose (nonostante il costo), solo a causa di un limite tecnologico (a quanto pare noto) di accoppiamento con una non sufficiente apertura numerica dei fotositi. (vedi articolo citato da Mercuri0 dove si accenna che le microlenti funzionano entro certi vincoli e che la corsa ai Mpx acuisce il problema; se hai accesso alle pubblicazioni scientifiche nella biografia trovi anche materiale molto più avanzato, se hai bisogno mp )
l'articolo parla solo dei sensori di tipo aps FSI e, infatti, parla dell'indirizzamento della luce al'interno del tunnel che conduce al fotodiodo. Però, dalle rilevazioni fatto con dxomark, lo stesso problema si riscontra con i CCD, anzi, a dire il vero, quelli si comportano peggio sono proprio questi ultimi con la "strana" eccezione del sensore della d200, identico a quello della d80. L'articolo parla dei problemi derivanti dalle diminuzioni delle dimensioni dei pixel ma, sempre dalle misurazioni fatte con dxomark, chi si comporta peggio sono i ccd da 6 Mpixel seguiti da quelli da 10. Questo cosa significa? Nell'articolo si fa cenno al fatto che al diminuire dele dimensioni dei pixel il problema principale nella progettazione delle microlenti non è più solo quello di focalizzare la radiazione verso il centro del pixel ma, per i fotositi periferici per cui l'angolo di incidenza non è sempre favorevole, permettere alla radiazione stessa di superare gli strati circuitali non fotosensibili posti tra la superficie del sensore e il fotodiodo. I sistemi usati sono diversi: traslare le microlenti rispetto al centro del pixel o dal disegnare le microlenti periferiche in modo tale da creare degli angoli "di rimbalzo" che guidino il maggior numero possibile di fotoni incidenti sulla superficie sensibile del pixel; diminuire lo "spessore" degli strati che formano la parte non sensibile del pixel; ridurre l'altezza delle microlenti; utilizzare 2 strati di microlenti di piccolo spessore, traslare tra loro in modo tale da creare degli angoli di "rimbalzo" favorevoli.
In ogni caso, il fatto stesso che ci progettino microlenti e che ci si dia tanto da fare per migliorarne l'efficienza, dimostra che il problema esiste, è riconosciuto e si cerca di ridurne l'incidenza. Ovviamente, la diminuzione delle dimensioni dei pixel rende il tutto più difficile, perchè il tunnel attraverso cui si deve guidare la radiazione diventa più stretto ma i risultati rilevati sperimentalmente dimostrano che cmos FSI da 16 o 18 Mpixel di oggi si comportano meglio di ccd da 6 o 10 Mpixel di 5 o 6 anni fa.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Quali? Occhio che non si mette in dubbio che aprendo una variazione ci sia, ma che la varazione sia molto inferiore a quella prevista con quell'apertura: lo sfocato dipende da molti aspetti, anche la sottocorrezione di una aberrazione può influire molto sulla sua resa da un diaframma a un'altro.
Personalmente ci andrei molto cauto nel proclamare considerazioni sullo sfocato a sentimento, puoi rileggerti la prima pagina d'interventi qui per intuire perché, resta il fatto che se il fenomeno fosse quello ipotizzato INFLUIREBBE pure sulla PdC.
Misurazioni su questo aspetto NON SONO STATE FATTE e non le ritengo alla portata del modo di operare dell'utente comune. Ovviamente se si vogliono fare delle considerazioni sensate: bisogna considerare molti fattori e spesso approssimazioni (a volte oltre alla magnificazione, perfino le differenze fra pupilla d'ingresso e d'uscita se il progetto ottico non è simmetrico) e in ogni caso la PdC non ha un'andamento semplice e proprozionale (detto in parole povere già in linea teorica allargare di uno stop il diaframma influisce molto meno a TA che da un diaframma molto più chiuso).
ok, lasciamo da parte le considerazioni sullo sfocato e atteniamoci ai risultati del test di dxomark. Inozio col dire che la "correzione applicata a livello di iso non è necessari<mente proporzionale alla reale perdita di luminosità rilevata, pochè dipende non solo da questa ma anche dal livello di compensazione impostato. Ripeto di nuovo gli esempi citati: d200 e d80, così come 30d e 20d o 7d e 550d, hanno lo stesso sensore (quando dico stesso intendo identico), con lo stesso tipo di microlenti, eppure la correzione applicata è differente. La 5d corregge meno della d3s pur avendo pixel più piccoli e non avendo microlenti gapless. Questo tanto per citare i casi più evidenti che rendono errata la tesi che compensazione e caduta di luce siano sempre e comunque direttamente proporzionali.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Visto che alla fine ci siamo capiti e mi pare adesso concordiamo non si debba imputare al T-stop connaturato alla trasmissione della lente, allora proviamo ad assumere la tua nuova ipotesi: cioè la caduta di luce ai bordi per vignettatura a TA. Considero il caso peggiore possibile, cioé facciamo che il fisso luminoso da un capitale sia una lente particolarmente balorda sotto questo aspetto. Assumiamo quindi che a TA (f/1.2) perda 1,5 stop su un'area pari al 30% dell'immagine (è un'approssimazione becera che non considera la gradualità, ma mi pare giusto lavorare molto per eccesso rispetto alla vignettatura degli obiettivi reali) rispetto ad un diaframma f/2.8 in cui il fotogramma non abbia vignettatura (ancora approssimo a favore della tua tesi ). Ora dato che una lettura dell'esposizione è comunque mediata sul fotogramma (facciamo ancora finta con un'altra approssimazione becera per eccesso che la matrix non dia maggiore priorità al centro del fotogramma), una caduta netta di quel tipo si diluisce comunque in proporzione all'aera coperta. Quindi la caduta che misurerebbe l'esposimetro in media sul fotogramma sarebbe -1,5x0,3=-0,45 (solo mezzo stop)
che in effetti è quello che sembrerebbe succedere con le FF, a f/1.2, (5d, 5d MII, 1Ds MIII e nesuna delle 3 dotata di particolari accorgimenti nella progettazione delle micorlenti).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
che non mi sembra proprio dare conto del fenomeno misurato (più di 1-stop nei casi più gravi), questo senza tirare in ballo che sarebbe un fenomeno con intensità variabile a seconda dell'ottica e probabilmente massimo per i grandangolari luminosi. Certamente può contribuire, riguardo al "quanto" considera che gli obiettivi che più perdono su aps fanno uno stop sul limite estremo e poi rapidamente calano* a coprire un'area che col peso maggiore difficilmente interessa un quarto del fotogramma: quindi se anche ai bordi avessi una caduta forte, sull'esposizione complessiva del fotogramma nella pratica influirebbe poco.
*La vignettatura come aberrazione assiale cala la trasmissione dal centro con la potenza quarta del coseno dell'angolo, certo si aggiunge il discorso del fuori asse della microlente come fai notare ma comunque siamo lì considerati i profili di vignettatura che si misurano.
C'è un'altra considerazione: soprattutto a parità di lente, se dipendesse dalla vignettatura (fisiologica+offset) ne avresti la conferma qualora il dato dei sensori FF fosse molto peggiore di quello degli APS, invece è proprio l'esatto contrario! Detto ciò mi sentirei di confutare questa ipotesi come causa predominante, visto il grafico sottostante di DxO.

nella serie di approssimazioni "becere" che hai fatto, non hai tenuto conto di una cosa: nei casi più gravi, chi si avvicina ad 1 eV sono i sensori aps-c; anzi sono convinto che, se nel grafico con apertura 1.2 fosse stata presente anche nikon, le varie d80, d40, ecc, avrebbero superato l'unità abbondantemente . Ora, se è vero che la vignettatura è visibile soprattutto sui sensori FF, è anche vero che su quelli di formato ridotto è sufficiente una caduta di luce di molto inferiore percentualmente, per creare maggiori problemi. A parità di tecnologia e di risoluzione, in condizioni ottimali, ad esempio, il singolo pixel della d3 è capace di cattuare 3 volte i fotoni che può catturare un pixel della d300. Quindi, l'accoppiamento lente-microlenti per una aps-c rispetto ad una FF è molto più critico in caso di condizioni non ideali come quelle poste da un'ottica, soprattutto grandangolare, con grande apertura. A questo aggiungi che la maggior parte delle ottiche sono progettate per sensori FF, il che significa che se si riducono le componenti di vegnettatura di tipo meccanico e, forse, ottico, non si riducono le altre, anzi, quella dovuta all'accoppiamento lente-microlente peggiora. In ogni caso, anche ammesso che ciò non avvenga (sto diventando becero anche io ), ovvero, ammettendo che anche a TA un sensore aps-c abbia una risposta analoga ad un FF sull'intera superficie e tenendo conto solo del fenomeno della vignettatura visibile ai bordi, qualora il rapporto tra i rispettivi valori di caduta di luce sia di 1:3, allora l'aps-c compenserà nella stessa misura del FF, ossia, secondo i tuoi calcoli, di 0,5 eV circa (anche se è evidente che l'andamento delle compensazioni non è lineare neppure stando ai risultati sperimentali).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ora non che a me piaccia difendere questa teoria dell'apertura limitata dal pixel, ma a parte l'essere molto più verosimile di altre possibili spiegazioni, se nell'ambiente è conosciuto come problema noto (anche qui a parte DxO, c'è l'articolo della Stanford già citato e cercando come ti ho detto trovi approfondimenti benché non alla portata di tutti) e si trova che nelle pubblicazioni scientifiche non vi sono remore nel considerare il fenomeno, ma anzi sembra se ne tenga conto perfino per sviluppi futuri, non vedo il senso di "voltarsi da un'altra parte"...
quella dell'apertura limitata dei pixel non è una teoria ma è parte di un problema reale che si affronta nel momento in cui si fa operazione di scaling delle dimensioni. Ma non è l'unico problema. Ripeto, neppure con una tecnologia diversa dalla cmos FSI (citata nell'articolo della Stanford), neppure con pixel grandi o, addirittura, usando la pellicola (a meno che non si voglia considerare quest'ultima come un mezzo continuo, ma l'approssimazione sarebbe troppo becera) un'ottica f/1.2 si comporterebbe da f/1.2 reale. Una lente non è un sistema ideale e l'ottica geometrica spiega solo in prima approssimazione quello che succede; a questo aggiungi che qualunque fenomeno provochi una diminuzione della radiazione luminosa sulla "superficie utile" risulta più critico quando la superficie fotosensibile è più piccola e più scomoda da raggiungere. Infine, che un diaframma più aperto comporta una distribuzione meno uniforme della radiazione sul piano di cattura dell'immagine.
Per come la vedo, l'unica cosa che è cambiata, rispetto al passato, ovvero all'uso dell'analogico o dei sensori ccd di qualche anno fa, è che adesso ci si è resi conto del fenomeno solo perchè ci sono strumenti che hanno permesso di fare analisi più approfondite rispetto al passato anche ai non addetti ai lavori. Per il resto, mettere in un unico calderone i risultati di dxomark (che, ripeto, dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore), un articolo di Stanford che parla dei problemi connessi allo scaling geometrico dei pixel, i problemi di accoppiamento lente-sensore e, a questo punto, non vedo perchè tralasciare l'effetto blurring del filtro antimoire o gli effetti del filtro IR o, magari, come ho sentito da qualcuno, le aberrazioni introdotte dalle microlenti (che sono il rimedio e non la causa degli eventuali problemi di accoppiamento lente-sensore, soprattutto quando le dimensioni ddei sensori e dei pixel si riducono), non mi pare un modo di procedere troppo scientifico

Ultima modifica di yossarian : 28-12-2011 alle 18:21.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 29-12-2011, 13:43   #53
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
rileggendo l'articolo di dxomark in cui si parla delle misurazioni effettuate sui sensori con ottiche f/1.2 e f/1.4, mi sono venute in mente una serie di questioni.
nell'articolo si parla di una caduta di intensità luminosa rilevata ai bordi utilizzando ottiche luminose, ma manca un'analisi approfondita di un fenomeno, per altro già noto e che provoca altri effetti visibili come, ad esempio la vignettatura.
1) la "perdita di luce" avviene rispetto a cosa? Ad un ipotetico obiettivo ideale di uguale apertura e stessa trasmittanza? Rispetto al centro (e grazie, verrebbe da aggiungere )?
2) nell'articolo si afferma che il conseguente innalzamento degli ISO per compensare la "perdita di luce" provochi più rumore senza portare benefici. In realtà anche la stessa caduta di luce provoca un peggioramento del SNR e questo dovrebbe significare che i sensori che nel test presentano il fenomeno in maniera più accentuata dovrebbero presentare cifre di rumore più elevate. Se prendiamo sensori con caratteristiche analoghe (d200, d80, d60, d40x) scopriamo che, mentre, in teoria, tra d60, d40x e d200 a f/1.2 dovrebbe esserci quasi 1/2 eV di vantaggio, come rumore, a favore della terza, nei fatti, secondo le misurazioni di dxomark, le cose non stanno affatto così (anzi la d60 fa meglio della d200, anche se di poco). Discorso analogo per d300 e d300s e d3 e d3s. Se guardo poi questo , in cui ho inserito 7d e 550d (identico comportamento) e d200 (che dovrebbe fare meglio, almeno fino a 1600 iso), la cosa diventa imbarazzante. E' evidente che la "perdita di luce" e il fatto che la 7d "compensi" più della d200 non sono sufficienti a far registrare un SNR peggiore.
3) nel commento al primo grafico è riportato questo: This loss seems to increase when the pixel size decreases, as shown on the figure below.. Ora, scusami, ma la cosa è tutt'altro che evidente. sensori da quasi 8 micron di pixel pitch e per di più di tipo ccd, fanno peggio di altri da poco più di 4 micron di pixel pitch, per di più di tipo cmos FSI, ovvero il tipo trattato dall'articolo della Stanford perchè è quello che presenta le maggiori criticità ai bordi nelle operazioni di scaling geometrico. Anzi, a ben guardare, pare che i sensori ccd con pixel pitch di 8 micron sono quelli che si comportano peggio in assoluto
4) le fotocamere compensano la caduta di luce alzando gli ISO. 7d con f/1.2, caduta di luce di circa 0,95 eV (ossia quasi 1 eV, compensazione di circa 0,58; a f/1.4, light loss di 0,65, compensazione di 0,36 circa. Ovvero, con ottiche luminose, a partire da f/2.8, la aps-c hanno tutte tendenza a sottoesporre, visto che hanno la necessità di compensare ma compensano meno di quanto perdono? Con la 7d o con la 30d, a f/2.8 non ho mai avuto problemi di sottoesposizione. Quando proverò ottiche più luminose vedremo cosa succede.

Questo non significa girarsi dall'altra parte, anche perchè, lo ripeto, si tratta di un fenomeno già noto e che dà luogo anche ad effetti molto più visibili; è un fenomeno che esisteva già con la pellicola anche se non era possibile quantificarlo e che con i sensori digitali ha solo aggiunto qualche elemento in più.
Passando a cose più serie, ossia le pubblicazioni scientifiche, è evidente che questo (e altri) fenomeni, fossero già noti ben prima della "scoperta" dei tecnici di dxomark e non solo ai progettisti di lenti e sensori digitali (basta guardare le date degli articoli che si trovano online) .
Allo stesso modo, il vignetting e fenomeni di light fall, soprattutto in prossimità dei margini del frame, erano fenomeni noti ben prima dell'era digitale. Questo significa che, ad esempio, le microlenti, contrariamente a quanto scritto da chi ha iniziato il thread su dpreview, non sono la causa del vignetting ma, se mai, il rimedio: il pixel vignetting è solo una componente del fenomeno globale ed è l'unica imputabile al digitale ma microlenti progettate bene ne introducono poco ma, in compenso, aumentano notevolmente la capacità dei singoli pixel di catturare luce anche con angoli meno favorevoli; questo spiega il perchè, contrariamente a quanto affermato dai tecnici di dxomark, il teorema "pixel più grandi = meno light fall" non è valido in toto ma solo a parità di tecnologia (delle microlenti). Tra le altre cose, sempre il citato articolo di Stanford parla dei problemi connessi alle operazioni di scaling dimensionale dei pixel e, in particolare, alla necessità di progettare microlenti che non solo tendano a focalizzare la luce verso il centro del pixel, ma anche a guidarla in modo tale che raggiunga la parte fotosensibile dello stesso (con riferimento ai cmos di tipo aps FSI). Questo perchè, in caso contrario, si hanno due fenomeni: abbassamento dell'efficienza ottica del pixel (che ha come conseguenza il light fall) e accentuazione dei fenomeni di optical pixel crosstalk (ovvero interferenze tra radiazioni incidenti su pixel confinanti, da non confondere con il crosstalk di tipo elettronico). Questi fenomeni, ovviamente, sono tanto più presenti nelle zone periferiche, dove gli angoli di incidenza sono meno favorevoli e si accentuano al diminuire delle dimensioni dei pixel.
Solo poche righe su questo articolo; qui in parte è confermato l'oggetto del thread, ossia l'incremento della sensibilità per compensare le perdite di luminosità. In realtà, l'articolo è incentrato su un altro punto: ossia sulle manipolazioni che vengono fatte sui file RAW che, come ho ripetuto più volte, non solo in questo thread, sono tutt'altro che grezzi (e canon è, probabilmente, quella che manipola di meno i RAW).
Detto ciò, continuo a non vedere il presunto "complotto" o imbroglio a chiamalo come vuoi, da cui si salverebbero solo i produttori di pellicole perchè queste ultime non possono variare al volo gli ISO quando c'è una perdita di luminosità su parte del frame .
Piuttosto, guardando le date, vedo che la lettera aperta di LL è di ottobre 2010 e cita un articolo di dxolabs di fine novembre dello stesso anno

Ultima modifica di yossarian : 30-12-2011 alle 22:06.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 02-01-2012, 21:13   #54
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Avevo cominciato a risponderti al penultimo appena l'avevi scritto ma poi non avevo postato per impegni, ora vedo che in parte hai modificato l'intervento nell aprte finale e iniziale, oltre ad aver aggiunto un'intervento quindi pazienta se lo leggerò dopo e troverai in parte risposta anche al secondo.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
La "caduta di luce" avviene anche con la pellicola, ma non puoi scoprire il "trucco" andando a misurare la sensibilità perchè questa non varia. Tra pellicola e sensore le causa di perdita della luminosità sono le stesse, tranne che per un elemento
Esistono anche gli esposimetri esterni, che era quello che usava eurostar nella prova pellicola-sensore che si è persa nei meandri di quella discusssione. Sulla pellicola l'unica "caduta" è quella dovuta alla vignettatura "fisiologica" dell'obiettivo, solo il pixel con la sovrastruttura non esposta determina gli altri due fenomeni descritti nelle pubblicazioni.
  • Il primo colpisce tutti i pixel ed è il "limite di apertura numerica" cioè il fatto che l'apertura del pixel non sta dietro a quello che gli arriva dalla lente (cioè il colpevole di DxO) cito la pubblicazione:
    Quote:
    Originariamente inviato da http://www.imageval.com/public/Papers/EI%205678-01%20Peter%20Catrysse.pdf
    In summary, the microlens should have an f/# that is smaller than that of the imaging lens by a factor that depends on the desired concentration.
    The dilemma in pixel scaling for CMOS imagers is the following. Small pixel sizes require imaging lenses with small f/#s to obtain a sufficient photon supply at the sensor surface (see section Photon noise). Concentration of light onto the photosensitive area in small pixels requires a microlens with even smaller f/#. Given the small pixel aperture, the smaller f/# means shorter focal length. The focal length is determined by the sensor thickness (stack height). When CMOS technology scales, the lateral dimensions (e.g., transistor size and pixel size) shrink but the stack height usually increases.
    Quindi è un problema esasperato dalla porzione superficiale coperta dalla circuiteria e dalla profondità dello strato fotosensibile. La prima richiede maggiore concentrazione alla microlente e pone un vincolo sull'apertura della stessa, la seconda pone un vincolo sulla focale della microlente, di conseguenza la sua apertura numerica (tradotto per tutti è il diaframma o f-stop della microlente, anche se non sono propriamente la stessa cosa) ha un LIMITE TECNICO imposto da quei due fattori geometrici.
  • Il secondo colpisce i pixel periferici ed è il "pixel vignetting" cioè riorientare i raggi via via che ci si allontana dall'asse centrale, (un pixel sul bordo ha il paraocchi: analogamente a quanto succede con la lente per la luce che arriva dalle estremità che trova il barilotto e più vetro e perciò crea la vignettatura) e questo si somma al profilo di vignettatura fisiologica della lente; che questa aumenti sui sensori digitali è cosa già nota da tempo. Questa è sempre stata considerata la funzione principale delle microlenti perchè come ammettono nell'articolo sul primo problema sono vincolati (e suggeriscono infatti che nell'ideazione di sensori per immagini si privilegi una progettazione semplificata della circuiteria per contenere il problema).
    Quote:
    Originariamente inviato da http://www.imageval.com/public/Papers/EI%205678-01%20Peter%20Catrysse.pdf
    Given the difficulties associated with microlens design, the main purpose of the microlens array is no longer concentration. Rather, the most important function is the redirection of light onto the photodetector for off-axis pixels. To achieve proper redirection of light, the microlenses must be offset from the center of the pixel aperture.
    In parole povere alzano bandiera bianca sul risolvere il primo problema e si occupano più che altro del secondo, che è quello che consideri sempre anche te. MA QUESTO NON VUOL DIRE che il primo problema smette di esistere semplicemente perché non ci sono sforzi per compensarlo più di tanto con le microlenti, SOLO che c'è un limite tecnologico noto nelle tecnica delle microlenti.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
che in effetti è quello che sembrerebbe succedere con le FF nei casi più gravi (5d, 5d MII, 1Ds MIII e nesuna delle 3 dotata di particolari accorgimenti nella progettazione delle micorlenti).
No, aspetta il mezzo stop è contato (ripeto con approssimazioni che sovrastimano MOLTO) solo per una vignettatura su APS, su FF la vignettatura agli estremi raddoppia circa o più (vedi profili misurati da DxO per es. e prova ora a far tornare i tuoi ragionamenti! Ammiro l'impegno ma pure stavolta ti sei dimenticato dell'area: è un fenomeno che pesa di più quanto più ci si allontana dall'asse quindi sono peggio i sensori grandi). Quindi il paradosso è che la tua teoria coi miei conti alla carlona, direbbe che sulle FF la caduta dovrebbe essere addirittura superiore al misurato (riprova che sto sovrastimando molto l'effetto) mentre sulle APS molto inferiore al misurato (riprova che non è quello il fenomeno che spiega le differenze del grafico altrimenti la distribuzione sarebbe specchiata dall'altra parte con le FF in basso). L'unica conclusione del mio esempio è che sovrastimiamo MOLTO l'effetto della vignettatura sull'esposizione complessiva.
Invece la tendenza è concorde con la riduzione del pixel, così come previsto per il primo difetto quindi non vedo perché dovrei pensare a un fenomeno secondario (vignettatura) che non tiene conto di quell'andamento. A maggior ragione, poi, se c'è un aggravio della vignettatura col pixel vignetting, allora significa dare un peso ancora maggiore al primo difetto (che si arrendono perfino dal correggere a differenza dell'altro!) dato che hanno la medesima genesi.
Ovviamente non è solo la riduzione (pixel pitch) che influisce, ma anche questo è concorde col fatto che, come spiegato nell'articolo, dipende dalla tecnologia di produzione e dal progetto della microlente. Sicuramente sono state affinate diversamente negli anni (quante volte abbiamo sentito parlare di nuove lenti gapless o altri affinamenti come quelli a cui ti riferisci appunto), ciò può spiegare perché un modello più vecchio o di gamma inferiore a parità di pitch possa fare peggio.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
nei casi più gravi, chi si avvicina ad 1 eV sono i sensori aps-c; anzi sono convinto che, se nel grafico con apertura 1.2 fosse stata presente anche nikon, le varie d80, d40, ecc, avrebbero superato l'unità abbondantemente
Ma non hai guardato attentamente l'analisi di DxO? Certo che l'avrebbe superato è analogo al grafico dopo, la caduta a f/1.4 è solo ovviamente proporzionalmente minore a quella a f/1.2 però se osservi i grafici sono perfettamente IDENTICI come dispersione dei dati! Lì le Nikon guardacaso danno i risultati che prevedevamo cioè le più vecchie o quelle di fascia bassa (microlenti meno affinate: l'hai appena fatto pure te il discorso ) fanno peggio nonostante il pixel pitch.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Ripeto di nuovo gli esempi citati: d200 e d80, così come 30d e 20d hanno lo stesso sensore (quando dico stesso intendo identico), con lo stesso tipo di microlenti
Mi ricollego a questo, lo so che dicevi d200/d80 probabilmente a parità di sensore sul modello top gamma all'epoca mettevano microlenti migliori e invece dopo con d300/d90/d300s erano rientrati e non valeva più la pena differenziare. Tra 30D e 20D c'è un po' di differenza, ma tra 20D e la 350D di fascia bassa ma uscita quasi in contemporanea NO, magari quando hanno sostituito il modello x0D 18 mesi dopo avevano affinato le microlenti nel processo produttivo (costerà sicuramente meno cambiare l'ultimo piuttosto che riprogettare tutti i processi litografici del sensore). Lo stesso si può dire per altri casi: fra 7D e 550D (18Mpx) c'è differenza (come tra 20D e 30D) e pure lì quella della generazione dopo fa meglio, ma ad esempio fra 50D e 500D (15Mpx) NO, un altro caso esmplare che non muta è D40X/D60 (10Mpx) che sono praticamente la stessa macchina (con la D80 attaccata pure), così come D50/D70/D40 (6Mpx). Anche k20d e k-7 hanno lo stesso identico sensore a sentito comune, peccato che uno può fare i video e l'altro no quindi NON è sicuramente lo stesso identico sensore! Certo non è come passare dal bianco al nero, esistono i toni di grigio: non avranno riprogettato tutto ma qualcosa ogni tanto affinano. D'altronde come fai ad essere sicuro di cosa facciano nella produzione e che mantengano sempre lo stesso protocollo dall'inizio alla fine in tutti i casi simili? Di sicuro non vengono a dircelo a noi! Perfino quando riutilizzano lo stesso sensore (Sony) su più fotocamere a distanza di 6 mesi o un anno, a me vengono seri e fondati dubbi non possa essere stato affinato qualcosa, visto come a volte cambia la QI.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
l'articolo parla solo dei sensori di tipo aps FSI e, infatti, parla dell'indirizzamento della luce al'interno del tunnel che conduce al fotodiodo. Però, dalle rilevazioni fatto con dxomark, lo stesso problema si riscontra con i CCD, anzi, a dire il vero, quelli si comportano peggio sono proprio questi ultimi
Riguardo le tipologie di CMOS, visto che so trovi interessanti queste cose, in un'altro della bibliografia [19] del 2000 (citato nel nostro di riferimento trovato da Mercuri0), fa proprio un paragone fra tecnologia APS e DPS per mostrare come l'aggiunta complessità riduce la OE. Ti ho tenuto per ultimo il discorso CCD, perché l'articolo a cui ci riferiamo è sui CMOS e ovviamente si riferisce a quelli, ma nel [13] della bibliografia ad esempio che è uno studio sul calcolo della OE, accenna che è un problema generale.
Quote:
Originariamente inviato da Optical efficiency of image sensor pixels
Experimental evidence shows that OE can be a significant factor when an image sensor pixel is implemented by using either charge-coupled-device (CCD) or CMOS technology.
Non ci voleva molto a intuirlo, visto che anche nei CCD la parte sensibile non occupa comunque tutta la superficie del pixel (tra l'altro è questo che distingue i sensori dalla pellicola, là non hai questi problemi perché non hai microlenti con la loro NA), anche perché comunque le microlenti ce le hanno pure i ccd proprio per migliorare l'efficienza, come può indovinare chiunque. Io sta cosa è dall'inizio che la ripeto, anche se LL l'ha fatta passare in secondo piano (essendo stati i primi contattati da DxO probabilmente avranno visto solo i primi dati delle Canon) e addirittura su pentaxiani mi pare questo pensiero distorto stia sfociando nella leggenda che le vecchie col CCD ne siano immuni.. Quando dico che le prove sono più affidabili se fatte da laboratori c'è un motivo..

Ultima modifica di Chelidon : 02-01-2012 alle 22:01.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 02-01-2012, 23:48   #55
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Avevo cominciato a risponderti all'ultimo ma non avevo postato per impegni, ora vedo che in parte hai modificato l'ultima riga e aggiunto un'intervento quindi pazienta se lo leggerò dopo e troverai in parte risposta anche al secondo.
Esistono anche gli esposimetri esterni, che era quello che usava eurostar nella prova pellicola-sensore che si è persa nei meandri di quella discusssione. Sulla pellicola l'unica "caduta" è quella dovuta alla vignettatura "fisiologica" dell'obiettivo, solo il pixel con la sovrastruttura non esposta determina gli altri due fenomeni descritti nelle pubblicazioni.
Il primo colpisce tutti i pixel ed è il "limite di apertura numerica" cioè il fatto che l'apertura del pixel non sta dietro a quello che gli arriva dalla lente (cioè il colpevole di DxO) cito la pubblicazione:

Quindi è un problema esasperato dalla porzione superficiale coperta dalla circuiteria e dalla profondità dello strato fotosensibile. La prima richiede maggiore concentrazione alla microlente e pone un vincolo sull'apertura della stessa, la seconda pone un vincolo sulla focale della microlente, di conseguenza la sua apertura numerica (tradotto per tutti è il diaframma o f-stop della microlente, anche se non sono propriamente la stessa cosa) ha un LIMITE TECNICO imposto da quei due fattori geometrici.
Il secondo colpisce i pixel periferici ed è il "pixel vignetting" cioè riorientare i raggi via via che ci si allontana dall'asse centrale, (un pixel sul bordo ha il paraocchi: analogamente a quanto succede con la lente per la luce che arriva dalle estremità che trova il barilotto e più vetro e perciò crea la vignettatura) e questo si somma al profilo di vignettatura fisiologica della lente; che questa aumenti sui sensori digitali è cosa già nota da tempo. Questa è sempre stata considerata la funzione principale delle microlenti perchè come ammettono nell'articolo sul primo problema sono vincolati (e suggeriscono infatti che nell'ideazione di sensori per immagini si privilegi una progettazione semplificata della circuiteria per contenere il problema).

In parole povere alzano bandiera bianca sul risolvere il primo problema e si occupano più che altro del secondo, che è quello che consideri sempre anche te. MA QUESTO NON VUOL DIRE che il primo problema smette di esistere semplicemente perché non ci sono sforzi per compensarlo più di tanto con le microlenti, SOLO che c'è un limite tecnologico noto nelle tecnica delle microlenti.
veramente l'articolo dice un'altra cosa: mette in relazione l'apertura delle microlenti e quella dell'ottica al variare delle dimensioni dei pixel del sensore e dice che al diminuire di queste dimensioni, per compensare la diminuzione di concentrazione di luce sulla superficie del singolo pixel è necessario adottare microlenti con aperture numeriche inferiori ma questo porta come conseguenza che deve diminuire anche la lunghezza focale, cosa che, di fatto, non avviene, poichè le operazioni di scaling difficilmente coinvolgono la struttura verticale del sensore (sicuramente non la coinvolgono nella stessa misura di quelle orizzontali). Questo significa che hai pixel più piccoli ma con la stessa lunghezza focale o che, comunque,il rapporto tra dimensioni del pixel e lunghezza focale diminuisce; adottare microlenti con apertura inferiore provoca, in queste situazioni, il fenomeno del crosstalk ottico tra pixel contigui. Per evitare che ciò accada, piuttosto che focalizzare gli sforzi sulla riduzione dell'apertura numerica delle microlenti, si cerca di ridurre il fenomeno del crosstalk attraverso barriere (che si comportano allo stesso idenico modo delle pareti di una fibra ottica) poste lungo le pareti del canale che dalla superficie del pixel porta al fotodiodo. Tutta questa menata, però, è riferita solo ed esclusivamente, ai cmos aps con tecnologia FSI. Per i ccd e i cmos BSI questo non vale per il semplice motivo che non esiste un canale tra superifice del sensore e parte fotosensibile, poichè la parte fotosensibile è posta al di sopra dei circuiti elettronici. Le conseguenze sono che ccd e cmos BSI hanno una OE notevolmente superiore ai cmos FSI a parità di dimensioni, ma non c'è modo di evitare il fenomeno del crosstalk ottico. Lo stesso succede con i sensori x3 di foveon.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
No, aspetta il mezzo stop è contato (ripeto con approssimazioni che sovrastimano MOLTO) solo per una vignettatura su APS, su FF la vignettatura agli estremi raddoppia circa o più (vedi profili misurati da DxO per es. e prova ora a far tornare i tuoi ragionamenti! Ammiro l'impegno ma pure stavolta ti sei dimenticato dell'area: è un fenomeno che pesa di più quanto più ci si allontana dall'asse quindi sono peggio i sensori grandi). Quindi il paradosso è che la tua teoria coi miei conti alla carlona, direbbe che sulle FF la caduta dovrebbe essere addirittura superiore al misurato (riprova che sto sovrastimando molto l'effetto) mentre sulle APS molto inferiore al misurato (riprova che non è quello il fenomeno che spiega le differenze del grafico altrimenti la distribuzione sarebbe specchiata dall'altra parte con le FF in basso). L'unica conclusione del mio esempio è che sovrastimiamo MOLTO l'effetto della vignettatura sull'esposizione complessiva.
Invece la tendenza è concorde con la riduzione del pixel, così come previsto per il primo difetto quindi non vedo perché dovrei pensare a un fenomeno secondario (vignettatura) che non tiene conto di quell'andamento. A maggior ragione, poi, se c'è un aggravio della vignettatura col pixel vignetting, allora significa dare un peso ancora maggiore al primo difetto (che si arrendono perfino dal correggere a differenza dell'altro!) dato che hanno la medesima genesi.
il fatto che il tuo ragionamento fosse riferito all'aps-c (aps sono tutti i formati di cmos attuali, pochè sta active pixel sensor, quindi vale per i c, hli h e i ff ) non sposta di una virgola le mie considerazioni che sono basate sul rapporto tra la QE del singolo pixel e la caduta di luce misurata da dxomark. Ripeto il concetto: a parità di tecnologia di sensori e microlenti, tra una d3 e una d300 c'è un rapporto di QE pari a 3:1. Se consideriamo solo la vignettatura fisica (ma non è l'unico fattore) sarebbe necessaria una perdita di luce 3 volte superiore sui bordi di una FF per far registrare gli stessi valori da dxomark e spingere allo stesso livello di livello di compensazione una FF .

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ovviamente non è solo la riduzione (pixel pitch) che influisce, ma anche questo è concorde col fatto che, come spiegato nell'articolo, dipende dalla tecnologia di produzione e dal progetto della microlente. Sicuramente sono state affinate diversamente negli anni (quante volte abbiamo sentito parlare di nuove lenti gapless o altri affinamenti come quelli a cui ti riferisci appunto), ciò può spiegare perché un modello più vecchio o di gamma inferiore a parità di pitch possa fare peggio.
le microlenti gapless vanno proprio in direzione contraria alla riduzione dell'apertura numerica al diminuire delle dimensioni. O meglio, al diminuire delle dimensioni, invece di ridurre proporzionalmente l'apertura numerica con la conseguenza di lasciare aree del sensore non coperte da microlenti, si preferisce coprire l'intera superficie del sensore e, a livello di canali interni, guidare la luce sul fotodiodo per evitare il crosstalk. IN seguito sarà chiaro perchè ho tirato in ballo i CCD.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ma non hai guardato attentamente l'analisi di DxO? Certo che l'avrebbe superato è analogo al grafico dopo, la caduta a f/1.4 è solo ovviamente proporzionalmente minore a quella a f/1.2 però se osservi i grafici sono perfettamente IDENTICI come dispersione dei dati! Lì le Nikon guardacaso danno i risultati che prevedevamo cioè le più vecchie o quelle di fascia bassa (microlenti meno affinate: l'hai appena fatto pure te il discorso ) fanno peggio nonostante il pixel pitch.
http://www.dxomark.com/itext/insights_tstop/Tstop1.jpg
Mi ricollego a questo, lo so che dicevi d200/d80 probabilmente a parità di sensore sul modello top gamma all'epoca mettevano microlenti migliori e invece dopo con d300/d90/d300s erano rientrati e non valeva più la pena differenziare. Tra 30D e 20D c'è un po' di differenza, ma tra 20D e la 350D di fascia bassa ma uscita quasi in contemporanea NO, magari quando hanno sostituito il modello x0D 18 mesi dopo avevano affinato le microlenti nel processo produttivo (costerà sicuramente meno cambiare l'ultimo piuttosto che riprogettare tutti i processi litografici del sensore). Lo stesso si può dire per altri casi: fra 7D e 550D (18Mpx) c'è differenza (come tra 20D e 30D) e pure lì quella della generazione dopo fa meglio, ma ad esempio fra 50D e 500D (15Mpx) NO, un altro caso esmplare che non muta è D40X/D60 (10Mpx) che sono praticamente la stessa macchina (con la D80 attaccata pure), così come D50/D70/D40 (6Mpx). Anche k20d e k-7 hanno lo stesso identico sensore a sentito comune, peccato che uno può fare i video e l'altro no quindi NON è sicuramente lo stesso identico sensore! Certo non è come passare dal bianco al nero, esistono i toni di grigio: non avranno riprogettato tutto ma qualcosa ogni tanto affinano.
li ho guardati molto bene, anzi ho fatto di più; li ho confrontati con i grafici relativi al rumore
Un sensore identico ad un altro, con microlenti migliori, a parità di iso, fa segnare SNR più elevati a causa della maggior OE e del miglior contenimento del crosstalk (nel caso dei cmos FSI). Invece, prendendo le stesse misurazioni di dxolabs, questo non avviene; in alcuni casi il comportamento è identico, in altri, addirittura, venno meglio quelli che fanno registrare cadute di luce più elevate. Scusa tanto, ma i conti non tornanno affatto .
In quanto alla tipologia dei sensori, quello della d200 e quello della d80 differiscono solo leggerissimamente a livello di dimensioni lineari, pur conservando la stessa area e le stesse dimensioni dei singoli pixel, in quanto la d200 ha 4 readout channel contro i 2 della d80. Tra 20d e 30d il sensore è lo stesso, mentre è leggermente differente quello della 350d. Il fatto che la k7 faccia i video e la k20 no non ha alcun significato: in una fotocamera non è il sensore l'unica componente elettronica presente; prensìdi un pc senza un codec, ad esempio, per il formato AVCHD e poi prendine uno identico dotato del codec necessario. L'hardware è lo stesso, le funzionalità no
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
D'altronde come fai ad essere sicuro di cosa facciano nella produzione e che mantengano sempre lo stesso protocollo dall'inizio alla fine in tutti i casi simili? Di sicuro non vengono a dircelo a noi! Perfino quando riutilizzano lo stesso sensore (Sony) su più fotocamere a distanza di 6 mesi o un anno, a me vengono seri e fondati dubbi non possa essere stato affinato qualcosa, visto come a volte cambia la QI.
non necessariamente a livello hardware. Due sensori identici con identiche microlenti, identico filtro antimoire e, per giunta, stesso processore, non implicano la stessa QI. Questo può dirtelo chiunque abbia qualche nozione di elettronica digitale. Se, ad esempio, traslo verso sinistra il valore di offset della dark current, ottengo una riduzione della relativa componente di rumore, con la conseguenza che il sistema tende a "piallare" tutti i dettagli fini anche sui file RAW. Il tutto viene fatto semplicemnete impostando valori di offset differenti a livello software

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Riguardo le tipologie di CMOS, visto che so trovi interessanti queste cose, in un'altro della bibliografia [19] del 2000 (citato nel nostro di riferimento trovato da Mercuri0), fa proprio un paragone fra tecnologia APS e DPS per mostrare come l'aggiunta complessità riduce la OE. Ti ho tenuto per ultimo il discorso CCD, perché l'articolo a cui ci riferiamo è sui CMOS e ovviamente si riferisce a quelli, ma nel [13] della bibliografia ad esempio che è uno studio sul calcolo della OE, accenna che è un problema generale.
l'articolo che hai linkato fa un paragone tra cmos a 2 layer e cmos a 4 layer. APS sta per active pixel sensor ed è contrapposto a PPS, ovvero la tipologia di sensori con tecnologia mos di tipo passivo inizialmente messi sul mercato, estremamente economici, che si basavano su un principio di funzionamento analogo a quello dei ccd avendo una OE ed una QE decisamente inferiori. Gli aps hanno circuiti di ampificazione, lettura dei valori di soglia per ogni pixel e digitalizzazione sul sensore. DPS sta semplicemente per digital pixel sensor (oovero fa riferimento a tutti i tipi di sensore digitale) ma, nell'articolo, fa riferimento a cmos con 4 layer di tipo metallico, usati per le interconnessioni e come parziale guida d'onda della radiazione all'interno del tunnel tra superficie del sensore e fotodiodo, ovvero quello di cui parlavo prima; nello specifico si usa una barriera di tipo metallico perchè risulta più efficiente di una basata sulle riflessioni indotte da materiali con differenti indici di rifrazione e, a dirla tutta, oggi l'estensione di questa barriera arriva ben oltre lo spessore del layer n°4 indicato nell'articolo linkato, arrivando fin quasi al livello del fotodiodo. Tra l'altro, tra le soluzioni proposte per ridurre il pixel vignetting, alla fine dello stesso articolo, c'è proprio l'adozione di microlenti (ripeto: sono lka soluzione e non il problema).
p.s. non è che i cmos mi piacciono tanto. Personalmente non li trovo particolarmente attraenti; il fatto è che fanno parte del mio lavoro, quindi, comunque, devo averci a che fare, anche non volendo

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Non ci voleva molto a intuirlo, visto che anche nei CCD la parte sensibile non occupa comunque tutta la superficie del pixel
"tutta no, ma buona parte si" . Prendi un ccd full frame transfer, di sicuro non ha la stessa OE di un frame transfer o di un interline transfer. Nel primo caso, la porzione di superficie non occupata da elementi fotosensibili e decisamente piccola in percentuale rispetto alla superficie totale.
Quote:
Originariamente inviato da Chelidon Guarda i messaggi

tra l'altro è questo che distingue i sensori dalla pellicola,
neppure la superficie della pellicola è completamente fotoassorbente, anzi. Il numero di fotorecettori non è infinito e non rappresentano un continuum, il che significa che buona parte della radiazione incidente non viene catturata dalla superficie e gli errori imputabili a raggi non perpendicolari alla superficie compaionjo allo stesso modo di quanto avviene con il crosstalk ottica nei sensori digitali. La perdita di luce con la pellicola, di conseguenza, non si limita al solo vignetting fisico, imputabile alla geometria della lente.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

là non hai questi problemi perché non hai microlenti con la loro NA anche perché comunque le microlenti ce le hanno pure loro proprio per migliorare l'efficienza, come può indovinare chiunque. Io sta cosa è dall'inizio che la ripeto, anche se LL l'ha fatta passare in secondo piano (essendo stati i primi contattati da DxO avevano visto solo i primi dati delle Canon) e addirittura su pentaxiani mi pare questo pensiero distorto stia sfociando nella leggenda che le vecchie col CCD ne siano immuni.. Quando dico che le prove sono più affidabili se fatte da laboratori c'è un motivo..
continui a partire dall'assunto che le microlenti siano il problema, mentre invece sono la soluzione. La pellicola si comporta ben peggio dei sensori digitali nei confronti del rumore, presenta una superficie fotoasorbente NON CONTINUA (benchè si definisca analogico) e non può essere dotata di microlenti (che sono un vantaggio per una superficie fotoassorbente non continua e non una svantaggio).
In quanto alle prove, andrebbero fatte in laboratorio, ma sapendo cosa si va a misurare, cosa che spesso non avviene (e mi riferisco anche alle prove fatte con dxomark)

Ultima modifica di yossarian : 03-01-2012 alle 02:57.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 03-01-2012, 00:12   #56
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Soc! Ma sai che non riesco a capire se fai fatica a crederci per un pregiudizio duro a morire o semplicemente non leggi attentamente gli articoli!? Comunque in un caso o nell'altro non capisco (visto che so che sui sensori in genere sei molto interessato ) perché non ti assicuri di avere considerato bene tutto prima di scrivere..
Quote:
Originariamente inviato da yossarian Guarda i messaggi
guardando le date, vedo che la lettera aperta di LL è di ottobre 2010 e cita un articolo di dxolabs di fine novembre dello stesso anno
Ad esempio qua ti saresti risparmiato la battuta, visto che spiegano proprio nella lettera che hanno avuto contatti con DxO, che gli ha fatto notare per primi i risultati che poi hanno reso pubblici...
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Per il resto, mettere in un unico calderone i risultati di dxomark (che, ripeto, dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore), un articolo di Stanford che parla dei problemi connessi allo scaling geometrico dei pixel, i problemi di accoppiamento lente-sensore e, a questo punto, non vedo perchè tralasciare l'effetto blurring del filtro antimoire o gli effetti del filtro IR
A me pare ovvio che nell'articolo di Stanford la parte che interessa a noi sia solo il discorso delle microlenti e che il lettore accorto scarti il resto dei ragionamenti. T:
Spero di non sembrare che ci vada giù pesante, ma il calderone lo fai te, se vai a tirare in ballo fenomeni che non causano la perdità di esposizione riscontrata, ma semplicemente difetti nell'immagine o altre cose che nulla centrano.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
rileggendo l'articolo di dxomark in cui si parla delle misurazioni effettuate sui sensori con ottiche f/1.2 e f/1.4, mi sono venute in mente una serie di questioni.
nell'articolo si parla di una caduta di intensità luminosa rilevata ai bordi utilizzando ottiche luminose, ma manca un'analisi approfondita di un fenomeno, per altro già noto e che provoca altri effetti visibili come, ad esempio la vignettatura.
Non c'è l'analisi che chiedi perché non parlano da nessuna parte di una caduta ai bordi! Mi chiedo dove lo leggi visto che ti sei fissato un po' su questo, comunque rileggi l'ultimo mio intervento, dove ti ho fatto notare che il fenomeno che ipotizzi non spiega la distribuzione dei dati, se ancora non sei convinto.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
la "perdita di luce" avviene rispetto a cosa? Ad un ipotetico obiettivo ideale di uguale apertura e stessa trasmittanza? Rispetto al centro (e grazie, verrebbe da aggiungere )?
Quote:
Originariamente inviato da yossarian Guarda i messaggi
dicono, eventualmente, solo di quanto la fotocamera corregge ma non danno indicazioni sulla reale caduta di luce su quel sensore
Sul fatto che sono stati molto ermetici in quella paginetta ti do certamente ragione e anch'io mi sarei aspettato un approfondimento più chiaro e scientifico (ma non sarebbe la prima volta che in un secondo momento sull'ondata di richieste chiariscono le procedure tenute e articolino meglio la fondatezza delle loro conclusioni, ad esempio come in questo caso ). Però, se ti dai da fare e cerchi un attimo, mi pare piuttosto scontato che siano i dati aggregati presi dai loro database con due tipologie di misurazione distinte:
  • una è il delta di esposizione rispetto a quella prevista nella progressione degli stop per aperture grandi (si riferiscono a misure di T-stop al variare dell'apertura e dicono che la differenza si presenta sopra f/2, anche se a supporto mettono solo i due grafici per f/1.2 e f/1.4). Infatti, se ti vai a guardare le loro prove di trasmittanza degli obiettivi a TA sono concordi con quei dati: col 50/1.2 a TA la 450D fa T-1.7 mentre la 5D fa T-1.4.
  • l'altra è portata a sostegno del fatto che le case conoscono il problema ed è concettualmente una verifica dello standard ISO quando varia l'apertura sopra f/2.8 tipo quelle che usano per i punti delle curve ISO.
In entrambi i casi puoi farti un'idea del protocollo che utilizzano, se ti leggi quei due link che ti ho messo, dove spiegano come fanno le misure e mi sembra siano sicuramente più precise e affidabili di quelle degli utenti (che comunque finora confermano quelle di DxO).
Quote:
Originariamente inviato da yossarian Guarda i messaggi
2) nell'articolo si afferma che il conseguente innalzamento degli ISO per compensare la "perdita di luce" provochi più rumore senza portare benefici. In realtà anche la stessa caduta di luce provoca un peggioramento del SNR e questo dovrebbe significare che i sensori che nel test presentano il fenomeno in maniera più accentuata dovrebbero presentare cifre di rumore più elevate.
Stai parlando dei punteggi di DxO dati alle fotocamere per il rumore, immagino. Scusa ma trovo il discorso poco chiaro e mi sembra ci sia una trave gigantesca a cui non fai caso qui ma dopo sì: cioè che bisogna considerare anche la tecnologia del sensore che ovviamente ha ripercussioni sull'SNR. Sia con questo punto che col successivo mi sembra di averti già risposto nel precedente intervento.
Sul punto 4) hai ragione: l'amplificazione non trasparente dell'ISO è solo un pagliativo e non corregge interamente la perdita, ma mi chiedo anche quanti noterebbero comunque che un'obiettivo del genere perda 0,4-0,3 EV solo a tutta apertura! Occhio a f/2 e f/2.8 la perdità si riduce e sfido se c'è chi con una scena varia (non lo sfondo uniforme di un test) riesca a distinguere differenze di esposizione inferiori al quarto di stop e abbia l'accortezza mentale di collegare tutti i pezzi del puzzle fino a notare che è un problema che capita solo col costoso obiettivo luminoso a TA!

A parte il discorso che ti ho già fatto che sulla pellicola hai solo vignettatura e non problemi dovuti a pixel che non ci sono proprio! Visto che i fenomeni che abbiamo descritto sorgono perché l'area sensibile non coincide con l'area del pixel: per questo servono le microlenti proprio come fai notare tu. Su tutto quello dopo sono perfettamente d'accordo e l'ho letto anch'io: le microlenti hanno un ruolo fondamentale e a detta dei "tecnici" per ora in parte sono l'anello debole che va migliorato e limita sia l'integrazione esagerata (DPS) che scalare Mpx.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Detto ciò, continuo a non vedere il presunto "complotto" o imbroglio a chiamalo come vuoi, da cui si salverebbero solo i produttori di pellicole perchè queste ultime non possono variare al volo gli ISO quando c'è una perdita di luminosità su parte del frame
A parte che l'imbroglio deriva dal fatto di alzare la sensibilità senza comunicarlo e ciò è imbroglio non rispetto alla pellicola, quanto piuttosto rispetto alle lenti più buie che non ne hanno bisogno e costano esponenzialmente molto meno. Come fatto notare da chi ha sollevato la questione.
Dimentichi che ora non è che la situazione sia scegli o la tecnologia pellicola o quella sensore. Dato che c'è stato un ordine temporale e ora i secondi hanno soppiantato la prima, anche grazie ad un certo numero di vantaggi (ben sottolineati dalla pubblicità quando si trattava di fare il passaggio), si potrebbe notare che i fenomeni descritti siano uno svantaggio degli attuali sensori (benché palesemente noto stranamente sottaciuto) e sotto questa luce (come ho già fatto notare indietro) si capisce il vespaio di polemiche di LL e altri che quel passaggio l'hanno conosciuto.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 03-01-2012, 00:54   #57
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
A me pare ovvio che nell'articolo di Stanford la parte che interessa a noi sia solo il discorso delle microlenti e che il lettore accorto scarti il resto dei ragionamenti. T:
Spero di non sembrare che ci vada giù pesante, ma il calderone lo fai te, se vai a tirare in ballo fenomeni che non causano la perdità di esposizione riscontrata, ma semplicemente difetti nell'immagine o altre cose che nulla centrano.
sull'articolo di stanford ho risposto sopra e lo ripeto: parla di scaling delle dimensioni lineari dei pixel DI TIPO APS FSI e non di altre tipologie di sensori digitali. Nell'articolo di stanford si parla della necessità di "guidare" la radiazione verso la parte fotosensibile facendole attraversare il tunnel che la separa dalla superficie del sensore. Ora, probabilmente capisco la tua difficoltà nell'identificare la tipologia di sensore a cui si riferisce, poichè i non addetti ai lavori non sanno che queste considerazini non sono applicabili ai cmos BSI, agli X3 e ai ccd. Quindi, stai prendendo un articolo che parla di una tipologia specifica di sensori e stai estendendo le conclusioni ad altre tipologie per cui l'articolo di stanford non trova applicazione. Inoltre, gli articoli citati parlano di dimensioni di 3 e 1,2 micron per pixel rispettivamente (parliamo di reflex o di compatte?)

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Non c'è l'analisi che chiedi perché non parlano da nessuna parte di una caduta ai bordi! Mi chiedo dove lo leggi visto che ti sei fissato un po' su questo, comunque rileggi l'ultimo mio intervento, dove ti ho fatto notare che il fenomeno che ipotizzi non spiega la distribuzione dei dati, se ancora non sei convinto.
veramente non vedo nessun tipo di analisi ma solo una serie di dati messi li, riferiti ad un effetto già noto da tempo (e presente anche con la pellicola), dovuti, principalmente, alla non continuità della superficie di cattura della luce. Da questo punto di vista, un ccd full frame transfer, anche senza microlenti, presenta una superficie con caratteristiche di OE (equivalente) superiore a quella della miglior pellicola. Se vuoi un'analisi un po' più approfondita, magari guardati i risultati dell'Imatest.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Sul fatto che sono stati molto ermetici in quella paginetta ti do certamente ragione e anch'io mi sarei aspettato un approfondimento più chiaro e scientifico (ma non sarebbe la prima volta che in un secondo momento sull'ondata di richieste chiariscono le procedure tenute e articolino meglio la fondatezza delle loro conclusioni, ad esempio come in questo caso ). Però, se ti dai da fare e cerchi un attimo, mi pare piuttosto scontato che siano i dati aggregati presi dai loro database con due tipologie di misurazione distinte:
  • una è il delta di esposizione rispetto a quella prevista nella progressione degli stop per aperture grandi (si riferiscono a misure di T-stop al variare dell'apertura e dicono che la differenza si presenta sopra f/2, anche se a supporto mettono solo i due grafici per f/1.2 e f/1.4). Infatti, se ti vai a guardare le loro prove di trasmittanza degli obiettivi a TA sono concordi con quei dati: col 50/1.2 a TA la 450D fa T-1.7 mentre la 5D fa T-1.4.
  • l'altra è portata a sostegno del fatto che le case conoscono il problema ed è concettualmente una verifica dello standard ISO quando varia l'apertura sopra f/2.8 tipo quelle che usano per i punti delle curve ISO.
In entrambi i casi puoi farti un'idea del protocollo che utilizzano, se ti leggi quei due link che ti ho messo, dove spiegano come fanno le misure e mi sembra siano sicuramente più precise e affidabili di quelle degli utenti (che comunque finora confermano quelle di DxO).
lo ripeto per l'ennesima volta: quelli di dxolabs hanno scoperto l'acqua calda . Un'ottica più aperta, soprattutto con un barilotto non troppo lungo, ha più difficoltà a convogliare la luce in modo parallelo all'asse dell'obiettivo verso la superficie del sensore. Questo significa che molti raggi raggiungono la superficie fotoassorbente con angoli non ottimali e parte dell'informazione viene persa per tutta una serie di fenomeni di cui i più evidenti sono spiegabili con l'ottica geometrica e si manifestano, in particolare, nelle zone del sensore più distanti dal centro. Questo avviene perchè la superficie di cattura non è continua e omogenea ma vale con qualunque mezzo, analogico o digitale. La cosa paradossale è che si punta il dito contro le microlenti e la loro ridotta NA per giustificare il fenomeno. Ora, non mi pare troppo difficile capire che ciò che serve a focalizzare la luce sulla parte fotosensibile non può essere responsabile del fatto che la luce obliqua non arrivi sulla parte fotosensibile. Immaginiamo una serie di raggi obliqui che colpisce una superficie fotosensibile. Tutti quelli che cadono al di fuori dell'area atta a catturare la luce sono irrimediabilmente persi. Questo vale tanto per un sensore digitale quanto per una pellicola fotografica. Una microlente, per quanto scarsa, riesce a catturare parte (piccolissima?, sempre meglio di niente) di questa luce e a deviarla verso la superficie fotosensibile. Questo è un passo avanti non un passo indietro.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Stai parlando dei punteggi di DxO dati alle fotocamere per il rumore, immagino. Scusa ma trovo il discorso poco chiaro e mi sembra ci sia una trave gigantesca a cui non fai caso qui ma dopo sì: cioè che bisogna considerare anche la tecnologia del sensore che ovviamente ha ripercussioni sull'SNR. Sia con questo punto che col successivo mi sembra di averti già risposto nel precedente intervento.
ma anche no, visto che ho paragonato, di proposito, sensori identici sotto tutti i punti di vista.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Sul punto 4) hai ragione: l'amplificazione non trasparente dell'ISO è solo un pagliativo e non corregge interamente la perdita, ma mi chiedo anche quanti noterebbero comunque che un'obiettivo del genere perda 0,4-0,3 EV solo a tutta apertura! Occhio a f/2 e f/2.8 la perdità si riduce e sfido se c'è chi con una scena varia (non lo sfondo uniforme di un test) riesca a distinguere differenze di esposizione inferiori al quarto di stop e abbia l'accortezza mentale di collegare tutti i pezzi del puzzle fino a notare che è un problema che capita solo col costoso obiettivo luminoso a TA!
nessuno; infatti, con l'analogico, avveniva lo stesso ma non era possibile rendersene conto e nessuno si è mai lamentato

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
A parte il discorso che ti ho già fatto che sulla pellicola hai solo vignettatura e non problemi dovuti a pixel che non ci sono proprio! Visto che i fenomeni che abbiamo descritto sorgono perché l'area sensibile non coincide con l'area del pixel: per questo servono le microlenti proprio come fai notare tu. Su tutto quello dopo sono perfettamente d'accordo e l'ho letto anch'io: le microlenti hanno un ruolo fondamentale e a detta dei "tecnici" per ora in parte sono l'anello debole che va migliorato e limita sia l'integrazione esagerata (DPS) che scalare Mpx.
non cambia un bel niente; la pellicola non ha i pixel ma ha una superficie granulare e tra un grano e l'altro c'è un mezzo non fotoassorbente e, quindi, del tutto inutile ai fini della cattura della luce; in più, la pellicola non ha neppure le microlenti. Ad essere pignoli sta messa pure peggio

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
A parte che l'imbroglio deriva dal fatto di alzare la sensibilità senza comunicarlo e ciò è imbroglio non rispetto alla pellicola, quanto piuttosto rispetto alle lenti più buie che non ne hanno bisogno e costano esponenzialmente molto meno. Come fatto notare da chi ha sollevato la questione.
Dimentichi che ora non è che la situazione sia scegli o la tecnologia pellicola o quella sensore. Dato che c'è stato un ordine temporale e ora i secondi hanno soppiantato la prima, anche grazie ad un certo numero di vantaggi (ben sottolineati dalla pubblicità quando si trattava di fare il passaggio), si potrebbe notare che i fenomeni descritti siano uno svantaggio degli attuali sensori (benché palesemente noto stranamente sottaciuto) e sotto questa luce (come ho già fatto notare indietro) si capisce il vespaio di polemiche di LL e altri che quel passaggio l'hanno conosciuto.
nessuno sottace niente; in rete ci sono centinaia di articoli che parlano dei problemi di focalizzazione della luce incidente con angoli non favorevoli su una superficie fotosensibile. Con la pellicola non potevi prendere nessun tipo di provvedimento, con il digitale puoi fare misurazioni più accurate, vedendo quello che realmente avviene a livello di sensore e non basandosi su misurazioni di un esposimetro esterno che non dà alcuna informazione sul comportamento della superficie fotoassorbente ma solo nozioni sul suo comportamento presunto in base alla luce in arrivo misurata e, infine, è possibile cercare di prendere provvedimenti agendo direttamente a livello di sensore. In quanto a imbrogli o presunti tali, mi pare che si stia facendo accademia su un punto veramente di poco importanza e non si tiene conto che con l'avvento del digitale e, in particolare, della tecnologia mos, è possibile manipolare le immagini anche in raw, persino prima dell'uscita dal sensore e che le lenti costosissime, sono tali non solo in quanto più "veloci" ma anche perchè, spesso, hanno anche altre caratteristiche decisamente superiori rispetto alle loro controparti low budget.

Ultima modifica di yossarian : 04-01-2012 alle 12:59.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2012, 16:10   #58
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
infatti, con l'analogico, avveniva lo stesso ma non era possibile rendersene conto e nessuno si è mai lamentato
Io sbaglio a dare come dato di fatto le conclusioni di DxO: anche se dalla letteratura il fenomeno viene confermato, hai ragione a dire che quelle misure non spiegano quale sia il suo peso. Ma anche te dai come dato di fatto (e su questo basi la tua giustificazione dell'aumento nascosto di esposizione ) su qualcosa di cui non hai nessuna prova, senza contare il fatto che per come è fatta la pellicola la ritengo basata su presupposti errati.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
non cambia un bel niente; la pellicola non ha i pixel ma ha una superficie granulare e tra un grano e l'altro c'è un mezzo non fotoassorbente e, quindi, del tutto inutile ai fini della cattura della luce; in più, la pellicola non ha neppure le microlenti. Ad essere pignoli sta messa pure peggio
Ma anche no.. Peccato, infatti, che i grani siano dipersi in uno strato relativamente spesso (rispetto allo strato assorbitore di un fotosito e persino senza ombra di dubbio più trasparente degli strati dielettrici e non, che coprono il fotosito) e soprattutto non abbiano i vincoli alla diffusione della radiazione che dà invece un monostrato di pixel con apertura geometricamente limitata non solo come superficie ma anche in profondità.
La pellicola non ha le microlenti perché NON NE HA BISOGNO: infatti nessuno si è mai posto il problema semplicemente perché non ne aumenterebbero l'efficienza per nulla, dato che si comporta a prescindere dai grani come un continuo: la radiazione nel suo cammino incontra COMUNQUE SEMPRE UN GRANO a causa della disposizione tridimensionale casuale di questi! Il punto è che barriere geometriche a livello della superficie sensibile che possano creare fenomeni di vignetting dovuti al pixel non ce ne sono proprio nella pellicola (detto in altri termini il fill-factor è 100%)! Come dici te le microlenti sono la soluzione (e come si legge indietro non ho mai detto il contrario solo che hanno dei limiti) a difetti e limiti nei pixel dei sensori attuali (che avranno tanti vantaggi ma non credo siano perfetti e mi sembra sciocco idealizzarli oltre i loro limiti).

Quote:
Originariamente inviato da yossarian Guarda i messaggi
l'aps-c non sposta di una virgola le mie considerazioni che sono basate sul rapporto tra la QE del singolo pixel e la caduta di luce misurata da dxomark. Ripeto il concetto: a parità di tecnologia di sensori e microlenti, tra una d3 e una d300 c'è un rapporto di QE pari a 3:1.
E invece sì, te lo ripeto non stiamo parlando di supposizioni in questo caso, ma di PROFILI NOTI E MISURATI: lo ripeto prova ad applicare il tuo ragionamento ai profili di vignettatura misurati da DxO per le FF nelle prove sulle lenti. Il tuo discorso sulla QE non incide sulla vignettatura semplicemente perché TUTTI i pixel sono più sensibili (tanto quelli centrali quanto quelli marginali) quindi il rapporto 3:1 incidera sicuramente sul SNR a parità di ISO (infatti nessuno ha mai detto che la D3 è più rumorosa della D300), ma in proprorzione resta il fatto che il sensore più largo subirà maggiormente la vignettatura (sia fisiologica, che dovuta a pixel vignetting dato che i suoi pixel marginali sono molto più off-axis di una APS). Quindi lo ripeto ancora, la tua spiegazione che considera solo la vignettatura va contro la dispersione (dall'alto a destra al basso a sinistra) dei dati raccolti. In ogni caso mi hai sicuramente convinto sul fatto che possa in parte avere un peso anche lei anche se lo considero ridotto.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
il fatto che il tuo ragionamento fosse riferito all'aps-c (aps sono tutti i formati di cmos attuali, pochè sta active pixel sensor, quindi vale per i c, hli h e i ff )
Dai mi perdonerai l'omonimia.. APS-C era un formato di pellicola, benché sia passato nel dire comune (grazie alle imprecisione pure della stampa) riferirsi a quello per i formati ridotti del digitale, nessuno di questi (Nikon-Pentax-Sony 1,5x; Canon 1,6x; Sigma 1,7x) ricalca le stesse misure, quindi per tagliare la testa al toro personalmente preferisco chiamarli indistintamente formati APS (assieme al pochissimo comune Canon 1,3x) per distinguerli dal 24x36.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
DPS sta semplicemente per digital pixel sensor (oovero fa riferimento a tutti i tipi di sensore digitale) ma, nell'articolo, fa riferimento a cmos con 4 layer di tipo metallico, usati per le interconnessioni e come parziale guida d'onda
Guarda per me va bene usare anche la tua catalogazione, però nelle pubblicazioni più recenti fanno la distinzione fra:
  • PPS (i più semplici, passivi, che non considereremo ovviamente),
  • APS (minore frazione di pixel libera rispetto ai precedenti e ai CCD, ma competitivi con questi per altri vantaggi e possono avere diverso numero di transistori integrati),
  • DPS (come dice il nome si distingue dal precedente per la conversione A/D direttamente sul pixel, quindi non mi sembra la tua stessa accezione, dato che mi pare ovvio aggiungano un ulteriore livello di complessità nell'integrazione e perciò si riduce ancora la frazione di pixel libera cioè il fill-factor)
Ovviamente questo è detto molto a grandi linee, perché mi ero documentato ovviamente solo fino ad un certo punto senza entrare troppo nello specifico (ma almeno così cerchiamo d'intenderci e se vuoi aggiungere altro ti ascolto perché comunque capisco tranquillamente ).
L'articolo che ti ho citato, mantiene questa distinzione, quindi non sono SOLO 4 strati per fare la guida d'onda, ma se leggi la parte sul DPS vedi che i pixel a blocchi di 4 condividono pure l'ADC che riduce (e rende anche asimmetriche) le misurazioni finali. Con ciò vogliono dimostrare,come fanno espressamente notare, che l'aumento d'integrazione complica i problemi di cui stiamo parlando (on-axis e off-axis). Tanto che nelle conclusioni, oltre a consigliare un compromesso verso la minore complessità nell'integrazione, suggeriscono la possibilità di uso per le microlenti, invece del biossido di silicio (compatibile coi processi litografici e perciò a basso costo) di materiali polimerici per superare i limiti di concentrazione di cui abbiamo già parlato.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
veramente l'articolo dice un'altra cosa: mette in relazione l'apertura delle microlenti e quella dell'ottica al variare delle dimensioni dei pixel del sensore e dice che al diminuire di queste dimensioni, per compensare la diminuzione di concentrazione di luce sulla superficie del singolo pixel è necessario adottare microlenti con aperture numeriche inferiori ma questo porta come conseguenza che deve diminuire anche la lunghezza focale, cosa che, di fatto, non avviene, poichè le operazioni di scaling difficilmente coinvolgono la struttura verticale del sensore (sicuramente non la coinvolgono nella stessa misura di quelle orizzontali). Questo significa che hai pixel più piccoli ma con la stessa lunghezza focale o che, comunque,il rapporto tra dimensioni del pixel e lunghezza focale diminuisce; adottare microlenti con apertura inferiore provoca, in queste situazioni, il fenomeno del crosstalk ottico tra pixel contigui.
L'articolo parla di molte cose, ma sulla parte che ci interessa (paragrafo 3 e sottolineo non parla di crosstalk) ci sono pochi dubbi visto che te l'ho citato e chiunque può leggere le conclusioni che trae sui due problemi..

Col discorso che fai, in pratica, stai confermando quello che ho detto finora: ovvero che allo scalare del pixel pitch verso il basso (più Mpx), la NA della microlente a causa di limitazioni tecniche diminuisce e può non riuscire a stare dietro all'angolo di accettanza della pupilla di uscita dell'obiettivo. Di conseguenza stai confermando, proprio tu, che il f# (o diaframma che dir si voglia) dell'obiettivo viene limitato a livello di ogni pixel (d'altronde, lo ripeto, non ci sono dubbi su questo fenomeno in letteratura).

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Per i ccd e i cmos BSI questo non vale per il semplice motivo che non esiste un canale tra superifice del sensore e parte fotosensibile, poichè la parte fotosensibile è posta al di sopra dei circuiti elettronici. Le conseguenze sono che ccd e cmos BSI hanno una OE notevolmente superiore ai cmos FSI a parità di dimensioni, ma non c'è modo di evitare il fenomeno del crosstalk ottico. Lo stesso succede con i sensori x3 di foveon.
1) Non metto in dubbio che possano esserci configurazioni con più o meno frazione di pixel libera (fill-factor), anzi ti ho proprio citatato l'articolo [19] che parlava di come incide l'integrazione sul problema, però resta che le microlenti devono comunque correggere quel problema e secondo gli articoli hanno dei limiti di NA massima (come alla fine del discorso precedente hai affermato pure tu).
2) A quanto mi risulta sui sensori "grandi" (cioè quelli di fotocamere a lenti intercambiabili), non c'è ancora alcun BSI e non mi sembra che prevedano di impiegarli a breve per una serie di ragioni che per ora li rendono più appetibili sui sensori "piccoli" di cellulari e compatte. Quando ci saranno (o anche solo appena testeranno le sigma con X3) vedremo quanto cambieranno le analisi di DxO. Per i CCD i dati ci sono, anche se non sappiamo né OE delle microlenti né fill-factor dei CCD delle fotocamere di cui abbiamo parlato. Tuttavia su tal discorso, la risposta me la servi proprio te quando enumeri le tipologie in ordine di velocità inverso all'occlusione:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Prendi un ccd full frame transfer, di sicuro non ha la stessa OE di un frame transfer o di un interline transfer. Nel primo caso, la porzione di superficie non occupata da elementi fotosensibili e decisamente piccola in percentuale rispetto alla superficie totale.
Bene, ora visto che lo sai.. Retoricamente non ricordo, ma dimmi un po' quale di queste 3 tipologie usavano per quelle reflex del grafico (o le reflex in generale)??
Bene questo spiega e adesso possiamo intuire perché non fanno molto meglio dei CMOS (questo lo ricordo perché una volta me lo hai fatto notare proprio tu ).

Visto che i due fenomeni che ho citato: cioè "problema di NA della microlente" e "pixel vignetting allontanandosi dall'asse" dici che non affliggono tipologie di sensori diverse dai cmos aps (fsi sott'inteso: bsi me lo risparmi vero fino a che non ne faranno una.. Se no prendiamo pure il sensore organico! ).
Visto che l'altra volta volevo mettere qualcosa di schematico te lo cito ora dato che riguarda un CCD:

Fa le stesse considerazioni ripetute finora e chiarisce meglio a livello ottico quello che sto cercando di dire:
  • l'angolo phi dipende dal diaframma dell'obiettivo come si vede dal grafico e a seconda dell'accettanza della microlente che dipende dalla sua NA viene limitato.
  • l'angolo delta dipende da quanto è fuori asse il pixel e quindi determina il fenomeno AGGIUNTIVO di caduta per i pixel ai bordi che richiede microlenti decentrate.
L'articolo dei laboratori Hitachi riguarda l'ottimizzazione delle microlenti per migliorarne l'efficienza sia per la concentrazione in asse che fuori asse e si riferisce a un generico CCD da 1/3" da 0,4Mpx.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2012, 16:14   #59
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
In quanto alla tipologia dei sensori, quello della d200 e quello della d80 differiscono solo leggerissimamente a livello di dimensioni lineari, pur conservando la stessa area e le stesse dimensioni dei singoli pixel, in quanto la d200 ha 4 readout channel contro i 2 della d80. Tra 20d e 30d il sensore è lo stesso, mentre è leggermente differente quello della 350d.
Il fatto che la k7 faccia i video e la k20 no non ha alcun significato: in una fotocamera non è il sensore l'unica componente elettronica presente
Quello k20d/k7 era un esempio per dire due sensori (CMOS) a prima vista e dalle caratteristiche note esattamente identici, ma che all'atto pratico non lo sono: visto che il primo ha 2 canali di lettura, mentre il secondo è la versione a 4 canali (per sostenere ovviamente il transfer-rate del video). Per un caso fortuito torna proprio come d200/d80 (CCD). Il discorso che facevo è ovviamente: se cambiano così profondamente il sensore (ok non lo riprogettano da zero, ma c'è comunque un bel cambiamento!), come facciamo noi a sapere che non abbiano cambiato altro di più semplice (come le microlenti) o che semplicemente la geometria non vari troppo per poter mantenere le stesse considerazioni come fosse un unico caso di sensore. Io là non c'ero e i progetti non li daranno di pubblico dominio certo! Quindi altro non posso fare che constatare alcune eccezioni fuori dalla regola che vale: cioè la maggior parte delle fotocamere che SEMBRA adottino lo stesso sensore danno comunque misurazione uguale o molto vicina.
Li esempi li ho già fatti, ma ricapitolando: sembrano accomunate D50/D70/40, 1Dmk2/1Dmk2N, D40X/D60/D80, 50D/500D, D300/D90/D300s, 20D/350D, 1000D/400D; restano lontane d80/d200, 20D/30D, 400D/40D e 550D/7D.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Un sensore identico ad un altro, con microlenti migliori, a parità di iso, fa segnare SNR più elevati a causa della maggior OE e del miglior contenimento del crosstalk (nel caso dei cmos FSI). Invece, prendendo le stesse misurazioni di dxolabs, questo non avviene; in alcuni casi il comportamento è identico, in altri, addirittura, venno meglio quelli che fanno registrare cadute di luce più elevate.
Scusa non avevo capito, adesso che ti sei rispiegato mi sembra più chiaro. In pratica dici se 30D e 20D hanno lo stesso sensore ma diverse microlenti deve avere SNR più alto la 30D; lo stesso vale per gli altri casi discordi che ho enumerato. Allora ho provato a dare un occhio all'SNR 18% su screen ovviamente, e premesso che i punti al variare dell'ISO spesso sono spostati abbastanza da vanificare i confronti e che trovo difficoltoso distinguere differenze inferiori a 0,5 Db (l'assumo come sensibilità minima), questo è quello che ho rilevato nei confronti (le coppie sono in ordine di previsione: "/" indica prima quella che perde più nel grafico, "-" quelle uguali):

7D/550D circa 1 Db peggio la 7D ma ad alti ISO uguali (la 550D risulta uguale alla 500D )
500D-50D uguali
400D/40D quasi uguali no (forse 0,5 Db peggio la 400D che però è uguale alla 1000D )
20D/30D uguali no (e praticamente identiche alla 350D che perde solo ad alti ISO forse quasi 0,5 Db)
D300s/-D90-/D300 sotto di 0,5 Db o appena più la D300 rispetto alla D300s (sopra alla D300 di 1,5 Db o più la D90 no)
D60-D40X-/D80 peggio di meno di 1 Db la D60 rispetto alla D40X ma la D80 praticamente uguale alla D60 (si stacca peggiorando ad altissimi ISO) fa peggio di 1 Db della D40X.
D80/D200 peggio di più di 0,5 Db la D80 della D200
D50-D70-D40 uguali (D70 cala di 0,5 Db ad altissimi ISO)

Ora io non so quanti fenomeni hardware o semplicemente correzioni software possano incidere (E QUANTO!) su quel dato di SNR 18% al variare dell'ISO: ci sono alcuni casi in cui prevede correttamente , altri no, in molti casi sembra si contraddica, ma sopratutto non è mai coerente con le differenze previste né da me, né da te, quando ci sono quindi non riesce nemmeno a smentire il grafico (nei dice addirittura cose imprevedibili). Gli scostamenti fra coppie insolite del grafico in ogni caso non sono mai superiori al 1/4 di stop (d80/d200) e 1 Db di SNR 18% affermano che corrisponde a un terzo di stop, quindi tira un po' le somme con gli ordini di grandezza. Ma ritorniamo a questo che sappiamo entrambi:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
non necessariamente a livello hardware. Due sensori identici con identiche microlenti, identico filtro antimoire e, per giunta, stesso processore, non implicano la stessa QI. Questo può dirtelo chiunque abbia qualche nozione di elettronica digitale. Se, ad esempio, traslo verso sinistra il valore di offset della dark current, ottengo una riduzione della relativa componente di rumore, con la conseguenza che il sistema tende a "piallare" tutti i dettagli fini anche sui file RAW. Il tutto viene fatto semplicemnete impostando valori di offset differenti a livello software
Quindi cosa concludiamo guardando l'SNR?

Per chiudere il piacevole confronto, non so cos'altro si possa dire se non che il fenomeno è previsto, per le considerazioni sulle misure di DxO sarebbe bello avere dei dati più precisi su questo concordo.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2012, 18:18   #60
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Io sbaglio a dare come dato di fatto le conclusioni di DxO: anche se dalla letteratura il fenomeno viene confermato, hai ragione a dire che quelle misure non spiegano quale sia il suo peso. Ma anche te dai come dato di fatto (e su questo basi la tua giustificazione dell'aumento nascosto di esposizione ) su qualcosa di cui non hai nessuna prova, senza contare il fatto che per come è fatta la pellicola la ritengo basata su presupposti errati.



Ma anche no.. Peccato, infatti, che i grani siano dipersi in uno strato relativamente spesso (rispetto allo strato assorbitore di un fotosito e persino senza ombra di dubbio più trasparente degli strati dielettrici e non, che coprono il fotosito) e soprattutto non abbiano i vincoli alla diffusione della radiazione che dà invece un monostrato di pixel con apertura geometricamente limitata non solo come superficie ma anche in profondità.
La pellicola non ha le microlenti perché NON NE HA BISOGNO: infatti nessuno si è mai posto il problema semplicemente perché non ne aumenterebbero l'efficienza per nulla, dato che si comporta a prescindere dai grani come un continuo: la radiazione nel suo cammino incontra COMUNQUE SEMPRE UN GRANO a causa della disposizione tridimensionale casuale di questi! Il punto è che barriere geometriche a livello della superficie sensibile che possano creare fenomeni di vignetting dovuti al pixel non ce ne sono proprio nella pellicola (detto in altri termini il fill-factor è 100%)! Come dici te le microlenti sono la soluzione (e come si legge indietro non ho mai detto il contrario solo che hanno dei limiti) a difetti e limiti nei pixel dei sensori attuali (che avranno tanti vantaggi ma non credo siano perfetti e mi sembra sciocco idealizzarli oltre i loro limiti).
ho unito questi 2 punti eprchè la risposta è unica e riguarda il comportamento della pellicola. Sulla pellicola, i grani sono dispersi e non c'è confinamento in profondità, però la superficie fotosensibile è discreta. In una pellicola, mediamente, ci sono da 12 a 20 (in alcuni casi qualcuno in più) strati sovrapposti di diversa natura e come ultimo strato un antiriflettente. Una radiazione che l'attraversa in diagonale va ad interessare areole delle varie superfici e, in particolare, degli strati fotoassorbenti, sfalsate le une rispetto alle altre, provocando, nella migliore delle ipotesi, errori nella rappresentazione dei colori di una determinata area dell'immagine, nella peggiore delle ipotesi, ossia quando i raggi non colpisconmo materiale fotoassorbente, perdita di informazione, ovvero light fall off, esattamente come avviene nei sensori digitali. La differenza è che la disposizione dei grani fotosensibili sulla pellicola è di tipo random e non simmetrica e questo rende il fenomeno meno evidente per due ragioni: il fatto che una volta innescata la reazione tra luce e sali d'argento si formino degli agglomerati (aumento delle aree "eccitate" a scapito della creazione di aree non fotoensibili più ampie (cosa trascurabile a cattura della luce avvenuta); il fatto che la probabilità che un raggio manchi tutte le superfici fotosensibili è più bassa (ma questo dipende dal tipo di pellicola, in base a cui varia la concentrazione e le dimensioni dei grani). C'è poi un terzo effetto che rende il fenomeno meno "visibile" (nel vero senso della parola) e cioè che l'occhio umano è molto più sensibile a disturbi che seguano un pattern di tipo simmetrico (principio su cui si bassano gli algoritmi di antialising che utilizzano griglie di base di tipo smmetrico per un numero limitato di sample e di tipo random per i restanti. Questo significa solo che la pellicola è meno soggetta al light fall off di un sensore digitale, ma non immune.
Vediamo adesso cme è fatto un sensore. Tu parti dal principio che un raggio luminmoso che entri iin diagonale attraverso una microlente non colpisca un elemento fotosensibile. In realtà le cose non stanno affatto così, a meno che quel raggio non finisca sulla parte superficiale occupata dagli elementi circuitali preposti a funzioni differenti dalla cattura della luce. Ma questo vale solo per i cmos di tipo FSI che hanno, al di sotto della superficie uno strato composto dalle metallizzazioni, disposte sui bordi della superficie del pixel e, sotto questo strato, un tunnel composto da materiali non necessariamente riflettenti, che conduce al fotodiodo. Questo significa che una radiazione diagonale che attraversa la microlente e non colpisce i circuiti in superficie, in mancanza di un tunnel con pareti riflettenti arriva a colpire, comunque, un fotodiodo: quello di uno dei pixel contigui, causando un fenomeno analogo a quello che avvine con la pellicola e che si definisce optical crosstalk e dà origine a errori nella rilevazione dei valori corretti per quel singolo pixel e per quello vicino di cui "si è preso" i fotoni. Il risultato è rumore. Per questo motivo, sui cmos FSI, il tunnel viene schermato in modo da ridurre al minmo il fenomeno del crosstalk. In questo modo, i fotoni che entrano in dagonale e non colpisocono i circuiti superficiali, rimbalzano sulle pareti del tunnel, esattamente come in una fibra ottica, fino ad arrivare al fotodiodo CORRETTO. Sui CCD FF transfer e sui CMOS BSI, invece, la superficie fotoassorbente è sopra agli altri elementi circuitali, il che significa che un raggio che entra in diagonale attraverso la microlente, ha ottime probabilità di colpire il corretto fotodiodo. Ovviamente, queste probabilità sono vicine al 100% se il pixel è di grandi dimensioni e calano al diminuire delle dimensioni del pixel stesso. Nei foveon, che come struttura ricalcano la pellicola, una radiazione diagonale può fare veri disastri, non perchè non colpisce elementi fotosensibili, ma perchè, almeno finora, non è stato possibile realizzare un tunnel schermato tra pixel contigui a causa dell sviluppo in profondità e, quindi il crosstalk ottico è incontrollabile e, con basse luci, quando il SNR è molto basso, questo tipo di disturbo è quello che crea più problemi (questo è il vero motivo per cui questo tipo di tecnologia non ha preso piede).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

E invece sì, te lo ripeto non stiamo parlando di supposizioni in questo caso, ma di PROFILI NOTI E MISURATI: lo ripeto prova ad applicare il tuo ragionamento ai profili di vignettatura misurati da DxO per le FF nelle prove sulle lenti. Il tuo discorso sulla QE non incide sulla vignettatura semplicemente perché TUTTI i pixel sono più sensibili (tanto quelli centrali quanto quelli marginali) quindi il rapporto 3:1 incidera sicuramente sul SNR a parità di ISO (infatti nessuno ha mai detto che la D3 è più rumorosa della D300), ma in proprorzione resta il fatto che il sensore più largo subirà maggiormente la vignettatura (sia fisiologica, che dovuta a pixel vignetting dato che i suoi pixel marginali sono molto più off-axis di una APS). Quindi lo ripeto ancora, la tua spiegazione che considera solo la vignettatura va contro la dispersione (dall'alto a destra al basso a sinistra) dei dati raccolti. In ogni caso mi hai sicuramente convinto sul fatto che possa in parte avere un peso anche lei anche se lo considero ridotto.
non ho fatto supposizioni; ho comparato i profili di vignettatura presi su photozone, per lenti veloci, su FF e aps-c e ho constatato che, solo nei casi peggiori, il rapporto è di 3:1 come avviene con la QE di FF e aps-c a parità di tecnologia e numero di pixel. Questo significa che il light fall off ai bordi può arrivare ad essere fino a 3 volte (nel caso peggiore) superiore su un sensore che ha 3 volte la capacità di catturare luce, mentre,man mano che ci si sposta verso il centro, per quanto ho detto prima, questo rapporto diminuisce, finmo ad invertirsi, a vantaggio dei FF nelle arre centrali.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Dai mi perdonerai l'omonimia.. APS-C era un formato di pellicola, benché sia passato nel dire comune (grazie alle imprecisione pure della stampa) riferirsi a quello per i formati ridotti del digitale, nessuno di questi (Nikon-Pentax-Sony 1,5x; Canon 1,6x; Sigma 1,7x) ricalca le stesse misure, quindi per tagliare la testa al toro personalmente preferisco chiamarli indistintamente formati APS (assieme al pochissimo comune Canon 1,3x) per distinguerli dal 24x36.
ok

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Guarda per me va bene usare anche la tua catalogazione, però nelle pubblicazioni più recenti fanno la distinzione fra:
  • PPS (i più semplici, passivi, che non considereremo ovviamente),
  • APS (minore frazione di pixel libera rispetto ai precedenti e ai CCD, ma competitivi con questi per altri vantaggi e possono avere diverso numero di transistori integrati),
  • DPS (come dice il nome si distingue dal precedente per la conversione A/D direttamente sul pixel, quindi non mi sembra la tua stessa accezione, dato che mi pare ovvio aggiungano un ulteriore livello di complessità nell'integrazione e perciò si riduce ancora la frazione di pixel libera cioè il fill-factor)
Ovviamente questo è detto molto a grandi linee, perché mi ero documentato ovviamente solo fino ad un certo punto senza entrare troppo nello specifico (ma almeno così cerchiamo d'intenderci e se vuoi aggiungere altro ti ascolto perché comunque capisco tranquillamente ).
L'articolo che ti ho citato, mantiene questa distinzione, quindi non sono SOLO 4 strati per fare la guida d'onda, ma se leggi la parte sul DPS vedi che i pixel a blocchi di 4 condividono pure l'ADC che riduce (e rende anche asimmetriche) le misurazioni finali. Con ciò vogliono dimostrare,come fanno espressamente notare, che l'aumento d'integrazione complica i problemi di cui stiamo parlando (on-axis e off-axis). Tanto che nelle conclusioni, oltre a consigliare un compromesso verso la minore complessità nell'integrazione, suggeriscono la possibilità di uso per le microlenti, invece del biossido di silicio (compatibile coi processi litografici e perciò a basso costo) di materiali polimerici per superare i limiti di concentrazione di cui abbiamo già parlato.
guarda, per me possiamo tenere per buona la distinzione tra DPS e APS, anche se, di fatto, i transistor degli aps servono proprio per effettuare operazioni come il controllo di guadagno per pixel o per gruppo di pixel, l'amplificazione e la digitalizzazione. I sensori cmos messi in commercio sin dall'inizio, effettuano tutti la conversione A/D sul sensore stesso. Quelle che cambiano sono le modalità con cui lo fanno. Di solito, il principio è che l'analisi del segnale non si limiti al singolo pixel proprio a causa di tutti i fenomeni che potrebbero indurre in errore. Quindi si analizza il pixel insieme ad un gruppo più o meno numeroso di pixel contigui, per mediare i valori ottenuti per ogni canale. I sistemi più complessi utilizzano addirittura più livelli, partendo da un gruppo di 4 (RGBG) ed estendendo l'analisi ai pixel contigui di ognuno dei 4, per ciascun colore. L?amplificazione del segnale, invece, avvien per singolo pixel. Anche il numero di transistor che controllano il processo di acquisizione dell'immagine non è standard. Ad esempio, sulle macchne fotografiche si usa la configurazione 3T perchè è sufficiente ad acquisire un'immagine statica con una singola esposizione; il problema si ha quando si acquisiscono immagini in movimento: in quel caso, con 3 transistor l'acquisizione avviene per step successivi (rolling shutter) che porta al fenomeno dello skew (quando si muove velocemente la camera in orizzontale, le li'immagine sembra ondeggiare). Le cineprese di fascia alta, utilizzano 5T o 6T come minimo.
Tornando al documento della Stanford, si tratta di un'analisi un po' datata, riferita ad una tecnologia oggi di comune applicazione. Anzi, rispetto a quel documento, in cui si consiglia l'adozione di uno strato riflettente come guida (il 4), oggi si tende ad estendere la guida a tutta la profondità del canale.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
L'articolo parla di molte cose, ma sulla parte che ci interessa (paragrafo 3 e sottolineo non parla di crosstalk) ci sono pochi dubbi visto che te l'ho citato e chiunque può leggere le conclusioni che trae sui due problemi..
But pixels near the edge receive a bundle of rays that would normally pass through the aperture and travel to substrate positions that are
displaced from the pixel floor. These rays would strike the edge of the pixel tunnel or travel to regions within the floor of adjacent pixels. The microlens must redirect these rays so that they travel through the pixel tunnel and reach the photodetector position at the substrate. The loss of light due to the failure to redirect these rays is called pixel vignetting.
Redirection of the rays is achieved by appropriate placement of the microlenses with respect to the pixel
aperture.


questo passo, tratto testualmente dall'articolo in questione, nel punto in grassetto parla proprio del fenomeno del crosstalk ottico, ovvero fotoni che attraversano il substrato in diagonale, raggiungendo il "pavimento", ossia il fondo, dove si trova il fotodiodo, di un pixel adiacente. L'articolo è incentrato proprio sul fatto che AL DIMINUIRE DELLE DIMENSIONI DEI PIXEL, questo fenomeno viene accentuato, in quanto, mentre lo scaling sugli assi x e y (che chiamo l per comodità) avviene esnsa problemi, ben più difficile è ridurre le dmensioni lungo l'asse z , ovvero in profondità. Questo comporta che, ogni volta che si fa scaling, il rapporto tra l/z diminuisce. Questo crea sempre più problemi al corretto indirizzamento della luce che attraversa la microlente con angoli non favorevoli. Attenzione, l'articolo non parla della luce che cade sugli spoazi tra pixel ma delle difficoltà ad indirizzare la luce che cade sul pixel.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Col discorso che fai, in pratica, stai confermando quello che ho detto finora: ovvero che allo scalare del pixel pitch verso il basso (più Mpx), la NA della microlente a causa di limitazioni tecniche diminuisce e può non riuscire a stare dietro all'angolo di accettanza della pupilla di uscita dell'obiettivo. Di conseguenza stai confermando, proprio tu, che il f# (o diaframma che dir si voglia) dell'obiettivo viene limitato a livello di ogni pixel (d'altronde, lo ripeto, non ci sono dubbi su questo fenomeno in letteratura).
attenzione, lo ripeto, le microlenti sono la soluzione. Il problema è lo scaling delle dimensioni dei pixel, soprattutto quando questo avviene al di sotto di certi valori. Ovvio che la microlente deve coprire il pixel e non può prenderne 4 contigui, altrimenti perderebbe ogni utilità. Ovvio che se diminuisco le dimensioni di un pixel diminuiscono anche quelle delle microlenti (è una conseguenza fisiologica). Per questo motivo ho detto che le microlenti gapless vanno in controtendenza, perchè abbracciano anche lo spazio vuoto tra pixel, per cercare di indirizzare anche quella radiazione verso la superficie fotosensibile. Così facendo, sono meno legate all'andamento delle dimensioni lineari dei pixel (anche perchè con le operazioni di scalig diminuiscono anche le distanze tra pixel ma in misura minore di quanto non facciano le dimensioni stesse dei pixe. In tal modo i rapporti tra dimensioni e distanze reciproche diminuiscono, al fine di ridurre disturbi reciproci di tipo elettronico). Ora, il problema è che, anche se le microlenti sono in grado di fare il loro lavoro, non possono, comunque, riuscire a deviare tutta la radiazione in modo che cada perpendicolarmente. E qui sorge il problema dell'indirizzamento lungo il tunnel che le microlenti non possono fare da sole ma devono essere aiutate e, tanto più cala il rapporto l/z tanto più hanno bisogno d'aiuto.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
1) Non metto in dubbio che possano esserci configurazioni con più o meno frazione di pixel libera (fill-factor), anzi ti ho proprio citatato l'articolo [19] che parlava di come incide l'integrazione sul problema, però resta che le microlenti devono comunque correggere quel problema e secondo gli articoli hanno dei limiti di NA massima (come alla fine del discorso precedente hai affermato pure tu).
2) A quanto mi risulta sui sensori "grandi" (cioè quelli di fotocamere a lenti intercambiabili), non c'è ancora alcun BSI e non mi sembra che prevedano di impiegarli a breve per una serie di ragioni che per ora li rendono più appetibili sui sensori "piccoli" di cellulari e compatte. Quando ci saranno (o anche solo appena testeranno le sigma con X3) vedremo quanto cambieranno le analisi di DxO. Per i CCD i dati ci sono, anche se non sappiamo né OE delle microlenti né fill-factor dei CCD delle fotocamere di cui abbiamo parlato. Tuttavia su tal discorso, la risposta me la servi proprio te quando enumeri le tipologie in ordine di velocità inverso all'occlusione:
per il discorso NA delle microlenti vale quello che ho detto sopra. Sui BSI, per ora, i problemi sono 2: sono più fragili a livello costruttivo e con rese inferiori e quindi, per il momento, meno indicati e convenienti per formati grandi; hanno il problema del crosstalk. Un BSI, rispetto ad un FSI ha una OE decisamente superiore ma che, soprattutto in basse luci, viene compensata negativamente (e con gli interessi) dal crsstalk, sopratutto di tipo periferico. Quindi, se vanno bene per formati piccoli, poichè riescono ad avere una OE elevata anche con pixel di piccole dimensioni e impiegati su fotocamere non fatte per lavorare con luci basse, non risultano convenienti su sensori con pixel grandi, di tipo FSI, con tecnologia consolidata, che compensa la minor OE con la quasi totale assenza di optical crosstalking. Degli X3 ho fatto cenno all'inizio. Per quanto riguarda i CCD, io ho i dati di quello della d200 e gli schemi di quelli della d200 e della d80

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Bene, ora visto che lo sai.. Retoricamente non ricordo, ma dimmi un po' quale di queste 3 tipologie usavano per quelle reflex del grafico (o le reflex in generale)??
Bene questo spiega e adesso possiamo intuire perché non fanno molto meglio dei CMOS (questo lo ricordo perché una volta me lo hai fatto notare proprio tu ).
per le reflex full frame transfer, mentre per immagini in movimento si usavano gli interline transfer. Ecco perchè le reflex con CCD non fanno video

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Visto che i due fenomeni che ho citato: cioè "problema di NA della microlente" e "pixel vignetting allontanandosi dall'asse" dici che non affliggono tipologie di sensori diverse dai cmos aps (fsi sott'inteso: bsi me lo risparmi vero fino a che non ne faranno una.. Se no prendiamo pure il sensore organico! ).
Visto che l'altra volta volevo mettere qualcosa di schematico te lo cito ora dato che riguarda un CCD:

Fa le stesse considerazioni ripetute finora e chiarisce meglio a livello ottico quello che sto cercando di dire:
  • l'angolo phi dipende dal diaframma dell'obiettivo come si vede dal grafico e a seconda dell'accettanza della microlente che dipende dalla sua NA viene limitato.
  • l'angolo delta dipende da quanto è fuori asse il pixel e quindi determina il fenomeno AGGIUNTIVO di caduta per i pixel ai bordi che richiede microlenti decentrate.
L'articolo dei laboratori Hitachi riguarda l'ottimizzazione delle microlenti per migliorarne l'efficienza sia per la concentrazione in asse che fuori asse e si riferisce a un generico CCD da 1/3" da 0,4Mpx.
non ho detto che non riguarda i ccd ma che gli articoli citati della Stanford parlavano di cmos fsi e non di altre tipologie di sensori. Il problema degli angoli "storti" esiste con qualsiasi superficie fotoassorbente che non sia continua (ovvero con tutte) . La differenza è che con alcune non si possono prendere contromisure (pellicola), con altre le contromisure sono solo parziali (sensori cmos BSI, CCD FF, X3) con altre, che sono quelle che presentano maggoiri problemi, per fortuna ci sono anche le migliori soluzioni (cmos FSI)
yossarian è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Apple MacBook Air M3: chi deve davvero comprarlo? La recensione Apple MacBook Air M3: chi deve davvero comprarlo...
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ul...
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza Dreame L10s Pro Ultra Heat: la pulizia di casa t...
HONOR Magic6 Pro: come funziona Magic Portal, il modo ''intelligente'' di condividere HONOR Magic6 Pro: come funziona Magic Portal, il...
L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA L'innovazione richiede fiducia: Workday si propo...
Italia strategica per Oracle. Arriva la ...
Sam-Bankman Fried: 25 anni di reclusione...
Mobility Analytics di WINDTRE Business p...
Il lander lunare JAXA SLIM si è r...
Warframe conquista l'iPhone: senza soluz...
Marvel Rivals!, l'inaspettato shooter Pv...
Twitch aggiorna le linee guida sui conte...
Galaxy M55 ufficiale: la nuova fascia me...
Google corregge sette vulnerabilit&agrav...
IA: le imprese italiane sono in prima li...
Garmin Dash Cam 57: un'alleata perfetta ...
Elgato Facecam MK2: come rendere ancora ...
2 iRobot Roomba al prezzo più sco...
La tua connessione in fibra ottica potre...
Il controller DualSense per PS5 con un p...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 20:08.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v