View Full Version : lenti reflex: siamo davvero al limite?
marchigiano
05-12-2008, 00:07
http://www.photozone.de/canon-eos/174-canon-ef-s-10-22mm-f35-45-usm-test-report--review?start=1
http://www.photozone.de/canon-eos/406-canon_1022_3545_50d?start=1
3 indizi fanno una prova?
(IH)Patriota
05-12-2008, 07:26
Vale il discorso fatto qualche rigo sopra.
Le lenti che non erano in grado di esprimersi al 100% con 8 Mpix (2150 linee/mm) non arrivano a saturare i 15mpix (2750 linee/mm) ma si fermano sotto le 2500 linee/mm (aprossimativamente un 12Mpix).
Se le lenti non fossero al limite raggiungerebbero il massimo anche con la 50D cosa che invece non accade , e mi sorge un dubbio , non è che le lenti reflex siano davvero al limite ??
Ciauz
Pat
Raghnar-The coWolf-
05-12-2008, 09:39
A pensare un aps-c da 10mpix con il digic IV e con un buon fitro AA cosa poteva fare a livello rumore/GD/dettaglio ti fa chiedere a chi possano servire sborranta megapixel , ma evidentemente c' è chi guarda ancora e solo quello ;)
Perche` gli sborranta megapixel, gestiti in post processing, comportano un'immagine con 10 megapixel e rumore molto ridotto.In quanto rumore fra un'immagine acquisita a 15 MP e poi ridotta a 10 MP e un'immagine acquisita a 10MP non cambia nulla.
Perche` a volte un rumore ridotto serve a un cavolo ma serve piu` risoluzione.
Sarebbe bello vedere i 10MP col Digic IV per vedere che raffica raggiungi, e quella serve e non poco.
Per quanto riguarda il topic: le lenti buone hanno risoluzioni superiori a quelle di qualsiasi MPixel che ti possa venire in mente, e` che state pensando alle lenti come oggetti che restituiscono un'immagine quantizzata/quantizzabile in linee per mm e non e` cosi`.
Le pellicole 35mm arrivano senza troppi crismi a 4000 line per mm, anche a 8000 se sono di un certo tipo, quelle in bianco e nero poi 10000 e oltre, a quanti MP corrispondono vedete un po' voi... Figurarsi poi i formati piu` grandi... 4x3...etc...
Ovvio che la lente, anche se particolarmente costose, non risolvevano il sistema, ma comunque si sono sempre spinte ben oltre i limiti imposti da questi "Mediocri" MP.
(IH)Patriota
05-12-2008, 11:04
Perche` gli sborranta megapixel, gestiti in post processing, comportano un'immagine con 10 megapixel e rumore molto ridotto.
Non mi pare proprio che ad alti ISO la mia 1Ds3 da 21Mpix sia meno rumorosa della mia ex 5D da 12Mpix nonstante abbia il digic III (che ha un algoritmo di NR) contro il digic II che ne era sprovvisto.Ci sarebbe poi da fare un' attenta verifica dell' impatto sui dettagli causato dall' NR... e siamo ancora a densita' relative all' APS-C inferiori ai 10Mpix , zona in cui il guadagno in termini di dettaglio è superiore allo svantaggio negli alti ISO causato dall' incremento di densita'.
In quanto rumore fra un'immagine acquisita a 15 MP e poi ridotta a 10 MP e un'immagine acquisita a 10MP non cambia nulla.
Perche` a volte un rumore ridotto serve a un cavolo ma serve piu` risoluzione.
La risoluzione è in funzione dell' ottica , guardando la review del 10-22 postata dal buon Marchigiano mi pare piuttosto evidente che la lente abbia raggiunto il suo limite , al centro ha avuto un grande miglioramento mentre ai bordi si è fermata sotto alla soglia delle 2150linee/mm cui anche un banale 8mpix è in grado di arrivare fatto salvo di non avere un filtro AA troppo morbido.
Sarebbe bello vedere i 10MP col Digic IV per vedere che raffica raggiungi, e quella serve e non poco.
Gusti personali ;) a me della raffica iperveloce non me ne frega una cippa nonstante abbia la 1Dmk3 che fa 10fps , preferisco scattare al momento giusto e senza raffica , ho fatto sport anche con la lentissima 5D (3fps) senza problemi e non ero l' unico ad usarla.
Per quanto riguarda il topic: le lenti buone hanno risoluzioni superiori a quelle di qualsiasi MPixel che ti possa venire in mente, e` che state pensando alle lenti come oggetti che restituiscono un'immagine quantizzata/quantizzabile in linee per mm e non e` cosi`.
La mia esperienza non mi porta alle tue conclusioni , ci sono lenti che hanno tratto beneficio passando da 5D ad 1Ds e lenti che non sono cambiate affatto , anzi hanno accentuato ancora di piu' il divario di bonta' tra centro e bordi (il 24L ad esempio) e non mi pare di avere in corredo lenti "scarse".
Le pellicole 35mm arrivano senza troppi crismi a 4000 line per mm, anche a 8000 se sono di un certo tipo, quelle in bianco e nero poi 10000 e oltre, a quanti MP corrispondono vedete un po' voi... Figurarsi poi i formati piu` grandi... 4x3...etc...
Ma forse la pellicola non aveva un filtro AA davanti ;) ed il livello di dettaglio che esprimi tu si ottiene solo con pellicole dalla sensibilita' estremamente bassa (25/50ASA) gia' a 400ISO la grana si mangia tonnellate di dettaglio figuriamoci ad alzarsi ancora...
Ho fatto giusto la settimana scorsa una foto per una pubblicita' per un negozio che è in giro sui tram a Milano , foto fatta in interni con la 1Dsmk3 a 1600ISO con l' 85L usato ad F1.2 , l' ho vista stampata 50*80 ed onestamente nutro fortissimi dubbi che con la pellicola sarebbe potuta venire meglio di cosi' con una sensibilita' cosi' alta.
Purtroppo non sempre è possibile usare ISO cosi' bassi anche se sicuramente in studio la differenza potrebbe essere abnorme.
Ovvio che la lente, anche se particolarmente costose, non risolvevano il sistema, ma comunque si sono sempre spinte ben oltre i limiti imposti da questi "Mediocri" MP.
Mi è difficile comprendere come si possa definire "mediocri" gli attuali megapixel quando nella realta' soddisfano ampiamente tutte le esigenze professionali , quando è dimostrato (con quello che è successo nel settore bridge) che l' aumento spropositato dei megapixel ha comportato una ridotta gamma dinamica ed un aumento folle del rumore gia' a bassi ISO (i sensori con piu' di 10 Mpix hanno gli 80 ISO che fanno cagare) e pensare che c'è chi si tiene stretto il suo dorso digitale 6x6 da soli 16Mpix :muro:
Con questa tecnologia il rapporto guadagno/beneficio si ferma secondo me a 10/12Mpix su formato aps , oltre significa avere guadagno di dettaglio risicato e non con tutte le lenti , avere file mediamente (ed inutilmente) piu' pesanti e dover aver bisogno di algoritmi di NR che insieme al rumore si mangiano dettaglio rendendo vano lo sforzo , se mi ridimensioni a 10mpix un file da 15mpix mi chiedo perchè non scattare a 10 mpix direttamente.
Tutto questo in nome del crop selvaggio che non sara' mai in grado di competere con una fotografia scattata con il cervello prima che con il dito o con la lente giusta al momento giusto e non con un 18mm perchè si aveva il 200mm a casa.
Ciauz
Pat
moris_bs
05-12-2008, 16:13
Io credo che a dettaglio non siamo ancora spinti quanto la pellicola ...
Non serve scomodare le pellicole al top basta una comune e non cè ancora confronto ...
Se quindi la pellicola non ha raggiunto il limite nel potere di dettaglio dell'ottica tanto meno lo hanno raggiunto con la digital ...
E poi il filtro davanti al sensore digitale è un filtro antialiasing e quindi ci stà perchè taglia le frequenze più alte del doppio di quelle che possono "percepire" i sensori (teoria del campionamento).
Se non ci fosse allora ci sarebbe maggior rumore.
E' normale che quindi più sono densi i sensori e più il filtro taglia in alto e quindi lascia passare più frequenze del segnale "immagine da catturare". E' meno invadente...
Parlando di asa penso che anche con i classici 100iso le pellicole sono superiori quanto a risoluzione...
Io non sono amante degli numero di MP anzi erano già tanti gli 8MB da gestire ... però sono convinto che questa spinta al formato FF è solo un pretesto commerciale ... e non un effettiva esigenza tecnica per avere migliori prestazioni quanto a risoluzione.
Se cosi non fosse, comè spieghiamo che la pentax k20d a dettaglio e iso normali fà le scarpe o quasi alla nikon d700 che costa quasi triplo ed è nata 1 anno dopo di ricerche e sviluppo e investimenti?
Effettivamente mi aspettavo un grosso salto avanti invece ... poi si che la 1Dsmk3 è molto superiore ma costa 10 volte di più e immagino che adotti soluzioni di ordine superiore ... non credete?
(IH)Patriota
05-12-2008, 17:43
Io credo che a dettaglio non siamo ancora spinti quanto la pellicola ...
Non serve scomodare le pellicole al top basta una comune e non cè ancora confronto ...
A quanto pare è vero il contrario
Link 1 (http://www.sphoto.com/techinfo/santaysablefarm.htm)
Link 2 (http://www.sphoto.com/techinfo/missionslr_comps.htm)
Link 3 (http://www.sphoto.com/techinfo/ocesideharbor.htm)
Il termine di paragone è la 1DsII (16Mpix) e la ormai vetusta 10D (6Mpix) , oggi lavoriamo con 1DsMk3 (21Mpix) e con 50D (15Mpix).
Il vantaggio (se c'è ancora) è su sensibilita' inferiori ai 100ISO (come ho scritto sopra) e quindi 50ASA e 25ASA , pero' tenendo conto della "zoom mania" che nel migliore dei casi parte da un medio F2.8 per finire ai bui F5.6 sono sensibilita' praticamente inutilizzabili se non con flash o in pienissimo sole.
Tralasciamo la qualita' dei 200 e 400 ASA , mi sono sparato 8 rulli quest'estate sott'acqua con la Nikonos V e qualitativamente fanno letteralmente vomitare in confronto ai 200ISO e 400ISO anche solo di una 400D.
Se quindi la pellicola non ha raggiunto il limite nel potere di dettaglio dell'ottica tanto meno lo hanno raggiunto con la digital ...
E chi ha detto che la pellicola non ha messo a frusta le lenti ?? Non è un caso che abbiano inventato il medioformato che non ha bisogno di lenti molto spinte per poter dare piu' dettaglio..
E poi il filtro davanti al sensore digitale è un filtro antialiasing e quindi ci stà perchè taglia le frequenze più alte del doppio di quelle che possono "percepire" i sensori (teoria del campionamento).
Se non ci fosse allora ci sarebbe maggior rumore.
Perdona ma non trovo il nesso tra il filtro AA ed il rumore , il filtro AA toglie dettaglio evitando moirè e seghettature , qualche pazzo l' ha tolto ( Link (http://maxmax.com/nikon_d200hr.htm) ) le foto sono piu' dettagliate e non meno rumorose.
Parlando di asa penso che anche con i classici 100iso le pellicole sono superiori quanto a risoluzione...
Vedi link sopra.
Io non sono amante degli numero di MP anzi erano già tanti gli 8MB da gestire ... però sono convinto che questa spinta al formato FF è solo un pretesto commerciale ... e non un effettiva esigenza tecnica per avere migliori prestazioni quanto a risoluzione.
Il ritorno al formato pieno 35mm fondalmentalmente esiste per 4 motivi:
1-utilizzare le lenti per lalunghezza focale per cui sono state progettate
2-avere maggiore tridimensionalita' negli scatti visto che la PDC diminuisce
3-avere una densita' inferiore a parita' di megapixel (quindi minor rumore)
4-grazie alla minor densita' (sempre a parita' di megapixel) non necessita di lenti ultraperformanti per rendere bene i dettagli
Se cosi non fosse, comè spieghiamo che la pentax k20d a dettaglio e iso normali fà le scarpe o quasi alla nikon d700 che costa quasi triplo ed è nata 1 anno dopo di ricerche e sviluppo e investimenti?
Guardiamo anche il bicchiere mezzo pieno , ad alti ISO la D700 è 2 stop (se non 3) piu' bella , il che non è poco ;) tralasciando il discorso sensore la D700 ha un AF che la K20D si sogna di notte e qualche altra chicca , mi pare che la fai un po' troppo facile.
Effettivamente mi aspettavo un grosso salto avanti invece ... poi si che la 1Dsmk3 è molto superiore ma costa 10 volte di più e immagino che adotti soluzioni di ordine superiore ... non credete?
Molto superiore a cosa ? Ad alti ISO la D700 fa decisamente meglio , certo il dettaglio a bassi ISO dei 21Mpix con lenti adeguate (adeguate fa rima con fisse e fa rima con almeno 1000€ per vetro senza disdegnare di spenderne a 4000€ ;)) è indubbiamente strepitoso e molto probabilmente superiore a quanto possa fare anche un' ottima pellicola in medioformato 4x5 , il prezzo è alto piu' per blasone che per altro , fino all' uscita l' altro ieri della nikon D3x e 2 mesi fa della A900 era l' unica FF sopra i 20 megapixel , come soluzioni non è diversa dalla sorellina sportiva che costa la meta' esatta (1Dmk3).
Ciauz
Pat
yossarian
05-12-2008, 17:54
Perche` gli sborranta megapixel, gestiti in post processing, comportano un'immagine con 10 megapixel e rumore molto ridotto.In quanto rumore fra un'immagine acquisita a 15 MP e poi ridotta a 10 MP e un'immagine acquisita a 10MP non cambia nulla.
Perche` a volte un rumore ridotto serve a un cavolo ma serve piu` risoluzione.
.
non è esattamente la stessa cosa: diverso sensore, diverso filtro AA diverso algoritmo di NR = immagini non sovrapponibili (anche a parità di risposta per quanto riguarda altri parametri).
Per quanto riguarda il topic: le lenti buone hanno risoluzioni superiori a quelle di qualsiasi MPixel che ti possa venire in mente, e` che state pensando alle lenti come oggetti che restituiscono un'immagine quantizzata/quantizzabile in linee per mm e non e` cosi`.
non credo che qualcuno stia pensando alle lenti come ad un mezzo di tipo quantistico, ma di sicuro trasportano un segnale quantizzato (i fotoni) e sono soggette a leggi fisiche che vanno oltre quelle della semplice ottica geometrica e che ne determinano i limiti nella trasmissione delle radiazioni. Quindi è sbagliato anche pensare alle lenti, per quanto buone, come mezzi con capacità di trasmettere i segnali pressochè infinita o apparentemente infinita, se relazionata al potere risolvente dei sensori o delle pellicole.
Le pellicole 35mm arrivano senza troppi crismi a 4000 line per mm, anche a 8000 se sono di un certo tipo, quelle in bianco e nero poi 10000 e oltre, a quanti MP corrispondono vedete un po' voi... Figurarsi poi i formati piu` grandi... 4x3...etc...
Ovvio che la lente, anche se particolarmente costose, non risolvevano il sistema, ma comunque si sono sempre spinte ben oltre i limiti imposti da questi "Mediocri" MP.
non è possibile stabilire un corrispettivo tra potere risolvente di un sensore e capacità di riproduzione dei dettagli di una pellicola. Qualunque numero buttato li a caso può essere vero o veritiero, oppure completamente falso. C'è chi sostiene che una buona pellicola abbia un "potere risolvente equivalente" pari a circa quello di un sensore aps-c da 24-25 Mpixel e chi sostiene che già un 6 o 8 Mpixel sia pari ad una pellicola. La realtà è che si sta paragonando un sistema discreto ad uno continuo (o pseudo continuo, in quanto il continuo, nella realtà, non esiste ma è solo una percezione che abbiamo ad un livello "intermedio", ma qui si scivola nella fisica quantistica :D ) ed è un paragone improponibile.
Non mi pare proprio che ad alti ISO la mia 1Ds3 da 21Mpix sia meno rumorosa della mia ex 5D da 12Mpix nonstante abbia il digic III (che ha un algoritmo di NR) contro il digic II che ne era sprovvisto.Ci sarebbe poi da fare un' attenta verifica dell' impatto sui dettagli causato dall' NR... e siamo ancora a densita' relative all' APS-C inferiori ai 10Mpix , zona in cui il guadagno in termini di dettaglio è superiore allo svantaggio negli alti ISO causato dall' incremento di densita'.
in realtà anche il digic II ha un filtro di NR (ce l'hanno tutte le digitali); è differente da quello del digic III in quanto meno aggressivo, agisce soprattutto sulla luminanza e meno sul chroma noise ed ha una risposta quasi lineare all'aumentare degli iso. Al contrario, quello del digic III (e quello del IV ancora di più) espleta un'azione più "pesante" sul choma noise, differenziando i livelli di filtraggio in base ai colori (il verde, che è quello a cui l'occhio umano è più sensibile, presenta livelli di filtraggio più aggressivi, mentre il rosso è "meno filtrato") ed ha una risposta non completamente lineare in funzione degli iso (all'aumentare degli iso, a partire dagli 800, aumenta progressivamente l'aggressività del filtro).
La risoluzione è in funzione dell' ottica , guardando la review del 10-22 postata dal buon Marchigiano mi pare piuttosto evidente che la lente abbia raggiunto il suo limite , al centro ha avuto un grande miglioramento mentre ai bordi si è fermata sotto alla soglia delle 2150linee/mm cui anche un banale 8mpix è in grado di arrivare fatto salvo di non avere un filtro AA troppo morbido.
La mia esperienza non mi porta alle tue conclusioni , ci sono lenti che hanno tratto beneficio passando da 5D ad 1Ds e lenti che non sono cambiate affatto , anzi hanno accentuato ancora di piu' il divario di bonta' tra centro e bordi (il 24L ad esempio) e non mi pare di avere in corredo lenti "scarse".
Ma forse la pellicola non aveva un filtro AA davanti ;) ed il livello di dettaglio che esprimi tu si ottiene solo con pellicole dalla sensibilita' estremamente bassa (25/50ASA) gia' a 400ISO la grana si mangia tonnellate di dettaglio figuriamoci ad alzarsi ancora...
infatti; nella valutazioen della risoluzione del sistema lente-sensore, non si può prescindere dalla tipologia di filtro AA presente. Se più aggressivo (o, come dici tu, più morbido, in riferimento ai risultati forniti), mangia decisamente più dettaglio. Sarebbe il caso di fare un test sensa filtro AA per vedere se, passando da 8 a 15 Mpixel, c'è un incremento pari a quello teorico, oppure se, come accade ora, l'incremento è sempre notevoilmente inferiore a quello ottenibile teoricamente.
In quanto alla pellicola ed ai suoi limiti, uno dei più evidenti è proprio quello che hai evidenziato, ovvero la grana della pellicola già a partire da 400 asa.
Ho fatto giusto la settimana scorsa una foto per una pubblicita' per un negozio che è in giro sui tram a Milano , foto fatta in interni con la 1Dsmk3 a 1600ISO con l' 85L usato ad F1.2 , l' ho vista stampata 50*80 ed onestamente nutro fortissimi dubbi che con la pellicola sarebbe potuta venire meglio di cosi' con una sensibilita' cosi' alta.
Purtroppo non sempre è possibile usare ISO cosi' bassi anche se sicuramente in studio la differenza potrebbe essere abnorme.
è anche vero che per fotografare in studio ci sono attrezzature particolari: mi riferisco al medio formato digitale che in quanto a dettaglio, non credo abbia nulla da invidiare alla migior pellicola nelle stesse condizioni di luce. E' anche vero che ha anche gli stessi limiti della pellicola (non è un caso che macchine da 30 o 50 Mpixel non vadano oltre i 400 ISO).
Mi è difficile comprendere come si possa definire "mediocri" gli attuali megapixel quando nella realta' soddisfano ampiamente tutte le esigenze professionali , quando è dimostrato (con quello che è successo nel settore bridge) che l' aumento spropositato dei megapixel ha comportato una ridotta gamma dinamica ed un aumento folle del rumore gia' a bassi ISO (i sensori con piu' di 10 Mpix hanno gli 80 ISO che fanno cagare) e pensare che c'è chi si tiene stretto il suo dorso digitale 6x6 da soli 16Mpix :muro:
Con questa tecnologia il rapporto guadagno/beneficio si ferma secondo me a 10/12Mpix su formato aps , oltre significa avere guadagno di dettaglio risicato e non con tutte le lenti , avere file mediamente (ed inutilmente) piu' pesanti e dover aver bisogno di algoritmi di NR che insieme al rumore si mangiano dettaglio rendendo vano lo sforzo , se mi ridimensioni a 10mpix un file da 15mpix mi chiedo perchè non scattare a 10 mpix direttamente.
in effetti, il sistema lente-sensore semobra effettivamente limitato ad un massimo di 12 Mpixel. Poi c'è l'eccezione di qualche lente che riesce a risolvere qualcosa di più (ma c'è sempre da valutare attentamente quale sia il collo di bottiglia reale del sistema) e tante altre che non arrivano neppure a saturare la capacità di risoluzione di sensori di 10 Mpixel.
Tutto questo in nome del crop selvaggio che non sara' mai in grado di competere con una fotografia scattata con il cervello prima che con il dito o con la lente giusta al momento giusto e non con un 18mm perchè si aveva il 200mm a casa.
Ciauz
Pat
perfettamente d'accordo.
Io credo che a dettaglio non siamo ancora spinti quanto la pellicola ...
Non serve scomodare le pellicole al top basta una comune e non cè ancora confronto ...
Se quindi la pellicola non ha raggiunto il limite nel potere di dettaglio dell'ottica tanto meno lo hanno raggiunto con la digital ...
la prima affermazione è indimostrabile perchè bisognerebbe dimostrare che il collo di bottiglia sia la pellicola; poi si dovrebbe dimostrare che la pellicola ha maggior dettaglio di un sensore digitale, quindi si può arrivare alla tua conclusione. Per quanto riguarda la prima, se prendo due ottiche di qualità medio alta, se il limite è la pellicola (o il sensore) la risoluzione ottenibile dall'intero sistema deve essere identica. In caso contrario, almeno una delle due ottiche è il vero collo di bottiglia.
Ad esempio, guardando questi due test:
http://www.photozone.de/canon-eos/199-canon-ef-70-200mm-f28-usm-l-is-test-report--review?start=1
http://www.photozone.de/canon-eos/196-canon-ef-70-200mm-f4-usm-l-is-test-report--review?start=1
vero che si parla di tele, ma di tele di qualità elevata (molto elevata :D ), su un sensore di qualità non eccelsa (almeno rispetto ad altri, tipo quello della 20D, a parità, o quasi, di risoluzione). E il sensore è il medesimo
Eppure sembrerebbe che il limite sia proprio nella lente: la f2.8 ha un comportamento mediamente inferiore alla f4, come potere risolvente, a pressochè tutte le distanze focali e le aperture.
E poi il filtro davanti al sensore digitale è un filtro antialiasing e quindi ci stà perchè taglia le frequenze più alte del doppio di quelle che possono "percepire" i sensori (teoria del campionamento).
Se non ci fosse allora ci sarebbe maggior rumore.
E' normale che quindi più sono densi i sensori e più il filtro taglia in alto e quindi lascia passare più frequenze del segnale "immagine da catturare". E' meno invadente...
siamo d'accordo sul filtro più aggressivo su sensori più densi
Se cosi non fosse, comè spieghiamo che la pentax k20d a dettaglio e iso normali fà le scarpe o quasi alla nikon d700 che costa quasi triplo ed è nata 1 anno dopo di ricerche e sviluppo e investimenti?
non ho visto test al riguardo, ma se anche fosse la cosa non mi stupirebbe: nikon adotta sempre filtri piuttosto aggressivi, privilegiando il basso rumore e preferendo sacrificare i dettagli fini. Alla fine è una scelta: i dettagli o li mangi col filtro o te li mangia il rumore: bisogna trovare un delicato equilibrio tra questi estremi. Al contrario, pentax con la k20, ha adottato un fitro di NR poco aggressivo non solo per i suoi standard (ben diverso quello di K10 e K200), ma in assoluto. Questo dà dei vantaggi a bassi ISO ma si inizia a pagare sopra i 400 ISO
Effettivamente mi aspettavo un grosso salto avanti invece ... poi si che la 1Dsmk3 è molto superiore ma costa 10 volte di più e immagino che adotti soluzioni di ordine superiore ... non credete?
indubbiamente costa molto di più e adotta soluzioni estremamente sofisticate (per le attuali tecnologie); soluzioni per il NR che sono adottate solo sulla serie 1Ds di canon. Però, come ha detto Patriota, nonostante tutto, non è meno rumorosa della 5D che costa molto meno ed ha algoritmi di NR molto meno sofisticati
Raghnar-The coWolf-
05-12-2008, 19:03
Scrivete troppo! Non riesco a rispondervi punto a punto :P
1- Intendi 5D e 1DsIII hanno rumori equivalenti a crop 100%?
2- Appunto perchè filtrata da AA, NR...etc... non ha granchè senso chiedersi se si è raggiunto il limite di risolvenza delle lenti coi sensori odierni. (E il comportamento quantistico del fotone, a questi livelli, direi che si può trascurare alla grandissima =_=''). E anche se fosse, non sarebbe un grosso problema: il limite di risolvenza era già stato raggiunto con la pellicola (che sì, ha più righe per mm ed è più definita, indipendentemente dalle review su internet, le cineprese sono fatte come sono fatte e continuano ad essere fatte per un motivo e non per fancyness. E una cinepresa sola costa più di tutte le macchine e obiettivi Canon messi assieme.) ed era così lapallissiano che non ci si poneva neppure il problema.
3- Vi basate sulla review di un sito che manca completamente di sistematicità scientifica per mostrare i suoi grafici. Che va benssimo per farsi un'idea sulla lente, ma non di certo per supportare discussioni sui massimi sistemi
yossarian
05-12-2008, 19:07
Intendi 5D e 1DsIII hanno rumori equivalenti a crop 100%?
ad alti iso la 5D ha immagini persino migliori se si fa un confronto basandosi su pulizia e dettagli
Raghnar-The coWolf-
05-12-2008, 19:13
ad alti iso la 5D ha immagini persino migliori se si fa un confronto basandosi su pulizia e dettagli
Ma tu stai confrontando un crop 100% di 10MP con un crop 100% di 21 MP.
Ovvero non c'è partita.
Ha immagini persino migliori, ma se io di ogni 2 pixel ne faccio uno, e non sono un cane a post processare, vedi che il rumore miracolosamente svanisce.
Il comportamento in funzione del rumore, è ANCHE legato ai megapixel.
Guardare i crop 100% ha un senso ma non restituisce una misura assoluta.
Se io faccio due foto, i cui crop 100% hanno lo stesso identico rumore, ma una è 10MP e l'altra è 20MP, avrò molto, moltissimo più margine di post processing per togliere il rumore, e se infine degrado l'immagine a 20MP a 10MP, otterrò un'immagine 10MP molto più definita e molto meno rumorosa di quella di confronto.
Questo è PP di base... @_@
yossarian
05-12-2008, 19:21
Ma tu stai confrontando un crop 100% di 10MP con un crop 100% di 21 MP.
Ovvero non c'è partita.
Ha immagini persino migliori, ma se io di ogni 2 pixel ne faccio uno, e non sono un cane a post processare, vedi che il rumore miracolosamente svanisce.
Il comportamento in funzione del rumore, è ANCHE legato ai megapixel.
Guardare i crop 100% ha un senso ma non restituisce una misura assoluta.
Se io faccio due foto, i cui crop 100% hanno lo stesso identico rumore, ma una è 10MP e l'altra è 20MP, avrò molto, moltissimo più margine di post processing per togliere il rumore, e se infine degrado l'immagine a 20MP a 10MP, otterrò un'immagine 10MP molto più definita e molto meno rumorosa di quella di confronto.
Questo è PP di base... @_@
come fai a fare due crop 100% uno da 10 ed una da 20 Mpixel con lo stesso rumore? Un'immagine da 10 Mpixel avrà sempre meno rumore di una da 20 Mpixel, anche con filtro NR di qualità inferiore. Oppure, un'immagine da 20 Mpixel con poco rumore avrà molto meno dettaglio di una da 10 Mpixel. Prova a vedere quanto dettaglio guadagni con i 15 Mpixel della 50D rispetto ai 10 della 40D, ed esempio.
yossarian
05-12-2008, 19:29
Scrivete troppo! Non riesco a rispondervi punto a punto :P
1- Intendi 5D e 1DsIII hanno rumori equivalenti a crop 100%?
2- Appunto perchè filtrata da AA, NR...etc... non ha granchè senso chiedersi se si è raggiunto il limite di risolvenza delle lenti coi sensori odierni. (E il comportamento quantistico del fotone, a questi livelli, direi che si può trascurare alla grandissima =_=''). E anche se fosse, non sarebbe un grosso problema: il limite di risolvenza era già stato raggiunto con la pellicola (che sì, ha più righe per mm ed è più definita, indipendentemente dalle review su internet, le cineprese sono fatte come sono fatte e continuano ad essere fatte per un motivo e non per fancyness. E una cinepresa sola costa più di tutte le macchine e obiettivi Canon messi assieme.) ed era così lapallissiano che non ci si poneva neppure il problema.
3- Vi basate sulla review di un sito che manca completamente di sistematicità scientifica per mostrare i suoi grafici. Che va benssimo per farsi un'idea sulla lente, ma non di certo per supportare discussioni sui massimi sistemi
mi basta vedere il confronto tra due lenti di qualità elevata su un aps-c da 8 Mpixel: in teoria dovrebbero dare gli stessi valori (se il limite è il sensore); nella pratica non è così, quindi almeno una delle due lenti fa da collo di bottiglia (e parliamo dell'ef 70-200 f2.8 is sul sensore della 350d). Si tratta di un test MTF; o lo reputi valido, oppure ci si deve affidare alla tua valutazione soggettiva che è diversa dalla mi a o da quella di chiunque altro. se lo consideri attendibili (il test, non il sito) e non concordi con queste conclusioni è evidente che non ti è molto chiaro il concetto di collo di bottiglia di un sistema.
se, invece, ti riferisci alle immagini postate da Patriota, sarà anche come dici un sito che fa anilisi prive di fondamento scientifico (ma anche affermazioni sul presunto potere risolvente della pellicola lo sono); resta il fatto che le immagini della provia sono le meno dettagliate e anche le peggiori in quanto a riproduzione dei colori. Sembrano decisamento meglio persino i 6.3 Mpixel, non eccelsi (bassa efficienza quantica anche rispetto al più denso sensore della 20d e della 30d, nonchè a quello della 40d) della 10D (senza scomodare la 1Ds).
In quanto al discorso pellicole e cineprese, sinceramente mi sembra un po' confuso: sarebbe opportuno chiarirlo meglio anche se questa non è la sede opportuna. E comunque, esistono cineprese professionali digitali (se è questo che intendevi)
Raghnar-The coWolf-
05-12-2008, 21:08
Indendo che il cinema vero si fa ancora su pellicola. E non perchè ci sono affezionati, anche perchè la pellicola comporta costi immani.
Escono molte telecamere professionali digitali, quasi tutte oramai, ma d'altronde è ovvio che una telecamera digitale è superiore a una betacam seppure costi molto meno. (Io ho una XH-A1 e anche una Betacam e una DV... Solo cambiare gli elettrolitici della Betacam mi è quasi costato quanto la XH-A1... Avessi potuto aspettare qualche anno... >.<)
Ma il cinema si fa su 35mm. Alcune cineprese digitali escono, per produzioni indipendenti, funzionano, anche bene voglio dire, ma non hanno la stessa qualità della Pellicola.
yossarian
05-12-2008, 21:38
Indendo che il cinema vero si fa ancora su pellicola. E non perchè ci sono affezionati, anche perchè la pellicola comporta costi immani.
Escono molte telecamere professionali digitali, quasi tutte oramai, ma d'altronde è ovvio che una telecamera digitale è superiore a una betacam seppure costi molto meno. (Io ho una XH-A1 e anche una Betacam e una DV... Solo cambiare gli elettrolitici della Betacam mi è quasi costato quanto la XH-A1... Avessi potuto aspettare qualche anno... >.<)
Ma il cinema si fa su 35mm. Alcune cineprese digitali escono, per produzioni indipendenti, funzionano, anche bene voglio dire, ma non hanno la stessa qualità della Pellicola.
apro un leggero OT (spero mi sia consentito :D ); faccio parte, tra le altre cose, di un'associazione culturale che gestisce un cineclub indipendente e autofinanziato. Ogni anno proponiamo, tra le altre, anche una rassegna in pallicola. Discorsi come il tuo sono al'ordine del giorno e ci sono due vere e proprie fazioni: chi sostiene che sia meglio la pellicole, chi dice che la qualità sia indistinguibile. Ma la diatriba si articola non sulla risoluzione, quanto piuttosto sul colore: chi propugna la superiorità della pellicola afferma che questa abbia toni più "caldi e profondi" e dice di trovare "freddo" il digitale. Ora, il paragone che noi possiamo fare è tra la pellicola e il dvd. In realtà esistono già dei cinema e Roma e in altre parti d'Italia, in cui si fa uso di proiettori digitali. Ti assicuro che ne sono venuto a conoscenza solo da un addetto della S.A.C. (servizio ausiliari cinema, coloro che custodiscono e smistano le pizze che vengono distribuite nelle sale cinematografiche) e lui stesso mi ha detto che la gente che non sa che in quei cinema si fa uso del digitale non si è accorta della differenza.
Un codifica digitale di alta qualità garantisce un'ottima risoluzione e una notevole profondità di colore: tutto è relativo alle caratteristiche della codifica utilizzata. Nell'industria cinematografica si usano diversi tipi di pellicola e diverse codifiche. Tipicamente, le 35 mm hanno una risoluzione equivalente massima di 28 Mpixe mentre lo stendard minimo è il cosiddetto 2K (2048x1556), ma si hanno anche pellicole 16 mm (usate per produzioni a basso costo, tipo fiction o sceneggiati) e 70 mm che possono arrivare a 8K (8192x6224). Per quanto riguarda i colori, invece, c'è da considerare la dinamica massima parcepibile dall'occhio umano (che è circa 10 mln di sfumature per canale); una codifica a 24 bit è già sufficiente a saturare questa capacità. La codifica minima per digitalizzare le immagini cinematografiche è di 10 bit per colore, ma si fa anche uso di 12, 14 di tipo log 16 bit, o 32 bit lineari. Già a partire dai 12, 14 bit, per quanto lo spazio colore sia molto ridotto rispetto a quello massimo dell'occhio umano, diventa difficile percepire la stragrande maggioranza delle sfumature di colore. Tieni presente che i nostri monitor, tranne EIZO e, forse, qualche altro marca, usano palette da 8 bit per canale, eppure abbiamo la sensazione di percepire una gamma di colore notevolmente ampia grazie alla codifica logaritmica (che permette la compressione di valori nelle zone dove l'occhio è mebo sensibile e l'espansione in quelle in cui è più sensibile).
lui stesso mi ha detto che la gente che non sa che in quei cinema si fa uso del digitale non si è accorta della differenza.
Io me ne accorgo eccome.. guardare wall-e proiettato in digitale o con pellicola sembra di vedere due film diversi. Non ho fatto un sondaggio tra i miei conoscenti, ma per me la differenza è *lampante*
Tra l'altro mi risulta che la moltissime produzione cinematografiche (americane su tutte) facciano largo uso di macchine digitali. Basta dare un occhio alle ultime uscite su IMDB, in ogni film ritrovi almeno una Panavision Millenium o Sony Cinealta..
Certo è che nonostante tutto la pellicola nel cinema ha la pelle durissima :D
Raghnar-The coWolf-
05-12-2008, 23:48
apro un leggero OT (spero mi sia consentito :D ); ...
Bella Digressione.
Il fatto dei colori guarda, la gente è fissata, quando paragona analogico digitale, su alcune cose...
Se noti, qualsiasi sia il campo, il digitale è sempre "freddo" e l'analogico è sempre "caldo".
Il suono vinile è "caldo, avvolgente", le foto da pellicola hanno colori "Caldi, avvolgenti", Il suono ampli valvolare è "caldo, avvolgente"...etc... Ci manca che me lo dicono anche in laboratorio che gli amplificatori spettroscopici analogici sono "caldi, avvolgenti" :lol:
A una certa mi son fatto l'idea sociologica che chi non ha occhio/orecchio per distinguere le differenze o modestia per ammettere che non ne vede (sempre che ce ne siano neh :P ) affibbia gli aggettivi con cui solito si definisce proprio la tecnologia analogica e il corrispettivo digitale...
Io me ne accorgo eccome.. guardare wall-e proiettato in digitale o con pellicola sembra di vedere due film diversi. Non ho fatto un sondaggio tra i miei conoscenti, ma per me la differenza è *lampante*
Mamma mia che schifo la digitalizzazione (beh più che digitalizzazione si parla di compressione ghghg) di Wall-E.
Ma devono aver fatto casino col riversamento perchè davvero è una cosa mostruosa, anche i frame per second secondo erano sballati dove l'ho visto, se non fosse stato un film straordinario e fossi uscito dalla sala un po' più incazzato avrei fatto il '48. >.<'
PS: basta OT, chiedo perdono >.<
(IH)Patriota
06-12-2008, 18:00
Scrivete troppo! Non riesco a rispondervi punto a punto :P
1- Intendi 5D e 1DsIII hanno rumori equivalenti a crop 100%?
Metto una serie di foto cosi' famo prima a valutare in soldoni le differenze tra i due sistemi ribadendo che siamo ancora in un campo dove l' aumento della densita' ha un vantaggio rispetto all' incremento del rumore (alias 5mpix Vs- 10Mpic in formato aps)
Lente 135mm usato ad F4
http://www.matteofossati.it/articoli/ffcontest/3200ISO.jpg
Sono crop al 100% a 3200 ISO fatti in studio sulla medesima scena (stessa luce) senza PP , il file della 5D è stato ridimensionato in CS3 portandolo a 21Mpix perchè trovo che abbia piu' senso ingrandire la vecchia tecnologia che castrare quella nuova per fare un confronto (per la serie se ci posso arrivare con photoshop perchè spendere altri soldi per comprare una macchina nuova ;))
Da questo confronto non escono dati numerici ma non credo che si possa affermare che ci sia un abisso in termini di dettaglio a favore della 1Ds e che ci siano enormi differenze in termini di rumore , anche stampando 50*70 le differenze restano minime.
Guadagno di dettaglio a bassi ISO
135mm usato ad F4 100ISO
http://www.matteofossati.it/articoli/ffcontest/resolution2.jpg
Il file della 1Ds è un po' piu' dettagliato in particolarmodo sul bordo , stampando la differenza la vedresti meglio che nel caso sopracitato.
24mm FL usato ad F8 (quindi con un tentativo chiaro di ottenere bordi buoni).
http://www.matteofossati.it/articoli/ffcontest/resolution1.jpg
Al centro il miglioramento è evidente (la 5D era troppo poco densa per catturare ulteriore dettaglio) mentre ai bordi nonstante la lente sia chiusa ad F8 non c'è sicuramente lo stesso margine di guadagno , e questo perchè la lente non è in grado di fornire ulteriore dettaglio ... e ad F8 il 24L è gia' buono facendo il test ad F1.4 la cosa sarebbe 10 volte piu' evidente ...
Ecco perchè dico che la storiella delle lenti con capacita' infinta di risolvere dettaglio è un po' poco credibile , ecco perchè trovo che un incremento di densita' non abbia senso oltre un certo limite (10/12 Mpix aps-c) visto che il rumore ed il filtro NR insieme comporterebbero un dettaglio praticamente identico a quello di un sensore meno denso ridimensionato in PP (prima foto 5D@3200ISO e 1Ds con NR).
Indubbiamente un vantaggio a bassi ISO c'è ma non è stravolgente e per ottenerlo servono signore lenti , sopratutto per ottenerlo con aperture del diaframma definibili "fotografiche" .
Non posso girare sempre con le lenti serrate ad F8/F13 per poter sfruttare il sensore , anche perchè presto o tardi mi vedrei costretto ad alzare gli ISO perdendo il vantaggio dovuto alla maggiore densita' perchè alti ISO ed NR sbriciolano il vantaggio.
Ribadisco che in questa comparativa stiamo ancora discutendo/analizzando densita' relative gia' sorpassate da 1 anno nel formato aps-c , densita' dove comunque il vantaggio in termini di sfruttamento ulteriore delle lenti è piuttosto importante e dove l' incremento di rumore non è folle , secondo la mia esperienza oltre questa soglia il cane comincia a mordersi la coda e se ci puo' anche stare una differenza numerica nelle recensioni non è difficile accorgersi che nella realtà le differenze restano a livello del poco percettibile.
Figuriamoci poi se al posto di signore lenti ci abbiniamo zoom piu' o meno economici e bui (cosi' da dover alzare gli ISO).
Ciauz
Pat
p.s.
chiedo scusa per aver stroiato il form factor del forum con crop grandi ma ho preferito non ridimensionarli ;)
ilguercio
06-12-2008, 18:39
Guarda Pat,in sostanza sono d'accordo con te.Le lenti non risolvono all'infinito e lo si vede chiaramente in un qualsiasi mtf di uno stesso obiettivo su due macchine diverse.
Ecco perchè lo stesso 18-55 IS(che ho) satura il sensore della 350D a 18 e 28 mm f/5.6 mentre una volta passato su 50D il risultato è comunque buono,ma di certo il limite è ben più lontano.
Per quanto poco ne so,i numeri alla fine parlano chiaro.Una lente per quanto non sia un elemento elettronico discreto è comunque un mezzo attraverso il quale la luce passa più o meno bene.
Piuttosto,mi incuriosiscono i test con la D200 senza il filtro AA...il guadagno è incredibile.Alla fine il problema sarebbe solo il moirè o c'è dell altro di cosi evidente?
[..]secondo la mia esperienza oltre questa soglia il cane comincia a mordersi la coda[..]
qui ho temuto di vedere un altro crop 100% di un soggetto diverso dal braulio :D
yossarian
06-12-2008, 21:40
Guarda Pat,in sostanza sono d'accordo con te.Le lenti non risolvono all'infinito e lo si vede chiaramente in un qualsiasi mtf di uno stesso obiettivo su due macchine diverse.
Ecco perchè lo stesso 18-55 IS(che ho) satura il sensore della 350D a 18 e 28 mm f/5.6 mentre una volta passato su 50D il risultato è comunque buono,ma di certo il limite è ben più lontano.
Per quanto poco ne so,i numeri alla fine parlano chiaro.Una lente per quanto non sia un elemento elettronico discreto è comunque un mezzo attraverso il quale la luce passa più o meno bene.
Piuttosto,mi incuriosiscono i test con la D200 senza il filtro AA...il guadagno è incredibile.Alla fine il problema sarebbe solo il moirè o c'è dell altro di cosi evidente?
il moire è solo l'effetto più evidente, L'alisasing provoca artefatti e, persino, alterazioni della gamma cromatica. Di fatto provoca errori di soglia nelle operazioni di campionamento e quantizzazione dei segnali e, quindi, alterazione del valore dei singoli bit.
Il moire è l'effetto che si ha quando si tenta di rappresentare un reticolo di elementi periodici attraverso un altro reticolo di elementi periodici a frequenza differente (il secondo è, ovviamnte, il sensore della fotocamera)
ilguercio
06-12-2008, 21:56
Beh,allora sulle fasce più alte il filtro in che modo è diverso?
yossarian
07-12-2008, 08:40
Beh,allora sulle fasce più alte il filtro in che modo è diverso?
La qualità del filtro può essere differente. Il moire, ad esempio, è un disturbo originato dll'operazione di interpolazione che, se da un lato, permette di ricavare, ad esempio, da poco più di 10 mln di punti circa 10 milioni di pixel (ogni pixel è, di fatto, composto da 3 punti, uno per ognuno dei tre colori RGB) dall'altro dà origine ad un rumore dovuto all'interferenza dei segnali generati da punti contigui. Quindi, il "disegno" tipico dei moire non è altro che una serie di frange di interferenza. Per eliminarlo, vado ad agire sulle frequenze che disturbano i segnali dei punti vicini. Queste sono "alte frequenze" rispetto alla frequenza di campionamento, che non vengono correttamente interpretate e alterano i valori dei segnali nei punti circostanti. Un filtro AA atto ad eliminare questi disturbi, di fatto, non è altro che un fltro passabasso che taglia le frequenze al di sopra della frequenza di Nyquist. Detto così sembra semplice: calcolo la banda di nyquist e applico un taglio a tutte le frequenza al di fuori. Di fatto non funziona così, poichè un'operazione del genere rischia di tagliare anche frequenze utili alla corretta riproduzione dei colori (ogni colore ha una sua frequenza e si va dalla banda del rosso, che ha valori inferiori, a quella del blu che ha le frequenze più alte). La conseguenza è che un filtro AA aggressivo ammorbidisce le immagini, appiattendo i colori nelle zone di transizione e "mangiandosi" parte della risoluzione. Quello che si fa è, allora studiare il modo di eliminare i disturbi riducendo al minimo l'impatto negativo dei filtri sulla nitidezza delle immagini. Sensori più densi e fotositi più piccoli necessitano di filtri più aggressivi. Questo siginifica che più aumento la dennsità del sensore, più il filtro ha un impatto negativo sulla risoluzione reale, più devo studiare per arrivare ad implementare un filtro che mi lasci passare abbastanza frequenze anche al di fuori della banda da non "ammorbidire" troppo l'immagine, ma non troppe da introdurre dei disturbi visibili.
Di conseguenza, non tutit i filtri sono uguali tra loro, pur essendo identico il principio su cui si basano. Fotocamere più costose hanno filtri più "sofisticati" e costosi che eliminano i difetti da aliasing riducendo al minimo l'impatto sulla definizione delle immagini; foltri più a buon mercato agiscono in maniera più invasiva, eliminando i disturbi ma ammorbidendo le immagini oltre il dovuto. Ad esempio, in casa canon il filtro utilizzato sulla 400d (o quello della 350d e quello della 30d) e quello della 40d sono differenti.
Discorso analogo per gli algoritmi di NR. Più si va verso fotocamere professionali e sensori più densi, più gli algoritmi usati sono sofisticati e complessi. Si va da algortimi semplici, che intervengono sulla sola crominanza e, solo in misura ridotta, sulla luminanza, ad algoritmi più avanzati che lavorano su tutti e tre i canali della crominanza separatamente, agendo in maniera differenziata sulle tre componenti di colore: poichè l'occhio è più sensibile al verde ed alle aree scure, questi filtri, a bassi ISO, agiscono in maniera più blanda sul rosso (non è un caso che nei test sintetici, che rilevano le aberrazioni cromatiche in maniera oggettiva, la stragrande maggioranza delle fotocamere presenta uno scostamento maggiore dai valori di riferimento proprio alle basse frequenze, ovvero nella banda del rosso, mentre l'occhio umano, meno sensibile alle basse frequenze, non riesce a rilevare questi artefatti); questo permette di avere immagini pulite e, nello stesso tempo, nitide. Ad alti iso, invece, il filtro agisce in maniera più incisiva su tutte e tre le componenti, ammorbidendo, più o meno, le immagini a seconda delle scelte operate dal produttore sull'aggressività del filtro stesso.
Le fotocamere di fasci amolto alta (in realtà lo fa solo canon sulla serie 1Ds, almeno finora), hanno algoritmi di NR che spalmano in maniera più uniforme il rumore tra le varie frequenze, in modo da ottenere rumore a "grana fine" a cui l'occhio è meno sensibile (il rumore è lo stesso ma meno fastidioso).
Tutti questi accorgimenti contribuiscono, ovviamente, a far lievitare il costo delle fotocamere
ilguercio
07-12-2008, 09:48
Grazie,avevo letto qualcosa ma il tuo intervento mi ha chiarito bene o male tutti i dubbi.
E in campo ottico cosa ci dobbiamo aspettare?Voglio dire,quand'è che diremo che abbiamo raggiunto il limite di risolvenza?E che faranno per abbatterlo?
moris_bs
09-12-2008, 08:59
Molto interessante la tua analisi yossarian sugli effetti e le cause dell'aliasing nei disturbi ... effettivamente non filtrare a sufficenza le alte frequenze dei segnali vuol dir introdurre disturbi anche imprevedibili in fase di riproduzione dell'immagine acquisita...
Anche io sono convinto che le lenti oltre tot di risoluzione intrinseca non arrivano, ma credo proprio che non ne siamo ancora ai limiti altrimenti come si spiegano che le case siano salite ancora in MB ottenedo anche buoni risultati?
Forse ero anch'io propenso a crederlo ma quando ho visto i risultati del pentax k20d e del bel balzo in avanti ... vantaggi ancor maggiori se saliamo in ISO ... dove invece avrebbe dovuto essere penalizzata ...
Io ho visto anche confronti a 1600iso con l'assai meno densa D700 (uscita quasi 1 anno dopo) e se la gioca ;)
Non credo alla solita storia che con MP di risoluzione in + è solo marketing per attirare la gente ... perchè le camere con tanti MP 10MP e più sono solo quelle pro o semi pro cioè quelle rivolte ad un utenza più evoluta e che se ne poteva fregar di meno dei MB in più (come a me, io sarei anche troppo contento già con 5MP) ma quello che guarda è la qualità finale più oviamente alcune caratteristiche di "comodità" tipo qualità con + alti iso e velocità ...
Poi concordo che crescere troppo in densità non comporta un ritorno diretto e proporzionale in risoluzione, tanto più che siamo vicini ai limiti dell'attuale tecnologia non tanto delle ottiche ma della stampa e riproduzione a video.
A tal proposito ho visto delle foto fatte con la vecchie pellicole ed io non ho ancora visto una digitale che le equivalga quanto a dinamica e dettaglio.
Altra affermazione che ho letto qui che non mi trova completamente d'accordo è che maggiore densità comporta filtri più pensanti ...secondo me è proprio il contrario.
In termini di antialiasing essendo che l'immagine è sorgente di infinite frequenze di segnali, queste,per evitare maggiori artefatti, vanno limitate proporzionalmente alla capacità di campionamento ovvero alla risoluzione del sensore.
Per cui un sensore più denso usa un filtro passa basso che lascia passare frequenze più alte.
Poi certo che al "buio" (+ alti iso) se il sensore è maggiore percepisce più segnale e quindi si comporta meglio ma questo prescinde dal 'avere un filtro più o meno spinto.
A tal proposito più che confrontare delle scritte di giornale che hanno una dinamica limitata sarebbe meglio usare foto con maggiore dinamica ed è li che secondo me risalta l'icremento in dettaglio dei sensori più "risolutivi".
Concludo che non dobbiamo scordare che crescere in densità e quindi scendere ancora in dimesioni delle celle sensibili costa molto alle case che appunto devono appoggiarsi come ha fatto Pentax alla sony e poi alla samsug ...
Forse per loro è più conveniente fermarsi in questa corsa e intraprenderne un'altra strada del formato maggiore e cosi spostare l'interesse ed i vantaggi ad dati ad alti ISO.
(IH)Patriota
09-12-2008, 09:47
Anche io sono convinto che le lenti oltre tot di risoluzione intrinseca non arrivano, ma credo proprio che non ne siamo ancora ai limiti altrimenti
Se le lenti non fossero al limite dopo aver saturato gli 8 Megapixel della 350D (2150linee/mm) dovrebbero saturare anche i 15mpixel della 50D (2700linee/mm).Nella realta' le lenti che arrivano a saturare 8 Megapixel sono poche e quelle che arrivano a saturarne 15 non le hanno ancora fabbricate.
I miglioramenti sono per buona parte imputabili ai filtri AA ottimizzati rispetto alle vecchie versioni ed in modo marginale legati alla maggiore densita' dei sensori (tant'è che migliorano anche le lenti che non arrivano a saturare 8Mpix).
come si spiegano che le case siano salite ancora in MB ottenedo anche buoni risultati?
Puro e semplice markenting , la prima cosa mi che chiede uno quando ho in mano la macchina fotografica è "quanti Megapixel ha ?" , quando va a comprare la macchina l' utente comune sceglie convinto che 12Mpix sia meglio di 10Mpix , se vede un obbiettivo bianco ed enorme è convinto che sia lunghissimo quando invece a parita' di focale è semplicemente piu' luminoso ecc..ecc..
Forse ero anch'io propenso a crederlo ma quando ho visto i risultati del pentax k20d e del bel balzo in avanti ... vantaggi ancor maggiori se saliamo in ISO ... dove invece avrebbe dovuto essere penalizzata ...
Io ho visto anche confronti a 1600iso con l'assai meno densa D700 (uscita quasi 1 anno dopo) e se la gioca ;)
Se la gioca ? Ma stai scherzando ?
K20D (http://farm4.static.flickr.com/3181/3002015774_5711ec6207_o.jpg)
D3 (stesso sensore della D700) (http://farm4.static.flickr.com/3045/2955300673_3bc3c54e74_o.jpg)
C'è un abisso tra la resa delle due macchine , sia come rumore che come dettaglio residuo.
Non credo alla solita storia che con MP di risoluzione in + è solo marketing per attirare la gente ... perchè le camere con tanti MP 10MP e più sono solo quelle pro o semi pro
Si buonanotte , prendo gli ultimi 2 modelli recensiti da Dpreview per categoria.
Compattine.
Panasonic DMC-LX3 - 10Mpix
Sony DSC-T300 - 10Mpix
Bridge
Canon Powershot G10 - 14Mpix
FujiFilm S100Fs - 11Mpix
Reflex Entry Level
Canon 450D - 12Mpix
Olympus E420 - 10Mpix
Pentax K-M - 10Mpix
Reflex Avanzate
Canon 50D - 15Mpix
Nikon D90 - 13Mpix
Pentax K20D - 14Mpix
Sony Alpha 700 - 12 Mpix
Reflex Semipro
Nikon D300 - 12Mpix
Nikon D700 - 12Mpix (FF)
Canon 5D MKI - 12Mpix (FF)
Reflex Professionali sportive
Nikon D3 - 12Mpix (FF)
Canon 1Dmk3 - 10Mpix (aps-H)
Reflex Professionali studio
Canon 1DsMk3 -21 Mpix (FF)
Nikon D3x - 25Mpix (FF)
Sony Alpha900 24Mpix (FF)
Guardacaso quelle meno dense sono le professionali sportive seguite a ruota da quelle da usare in studio.
Di fatto la densita' delle reflex professionali da studio è a livello delle refex entrylevel (10Mpix su aps-c) nelle sportive (quindi quelle con ISO migliori) non arrivano a densita' superiori a 4,9Mpix in formato APS-C.
Le piu' dense in assoluto sono compatte e bridge con i loro microsensori , qualita' che fa schifo ma che ammaliano una marea di gente , gente che , mi spiace per loro , si fa prendere per il sedere dai numeri e dalle case costruttrici che sfruttano la loro incompetenza nel campo.
ma quello che guarda è la qualità finale più oviamente alcune caratteristiche di "comodità" tipo qualità con + alti iso e velocità ...
La finirei cosi: ma quello che guarda è la qualità finale più oviamente alcune caratteristiche di "comodità" tipo qualità con + alti iso e velocità si prende una macchina con pochi megapixel e densita' ridotta (D700,D3,1Dmk3).
A tal proposito ho visto delle foto fatte con la vecchie pellicole ed io non ho ancora visto una digitale che le equivalga quanto a dinamica e dettaglio.
Guarda questo Link (http://www.vrphotography.com/data/pages/techtutorials/technotes/filmvdigitalpanos.html) e questo (http://www.vrphotography.com/data/pages/askexperts/pano/filmvdigpanos.html) che contemplano la produzione digitale di 5 anni fa ... ora siamo un bel po' piu' avanti e non credo che un file prodotto da una D700 , da una 5D (mkI o MKII) possano avere molto da recriminare sia come dettaglio che come gamma dinamica per non dire che qualitativamente con le ultime digitali siamo piuttosto avanti anche a bassi ISO , ad alti ISO la pellicola è gia' stata sconfitta anni fa.Resta forse un vantaggio nelle pellicole a basse sensibilita' in BN , e dico forse perchè i dettagli che si recuperano con una 5D sono impressionanti ... provare per credere.
Ciauz
Pat
moris_bs
09-12-2008, 10:52
Se le lenti non fossero al limite dopo aver saturato gli 8 Megapixel della 350D (2150linee/mm) dovrebbero saturare anche i 15mpixel della 50D (2700linee/mm).Nella realta' le lenti che arrivano a saturare 8 Megapixel sono poche e quelle che arrivano a saturarne 15 non le hanno ancora fabbricate.
I miglioramenti sono per buona parte imputabili ai filtri AA ottimizzati rispetto alle vecchie versioni ed in modo marginale legati alla maggiore densita' dei sensori (tant'è che migliorano anche le lenti che non arrivano a saturare 8Mpix).
Puro e semplice markenting , la prima cosa mi che chiede uno quando ho in mano la macchina fotografica è "quanti Megapixel ha ?" , quando va a comprare la macchina l' utente comune sceglie convinto che 12Mpix sia meglio di 10Mpix , se vede un obbiettivo bianco ed enorme è convinto che sia lunghissimo quando invece a parita' di focale è semplicemente piu' luminoso ecc..ecc..
Se la gioca ? Ma stai scherzando ?
K20D (http://farm4.static.flickr.com/3181/3002015774_5711ec6207_o.jpg)
D3 (stesso sensore della D700) (http://farm4.static.flickr.com/3045/2955300673_3bc3c54e74_o.jpg)
C'è un abisso tra la resa delle due macchine , sia come rumore che come dettaglio residuo.
Se guardi qui
imaging-resource (http://www.imaging-resource.com/IMCOMP/COMPS01.HTM)
con la d700 se la gioca ...ha qualche artefatto in + ad alti iso ma a risoluzione è superiore ... alla faccia del fatto che dovrebbe avere filtri più pesanti invece il contrario secondo me ... E non sottovalutiamo anche che la D700 costa 3 volte tanto.
Poi si con la D3 non cè tanto storia anche se a risoluzione se la batte bene ma quella costa 4mile €uri contro i 700€ ... e ci mancherebbe ...;)
...
Guardacaso quelle meno dense sono le professionali sportive seguite a ruota da quelle da usare in studio.
Di fatto la densita' delle reflex professionali da studio è a livello delle refex entrylevel (10Mpix su aps-c) nelle sportive (quindi quelle con ISO migliori) non arrivano a densita' superiori a 4,9Mpix in formato APS-C.
Si certo le pro sportive sono meno dense ma puntano più sulla velocità e raffica che sul dettaglio e quindi meno bit da processare è meglio.
Come dici guarda caso le pro studio sono a 10Mp ...
Le piu' dense in assoluto sono compatte e bridge con i loro microsensori , qualita' che fa schifo ma che ammaliano una marea di gente , gente che , mi spiace per loro , si fa prendere per il sedere dai numeri e dalle case costruttrici che sfruttano la loro incompetenza nel campo.
Già vero certe bdge hanno 14Mp, però quelle usano lenti che sono "fondi di bicchiere" per niente ottimizzati e anche se usassere il sensore del canon mark3 dubito che si noti la differenza ...
Non siamo più agli inizi del digitale dove tutti si usava dire " più MP è meglio", ora la gente è molto più informata ed è più esigente non solo a livello pro e semipro.
La maggior parte della gente legge recensioni e discussioni compresa questa,legge pareri e confronti prima di acquistare ...
La finirei cosi: ma quello che guarda è la qualità finale più oviamente alcune caratteristiche di "comodità" tipo qualità con + alti iso e velocità si prende una macchina con pochi megapixel e densita' ridotta (D700,D3,1Dmk3).
...
Ciauz
Pat
Ribadisco ancora che i sensori non sono prodotti in casa ma affidati ad altre società come sony e Samsun o Faveon ...
Per cui i costi su superfici maggiori impiegati sui sensori con maggior risoluzione quindi maggior livello di integrazione posso senza dubbio pesare non poco sui margini di guadagno ...
Faveon che ho letto avere una nitidezza stratosferica (alla faccia dei limiti nelle ottiche) peccato non abia preso tanto piede ... ma non sempre la la qualità è sufficente per vincere nel mercato ...
(IH)Patriota
09-12-2008, 12:11
Se guardi qui
imaging-resource (http://www.imaging-resource.com/IMCOMP/COMPS01.HTM)
con la d700 se la gioca ...ha qualche artefatto in + ad alti iso ma a risoluzione è superiore ... alla faccia del fatto che dovrebbe avere filtri più pesanti invece il contrario secondo me ... E non sottovalutiamo anche che la D700 costa 3 volte tanto.
Poi si con la D3 non cè tanto storia anche se a risoluzione se la batte bene ma quella costa 4mile €uri contro i 700€ ... e ci mancherebbe ...;)
Direttamente dal tuo link , 1600 ISO , il file della D700 da 12Mpix è stato ingrandito a 14Mpix in photoshop , il resto è copia ed incolla.
http://img262.imageshack.us/img262/7773/d700k20dse8.jpg (http://imageshack.us)
Per me non c'è paragone con i due file sia come rumore che come dettaglio la D700 stravince a mani basse e con una densita' relativa al formato aps-c della D700 inferiore ai 5Mpix.
Si certo le pro sportive sono meno dense ma puntano più sulla velocità e raffica che sul dettaglio e quindi meno bit da processare è meglio.
Le sportive hanno meno megapixel sia per un discorso di raffica che per un discorso di rumore , una 1Dmk3 a 6400ISO ha piu' dettaglio della 1Dsmk3 a 6400ISO nonstante abbia 10Mpix (contro 21Mpix).
Piu' sopra ci sono i crop di 5D ed 1Ds3 (12mpix FF Vs 21Mpix FF) non mi venire a raccontare che i 12Mpix della 5D sono chiaramente inferiori come resa dei dettagli rispetto alla 1Ds3 , se ti stampo anche un 50x70 le differenze ti garantisco che non le cogli.I fotografi sportivi lavorando per giornali e riviste nel 90% dei casi non stampano sopra all' A4 (pagina verticale) o all' A3 per cui prediligono avere alti ISO buoni e comunque un dettaglio sufficiente a stampare anche in grande formato , ho stampato dei 70x100 con i 10Mpix della 1D3 e ti garantisco che la resa è stata comunque eccellente.
Come dici guarda caso le pro studio sono a 10Mp ...
Le PRO da studio da 20 e passa megapixel (10mpix relativi al formato Aps-c) hanno un motivo di esistere piuttosto chiaro , sono macchine da usare in studio o fuori a basse sensibilita' (max 800 meglio meno) per determinate esigenze di stampa e non sono certo macchine adeguate all' uso a 360° come invece si richiede alle macchine di fascia amatoriale avanzata , spesso (per non dire sempre) chi ha queste macchine ha almeno un secondo corpo spesso meno denso e piu' veloce.
Già vero certe bdge hanno 14Mp, però quelle usano lenti che sono "fondi di bicchiere" per niente ottimizzati e anche se usassere il sensore del canon mark3 dubito che si noti la differenza ...
Ti sbagli, le bridge hanno sensore notevolmente piu' piccolo e le lenti di conseguenza hanno un raggio di copertura inferiore.Se analizziamo il potere risolvente al centro di una lente di una brdige scopriremmo che ha un potere risolvente nettamente superiore a quello delle lenti per reflex.
Il problema delle bridge non sta principalmente nei vetri (che diventano morbide ai lati) ma sopratutto nell' enorme densita' dei suoi sensori che obbligano i costruttori ad applicare filtri di Noise Reduction anche alle sensibilita' piu' basse limando rumore e dettaglio.
Non siamo più agli inizi del digitale dove tutti si usava dire " più MP è meglio", ora la gente è molto più informata ed è più esigente non solo a livello pro e semipro.
La maggior parte della gente legge recensioni e discussioni compresa questa,legge pareri e confronti prima di acquistare ...
E quindi in base a questo meglio una 40D da 10Mpix o una 50D da 15Mpix ?
Scommettiamo che se faccio un poll il 90% si sceglie la 50D anche se ha dei vetri di merda solo perchè pensa che 10 Mpix siano ormai troppo pochi ?
Faveon che ho letto avere una nitidezza stratosferica (alla faccia dei limiti nelle ottiche) peccato non abia preso tanto piede ... ma non sempre la la qualità è sufficente per vincere nel mercato ...
Il Foveon non è un sensore "comune" , lo usa solo sigma ed ha il grandissimo vantaggio di non avere il filtro di Bayer , ha un' eccellente resa a bassi ISO ma ad alti ISO soffre parecchio in piu' rispetto agli CMOS , per ora l' ha usato solo sigma e non ha avuto un grande successo per tanti motivi.
Ciauz
Pat
yossarian
09-12-2008, 13:31
Grazie,avevo letto qualcosa ma il tuo intervento mi ha chiarito bene o male tutti i dubbi.
E in campo ottico cosa ci dobbiamo aspettare?Voglio dire,quand'è che diremo che abbiamo raggiunto il limite di risolvenza?E che faranno per abbatterlo?
risolvere il problema non è semplice; da un lato hai gli effetti della rifrazione che provocano aberrazioni cromatiche e diminuzione del contrasto con conseguente riduzione della nitidezza "apparente" dell'immagine, dall'altro, con diaframmi chiusi, iniziano a pesare gli effetti della diffrazione che provoca una diminuzione della nitidezza a partire da un certo valore di f in poi (che dipende dalle dimensioni dei pixel e da quelle del cerchio di confusione che va confrontato con le dimensioni della circonferenza di Airy, al di fuori della quale si hanno frange di interferenza distruttive). Quindi, per quanto riguarda le lenti, è possibile combattere gli effetti della rifrazione utilizzando obbiettivi con meno gruppi di lenti (i fissi sono i migliori, oppure zoom con escursioni non troppo ampie), possibilmente trattate in modo da ridurre gli effetti indesiderati del passaggio dlla luce attraverso mezzi con indici di rifrazione differenti (la luce viene deviata e la deviazione è tanto più marcata quanto più si differenziano gli indici di rifrazione dei due mezzi; mettere uno strato di materiale con indice di rifrazione differente da quello del resto della lente in ingresso o in uscita della radiazione luminosa, può servire a "guidare" meglio la stessa evitando che prenda direzioni indesiderate). Altra soluzione è la realizzazione di ottiche di tipo telecentrico (olympus ha introdotto ottiche apposite per il 4:3 definite quasi telecentriche ed è, purtroppo, quel quasi a rovinare tutto; ottiche "quasi" telecentriche hanno un'utilità limitata (oltre al fatto che il "quasi telecentrico" non è una definizione molto corretta dal punto di vista tecnico, poichè un sistema o è telecentrico o non lo è). Per quanto riguarda la diffrazione c'è poco da fare: quando si "chiude" oltre un certo valore, diventa un fenomeno ineludibile. Per quanto riguarda i sensori, l'eliminazione del filtro AA è possibile solo con sensori che non fanno ricorso ad interpolazione tra i valori di subpixel contigui (ad esempio i dispositivi che fanno uso di 3 sensori, tra cui il foveon, in cui i sensori sono sovrapposti). Su alcuni dorsi digitali e fotocamere medio formato (ad esempio hasselblad), c'è la possibilità di fotografare un soggetto statico impostando dei micromovimento del sensore che si sposta, effettuando 4 scatti consecutivi, presentando per ogni scatto uno dei 4 elemnti fotosensibili (2 verdi, uno rosso e uno blu) del sensore, il più possibile perpendicolari alla radiazione luminosa incidente; l'immagine risultante è una media pesata delle 4 immagini ottenute. Questo al fine di superare i limiti dell'interpolazione necessaria con il bayer pattern flter. Infine discorso rumore: per migliorare il SNR di tipo quantico, la strada che con ogni probabilità sarà intrapresa è quella dei sensori di tipo back illuminated (con spostamento della circuiteria di elaborazione del segnale sul retro del sensore con la parte superiore tutta dedicata alla cattura della luce); per il rumore termico si deve cercare di ridurre ancora il valore delle tensioni di alimentazione (cosa fattibile con la miniaturizzazione); per il fixed noise pattern si deve, invece, abbassare la soglia della dark current (questo unita al miglioramento del SNR di tipo quantico, dà anche benefici relativi all'ampliamento della gamma dinamica).
Molto interessante la tua analisi yossarian sugli effetti e le cause dell'aliasing nei disturbi ... effettivamente non filtrare a sufficenza le alte frequenze dei segnali vuol dir introdurre disturbi anche imprevedibili in fase di riproduzione dell'immagine acquisita...
Anche io sono convinto che le lenti oltre tot di risoluzione intrinseca non arrivano, ma credo proprio che non ne siamo ancora ai limiti altrimenti come si spiegano che le case siano salite ancora in MB ottenedo anche buoni risultati?
buoni risultati non direi; nel passaggio, ad esempio, da 40D a 50D, a fronte di un aumento della risoluzione orizzontale teorica (quella più critica) di 576 linee (ovvero 576 punti o subpixel) si ha un incremento della risoluzione reale di sole 150 linee e di sole 50 linee rispetto ai 12 Mpixel della D300 (parliamo di risoluzione assoluta, oltre la quale si inizia ad avere perdita di dettagli).
Ti riporto le conclusioni di dpreview nei test sulla risoluzione della 50D
As one would expect the EOS 50D delivers an increase of resolution over the 40D. Having said that compared to the 12 megapixel D300 and A700 the difference is surprisingly small.
Forse ero anch'io propenso a crederlo ma quando ho visto i risultati del pentax k20d e del bel balzo in avanti ... vantaggi ancor maggiori se saliamo in ISO ... dove invece avrebbe dovuto essere penalizzata ...
Io ho visto anche confronti a 1600iso con l'assai meno densa D700 (uscita quasi 1 anno dopo) e se la gioca ;)
la K20d non presenta alcun vantaggio ad alti iso: guarda i 1600 iso dal sito che hai postato, con lo still life; ti invito a fare un confronto con la D700: la pentax presenta molto più rumore e, in alcuni punti, alterazioni di colore dovute sia a fenomeni di aliasing che al noise presente. Le immagini appaiono più definite ma è solo apparenza, poichè sono solo più contrastate. La D700 conserva almeno la stessa quantità di dettaglio con molto meno disturbo.
Tra l'altro, la k20d ha anche un approccio al filtro AA e al NR piuttosto blando (molto più di nikon); questo, se da un lato permette di conservare un po' più di dettagli a bassi iso, ad iso alti, si ha molto più rumore la risoluzione di estinzione è molto più bassa rispetto, ad esempio, a quella della 50D che ha 1 Mpixel in più e presenta artefatti da aliasing.
La verità è che i miracoli non li fa nessuno e che l'attuale tecnologia è uguale per tutti. Per cui vige la legge della coperta corta, se la tiri da un lato ti scopri dall'altro.
Non credo alla solita storia che con MP di risoluzione in + è solo marketing per attirare la gente ... perchè le camere con tanti MP 10MP e più sono solo quelle pro o semi pro cioè quelle rivolte ad un utenza più evoluta e che se ne poteva fregar di meno dei MB in più (come a me, io sarei anche troppo contento già con 5MP) ma quello che guarda è la qualità finale più oviamente alcune caratteristiche di "comodità" tipo qualità con + alti iso e velocità ...
5D e D3 sono due punti di riferimento in quanto a pulizia dell'immagine ed hanno sensori molto poco densi.
Poi concordo che crescere troppo in densità non comporta un ritorno diretto e proporzionale in risoluzione, tanto più che siamo vicini ai limiti dell'attuale tecnologia non tanto delle ottiche ma della stampa e riproduzione a video.
non solo, ma comporta molti problemi in più non smepre facilmente aggirabili anche se, talvolta, contenibili con soluzioni molto costose.
A tal proposito ho visto delle foto fatte con la vecchie pellicole ed io non ho ancora visto una digitale che le equivalga quanto a dinamica e dettaglio.
questo è l'ennesimo luogo comune: l'efficienza quantica di una pellicole è almeno un ordine di grandezza inferiore a quello del peggior sensore in circolazione e il suo rumore è notevolmente superiore. Ora, la gamma dinamica dipende anche dall'efficienza quantica ed è limitata dal rumore.
Nessuna pellicola e nessun sensore sono in grado, al momento, di saturare la gamma dinamica dell'occhio umano; la differenza è che i sensori possono arrivarci, le pellicole no. Quella che cambia, o meglio, che cambiava, era la risposta dei due mezzi. La pellicola ha una risposta non lineare che tende a comprimere i due estremi (alte e basse luci) esaltando la parte centrale dello spettro della luminanza, ovvero quello a cui l'occhio è più sensibile. I sensori con risposta lineare, invece presentano un aripsosta costante su tutto lo spettro, il che non dà vantaggi in termino di visualizzazione, in quanto l'occhio ha difficoltà a percepire, ad esempio, i dettagli nelle alte luci. Per questo motvo, si sono messi a punto sensori con risposta logaritmica che tendono ad espendere le basse luci e a comprimere le alte. Il prossimo passo sarà quello di realizzare sensori con risposta di tipo logaritmico alle basse luci, lineare sulla parte centrale e sulle alte luci. Già i sensori con risposta logaritmica hanno, visivamente, la stessa gamma dinamica "apparente" delle pellicole (ripeto, sia per sensori che per pellicole, si tratta solo di ingannare l'occhio).
Discorso analogo per il dettaglio: il dettaglio reale, catturato da un sensore, non è comparabile ocn quello di una pellicola, in quanto mezzi completamente differenti: qunndi dire che un apellicola equivale ad un sensore da 20 o da 6 Mpixel in formato aps è, comunque, senza senso. Un conto è la nitidezza reale, un altro quella apparente (dipendente anche,ad esempio, dal contrasto).
Nelle foto postate da Patriota nella pagine precedente, è evidente che tra le 4 soluzioni (2 pellicole e 2 sensori) la peggiore sia proprio quella della provia, sia per quanto riguarda la rappresentazione dei colori sia per quanti riguarda il dettaglio catturato, mentre la velvia supera, per dettaglio, un sensore da 6 Mpixel ma non uno da 21.
Altra affermazione che ho letto qui che non mi trova completamente d'accordo è che maggiore densità comporta filtri più pensanti ...secondo me è proprio il contrario.
In termini di antialiasing essendo che l'immagine è sorgente di infinite frequenze di segnali, queste,per evitare maggiori artefatti, vanno limitate proporzionalmente alla capacità di campionamento ovvero alla risoluzione del sensore.
Per cui un sensore più denso usa un filtro passa basso che lascia passare frequenze più alte.
Poi certo che al "buio" (+ alti iso) se il sensore è maggiore percepisce più segnale e quindi si comporta meglio ma questo prescinde dal 'avere un filtro più o meno spinto.
la teoria prevede che per evitare aliasing spaziale (e temporale), si debba scegliere la distanza tra due fotorecettori in modo tale che essa sia minore della meta della lunghezza d'onda minima. La lunghezza d'onda è l'inverso della frequenza. Per cui se realizzo un sensore con distanza tra i fotorecettori maggiore, potrò permettere il passaggio di lunghezza d'onda maggiori, ovvero frequenze più basse, oltre a quelle a lunghezza d'onda minori (ovvero a frequenze più alte). Quello che ottengo è una maggior gamma di frequenze possibile senz avere percezione di disturbi da aliasing. Partiamo dal principio che tutte le frequenze conivolte nel processo di rappresentazione del segnale sono utili (anche quelle che generano aliasing) e, se fosse possibile, sarebbe opportuno utilizzarle tutte senza tagli. I tagli diventano necessari quando le frequenze troppo alte si vano a sovrapporre a frequenze più basse, sommandosi algebricamente ad esse ed alterandone il valore. Quindi non sono le sole alte frequenze aprovocare aliasing spaziale, ma la loro interazione con le frequenze più basse. Se ho sensori con fotositi più distanziati, ho la certezza di poter permettere il passaggio di un maggior range di frequenze senza avere la percezione di disturbi da aliasing. Se ho sensori più densi posso far passare un range ridotto di frequenze altrimenti inizio ad avere disturbi da aliasing dovuti ad errori di quantizzazione generati dall'interferenza con i segnali di fotositi contigui. Questo equivale ad avere un filtro più aggressivo perchè, se è vero che il taglio avviene sulle alte frequenze (è un passa basso), è anche vero che la frequenza di taglio si sposta verso valori più bassi rispetto a sensori con minor densità e fotositi più distanziati.
La maggior ricettività di un sensore ad alti iso è un discorso differente che esula da quello relativo ai disturbi da aliasing
A tal proposito più che confrontare delle scritte di giornale che hanno una dinamica limitata sarebbe meglio usare foto con maggiore dinamica ed è li che secondo me risalta l'icremento in dettaglio dei sensori più "risolutivi".
risoluzione e gamma dinamica sono aspetti diversi e, in alcuni casi, contrastanti tra loro (sensori più densi, a parità di tecnologia, hanno minor gamma dinamica poichè hanno minor efifcienza quantica)
Concludo che non dobbiamo scordare che crescere in densità e quindi scendere ancora in dimesioni delle celle sensibili costa molto alle case che appunto devono appoggiarsi come ha fatto Pentax alla sony e poi alla samsug ...
sono costrette a farlo anche perchè alcuni marchi non hanno know how per progettare e realizzare in proprio circuiti elettronici (i produttori sul mercato sono in numero ridotto: canon, samsung, panasonic, sigma che ha acquisito foveon, sony, kodak e dalsa; gli utlimi tre fanno anche ccd, anzi gli utlimi due fanno solo ccd, mentre gli altri fanno cmos o nmos, come panasonic).
Forse per loro è più conveniente fermarsi in questa corsa e intraprenderne un'altra strada del formato maggiore e cosi spostare l'interesse ed i vantaggi ad dati ad alti ISO.
si sta lavorando anche in quel senso, ma è molto più complessa la strada e coinvolge più elementi. Lavorare sul potere risolvente, ad esempio, coinvolge non solo l'elettronica, ma anche l'ottica, la cui evoluzione è, per svariati motivi, decisamente più lenta.
moris_bs
09-12-2008, 13:43
...
E quindi in base a questo meglio una 40D da 10Mpix o una 50D da 15Mpix ?
Scommettiamo che se faccio un poll il 90% si sceglie la 50D anche se ha dei vetri di merda solo perchè pensa che 10 Mpix siano ormai troppo pochi ?
Il Foveon non è un sensore "comune" , lo usa solo sigma ed ha il grandissimo vantaggio di non avere il filtro di Bayer , ha un' eccellente resa a bassi ISO ma ad alti ISO soffre parecchio in piu' rispetto agli CMOS , per ora l' ha usato solo sigma e non ha avuto un grande successo per tanti motivi.
Ciauz
Pat
Non mi hai ancora convinto però ...
Già sarei curioso di vedere questo sondaggio ...
Però poi cè anche il fattore "novità è meglio" che ha sempre un peso rilevante nelle scelte di tutti noi ...aime
Si certo faveon lavora con sensori diversi.ò... ma poi si tratta di capirci...
Se il limite stà nell'ottica allora non cè ne sensore "lunare" ne filtro "marziano" che tenga ... non credi?
Poi ok daccordo che ad alti iso avere una cella sensore più "grossa" catturando + luce è vantaggiosa ...
Ma concorderai che comparare ad alti iso per sostenere il limite nelle lenti non è corretto.
Anzi per trovare il punto debole limitante nell catena che parte dalla sorgente(immagine),passa dalle lenti e poi arriva al trattamento dell immagine fino al file digitale, BISOGNA arrivare al limite delle risolvenza ovvero stare ai BASSI iso.
E' cosi che si mette in risalto il componete più debole della catena.
Altrimenti, secondo me, stiamo solo a confrontare la capacità più o meno buona di un sistema di lavorare a bassa luce.
Che senso ha paragonare ad ALTI ISO (es1600iso) due macchine che hanno soluzioni + o meno avanzate,recenti e costose di riduzione rumore (vedi k20 e d700) con filtri + o meno sofisticati che influiscono in modo determinante sul risultato finale ancor + del possedere ottiche di qualità o meno?
Mettiamoci ai + bassi iso ed è li che vedremo se veramente sono le ottiche che "limitano".
Anche la storia del disturbo ad alti iso inferiore alla pellicola ok daccordo
Ma è la teroria dei segnali e della stocastica che ci insegna che proprio il digitale offre un vantaggio in termini di identificazione rumore e quindi sua limitazione.
Per mè ci sono ancora esempi che non si spiegano con la scusa del limite nell potere risolvente delle ottiche attuali.
Parlo di scusa rivolgendomi alle case che con ste "scusa" appunto, sono già pronte a farci cambiare parco ottiche per una serie + ottimizzata ed adeguata al formato FF.
Poi ok posso concordare che certe ottiche spece certi zoom sono limitate, su questo non discuto, ma in discussione si parla di ottiche in generale e quindi anche di qualità e quindi "luminose" non a caso...
Ho pure letto che si parla dell'importanza dell'accoppiata lenti/filtro e pure letto che "quel" sensore + denso risolve di più perchè ha 1 filtro migliore.
uhmmm e perchè il filtro? è parte integrante del processo di digitalizzazione e trasformazione immmagine in digitale ed è strettamente accoppiato al sensore e quindi che senso ha giustificare più potere risolvente di un sensore più denso col fatto di possedere un filtro + ottimizzato.
Se fosse vero che siamo al limite "risolutivo" delle lenti e che con + risoluzione del sensore non risolviamo di più, allora non cè filtro che tenga per aumentare la risoluzione.
Al più potrebbe solo attenuare il disturbo spece salendo in ISO, non sarebbe possibilie aumentare dettaglio solo con filtro + ottimizzato. Anzi dovrebbe essere peggio in quanto produrre più disturbo.
marchigiano
09-12-2008, 14:27
Se le lenti non fossero al limite dopo aver saturato gli 8 Megapixel della 350D (2150linee/mm) dovrebbero saturare anche i 15mpixel della 50D (2700linee/mm).Nella realta' le lenti che arrivano a saturare 8 Megapixel sono poche e quelle che arrivano a saturarne 15 non le hanno ancora fabbricate.
I miglioramenti sono per buona parte imputabili ai filtri AA ottimizzati rispetto alle vecchie versioni ed in modo marginale legati alla maggiore densita' dei sensori (tant'è che migliorano anche le lenti che non arrivano a saturare 8Mpix).
scusa pat... ma la tua deduzione non è logica. se una lente non satura 8mp, come può avere anche una sola linea di dettaglio in più su 15mp? non doveva fare da tappo?
lascia perdere i sensori e i filtri... considerali solo come strumento di test delle lenti.
photozone ha testato 3 lenti (esemplari diversi ma stesso modello) con sensori da 8 e da 15mp, non ha fatto il confronto diretto che toglierebbe ogni dubbio ma 3 su 3 le lenti hanno restituito maggior dettaglio, mediamente addirittura più ai bordi che al centro...
sono migliorate sia le lenti taglienti che quelle morbide, segno che è inutile consigliare certe lenti a seconda del sensore, le lenti beneficieranno sempre dei sensori densi, al massimo sconsigliamo un sensore denso se uno vuole lavorare bene a iso3200... ma questo è un altro thread, qui si parla di puro vetro :D
(IH)Patriota
09-12-2008, 14:27
Non mi hai ancora convinto però ...
Già sarei curioso di vedere questo sondaggio ...
Però poi cè anche il fattore "novità è meglio" che ha sempre un peso rilevante nelle scelte di tutti noi ...aime
Qualche novita' la 50D ce l' ha ed il vantaggio sulla 40D passa per i microadjustments.Poter calibrare perfettamente ogni lente vuol dire minimizzare gli errori di messa a fuoco ed una messa a fuoco precisa rende dettaglio in modo ben piu' tangibile dei megapixel.
Si certo faveon lavora con sensori diversi.ò... ma poi si tratta di capirci...
Se il limite stà nell'ottica allora non cè ne sensore "lunare" ne filtro "marziano" che tenga ... non credi?
Il filtro ammorbidisce e toglie definizione all' ottica , eliminare un elemento antialiasing vuol dire non avere perdita tra quello che produce l' ottica e quello che registra il sensore.
Un boost prestazionale (a parita' di ottica) in questo senso quindi sicuramente c'è ma non è infinito , oltre una certa densita' anche il foveon presto o tardi verrebbe "fermato" dalla limitata risolvenza dei vetri.
Poi ok daccordo che ad alti iso avere una cella sensore più "grossa" catturando + luce è vantaggiosa ...
Ma concorderai che comparare ad alti iso per sostenere il limite nelle lenti non è corretto.
Anzi per trovare il punto debole limitante nell catena che parte dalla sorgente(immagine),passa dalle lenti e poi arriva al trattamento dell immagine fino al file digitale, BISOGNA arrivare al limite delle risolvenza ovvero stare ai BASSI iso.
Non c'è dubbio che il test "veritiero" sia da effettuarsi a bassi ISO (e non che anche qui ci sia un abisso come si puo' vedere dalla foto tra i 12 ed i 21mpix link (http://www.matteofossati.it/articoli/ffcontest/resolution2.jpg)) pero' nell' uso comune aumentando la densita' ti ritrovi con manciata di dettaglio in piu' a bassi ISO percepibile solo con stampe enormi e con lenti molto performanti e contemporaneamente ci si trova un mezzo meno utilizzabile ad alti ISO , stile sony A900 che ha riportato il limite di utilizzabilita' ad 800ISO.
Che senso ha paragonare ad ALTI ISO (es1600iso) due macchine che hanno soluzioni + o meno avanzate,recenti e costose di riduzione rumore (vedi k20 e d700) con filtri + o meno sofisticati che influiscono in modo determinante sul risultato finale ancor + del possedere ottiche di qualità o meno?
Mettiamoci ai + bassi iso ed è li che vedremo se veramente sono le ottiche che "limitano".
Calcola che i test sono fatte con ottiche fisse usate molto diaframmate ed in condizioni di luce ottimali (massimo contrasto) , nella realta' capita mooolto raramente di avere condizioni simili e quindi il vantaggio in termini di dettaglio che puo' sembrare rilevante in studio viene enormemente ridimensionato.
Queste (http://www.matteofossati.it/articoli/ffcontest/resolution1.jpg) sono a 200 ISO in studio 12Mpix (ridimensionato) Vs 21Mpix , lente 24L (1200€) usata ad F8.0 , al centro la lente ha ancora da dare , al bordo il miglioramento è esiguo.Avessi anche 30Mpix sulla 1Ds la foto non verrebbe piu' dettagliata ma sarebbe identica (a parita' di filtro AA).
Per mè ci sono ancora esempi che non si spiegano con la scusa del limite nell potere risolvente delle ottiche attuali.
Parlo di scusa rivolgendomi alle case che con ste "scusa" appunto, sono già pronte a farci cambiare parco ottiche per una serie + ottimizzata ed adeguata al formato FF.
Il vantaggio in termini di dettaglio dovuto all' uso di formati piu' grandi è lo stesso della pellicola , il medioformato restituiva piu' dettagli del 35mm perchè ha una superficie maggiore , lavora con densita' inferiori e frequenze spaziali piu' rilassate anche se le ottiche erano in termini assoluto meno risolventi , in digitale è la stessa cosa.
Ho pure letto che si parla dell'importanza dell'accoppiata lenti/filtro e pure letto che "quel" sensore + denso risolve di più perchè ha 1 filtro migliore.
uhmmm e perchè il filtro? è parte integrante del processo di digitalizzazione e trasformazione immmagine in digitale ed è strettamente accoppiato al sensore e quindi che senso ha giustificare più potere risolvente di un sensore più denso col fatto di possedere un filtro + ottimizzato.
Il filtro si frappone tra ottica e sensore e filtra le informazioni , piu' questo è di qualita' e meno informazioni verranno fermate , è un po' come avere gli occhiali sporchi , ci vedi meno ma non perchè il tuo occhio o la scena siano variati ma perchè c'è un elemento di disturbo (nel foveon non c'è).
Se fosse vero che siamo al limite "risolutivo" delle lenti e che con + risoluzione del sensore non risolviamo di più, allora non cè filtro che tenga per aumentare la risoluzione.
Al più potrebbe solo attenuare il disturbo spece salendo in ISO, non sarebbe possibilie aumentare dettaglio solo con filtro + ottimizzato. Anzi dovrebbe essere peggio in quanto produrre più disturbo.
Nei test con 8Mpix moltissime lenti non sono arrivate a saturare il potere risolutivo del sensore (2150linee/mm) ma hanno comunque incrementato il dettaglio nel test con la macchina da 15Mpix (2700linee/mm di potere risolutivo massimo) questo grazie ad una migliore qualita' del filtro AA.
Le lenti che sono arrivate al limite di 2150linee/mm su 350D da 8Mpix (e quindi erano piu' rislventi di quanto il sensore potesse registrare) non hanno raggiunto pero' le 2700linee/mm nel test con la 50D da 15Mpix il che significa che a questo punto il limite non è piu' il sensore ma l' ottica ... il valore su cui si sono fermate è relativo (guardacaso) ad una densita' di circa 12/13Mpix densita' oltre la quale non ha senso spingersi.
Se poi contiamo che questi valori si ottengono con diaframmi molto chiusi (F8) e che normalmente si lavora con aperture maggiori (e quindi con risolvenza inferiore) mi chiedo , che senso ha avere 15Mpix se poi al massimo le lenti riescono a risolverne 12/13 se usate diaframmate e 7/8 se usate a tutta apertura ?
Tolti i paesaggi e lo still life io il resto delle fotografie io le faccio con aperture piu' ampie di F5.6 (nella realta' raramente chiudo piu' di F4.0 e spessissimo lavoro con diaframmi piu' aperti di F2.8) l' avere in questi casi un sensore piu' denso non ha quindi nessun vantaggio in resa del dettaglio mentre invece ha ripercussioni negative sul rumore ad alti ISO .. tutto questo a che pro?
Ciauz
Pat
(IH)Patriota
09-12-2008, 14:37
scusa pat... ma la tua deduzione non è logica. se una lente non satura 8mp, come può avere anche una sola linea di dettaglio in più su 15mp? non doveva fare da tappo?
lascia perdere i sensori e i filtri... considerali solo come strumento di test delle lenti.
Hai 2 filtri AA diversi su macchine di fascia diversa (entry-level Vs Avanzato) come fai a considerare due macchine diverse come uno strumento unico di test ?
I risultati a parita' di lente prescindono pesantemente dal filtro AA che non si puo' certo ignorare , non stanno usando dei foveon per fare i test..
photozone ha testato 3 lenti (esemplari diversi ma stesso modello) con sensori da 8 e da 15mp, non ha fatto il confronto diretto che toglierebbe ogni dubbio ma 3 su 3 le lenti hanno restituito maggior dettaglio, mediamente addirittura più ai bordi che al centro...
Le lenti che saturavano gli 8Mpix non si sono nemmeno avvicinate al saturare i 15mpix , saranno al limite ? Se avessero risolvenza infinita si sarebbero attestate a 2700linee/mm , non l' hanno fatto ... perchè ?
sono migliorate sia le lenti taglienti che quelle morbide, segno che è inutile consigliare certe lenti a seconda del sensore, le lenti beneficieranno sempre dei sensori densi, al massimo sconsigliamo un sensore denso se uno vuole lavorare bene a iso3200... ma questo è un altro thread, qui si parla di puro vetro :D
Con un sensore piu' denso le lenti non peggiorano certo , al massimo (a parita' di Filtro AA e software di elaborazione) resteranno uguali , il problema è pero' che aumentando la densita' aumenta il rumore digitale ed il rumore digitale va eliminato con software di NR che si mangia anche i dettagli e alla fine il cane si morde la coda no ?
Ciauz
Pat
yossarian
09-12-2008, 14:47
scusa pat... ma la tua deduzione non è logica. se una lente non satura 8mp, come può avere anche una sola linea di dettaglio in più su 15mp? non doveva fare da tappo?
lascia perdere i sensori e i filtri... considerali solo come strumento di test delle lenti.
photozone ha testato 3 lenti (esemplari diversi ma stesso modello) con sensori da 8 e da 15mp, non ha fatto il confronto diretto che toglierebbe ogni dubbio ma 3 su 3 le lenti hanno restituito maggior dettaglio, mediamente addirittura più ai bordi che al centro...
sono migliorate sia le lenti taglienti che quelle morbide, segno che è inutile consigliare certe lenti a seconda del sensore, le lenti beneficieranno sempre dei sensori densi, al massimo sconsigliamo un sensore denso se uno vuole lavorare bene a iso3200... ma questo è un altro thread, qui si parla di puro vetro :D
ti ribalto la domanda: se la lente non fa da tappo, come mai sugli 8 Mpixel della 350D il 70-200 f2.8 risolve meno del 70-200 f4? In questo caso si direbbe che sia la lente a fare da tappo. Nella realtà non è così o meglio, non è completamente così, poichè il potere risolvente del sistema non è dato dal minore tra quelli coinvolti ma è ancora inferiore e di calcola come l'inverso della somma degli inversi dei poteri risolventi degli elementi facenti parte del sistema.
Ovvero
Risoluzione (lpmm) = 1/[1/lpmm obiettivo + 1/lpmm pellicola]
o, per il digitale
Risoluzione (lpmm) = 1/[1/lpmm obiettivo + 1/lpmm sensore]
quindi non è possibile stabilire con esattezza il reale potere risolvente dell'uno o dell'altro elemento coinvolti, ma se ne può calcolare il risultato complessivo (e questo mi dice che tra i 12 Mpixel della D300 ed i 14 della K20D o i 15 Mpixel della 50D non c'è, di fatto, aumento di risoluzione orizzontale e che tra i 10 Mpixel della 40D e i 15 della 50D il guadagno è minimo, al limite dell'impercettibile)
AarnMunro
09-12-2008, 14:49
Qualche novita' la 50D ce l' ha ed il vantaggio sulla 40D passa per i microadjustments.Poter calibrare perfettamente ogni lente vuol dire minimizzare gli errori di messa a fuoco ed una messa a fuoco precisa rende dettaglio in modo ben piu' tangibile dei megapixel.
Questa è cosa buona e giusta!
Il filtro ammorbidisce e toglie definizione all' ottica , eliminare un elemento antialiasing vuol dire non avere perdita tra quello che produce l' ottica e quello che registra il sensore.
Un boost prestazionale (a parita' di ottica) in questo senso quindi sicuramente c'è ma non è infinito , oltre una certa densita' anche il foveon presto o tardi verrebbe "fermato" dalla limitata risolvenza dei vetri...
E togliamolo sto AA! Ho visto il sito che smandruppa i sensori scalpandoli dell'AA...il boost di definizione è sensazionale (ocio al Moiret!)...roba assurda!
moris_bs
09-12-2008, 14:53
la teoria prevede che per evitare aliasing spaziale (e temporale), si debba scegliere la distanza tra due fotorecettori in modo tale che essa sia minore della meta della lunghezza d'onda minima. La lunghezza d'onda è l'inverso della frequenza. Per cui se realizzo un sensore condistanza tra i fotorecettori maggiore, potrò permettere il passaggio di lunghezza d'onda maggiori, ovvero frequenze più basse, oltre a quelle a lunghezza d'onda minori (ovvero a frequenze più alte).
Scusa ma è proprio il contrario.
Il terema del compionamento dice che devo campionare con frequenze almeno doppie ovvero distanze al max la metà quindi più sono denso e più stò campionando alto come frequenza e quindi "catturo" più frequenze.
Altrimenti se tra i fotorecettori cè più distanza delle metà lunghezza d'onda non soddisfo al teorema del campionamento e accadono maggiori problemi di aliasing ...
....
Se ho sensori con fotositi più distanziati, ho la certezza di poter permettere il passaggio di un maggior range di frequenze senza avere la percezione di disturbi da aliasing. Se ho sensori più densi posso far passare un range ridotto di frequenze altrimenti inizio ad avere disturbi da aliasing. Questo equivale ad avere un filtro più aggressivo perchè, se è vero che il taglio avviene sulle alte frequenze (è un passa basso), è anche vero che la frequenza di taglio si sposta verso valori più bassi rispetto a sensori con minor densità e fotositi più distanziati.
Idem sopra, quindi più campiono fitto e più riesco a catturare frequenze alte(=lunghezze d'onde inferiori) e quindi sensori più densi equivale campionare più fitto e catturare più frequenze e quindi soddilfare meglio il teorema de campinamento ... Sono filtri passa basso che tagliano più alti e quindi tagliano meno frequenze visibili ... e quindi meno "intrusivi"
La maggior ricettività di un sensore ad alti iso è un discorso differente che esula da quello relativo ai disturbi da aliasing
risoluzione e gamma dinamica sono aspetti diversi e, in alcuni casi, contrastanti tra loro (sensori più densi, a parità di tecnologia, hanno minor gamma dinamica poichè hanno minor efifcienza quantica)
idem sopra ... che poi sensori meno densi abbiano più superfice nei recettori e quindi con bassa luce lavorano meglio può essere ... ma anche qui non si parla di 1 o 2 ordini di grandezza ma solo del rapporto 1 a 2 ... avrei molti dubbi che con delle ottimizazioni anche sul fronte alti ISO non possano migliorare molto anche con sensori relativamente densi quali i 10 o 15 Mp DX ...
yossarian
09-12-2008, 15:01
Scusa me è no proprio il contrario.
Il terema del compionamento dice che devo campionare con frequenze almeno doppie ovvero distanze almeno la metà quindi più sono denso e più stò campionando alto come frequenza e quindi "catturo" più frequenze.
Altrimenti se tra i fotorecettori cè più distanza delle metà lunghezza d'onda non soddisfo al teorema del campionamento e accadono maggiori problemi di aliasing ...
Idem sopra, quindi più campiono fitto e più riesco a catturare frequenze alte(=lunghezze d'onde inferiori) e quindi sensori più densi equivale campionare più fitto e catturare più frequenze e quindi soddilfare meglio il teorema de campinamento ... Sono filtri passa basso che tagliano più alti e quindi tagliano meno frequenze visibili ... e quindi meno "intrusivi"
idem sopra ... che poi sensori meno densi abbiano più superfice nei recettori e quindi con bassa luce lavorano meglio può essere ... ma anche qui non si parla di 1 o 2 ordini di grandezza ma solo del rapporto 1 a 2 ... avrei molti dubbi che con delle ottimizazioni anche sul fronte alti ISO non possano migliorare molto anche con sensori relativamente densi quali i 10 o 15 Mp DX ...
stai facendo una gran confusione: un fotodiodo non fa campionamento del segnale, ma solo da fotorecettore; una matrice ccd non tira fuori segnale digitale ma analogico (è una matrice di fotorecettori + trasduttore optoelettronico): la digitalizzazione avviene a valle. Su un cmos il campionamento e la quantizzazione avvengono on chip ma a valle del fotodiodo, parliamo di campionamento e quantizzazione dei segnali in arrivo su ogni singolo fotosito, non di campionamento dell'intera immagine. Fotositi più vicini danno luogo ad effetti indesiderati come crosstalking e blooming (il primo maggiormante presente nei cmos il secondo tipico dei ccd). La presenza di questi fenomeni costringono a tenere i singoli subpixel ad una distanza minima che non consenta fenomeni di interferenza che alterino la percezione dei segnali e portino ad errori di quantizzazione. Le nuove lenti gapless hanno lo scopo di catturare tutta la luce possibile lasciando distanziati i sottostanti fotositi. Se non fosse necessario tenerli ad una distanza minima, si potrebbero realizzare matrici ancora più dense, con i fotositi appiccicati gli uni agli altri. Evidentemente, non è così
Chelidon
09-12-2008, 16:28
stai facendo una gran confusione: un fotodiodo non fa campionamento del segnale, ma solo da fotorecettore; una matrice ccd non tira fuori segnale digitale ma analogico (è una matrice di fotorecettori + trasduttore optoelettronico): la digitalizzazione avviene a valle. Su un cmos il campionamento e la quantizzazione avvengono on chip ma a valle del fotodiodo, parliamo di campionamento e quantizzazione dei segnali in arrivo su ogni singolo fotosito, non di campionamento dell'intera immagine. Fotositi più vicini danno luogo ad effetti indesiderati come crosstalking e blooming (il primo maggiormante presente nei cmos il secondo tipico dei ccd). La presenza di questi fenomeni costringono a tenere i singoli subpixel ad una distanza minima che non consenta fenomeni di interferenza che alterino la percezione dei segnali e portino ad errori di quantizzazione. Le nuove lenti gapless hanno lo scopo di catturare tutta la luce possibile lasciando distanziati i sottostanti fotositi. Se non fosse necessario tenerli ad una distanza minima, si potrebbero realizzare matrici ancora più dense, con i fotositi appiccicati gli uni agli altri. Evidentemente, non è così
E no!:nonsifa: A dire il vero ha ragione lui.. :) Il sensore fa un campionamento eccome, mica ti prende un immagine con infiniti punti! :p
Non confondere il campionamento dell'intensità del segnale da analogico a digitale che è un'altra cosa (anche se la teoria che ci sta dietro è la stessa). :) Se posso aggiungere con tutta la delicatezza possibile, nel tuo discorso c'è un po' di confusione perché nomini termini che si usano in più campi e non sempre con lo stesso significato, ad esempio lascia stare le lunghezze d'onda e considera più semplicemente le frequenze spaziali come se fosse un semplice segnale monodimensionale (anche se per essere precisi l'immagine in realtà ne ha due di dimensioni, ma nella nostra assunzione basta e avanza :D) così le frequenze più alte corrispondono a dettagli più fini e al limite della risolvenza.. :)
Ora in teoria (ovvio che sia in linea puramente geometrica senza considerare i problemi elettronici della miniaturizzazione :D) il discorso che più aumenti la risoluzione di campionamento e più aumenti i dettagli è giusto in osservanza del T. di Nyquist e cioè che ti serve una frequenza spaziale doppia per campionare con una frequenza spaziale che è la metà; ed è per questo motivo motivo che si nota quell'effetto di aliasing del segnale che è il moiré: che altro non è appunto che il campionare un "dettaglio" (a cui corrisponde una frequenza spaziale alta) che va oltre il T. di Nyquist e quindi a cui nella realtà non corrisponde niente e questo è l'assurdamente bello! :p
PS: Ora se non sbaglio, perché non voglio sbilanciarmi a indovinare su quali basi i produttori fanno le scelte nella loro testolina :p, le microlenti (ma esistono davvero o siamo noi con le nostre pare che ce le inventiamo?? :sofico: o rigano semplicemente un vetro.. :asd:) che stanno sul filtro AA posto davanti al sensore dovrebbero servire proprio ad evitare le balle date dal moiré e cioè cercando di "tagliare" (che poi è semplicemente sfocare, :doh: niente di che lo si potrebbe fare pure via software con un blur e pure direttamente col processore della macchina) le frequenze che vanno oltre a quella che si ottiene con Nyquist..
Poi dopo tutto sto parlare di moiré ve la butto lì sul ridere, ma non è che le linee al millimetro in più, magari non c'erano neanche sul foglio del test.. :asd: :asd:
yossarian
09-12-2008, 18:26
E no!:nonsifa: A dire il vero ha ragione lui.. :) Il sensore fa un campionamento eccome, mica ti prende un immagine con infiniti punti! :p
Non confondere il campionamento dell'intensità del segnale da analogico a digitale che è un'altra cosa (anche se la teoria che ci sta dietro è la stessa). :) Se posso aggiungere con tutta la delicatezza possibile, nel tuo discorso c'è un po' di confusione perché nomini termini che si usano in più campi e non sempre con lo stesso significato, ad esempio lascia stare le lunghezze d'onda e considera più semplicemente le frequenze spaziali come se fosse un semplice segnale monodimensionale (anche se per essere precisi l'immagine in realtà ne ha due di dimensioni, ma nella nostra assunzione basta e avanza :D) così le frequenze più alte corrispondono a dettagli più fini e al limite della risolvenza.. :)
Ora in teoria (ovvio che sia in linea puramente geometrica senza considerare i problemi elettronici della miniaturizzazione :D) il discorso che più aumenti la risoluzione di campionamento e più aumenti i dettagli è giusto in osservanza del T. di Nyquist e cioè che ti serve una frequenza spaziale doppia per campionare con una frequenza spaziale che è la metà; ed è per questo motivo motivo che si nota quell'effetto di aliasing del segnale che è il moiré: che altro non è appunto che il campionare un "dettaglio" (a cui corrisponde una frequenza spaziale alta) che va oltre il T. di Nyquist e quindi a cui nella realtà non corrisponde niente e questo è l'assurdamente bello! :p
PS: Ora se non sbaglio, perché non voglio sbilanciarmi a indovinare su quali basi i produttori fanno le scelte nella loro testolina :p, le microlenti (ma esistono davvero o siamo noi con le nostre pare che ce le inventiamo?? :sofico: o rigano semplicemente un vetro.. :asd:) che stanno sul filtro AA posto davanti al sensore dovrebbero servire proprio ad evitare le balle date dal moiré e cioè cercando di "tagliare" (che poi è semplicemente sfocare, :doh: niente di che lo si potrebbe fare pure via software con un blur e pure direttamente col processore della macchina) le frequenze che vanno oltre a quella che si ottiene con Nyquist..
Poi dopo tutto sto parlare di moiré ve la butto lì sul ridere, ma non è che le linee al millimetro in più, magari non c'erano neanche sul foglio del test.. :asd: :asd:
ok, allora siamo abbastanza fuori strada; bisogna scendere in dettagli un po' più tecnici e, di conseguenza, più noiosi :D
Il sensore è una matrice discreta (e su questo non siamo d'accordo): ogni fotosito non è puntiforme né può esserlo considerato e non fa, in ogni caso, operazione di digitalizzazione dell'immagine; l'immagine diviene "discreta" solo dopo il processo di quantizzazione (che nessuna matrice è in grado di fare). Il sensore cattura l'immagine per punti (e su questo non siamo d'accordo): per quanto detto sopra, il sensore agisce per aree e non per punti: quindi, tecnicamente, non fa un'operazione di campionamento e, comunque, non è l'operazione di campionamento a digitalizzare un segnale. Al diminuire delle dimensioni dei fotositi aumenta la "frequenza di campionamento" (su questo non siamo d'accordo): un sensore è formato da una matrice di aree, poste ad una distanza x tra di loro. Per brevità, assimilerò, in maniera del tutto impropria, l'area relativa al sigolo fotodiodo, ad un punto, poichè questo è già sufficiente a dimostrare l'assunto. Questa distanza x, al diminuire delle dimensioni dei fotositi non diminuisce; questo significa che i punti che effettuano il campionamento, nella migliore delle ipotesi, restano alla stessa distanza (la frequenza di campionamento è data dalla distanza tra due punti consecutivi che uso per campionare). Ho scritto nella migliore delle ipotesi, perchè, di fatto, al diminuire delle dimensioni dei fotositi, aumentano fenomeni di pixel crosstalk che obbligano a distanziare maggiormente i punti della matrice (diminuendo, di fatto, la frequenza di campionamento). Questo è già sufficiente a smontare la vostra teoria. :D
Ma non è tutto.
Il teorema di shannon (e la frequenza di nyquist) si applicano sia a matrici più dense che a matrici meno dense allo stesso modo. Ovvio che un sensore più denso (ma abbiamo visto che "più denso" non è l'espressione corretta, ma sarebbe opportuno dire più affollato) riesca a catturare un po' più dettaglio: questo dipende esclusivamente dal fatto che posso scegliere di rappresentare lo stesso dettaglio facendo uso di più linee, non che ho meno aliasing in virtù del teorema di shannon. Ovvero, ad esempio, su un'area di 1 mm^2 avrò più linee orizzontali e verticali che mi permetteranno, in teoria (la pratica dipende da tanti altri fattori), di avere un maggior dettaglio. La cosa importante è rappresentare l'immagine con un numero di campioni doppi rispetto alla frequenza di nyquist, per non avere artefatti dovuti all'aliasing. Ad esempio, un'immagine da 720 pixel posso approssimarla con un numero inferiore di pixel ottenendo immagini perfettamente identiche ma con un dettaglio fine leggermente minore, purchè rispetti certe regole: se uso un diametro-tratto di 4 pixel o di 6 pixel (il primo più dettagliato del secondo, perchè prevede l'utilizzo di pattern di dimensioni più ridotte per rappresentare la stessa porzione di immagine), potrò rappresentare la stessa immagine con 360 o 240 pixel rispettivamente, senza avere artefatti.
Non ho fatto altro che usare frequenza di campionamento differenti, entrambe nel rispetto del teorema di shannon ed entrambe prive di artefatti "visibili" dovuti all'aliasing.
Il moire è un particolare tipo di artefatto che si origina quando si tenta di rappresentare qualcosa di assimilabile ad un reticolo periodico attraverso un altro reticolo periodico (il sensore) con le due frequenze che non si "accordano". ovvero quando le frequenze di campionamento utilizzate non sono multipli esatti della frequenza del reticolo da rappresentare e generano, a causa del fatto che l'immagine del singolo pixel è frutto dell'intelacciamento tra 4 subpixel contigui, una "risonanza visiva" (il che non avviene praticamente mai) :D
Il cosiddetto filtro AA è, in realtà, soprattutto un filtro anti moire che, in pratica, "moltiplica" il singolo raggio incidente in 4 raggi che colpiscono ciascuno uno di 4 subpixel del pattern quadrato che forma il pixel. Il risultato è equivalente, formalmente, ad un antialiasing 4x (non entro nei dettagli di funzionamento dell'interpolazione lineare di un FSAA a 4 sample perchè richiederebbe una trattazione a parte) ma, al pari di un algoritmo di FSAA fa blurring sull'intera immagine (e sono necessari algoritmi di edge shapening per recuperare in parte una nitidezza apparente).
Le microlenti non sono un'invenzione dei forumisti e neppure dei graffi sul filtro AA ma sono delle vere e proprie "guide d'onda" che servono a incanalare la maggior quantità di radiazione possibile sulla parte sensibile del fotodiodo, cercando, possibilmente, di rendere la luce incidente quanto più perpendicolare allo stesso. Ci sono di vario tipo e sono parte integrante del sensore. Le ultime sono di tipo gapless, ovvero senza distanza tra due lenti contigue: questo permette non solo di evitare che la luce finisca sulla parte del fotosito non sensibile, ovvero quella coperta dai circuiti elettronici (nei cmos) ma anche che finisca nei gap tra due fotositi contigui. Tutto ciò allo scopo di aumentare l'efficienza quantica dei sensori.
Le operazioni di blurring con il processore della macchina te lo scordi, a meno che non intendi mettere su l'equivalente di un chip grafico di ultima generazione per avere una velocità di scatto accettabile :D
Volendo documentarsi, c'è un'ampia letteratura sulla progettazione dei sensori, sui calcoli delle distanze minime tra fotositi in base alle loro dimensioni per evitare il pixel crosstalk, sui calcoli relativi alla tipologia di microlenti da implementare, sui filtri AA e sugli algoritmi di NR, ecc, ecc
Personalmente, ritengo che per la maggor parte degli utenti di questo forum questo sia un discorso piuttosto tedioso e, per giunta, non in topic.
marchigiano
09-12-2008, 22:14
ti ribalto la domanda: se la lente non fa da tappo, come mai sugli 8 Mpixel della 350D il 70-200 f2.8 risolve meno del 70-200 f4? In questo caso si direbbe che sia la lente a fare da tappo
certo il 70-200 f2.8 è meno tagliente del f4 ma questo capita su tutte le fotocamere viene montato...
ricordatevi che su photozone la 350d ha come fondo scala 2150 linee ma in realtà la fotocamera arriva a 2370, ecco perchè a volte la lente provata sfora...
http://www.photozone.de/images/8Reviews/dslr/canon_eos_450d/resolution_eos450d.png
quindi non andrebbe paragonato il risultato good-excellent ecc... ma le linee nude e crude:
http://www.photozone.de/images/8Reviews/lenses/canon_1022_3545/mtf.gif http://www.photozone.de/images/8Reviews/lenses/canon_1022_3545_50d/mtf.gif
Chelidon
09-12-2008, 23:32
Il sensore è una matrice discreta (e su questo non siamo d'accordo): ogni fotosito non è puntiforme né può esserlo considerato e non fa, in ogni caso, operazione di digitalizzazione dell'immagine; l'immagine diviene "discreta" solo dopo il processo di quantizzazione (che nessuna matrice è in grado di fare).
Mah, non so ma a me non pareva di essere in disaccordo.. :mbe: lascia stare digitalizzazione o meno (è lì che secondo mio modesto parere confondi: la digitalizzazione non c'entra col campionamento spaziale non è una frequenza temporale ma spaziale), per come la vedo io la matrice è appunto come dici te discreta quindi "discretizza" per forza l'immagine che nella realtà si assume continua e la colpa di ciò è proprio la matrice finita..
Il sensore cattura l'immagine per punti (e su questo non siamo d'accordo): per quanto detto sopra, il sensore agisce per aree e non per punti: quindi, tecnicamente, non fa un'operazione di campionamento e, comunque, non è l'operazione di campionamento a digitalizzare un segnale.
Be' mi pareva ovvio che si approssimasse mica siamo nel mondo dell'iperuranio in cui "gli oggetti sono in sé e di per sé" scusa, ma se per il fatto che i fotodiodi sono areole e non punti infinitesimi, non lo chiami campionamento allora dimmi come lo chiami? Un quasi campionamento non ideale? :) Ma allora se andiamo a vedere nei dettagli nessun campionamento reale è un campionamento ideale, ma se vogliamo stare a parlare di queste sottigliezze..
Per brevità, assimilerò, in maniera del tutto impropria, l'area relativa al sigolo fotodiodo, ad un punto, poichè questo è già sufficiente a dimostrare l'assunto.
Però, vedo che almeno sulla brevità giungiamo alle stesse conclusioni ;) anche se per me siamo già d'accordo anche sul resto!
Questa distanza x, al diminuire delle dimensioni dei fotositi non diminuisce; questo significa che i punti che effettuano il campionamento, nella migliore delle ipotesi, restano alla stessa distanza (la frequenza di campionamento è data dalla distanza tra due punti consecutivi che uso per campionare)[/B]. Ho scritto nella migliore delle ipotesi, perchè, di fatto, [B]
Scusa, ma sinceramente questo non l'ho capita molto perché se aumenta la densità anche questa distanza dovrà pur cambiare visto che il formato APS è fisso, va bene che te dici che ciò è bilanciato dal fatto che riducono le dimensioni del fotosito, ma mi sembra pazzesco che con l'affinamento di un processo produttivo riducano solo il fotosito e non tutta l'elettronica che ci sta attorno, considerato anche che mi sembra logico che per aumentare l'efficienza bisogni avere fotositi più grandi possibili (e poi non so come fai ad essere così sicuro che quella distanza non cambi visto le innumerevoli differenze fra vari produttori e il fatto ad esempio che da questo punto di vista il CCD è più semplice di un CMOS). Comunque se lo dici perché ti sei documentato ti credo anche se rimango perplesso visto che si sente sempre di come il tale sia riuscito a massimizzare l'area del fotosito a scapito delle connessioni.. :boh:
Questo è già sufficiente a smontare la vostra teoria. :D
Ma non è tutto.
magari ti riferisci ad altri, perché io non ho nessuna teoria, confermavo soltanto quanto diceva chi ti correggeva quando affermavi che è tanto meglio quanto è maggiore la distanza tra fotorecettori (ma non dubito che magari possa aver sbagliato io ad interpretare):
la teoria prevede che per evitare aliasing spaziale (e temporale), si debba scegliere la distanza tra due fotorecettori in modo tale che essa sia minore della meta della lunghezza d'onda minima. La lunghezza d'onda è l'inverso della frequenza. Per cui se realizzo un sensore con distanza tra i fotorecettori maggiore, potrò permettere il passaggio di lunghezza d'onda maggiori, ovvero frequenze più basse, oltre a quelle a lunghezza d'onda minori (ovvero a frequenze più alte).
che è l'esatto contrario di ciò che affermi correttamente adesso ed è questo semplicemente che ti abbiamo fatto notare (ok magari ho un po' esagerato ma era in risposta alla tua fermezza):
Al diminuire delle dimensioni dei fotositi aumenta la "frequenza di campionamento" (su questo non siamo d'accordo): un sensore è formato da una matrice di aree, poste ad una distanza x tra di loro.
Quindi su tutto il resto mi pare siamo adesso perfettamente d'accordo, magari eccetto qualche cosa, come:
(ma abbiamo visto che "più denso" non è l'espressione corretta, ma sarebbe opportuno dire più affollato) sinceramente non capisco la differenza a livello di significato per me è la stessa cosa :p
questo dipende esclusivamente dal fatto che posso scegliere di rappresentare lo stesso dettaglio facendo uso di più linee, non che ho meno aliasing in virtù del teorema di shannon.
Infatti non ho mai affermato il contrario ;) ma ti ho solo corretto quello che ti ho fatto già notare
Ovvio che un sensore più denso riesca a catturare un po' più dettaglio: più linee orizzontali e verticali che mi permetteranno, in teoria (la pratica dipende da tanti altri fattori), di avere un maggior dettaglio. Vedi che siamo d'accordo: era proprio quanto affermavo dovrebbe essere in linea teorica, poi ovvio che intervengono problemi elettronici..
potrò rappresentare la stessa immagine con 360 o 240 pixel rispettivamente, senza avere artefatti. mentre qui secondo me sbagli, perché si ricade proprio nel ricampionamento da una frequenza maggiore che come spieghi perfettamente dopo è la causa dell'aliasing quindi in questo caso c'è sì il rischio del moiré (ovvio che poi non lo noti se non ci sono trame ripetitive come ad esempio mattonelle, fili di tessuto, e così via), analogamente il sensore ricampiona a partire dalla frequenza spaziale limite massima risolvibile dall'obiettivo oppure se fai un discorso più al limite assumendo per la realtà dettagli infinitesimi lì la frequenza spaziale è infinita.
Adesso spero che tu l'abbia preso come qualcosa di costruttivo almeno il mio intento era quello e se scrivo delle ca@@te correggimi pure :mano:
Il tono del PS pensavo fosse chiaramente burlesco non metto in dubbio le tecnologie microelettroniche (tra l'altro qua la stupidata l'ho scritta perché in realtà se non erro, come dici tu tutta quella struttura è un tutt'uno col sensore) comunque grazie lo stesso per la precisazione.
yossarian
10-12-2008, 01:12
certo il 70-200 f2.8 è meno tagliente del f4 ma questo capita su tutte le fotocamere viene montato...
ricordatevi che su photozone la 350d ha come fondo scala 2150 linee ma in realtà la fotocamera arriva a 2370, ecco perchè a volte la lente provata sfora...
quindi non andrebbe paragonato il risultato good-excellent ecc... ma le linee nude e crude:
resta il problema posto dal test di due lenti sullo stesso sensore: la formula che dà la risoluzioe complessiva del sistema è data dall'inverso della somma degli inversi delle due risoluzioni, quindi è minore di quella di ciscune delle due risoluzioni prese separatamente. Il sensore è sempre lo stesso e la risoluzione teorica, a parità di apertura, è la stessa per il 760-200 f2.8 e per il 70-200 f4. Quindi se, nei fatti, il sistema con f2.8 risolve meno, è evidente che il risultato è da imputarsi nella minor risoluzione "reale" dell'f2.8. La conclusione logica è che l'f2.8 non satura gli 8 Mpixel della 350D (non i 15 Mpixel della 50D). Se sulla 50D mi dà un risultato maggiore, questo valore è da imputare esclusivamente al maggior potere risolutivo teorico del sensore da 15 Mpixel rispetto a quello da 8 Mpixel della 350D.
Ti riporto l'equazione
Risoluzione (lpmm) = 1/[1/lpmm obiettivo + 1/lpmm sensore]
Da qui si vede che, restando identico il valore delle lpmm del sensore, la differenza la fanno le lpmm delle due lenti, quindi una, effettivamente, sembra fare da collo di bottiglia.
Mah, non so ma a me non pareva di essere in disaccordo.. :mbe: lascia stare digitalizzazione o meno (è lì che secondo mio modesto parere confondi: la digitalizzazione non c'entra col campionamento spaziale non è una frequenza temporale ma spaziale), per come la vedo io la matrice è appunto come dici te discreta quindi "discretizza" per forza l'immagine che nella realtà si assume continua e la colpa di ciò è proprio la matrice finita..
la digitalizzazione è un processo che riguarda anche immagini statiche, quindi si ha una digitalizzazione spaziale e non solo una temporale. Ad esempio, quando "costruisco" un'immagine 3D di un gioco o di un programma di grafica, opero una digitalizzazione del singolo frame, trasformando l'immagine del world space in quelle dello screen space (attraverso vari passaggi), ovvero prendo immagini di uno spazio "continuo" e le trasformo in immagini che posso rappesentare come coordinate x, y, in uno spazio discreto. Questo processo avviene sul singolo frame ed implica gli stessi problemi che si hanno nella digitalizzazione di immagini in movimento (ho, infatti, due tipi di aliasing, uno spaziale ed uno temporale e faccio uso di algoritmi di AA per entrambi, contemporaneamente). La matrice, in realtà, non è discreta,perchè un'operazione di campionamento prevede l'utilizzo di valori puntiformi su cui applicare la digitalizzazione (ovvero la quantizzazione), mentre una matrice di fotodiodi è un insieme di areole, ciascuna delle quali riceve la luce non su un unico punto ma su una superficie che, per la trattazione in oggetto, possiamo considerare continua (anche se, di fatto, non lo è). Sulla radiazione incidente sul singolo pixel, su una matrice cmos, i circuiti elettronici calcolano i valori medi di luminanza e crominanza e operano un'interpolazione con quelli dei subpixel contigui (per formare un pixel). Una volta fatta l'interpolazione, sul segnale risultante dal pixel "virtuale", che è ancora di tipo continuo, si applica il processo di campionamento e quantizzazione (utilizzando il numero di bit previsti dalle caratteristiche di quel particolare circuito di quantizzazione, ovvero, tipicamente, 12 o 14 o 16 bit per canale). A questo punto si ha il segnale in forma digitale. E siamo ancora sul singolo pixel. I valori collezionati da ogni pixel, sono inviati al processore che elabora l'immagine, la pulisce (di fatto, sui cmos, sono comunqie presenti circuiti di NR e di amplificazione) e la ricostruisce, trasformandola nella foto che è possibile visualizzare (ho saltato non so quanti passaggi, ma non ha senso citarli tutti). :D
Be' mi pareva ovvio che si approssimasse mica siamo nel mondo dell'iperuranio in cui "gli oggetti sono in sé e di per sé" scusa, ma se per il fatto che i fotodiodi sono areole e non punti infinitesimi, non lo chiami campionamento allora dimmi come lo chiami? Un quasi campionamento non ideale? :) Ma allora se andiamo a vedere nei dettagli nessun campionamento reale è un campionamento ideale, ma se vogliamo stare a parlare di queste sottigliezze..
non sono sottigliezze: un campionamento reale è un campionamento fatto utilizzando punti e non aree; ed è un'operazione che accade in tutti i momenti, in un qualsiasi circuito di tipo ADC.
Scusa, ma sinceramente questo non l'ho capita molto perché se aumenta la densità anche questa distanza dovrà pur cambiare visto che il formato APS è fisso, va bene che te dici che ciò è bilanciato dal fatto che riducono le dimensioni del fotosito, ma mi sembra pazzesco che con l'affinamento di un processo produttivo riducano solo il fotosito e non tutta l'elettronica che ci sta attorno, considerato anche che mi sembra logico che per aumentare l'efficienza bisogni avere fotositi più grandi possibili (e poi non so come fai ad essere così sicuro che quella distanza non cambi visto le innumerevoli differenze fra vari produttori e il fatto ad esempio che da questo punto di vista il CCD è più semplice di un CMOS). Comunque se lo dici perché ti sei documentato ti credo anche se rimango perplesso visto che si sente sempre di come il tale sia riuscito a massimizzare l'area del fotosito a scapito delle connessioni.. :boh:
l'elettronica non sta attorno ma sopra al fotosito. Vero che il formato aps resta lo stesso, però prova a mettere 10 quadrati di 2x2 mm uno a fianco all'altro mantenendo la stessa distanza tra loro; poi prova a fare lo stesso, lasciando invariata la distanza tra i quadrati ma prendendo 1mm di lato e vedi quanti quadrati entrano dove prima ne entravano 10. Ora, ripeti l'operazione con 50 quadrati per lato e utilizza una distribuzione bidimensionale :D .
Al diminuire delle dimensioni del singolo pixel, il fenomeno del pixel crosstalk è più fastidioso e, per contenerlo, si deve ricorrere all'aumento della distanza dei singoli pixel tra loro a parità di efficienza della schermatura (altro settore in cui si sta cercando di sviluppare ma a costi molto elevati).
La massimizzazione dell'area del fotosito a scapito dei circuiti elettrici (non delle connessioni) avviene grazie alle riduzioni del processo produttivo degli elelnti a semiconduttore e delle metallizzazioni presenti sul pixel. I pixel utilizzati sono di tipo front illuminated che, a dispetto del nome, sono pixel in cui i circuiti di cui parlavo prima (ADC, amplificatore e NR) sono posti sul fotosito dalla parte dove arriva la radiazione luminosa, sottraendo spazio alla parte fotosensibile. Sono quelli i circuiti di cui si riducono le dimensioni per far lasciare meggiore spazio all'elemento fotosensibile. Il porssimo step sarà quello dei sensori di tipo back illuminated (con i circuiti posti sul lato opposto) che fimora non sono stati sviluppati perchè presentano una maggior fragilità costruttiva e sono più sensibili al fenomeno del pixel crosstalk.
magari ti riferisci ad altri, perché io non ho nessuna teoria, confermavo soltanto quanto diceva chi ti correggeva quando affermavi che è tanto meglio quanto è maggiore la distanza tra fotorecettori (ma non dubito che magari possa aver sbagliato io ad interpretare):
parlo della teoria che all'aumentare dell'affollamento del sensore diminuisce il risschio di aliasing :D
che è l'esatto contrario di ciò che affermi correttamente adesso ed è questo semplicemente che ti abbiamo fatto notare (ok magari ho un po' esagerato ma era in risposta alla tua fermezza):
no, è la stessa cosa che affermavo prima detta in altra forma. Una maggior distanza tra i pixel permette di avere meno problemi di aliasing rispetto ad una minor distanza per quanto detto prima. Quando campiono un segnale (lasciando da parte il discorso che un bayer pattern non fa campionamento) prendo un segnale continuo e lo moltiplico (oppure faccio una convoluzione) per una finestra di ampiezza unitaria (che è quella dell'intervallo di campionamento). Ora, sai bene che il risultato di questa operazione mi trasforma un segnale continuo in un segnale limitato all'interno di una banda. Se passo nello spazio dei segnali campionati, questo si traduce in una distribuzione illimitata e più è stretta la finestra nello spazio d'origine, più è larga la curva nel nuovo spazio. Più prendo i campioni vicini e più ho interferenza tra il segnale preso in un punto (o in un intervallo) e le code dei segnali contigui. Questo è il motivo per cui esiste un limite alle frequenza che posos utilizzare per il campionamento.
A prescindere da ciò, come detto, la frequenza "di campionamento" di un sensore, al diminuire delle dimensioni dei fotositi, non aumenta in ogni caso.
Quindi su tutto il resto mi pare siamo adesso perfettamente d'accordo, magari eccetto qualche cosa, come:
sinceramente non capisco la differenza a livello di significato per me è la stessa cosa :p
Infatti non ho mai affermato il contrario ;) ma ti ho solo corretto quello che ti ho fatto già notare
Vedi che siamo d'accordo: era proprio quanto affermavo dovrebbe essere in linea teorica, poi ovvio che intervengono problemi elettronici..
mentre qui secondo me sbagli, perché si ricade proprio nel ricampionamento da una frequenza maggiore che come spieghi perfettamente dopo è la causa dell'aliasing quindi in questo caso c'è sì il rischio del moiré (ovvio che poi non lo noti se non ci sono trame ripetitive come ad esempio mattonelle, fili di tessuto, e così via), analogamente il sensore ricampiona a partire dalla frequenza spaziale limite massima risolvibile dall'obiettivo oppure se fai un discorso più al limite assumendo per la realtà dettagli infinitesimi lì la frequenza spaziale è infinita.
nessun errore, proprio perchè ho preso due frequenze che soddisfano il teorema di shannon e non due frequenze non accordate con la banda di nyquist, In tal caso, il ricampionamento con un numero inferiori di punti non dà luogo a moire (la frequenza scelta deve essere pari a multipla di quella della griglia ma anche 1/4 è un multiplo).
Il problema, piuttosto, è che non è possibile avere un reticolo che si adatti alle immagini da rappresentare e, di conseguenza, il moire è un fenomeno ineludibile e per cui è necessario un filtro. Per sottocampionamento si considera il campionamento a frequenza non solo inferiore a quella ideale, ma anche diversa da multipli di quella di nyquist che genera errori di soglia all'atto della quantizzazione. Questo perchè il moire si genera, tra l'altro, solo all'atto della riproduzione di una funzione periodica (quindi l'impoirtante è che il punto in cui scelgo di campionare non cada nell'intervallo tra due sample della funzione campionata e non che ci sia corrispondenza 1:1 tra sample del campionatore e sample campionati). L'oprazione di sottocampionamento è abbastanza usuale, come quella di sovracampionamento (una è detta shrinking e l'altra zooming); l'importante è che si soddisfino determinati requisiti nella scelta dei pattern (non credo sia il caso di approfondire le tipologie di relazioni nell'uno e nell'altro tipo di operazione, non in questa sede, almeno)
Adesso spero che tu l'abbia preso come qualcosa di costruttivo almeno il mio intento era quello e se scrivo delle ca@@te correggimi pure :mano:
Il tono del PS pensavo fosse chiaramente burlesco non metto in dubbio le tecnologie microelettroniche (tra l'altro qua la stupidata l'ho scritta perché in realtà se non erro, come dici tu tutta quella struttura è un tutt'uno col sensore) comunque grazie lo stesso per la precisazione.
figurati, qualunque chiarimento è sicuramente istruttivo. Il problema è che siamo andati molto OT con argomenti che non sono strettamente attinenti alla fotografia e non so fino a che punto interessino altri utenti del foorum. :mano:
moris_bs
10-12-2008, 08:23
Mi dispiace ma per ora non mi avete ancora convinto e resto della mia idea. Soratutto riguardo al superiore dettaglio della pellicola ...
Poi se invece di confrontare la "pellicola" col digitale pargonando immagini a video non ci siamo secondo me.
Il giusto confronto adrebbe fatto solo sullo stampato da digitale con la stampa da pellicola ... altrimenti dove la mettiamo la perdita per digitalizzazione(ancora quantizzazione) della pellicola?
tornando alla pratica, io posso dire per certo che tra 30d e 350d (stesso numero di pixel, sensori leggermente diversi e soprattutto dovrebbe essere diverso il filtro aa) la differenza, a parità di lenti, si sente.
Per questo, prendere a raffronto la 350 vs la 50 non ha molto senso.
credo ne abbia ancor meno continuare a parlare della sola risoluzione delle lenti, perché per aumentarla si va contro ad altri problemi, cioé un appiattimento dell' immagine, per la necessità di avere maggior contrasto tra due sfumature (altrimenti, che differenza tra due linee parallele é presente?), e queste lenti iper-contrastate per forza appiattiscono le sfumature.
Mi dispiace ma per ora non mi avete ancora convinto e resto della mia idea. Soratutto riguardo al superiore dettaglio della pellicola ...
Poi se invece di confrontare la "pellicola" col digitale pargonando immagini a video non ci siamo secondo me.
Il giusto confronto adrebbe fatto solo sullo stampato da digitale con la stampa da pellicola ... altrimenti dove la mettiamo la perdita per digitalizzazione(ancora quantizzazione) della pellicola?
andrebbero anche confrontate a parità di lente, però. Le lenti di oggi hanno perso alcune caratteristiche proprie delle "analogiche" proprio per rendersi misurabili.
(IH)Patriota
10-12-2008, 08:33
l giusto confronto adrebbe fatto solo sullo stampato da digitale con la stampa da pellicola ... altrimenti dove la mettiamo la perdita per digitalizzazione(ancora quantizzazione) della pellicola?
Sai qual' è il bello della pellicola ?
E' che il 99% dei laboratori usa macchine che sviluppano , scannerizzano , sistemano via software , e creano un file... poi stampano :doh: :doh:
Ciauz
Pat
moris_bs
10-12-2008, 09:17
andrebbero anche confrontate a parità di lente, però. Le lenti di oggi hanno perso alcune caratteristiche proprie delle "analogiche" proprio per rendersi misurabili.
Sai qual' è il bello della pellicola ?
E' che il 99% dei laboratori usa macchine che sviluppano , scannerizzano , sistemano via software , e creano un file... poi stampano :doh: :doh:
Ciauz
Pat
Io però con la mia k10d uso obiettivi fissi pentax di mio fratello(è un santo) k28mm/f2.8, m50mm/f1.7 135/f2.5 e 300/F4 e mio fratello a suo tempo gli stessi obiettivi con la mitica Pentax lx a pellicola con tanto di sviluppatore, di acidi con vaschette in camere oscura...
E accidenti con la mia digital non ci siamo ancora ...
Poi se mi dite che certe lenti di oggi da kit o certi zoom sono limitanti oppure che i centri di svilippo e stampa non stanno li tanto ad andare per il sottile quanto a stampe ok posso convenire con voi ...
Io però con la mia k10d uso obiettivi fissi pentax di mio fratello(è un santo) k28mm/f2.8, m50mm/f1.7 135/f2.5 e 300/F4 e mio fratello a suo tempo gli stessi obiettivi con la mitica Pentax lx a pellicola con tanto di sviluppatore, di acidi con vaschette in camere oscura...
E accidenti con la mia digital non ci siamo ancora ...
Poi se mi dite che certe lenti di oggi da kit o certi zoom sono limitanti oppure che i centri di svilippo e stampa non stanno li tanto ad andare per il sottile quanto a stampe ok posso convenire con voi ...
Quindi stai parlando di stampe in BN e NON di colore, in questo caso il punto debole del digitale è la STAMPA che ancora per il BN non ha alternative valide a quella fatta tramite ingranditore e carta di qualità, per il resto parlando solo di pellicola e sensore, escludendo le BN di bassa sensibilità, i sensori hanno il vantaggio di NON presentare grana cosa che con la pellicola limita di molto la sensazione di nitidezza già alle sensibilità medio basse, passando al colore o alle sensibilità medio alte, la grana e la minore definizione dei negativi colore lasciano campo libero al digitale che vince dilagando.....
yossarian
10-12-2008, 11:40
Mi dispiace ma per ora non mi avete ancora convinto e resto della mia idea. Soratutto riguardo al superiore dettaglio della pellicola ...
Poi se invece di confrontare la "pellicola" col digitale pargonando immagini a video non ci siamo secondo me.
Il giusto confronto adrebbe fatto solo sullo stampato da digitale con la stampa da pellicola ... altrimenti dove la mettiamo la perdita per digitalizzazione(ancora quantizzazione) della pellicola?
Io però con la mia k10d uso obiettivi fissi pentax di mio fratello(è un santo) k28mm/f2.8, m50mm/f1.7 135/f2.5 e 300/F4 e mio fratello a suo tempo gli stessi obiettivi con la mitica Pentax lx a pellicola con tanto di sviluppatore, di acidi con vaschette in camere oscura...
E accidenti con la mia digital non ci siamo ancora ...
Poi se mi dite che certe lenti di oggi da kit o certi zoom sono limitanti oppure che i centri di svilippo e stampa non stanno li tanto ad andare per il sottile quanto a stampe ok posso convenire con voi ...
http://www.normankoren.com/Tutorials/MTF7.html
http://www.clarkvision.com/imagedetail/film.vs.digital.summary1.html
qui c'è il parere di unio che preferisce la pellicola (ma afferma che si tratta di gusti personali)
http://www.kenrockwell.com/tech/filmdig.htm
qui sulla perdita di dettaglio da digitalizzazione delle foto (come vedi ce n'è per tutti) :D
http://www.earthboundlight.com/phototips/digital-versus-film-resolution.html
ovviamente tale perdita è dipendente dal numero di dpi utilizzati
qua ancora altro materiale: sembra siano tutti concordi a fissare il limite equivalente della pellicola attorno ai 10-11 Mpixel
http://www.dlcphotography.net/Digital%20vs%20Film.htm
altre prove con una 4x5 ed un 31 Mpixel phaseone
http://www.luminous-landscape.com/essays/Cramer.shtml
qui c'è un confronto di poca importanza poichè è fatto con digitali compatte, però, alla fine c'è riportatta la risoluzione equivalente "stimata" della provia
http://www.crystalcanyons.net/pages/TechNotes/FilmVsCP5000.shtm
http://www.luminous-landscape.com/essays/pixels_vs_film.shtml
Il dato di fatto è che i pareri sono contrastanti, anche se la maggiro parte di questi concordano nello stimare attorno ai 10-14 Mpixel il potere risolvente "equivalente" di una pellicola di buona qualità.
La cosa su cui tutti concordano è che la grana preswente sulla pellicola (già a bassi iso) fa perdere dettaglio e che il digitale riproduce i colori più fedelmente. Di contro, la pellicola rende meglio nelle aree ad alto contrasto (motivo per cui si comporta meglio nelle stampe in B/N)
demichel
10-12-2008, 15:12
Salve a tutti,
mi ficco anch'io in questo thread senza fine.
Quello riportato nei test di photozone.de è
MTF50(LW/PH) dove LW/PH=line widths/pixel height
e per convertirlo in linee/m si deve usare la seguente relazione:
MTF50(linee/mm) = MTF50(LW/PH)/(altezza immagine in mm)
da ciò si deduce che se ho
MTF50(LW/PH)=2000 su 24 mm questo equivale
a MTF50(linee/mm) = 2000/16 linee/mm = 125 linee/mm
una macchinetta APS-C da 10 Mpixel ad es. ha una risoluzione
3900(W)*2600(H) circa, che in linee/mm vuol dire
2600/16 linee/mm = 181 linee/mm
quindi ben al di sopra delle capacità di risoluzione della lente
come Pat sta sostenendo strenuamente da un bel po'.
Ditemi se sto delirando,
saluti Cristiano
marchigiano
10-12-2008, 20:33
La conclusione logica è che l'f2.8 non satura gli 8 Mpixel della 350D (non i 15 Mpixel della 50D). Se sulla 50D mi dà un risultato maggiore, questo valore è da imputare esclusivamente al maggior potere risolutivo teorico del sensore da 15 Mpixel rispetto a quello da 8 Mpixel della 350D.
la conclusione logica è che il 70-200 f2.8 è meno nitido del f4 e questo si riperquote su qualsiasi sensore. se montiamo il f2.8 sulla 50d e il f4 sulla 350d avremo più dettaglio sulla 50d, invertendo i corpi macchina il guadagno di dettaglio della 50d sarà molto più elevato
Salve a tutti,
mi ficco anch'io in questo thread senza fine.
Quello riportato nei test di photozone.de è
MTF50(LW/PH) dove LW/PH=line widths/pixel height
e per convertirlo in linee/m si deve usare la seguente relazione:
MTF50(linee/mm) = MTF50(LW/PH)/(altezza immagine in mm)
da ciò si deduce che se ho
MTF50(LW/PH)=2000 su 24 mm questo equivale
a MTF50(linee/mm) = 2000/16 linee/mm = 125 linee/mm
una macchinetta APS-C da 10 Mpixel ad es. ha una risoluzione
3900(W)*2600(H) circa, che in linee/mm vuol dire
2600/16 linee/mm = 181 linee/mm
quindi ben al di sopra delle capacità di risoluzione della lente
come Pat sta sostenendo strenuamente da un bel po'.
Ditemi se sto delirando,
saluti Cristiano
stai delirando :D :D :D ;) scherzo... non tieni conto dei sensori bayer, poi è evidente che qualsiasi lente offre più dettaglio ogni volta che si usa un sensore più denso
demichel
10-12-2008, 22:09
la conclusione logica è che il 70-200 f2.8 è meno nitido del f4 e questo si riperquote su qualsiasi sensore. se montiamo il f2.8 sulla 50d e il f4 sulla 350d avremo più dettaglio sulla 50d, invertendo i corpi macchina il guadagno di dettaglio della 50d sarà molto più elevato
stai delirando :D :D :D ;) scherzo... non tieni conto dei sensori bayer, poi è evidente che qualsiasi lente offre più dettaglio ogni volta che si usa un sensore più denso
concordo che la risoluzione effettiva del sensore possa essere inferiore, ma di quanto? sai dare una stima?
manca dunque solo tale correzione o c'è altro che non va?
saluti Cristiano
yossarian
11-12-2008, 00:51
la conclusione logica è che il 70-200 f2.8 è meno nitido del f4 e questo si riperquote su qualsiasi sensore. se montiamo il f2.8 sulla 50d e il f4 sulla 350d avremo più dettaglio sulla 50d, invertendo i corpi macchina il guadagno di dettaglio della 50d sarà molto più elevato
ripartiamo dalla solita formula
Risoluzione (lpmm) = 1/[1/lpmm obiettivo + 1/lpmm sensore]
lpmm obbietivo e lpmm sensore sono valori assoluti e non relativi al sistema di riferimento. Messi all'interno di una formula, ovvero messi in relazione tra loro danno un determinato risultato. Questo risultato mi dice che se metto l'ef 70-200 f2.8 sulla 350d ottengo un valore più basso che se metto il 70-200 f4. La stessa equazione mi dice che se metto il 70-200 f2.8 sulla 50d ottengo un risultato più alto di quello che ottengo con il 70-200 f2.8 sulla 350d. Nel primo caso, il sensore è lo stesso (2 obbiettivi sulla 350d) e il risultato è determinato dal potere risolvente degli obbiettivi. Nel secondo caso, l'obbiettivo è lo stesso ed il risultato è determinato dalle risoluzioni dei sensori. Il dato di fatto è che nessuna delle due ottiche arriva al valore di 2150 LWPH del sensore. Negli esempi che hai postato, con il 18-55, mentre con la 350d, a f5.6, si arriva a superrare di pochissimo il valore terico degli 8 Mpixel, con la 50d entrambi gli obbiettivi sono molto distanti dal valore di 2700 LWPH. Tornando alla formula, potrei concludere dicendo che se a f5.6 il 18-55 risolve più del sensore (fa aumentare il valore complessivo della risoluzione al livello di saturazione degli 8 Mpixel della 350d), con la 50d, nonostante il valore sensibilmente più elevato di lpmm del sensore da 15 Mpixel (rispetto agli 8), la lente è ben lontana dal valore teorico a tutte le aperture considerate.
Facciamo un'altra analisi di tipo empirico:
da questi valori
http://www.dpreview.com/reviews/canoneos50d/page30.asp
prendendo macchine della stesse fascia (semipro) e, quindi, ipotizzando la stessa qualità (all'incirca) dei componenti, abbiamo risoluzioni assolute pari a:
Canon EOS 50D Horizontal LPH 2250 15 Mpixel
Vertical LPH 2200
Nikon D300 Horizontal LPH 2200 12 Mpixel
Vertical LPH 2100
Pentax K20D Horizontal LPH 2250 14 Mpixel
Vertical LPH 2250
Canon EOS 40D Horizontal LPH 2100 10 Mpixel
Vertical LPH 1800
vero che, stando alla formula, il valore della risoluzione complessiva dipende sia dalla lente che dal sensore e, perciò, questi test non sono probanti al 100%; è anche vero, però, che solitamente si tende ad utilizzare lenti con caratteristiche più simili possibili tra loro (almeno a livello di risoluzione).
Facciamo un calcolo percentuale
da 10 a 1\2 Mpixel ho un incremento del 20% sulla risoluzione quadratica e incrementi del 7% e del 22% rispettivamente sulle risoluzioni orizzontale e verticale.
Da 12 a 14 Mpixel l'incremento di risoluzione quadratica è del 16,67% ma gli incrementi lineari sono solo del 2% e del 7% per le risoluzioni orizzontale e verticale
Da 14 a 15 Mpixel ho un incremento quadratico del 7% e incrementi lineari dello 0% e del -2% rispettivamente (vero che il sensore della pentax monta un filtro poco aggressivo che presenta una risoluzione di estinzione piuttosto bassa e, per giunta con moire, ma se così non fosse, si abbasserebbero le percentuali degli incrementi nel passaggio da 12 a 14 Mpixel).
Quindi, se da 10 a 12 Mpixel c'è stato un discreto incremento, a partire da 12 Mpixel in poi, sembra che ci si sia praticamente fermati. Eppure le risoluzioni dei sensori continuano ad aumentare.
demichel
11-12-2008, 13:22
concordo che la risoluzione effettiva del sensore possa essere inferiore, ma di quanto? sai dare una stima?
manca dunque solo tale correzione o c'è altro che non va?
saluti Cristiano
mi rispondo da solo, ossia per via del filtro bayer la risoluzione lineare
effettiva dovrebbe essere (correggetimi se sbaglio)
circa il 75-80% di quella che si ottiene considerando tutti i pixel
del sensore.
Ciò comporta che relativamente all'esempio fatto in precendenza
la risoluzione in linee/mm di una fotocamera da 10 Mpixel sarebbe
(3/4)*181 linee/mm = 136 linee/mm.
Poi ovviamente come si è già detto in questa discussione ci sarebbe
anche da tener conto anche del blurring del filtro AA...
Comunque mi sembra di poter già dire che con un tale sensore sfrutteremmo
a dovere una lente da 2000 LW/PH, che non è poi una lente particolarmente
risolvente, infatti stando ai test di www.photozone.de già
un nikkor 18-55mm al centro e ai bordi arriva a tale risoluzione,
saluti Cristiano
marchigiano
11-12-2008, 13:39
ragazzi senza fare milioni di calcoli basta guardare la realtà dei fatti: esistono compatte densissime che comunque sia tirano fuori parecchio dettaglio, usando lenti da 2 euro.
le pellicole iso25 o 50 erano famose per avere oltre 50mp di risoluzione, equivalenti a oltre 70mp di un sensore bayer (che è monocromatico), venivano usate perchè anche le lenti di allora potevano esprimersi meglio con la pellicola più fine. se erano tappate non cambiava niente usare una iso100-200 no?
gli stessi produttori di lenti se notate i test non fanno mai riferimento a pixel o densità o che altro ma riportano il % di contrasto a certi valori di lpmm
http://www.sigmaphoto.com/images/mf_50_28.gif
sottointendendo che una lente ha come vero limite la diffrazione e che se una lente è morbida lo sarà sempre e se una è nitida lo sarà sempre...
yossarian
11-12-2008, 14:43
ragazzi senza fare milioni di calcoli basta guardare la realtà dei fatti: esistono compatte densissime che comunque sia tirano fuori parecchio dettaglio, usando lenti da 2 euro.
con aberrazioni cromatiche e ottiche, rumore già a 100 iso e, spesso, moire a gogò :D
Di fatto non sono densissime ma solo affollatissime e con fotositi microscopici ed hanno, comunque, un potere risolvente nettamente inferiore alle reflex, anche con lenti scadenti, a parità di Mpixel
le pellicole iso25 o 50 erano famose per avere oltre 50mp di risoluzione, equivalenti a oltre 70mp di un sensore bayer (che è monocromatico), venivano usate perchè anche le lenti di allora potevano esprimersi meglio con la pellicola più fine. se erano tappate non cambiava niente usare una iso100-200 no?
veramente è la prima volta che sento parlare di 50 o 70 Mpixel equivalenti. I più ottimisti sostenitori della pellicola si sono spinti fino a 20-21 per il 35 mm e, forse, 40-45 per il medio formato. I valori più "gettonati", però, non superano i 10-14 Mpixel
Magari sarò noioso, però qui c'è un test MTF con pellicole a colori e in B/N
http://www.normankoren.com/Tutorials/MTF1A.html
dove si mostra pure che la risposta in frequenza per le pellicole in B/N è, addirittura, inferiore a quella delle pellicole a colori, ma che le prima applicano naturalmente una sorta di "maschera di contrasto" che fa aumentare la risoluzione "percepita" non quella reale. Ovvero una sorta di sharpen mask applicata sui "bordi".
Qui c'è un confronto "impari" tra fuji provia e coolpix 5000 (in fondo, però, c'è una tabella riassuntiva con i valori di lpmm)
http://www.crystalcanyons.net/pages/TechNotes/FilmVsCP5000.shtm
Qui, per confronto, è riportao il valore di lpmm per 40d e 50d
http://www.bobatkins.com/photography/digital/canon_eos_50D_review_4.html
da questi test non sembrerebbe che la pellicola abbia tutto questo potere risolvente (la provia è molto prosisma alla 40d e sotto la 50d), mentre i 10 Mpixel della compatta p5000 non sembrerebbero risolvere così tanto
gli stessi produttori di lenti se notate i test non fanno mai riferimento a pixel o densità o che altro ma riportano il % di contrasto a certi valori di lpmm
è normale che sia così: il produttore riporta i valori di lpmm assoluti della lente alle varie aperture (se è un fisso) e alle varie distanze focali (se è uno zoom). Non può dare indicazioni sui Mpixel di risolvenza semplicemente perchè non ha indicazioni da dare. Inoltre, la stragrande maggioranza delle lenti sono state progettate per pellicola e per il formato 35 mm e non per il digitale e per formati differenti
sottointendendo che una lente ha come vero limite la diffrazione e che se una lente è morbida lo sarà sempre e se una è nitida lo sarà sempre...
la diffrazione costituisce un limite solo oltre una determinata apertura, non prima. Un f4, alla massima apertura, non presenta diffrazione.
Resta comunque il fatto che, a partire da 12 Mpixel, in formato aps non si registrano più incrementi apprezzabili nella risolvenza dei sistemi lente+sensore.
demichel
11-12-2008, 14:59
Sperando che tale cosa sia gradita e utile,
aggiungo infine, per riepilogare la seguente considerazione.
Considerato che la risoluzione del sistema complessivo (Rc) costituito dal sensore (Rs) + lente (Rl)
è:
1/Rc = 1/Rs + 1/Rl
e considerato che un obiettivo anche "base" come il nikkor 18-55mm VR
ha la stessa risoluzione di un sensore da 10 Mpixel,
si può dire che il miglioramento nella risoluzione Rc si ha tanto
con una lente più risolvente e quindi più costosa, quanto
incrementando il numero di Mpixel.
Insomma smettetela di litigare avete ragione tutti! ;-)
saluti Cristiano
yossarian
11-12-2008, 16:11
Sperando che tale cosa sia gradita e utile,
aggiungo infine, per riepilogare la seguente considerazione.
Considerato che la risoluzione del sistema complessivo (Rc) costituito dal sensore (Rs) + lente (Rl)
è:
1/Rc = 1/Rs + 1/Rl
e considerato che un obiettivo anche "base" come il nikkor 18-55mm VR
ha la stessa risoluzione di un sensore da 10 Mpixel,
si può dire che il miglioramento nella risoluzione Rc si ha tanto
con una lente più risolvente e quindi più costosa, quanto
incrementando il numero di Mpixel.
Insomma smettetela di litigare avete ragione tutti! ;-)
saluti Cristiano
che non si possa ragionare in semplici termini di "collo di bottiglia" lo sto dicendo dall'inizio, proprio eprchè la risolvenza totaeld el sistema è data dal parallelo delle risolvenze dei due elementi componenti e, di conseguenza, molto più bassa del valore minore dei due.
Resta il fatto, però che, almeno su aps, sembra si stia arrivando al limite del sistema lente+sensore, dato che dai 12 Mpixel della d300 ai 15 Mpixel della 50d i miglioramenti sono veramente di infimo ordine (ammesso che ce ne siano di reali e tangibili).
Con le attuali tecnologie, sembra sia praticamente impossibile aumentare le risoluzioni dei sensori oltre i limiti imposti dalla fisica e dall'elettronica e, dall'altra parte, pare sia altrettanto problematico aumentare il potere risolvente delle lenti in misura tale da ottenere un incremento tangibile della risolvenza del sistema.
Di fatto, però, IMHO non è sbagliato dire che con queste lenti siamo arrivati al limite per questa tipologia di sensori.
demichel
11-12-2008, 18:23
che non si possa ragionare in semplici termini di "collo di bottiglia" lo sto dicendo dall'inizio, proprio eprchè la risolvenza totaeld el sistema è data dal parallelo delle risolvenze dei due elementi componenti e, di conseguenza, molto più bassa del valore minore dei due.
Resta il fatto, però che, almeno su aps, sembra si stia arrivando al limite del sistema lente+sensore, dato che dai 12 Mpixel della d300 ai 15 Mpixel della 50d i miglioramenti sono veramente di infimo ordine (ammesso che ce ne siano di reali e tangibili).
Con le attuali tecnologie, sembra sia praticamente impossibile aumentare le risoluzioni dei sensori oltre i limiti imposti dalla fisica e dall'elettronica e, dall'altra parte, pare sia altrettanto problematico aumentare il potere risolvente delle lenti in misura tale da ottenere un incremento tangibile della risolvenza del sistema.
Di fatto, però, IMHO non è sbagliato dire che con queste lenti siamo arrivati al limite per questa tipologia di sensori.
beh certo se assumiamo che le attuali densità dei sensori aps-c
siano già di fatto al limite, le lenti attuali anche più economiche sembra che siano in grado di "sfruttare" al meglio, almeno dal punto di vista
della risoluzione, anche il sensore APS-C più denso.
Tuttavia la ricerca e lo sviluppo tecnologico, per fortuna, riservano sempre
sorprese.
Ad es. se i Mpixel su APS-C diventassero effettivi (parlando in libertà, che so, eliminando il filtro AA e quello Bayer) e parallelamente si guadagnasse ulteriormente in densità ci sarebbe ancora un discreto margine per tali sensori, sei d'accordo?
saluti Cristiano
ilguercio
11-12-2008, 19:11
Io continuo ad essere dell'idea che una lente non risolve oltre il suo massimo.Se la piazzi su una 350D e la supera vuol dire che la lente risolve oltre il sensore.Se la piazzi in una 50D ed è decisamente più distante,significa evidentemente che il suo massimo l'ha raggiunto già qualche mpx fa.
Senza entrare in tecnicismi troppo intricati(che neanche conosco) secondo me i 12 mpx su aps-c sono già il massimo usufruibile,visto che per ora su photozone nessuna lente si è mai avvicinata alla risoluzione massima del sensore...
marchigiano
11-12-2008, 22:19
Resta il fatto, però che, almeno su aps, sembra si stia arrivando al limite del sistema lente+sensore, dato che dai 12 Mpixel della d300 ai 15 Mpixel della 50d i miglioramenti sono veramente di infimo ordine (ammesso che ce ne siano di reali e tangibili).
la 50d ha un filtro molto morbido che evita i disturbi mentre per dire la 450d ha un filtro molto più blando infatti viene fuori il moire, di fatto per non avere moire la 50d si mangia quasi 3mp... ma vedrai che se su quel sensore montano un filtro stile 450d la risolvenza balzerà a livelli molto elevati...
yossarian
12-12-2008, 01:35
beh certo se assumiamo che le attuali densità dei sensori aps-c
siano già di fatto al limite, le lenti attuali anche più economiche sembra che siano in grado di "sfruttare" al meglio, almeno dal punto di vista
della risoluzione, anche il sensore APS-C più denso.
Tuttavia la ricerca e lo sviluppo tecnologico, per fortuna, riservano sempre
sorprese.
Ad es. se i Mpixel su APS-C diventassero effettivi (parlando in libertà, che so, eliminando il filtro AA e quello Bayer) e parallelamente si guadagnasse ulteriormente in densità ci sarebbe ancora un discreto margine per tali sensori, sei d'accordo?
saluti Cristiano
volendo ci si può spingere anche oltre come "densità". Il problema è che a questo aumento non sembrano corrispondere benefici tangibili in termini di guadagno del sistema lente-sensore. Se dai 12 Mpixel della d300 ai 15 della 50d noto, al massimo, un aumento complessivo di un centinaio di linee solo su una delle due risoluzioni lineari, vuol dire che, con le attuali tecnologie, più di tanto da questi sistemi non riesco a tirare fuori.
Questa analisi sembra fare proprio al caso nostro
http://www.luminous-landscape.com/tutorials/resolution.shtml
si sono posti la stessa domanda e sono arrivati alla conclusione che
So, do sensors outresolve lenses? It depends on the lens you use, the properties of the light, the aperture and the format. Small format sensors may have surpassed the limit, this is, in most cases they are lens-limited in terms of resolution. It is easier to correct aberrations for a smaller light circle though, so you can approach diffraction-limited resolutions for lower f-numbers. The signal-to-noise ratio, however, imposes an inflexible limit to the effective resolution of the whole system, mostly due to photon shot noise.
Sensors for larger formats are approaching the diffraction limit of real lenses, and it is more difficult to get high levels of aberration suppression for them. The point is that you cannot fully exploit the resolution potential of high-resolution sensors with regular mass-produced lenses, particularly for larger formats.
You cannot compare the limits of two different photographic systems looking at a print because the variables that determine the subjective perception come into play. Different systems can provide comparable results on paper under certain conditions (the circle of confusion reasoning explains how that is possible), but the limit of a system must be evaluated considering the pixel as the minimum circle of confusion.
Ovvero, i limiti fisici imposti dalle lenti (aberrazioni alle massime aperture e diffrazione quando si inizia a chiudere il diaframma), potrebbero essere stati superati dai sensori di formato più piccolo e più "densi" (la pratica sembrerebbe portare a queste conclusioni anche per l'aps-c); mentre, invece, c'è ancora margine per i formati più grandi (35 mm e MF).
In quanto alle altre domende che ti poni, è difficile dare risposte. Possiamo eleiminare il filtro bayer? Si, non utilizzando più una matrice di tipo bayer, ovvero a mosaico. Eliminando il filtro bayer si potrebbero avere vantaggi in termini di quantità di radiazione per pixel (a patto di riuscire a ricostruire anche i colori :D ); alternative? L'X3 di foveon (o, meglio, Sigma). Però anche questo non è esente da difetti, soprattutto con il rumore e iso medio alti e perdita di dettaglio con segnali a frequenze più basse (mentre lavora meglio con le alte frequenze rispetto ai filtri bayer). Non necessità del filtro AA e delle operazioni di demosaicing (niente moire e guadagno nella risoluzione) ma avrebbe bisogno, più di una matrice bayer, di lenti telecentriche.
Togliere il filtro AA? Stesso discorso: quali alternative?
Sul fatto che guadagnando in densità ci possa essere margine, dipende dal sensore: gli elementi in gioco sono troppi; se leggi l'articolo postato puoi renderti conto che nel calcolo dell'MTF entrano in gioco tali e tanti fattori da rendere difficile dare risposte certe. Sembrerebbe che i sensori più piccoli (4:3 e aps) abbiano raggiunto ormai il limite di risolvenza delle lenti; discorso diverso per 35 mm e MF). Questo dipende, con ogni probabilità, dai limiti ottici (aberrazioni e diffrazione) delle lenti, la cui manifestazione è dipendente anche dalle dimensioni dei singoli pixel. Avere fotositi più grandi sposta più in là questi limiti, aumentando il potere di risolvenza relativo delle lenti. Quindi, aumentare l'affollamento su aps, con fotositi ancora più piccoli, farebbe diminuire ulteriormente il potere risolvente relatiov delle lenti, spostando ancora più verso il basso il limite. Di conseguenza, quello che si guadagna in risolvenza del sensore lo si perde in risolvenza della lente (il motivo per cui, in pratica, a partire da 12 Mpixel non si ha più avuto guadagno apprezzabile di potere risolvente del sistema).
la 50d ha un filtro molto morbido che evita i disturbi mentre per dire la 450d ha un filtro molto più blando infatti viene fuori il moire, di fatto per non avere moire la 50d si mangia quasi 3mp... ma vedrai che se su quel sensore montano un filtro stile 450d la risolvenza balzerà a livelli molto elevati...
vero, infatti la 450d ha una risoluzione di estinzione molto bassa proprio a causa dall'aliasing. Però la pentax k20 non ha un filtro morbido (e presenta gli stessi problemi e lo stesso andamento della 450d) eppure non ha un vantaggio consistente sulla d300 il cui filtro è decisamente più morbido (anche se meno rispetto a quello della 50d, ma qui si torna al discorso che sensori più affollati necessitano di filtri più morbidi per evitare il moire o altri fenomeni da aliasing).
http://www.dpreview.com/reviews/nikond90/page35.asp
proprio i dati relativi a 450d e k20 fanno pensare. Hanno entrambe un filtro non morbido (a giudicare dalla risoluzione di estinzione sembrerebbe addirittura che pentax ce l'abbia più "blando"), una da 12,2 l'altra da 14,5 Mpixel, eppure non c'è guadagno di risoluzione tra le due.
Guardando le due nikon (filtro morbido), noto un guadagno solo nella risoluzione verticale (nel formato 3:2, la dimensione più lunga nel formato 3:2; questo a conferma del fatto che riducendo le dimensioni dei fotositi non riduco le distanze tra subpixel che, anzi, in alcuni casi potrebbero addirittura aumentare; ad esserne penalizzata è la dimensione su cui ho meno margini di manovra nel riposizionare i pixel cercando di guadagnare spazio, essendo la più breve). Tra l'altro, curioso il comportamento della pentax che è l'unica a presentare la stessa risoluzione sia lungo l'asse orizzontale (risoluzione verticale) che lungo quello verticale (risoluzione orizzontale): filtro AA con comportamento isotropo? Distanze non omogenee tra i subpixel lungo i due assi?
Tornando IT, se la tua domanda iniziale (quella della prima pagina) era riferita al formato aps, stando anche alle conclusioni di luminous landscape, corredate da test sull'MTF di lenti e sensori, sembrerebbe di si. Se la tua domanda era riferita, molto più genericamente, alle reflex digitali (quindi anche le 35 mm e, volendo allargare il campo, le MF), la risposta è: molto probabilmente no.
(IH)Patriota
12-12-2008, 08:35
Tornando IT, se la tua domanda iniziale (quella della prima pagina) era riferita al formato aps, stando anche alle conclusioni di luminous landscape, corredate da test sull'MTF di lenti e sensori, sembrerebbe di si. Se la tua domanda era riferita, molto più genericamente, alle reflex digitali (quindi anche le 35 mm e, volendo allargare il campo, le MF), la risposta è: molto probabilmente no.
Se poi calcoliamo che l' analisi viene fatta in studio nelle migliori condizioni di contrasto e con lenti fortemente diaframmate e riportiamo il discorso nella fotografia di tutti i giorni fatta non sempre in ottimali condizioni di luce con lenti usate TA oppure chiuse solo 1 o 2 stop , passati i 10/12Mpixel avremo file piu' grandi , un lieve incremento a bassi ISO , un peggioramento ad alti ISO ... non so quanto sia auspicabile sperare che sfornino aps-c da 20 e passa Mpix come si leggeva ad inizio thread.
Riguardo al 35mm , relazionando i costi delle lenti per full frame alla loro resa (parlo delle L di Canon) credo che anche fosse teoricamente possibile spingersi a densita' piu' spinte l' esborso per avere lenti piu' taglienti non sarebbe comparabile al guadagno di dettaglio anche in considerazioni delle necessita' di stampa , con la 1ds ho stampato dei 3x2 per un ristorante che li ha esposti in fiera e sono rimasto piu' che soddisfatto per la resa , con la 1D da 10mpix ho stampato dei 73x110 fatti in pista da lasciare a bocca aperta..
Sara' che ormai le mie preoccupazioni piu' che verso la quantita' di dettaglio delle lenti è attirata da problemi di luce , problemi di messa a fuoco , qualita' dello sfocato , contrasto in caso di luce incidente ecc..ecc.. ma mi pare che il delirio per il puro dettaglio stia un po' troppo dilagando , oltre ogni ragionevole misura ed al di sopra di utilità (sacrificare la resa ad alti ISO per 100 linee in piu' per me è una follia) .. e torna "in auge" quello che un secolo fa ha detto Adams e che ho in firma :D :D
Ciauz
Pat
AarnMunro
12-12-2008, 08:55
Ok, ma se le case quando sfornano un nuovo modello non puntano l'attenzione su un nuovo sensore con un paio di mpixel in più...come fanno?
Ogni anno avremo sempre un nuovo modello con qualche Mpixel aggiunto...non possono fare altrimenti.
Pubblicizzare un nuovo engine AF con punti a croce piuttosto di un nuovo digic od un AF in cui puoi settare l'offset lente per lente...non attizza il mercato.
Ci vuole il sensore (vibrante per la pulizia) bello denso, ISO mostruosi (con NR) e liveview.
PS ...dimenticandosi dei filmati! :D
yossarian
12-12-2008, 13:30
Se poi calcoliamo che l' analisi viene fatta in studio nelle migliori condizioni di contrasto e con lenti fortemente diaframmate e riportiamo il discorso nella fotografia di tutti i giorni fatta non sempre in ottimali condizioni di luce con lenti usate TA oppure chiuse solo 1 o 2 stop , passati i 10/12Mpixel avremo file piu' grandi , un lieve incremento a bassi ISO , un peggioramento ad alti ISO ... non so quanto sia auspicabile sperare che sfornino aps-c da 20 e passa Mpix come si leggeva ad inizio thread.
il problema è che con le ultime fotocamere non si ha neppure l'incremento a bassi ISO (o, quanto meno, niente di apprezzabile). Il guadagno di dettaglio della 50d rispetto alla d300 è impercettibile a bassi iso e l'incremento di pixel non paga ad alti iso. L?errore che si fa è quello di considerare i poteri risolventi del sensore e della lente come due cose a sé stanti da confrontare per stabilire chi faccia da collo di bottiglia. Di fatto non funziona così, innanzitutto perchè quello che si calcola è il potere risolvente del sistema ovvero si analizza come si comporta quella lente con quei particolari limiti di risoluzione su quel sensore (o su quella pellicola) che, a sua volta, presenta i suoi limiti. Da un'analisi del genere, risulta che, lasciando da parte le fantasie di risolvenza infinita delle lenti (se così fosse, per le note formule già citate ed altre ancora, qualunque lente posta su qualunque sensore dovrebbe dare come valore, a qualsiasi apertura e distanza focale, come risultato finale, la risolvenza teorica massima del sensore e così non è), su aps si è arrivati ad avere una situazione tale che passando da 12 a 15 Mpixel non si ha, in pratica, un guadagno di risoluzione apprezzabile neppure a bassi iso (parliamo di coppia di poche linee per millimetro, ovvero differenze rilevabili al microscopio e non ad occhio nudo o con un normale ingrandimento). Ammettendo che, cosa possibile, il potere risolvente assoluto di una lente sia di un ordine di grandezza superiore rispetto a quello dei sensori (e della pellicola) (cosa teoricamente persino possible), da qui è impossibile saltare alla conclusione che ci si può spingere oltre con le risoluzioni dei sensori perchè non si è ancora raggiunto il limite. Infatti, non bisogna confrontare i valori assoluti di risolvenza, ma quelli relativi e se si scopre che una lente, messa su una 12 Mpixel o su una 15 Mpixel mi dà, praticamente, lo stesso risultato, questo significa semplicemente che il potere risolvente di quella lente non ha sufficiente peso, all'interno dell'equazione, per far aumentare la risolvenza del sistema completo: ovvero che la lente non risolve oltre una determinata densità dei sensori.
Riguardo al 35mm , relazionando i costi delle lenti per full frame alla loro resa (parlo delle L di Canon) credo che anche fosse teoricamente possibile spingersi a densita' piu' spinte l' esborso per avere lenti piu' taglienti non sarebbe comparabile al guadagno di dettaglio anche in considerazioni delle necessita' di stampa , con la 1ds ho stampato dei 3x2 per un ristorante che li ha esposti in fiera e sono rimasto piu' che soddisfatto per la resa , con la 1D da 10mpix ho stampato dei 73x110 fatti in pista da lasciare a bocca aperta..
Sara' che ormai le mie preoccupazioni piu' che verso la quantita' di dettaglio delle lenti è attirata da problemi di luce , problemi di messa a fuoco , qualita' dello sfocato , contrasto in caso di luce incidente ecc..ecc.. ma mi pare che il delirio per il puro dettaglio stia un po' troppo dilagando , oltre ogni ragionevole misura ed al di sopra di utilità (sacrificare la resa ad alti ISO per 100 linee in piu' per me è una follia) .. e torna "in auge" quello che un secolo fa ha detto Adams e che ho in firma :D :D
Ciauz
Pat
concordo pienamente con le tue conclusioni e con quanto detto da Aarn. Qui ci si sta facendo le pippe mentali su Mpixel e potere risolvente ma sono discorsi fatte da persone, come te, Aarn, marklevi, marchigiano, street, the joe ed altri (cito a memoria quelli che ricordo, e che conosco di più per averli letti nel forum di fotografia, non me ne voglia chi è stato invoilontariamente escluso :fagiano: ), che sono a loro agio nel mondo della fotografia e sono in grado di fare valutazioni oggettive e reali sui parametri di una foto e di un'apparecchiatura fotografica e su ciò di cui, effettivamente, si ha bisogno.
Diverso il caso degli acquirenti occasionali che fanno acquisti in base ai Mpixel (anche per le fotocamere dei cellulari, ormai :D ), agli ammennicoli vari, spesso inutili o poco funzionali che, però, fanno tendenza (guai a non averli :doh: ), agli iso "dichiarati", visto che ormai sparano 3200 e oltre Mpixel anche su compattine o bridge (che sappiamo arrivare per miracolo a 400 ISO).
Il fatto è che, finche ci sarà gente che compra ed è disposta a cambiare la sua macchina (magari semipro) o metterne in dubbio la validità, solo perchè è uscita una entry con più Mpixel, allora difficilmente assisteremo ad un'inversione di tendenza
ilguercio
12-12-2008, 13:42
Io,come già detto,sono d'accordo con Pat e gli altri.Insomma se una lente su un sistema riesce a saturare la risoluzione e su un altro no,significa che la lente ha già raggiunto il suo massimo in risoluzione.Ok che c'è il filtro AA però c'è anche sul sistema meno denso e se le lenti davvero risolvessero all'infinito manterrei sempre risolvenze proporzionali per sistema.Se fra due sistemi il guadagno è minimo allora abbiamo davvero raggiunto il limite.Come dice Pat,se per le immagini della 450D hanno usato l'85 1.2 L significa che il sensore era abbastanza esigente.
La soluzione sarebbe passare a formati più grandi,permettendo densità inferiori(che è quello che veramente interessa alla fine della fiera)sia per aiutare la lente e sia per ridurre i disturbi fra i fotositi...
demichel
12-12-2008, 18:32
volendo ci si può spingere anche oltre come "densità". Il problema è che a questo aumento non sembrano corrispondere benefici tangibili in termini di guadagno del sistema lente-sensore. Se dai 12 Mpixel della d300 ai 15 della 50d noto, al massimo, un aumento complessivo di un centinaio di linee solo su una delle due risoluzioni lineari, vuol dire che, con le attuali tecnologie, più di tanto da questi sistemi non riesco a tirare fuori.
Questa analisi sembra fare proprio al caso nostro
http://www.luminous-landscape.com/tutorials/resolution.shtml
si sono posti la stessa domanda e sono arrivati alla conclusione che
So, do sensors outresolve lenses? It depends on the lens you use, the properties of the light, the aperture and the format. Small format sensors may have surpassed the limit, this is, in most cases they are lens-limited in terms of resolution. It is easier to correct aberrations for a smaller light circle though, so you can approach diffraction-limited resolutions for lower f-numbers. The signal-to-noise ratio, however, imposes an inflexible limit to the effective resolution of the whole system, mostly due to photon shot noise.
Sensors for larger formats are approaching the diffraction limit of real lenses, and it is more difficult to get high levels of aberration suppression for them. The point is that you cannot fully exploit the resolution potential of high-resolution sensors with regular mass-produced lenses, particularly for larger formats.
You cannot compare the limits of two different photographic systems looking at a print because the variables that determine the subjective perception come into play. Different systems can provide comparable results on paper under certain conditions (the circle of confusion reasoning explains how that is possible), but the limit of a system must be evaluated considering the pixel as the minimum circle of confusion.
Ovvero, i limiti fisici imposti dalle lenti (aberrazioni alle massime aperture e diffrazione quando si inizia a chiudere il diaframma), potrebbero essere stati superati dai sensori di formato più piccolo e più "densi" (la pratica sembrerebbe portare a queste conclusioni anche per l'aps-c); mentre, invece, c'è ancora margine per i formati più grandi (35 mm e MF).
In quanto alle altre domende che ti poni, è difficile dare risposte. Possiamo eleiminare il filtro bayer? Si, non utilizzando più una matrice di tipo bayer, ovvero a mosaico. Eliminando il filtro bayer si potrebbero avere vantaggi in termini di quantità di radiazione per pixel (a patto di riuscire a ricostruire anche i colori :D ); alternative? L'X3 di foveon (o, meglio, Sigma). Però anche questo non è esente da difetti, soprattutto con il rumore e iso medio alti e perdita di dettaglio con segnali a frequenze più basse (mentre lavora meglio con le alte frequenze rispetto ai filtri bayer). Non necessità del filtro AA e delle operazioni di demosaicing (niente moire e guadagno nella risoluzione) ma avrebbe bisogno, più di una matrice bayer, di lenti telecentriche.
Togliere il filtro AA? Stesso discorso: quali alternative?
Sul fatto che guadagnando in densità ci possa essere margine, dipende dal sensore: gli elementi in gioco sono troppi; se leggi l'articolo postato puoi renderti conto che nel calcolo dell'MTF entrano in gioco tali e tanti fattori da rendere difficile dare risposte certe. Sembrerebbe che i sensori più piccoli (4:3 e aps) abbiano raggiunto ormai il limite di risolvenza delle lenti; discorso diverso per 35 mm e MF). Questo dipende, con ogni probabilità, dai limiti ottici (aberrazioni e diffrazione) delle lenti, la cui manifestazione è dipendente anche dalle dimensioni dei singoli pixel. Avere fotositi più grandi sposta più in là questi limiti, aumentando il potere di risolvenza relativo delle lenti. Quindi, aumentare l'affollamento su aps, con fotositi ancora più piccoli, farebbe diminuire ulteriormente il potere risolvente relatiov delle lenti, spostando ancora più verso il basso il limite. Di conseguenza, quello che si guadagna in risolvenza del sensore lo si perde in risolvenza della lente (il motivo per cui, in pratica, a partire da 12 Mpixel non si ha più avuto guadagno apprezzabile di potere risolvente del sistema).
vero, infatti la 450d ha una risoluzione di estinzione molto bassa proprio a causa dall'aliasing. Però la pentax k20 non ha un filtro morbido (e presenta gli stessi problemi e lo stesso andamento della 450d) eppure non ha un vantaggio consistente sulla d300 il cui filtro è decisamente più morbido (anche se meno rispetto a quello della 50d, ma qui si torna al discorso che sensori più affollati necessitano di filtri più morbidi per evitare il moire o altri fenomeni da aliasing).
http://www.dpreview.com/reviews/nikond90/page35.asp
proprio i dati relativi a 450d e k20 fanno pensare. Hanno entrambe un filtro non morbido (a giudicare dalla risoluzione di estinzione sembrerebbe addirittura che pentax ce l'abbia più "blando"), una da 12,2 l'altra da 14,5 Mpixel, eppure non c'è guadagno di risoluzione tra le due.
Guardando le due nikon (filtro morbido), noto un guadagno solo nella risoluzione verticale (nel formato 3:2, la dimensione più lunga nel formato 3:2; questo a conferma del fatto che riducendo le dimensioni dei fotositi non riduco le distanze tra subpixel che, anzi, in alcuni casi potrebbero addirittura aumentare; ad esserne penalizzata è la dimensione su cui ho meno margini di manovra nel riposizionare i pixel cercando di guadagnare spazio, essendo la più breve). Tra l'altro, curioso il comportamento della pentax che è l'unica a presentare la stessa risoluzione sia lungo l'asse orizzontale (risoluzione verticale) che lungo quello verticale (risoluzione orizzontale): filtro AA con comportamento isotropo? Distanze non omogenee tra i subpixel lungo i due assi?
Tornando IT, se la tua domanda iniziale (quella della prima pagina) era riferita al formato aps, stando anche alle conclusioni di luminous landscape, corredate da test sull'MTF di lenti e sensori, sembrerebbe di si. Se la tua domanda era riferita, molto più genericamente, alle reflex digitali (quindi anche le 35 mm e, volendo allargare il campo, le MF), la risposta è: molto probabilmente no.
ho letto l'articolo su "luminous landscape" di cui hai postato il link e volevo
capire meglio alcune cose.
Nell'articolo si dice che il disco di Airy (che in sostanza è una line pair (LP) ) puo' essere campionato adeguatamente con 2 soli pixel (Th. di Nyquist).
Ora se pensiamo al sensore più l'obiettivo come due
sistemi ottici distinti con due distinti risoluzioni che si sommano in parallelo, da ciò consegue che il criterio usato nell'articolo suddetto equivale a considerare come buona una risoluzione che è sempre la metà di quella della lente ad una data apertura.
Io invece avrei fissato un certa soglia di risoluzione minima.
Ho capito male qualcosa nell'articolo?
Chiaramente questo non ne cambia la sostanza, credo.
saluti Cristiano
yossarian
12-12-2008, 20:40
ho letto l'articolo su "luminous landscape" di cui hai postato il link e volevo
capire meglio alcune cose.
Nell'articolo si dice che il disco di Airy (che in sostanza è una line pair (LP) ) puo' essere campionato adeguatamente con 2 soli pixel (Th. di Nyquist).
Ora se pensiamo al sensore più l'obiettivo come due
sistemi ottici distinti con due distinti risoluzioni che si sommano in parallelo, da ciò consegue che il criterio usato nell'articolo suddetto equivale a considerare come buona una risoluzione che è sempre la metà di quella della lente ad una data apertura.
Io invece avrei fissato un certa soglia di risoluzione minima.
Ho capito male qualcosa nell'articolo?
Chiaramente questo non ne cambia la sostanza, credo.
saluti Cristiano
non credo di aver capito a cosa alludi, ma provo a risponderti.
provo a riassumere, sperando di darti una risposta. La luce che arriva sulla lente viene convogliata verso il sensore; nel fare questa operazione, la lente ha alcune limitazioni che impediscono che abbia risolvenza "infinita" (le virgolette sono d'obbligo, poichè parliamo di una grandezza comunque quantizzata, poichè la luce è composta da fotoni). Questi limiti si manifestano in forma di frange di interferenza (il disco di airy). Queste frange hanno un centro con elevata intensità luminosa che va a decrescere verso i bordi ed è circondato da un anello "buio"; al di fuori di questo, si alternano altri anelli chiari e scuri (sempre più sfumati). Il disco centrale, quello ad elevata intensità luminosa, è quello che porta, di fatto, l'informazione. Questa informazione è composta da forme d'onda con frequenze e ampiezze differenti. Perchè sia utilizzata al meglio, le dimensioni del fotosito e le distanza tra fotositi non devono essere di molto superiori a quelle del disco di airy e neppure troppo più piccole. Nel primo caso succede che, all'interno dell'area del sensore cadano anche le rpime frange di interferenza e si altera l'informazione; nel secondo si ha perdita di informazione dovuta al fatto che non tutta la corona centrale cade all'interno del pixel e si hanno sovrapposizioni delle "campane" che rappresentano la distribuzione dei segnali tra pixel contigui. Questo significa che 2 pixel non possono essere troppo vicini e non è opportuno che siano troppo lontani (per poter sfruttare al meglio le dimensioni del sensore). Il rapporto stimato tra disco di airy e pixel pitch non deve superare il valore di 1.4:1 o, al massimo, 2:1.
Per il teorema di shannon, si adoperano un minimo di 2 campioni per periodo per poter ricostruire correttamente un segnale periodico (anche se più campioni permettono di avere più informazioni); Per questo motivo, le misure sulla risolvenza si fanno utilizzando le coppie di linee per millimetro (e non le linee per millimetro). La distanza massima tra due linee deve rispettare queanto visto per pixel pitch e disco di airy (pena avere interferenza e rischi di errori di quantizzazione che altererebbero i valori dei segnali).
Comunque la sostanza è riassumibile in poche battute: per aumentare la risoluzione totale del sistema, si dovrebbe, in teoria, campionare le aree (userò campionare per brevità, senza specificare il soggetto) a frequenze superiori. Nella pratica, questo è impossibile, perchè le limitazioni fisiche delle lenti impongono dei limiti in termini di fenomeni di diffrazione e frange di interferenza e il sensore non è in grado di risolvere due punti le cui reciproche interferenze superino determinati valori (quelli stabiliti dal rapporto ottimale tra pixel pitch e disco di airy). Altro limite all'eccessiva vicinanza tra pixel è imposto dalle interferenze reciproche di natura elettrica che introducono rumore non di tipo fixed pattern e, quindi, non semplice da eliminare se non con un pesante intervento di NR (che elimina anche i dettagli; tipico il casodi sensori piccoli e molto affollati). Le soluzioni possibili sono: creare lenti che creino frange di interferenze di dimensioni inferiori alle attuali, poichè con i sensori non si può superare il limite di risoluzione imposto dalle lenti aumentando la frequenza di campionamento, perchè si incorre in fenomeni di interferenza che hanno impatto negativo sul potere risolvente totale e su fenomeni di interferenza elettrica; aumentare la "superficie "utile" dei sensori (vale per i cmos in particolare) con la tecnologia back illuminated); aumentare, a parità di dimensioni, la quantità di luce che raggiunge l'elemento fotosensibile (lenti gapless), con percorsi il più possibilmente perpendicolari (lenti telecentriche).
Con 35 mm e MF le cose stanno un po' meglio, poichè i sensori più grandi consentono di avere fotositi di dimensioni maggiori e più distanziati tra loro (in tal caso, è ancora possibile giocare con le dimensioni dei pixel e con il pixel pitch, sempre rispettando i limiti imposti dalle reciproche interferenze, aumentando la frequenze di campionamento nel rispetto del teorema di shannon) e, soprattutto, è più facile avere i reciproci dischi di airy separati di una distanza sufficiente a non generare interferenze che abbassino il potere risolvente del sistema invece di aumentarlo. Da considerare infine che le dimensioni dei fotositi e le loro distanze devono tener conto del caso peggiore (ovvero quello con la lunghezza d'onda maggiore, ovvero frequenza più bassa, con cui si hanno frange di interferenza più estese (la banda del rosso)
demichel
13-12-2008, 20:26
Ciao Yossarian,
cerco allora di spiegarmi meglio per capire se sto prendendo
lucciole per lanterne :-).
Se Rc è la risoluzione complessiva del sistema lente+sensore,
Rl è la risoluzione della lente, Rs la risoluzione del sensore
si ha:
1/Rc = 1/Rl + 1/Rs (1)
se ho due pixel per disco di Airy risulta (come imposto nel
paper su luminous landscape):
1/Rl = (2 pixel)/LP = (1 disco di Airy)/LP = 1/Rs
e quindi dalla (1):
Rc = Rl / 2 (2)
ossia la risoluzione complessiva del sistema lente + sensore è
la metà di quella della lente.
Io invece avrei fissato una certa risoluzione Rc e calcolato Rs
(ossia il numero di pixel necessari nel sensore per avere
la prefissata risoluzione complessiva)
nel seguente ovvio modo:
Rs = 1/(1/Rc - 1/Rl) (3)
Chiaramente in tal caso la densità di pixel richiesti potrebbe
risultare superiore ai valori dati in Table 3 ( dipende
da quanto sono esigente nello scegliere Rc nella (3) ) nel paper suddetto
e le conclusioni potrebbero cambiare.
Al riguardo ti rimando anche a questa discussione di cui
però ovviamente ignoro l'attendibilità della fonte,
http://www.dphoto.us/forum/showthread.php?t=5612
saluti Cristiano
non credo di aver capito a cosa alludi, ma provo a risponderti.
provo a riassumere, sperando di darti una risposta. La luce che arriva sulla lente viene convogliata verso il sensore; nel fare questa operazione, la lente ha alcune limitazioni che impediscono che abbia risolvenza "infinita" (le virgolette sono d'obbligo, poichè parliamo di una grandezza comunque quantizzata, poichè la luce è composta da fotoni). Questi limiti si manifestano in forma di frange di interferenza (il disco di airy). Queste frange hanno un centro con elevata intensità luminosa che va a decrescere verso i bordi ed è circondato da un anello "buio"; al di fuori di questo, si alternano altri anelli chiari e scuri (sempre più sfumati). Il disco centrale, quello ad elevata intensità luminosa, è quello che porta, di fatto, l'informazione. Questa informazione è composta da forme d'onda con frequenze e ampiezze differenti. Perchè sia utilizzata al meglio, le dimensioni del fotosito e le distanza tra fotositi non devono essere di molto superiori a quelle del disco di airy e neppure troppo più piccole. Nel primo caso succede che, all'interno dell'area del sensore cadano anche le rpime frange di interferenza e si altera l'informazione; nel secondo si ha perdita di informazione dovuta al fatto che non tutta la corona centrale cade all'interno del pixel e si hanno sovrapposizioni delle "campane" che rappresentano la distribuzione dei segnali tra pixel contigui. Questo significa che 2 pixel non possono essere troppo vicini e non è opportuno che siano troppo lontani (per poter sfruttare al meglio le dimensioni del sensore). Il rapporto stimato tra disco di airy e pixel pitch non deve superare il valore di 1.4:1 o, al massimo, 2:1.
Per il teorema di shannon, si adoperano un minimo di 2 campioni per periodo per poter ricostruire correttamente un segnale periodico (anche se più campioni permettono di avere più informazioni); Per questo motivo, le misure sulla risolvenza si fanno utilizzando le coppie di linee per millimetro (e non le linee per millimetro). La distanza massima tra due linee deve rispettare queanto visto per pixel pitch e disco di airy (pena avere interferenza e rischi di errori di quantizzazione che altererebbero i valori dei segnali).
Comunque la sostanza è riassumibile in poche battute: per aumentare la risoluzione totale del sistema, si dovrebbe, in teoria, campionare le aree (userò campionare per brevità, senza specificare il soggetto) a frequenze superiori. Nella pratica, questo è impossibile, perchè le limitazioni fisiche delle lenti impongono dei limiti in termini di fenomeni di diffrazione e frange di interferenza e il sensore non è in grado di risolvere due punti le cui reciproche interferenze superino determinati valori (quelli stabiliti dal rapporto ottimale tra pixel pitch e disco di airy). Altro limite all'eccessiva vicinanza tra pixel è imposto dalle interferenze reciproche di natura elettrica che introducono rumore non di tipo fixed pattern e, quindi, non semplice da eliminare se non con un pesante intervento di NR (che elimina anche i dettagli; tipico il casodi sensori piccoli e molto affollati). Le soluzioni possibili sono: creare lenti che creino frange di interferenze di dimensioni inferiori alle attuali, poichè con i sensori non si può superare il limite di risoluzione imposto dalle lenti aumentando la frequenza di campionamento, perchè si incorre in fenomeni di interferenza che hanno impatto negativo sul potere risolvente totale e su fenomeni di interferenza elettrica; aumentare la "superficie "utile" dei sensori (vale per i cmos in particolare) con la tecnologia back illuminated); aumentare, a parità di dimensioni, la quantità di luce che raggiunge l'elemento fotosensibile (lenti gapless), con percorsi il più possibilmente perpendicolari (lenti telecentriche).
Con 35 mm e MF le cose stanno un po' meglio, poichè i sensori più grandi consentono di avere fotositi di dimensioni maggiori e più distanziati tra loro (in tal caso, è ancora possibile giocare con le dimensioni dei pixel e con il pixel pitch, sempre rispettando i limiti imposti dalle reciproche interferenze, aumentando la frequenze di campionamento nel rispetto del teorema di shannon) e, soprattutto, è più facile avere i reciproci dischi di airy separati di una distanza sufficiente a non generare interferenze che abbassino il potere risolvente del sistema invece di aumentarlo. Da considerare infine che le dimensioni dei fotositi e le loro distanze devono tener conto del caso peggiore (ovvero quello con la lunghezza d'onda maggiore, ovvero frequenza più bassa, con cui si hanno frange di interferenza più estese (la banda del rosso)
yossarian
14-12-2008, 04:18
Ciao Yossarian,
cerco allora di spiegarmi meglio per capire se sto prendendo
lucciole per lanterne :-).
Se Rc è la risoluzione complessiva del sistema lente+sensore,
Rl è la risoluzione della lente, Rs la risoluzione del sensore
si ha:
1/Rc = 1/Rl + 1/Rs (1)
se ho due pixel per disco di Airy risulta (come imposto nel
paper su luminous landscape):
1/Rl = (2 pixel)/LP = (1 disco di Airy)/LP = 1/Rs
e quindi dalla (1):
Rc = Rl / 2 (2)
ossia la risoluzione complessiva del sistema lente + sensore è
la metà di quella della lente.
Io invece avrei fissato una certa risoluzione Rc e calcolato Rs
(ossia il numero di pixel necessari nel sensore per avere
la prefissata risoluzione complessiva)
nel seguente ovvio modo:
Rs = 1/(1/Rc - 1/Rl) (3)
Chiaramente in tal caso la densità di pixel richiesti potrebbe
risultare superiore ai valori dati in Table 3 ( dipende
da quanto sono esigente nello scegliere Rc nella (3) ) nel paper suddetto
e le conclusioni potrebbero cambiare.
Al riguardo ti rimando anche a questa discussione di cui
però ovviamente ignoro l'attendibilità della fonte,
http://www.dphoto.us/forum/showthread.php?t=5612
saluti Cristiano
ok, ora ho capito. Vediamo se riesco anche a spiegarmi. Partendo dal teorema di shannon, 2 linee sono utilizzate per campionare un segnale. Ma vediamo come funziona la cosa sul sensore. Ogni pixel è colpito dalla luce e su ognuno si formano frange di interferenza. Guarda la figura 8 (MTF 50%) dell'articolo di luminous landscape. Se chiamo con 1, 2, 3, 4, 5, ...i pixel contigui, ho che 1 è colpito dalla luce e su di esso si formeranno frange di interferenza (un disco di airy). Lo stesso accade con 2. Utilizzo 1 e 2 per calcolare il potere risolvente del sensore, ovvero per verificare se e quanto si sovrappongono le figore di interferenza dei pixel 1 e 2 (ho utilizzato 2 linee). Passando appresso, però, utilizzo 2 e 3 e poi 3 e 4. Quindi, tranne i pixel laterali che sono usati solo 2 volte (con quello a fianco e quello in alto o in basso), ogni pixel sarà utilizzato dalle 3 (quelli sul perimetro esterno) a lle 4 volte. Quindi, di fatto, la risoluzione che calcolo è quella reale del sensore, pur utilizzando come parametro le lp/mm. Ad esempio, dalla tabella 2, se voglio calcolare il numero ideale di pixel su un sensore aps-c ottimizzando per un'apertura di f8, prendo la colonna 2 della tabella relativa al verde (a cui l'occhio è più sensibile), vedo il numero corrispondente ai pixel per mm (186) e lo moltiplico per le dimensioni in mm (186*16)*(186*24) e ottengo circa 13 Mpixel. Ho preso il verde (ma sarebbe stato meglio il rosso) perchè l'occhio è più sensibile alla frequenza attorno ai 500 nm; in tal modo, ho aliasing sulla banda attorno ai 700 nm ma l'occhio nota meno gli artefatti. La scelta è dettata dal fatto che se rispettassi alla lettera la teoria avrei sensori molto poco affollati (anche se con qualità pressochè perfetta) :D .
Allo stesso modo, se utilizzo f11, ottengo circa 7 Mpixel (sempre su aps). Ovvio che se ottimizzo per f11, a diaframma più chiuso avrò diminuzione della risolvenza a causa della diminuzione del contrasto.
Dal link che hai postato, abbiamo un'ulteriore conferma dell'inutilità di aumentare il numero di Mpixel.
Poichè il sistema (essendo un parallelo) non potrà mai raggiungere il valore di risolvenza dei suoi componenti, la curva ottenuta ha un andamento asintotico con la risoluzione della lente e che tende ad appiattirsi man mano che cresce la risoluzione dei sensori. Praticamente, già tra i 6 e gli 8 Mpixel inizia ad avere un andamento quasi piatto, per poi appiattirsi ulteriormente tra i 10 e i 12.
Ovviamente, l'andamento è solo di tipo qualitativo, in quanto la curva è generica e non riporta la tipologia di sensori che si sta testando, però è un ulteriore conferma a quanto ipotizzato.
demichel
14-12-2008, 08:45
ok, ora ho capito. Vediamo se riesco anche a spiegarmi. Partendo dal teorema di shannon, 2 linee sono utilizzate per campionare un segnale. Ma vediamo come funziona la cosa sul sensore. Ogni pixel è colpito dalla luce e su ognuno si formano frange di interferenza. Guarda la figura 8 (MTF 50%) dell'articolo di luminous landscape. Se chiamo con 1, 2, 3, 4, 5, ...i pixel contigui, ho che 1 è colpito dalla luce e su di esso si formeranno frange di interferenza (un disco di airy). Lo stesso accade con 2. Utilizzo 1 e 2 per calcolare il potere risolvente del sensore, ovvero per verificare se e quanto si sovrappongono le figore di interferenza dei pixel 1 e 2 (ho utilizzato 2 linee). Passando appresso, però, utilizzo 2 e 3 e poi 3 e 4. Quindi, tranne i pixel laterali che sono usati solo 2 volte (con quello a fianco e quello in alto o in basso), ogni pixel sarà utilizzato dalle 3 (quelli sul perimetro esterno) a lle 4 volte. Quindi, di fatto, la risoluzione che calcolo è quella reale del sensore, pur utilizzando come parametro le lp/mm. Ad esempio, dalla tabella 2, se voglio calcolare il numero ideale di pixel su un sensore aps-c ottimizzando per un'apertura di f8, prendo la colonna 2 della tabella relativa al verde (a cui l'occhio è più sensibile), vedo il numero corrispondente ai pixel per mm (186) e lo moltiplico per le dimensioni in mm (186*16)*(186*24) e ottengo circa 13 Mpixel. Ho preso il verde (ma sarebbe stato meglio il rosso) perchè l'occhio è più sensibile alla frequenza attorno ai 500 nm; in tal modo, ho aliasing sulla banda attorno ai 700 nm ma l'occhio nota meno gli artefatti. La scelta è dettata dal fatto che se rispettassi alla lettera la teoria avrei sensori molto poco affollati (anche se con qualità pressochè perfetta) :D .
Allo stesso modo, se utilizzo f11, ottengo circa 7 Mpixel (sempre su aps). Ovvio che se ottimizzo per f11, a diaframma più chiuso avrò diminuzione della risolvenza a causa della diminuzione del contrasto.
Dal link che hai postato, abbiamo un'ulteriore conferma dell'inutilità di aumentare il numero di Mpixel.
Poichè il sistema (essendo un parallelo) non potrà mai raggiungere il valore di risolvenza dei suoi componenti, la curva ottenuta ha un andamento asintotico con la risoluzione della lente e che tende ad appiattirsi man mano che cresce la risoluzione dei sensori. Praticamente, già tra i 6 e gli 8 Mpixel inizia ad avere un andamento quasi piatto, per poi appiattirsi ulteriormente tra i 10 e i 12.
Ovviamente, l'andamento è solo di tipo qualitativo, in quanto la curva è generica e non riporta la tipologia di sensori che si sta testando, però è un ulteriore conferma a quanto ipotizzato.
nel link che ti ho mandato non ci sono discorsi molto quantitativi però
se una lente base come la nikkor 18-55mm ha circa la stessa risoluzione
di un sensore da 10 Mpixel (come avevo detto in un post precedente)
allora x=1 e ci troveremmo nella parte iniziale della curva, dove un aumento
dei Mpixel (e quindi di x) fa variare di molto la risoluzione complessiva,
saluti Cristiano
yossarian
14-12-2008, 14:11
nel link che ti ho mandato non ci sono discorsi molto quantitativi però
se una lente base come la nikkor 18-55mm ha circa la stessa risoluzione
di un sensore da 10 Mpixel (come avevo detto in un post precedente)
allora x=1 e ci troveremmo nella parte iniziale della curva, dove un aumento
dei Mpixel (e quindi di x) fa variare di molto la risoluzione complessiva,
saluti Cristiano
parti da un assunto sbagliato, ovvero che la risoluzione assoluta della lente sia dello steso ordine di grandezza di quello del sensore. Se così fosse, il test MTF del 18-55 su un sensore dfa 10 mpixel darebbe come risoluzione la metà esatta del valore della risoluzione del sensore (e non il valore limite del sensore). Il limite che va considerato è il potere risolvente relativo della lente, ovvero quello con la lente inserita in un determinato contesto
T = L*S/(L+S) con L=10 e S=10 dà una risoluzione di 5 Mpixel
per questo ti ho detto dio non tener conto degli aspetti quantitativi del link che hai postato (non sono probanti perchè non ci sono riferimenti a valori quantitativi).
demichel
15-12-2008, 09:04
parti da un assunto sbagliato, ovvero che la risoluzione assoluta della lente sia dello steso ordine di grandezza di quello del sensore. Se così fosse, il test MTF del 18-55 su un sensore dfa 10 mpixel darebbe come risoluzione la metà esatta del valore della risoluzione del sensore (e non il valore limite del sensore). Il limite che va considerato è il potere risolvente relativo della lente, ovvero quello con la lente inserita in un determinato contesto
T = L*S/(L+S) con L=10 e S=10 dà una risoluzione di 5 Mpixel
per questo ti ho detto dio non tener conto degli aspetti quantitativi del link che hai postato (non sono probanti perchè non ci sono riferimenti a valori quantitativi).
ok giusto
yossarian
15-12-2008, 13:16
ok giusto
facendo un calcolo spannometrico, il potere risolvente assoluto della lente è di un ordine di grandezza superiore rispetto a quello del sensore. Con un valore sui 250/260 Mpixel "equivalenti" (ovvero sulle 26000 LPWH) si ottiene un valore prossimo a quello registrato nella review del 18-55 nikkor.
Di fatto, tale potere risolvente, però, non può considerarsi in valore assoluto e valido epr ogni apertura e distanza focale e su qualunque tipo di sensore, nel momento in cui le lente è inserita in un sistema che introduce altre limitazioni (quelle di cui si è ampiamente parlato, di natura ottica ed elettronica)
demichel
15-12-2008, 17:57
facendo un calcolo spannometrico, il potere risolvente assoluto della lente è di un ordine di grandezza superiore rispetto a quello del sensore. Con un valore sui 250/260 Mpixel "equivalenti" (ovvero sulle 26000 LPWH) si ottiene un valore prossimo a quello registrato nella review del 18-55 nikkor.
Di fatto, tale potere risolvente, però, non può considerarsi in valore assoluto e valido epr ogni apertura e distanza focale e su qualunque tipo di sensore, nel momento in cui le lente è inserita in un sistema che introduce altre limitazioni (quelle di cui si è ampiamente parlato, di natura ottica ed elettronica)
ma allora x=0.1 circa nel grafico in precedenza citato e si trarrebbe
un gran beneficio dall'aumentare in maniera significativa la risoluzione del sensore, o no?
questa la trovi nelle faq di photozone.de (http://www.photozone.de/lens-test-faq)
"Q: Will the resolution increase with new sensor related technologies ?
To some degree - yes. Assuming the manufacturers will find a way to get rid of the sensor low-pass filter there'll be a substantial gain for instance. Some lenses will also benefit from higher megapixels specifically in the center. However, a lens with a mediocre border performance will only marginally benefit from such measurements. Assuming optimal conditions I would guess that a few, very few lenses may have the potential to go up to 20mp on APS-C but only with their center portion."
yossarian
15-12-2008, 18:17
ma allora x=0.1 circa nel grafico in precedenza citato e si trarrebbe
un gran beneficio dall'aumentare in maniera significativa la risoluzione del sensore, o no?
questa la trovi nelle faq di photozone.de (http://www.photozone.de/lens-test-faq)
"Q: Will the resolution increase with new sensor related technologies ?
To some degree - yes. Assuming the manufacturers will find a way to get rid of the sensor low-pass filter there'll be a substantial gain for instance. Some lenses will also benefit from higher megapixels specifically in the center. However, a lens with a mediocre border performance will only marginally benefit from such measurements. Assuming optimal conditions I would guess that a few, very few lenses may have the potential to go up to 20mp on APS-C but only with their center portion."
no, perchè non si può ragionare in termini assoluti; in un sistema complesso come quello di una fotocamera, il potere risolvente della lente è di fatto limitato da altri fattori. Nello specifico, dai fenomeni di diffrazione e di interferenza. Fai i calcoli con i dati della tabella 2 di LL e ti puoi rendere conto che su aps e su 4:3 siamo praticamente al limite (anzi i 14,6 mpixel di pentax e i 15 di canon sono già un po' oltre), per avere una risolvenza accettabile sulla banda del verde con aperture di almeno f5.6 o f8. Andare oltre significherebbe ridurre il potere risolvente anche a queste aperture
Raghnar-The coWolf-
15-12-2008, 19:28
facendo un calcolo spannometrico, il potere risolvente assoluto della lente è di un ordine di grandezza superiore rispetto a quello del sensore. Con un valore sui 250/260 Mpixel "equivalenti" (ovvero sulle 26000 LPWH) si ottiene un valore prossimo a quello registrato nella review del 18-55 nikkor.
Ecco, appunto.
Allora che cavolo di saturazione ci può mai essere? :|
Ovviamente piano piano si va sempre più lontano dalla possibilità di 1 pixel = 1 linea di contrasto, ma la saturazione del sensore sarà quando si raggiungono risoluzioni delle lenti sarà molto inferiore a quella dei sensori, ovvero mai... =_='
yossarian
15-12-2008, 20:25
Ecco, appunto.
Allora che cavolo di saturazione ci può mai essere? :|
Ovviamente piano piano si va sempre più lontano dalla possibilità di 1 pixel = 1 linea di contrasto, ma la saturazione del sensore sarà quando si raggiungono risoluzioni delle lenti sarà molto inferiore a quella dei sensori, ovvero mai... =_='
è evidente che non hai seguito tutto il discorso: non puoi prendere il potere risolvente dell'uno, quello dell'altro e fare un confronto dicendo: finchè non sono uguali non ho saturazione. Ti consiglio di leggerti tutto ciò che è scritto sopra, così scopri anche quali sono i limiti del sistema lente-sensore che vanno ben al di là di un semplicistico confronto come quello che stai facendo.
Hai saltato 3 pagine, hai quotato solo una parte (quella che ti fa comodo), cosa che odio, e pretendi che ricominci da capo, magari facendoti il riassunto?
marchigiano
15-12-2008, 20:29
no, perchè non si può ragionare in termini assoluti; in un sistema complesso come quello di una fotocamera, il potere risolvente della lente è di fatto limitato da altri fattori. Nello specifico, dai fenomeni di diffrazione e di interferenza. Fai i calcoli con i dati della tabella 2 di LL e ti puoi rendere conto che su aps e su 4:3 siamo praticamente al limite (anzi i 14,6 mpixel di pentax e i 15 di canon sono già un po' oltre), per avere una risolvenza accettabile sulla banda del verde con aperture di almeno f5.6 o f8. Andare oltre significherebbe ridurre il potere risolvente anche a queste aperture
secondo te con i sensori bayer è possibile rosicare qualcosina alla diffrazione? cioè l'immagine finale è il risultato di 3 pixel monocromatici che quindi occupano un area 3 volte superiore...
Ecco, appunto.
Allora che cavolo di saturazione ci può mai essere? :|
Ovviamente piano piano si va sempre più lontano dalla possibilità di 1 pixel = 1 linea di contrasto, ma la saturazione del sensore sarà quando si raggiungono risoluzioni delle lenti sarà molto inferiore a quella dei sensori, ovvero mai... =_='
infatti sono pagine che scrivo che il limite è diffrazione - difetti dell'ottica
la diffrazione chiaramente varia con l'apertura
yossarian
15-12-2008, 21:04
secondo te con i sensori bayer è possibile rosicare qualcosina alla diffrazione? cioè l'immagine finale è il risultato di 3 pixel monocromatici che quindi occupano un area 3 volte superiore...
veramente sono 4 pixel monocromatici (si usano 2 verdi)
il problema della diffrazione è come si ripercuote sulle geometrie del sensore. Non posso diminuire troppo le dimensioni del pixel pitch né posso avvicinare i pixel più di tanto. Inoltre, i fotodiodi sono monocromatici (anche quelli del foveon).
Poichè la diffrazione inizia a far perdere nitidezza quando il pixel pitch scende al di sotto di massimo 1/2 delle dimensioni del disco di airy, si può aumentare il pixel pitch "virtuale", ossia la parte del sensore, utile a raccogliere la radiazione. La strada è quella dei sensori back illuminated. Questo mantenendo un pattern di tipo bayer.
Altrimenti, l'alternativa è mettere i pixel uno sopra l'altro e non di fianco (foveon).
infatti sono pagine che scrivo che il limite è diffrazione - difetti dell'ottica
la diffrazione chiaramente varia con l'apertura
la diffrazione, di per sé non sarebbe un problema; lo diventa in relazione al fatto che la radiazione soggetta a diffrazione deve essre raccolta da una superficie di dimensioni finite e con distanza finita da altre superfici identiche. Inoltre esistono limiti elettronici (oltre che ottici) che mi impediscono di ridurre a piacimento le dimensioni e le distanze tra pixel.
E comunque, la diffrazione comporta il raggiungimento del limite di risolvenza per determinati sensori con particolari pixel pitch. Una stessa lente che ha raggiunto il suo limite su aps, ad esempio, può avere ancora qualcosa da dare su FF).
demichel
15-12-2008, 22:56
veramente sono 4 pixel monocromatici (si usano 2 verdi)
il problema della diffrazione è come si ripercuote sulle geometrie del sensore. Non posso diminuire troppo le dimensioni del pixel pitch né posso avvicinare i pixel più di tanto. Inoltre, i fotodiodi sono monocromatici (anche quelli del foveon).
Poichè la diffrazione inizia a far perdere nitidezza quando il pixel pitch scende al di sotto di massimo 1/2 delle dimensioni del disco di airy, si può aumentare il pixel pitch "virtuale", ossia la parte del sensore, utile a raccogliere la radiazione. La strada è quella dei sensori back illuminated. Questo mantenendo un pattern di tipo bayer.
Altrimenti, l'alternativa è mettere i pixel uno sopra l'altro e non di fianco (foveon).
la diffrazione, di per sé non sarebbe un problema; lo diventa in relazione al fatto che la radiazione soggetta a diffrazione deve essre raccolta da una superficie di dimensioni finite e con distanza finita da altre superfici identiche. Inoltre esistono limiti elettronici (oltre che ottici) che mi impediscono di ridurre a piacimento le dimensioni e le distanze tra pixel.
E comunque, la diffrazione comporta il raggiungimento del limite di risolvenza per determinati sensori con particolari pixel pitch. Una stessa lente che ha raggiunto il suo limite su aps, ad esempio, può avere ancora qualcosa da dare su FF).
http://www.photozone.de/nikon--nikkor-aps-c-lens-tests/217-nikkor-af-50mm-f18-d-review--test-report?start=1
dove parla dell'MTF fa notare che il nikkor 50mm f/1.8D su D200 è limitato dal sensore al centro, ossia si dice in particolare:
"From f/2.8 and up the distribution of the MTF50 curve suggests that the center performance exceeds the quality of the D200. The borders improve continuously with good figures at f/2.8 and very-good results at f/4. "
yossarian
15-12-2008, 23:26
http://www.photozone.de/nikon--nikkor-aps-c-lens-tests/217-nikkor-af-50mm-f18-d-review--test-report?start=1
dove parla dell'MTF fa notare che il nikkor 50mm f/1.8D su D200 è limitato dal sensore al centro, ossia si dice in particolare:
"From f/2.8 and up the distribution of the MTF50 curve suggests that the center performance exceeds the quality of the D200. The borders improve continuously with good figures at f/2.8 and very-good results at f/4. "
a parte il fatto che non mi pare arrivi al valore di 2320 LPWH di risolvenza massima teorica dei 10 Mpixel della d200, però l'andamento è facilmente spiegabile:
è una lente ottimizzata per avere la massima risolvenza a f4. A f1.8 il disco di airy è più piccole del pixel pitch: questo comporta che ai bordi la risolvenza è molto bassa (contrasto molto basso); al diminuire di f, aumenta la risolvenza al centro ed anche ai bordi perchè il disco di airy inizia ad arrivare a dimensioni comparabili a quelle del pixel pitch. Si passa dalla situazione di fig 9 (a f4) dell'articolo di LL a quello di fig 8 (a f8) e, poi, all'aumentare di f a quello di fig 6. Se si fosse fatta l'analisi oltre f8, si sarebbe visto che la risoluzione ai bordi avrebbe iniziato a scendere così come avrebbe continuato a fare quella al centro.
(IH)Patriota
16-12-2008, 07:46
dove parla dell'MTF fa notare che il nikkor 50mm f/1.8D su D200 è limitato dal sensore al centro, ossia si dice in particolare:
"From f/2.8 and up the distribution of the MTF50 curve suggests that the center performance exceeds the quality of the D200. The borders improve continuously with good figures at f/2.8 and very-good results at f/4. "
La cosa bella è che al bordo fa schifo e comincia ad essere accettabile ad F2.8 e buono da F4 in poi , il massimo arriva ad F8 ma una lente del genere ha davvero poco senso usata ad F8.0.
Usare questa lente fino ad F2.0/F2.8 (dove ha motivo di esistere) anche su un corpo da 40Mpix non aumenterebbe affatto la quantita' di dettaglio ai bordi (se non qualcosina legato ad un eventuale filtro AA piu' permissivo) accentuando ancora di piu' il divario centro bordi e di conseguenza la sensazione di morbidezza.
In queste condizioni c'è piu' del 90/95% del parco lenti circolante :muro:
Ciauz
Pat
demichel
16-12-2008, 14:47
La cosa bella è che al bordo fa schifo e comincia ad essere accettabile ad F2.8 e buono da F4 in poi , il massimo arriva ad F8 ma una lente del genere ha davvero poco senso usata ad F8.0.
Usare questa lente fino ad F2.0/F2.8 (dove ha motivo di esistere) anche su un corpo da 40Mpix non aumenterebbe affatto la quantita' di dettaglio ai bordi (se non qualcosina legato ad un eventuale filtro AA piu' permissivo) accentuando ancora di piu' il divario centro bordi e di conseguenza la sensazione di morbidezza.
In queste condizioni c'è piu' del 90/95% del parco lenti circolante :muro:
Ciauz
Pat
si chiaro, se le cose stanno così per il 90/95% delle lenti è davvero inutile
aumentare i Mpixel del sensore...
yossarian
24-12-2008, 21:16
La cosa bella è che al bordo fa schifo e comincia ad essere accettabile ad F2.8 e buono da F4 in poi , il massimo arriva ad F8 ma una lente del genere ha davvero poco senso usata ad F8.0.
Usare questa lente fino ad F2.0/F2.8 (dove ha motivo di esistere) anche su un corpo da 40Mpix non aumenterebbe affatto la quantita' di dettaglio ai bordi (se non qualcosina legato ad un eventuale filtro AA piu' permissivo) accentuando ancora di piu' il divario centro bordi e di conseguenza la sensazione di morbidezza.
In queste condizioni c'è piu' del 90/95% del parco lenti circolante :muro:
Ciauz
Pat
filtro AA più permissivo che riduce la risoluzione di estinzione introducendo prima il moire.
Sarò sincero: ti ho quotato soprattutto perchè mi sono affezionato a questo thread e voglio utilizzarlo per fare gli auguri a tutti :D
(IH)Patriota
28-12-2008, 09:29
Sarò sincero: ti ho quotato soprattutto perchè mi sono affezionato a questo thread e voglio utilizzarlo per fare gli auguri a tutti :D
Ero in giro per parenti , auguri in ritardo anche da parte mia ;)
Ciauz
PAt
A quanto pare è vero il contrario
Link 1 (http://www.sphoto.com/techinfo/santaysablefarm.htm)
Link 2 (http://www.sphoto.com/techinfo/missionslr_comps.htm)
Link 3 (http://www.sphoto.com/techinfo/ocesideharbor.htm)
Il termine di paragone è la 1DsII (16Mpix) e la ormai vetusta 10D (6Mpix) , oggi lavoriamo con 1DsMk3 (21Mpix) e con 50D (15Mpix).
Il vantaggio (se c'è ancora) è su sensibilita' inferiori ai 100ISO (come ho scritto sopra) e quindi 50ASA e 25ASA , pero' tenendo conto della "zoom mania" che nel migliore dei casi parte da un medio F2.8 per finire ai bui F5.6 sono sensibilita' praticamente inutilizzabili se non con flash o in pienissimo sole.
Tralasciamo la qualita' dei 200 e 400 ASA , mi sono sparato 8 rulli quest'estate sott'acqua con la Nikonos V e qualitativamente fanno letteralmente vomitare in confronto ai 200ISO e 400ISO anche solo di una 400D.
E chi ha detto che la pellicola non ha messo a frusta le lenti ?? Non è un caso che abbiano inventato il medioformato che non ha bisogno di lenti molto spinte per poter dare piu' dettaglio..
Perdona ma non trovo il nesso tra il filtro AA ed il rumore , il filtro AA toglie dettaglio evitando moirè e seghettature , qualche pazzo l' ha tolto ( Link (http://maxmax.com/nikon_d200hr.htm) ) le foto sono piu' dettagliate e non meno rumorose.
Vedi link sopra.
Il ritorno al formato pieno 35mm fondalmentalmente esiste per 4 motivi:
1-utilizzare le lenti per lalunghezza focale per cui sono state progettate
2-avere maggiore tridimensionalita' negli scatti visto che la PDC diminuisce
3-avere una densita' inferiore a parita' di megapixel (quindi minor rumore)
4-grazie alla minor densita' (sempre a parita' di megapixel) non necessita di lenti ultraperformanti per rendere bene i dettagli
Guardiamo anche il bicchiere mezzo pieno , ad alti ISO la D700 è 2 stop (se non 3) piu' bella , il che non è poco ;) tralasciando il discorso sensore la D700 ha un AF che la K20D si sogna di notte e qualche altra chicca , mi pare che la fai un po' troppo facile.
Molto superiore a cosa ? Ad alti ISO la D700 fa decisamente meglio , certo il dettaglio a bassi ISO dei 21Mpix con lenti adeguate (adeguate fa rima con fisse e fa rima con almeno 1000€ per vetro senza disdegnare di spenderne a 4000€ ;)) è indubbiamente strepitoso e molto probabilmente superiore a quanto possa fare anche un' ottima pellicola in medioformato 4x5 , il prezzo è alto piu' per blasone che per altro , fino all' uscita l' altro ieri della nikon D3x e 2 mesi fa della A900 era l' unica FF sopra i 20 megapixel , come soluzioni non è diversa dalla sorellina sportiva che costa la meta' esatta (1Dmk3).
Ciauz
Pat
ciao patriota , posso chiederti con che corpo macchina ed obbiettivo si è fotografato a pellicola?
ps d'accordissimo sulla d700 che sarebbe il mio ideale per qualità prezzo , salvo vedere come si comporta la 5d mk2
filtro AA più permissivo che riduce la risoluzione di estinzione introducendo prima il moire.
Sarò sincero: ti ho quotato soprattutto perchè mi sono affezionato a questo thread e voglio utilizzarlo per fare gli auguri a tutti :D
augurissimi a tutti , ma ancor più agli appassionati di fotografia :)
ps ditemi cosa ne pensate di questo test invece , corpi macchina equivalenti e stesse lenti , con stessa stampa
http://fwd.five.tv/videos/challenge-blow-up-part-3
yossarian
02-01-2009, 00:47
augurissimi a tutti , ma ancor più agli appassionati di fotografia :)
ps ditemi cosa ne pensate di questo test invece , corpi macchina equivalenti e stesse lenti , con stessa stampa
http://fwd.five.tv/videos/challenge-blow-up-part-3
mi sembra che dal confronto emerga solo una differente impostazione nella saturazione dei colori e, forse, nel bilanciamento del bianco. Non emergono dati su risolvenza, fedeltà di rappresentazione dei colori e nitidezza a colori ed in B/N
ragazzi senza fare milioni di calcoli basta guardare la realtà dei fatti: esistono compatte densissime che comunque sia tirano fuori parecchio dettaglio, usando lenti da 2 euro.
ma infatti è quello che ho sempre sostenuto dall'inizio del thread ;)
non capisco come fate a non rendervene conto: anche se ci sono mille problemi che sono OT in questo thread (abberrazioni, rumore etc) la fujifilm f50 risolve quasi quello che risolve la 450D (la migliore dreflex APS-C a 12 mpixel) :read:
poi di fronte ai nuovi test di photozone dove a parità di lente si misurano grandi numeri di risolvenza anche ai bordi semplicemente cambiando il corpo da 350D a 50D...
Canon EF-S 17-85mm f/3.5-5.6 IS @18mm f5.6
resolution center:
350D 2102
50D 2556 (+21 %)
resolution extreme border:
350D 1355
50D 1790 (+32 %)
la differenza in numero di pixel su un asse è del 37.5 % quindi siamo vicini a quel valore.
e non ho certo preso una signora lente: gia' il 18-200 canon arriva a 2631 su 2700 max teorico !
riferimenti:
http://www.photozone.de/canon-eos/402-canon_1785_456is_50d?start=1
http://www.photozone.de/canon-eos/179-canon-ef-s-17-85mm-f4-56-usm-is-test-report--review?start=1
Ragazzi, rianimo questa discussione perchè è interessante. Ho dato un'occhiata al volo ma non ho trovato risposta. Entro domani vedrò di leggere tutta la discussione con la massima attenzione.
Ho notato che in alcuni test mtf si ottengono per alcune lenti dei risultati superiori al limite teorico del sensore. Come si spiega questo fatto? Come si fanno a distinguere dei dettagli più piccoli di quelli che in linea teorica può rilevare il sensore.
A titolo di esempio vi riporto la recensione del Canon EF 100 f/2.8 L IS Macro fatta di DPReview.
http://www.dpreview.com/lensreviews/canon_100_2p8_is_usm_c16/page4.asp
Questa lente al centro a f/4 supera di gran lunga il valore massimo teorico del sensore della 5D II. Qualcuno saprebbe darmi una spiegazione?
BYEZZZZZZZZZZZZ!!!!!!!!!!!!!! :)
Raghnar-The coWolf-
16-09-2010, 18:46
è evidente che non hai seguito tutto il discorso: non puoi prendere il potere risolvente dell'uno, quello dell'altro e fare un confronto dicendo: finchè non sono uguali non ho saturazione. Ti consiglio di leggerti tutto ciò che è scritto sopra, così scopri anche quali sono i limiti del sistema lente-sensore che vanno ben al di là di un semplicistico confronto come quello che stai facendo.
Hai saltato 3 pagine, hai quotato solo una parte (quella che ti fa comodo), cosa che odio, e pretendi che ricominci da capo, magari facendoti il riassunto?
Questo reply me l'ero perso. -.-'
Certo che pretendere di aver capito tutto del problema risoluzione senza aver neanche chiaro cosa significa saturazoine e atteggiarsi a divo della tecnica fotografica... :rolleyes:
Ho notato che in alcuni test mtf si ottengono per alcune lenti dei risultati superiori al limite teorico del sensore. Come si spiega questo fatto?
Che la gente non sà che cosa siano gli MTF nè cosa sia il "Limite teorico del sensore".
Dato che l'MTF 50 è un modo semplicistico di misurare la risoluzione, dato che la frequenza di Nyquist non è "il limite teorico della risoluzione" ma il "limite entro il quale non si osservia aliasing" mi sembra perfettamente normale che ci siano questi risultati, difatti non è la prima volta che capitano (e tutto questo ad indicare quanto cavolo siamo lontani da questa ipotetica "saturazione").
In altri termini: con una lente come il 100 L Macro, ammesso di sviluppare il RAW come hanno fatto quelli di dpreview (quindi probabilmente a basso livello e rimuovendo i filtri possibili) potresti osservare dell'aliasing su alcuni motivi bianco & neri a linee orizzontali (questo misura l'MTF) in quanto la lente sovrarisolve, in quelle condizioni, di gran lunga il sensore.
Niente di sbalorditivo insomma.
Chelidon
16-09-2010, 18:51
Ho notato che in alcuni test mtf si ottengono per alcune lenti dei risultati superiori al limite teorico del sensore. Come si spiega questo fatto? Come si fanno a distinguere dei dettagli più piccoli di quelli che in linea teorica può rilevare il sensore.
Semplicemente penso siano risoluzioni spurie da sovra-campionamento altresì detto aliasing da effetto moiré.. In teoria tutto ciò che va oltre la frequenza di Nyquist non esiste nella realtà e non se ne dovrebbe tener conto.. (capirai su dpreview ti fanno fare i confronti con ottiche provate su diecimila sensori diversi e con diverse risoluzioni figuriamoci se sono mai stati un minimo educativi.. :asd: c'è gente più affidabile in rete che almeno spiga anche come fanno le prove e come vanno interpretate, altrimenti si può dire tutto e il contrario e comunque considerare le cose in maniera indicativa..)
Questo reply me l'ero perso. -.-'
Certo che pretendere di aver capito tutto del problema risoluzione senza aver neanche chiaro cosa significa saturazoine e atteggiarsi a divo della tecnica fotografica... :rolleyes:
Che la gente non sà che cosa siano gli MTF nè cosa sia il "Limite teorico del sensore".
Dato che l'MTF 50 è un modo semplicistico di misurare la risoluzione, dato che la frequenza di Nyquist non è "il limite teorico della risoluzione" ma il "limite entro il quale non si osservia aliasing" mi sembra perfettamente normale che ci siano questi risultati, difatti non è la prima volta che capitano (e tutto questo ad indicare quanto cavolo siamo lontani da questa ipotetica "saturazione").
In altri termini: con una lente come il 100 L Macro, ammesso di sviluppare il RAW come hanno fatto quelli di dpreview (quindi probabilmente a basso livello e rimuovendo i filtri possibili) potresti osservare dell'aliasing su alcuni motivi bianco & neri a linee orizzontali (questo misura l'MTF) in quanto la lente sovrarisolve, in quelle condizioni, di gran lunga il sensore.
Niente di sbalorditivo insomma.
Ti ringrazio per la risposta, e ti faccio anche presente che se una persona non sa una cosa è lecito che faccia domande e non va assalita per questo...
Comunque... la linea tratteggiata orizzontale nel grafico di dpreview indica il limite di risolvenza del sensore che io ho calcolato in questo modo:
[(risoluzione verticale in pixel)/(altezza in mm del sensore)]/2
In questo modo ottengo il numero di linee nere visibili nell'intera altezza del sensore (e non le coppie di linee bianche/nere).
Considerando che i dati calcolati in questo modo sembrano coincidere con quelli di vari sensori riportati nelle recensioni di dpreview sono portato a considerarli giusti (a meno che non si tratti solo di una coincidenza).
Adesso tu parlavi di frequenza di nyquist che è la frequenza minima a cui si può campionare un segnale senza generare aliasing. In particolare è la frequenza doppia di quella del segnale da campionare.
Adesso come riporto questo ragionamento al discorso delle coppie di linee per altezza dell'immagine. Oltretutto in ordinata dpreview riporta line pairs/picture height che è dimensionalmente diverso da quello che ho calcolato io e che però sembra coincidere.
Dove sbaglio?
Mi piacerebbe discutere in modo pacifico. :)
Semplicemente penso siano risoluzioni spurie da sovra-campionamento altresì detto aliasing da effetto moiré.. In teoria tutto ciò che va oltre la frequenza di Nyquist non esiste nella realtà e non se ne dovrebbe tener conto.. (capirai su dpreview ti fanno fare i confronti con ottiche provate su diecimila sensori diversi e con diverse risoluzioni figuriamoci se sono mai stati un minimo educativi.. :asd: c'è gente più affidabile in rete che almeno spiga anche come fanno le prove e come vanno interpretate, altrimenti si può dire tutto e il contrario e comunque considerare le cose in maniera indicativa..)
Ma nel caso di una chart su cui sono stampate un certo numero di linee quale sarebbe la funzione da campionare?
E prendendo come esempio il 100 Macro che sovracampiona il pattern sulla chart, nella pratica quando andrò a visionare lo scatto per stimare il valore di risolvenza troverò un numero linee superiore a quello effettivamente presente sulla chart? :)
yossarian
16-09-2010, 20:41
Ragazzi, rianimo questa discussione perchè è interessante. Ho dato un'occhiata al volo ma non ho trovato risposta. Entro domani vedrò di leggere tutta la discussione con la massima attenzione.
Ho notato che in alcuni test mtf si ottengono per alcune lenti dei risultati superiori al limite teorico del sensore. Come si spiega questo fatto? Come si fanno a distinguere dei dettagli più piccoli di quelli che in linea teorica può rilevare il sensore.
A titolo di esempio vi riporto la recensione del Canon EF 100 f/2.8 L IS Macro fatta di DPReview.
http://www.dpreview.com/lensreviews/canon_100_2p8_is_usm_c16/page4.asp
Questa lente al centro a f/4 supera di gran lunga il valore massimo teorico del sensore della 5D II. Qualcuno saprebbe darmi una spiegazione?
BYEZZZZZZZZZZZZ!!!!!!!!!!!!!! :)
http://www.dpreview.com/reviews/canoneos5dmarkii/page39.asp
http://www.dpreview.com/reviews/canoneos5dmarkii/page2.asp
non lo supera affatto; nell'esempio che hai postato, il massimo a f/4 non supera la 2300 lp/ph mentre il limite teorico del sensore della 5d MII è decisamente superiore. Quelle che dpreview indica, nell'imatest, come coppie di linee (line pair) sono, invece, linee. Questo può trarre in inganno.
Questo reply me l'ero perso. -.-'
Certo che pretendere di aver capito tutto del problema risoluzione senza aver neanche chiaro cosa significa saturazoine e atteggiarsi a divo della tecnica fotografica... :rolleyes:
digital sensor saturation (http://learn.hamamatsu.com/articles/ccdsatandblooming.html). Purtroppo, l'accostamento di termini come "saturazione" e "sensore digitale" produce solo questo tipo di risultati e non altri. E non credo c'entrino molto con il concetto che vorresti esprimere. Se poi vogliamo essere pignoli, non ha proprio alcun sesoo paragonare la risoluzione teorica di un sensore (ben superiore a quella dei test MTF) con il potere risolvente di una lente. Ha senso solo parlare di potere risolvente di un sistema lente sensore e questo valore è sempre inferiore al minore dei poteri risolventi delle sue componenti (hai presente l'equivalente di un parallelo di due resistenze).
In quanto all'atteggiamento da divo della tecnica fotografica, forse ti riferisci a qualcun altro, oppure confondi la tecnica fotografica (di cui mi reputo semplice apprendista, forse neppure troppo dotato) con la tecnologia alla base degli strumenti usati in fotografia (campo in cui ne so qualcosa di più :D ).
In teoria tutto ciò che va oltre la frequenza di Nyquist non esiste nella realtà e non se ne dovrebbe tener conto..
Sei sicuro? :confused: perché sennò a cosa servono per esempio i filtri passa basso o passa alto(che al contrario tagliano la frequenza che da fastidio)?..nella realtà lo si vede e come l'effetto, una ruota di una macchina in movimento che gira al contrario (ad esempio..)
yossarian
16-09-2010, 23:09
Sei sicuro? :confused: perché sennò a cosa servono per esempio i filtri passa basso o passa alto(che al contrario tagliano la frequenza che da fastidio)?..nella realtà lo si vede e come l'effetto, una ruota di una macchina in movimento che gira al contrario (ad esempio..)
quello è aliasing temporale che interessa immagini in movimento. Nelle immagini statiche, come le fotografie, quello che incide sulla qualità è l'aliasing spaziale di cui uno degli effetti più evidenti (ma non l'unico) è il moire
http://www.dpreview.com/reviews/canoneos5dmarkii/page39.asp
http://www.dpreview.com/reviews/canoneos5dmarkii/page2.asp
non lo supera affatto; nell'esempio che hai postato, il massimo a f/4 non supera la 2300 lp/ph mentre il limite teorico del sensore della 5d MII è decisamente superiore. Quelle che dpreview indica, nell'imatest, come coppie di linee (line pair) sono, invece, linee. Questo può trarre in inganno.
digital sensor saturation (http://learn.hamamatsu.com/articles/ccdsatandblooming.html). Purtroppo, l'accostamento di termini come "saturazione" e "sensore digitale" produce solo questo tipo di risultati e non altri. E non credo c'entrino molto con il concetto che vorresti esprimere. Se poi vogliamo essere pignoli, non ha proprio alcun sesoo paragonare la risoluzione teorica di un sensore (ben superiore a quella dei test MTF) con il potere risolvente di una lente. Ha senso solo parlare di potere risolvente di un sistema lente sensore e questo valore è sempre inferiore al minore dei poteri risolventi delle sue componenti (hai presente l'equivalente di un parallelo di due resistenze).
In quanto all'atteggiamento da divo della tecnica fotografica, forse ti riferisci a qualcun altro, oppure confondi la tecnica fotografica (di cui mi reputo semplice apprendista, forse neppure troppo dotato) con la tecnologia alla base degli strumenti usati in fotografia (campo in cui ne so qualcosa di più :D ).
Grazie yoss, sempre molto disponibile! :)
Del fatto che l'etichetta dell'ordinata nell'imatest fosse errata me ne ero accorto e lo avevo specificato in precedenza. Quello che ancora non mi è completamente chiaro è il significato del valore corrispondente alla linea tratteggiata e se corrisponde a quello che ho calcolato io in questo modo (mi sono accorto che prima ho scritto male):
Linee_Per_mm = (Risoluzione_Verticale/Altezza_Sensore_in_mm)/2
L/PH = Linee_Per_mm * Altezza_Sensore_in_mm
In questo modo non dovrei aver calcolato il limite teorico di risolvenza del sensore?
Per la 5D Mark II avrei:
Dimensione sensore: 36mm x 24mm
Risoluzione: 5616 x 3744
3744px / 24mm = 156 LP/mm e quindi 78L/mm
78L * 24mm = 1872 L/PH
e di conseguenza il valore di LP/PH, che è il doppio del precedente, ed è
3744 LP/PH
Questo valore è molto vicino a quello di 3300 ottenuto in fase di test da dpreview ed indicato come risoluzione di estinsione.
Ho sbagliato qualcosa nel mio ragionamento?
Vendicatore
17-09-2010, 08:41
Che voi sappiate c'è un modo di calcolare la perdita di risoluzione di un sensore (rispetto alla massima teorica) indotta dal filtro AA?
Ogni volta rimango stupito dai danni che fa alla QI, a discapito di quanto si dica sul moire... (basta vedere qualche scatto fatto con la M9, che ne è sprovvista, per vedere cosa è possibile fare senza filtro AA).
Raghnar-The coWolf-
17-09-2010, 09:22
quello è aliasing temporale che interessa immagini in movimento. Nelle immagini statiche, come le fotografie, quello che incide sulla qualità è l'aliasing spaziale di cui uno degli effetti più evidenti (ma non l'unico) è il moire
Il principio matematico dell'aliasing "temporale" è identico a quello dell'aliasing "spaziale"
http://www.dpreview.com/reviews/canoneos5dmarkii/page39.asp
http://www.dpreview.com/reviews/canoneos5dmarkii/page2.asp
non lo supera affatto; nell'esempio che hai postato, il massimo a f/4 non supera la 2300 lp/ph mentre il limite teorico del sensore della 5d MII è decisamente superiore. Quelle che dpreview indica, nell'imatest, come coppie di linee (line pair) sono, invece, linee. Questo può trarre in inganno.
Mah, non credo che abbiano messo un tratteggio con la frequenza di Nyquist completamente a caso. Dato che i giochi e le convenzioni che puoi usare sono molte sono più propenso a credere che sia un adottamento di diverse convenzioni...
digital sensor saturation (http://learn.hamamatsu.com/articles/ccdsatandblooming.html). Purtroppo, l'accostamento di termini come "saturazione" e "sensore digitale" produce solo questo tipo di risultati e non altri.
Questo reply è molto lollo.
Perchè si nota la denigrazione di una convenzione linguistica che anche tu hai usato in precedenza, e che fra l'altro non è neanche errata (alla peggio un po' equivoca), tirando in ballo effetti che qui non sono discussi e probabilmente ti ha sputato fuori google (guarda caso la pagina linkata è l' "i'm feeling lucky" della ricerca "ccd saturation").
Certo, la saturazione ELETTRONICA di un CCD (e di tutti i transistor) è il raggiungimento della carica tale per cui O la zona di svuotamento, O l'amplificatore posteriore non riescono a superare con il voltaggio a loro applicato.
Tuttavia qui stiamo discutendo della saturazione fra due componenti di un sistema di trasferimento informazione che avviene quando uno dei due componenti è molto più pregno di informazione (in questo caso, risolvente) dell'altro.
Delle lenti molto risolventi, a data odierna, saturano qualsiasi sensore (almeno al centro, almeno diaframmate) nel senso che nessun sensore riesce a sovracampionare le caratteristiche della lente.
Sovracampionare significa discretizzare con frequenza doppia rispetto alla massima frequenza (o risoluzione) che lo strumento è in grado di riprodurre, e a questo limite, il limite in cui è il sensore a saturare le lenti ed in cui un aumento di risoluzione non avrebbe effetto, siamo ancora ben lontani.
Senza contare che la lente non trasferisce unicamente informazioni di risoluzione ed altre informazioni (come il colore e il contrasto) possono essere difficili da sovracampionare.
@Vendicatore: no, non c'è modo a priori perchè il filtro AA potrebbe essere più o meno aggressivo. Potresti però con una lente molto molto risolvente che satura il sensore misurare le linee per mm, e quanto tale valore si discosta dal limite indotto dalla spaziatura dei pixel è indotto dal taglio delle altre frequenze del filtro AA e dal filtro di Bayer.
Vendicatore
17-09-2010, 10:10
no, non c'è modo a priori perchè il filtro AA potrebbe essere più o meno aggressivo. Potresti però con una lente molto molto risolvente che satura il sensore misurare le linee per mm, e quanto tale valore si discosta dal limite indotto dalla spaziatura dei pixel è indotto dal taglio delle altre frequenze del filtro AA e dal filtro di Bayer.
Infatti intendevo, ribaltando la richiesta, un metodo per quantificare l'aggressività di un filtro AA.
Dopo aver visto le modifche HR fatte su D200/D300 la tentazione di far modificare la D80 ce l'avrei anche... (a patto che ci sia il modo di farlo a costi ragionevoli).
Raghnar-The coWolf-
17-09-2010, 10:13
Puoi farlo anche da te:
http://www.nikonclub.it/forum/index.php?showtopic=44192
Conosco un ragazzo che l'ha fatto sulla 350D per fare astrofotografia infrarossa...
ilguercio
17-09-2010, 10:43
Infatti intendevo, ribaltando la richiesta, un metodo per quantificare l'aggressività di un filtro AA.
Dopo aver visto le modifche HR fatte su D200/D300 la tentazione di far modificare la D80 ce l'avrei anche... (a patto che ci sia il modo di farlo a costi ragionevoli).
Questo link ti farà sicuramente rosicare, aprilo solo se non sei un folle:
http://www.maxmax.com/nikon_d700hr.htm
E' semplicemente pazzesco come si preferisca non incappare nel moirè piuttosto che avere un sensore risolvente.
I tizi del sito fanno l'operazione di rimozione del filtro AA cosa che non sembra semplice.
Puoi farlo anche da te:
http://www.nikonclub.it/forum/index.php?showtopic=44192
Conosco un ragazzo che l'ha fatto sulla 350D per fare astrofotografia infrarossa...
Ma filtro AA ed IR sono la stessa cosa?
Perchè nel tuo link toglie il vetro IR, facendo così si elimina anche l'AA?
Vendicatore
17-09-2010, 10:53
Questo link ti farà sicuramente rosicare, aprilo solo se non sei un folle:
http://www.maxmax.com/nikon_d700hr.htm
E' semplicemente pazzesco di come si preferisca non incappare nel moirè piuttosto che avere un sensore risolvente.
I tizi del sito fanno l'operazione di rimozione del filtro AA cosa che non sembra semplice.
Purtroppo lo avevo gia visto :cry:
Però me ne guardo bene dal toccare la D700 (per ora :cool: ).
http://www.maxmax.com/nikon_d700hr.htm
E' semplicemente pazzesco di come si preferisca non incappare nel moirè piuttosto che avere un sensore risolvente.
Che poi è un modo di aggirare il problema, abbassando la risoluzione, il problema si attenua, ma non scompare certamente come si vede chiaramente dagli esempi della D200 sia nelle immagini dei lampioncini che specialmente in quella della mira ottica, si vede come il moirè e presente anche con il filtro AA.......
ilguercio
17-09-2010, 11:19
Che poi è un modo di aggirare il problema, abbassando la risoluzione, il problema si attenua, ma non scompare certamente come si vede chiaramente dagli esempi della D200 sia nelle immagini dei lampioncini che specialmente in quella della mira ottica, si vede come il moirè e presente anche con il filtro AA.......
Infatti, onestamente non capisco cosa diavolo ci stia a fare il filtro AA sulle macchine.
Spiegazione?
Vendicatore
17-09-2010, 11:28
Infatti, onestamente non capisco cosa diavolo ci stia a fare il filtro AA sulle macchine.
Spiegazione?
Serve a ridurre l'effetto moirè (http://it.wikipedia.org/wiki/Effetto_moir%C3%A9), che comunque ha un incidenza abbastanza ridotta nelle fotografie nella vita di tutti i giorni.
(A meno che uno non si specializzi in fotografie di griglie di condizionatori, ovviamente :sofico: )
Qualcuno potrebbe dedicarmi 1 minuto del suo tempo per togliermi qualche dubbio che ho postato stamattina? :D
yossarian
17-09-2010, 12:21
Grazie yoss, sempre molto disponibile! :)
Del fatto che l'etichetta dell'ordinata nell'imatest fosse errata me ne ero accorto e lo avevo specificato in precedenza. Quello che ancora non mi è completamente chiaro è il significato del valore corrispondente alla linea tratteggiata e se corrisponde a quello che ho calcolato io in questo modo (mi sono accorto che prima ho scritto male):
Linee_Per_mm = (Risoluzione_Verticale/Altezza_Sensore_in_mm)/2
L/PH = Linee_Per_mm * Altezza_Sensore_in_mm
In questo modo non dovrei aver calcolato il limite teorico di risolvenza del sensore?
Per la 5D Mark II avrei:
Dimensione sensore: 36mm x 24mm
Risoluzione: 5616 x 3744
3744px / 24mm = 156 LP/mm e quindi 78L/mm
78L * 24mm = 1872 L/PH
e di conseguenza il valore di LP/PH, che è il doppio del precedente, ed è
3744 LP/PH
Questo valore è molto vicino a quello di 3300 ottenuto in fase di test da dpreview ed indicato come risoluzione di estinsione.
Ho sbagliato qualcosa nel mio ragionamento?
il ragionamento è talmente corretto che il valore di LP/PH è esattamente la metà della risoluzione verticale del sensore (come dovrebbe essere :D ).
La linea orizzontale rappresenta il limite di quella che dpreview definisce "frequenza di estinzione" ovvero quel valore di frequenza oltre il quale si potrebbero iniziare a verificare gli effetti del moire. Questo limite è fissato dalla frequenza di Nyquist per QUEL PARTICOLARE SISTEMA LENTE-SENSORE. Il valore registrato per la frequenza di Nyquist nell'MTF50 è dato dal prodotto tra risposta del sensore, algoritmo di demosaicing e sharpening, con quest'ultimo che viene fuori dalla somma degli inversi delle risolvenze assolute di lente e sensore, motivo per cui il suo valore sarà sensore inferiore a quello del minore tra i due (è come se fai il parallelo tra due resistenze).
Il principio matematico dell'aliasing "temporale" è identico a quello dell'aliasing "spaziale"
se ti riferisci al rapporto tra frequenza di campionamento e frequenza di nyquist si, ma l'aliasing temporale non ha nulla a che fare con immagini statiche e viene trattato in maniera diversa da quello spaziale. Qui si parla di fotografia e non di cinema o videogame
Mah, non credo che abbiano messo un tratteggio con la frequenza di Nyquist completamente a caso. Dato che i giochi e le convenzioni che puoi usare sono molte sono più propenso a credere che sia un adottamento di diverse convenzioni...
chi ha parlato di linea messa a caso? Mi sono limitato a sottolineare che le convenzioni usate da dpreview possono essere fuorvianti perchè non si tratta di coppie di linee per altezza ma di linee per altezza.
Questo reply è molto lollo.
Perchè si nota la denigrazione di una convenzione linguistica che anche tu hai usato in precedenza, e che fra l'altro non è neanche errata (alla peggio un po' equivoca), tirando in ballo effetti che qui non sono discussi e probabilmente ti ha sputato fuori google (guarda caso la pagina linkata è l' "i'm feeling lucky" della ricerca "ccd saturation").
ho usato quella convenzione linguistica (impropria) finchè non sei arrivato tu ad attribuirmi atteggiamenti che non mi appartengono. Allora, se vogliamo essere rigorosi, si deve iniziare dalla terminologia e, in questo contesto, la saturazione di un sensore digitale è solo quella da me citata (e che non ho bisogno di cercare su google per sapere di che si tratta :D ).
Certo, la saturazione ELETTRONICA di un CCD (e di tutti i transistor) è il raggiungimento della carica tale per cui O la zona di svuotamento, O l'amplificatore posteriore non riescono a superare con il voltaggio a loro applicato.
Tuttavia qui stiamo discutendo della saturazione fra due componenti di un sistema di trasferimento informazione che avviene quando uno dei due componenti è molto più pregno di informazione (in questo caso, risolvente) dell'altro.
Delle lenti molto risolventi, a data odierna, saturano qualsiasi sensore (almeno al centro, almeno diaframmate) nel senso che nessun sensore riesce a sovracampionare le caratteristiche della lente.
Sovracampionare significa discretizzare con frequenza doppia rispetto alla massima frequenza (o risoluzione) che lo strumento è in grado di riprodurre, e a questo limite, il limite in cui è il sensore a saturare le lenti ed in cui un aumento di risoluzione non avrebbe effetto, siamo ancora ben lontani.
Senza contare che la lente non trasferisce unicamente informazioni di risoluzione ed altre informazioni (come il colore e il contrasto) possono essere difficili da sovracampionare.
sorvolo sulla definizione di saturazione e mi limito a risponderti sull'ultima parte. Le lenti attuali non saturano un bel niente: qui (http://www.photozone.de/canon-eos/167-canon-ef-100mm-f28-usm-macro-test-report--review?start=1) c'è il test del 100 mm f/2,8 su 30d e qui (http://www.photozone.de/canon-eos/461-canon_100_28is_50d?start=1) lo stesso obiettivo provato su 50d; in nessuno dei due casi si raggiunge la risoluzione massima verticale del sensore. Conclusione, il sistema lente-sensore risolve meno di ciascuno dei singoli componenti e passando da 30d a 50d, la forbice tra risoluzione massima teorica e risoluzione massima misurata (al centro, quindi nella situazione migliore) si allarga dal 13% al 19%, nonostante, all'aumentare della risoluzione spaziale, sia possibile usare filtri antimoire meno aggressivi. C.V.D.
Raghnar-The coWolf-
17-09-2010, 13:05
:mc:
su dpreview invece fanno vedere molte lenti che saturano. Il 100mm non satura? Tanto piacere... -.-' Il 100L magari sì.
Poi le ottiche mica le fan solo Canon Nikon Sigma e Tamron... Il 50lux-R e il 50cron-M asferici ad esempio sembrano risolvere molto bene anche le pellicole B/N 25 ASA con linee per mm N volte superiori ai sensori digitali... Per non parlare di aggeggini tipo Jenoptics o Edmund!!
Inoltre il 6% di incremento della forbice raddoppiando i megapixel mi sembra abbastanza indicativo di, anche con un'ottica relativamente economica e reperibile com il 100 Macro, siamo ben lontani da un sensore che sovrarisolva la lente.
yossarian
17-09-2010, 13:17
:mc:
su dpreview invece fanno vedere molte lenti che saturano. Il 100mm non satura? Tanto piacere... -.-' Il 100L magari sì.
Poi le ottiche mica le fan solo Canon Nikon Sigma e Tamron... Il 50lux-R e il 50cron-M asferici ad esempio sembrano risolvere molto bene anche le pellicole B/N 25 ASA con linee per mm N volte superiori ai sensori digitali... Per non parlare di aggeggini tipo Jenoptics o Edmund!!
Inoltre il 6% di incremento della forbice raddoppiando i megapixel mi sembra abbastanza indicativo di, anche con un'ottica relativamente economica e reperibile com il 100 Macro, siamo ben lontani da un sensore che sovrarisolva la lente.
infatti il 100 L citato in precedenza è ben lontano dal saturare il sensore della 5d MII (e la forbice si allarga al 38%) :sofico:
Fammi l'esempio di una lente qualsiasi che "saturi" qualunque sensore (a tua scelta) ovvero che permetta al sistema lente-sensore di raggiungere la risoluzione massima teorica del sensore. Su dpreview non c'è nessun esempio del genere, tanto che la risoluzione assoluta calcolata è sempre inferiore a quella nominale come è sempre inferiore la risoluzione d'estinzione :mc: :D
p.s. la comparazione tra risoluzione di un sensore digitale e quella equivalente di una pellicola non ha senso alcuno fatta sulle basi su cui la stai facendo e l'affermazione che una pellicola B/N risolva più di un sensore non ha alcun significato.
p.p.s. http://www.photozone.de/canon-eos/158-canon-ef-50mm-f12-usm-l-test-report--review?start= un 50 f/1,2 L non è abbastanza per gli 8,2 Mpixel della 30D?
Raghnar-The coWolf-
17-09-2010, 13:25
Guarda che la risoluzione del sensore è data dalla risoluzione del sistema filtro AA (se c'è) - filtro Bayer - Pixel.
E' ovvio che non puoi avere un pixel-una linea su un sensore a matrice colore. Questo non significa che la lente non lo saturi.
Se la lente supera la frequenza di Nyquist del sistema sensore (che non significa LP/ph = numero pixel) significa che la lente sovrarisolve il sensore e un miglioramento del sensore implica un netto miglioramento nel sistema lente-sensore.
Senza contare che l'MTF-50 è solo uno dei tanti modi... Se utilizzi l'MTF-10 ecco che ti ritrovi tutte le lenti che hanno più linee per mm del sensore =_='
Vendicatore
17-09-2010, 13:27
Sarei curioso di vedere test effettuati con un Foveon, che il filtro di Bayer non ce l'ha.
Peccato che nessuno (parlando di siti specializzati) abbia mai preso in considerazione di testare lenti Sigma su corpi Sigma :(
infatti il 100 L citato in precedenza è ben lontano dal saturare il sensore della 5d MII (e la forbice si allarga al 38%) :sofico:
Fammi l'esempio di una lente qualsiasi che "saturi" qualunque sensore (a tua scelta) ovvero che permetta al sistema lente-sensore di raggiungere la risoluzione massima teorica del sensore. Su dpreview non c'è nessun esempio del genere, tanto che la risoluzione assoluta calcolata è sempre inferiore a quella nominale come è sempre inferiore la risoluzione d'estinzione :mc: :D
Ma la risoluzione del gruppo sensore-lente non è sempre inferiore alla risoluzione più bassa delle due?
Se è così ovviamente non troverai mai quello che cerchi ma non dimostri niente; il punto è capire oltre quale risoluzione del sensore la risoluzione del gruppo non aumenta più (perchè limitata dalla lente).
Raghnar-The coWolf-
17-09-2010, 13:31
Sarei curioso di vedere test effettuati con un Foveon, che il filtro di Bayer non ce l'ha.
Però, giusto per non avere invidia della concorrenza, poi spalma l'informazione dei 4/5 Megapixel Foveon su 12/15 Megapixel d'immagine... Quindi anche lì, alla fine, cambia poco...
Vendicatore
17-09-2010, 13:33
Però, giusto per non avere invidia della concorrenza, poi spalma l'informazione dei 4/5 Megapixel Foveon su 12/15 Megapixel d'immagine... Quindi anche lì, alla fine, cambia poco...
Assolutamente vero.
Peccato per Foveon, essere comprati da Sigma ha significato la fine dello sviluppo... (mi sarebbe tanto piaciuto vedere un Foveon X3 da 10Mpixel FF)
yossarian
17-09-2010, 13:35
Ma la risoluzione del gruppo sensore-lente non è sempre inferiore alla risoluzione più bassa delle due?
Se è così ovviamente non troverai mai quello che cerchi ma non dimostri niente; il punto è capire oltre quale risoluzione del sensore la risoluzione del gruppo non aumenta più (perchè limitata dalla lente).
esatto; infatti è proprio così. Per questo non ha senso dire che una qualsivoglia lente, fosse anche la migliore del mondo, è in grado di "saturare" (termine, ripeto, improprio) un sensore digitale (qualunque esso sia)
Raghnar-The coWolf-
17-09-2010, 13:41
esatto; infatti è proprio così. Per questo non ha senso dire che una qualsivoglia lente, fosse anche la migliore del mondo, è in grado di "saturare" (termine, ripeto, improprio) un sensore digitale (qualunque esso sia)
Bah queste convenzioni da esamino di analisi mi han sempre fatto ribrezzo...
Certo, se parliamo di analisi c'è sempre un o-piccolo di correzione (così come in un futuro non ci sarà mai numero di megapixel sufficiente a riprodurre le proprietà di una lente).
Se parliamo del mondo vero quando una lente è talmente più risolvente di un sensore da mettere a nudo senza troppi crismi i suoi limiti (e quindi superare la frequenza di Nyquist spesso e volentieri con un parametro qualitativo piuttosto stringente) allora chiamala come vuoi ma io direi che saturare rende bene l'idea (e rimane un termine utilizzato).
esatto; infatti è proprio così. Per questo non ha senso dire che una qualsivoglia lente, fosse anche la migliore del mondo, è in grado di "saturare" (termine, ripeto, improprio) un sensore digitale (qualunque esso sia)
beh ma dire che ha una risolvenza maggiore è corretto.
Quindi ha ragione Raghnar nel dire che le lenti attuali sono già in grado di "sfamare" (usiamo direttamente un termine che non ha nulla di tecnico) qualsiasi sensore...
il ragionamento è talmente corretto che il valore di LP/PH è esattamente la metà della risoluzione verticale del sensore (come dovrebbe essere :D ).
Esattamente! :D
La linea orizzontale rappresenta il limite di quella che dpreview definisce "frequenza di estinzione" ovvero quel valore di frequenza oltre il quale si potrebbero iniziare a verificare gli effetti del moire.
Ma questo valore di frequenza che dimensioni ha? Perchè nella recensione della 5D II è espresso in LP/PH e vale 3300 ed è stato misurato in fase di test della macchina (con una lente che però non mi sembra sia stata specificata nella recensione).
Nel grafico delle lenti invece sembra essere riportato esattamente il valore massimo teorico di linee per millimetro pari a metà della risoluzione verticale.
Questo limite è fissato dalla frequenza di Nyquist per QUEL PARTICOLARE SISTEMA LENTE-SENSORE. Il valore registrato per la frequenza di Nyquist nell'MTF50 è dato dal prodotto tra risposta del sensore, algoritmo di demosaicing e sharpening,
Cosa intendi per risposta del sensore? E come la misuro?
All'atto pratico quando si fa un test mtf, dopo aver fotografato la mira ottica, i risultati si ottengono da un'analisi visiva o si usano dei software specifici per analizzare lo scatto?
con quest'ultimo che viene fuori dalla somma degli inversi delle risolvenze assolute di lente e sensore, motivo per cui il suo valore sarà sensore inferiore a quello del minore tra i due (è come se fai il parallelo tra due resistenze).
Ma non dovrebbe essere allora l'inverso della somma degli inversi? :D
Grazie per la disponibilità! :)
yossarian
17-09-2010, 15:37
Bah queste convenzioni da esamino di analisi mi han sempre fatto ribrezzo...
Certo, se parliamo di analisi c'è sempre un o-piccolo di correzione (così come in un futuro non ci sarà mai numero di megapixel sufficiente a riprodurre le proprietà di una lente).
Se parliamo del mondo vero quando una lente è talmente più risolvente di un sensore da mettere a nudo senza troppi crismi i suoi limiti (e quindi superare la frequenza di Nyquist spesso e volentieri con un parametro qualitativo piuttosto stringente) allora chiamala come vuoi ma io direi che saturare rende bene l'idea (e rimane un termine utilizzato).
potranno anche farti ribrezzo ma chi progetta lenti e sensori si basa su quei parametri. In quanto al superare la frequenza di Nyquist continui a commettere lo stesso errore: non è la frequenza di Nyquist del sensore ma del sistema lente-sensore, ovvero di quel sensore con quella particolare lente, con quell'algoritmo di demosaicing. Ma non è un discorso applicabile in sesno assoluto, tanto che, nell'esempio citato, la risoluzione di estinzione calcolata da dpreview, per la 5d MII,è di molto superiore alla frequenza di Nyquist calcolata nell'analisi del 100 mm con la stessa fotocamera.
beh ma dire che ha una risolvenza maggiore è corretto.
Quindi ha ragione Raghnar nel dire che le lenti attuali sono già in grado di "sfamare" (usiamo direttamente un termine che non ha nulla di tecnico) qualsiasi sensore...
se ho una lente L1 con risolvenza R1 sul sensore S e sullo stesso sensore metto la lente L2 con risolvenza R2>R1, ottengo una risolvenza complessiva maggiore di quella che otterrei con R1 ma sempre inferiore a quella ottenibile con L1. Se monto una L3 con R3>R2 la cosa si ripete e posso andare avanti all'infinito: la risolvenza complessiva del sistema sarà sempre inferiore alla risoluzione massima teorica di S. Partendo da questo assunto, posso dire che L2 o L3 o L4, ecc, saturano S? Se secondo te si, allora è inutile continuare a discutere. Per me è un'affermazione senza senso.
Esattamente! :D
Ma questo valore di frequenza che dimensioni ha? Perchè nella recensione della 5D II è espresso in LP/PH e vale 3300 ed è stato misurato in fase di test della macchina (con una lente che però non mi sembra sia stata specificata nella recensione).
Nel grafico delle lenti invece sembra essere riportato esattamente il valore massimo teorico di linee per millimetro pari a metà della risoluzione verticale.
questo valore di frequenza è definibile solo caso per caso e non in valore assoluto: si tratta di un parametro che tiene conto della risolvenza del sesnore ma anche del'algoritmo di demosaicing e del potere risolvente della lente (limitato da eventuali aberrazioni o distorsioni). Quindi avrai un diverso valore di risoluzione assoluta e di risoluzioje di estinzione a seconda dell'accoppiata corpo macchina (sensore+reltivi algoritmi)- lente. Nel calcolo dei valori relativi al sensore, dpreview fa uso di prime lens (come vengono definite) intendendo, con questo termine, le migliori lenti fisse che è possibile accoppiare con quel corpo macchina. Questo non ci dà, comunque, dei valori assoluti ma solo dei valori relativi a quel sistema. Se, per ipotesi, domani esce una lente che abbinata a quel sensore, risolve di più, allora quei valori sono destinati a spostarsi verso l'alto (sempre rimanendo inferiori al minimo tra i due poteri risolventi). Nel caso del 100 mm F/2.8 L è un caso che il valore ottenuto sia di poco superiore al doppio della risoluzione reale del sensore. Si tratta sempre dello stesso parametro utilizzato, ovvero linee per altezza.
Cosa intendi per risposta del sensore? E come la misuro?
All'atto pratico quando si fa un test mtf, dopo aver fotografato la mira ottica, i risultati si ottengono da un'analisi visiva o si usano dei software specifici per analizzare lo scatto?
il potere risolvente del sensore, l'azione dell'algoritmo di demosaicing (quindi del filtro ricostruttore del segnale) e il potere risolvente della lente. Un conto è fissare la frequenza di Nyquist teorica in base alle sole geometrie del sensore, un altro è tener conto delle geometrie del sensore in relazione ai parametri della radiazione incidente. Il primo caso resta solo un bell'esercizio teorico. Per l'analisi si fa uso di SW specifici (il set di bench che va sotto il nome di IMATEST, ad esempio).
Ma non dovrebbe essere allora l'inverso della somma degli inversi? :D
Grazie per la disponibilità! :)
si, giusto: Risoluzione (lpmm) = 1/[1/lpmm obiettivo + 1/lpmm sensore] :D
Raghnar-The coWolf-
17-09-2010, 15:47
potranno anche farti ribrezzo ma chi progetta lenti e sensori si basa su quei parametri
Non so su che basi lo dici ma ho alcuni amici che progettano lenti, e io stesso ho fatto qualcosa nel campo (ma erano più studi di risposta non lineare). Non so che idea hai degli scienziati ma non ci mettiamo certo a parlare come un libro di analisi e a fare il pelo nell'uovo su banali questioni algebriche dal nessun risvolto pratico che davvero serve a poco.
E' OVVIO che il sistema complessivo ha risoluzione minore.
E' altrettanto ovvio che con una lente con risolvenza >> del sensore ti avvicinerai molto al campionamento possibile del sensore, cosa che è evidente guardando questi grafici.
Questo "molto maggiore" "avvicinarsi molto a meno di un o piccolo" e tutte le minchiate che devi ripetere a memoria quando fai l'esamino, quando cresci un attimino smetti di dirle, perchè rimangono minchiate ovvie.
non è la frequenza di Nyquist del sensore ma del sistema lente-sensore
Non ha il minimo senso.
La frequenza di Nyquist è la frequenza del campionamento, il passo con cui una entità discreta quantizza un fenomeno continuo, non ha assolutamente senso includere la lente che è il fenomeno continuo che si vuole discretizzare.
Che sia la frequenza dei pixel + filtri + matrice colore non lo nego (anzi l'ho detto io stesso poco sopra), ma tutto questo accrocchio io lo continuo a chiamare "sensore" perchè alla fine, a parte rari casi, non è che uno si mette a smembrare queste 3 parti.
yossarian
17-09-2010, 16:24
Non so su che basi lo dici ma ho alcuni amici che progettano lenti, e io stesso ho fatto qualcosa nel campo (ma erano più studi di risposta non lineare). Non so che idea hai degli scienziati ma non ci mettiamo certo a parlare come un libro di analisi e a fare il pelo nell'uovo su banali questioni algebriche dal nessun risvolto pratico che davvero serve a poco.
non so cosa tu abbia fatto né cosa progettino i tuoi amici, ma gli ingegneri non lavorano sulle chiacchiere e facendo filosofia ma limitandosi a fare calcoli.
E' OVVIO che il sistema complessivo ha risoluzione minore.
quindi è ovvio che nessuna lente potrà mai sovrarisolvere alcun sensore. Il punto è proprio questo. Quindi non ha senso parlare di saturazione.
E' altrettanto ovvio che con una lente con risolvenza >> del sensore ti avvicinerai molto al campionamento possibile del sensore, cosa che è evidente guardando questi grafici.
cosa c'è di ovvio? La frequenza di Nyquist non è la frequenza di campionamento del sensore ma la sua esatta metà. Una lente che permette ad una 5D MII di arrivare a 2300 LPH è un bel po' distante dalla frequenza di campionamento verticale e non è neppure detto che il superamento della frequenza di Nyquist, secondo quanto fatto rilevare dall'MTF50, significhi necessariamente avere aliasing.
Questo "molto maggiore" "avvicinarsi molto a meno di un o piccolo" e tutte le minchiate che devi ripetere a memoria quando fai l'esamino, quando cresci un attimino smetti di dirle, perchè rimangono minchiate ovvie.
o piccolo = percentuali importanti? Strana concezione di infinitesimo :D
Non ha il minimo senso.
La frequenza di Nyquist è la frequenza del campionamento, il passo con cui una entità discreta quantizza un fenomeno continuo, non ha assolutamente senso includere la lente che è il fenomeno continuo che si vuole discretizzare.
Che sia la frequenza dei pixel + filtri + matrice colore non lo nego (anzi l'ho detto io stesso poco sopra), ma tutto questo accrocchio io lo continuo a chiamare "sensore" perchè alla fine, a parte rari casi, non è che uno si mette a smembrare queste 3 parti.
e qui hai ragione; mi sono espresso male: la frequenza di Nyquist è la metà di quella di campionamento del sensore. Quello che dipende anche dalla lente è l'MTF che non ha valore assoluto. Questo significa che una risolvenza del sistema superiore alla frequenza di Nyquist non implica aliasing (lo stesso dpreview dice che su 5d MII l'aliasing si inizia ad avere attorno a 3300 LPH) e neppure indica una "saturazione" del sensore (ripeto, la frequenza limite del sensore non è quella di nyquist)
D'altra parte, dal momento in cui affermi che la risolvenza del sistema è sempre inferiore alla minore delle risolvenze componenti (e non di un o piccolo a piacere ma di percentuali a 2 cifre), e nel momento in cui questo principio viene esteso a qualunque lente con qualunque valore di risolvenza (che non sia tendente ad infinito :D ) hai già contraddetto qualunque affermazione sulla "saturazione" di un sensore.
In quest'esempio (http://www.photozone.de/canon-eos/158-canon-ef-50mm-f12-usm-l-test-report--review?start=1) il 50 mm f/1.2 L arriva, al massimo, al centro, all'8,5% dalla risoluzione teorica della 30D. Stiamo parlando di un'ottica non certo economica, messa nelle condizioni ideali, confrontata con un sensore da 8,2 Mpixel e non si arriva ad un "infinitesimo" dalla risoluzione teorica. Qui (http://www.photozone.de/canon-eos/501-canon85f12mk2apsc?start=1) c'è il test dell'85 mm f/1.2 L su 50D e mi pare che siamo ancora più lontani dal limite teorico (sempre con un'ottica non economica).
Di contro, tii ho chiesto di portarmi un solo esempio di ciò che tu affermi e non ho ancora visto niente al riguardo. D'altra parte, non capisco come tu possa affermare che le lenti saturano i sensori e dall'altro che il sistema lente sensore risolve sempre meno del sensore (e non di un'inezia, come dimostrato).
Raghnar-The coWolf-
17-09-2010, 17:22
Il 50 F/1.2 non è propriamente una lente per chi cerca risolvenza -.-'
Anzi diciamo che fa anche piuttosto schifo per quell'aspetto e diciamo che è anche piuttosto normale essendo un superluminoso non progettato per la risolvenza estrema (ed il canon non è certo il miglior superluminoso in circolazione fra l'altro).
Questo è indice di quanto tu abbia capito di lenti...
Fra l'altro anche il Canon 50/1.2 arriva a toccare quello che photozone chiama il "max".
E fra l'altro questo "Massimo Teorico" come lo calcoli di grazia? Dato che ci sono di mezzo algoritmi più complicati della nostra immaginazione e strumenti hardware dalle specifiche brevettate?
Il "Massimo Teorico", anche al giorno d'oggi, viene semplicemente misurato con una lente molto risolvente che sovrarisolve alla grande qualunque sensore (tipo una Edmund a fuoco fisso, ma di solito si usa anche un 60macro qualunque diaframmato un po').
"non capisco come tu possa affermare che le lenti saturano i sensori e dall'altro che il sistema lente sensore risolve sempre meno del sensore (e non di un'inezia, come dimostrato)" semplicemente perchè sò che per buone lenti, il "meno" è relativamente un'inezia.
yossarian
17-09-2010, 17:37
Il 50 F/1.2 non è propriamente una lente per chi cerca risolvenza -.-'
Anzi diciamo che fa anche piuttosto schifo per quell'aspetto e diciamo che è anche piuttosto normale essendo un superluminoso non progettato per la risolvenza estrema (ed il canon non è certo il miglior superluminoso in circolazione fra l'altro).
Questo è indice di quanto tu abbia capito di lenti...
Fra l'altro anche il Canon 50/1.2 arriva a toccare quello che photozone chiama il "max".
E fra l'altro questo "Massimo Teorico" come lo calcoli di grazia? Dato che ci sono di mezzo algoritmi più complicati della nostra immaginazione e strumenti hardware dalle specifiche brevettate?
Il "Massimo Teorico", anche al giorno d'oggi, viene semplicemente misurato con una lente molto risolvente che sovrarisolve alla grande qualunque sensore (tipo una Edmund a fuoco fisso, ma di solito si usa anche un 60macro qualunque diaframmato un po').
"non capisco come tu possa affermare che le lenti saturano i sensori e dall'altro che il sistema lente sensore risolve sempre meno del sensore (e non di un'inezia, come dimostrato)" semplicemente perchè sò che per buone lenti, il "meno" è relativamente un'inezia.
ricapitolando:
il 100 mm f/2.8 L fa schifo, il 50 f/1.2 fa schifo, l'85 f/1.2 fa schifo, il fatto che con una stessa lente, passando da 8 a 15 Mpixel su aps-c, si ha un guadagno "solo" del 14-15% non è indicativo; il fatto che il sistema lente sensore risolve sempre meno del sensore (di percentuali a 2 cifre) non ha importanza).
Escludendo tutto ciò, possiamo concludere con assoluta certezza che le lenti saturano qualunque sensore. Quindi di cosa stiamo discutendo? :sofico:
Per la cronaca, il massimo teorico è la risoluzione verticale del sensore stesso e non il massimo teorico calcolato con una qualsivoglia lente (edmund o 60 macro diaframmato a piacere) che, montata su qualunque macchina fotografica darà sempre un risultato inferiore al potere risolvente del sensore di quella stessa macchina per colpa di quella stupidissima formuletta matematica di cui non si deve tener conto). :D
Stando così le cose, buon proseguimento, anche se gradirei un solo esempio a riprova delle tue affermazioni. Sai, non è per sfiducia, ma dato che sono ingegnere elettronico, ho lavorato a lungo nel campo dell'elaborazione digitale delle immagini (non ho mai messo mano sulle lenti, anche se ho studiato ottica, sia geometrica che non lineare, ma di sensori qualcosa ne capisco), ho una forma mentis tale che mi risulta difficile fidarmi sulla parola, soprattutto, poi, se questa parola non è corroborata, anzi, pare decisamente contraddetta, dai fatti. :D
Raghnar-The coWolf-
17-09-2010, 18:23
ricapitolando:
il 100 mm f/2.8 L fa schifo
Scusa, ma se supera la frequenza di Nyquist del sensore di un sacco, cosa vuoi di più? O_O'
Per la cronaca, il massimo teorico è la risoluzione verticale del sensore stesso
E come la determini la risoluzione verticale di un sensore con filtro passa alto e matrice colore?
Stando così le cose, buon proseguimento, anche se gradirei un solo esempio a riprova delle tue affermazioni.
Il fatto che le lenti superino la frequenza di Nyquist del sensore.
Il fatto che, anche una lente non risolvente come il 50/1.2, arrivi a quello che viene definito "max", il fatto che è relativamente facile con obiettivi standard ottenere foto molto definite.
Vuoi un link? Qua si vede la risoluzione di un Summilux su Spur Nano contro Leica M9 (crop 400%). Direi che il collo di bottiglia non mi pare di certo la lente (sebbene la M9 sia probabilmente la digitale più risolvente del mercato con 18MPixel senza filtro AA).
http://www.imx.nl/photo/Film/page169/page169.html
yossarian
17-09-2010, 22:13
Scusa, ma se supera la frequenza di Nyquist del sensore di un sacco, cosa vuoi di più? O_O'
ok, quindi una differenza tra risoluzione teorica e risoluzione sperimentale del 26% è un'inezia, mentre una differenza tra la frequenza di Nyquist (CHE NON RAPPRESENTA IL LIMITE DEL SENSORE) e quella sperimentale, nel solo caso migliore, pari al 26% equivale ad "un sacco". Fai pace col cervello :D
E come la determini la risoluzione verticale di un sensore con filtro passa alto e matrice colore?
a parte che è un filtro passa basso, semmai; secondo, cosa c'entra la matrice colore. Terzo, non sono stato io a dire che il sensore è saturato dalla lente. Terzo, la risoluzione del sistema sensore-lente, compreso filtro antimoire, è inferiore a quella del sensore (per colpa delle, da te, aborrite formulette. Quarto, se una stessa lente, passando da 8 a 15 Mpixel, fornisce un incremento inferiore all'87%, pur considerando che, all'aumentare della risoluzione, il filtro anti moire è meno aggressivo, allora devo concludere che la lente non sovrarisolve una beneamata cippa (hai presente il risultato dell'odiosa formuletta S*L/(S+L)?), quando L>>S?).
Il fatto che le lenti superino la frequenza di Nyquist del sensore.
non significa un bel niente e lo trovi scritto persino sulla spiegazione dell'IMATEST
Il fatto che, anche una lente non risolvente come il 50/1.2, arrivi a quello che viene definito "max",
e che non è il massimo del sensore ma "il massimo calcolato facendo uso di quella o di un'altra lente", ovvero un risultato sempre inferiore al massimo del sensore :D
il fatto che è relativamente facile con obiettivi standard ottenere foto molto definite.
anche con sensore poco densi. E allora, cosa dimostrerebbe (a parte il fatto che la nitidezza valutata ad occhio è un parametro soggettivo)
Vuoi un link? Qua si vede la risoluzione di un Summilux su Spur Nano contro Leica M9 (crop 400%). Direi che il collo di bottiglia non mi pare di certo la lente (sebbene la M9 sia probabilmente la digitale più risolvente del mercato con 18MPixel senza filtro AA).
http://www.imx.nl/photo/Film/page169/page169.html
voglio un link in cui risulti, da calcoli matematici o da considerazioni fisiche, le uniche cose che reputo attendibili, la veridicità delle tue affermazioni. Il link postato non dimostra un bel niente come non è dimostrato che la M9 sia la digitale più risolvente del mercato (continui a fare valutazioni parziali e tendenziose degli elementi che ti fanno comodo, tralasciando gli altri, così come fai nel quotare i post altrui). Non per gusto di contraddizione, ma qui (http://www.dpreview.com/reviews/leicam8/page19.asp) c'è un confronto tra D200 ed M8 a parità di Mpixel, con la seconda che non ha filtro PASSA BASSO (esattamente come la M9). La M8 appare in vantaggio, a livello di nitidezza (valutazini fatte, comunque ad occhio), ma: although frankly it's advantage has shrunk quite a bit. Ops, come mai non c'è un vantaggio abissale? Forse perchè hai dimenticato che sulla nitidezza incidono altri fattori oltre alla presenza/assenza del filtro antialiasing e del numero di Mpixel. In compenso, i 12,8 Mpixel della 5D (http://www.dpreview.com/reviews/leicam8/page18.), pur con filtro antimoire, qualche leggero vantaggio sembrano darlo. Per analogia (e fino a prova contraria), per quale motivo, se la M8 non riesce a battere la 5D, la M9 dovrebbe risultare la digitale con più dettaglio? Perchè lo dici tu?
Poichè dopo un po le chiacchiere diventano noiose, se fini a sé stesse; poichè si parla di argomenti tecnici e scientificamente verificabili, ti invito, per l'ennesima volta a portare delle prove scientifiche, certe ed inoppugnabili a supporto delle tue tesi e non ciance da bar dello sport.
Raghnar-The coWolf-
17-09-2010, 23:22
E come la determini la risoluzione verticale di un sensore con filtro passa basso (pardon mai sbagliato?) e matrice colore?
*
Continui a fare della tua pietra angolare ipotetiche considerazioni sulla "risoluzione teorica" del sensore. Come si determina teoricamente la risoluzione del solo sensore (fatta l'ipotesi lessicale che il sensore è ciò che sta dentro al corpo macchina e la lente ciò che ci attacchi fuori)?
yossarian
17-09-2010, 23:38
*
Continui a fare della tua pietra angolare ipotetiche considerazioni sulla "risoluzione teorica" del sensore. Come si determina teoricamente la risoluzione del solo sensore (fatta l'ipotesi lessicale che il sensore è ciò che sta dentro al corpo macchina e la lente ciò che ci attacchi fuori)?
perchè quella (la risoluzione verticale nominale) è la risoluzione di un sensore; quella che non raggiungerai mai neppure togliendo il filtro PASSA BASSO, qualunque sia la lente che tu monti; così come non raggiungono le risoluzioni nominali le leica che non hanno il filtro passa basso o le sigma che non hanno filtro passa basso e matrice bayer. Conclusione (ovvia) una lente, qualunque essa sia, non potrà mai permettere ad un sistema macchina di arrivare al valore teorico della risoluzione del suo sensore (qualunque esso sia).
In questa considerazione ho tralasciato un elemento che varia da sistema a sistema ma che non inficia il risultato finale, ovvero che l'insieme sensore-lente ha sempre risoluzione minore del solo sensore, in qualunque condizione.
Sto ancora aspettando degli esempi e mi sto annoiando di questa specie di filosofia spicciola :D
Raghnar-The coWolf-
18-09-2010, 01:04
Se per risoluzione quindi intendi il numero dei pixel, allora non capisco che cavolo voglia dire il tuo discorso.
Ovvio che non si arriva alla risoluzione del sensore, perchè il pixel stesso non è fatto, per CFA e per filtro AA e per sharpening successivi, per risolvere 1 pixel = 1 linea.
La risoluzione massima del sensore, non è il numero dei pixel. Attaccandoci una lente ipoteticamente infinitamente risolvente, sebbene la risoluzione a questo punto sarebbe esattamente quella del sistema sensore (1/infinito=0), non avresti comunque linee per mm equivalenti ai pixel per mm perchè l'immagine sarebbe filtrata da un passa basso, elaborata da un filtro di estrapolazione del segnale e mosaicizzata da un algoritmo.
Quindi di cosa stai parlando? Del fatto che non si arrivi ad 1 pixel = 1 linea? Ma questo non è in alcun modo indicativo di limiti della lente! (ed invece mi sembra molto filosofia spiccia)
Oppure hai dei numeri che indicano quanto è l'effettiva risoluzione del sistema sensore per qualche tipo di macchina e ci dici da dove li hai dedotti e proviamo a confrontarli con qualche lente?
yossarian
18-09-2010, 01:47
Se per risoluzione quindi intendi il numero dei pixel, allora non capisco che cavolo voglia dire il tuo discorso.
Ovvio che non si arriva alla risoluzione del sensore, perchè il pixel stesso non è fatto, per CFA e per filtro AA e per sharpening successivi, per risolvere 1 pixel = 1 linea.
La risoluzione massima del sensore, non è il numero dei pixel. Attaccandoci una lente ipoteticamente infinitamente risolvente, sebbene la risoluzione a questo punto sarebbe esattamente quella del sistema sensore (1/infinito=0), non avresti comunque linee per mm equivalenti ai pixel per mm perchè l'immagine sarebbe filtrata da un passa basso, elaborata da un filtro di estrapolazione del segnale e mosaicizzata da un algoritmo.
Quindi di cosa stai parlando? Del fatto che non si arrivi ad 1 pixel = 1 linea? Ma questo non è in alcun modo indicativo di limiti della lente! (ed invece mi sembra molto filosofia spiccia)
Oppure hai dei numeri che indicano quanto è l'effettiva risoluzione del sistema sensore per qualche tipo di macchina e ci dici da dove li hai dedotti e proviamo a confrontarli con qualche lente?
non raggiungi la risoluzione teorica neppure dove il passa basso non è presente (X3, ad esempio (http://www.dpreview.com/reviews/sigmadp2/page21.asp)) e dove non è presente neppure il pattern bayer (che non inficia in alcun modo la risoluzione, comunque). Potresti arrivarci con una lente con risolvenza tendente ad infinito: il rapporto L*S/(L+S), a quel punto, tenderebbe a S, dove S è la risoluzione del sensore (privo di passa basso) ed L quella della lente, ma è una situazione irrealizzabile.
Al contrario, i limiti della lente sono evidenti quando, passando da 8 a 12 o a 15 Mpixel il guadagno tende a ridursi ad ogni passaggio, pur assumendo come fondata l'ipotesi che, all'aumentare della risoluzione, nel caso peggiore, il passa basso introduce la stessa quantità di blurring. Come pure risulta evidente nel momento in cui, all'aumentare della risoluzione, la forbice tra risoluzione nominale e risoluzione misurata tende a dilatarsi in termini percentuali.
Ad esempio, confrontando queste fotocamere (http://www.dpreview.com/reviews/canoneos7d/page28.asp), si vede come, passando dai 12 Mpixel della D300 ai 15 della 50D il guadagno nella risoluzione verificata sperimentalmente sia quasi nullo. Fa leggerissimamente meglio pentax con i 14,6 Mpixel della K7 e con filtro AA molto leggero (comparsa del moire a risoluzioni piuttosto basse). Con la 7D si riesce a guadagnare qualcosa di più grazie ai 18 Mpixel abbinati, anche in questo caso, con filtro AA meno aggressivo.
Per la cronaca, il valore di risoluzione massima che si legge negli MTF non corrisponde alla risoluzione massima del sensore con filtro AA ma viene fuori da un calcolo teorico secondo cui, fissata la frequenza di Nyquist pari a metà di quella di campionamento spaziale del sensore, il pixel ideale dovrebbe restituire un MTF pari a 1 fino alla frequenza di Nyquint e 0 per frequenze superiori. Questo permette di calcolare il numero di "pixel ideali" che non corrisponde alla risoluzione massima possibile del sensore (quella teorica) e neppure a quella ottenibile con un determinato sistema lente-sensore. Inoltre, si assume che lo sharpening sia impostato su valori neutri. Questo spiega come mai si vedono alcuni MTF in cui, pure se di poco, in alcune situazioni (http://www.photozone.de/canon-eos/162-canon-ef-s-60mm-f28-usm-macro-test-report--review?start=1) si ottengono risultati superiore a quella che viene indicato come massima risoluzione (o risoluzione ideale).
Raghnar-The coWolf-
18-09-2010, 03:17
doppio
Raghnar-The coWolf-
18-09-2010, 03:27
Ma allora cos'è e quanto vale questa "risoluzione teorica" si può sapere?
Che il guadagno si riduce ad ogni passaggio poi da cosa lo deduci? Dai test di photozone (che fra l'altro non mi sembrano il max dell'affidabilità e della completezza. Il sito dello stabilotto > all) che hai detto che utilizzano numeri indicativi? e dai Test di photozone con cui è stato aperto il thread si evince proprio il concrario di quello che hai detto tu, comunque: per una serie sterminata di ottiche il guadagno è proporzionale all'aumento dei pixel!
E anche se non fosse, come fai a sapere che non sia dovuto ad altri effetti del sensore (come la riduzione del rumore)?
Dovresti avere per dirlo dei test organici, fatti su sensori diversi nel medesimo modo con le medesime lenti interpretando i dati nello stesso modo e utilizzando le stesse convenzioni.
Da lì puoi estrapolare il rapporto fra le risolvenze dei sensori e la risolvenza della lente e vedere quanto è cosa.
E non mi pare esista un sito che dia queste garanzie.
In compenso è pieno il mondo di test con la risolvenza delle lenti a nastro (ed oltre la frequenza di Nyquist del sensore), di crop 100% così taglienti da poterci fare direttamente una stampa (non sempre da parte di ottiche nazional, popolari, ok... ma non mi sembra quello il punto), di evidenze che ogni volta che la risoluzione aumenta la qualità aumenta di un sacco...
Senza contare le specifiche dei produttori più seri, come Leica e Angenieux, che hanno sempre dichiarato capacità risolventi dele lenti ben oltre i sistemi commerciali passati ed odierni grazie a sensori a scansione (ad esempio il 280/4 Telyt ha una risolvenza dichiarata di 500 lp/mm, il quintuplo dei pixel disposti in altezza di una 7D, fermo restando che 1pixel=1linea solo nei sogni e nelle semplificazioni crude) . Capacità verificate più volte da studiosi e appassionati come il già citato Puts.
Stai facendo su un casino che non finisce più per inventarti unità che non esistono e non vedere le cose più lampanti...
Fotograficamente la vera domanda IMHO non è chiedersi se le lenti sovrarisolvano il sensore, ma se le foto con Nmila megapixel e lenti stratosferiche sovrarisolvano l'occhio umano.
E la risposta è altrettanto ovviamente sì.
yossarian
18-09-2010, 11:37
Ma allora cos'è e quanto vale questa "risoluzione teorica" si può sapere?
quante volte ti devo postare la stessa formula?
Che il guadagno si riduce ad ogni passaggio poi da cosa lo deduci?
guardati i test comparativi di tutti gli obiettivi su sensori con sensori a differente densità
Dai test di photozone (che fra l'altro non mi sembrano il max dell'affidabilità e della completezza.
sono MTF ricavati utilizzando tool che permettono di ottenere risultati attendibili, verificabili e ripetibili. Quelli che sono approssimativi sono alcuni valori fissati sulla base di considerazioni teoriche, come la "risoluzione massima", ma questo è specificato anche nella spiegazione dell'IMATEST.
Il sito dello stabilotto > all) che hai detto che utilizzano numeri indicativi? e dai Test di photozone con cui è stato aperto il thread si evince proprio il concrario di quello che hai detto tu,
affermazione di cui sto aspettando ancora le prove; io ho addotto una serie di considerazioni basate su dati concreti, da te sto ancora aspettando qualcosa che non siano favoleggiamenti di fantomatiche ottiche eccezionali che sovrarisolverebbero qualunque sensore.
comunque: per una serie sterminata di ottiche il guadagno è proporzionale all'aumento dei pixel!
mi basta un solo esempio di ottica in cui passando da 8 a 15 Mpixel hai incrementi superiori all'80%. POrtane almeno uno, oppure le tue sono solo chiacchiere :D
E anche se non fosse, come fai a sapere che non sia dovuto ad altri effetti del sensore (come la riduzione del rumore)?
a ISO base? :rolleyes:
Dovresti avere per dirlo dei test organici, fatti su sensori diversi nel medesimo modo con le medesime lenti interpretando i dati nello stesso modo e utilizzando le stesse convenzioni.
Da lì puoi estrapolare il rapporto fra le risolvenze dei sensori e la risolvenza della lente e vedere quanto è cosa.
E non mi pare esista un sito che dia queste garanzie.
l'IMATEST serve proprio a questo
In compenso è pieno il mondo di test con la risolvenza delle lenti a nastro (ed oltre la frequenza di Nyquist del sensore),
per l'ennesima volta devo ripetere che la frequenza di Nyquist del sensore non è indicativa del suo potere risolvente ma è solo un parametro che indica che da li in avanti potrebbero verificarsi problemi di aliasing. E dico POTREBBERO perchè, di fatto, nella maggior parte dei casi, ciò non avviene se non per frequenze che vanno ben oltre quella di Nyquist. La risposta non è quella del pixel ideale, motivo per cui può non essere attendibile (e nella stragrande maggioranza dei casi non lo è, soprattutto, paradossalmente, per sensori con filtro AA) neppure la "frequenza massima" di cui parla photozone o la frequenza assoluta di dpreview. Ma questo, RIPETO, è chiaramente specificato in sede di test.
di crop 100% così taglienti da poterci fare direttamente una stampa (non sempre da parte di ottiche nazional, popolari, ok... ma non mi sembra quello il punto), di evidenze che ogni volta che la risoluzione aumenta la qualità aumenta di un sacco...
se parli di evidenze "visive" ti contraddici qui sotto. Di evidenze strumentali o con basi teoriche sono ancora in attesa.
Fotograficamente la vera domanda IMHO non è chiedersi se le lenti sovrarisolvano il sensore, ma se le foto con Nmila megapixel e lenti stratosferiche sovrarisolvano l'occhio umano.
E la risposta è altrettanto ovviamente sì.
Senza contare le specifiche dei produttori più seri, come Leica e Angenieux, che hanno sempre dichiarato capacità risolventi dele lenti ben oltre i sistemi commerciali passati ed odierni grazie a sensori a scansione (ad esempio il 280/4 Telyt ha una risolvenza dichiarata di 500 lp/mm, il quintuplo dei pixel disposti in altezza di una 7D, fermo restando che 1pixel=1linea solo nei sogni e nelle semplificazioni crude) . Capacità verificate più volte da studiosi e appassionati come il già citato Puts.
allora non ci capiamo. Prendi la formula della risolvenza di un sistema lente sensore, insesrisci una risolvenza, per l'obiettivo, di un ordine di grandezza superiore a quella di un sensore e ti accorgerai che la risoluzione del sensore ha ancora un peso determinante sulla risolvenza complessiva; il che signifiuca che la lente non "satura" un bel niente. 5 volte, al confronto (ammesse per buone queste specifiche) sono veramente un'inezia.
p.s., anche potere risolvente delle lenti è solo teorico (o se preferisci l'espressione, solo nei migliori sogli)
Stai facendo su un casino che non finisce più per inventarti unità che non esistono e non vedere le cose più lampanti...
e tu stai facendo la figura di chi vuole avere l'ultima parola in una discussione, pur non avendo argomenti. Motivo per cui, ti saluto. Non ho altro tempo da perdere in una discussione sterile. Porta degli argomenti solidi, che non siano tue impressioni e, magari, possiamo riaprire la discussione :p
Raghnar-The coWolf-
18-09-2010, 11:57
Come fai a pretendere incrementi della risoluzione lineare dell'80% con un incremento dei pixel (quindi misura quadratica) dell'80%? -.-'
Se guardi il thread starting c'è una listona di lenti che incrementano tante linee per mm quante sono quelle che photozone stesso riferisce come "incremento dovuto al sensore" dagli 8 ai 12 Megapixel (Anzi, a volte addirittura di più, proprio perchè tanto affidabili e ripetibili tali test non è che lo siano, perchè l'IMATEST è un programma, e photozone si fanno prestare le lenti e le testano con modalità imho dubbie, perchè il plasticotto non è più risolvente di qualunque fisso canon).
Poi voglio dire, risolvere 500 lp/mm (che sono stati misurati, non "teorici"), che tu dici che non saturano il sensore della 7D (fra l'altro per una lente per FF) perchè 1/100+1/500=6/500 che è il 17% in meno dell'1/100 del sensore. Quindi per arrivare al 17% in meno della risoluzione della lente (quindi non saturare, secondo il tuo criterio), servirebbe un sensore da 1/2500 lp/mm che sono una roba tipo 1Gigapixel.
Ovvero: se stabilisci un criterio secondo cui lenti molto risolventi (come i Leica-Telyt, che si conoscono molto bene perchè hanno eseguito misure per l'esercito) non saturano il sensore della 7D, per lo stesso criterio, per saturare la stessa lente con un sensore serve andare a risoluzioni pazzesche che non si riescono neppure a immaginare, e quindi ecco risposta la domanda del thread.
Siamo al limite? Manco per sogno.
Più di così non so che vuoi... -.-
yossarian
18-09-2010, 12:36
Come fai a pretendere incrementi della risoluzione lineare dell'80% con un incremento dei pixel (quindi misura quadratica) dell'80%? -.-'
Se guardi il thread starting c'è una listona di lenti che incrementano tante linee per mm quante sono quelle che photozone stesso riferisce come "incremento dovuto al sensore" dagli 8 ai 12 Megapixel (Anzi, a volte addirittura di più, proprio perchè tanto affidabili e ripetibili tali test non è che lo siano, perchè l'IMATEST è un programma, e photozone si fanno prestare le lenti e le testano con modalità imho dubbie, perchè il plasticotto non è più risolvente di qualunque fisso canon).
Poi voglio dire, risolvere 500 lp/mm (che sono stati misurati, non "teorici"), che tu dici che non saturano il sensore della 7D (fra l'altro per una lente per FF) perchè 1/100+1/500=6/500 che è il 17% in meno dell'1/100 del sensore. Quindi per arrivare al 17% in meno della risoluzione della lente (quindi non saturare, secondo il tuo criterio), servirebbe un sensore da 1/2500 lp/mm che sono una roba tipo 1Gigapixel.
Ovvero: se stabilisci un criterio secondo cui lenti molto risolventi (come i Leica-Telyt, che si conoscono molto bene perchè hanno eseguito misure per l'esercito) non saturano il sensore della 7D, per lo stesso criterio, per saturare la stessa lente con un sensore serve andare a risoluzioni pazzesche che non si riescono neppure a immaginare, e quindi ecco risposta la domanda del thread.
Siamo al limite? Manco per sogno.
Più di così non so che vuoi... -.-
allora, trovami una lente che, passando da 30d a 50d, porti un incremento sulla risoluzione verticale del 36% e poi ne riparliamo.
Non sono io a stabilire criteri; i risultati vengono fuori dall'applicazione di formule elementari che, per quanto ti siano insopportabili, sono quelle che danno la risolvenza di un sistema. E queste formule dicono che se S=1 e L=5, il sistema avrà risolvenza pari a 0,8; se S=2 e L=10, il sistema avrà risolvenza 1,67, ecc.
Questa è la prova che con lenti estremamente risolventi (questo è quello che affermi) la densità del sensore ha ancora un peso determinante sulla risolvenza complessiva. Ergo, la lente non "satura" un bel niente.
In un link postato in precedenza, dove dpreview prende in considerazione la risoluzione teorica calcolata in base al pixel ideale (discutibile ma, mi pare, sia quella a cui ti stai attaccando), ti ho mostrato che passando da 12 Mpixel a 15 Mpixel non si ha, praticamente, alcun incremento e, con i 18 MPixel della 7D sui guadagnano un centinaio di linee (non di coppie di linee, perchè dpreview non una questa misura).
Raghnar-The coWolf-
18-09-2010, 12:43
Questa è la prova che con lenti estremamente risolventi (questo è quello che affermi) la densità del sensore ha ancora un peso determinante sulla risolvenza complessiva. Ergo, la lente non "satura" un bel niente
Dipende solo dal criterio che usi per dire "satura".
Una lente che, secondo il tuo criterio non satura il sensore, ha bisogno di densità pazzesche per invertire le parti ed avere il sensore che "non satura" la lente.
Poi la semantica non mi ha mai interessato.
Mercuri0
18-09-2010, 14:13
A me pare un thread molto morto (sopratutto imho per colpa di Yossy che si sta impuntando su sofismi) :sbonk:
Me ne tengo bene alla larga che ci manca che mi metto a giocarmi anche il sabato cincischiando sulle cose che mi tocca fare a lavoro. Che qui solo per capire cosa indicate con "satura" bisogna leggersi 15 pagine. :mbe:
Comunque una curiosità in effetti me la devo togliere
Perchè sia utilizzata al meglio, le dimensioni del fotosito e le distanza tra fotositi non devono essere di molto superiori a quelle del disco di airy e neppure troppo più piccole. Nel primo caso succede che, all'interno dell'area del sensore cadano anche le rpime frange di interferenza e si altera l'informazione; nel secondo si ha perdita di informazione dovuta al fatto che non tutta la corona centrale cade all'interno del pixel e si hanno sovrapposizioni delle "campane" che rappresentano la distribuzione dei segnali tra pixel contigui.....
Si direbbe stai stabilendo anche una densità massima dei pixel, sopra la quale le prestazioni degradano. La cosa non mi torna secondo i modelli a cui faccio riferimento. :mbe:
Anche perché, detto come lo hai scritto, bisognerebbe doversi preoccupare di quello che succede quando il centro del disco di Airy cade all'intersezione tra i pixel ^^''
Il modello invece che ho in mente prevede di considerare l'immagine proiettata dalla lente come la convoluzione dell'immagine ripresa con la point spread function (http://en.wikipedia.org/wiki/Point_spread_function)della lente. (Wikipedia mi dice che la funzione di Airy è la psf di una lente singola ideale, per allacciarsi a noi)
Da lì, il danno della lente è già stato fatto, e si tratta di campionare secondo la solita teoria. Non capisco, da questo punto di vista, cioè escludendo i problemi elettronici, che danno si farebbe ad aumentare la densità dei pixel.
Al massimo da un certo punto in poi può risultare inutile a parte l'occupare spazio sul disco. Un pò come l'audio HD. :D
Ogni volta rimango stupito dai danni che fa alla QI, a discapito di quanto si dica sul moire... (basta vedere qualche scatto fatto con la M9, che ne è sprovvista, per vedere cosa è possibile fare senza filtro AA).
Questo link ti farà sicuramente rosicare, aprilo solo se non sei un folle:
http://www.maxmax.com/nikon_d700hr.htm
E' semplicemente pazzesco come si preferisca non incappare nel moirè piuttosto che avere un sensore risolvente.
I tizi del sito fanno l'operazione di rimozione del filtro AA cosa che non sembra semplice.
Raga, in questi tempi di HD di quà e di là, si preferisce il rischio di aliasing pur di vedere dettagli più o meno finti. E nel 90% dei casi magari va bene.
Il problema è che quando l'aliasing colpisce, può far malissimo. Ma Canon o Nikon potrebbero vendere una macchina che fallisca in quel 10% dei casi, che potrebbe essere il vestito di pizzo di una sposa? Leica o Sigma certamente si.
Fidatevi, che loro la sanno più lunga di noi ;)
Ho notato che in alcuni test mtf si ottengono per alcune lenti dei risultati superiori al limite teorico del sensore. Come si spiega questo fatto? Come si fanno a distinguere dei dettagli più piccoli di quelli che in linea teorica può rilevare il sensore.
Non è che sopra la frequenza di Nyquist il sensore diventa orbo :D . La linea tratteggiata indica che da lì in poi il campionamento spaziale non rispetta strettamente la teoria per evitare aliasing.
Dpreview, nel glossario, si limita ad indicare che le misure fatte in prossimità o sopra quella linea non sono "rigorosamente" affidabili.
marchigiano
19-09-2010, 17:20
raga ancora su sto thread di 2.5 anni fa? :D
il tempo ha mostrato la verità, sensori da 18mp su aps-c che risolvono di più anche su lenti morbide
esempio canon 50f1.4:
provato su 350D nitido anche se non al max
provato su 50D morbido... tutti a dire che era al limite :mbe:
provato su 7D nitido... :stordita:
questo perchè la differenza la fa i filtri del sensore mentre la lente ha la sua morbidezza che applica a tutti i sensori
infatti se facciamo lo stesso test con un 70-200f4 scommetto di ottenere gli stessi risultati ma con un filo di dettaglio in più in tutti e tre i casi
inzia invece ad avvicinarsi la diffrazione... a f8 con la 7D già siamo oltre, meglio stare sotto per la massima risoluzione, a f5.6 o f6.3
se continua così tra 10 anni dovremo usare solo lenti f2.8 :sofico:
yossarian
19-09-2010, 17:47
Dipende solo dal criterio che usi per dire "satura".
Una lente che, secondo il tuo criterio non satura il sensore, ha bisogno di densità pazzesche per invertire le parti ed avere il sensore che "non satura" la lente.
Poi la semantica non mi ha mai interessato.
in un sistema in cui il collo di bottiglia è dato dalla minore delle risolvenze delle due componenti, avresti ragione ad affermare che le lenti sono in grado di "saturare" i sensori digitali. In un sistema in cui la risolvenza è data dalla formula postata in precedenza più volte, questo non è più vero e quella che tu definisci saturazioni la ottieni solo quando la risolvenza del sensore diventa trascurabile rispetto a quella della lente.
A me pare un thread molto morto (sopratutto imho per colpa di Yossy che si sta impuntando su sofismi) :sbonk:
Me ne tengo bene alla larga che ci manca che mi metto a giocarmi anche il sabato cincischiando sulle cose che mi tocca fare a lavoro. Che qui solo per capire cosa indicate con "satura" bisogna leggersi 15 pagine. :mbe:
Comunque una curiosità in effetti me la devo togliere
Si direbbe stai stabilendo anche una densità massima dei pixel, sopra la quale le prestazioni degradano. La cosa non mi torna secondo i modelli a cui faccio riferimento. :mbe:
non so tu a quali modelli faccia riferimento; però, all'atto pratico, esiste una densità massima al di sopra della quale le prestazioni degradano e, di conseguenza, l'aumento di risoluzione ottenibile non va di pari passo con quello che si potrebbe ottenere in teoria (pur con tutti i limiti di cui si è parlato per 15 pagine) http://www.luminous-landscape.com/tutorials/resolution.shtml. Nessuno ti impedisce di aumentare la densità, purchè entri nell'ordine di idee che, prima o poi, ti ritroverai a combattere con la diffrazione anche a f/2 :D
Anche perché, detto come lo hai scritto, bisognerebbe doversi preoccupare di quello che succede quando il centro del disco di Airy cade all'intersezione tra i pixel ^^''
di grazia, come fa il centro del disco di airy a cadere sull'intersezione tra pixel? A cosa servono le microlenti? :mbe:
yossarian
19-09-2010, 17:55
raga ancora su sto thread di 2.5 anni fa? :D
il tempo ha mostrato la verità, sensori da 18mp su aps-c che risolvono di più anche su lenti morbide
esempio canon 50f1.4:
provato su 350D nitido anche se non al max
provato su 50D morbido... tutti a dire che era al limite :mbe:
provato su 7D nitido... :stordita:
questo perchè la differenza la fa i filtri del sensore mentre la lente ha la sua morbidezza che applica a tutti i sensori
infatti se facciamo lo stesso test con un 70-200f4 scommetto di ottenere gli stessi risultati ma con un filo di dettaglio in più in tutti e tre i casi
inzia invece ad avvicinarsi la diffrazione... a f8 con la 7D già siamo oltre, meglio stare sotto per la massima risoluzione, a f5.6 o f6.3
se continua così tra 10 anni dovremo usare solo lenti f2.8 :sofico:
la definizione che dai di nitidezza e morbidezza non implica una minore o maggiore risolvenza del sistema. Altrimenti, messa così, sembra che nel passaggio da 350D a 50D, a ISO base, con stessa lente, hai meno risoluzione, il che non è affatto vero. La 50d mostra decisamente dettaglio della 350d con qualsiasi lente. Che poi il filtro AA della 50D sia molto aggressivo (e quello della 7D molto meno) è un dato di fatto, ma la formula sulla risolvenmza del sistema è applicabile anche tenendo conto della presenza del filtro AA (che è anche sulla 350D).
Un conto è parlare di sensazioni visive un altro parlare di dati strumentali. Se ci vogliamo basare sulle prima, non tiriamo in ballo grafici, equazioni e test. E' sufficiente scattare due foto dello stesso soggetto e metterle a confronto
yossarian
19-09-2010, 17:59
Raga, in questi tempi di HD di quà e di là, si preferisce il rischio di aliasing pur di vedere dettagli più o meno finti. E nel 90% dei casi magari va bene.
Il problema è che quando l'aliasing colpisce, può far malissimo. Ma Canon o Nikon potrebbero vendere una macchina che fallisca in quel 10% dei casi, che potrebbe essere il vestito di pizzo di una sposa? Leica o Sigma certamente si.
Fidatevi, che loro la sanno più lunga di noi ;)
il sensore X3 di foveon è comunque soggetto ad effetto moire, ma di tipo monocromatico e, pertento, molto meno percepibile dall'occhio umano e decisamente meno fastidioso. Quindi la mancata adozione del filtro è un rischio molto ben calcolato. Diverso il discorso per Leica che usa sensori con matrice bayer
Raghnar-The coWolf-
19-09-2010, 18:31
in un sistema in cui il collo di bottiglia è dato dalla minore delle risolvenze delle due componenti, avresti ragione ad affermare che le lenti sono in grado di "saturare" i sensori digitali. In un sistema in cui la risolvenza è data dalla formula postata in precedenza più volte, questo non è più vero e quella che tu definisci saturazioni la ottieni solo quando la risolvenza del sensore diventa trascurabile rispetto a quella della lente.
Ancora ad attaccarsi alle paroline...
Con la formula di prima hai che per risolvere con un sensore una lente Telyt adesso la lente risolve il sensore hai bisogno di 1Gigapixel su APS-C.
E sticazzi, chiamalo come ti pare, ma non puoi dire "non satura, limite, limite, aiuto aiuto!". -_-'
yossarian
19-09-2010, 19:09
Ancora ad attaccarsi alle paroline...
Con la formula di prima hai che per risolvere con un sensore una lente Telyt adesso la lente risolve il sensore hai bisogno di 1Gigapixel su APS-C.
E sticazzi, chiamalo come ti pare, ma non puoi dire "non satura, limite, limite, aiuto aiuto!". -_-'
ti piaccia o no, la formula della risolvenza è quella ma mi pare che tu non ne abbia molto chiare le implicazioni :D
Raghnar-The coWolf-
19-09-2010, 19:45
ti piaccia o no, la formula della risolvenza è quella ma mi pare che tu non ne abbia molto chiare le implicazioni :D
Neanche tu a quanto pare, dato che siamo 2 ordini di grandezza lontani dal limite, basandosi solo su quella formuletta.
yossarian
19-09-2010, 19:59
Neanche tu a quanto pare, dato che siamo 2 ordini di grandezza lontani dal limite, basandosi solo su quella formuletta.
non ho mai sostenuto che i sensori "saturano" le lenti (e non vedo come potrei); peccato che neppure le lenti "saturino" i sensori, come tu affermi (ma, anche in quel caso, basandosi sull'unico dato pare tu abbia fornito, siamo circa un paio di ordini di grandezza distanti lontani). :p
Per la cronaca, quella "formuletta" è l'unica che abbia valore. Al contrario, non ne hanno le tue affermazioni categoriche di stampo: "ho ragione io e i fatti mi cosano" :D
Raghnar-The coWolf-
19-09-2010, 20:26
non ho mai sostenuto che i sensori "saturano" le lenti (e non vedo come potrei);
Solo perchè vuoi essere pignolo al punto percentuale.
Se non sbaglio hai affermato che un aumento di pixel è praticamente inutile, cosa che evidentemente è tutt'altro che vera.
Per la cronaca, quella "formuletta" è l'unica che abbia valore
Ma anche no, è una semplificazione di una semplificazione. Utile per parlare fra di noi perchè già ti metti a fare il sofista su 3 termini, figuraci se usassimo le formule convolute :asd:
yossarian
19-09-2010, 21:24
Solo perchè vuoi essere pignolo al punto percentuale.
Se non sbaglio hai affermato che un aumento di pixel è praticamente inutile, cosa che evidentemente è tutt'altro che vera.
mi linki dove avrei affermato che un aumento di pixel è inutile in relazione al rapporto tra risolvenza di lenti e sensori? Altro discorso è affermare che aumentando i Mpixel oltre un certo livello, i benefici in termini di risoluzione rischiano di non essere proporzionali a causa della diffrazione.
Ma anche no, è una semplificazione di una semplificazione. Utile per parlare fra di noi perchè già ti metti a fare il sofista su 3 termini, figuraci se usassimo le formule convolute :asd:
qualora ti fosse sfuggito, il risultato di un test MTF non è un singolo valore numerico ma una funzione (viene fuori un grafico, se non te ne sei accorto :D ). Questo significa che quella che finora ho semplificato come a*b/(a+b) (dove se a e b fossero semplici numeri verrebbe fuori un altro semplice numero) è, nei fatti, una convoluzione nel dominio della frequenza (spaziale) e, nella fattispecie, l'inverso della convoluzione degli inversi delle funzioni che danno la risolvenza dei due elementi componenti il sistema.
Colpa mia che non l'ho specificato, ma davo per scontato che tu lo sapessi avendo fatto, magari, qualche esame di analisi o qualcosa sulla teoria dei segnali. In tal caso, avresti saputo che una convoluzione è il prodotto di due funzioni in un determinato dominio
Raghnar-The coWolf-
19-09-2010, 22:02
mi linki dove avrei affermato che un aumento di pixel è inutile in relazione al rapporto tra risolvenza di lenti e sensori?
Quindi fin'ora è stata una semplice lotta sul grado di precisione per poter affermare che avviene la "saturazione" spacciata per un "sono completamente contrario a ciò che dici"?
Poi ti offendi se ti danno del sofista... :asd:
qualora ti fosse sfuggito, il risultato di un test MTF non è un singolo valore numerico ma una funzione (viene fuori un grafico, se non te ne sei accorto :D ). Questo significa che quella che finora ho semplificato come a*b/(a+b) (dove se a e b fossero semplici numeri verrebbe fuori un altro semplice numero) è, nei fatti, una convoluzione nel dominio della frequenza e, nella fattispecie, l'inverso della convoluzione degli inversi delle funzioni che danno la risolvenza dei due elementi componenti il sistema.
Allora lo sai... :asd:
Se consideri le funzioni di trasferimento come tali allora la descrizione del sistema è data dalla convoluzione delle funzioni di trasferimento (o moltiplicazione delle trasformate) e la risoluzione del sistema stesso può non venire semplice come la descrivi se le variabili sono dipendenti (come sono). Specie quando il sistema tenta di discretizzare un continuo.
yossarian
19-09-2010, 22:26
Quindi fin'ora è stata una semplice lotta sul grado di precisione per poter affermare che avviene la "saturazione" spacciata per un "sono completamente contrario a ciò che dici"?
Poi ti offendi se ti danno del sofista... :asd:
no, mi sono limitato a rispondere alla domanda: lenti reflex, siamo al limite? E la risposta è no, ovvero, aumentando la risolvenza delle lenti (anche delle migliori) aumenterebbe la risolvenza del sistema lente-sensore. E finora non mi pare che qualcuno sia riuscito a dimostrare il contrario. Questo significa che non c'è alcun livello di "saturazione" indicando con tale termine il raggiungimento del livello estremo di risoluzione di un sensore (cosa che nessuna lente è in grado di fare). Sei tu che ti sei inserito in questa discussione dicendo che non sapevo di cosa stavo parlando e tirando in ballo questa fantomatica saturazione dei sensori (termine, lo ripeto, estremamente improprio, se vogliamo fare i pignoli o i sofisti). Mi sono limitato a confutare la tua affermazione circa il raggiungimento di questo fantomatico livello di saturazione e non mi pare che tu, finora, abbia portato prove a supporto della tua tesi. Non saranno le battutine sarcastiche sul mio livello di preparazione in materia (che noto ti è del tutto sconosciuto), o le risatine a denti stretti a darti ragione.
Allora lo sai... :asd:
Se consideri le funzioni di trasferimento come tali allora la descrizione del sistema è data dalla convoluzione delle funzioni di trasferimento (o moltiplicazione delle trasformate) e la risoluzione del sistema stesso può non venire semplice come la descrivi se le variabili sono dipendenti (come sono). Specie quando il sistema tenta di discretizzare un continuo.
io so di cosa parlo; non sono sicuro che tu lo sappia. La dipendenza delle variabili è già contemplata all'interno della convoluzione, per tua informazione (pensi che chi ha ideato gli strumenti di misura sia uno sprovveduto? Si tratta di gente del mestiere a cui non credo tu abbia nulla da insegnare e potresti rendertene conto andandoti a leggere le informazioni di base sui tool che compongono l'IMATEST); la scelta del dominio della frequewnza è dettata proprio dalla volontà di semplificare i calcoli tenendo conto delle dipendenze (tutte confinate all'interno del dominio della frequenza spaziale).
In quanto al discretizzare un continuo, le cose stanno anche in maniera più complessa, visto che la luce è un mezzo discreto e non continuo e l'obiettivo non ha un comportamento troppo dissimile da una fibra ottica multimodale con in aggiunta gruppi di lenti al proprio interno (e a "lunghezza equivalente variabile" nel caso degli zoom). Il sistema fotodiodo-accumulatore di carica, amplificatore-circuito di feedback e registri di trasferimento con relativi circuiti di read out sono l'equivalente di un DAC. Su un CMOS l'ADC avviene sul sensore e quella che si trasferiece è un'informazione già digitalizzata, mentre in un CCD avviene fuori dal sensore. Questo detto in maniera molto stringata e poco rigorosa.
Ok, e tutto questo come dovrebbe modificare il rapporto tra le risolvenze di lente e sensore?
Il fatto che la risolvenza complessiva del sistema è inferiore a quella del solo sensore resta un dato di fatto inconfutabile e continuerà a restarlo finchè le lenti non raggiungeranno risolvenze pari ad almeno un pio di ordini di grandezza superiori a quelle dei sensori (cioè non in questa o nelle prossime due generazioni :D ).
A questo punto, ti faccio una semplice domanda: cosa intendi per "saturazione"?
Raghnar-The coWolf-
19-09-2010, 23:03
no, mi sono limitato a rispondere alla domanda: lenti reflex, siamo al limite? E la risposta è no
Mi fa piacere che dopo 2 pagine si è scoperto che dicevamo la stessa cosa e che tu abbia cambiato idea :asd:
Volevi un quote in cui dicevi il contrario? Lo tiro fuori ora:
...il limite, con le attuali tecnologie, su formato DX, è posto tra i 12 ed i 15 Mpixel. Incrementare ulteriormente la risoluzione, ovvero diminuire le dimensioni dei pixel, porta solo ad un aumento di rumore che limita la nitidezza delle immagini all’aumentare degli iso.
io so di cosa parlo; non sono sicuro che tu lo sappia. La dipendenza delle variabili è già contemplata all'interno della convoluzione
Magari lo fosse... magaaarii...
per tua informazione (pensi che chi ha ideato gli strumenti di misura sia uno sprovveduto?
No, ma ma mi rendo conto che, come tutti, debba addurre delle semplificazioni. Ci sono dipendenze che non puoi convolvere banalmente, ad esempio effetti non lineare nella dispersione asferica, assorbimenti delle schermature, luce parassite...etc...etc... che sono in funzione non solo della frequenza, ma anche dell'intensità e quindi non convolubili perchè appartenenti ad un altro dominio. L'Analisi non si usa più per questo tipo di cosa da almeno un ventennio, ma si usano simulazioni tipo montecarlo...
Dire che 1/r1+1/r2=1/r è l'unica e la sola formula è un tantinello azzardato :asd:
Si tratta di gente del mestiere a cui non credo tu abbia nulla da insegnare
Credi male... :rolleyes:
A questo punto, ti faccio una semplice domanda: cosa intendi per "saturazione"?
Guarda, se in un quasi radoppio dei megapixel vedo "un incremento della forbice fra risoluzione """" teorica """ (data la definizione molto sportiva che dai) e misurata" del 6%" (quotandoti) chiamalo come ti pare, a me sembra che significhi che la risolvenza della lente sia di gran lunga superiore a quella del sensore (proprio per la formuletta che dicevi sopra) e questo con una lente che non è certo appannaggio di pochi superfacoltosi...
E sarà che sono di vocazione struttura nucleare, ma per un 6% in un sistema complesso faccio i salti di gioia :asd:
yossarian
19-09-2010, 23:25
Mi fa piacere che dopo 2 pagine si è scoperto che dicevamo la stessa cosa e che tu abbia cambiato idea :asd:
Volevi un quote in cui dicevi il contrario? Lo tiro fuori ora:
quello che hai linkato non ha nulla a che vedere con il discorso: risolvenza lenti vs risolvenza sensore ma è attinente al discorso Mpixel VS rumore ad alti ISO che è qualcosa che coinvolge solo molto marginalmente le ottiche
Magari lo fosse... magaaarii...
No, ma ma mi rendo conto che, come tutti, debba addurre delle semplificazioni. Ci sono dipendenze che non puoi convolvere banalmente, come effetti non lineare nella dispersione asferica, assorbimenti delle schermature, luce parassite...etc...etc... che sono in funzione non solo della frequenza, ma anche dell'intensità e quindi non convolubili perchè appartenenti ad un altro dominio.
Dire che 1/r1+1/r2=1/r è l'unica e la sola formula è un tantinello azzardato :asd:
questi li quoto insieme perchè la risposta è unica. Ho più volte parlato di frequenza spaziale e non a caso. Parliamo di immagini statiche e non di immagini dipedenti dal tempo. Inoltre, parliamo di esperimento ripetibile nelle stesse identiche condizioni. Le variazioni di intensità luminosa nel tempo e la relativa risposta del singolo pixel sono elementi che non hanno, per altro, nulla a che vedere con il potere risolvente misurato. Può, al limite, essere presente qualche aberrazione che può limitare la risoluzione del sistema, ma questo rientra tra i limiti dell'ottica utilizzata in particolare e tra quelli di quella specifica ottica con quel particolare sensore, ma la ripetitività dell'esperimento fa si che qualunque tipo di leggera fluttuazione nella risposta sia normalizzata.
Ripeto, si tratta di immagini statiche di cui viene fatto il rilevamento e l'analisi della risoluzione spaziale. Di fatto, niente di fantascientifico; non si tratta di fare l'analisi del progetto di un'ottica ma del risultato ottenibile con quell'ottica.
Guarda, se in un quasi radoppio dei megapixel vedo "un incremento della forbice fra risoluzione """" teorica """ (data la definizione molto sportiva che dai) e misurata" del 6%" (quotandoti) chiamalo come ti pare, a me sembra che significhi che la risolvenza della lente sia di gran lunga superiore a quella del sensore (proprio per la formuletta che dicevi sopra) e questo con una lente che non è certo appannaggio di pochi superfacoltosi...
E sarà che sono di vocazione struttura nucleare, ma per un 6% in un sistema complesso faccio i salti di gioia :asd:
a parte il fatto che l'incremento della forbice è ben superiore al 6%, a prescindere dal fatto che "risoluzione teorica" è un termine tutt'altro che sportivo e ben più rigoroso dell'uso fatto di "saturazione", io sono di vocazione elettronica e se devo progettare un chip che, a fronte del raddoppio delle unità di calcolo, della banda passante e, magari, ad un incremento della frequenza, mi produce un 6% in più di prestazioni, inizio a pensare seriamente a cambiare mestiere :D
Mercuri0
20-09-2010, 17:09
non so tu a quali modelli faccia riferimento; però, all'atto pratico, esiste una densità massima al di sopra della quale le prestazioni degradano e, di conseguenza, l'aumento di risoluzione ottenibile non va di pari passo con quello che si potrebbe ottenere in teoria (pur con tutti i limiti di cui si è parlato per 15 pagine) http://www.luminous-landscape.com/tutorials/resolution.shtml. Nessuno ti impedisce di aumentare la densità, purchè entri nell'ordine di idee che, prima o poi, ti ritroverai a combattere con la diffrazione anche a f/2 :D
In questi termini concordo, prima mi sembrava avevi accennato a degli effetti diversi da quelli elettronici per cui aumentare la densità diventerebbe dannoso (mentre alla peggio, da questo punto di vista, può essere ininfluente)
I modelli a cui faccio riferimento sono i soliti dei libri che ho nel cassetto in lab, per lo più editi dallo SPIE (http://spie.org/)
di grazia, come fa il centro del disco di airy a cadere sull'intersezione tra pixel? A cosa servono le microlenti? :mbe:
Visto che non hai insistito sull'argomento e che la mia curiosità me la sono tolta, oltre non proseguo :)
Mercuri0
20-09-2010, 17:19
raga ancora su sto thread di 2.5 anni fa? :D
il tempo ha mostrato la verità, sensori da 18mp su aps-c che risolvono di più anche su lenti morbide
esempio canon 50f1.4:
provato su 350D nitido anche se non al max
provato su 50D morbido... tutti a dire che era al limite :mbe:
provato su 7D nitido... :stordita:
questo perchè la differenza la fa i filtri del sensore mentre la lente ha la sua morbidezza che applica a tutti i sensori
infatti se facciamo lo stesso test con un 70-200f4 scommetto di ottenere gli stessi risultati ma con un filo di dettaglio in più in tutti e tre i casi
inzia invece ad avvicinarsi la diffrazione... a f8 con la 7D già siamo oltre, meglio stare sotto per la massima risoluzione, a f5.6 o f6.3
se continua così tra 10 anni dovremo usare solo lenti f2.8 :sofico:
Beh una lente di certo non peggiora se ci attacchi un sensore a maggiore risoluzione. Ma questo penso l'avessi sottointeso, forse stai parlando di guardare il dettaglio al pixel. Ma a quel livello, chissà poi che alchimie ci mettono nel processing.
Il fatto è che mi pàr difficile che le lenti possano approcciare davvero il limite di diffrazione a tutte le aperture.
Ma il discorso mi interessa poco: alle mie foto tutto manca meno che la risoluzione. E dire che mi rendo conto di avere in mano una macchina dalle possibilità impensabili fino a qualche anno fa.
Migliorassero davvero le mie foto con la velocità con cui aumentano i megapixel... :cry:
yossarian
20-09-2010, 19:11
In questi termini concordo, prima mi sembrava avevi accennato a degli effetti diversi da quelli elettronici per cui aumentare la densità diventerebbe dannoso (mentre alla peggio, da questo punto di vista, può essere ininfluente)
in effetti la diffrazione è un fenomeno ottico e non elettronico. Comunque era un discorso a margine di quello principale riguardante la limitazione o meno delle lenti e dei sensori e che era stato originato da considerazioni sul filtro AA, sulla possibilità di eliminarlo aumentando la frequenza di campionamento e, quindi, la risoluzione, ecc.
I modelli a cui faccio riferimento sono i soliti dei libri che ho nel cassetto in lab, per lo più editi dallo SPIE (http://spie.org/)
tecnico di radiologia?
Visto che non hai insistito sull'argomento e che la mia curiosità me la sono tolta, oltre non proseguo :)
le microlenti, soprattutto quelle gapless di ultima generazione, servono proprio a concentrare la radiazione sulla superficie "utile" del pixel, impedendo che la stessa termini negli interstizi tra pixel contigui o sulla porzione non fotosensibile del pixel stesso. Tra l'altro, nei FSI, lo strato di metallizzazioni e gli elementi circuitali sono interposti tra elementi fotosensibili e radiazione incidente, per cui, in assenza di lenti gapless, finire negli interstizi significa colpire proprio quelle aree. http://www.appuntidigitali.it/7427/tipologie-di-sensori-digitali-introduzione-a-ccd-e-cmos/
Mercuri0
20-09-2010, 19:31
tecnico di radiologia?
[rimosso per sfuggire all'occhio di google]
yossarian
20-09-2010, 19:36
nuh. progettista elettronico per sistemi elettro-ottici militari.
quindi anche sistemi di puntamento, teleguida laser per missili e "radar" di tipo sperimentale?
Mercuri0
20-09-2010, 19:45
[rimosso per motivo vedi sopra]
Magari capiterà ci si incontra di persona.
edit: e se non di lavoro si chiacchera di image sampling che in 20 pagine qualcuna pure tu l'hai sparata senza puntamento laser.
[rimosso per motivo vedi sopra]
yossarian
20-09-2010, 20:05
hai ragione; considerato che è in Italia, fornire qualche informazione in più equivale a fare il nome dell'azienda :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.