Torna indietro   Hardware Upgrade Forum > Fotografia digitale > Mondo Reflex

Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
Apple MacBook Air M3: chi deve davvero comprarlo? La recensione
A distanza di circa 8 mesi arriva l’importante aggiornamento dei MacBook Air: nessun cambiamento estetico, ma una revisione hardware interna con l’upgrade al processore M3. Le prestazioni migliorano rispetto alle generazioni precedenti, e questo fa sorgere una domanda spontanea: a chi è rivolto oggi questo laptop? Cerchiamo di capirlo nella nostra recensione 
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono
Da ASUS un monitor particolare ma molto completo: principalmente indirizzato al videogiocatore, può essere sfruttato con efficacia anche per attività creative e di produzione multimediale
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza
Il nuovo robot aspirapolvere domestico di Dreame abbina funzionalità complete a un moccio flottante che raggiunge al meglio gli angoli delle pareti. Un prodotto tutto in uno semplice da utilizzare ma molto efficace, in grado di rispondere al meglio alle necessità di pulizia della casa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 05-01-2012, 18:43   #61
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Quello k20d/k7 era un esempio per dire due sensori (CMOS) a prima vista e dalle caratteristiche note esattamente identici, ma che all'atto pratico non lo sono: visto che il primo ha 2 canali di lettura, mentre il secondo è la versione a 4 canali (per sostenere ovviamente il transfer-rate del video). Per un caso fortuito torna proprio come d200/d80 (CCD). Il discorso che facevo è ovviamente: se cambiano così profondamente il sensore (ok non lo riprogettano da zero, ma c'è comunque un bel cambiamento!), come facciamo noi a sapere che non abbiano cambiato altro di più semplice (come le microlenti) o che semplicemente la geometria non vari troppo per poter mantenere le stesse considerazioni come fosse un unico caso di sensore. Io là non c'ero e i progetti non li daranno di pubblico dominio certo! Quindi altro non posso fare che constatare alcune eccezioni fuori dalla regola che vale: cioè la maggior parte delle fotocamere che SEMBRA adottino lo stesso sensore danno comunque misurazione uguale o molto vicina.
Li esempi li ho già fatti, ma ricapitolando: sembrano accomunate D50/D70/40, 1Dmk2/1Dmk2N, D40X/D60/D80, 50D/500D, D300/D90/D300s, 20D/350D, 1000D/400D; restano lontane d80/d200, 20D/30D, 400D/40D e 550D/7D.
su k7 e k20d non mi sono pronunciato, perchè non conosco gli "articoli". Su d200 e d80 si perchè ho qualcosa in più di qualche semplice misurazione. In ogni caso, cambiare le microlenti non è affatto semplice. Parliamo di un sistema estremamente complesso basato su equilibri a volte veramente precari e che richiedono parecchi studi e sperimentazioni e tanti investimenti. Questo significa che, una volta trovata una cosa che funziona, si cerca di farla durare il più a lungo per ammortizzare le spese e per evitare di dover iniziare di nuovo tutto da capo senza alcun motivo. Sui sensori dello stesso tipo, qualora varino leggermente le geometrie complessive, la variazione viene ammortizzata dai pixel della cornice che non sono usati per la cattura della luce ma per altre funzioni (in ogni sensore è differente il numero di pixel totali da quello di pixel utilizzati come superficie di cattura).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Scusa non avevo capito, adesso che ti sei rispiegato mi sembra più chiaro. In pratica dici se 30D e 20D hanno lo stesso sensore ma diverse microlenti deve avere SNR più alto la 30D; lo stesso vale per gli altri casi discordi che ho enumerato. Allora ho provato a dare un occhio all'SNR 18% su screen ovviamente, e premesso che i punti al variare dell'ISO spesso sono spostati abbastanza da vanificare i confronti e che trovo difficoltoso distinguere differenze inferiori a 0,5 Db (l'assumo come sensibilità minima), questo è quello che ho rilevato nei confronti (le coppie sono in ordine di previsione: "/" indica prima quella che perde più nel grafico, "-" quelle uguali):

7D/550D circa 1 Db peggio la 7D ma ad alti ISO uguali (la 550D risulta uguale alla 500D )
500D-50D uguali
400D/40D quasi uguali no (forse 0,5 Db peggio la 400D che però è uguale alla 1000D )
20D/30D uguali no (e praticamente identiche alla 350D che perde solo ad alti ISO forse quasi 0,5 Db)
D300s/-D90-/D300 sotto di 0,5 Db o appena più la D300 rispetto alla D300s (sopra alla D300 di 1,5 Db o più la D90 no)
D60-D40X-/D80 peggio di meno di 1 Db la D60 rispetto alla D40X ma la D80 praticamente uguale alla D60 (si stacca peggiorando ad altissimi ISO) fa peggio di 1 Db della D40X.
D80/D200 peggio di più di 0,5 Db la D80 della D200
D50-D70-D40 uguali (D70 cala di 0,5 Db ad altissimi ISO)

Ora io non so quanti fenomeni hardware o semplicemente correzioni software possano incidere (E QUANTO!) su quel dato di SNR 18% al variare dell'ISO: ci sono alcuni casi in cui prevede correttamente , altri no, in molti casi sembra si contraddica, ma sopratutto non è mai coerente con le differenze previste né da me, né da te, quando ci sono quindi non riesce nemmeno a smentire il grafico (nei dice addirittura cose imprevedibili). Gli scostamenti fra coppie insolite del grafico in ogni caso non sono mai superiori al 1/4 di stop (d80/d200) e 1 Db di SNR 18% affermano che corrisponde a un terzo di stop, quindi tira un po' le somme con gli ordini di grandezza. Ma ritorniamo a questo che sappiamo entrambi:

Quindi cosa concludiamo guardando l'SNR?
che non sono attendibili, ma questo io già lo sapevo. Per questo motivo ho sollevato questa obiezione. Il fatto è che non è possibile etrapolare il risultato di un benchmark senza contestualizzarlo. In particolare, i test sintstici sono utili solo a capire eventuali difetti, limiti o problemi. Ad esempio, il test sul SNR di dxomak, fatto sui raw prima dell'operazione di demosaicing, ha solo l'utilità di far vedere chi si comporta meglio prima di quell'operazione, ma non ti dà informazioni sul fatto che uno potrebbe applicare un filtro prima del demosaicing, mentre un altro lo fa dopo. In questo modo, i risultati sono falsati, perchè, magari, dove secondo dxomark ci sono 2 stop, magari, sull'immagine definitiva ce n'è uno solo o anocra di meno o, magari, di più. E' come il driver del chip grafico che fa application detect e, con quel particolare benchmark disabilita gli effetti grafici più pesanti, indipendentemente dalle impostazioni dategli, per far segnare punteggi più elevati.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Per chiudere il piacevole confronto, non so cos'altro si possa dire se non che il fenomeno è previsto, per le considerazioni sulle misure di DxO sarebbe bello avere dei dati più precisi su questo concordo.
il fenomeno esiste perchè è fisiologico che ci sia, il problema non è legato alla presenza delle microlenti e della loro limitata apertura numerica (senza le cose sarebbero decisamente peggiori) ma, semmai, alle operazioni di scaling delle dimensioni dei pixel. Le microlenti, gapless, doppio strato, con guida d'onda, con estensione della superficie fotoassorbente al di sotto della barriera sono delle soluzioni non perfette ma, al momento soddisfacenti fino a determinate dimensioni dei pixel. Altre soluzioni, come lenti telecentriche, tranne nel caso del formato 4/3 le vedo impraticabili. Tutti gli articoli parlano dei problemi connessi alle operazioni di pixel scaling e il tenore è del tipo: attenzione, se si scende al di sotto di certi valori, bisogna adottare soluzioni differenti o integrare le attuali che rischiano di non essere più sufficienti. D'altra parte, non sono certo io a negare i problemi connessi con le operazioni di scaling dei pixel, di cui questo è solo uno. Al contrario di alcuni recensori online o di riviste cartacee, anche importanti (mi vengono in mente quelle del gruppo di cui fa parte progresso fotografico), che stanno portando, da qualche tempo, avanti la tesi secondo cui non sono importanti le dimensioni dei pixel ma quelle del sensore, per cui sensori delle stesse dimensioni, con pixel count differente, si comportano allo stesso modo, io sono tra quelli che sostengono la tesi che le dimensioni dei pixel contano e che per ottenere le stesse prestazioni di sensori con pixel più grandi si devono, a volte, fare miracoli (e non sempre bastano)

Ultima modifica di yossarian : 05-01-2012 alle 20:52.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 08-01-2012, 17:36   #62
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Sulla pellicola, i grani sono dispersi e non c'è confinamento in profondità, però la superficie fotosensibile è discreta. In una pellicola, mediamente, ci sono da 12 a 20 (in alcuni casi qualcuno in più) strati sovrapposti di diversa natura e come ultimo strato un antiriflettente.
Ma non parliamo due lingue diverse, vero?? A me non pare sia una superficie discreta! Nella pellicola non B&N possono esserci quanti strati vuoi IN PROFONDITA', ma questo non vuol dire superficie sensibile discretizzata a casa mia e mi sembra evidente per quanto ho già detto sulla disposizione dei grani. Quindi i 2 fenomeni di cui abbiamo parlato finora che interessano il pixel, non intervengono. Che poi ci siano più strati sensibilizzati diversamente benissimo, ma è ovvio che saranno TRASPARENTI nello spettro complementare (utilizzano la sintesi sottrativa), quindi in prima approssimazione si comportano ognuno distintamente come assorbitore (praticamente totale nella propria banda e trasparente nel complementare, se il sistema ha funzionato ed è stato affinato tirando avanti per più di mezzo secolo!) in una delle tre regioni di spettro visibile per cui sono sensibilizzati.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
ossia quando i raggi non colpisconmo materiale fotoassorbente, perdita di informazione, ovvero light fall off, esattamente come avviene nei sensori digitali.
Quindi no: colpiscono SEMPRE materiale fotoassorbente DIVERSAMENTE dai pixel dei sensori digitali (se pure al limite infinitesimale così non fosse, non importa in approssimazione è sicuramente su un ordine di grandezza completamente differente dalla situazione dei pixel sul sensore).
Che gli strati siano in successione ed estesi (ed entrambi non sono lasciati al caso ma sicuramente correlati alle caratteristiche degli strati e alla penetrazione della radiazione) e vi possano essere fenomeni di diffusione, non toglie comunque che una lente per quanto corretta ha comunque una profondità di fuoco diversa al variariare della lunghezza d'onda. Anche all'inverso su un elemento sensibile poco esteso come profondità ciò darebbe problemi, ma come al solito una cosa è citare un fenomeno, tutt'altro è vedere l'ordine di grandezza dello stesso (ricordiamo per non perderci di vista nei ragionamenti che stiamo parlando di un 20um circa di spessore totale per una generica pellicola). E' inutile quindi spingersi a cercare il pelo nell'uovo per la pellicola, quando invece in un sensore l'area fotosensibile è MACROSCOPICAMENTE ridotta rispetto all'area del pixel (si parla di fill-factor di decine di percento non a caso); considerala se preferisci semplicemente una questione di ordine di grandezza.
Lo so che fai l'analogia col crosstalk, ma nel pixel del sensore come hai fatto notare è un problema di luce non perfettamente concentrata dalla microlente o che viene riflessa da altre parti della struttura a valle del CFA, mentre in un "sistema omogeneo" (senza CFA tra l'altro) come la pellicola (che non ha zone fotosensibili distinte: i pixel) ha poco senso definirlo tale: perciò ti ho parlato di diffusione che sarà tanto ridotta quanto più è assorbitore il mezzo (e occhio a dare per scontato che faccia meglio il silicio).
In ogni caso questo fenomeno (per me su pellicola data l'assenza di pixel è diffusione, ma te chiamalo pure crosstalk) siamo d'accordo che non influisce comunque su eventuali "cadute" di esposizione, quindi ripeto la pellicola continua a subire solo la vignettatura fisiologica dell'obiettivo e non altri fenomeni di perdita di trasmissione dovuti alla geometria dei pixel.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Tu parti dal principio che un raggio luminmoso che entri iin diagonale attraverso una microlente non colpisca un elemento fotosensibile. In realtà le cose non stanno affatto così, a meno che quel raggio non finisca sulla parte superficiale occupata dagli elementi circuitali preposti a funzioni differenti dalla cattura della luce. Ma questo vale solo per i cmos di tipo FSI
Scusa ma se non ci riferiamo ai CMOS FSI a quali ci riferiamo dato che sulle fotocamere a lenti intercambiabili attuali ci sono questi? Quando ci saranno i BSI (o il sensore organico di fuji che taglia la testa al toro ed elimina le microlenti) vedremo se cambieranno le misure o i produttori elimineranno la correzione "nascosta" di sensibilità ad ampie aperture!
Quote:
Originariamente inviato da yossarian Guarda i messaggi
i fotoni che entrano in dagonale e non colpisocono i circuiti superficiali, rimbalzano sulle pareti del tunnel, esattamente come in una fibra ottica, fino ad arrivare al fotodiodo CORRETTO.
Sì stavolta QUESTA è una guida d'onda, sono perfettamente d'accordo!

Quote:
Originariamente inviato da yossarian Guarda i messaggi
questo passo, tratto testualmente dall'articolo in questione, nel punto in grassetto parla proprio del fenomeno del crosstalk ottico, ovvero fotoni che attraversano il substrato in diagonale, raggiungendo il "pavimento", ossia il fondo, dove si trova il fotodiodo, di un pixel adiacente.
Sicuramente anche questo è crosstalk, però in tal caso avviene per i pixel ai margini (off-axis) come conseguenza del non avere decentrato le microlenti, perciò mi pareva fossimo d'accordo (così come lo definisce al termine della citazione riportata) nel chiamare questo fenomeno di cui abbiamo parlato finora "pixel vignetting"; sono d'accordo sul fatto che se il fascio non illumina un pixel marginale, in secondo luogo, la sua microlente lo andrà a focalizzare in parte su quello a fianco se non si provvede a decentrarla (o a realizzare obiettivi più telecentrici).

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Per questo motivo ho detto che le microlenti gapless vanno in controtendenza, perchè abbracciano anche lo spazio vuoto tra pixel, per cercare di indirizzare anche quella radiazione verso la superficie fotosensibile. Così facendo, sono meno legate all'andamento delle dimensioni lineari dei pixel (anche perchè con le operazioni di scalig diminuiscono anche le distanze tra pixel ma in misura minore di quanto non facciano le dimensioni stesse dei pixe. In tal modo i rapporti tra dimensioni e distanze reciproche diminuiscono, al fine di ridurre disturbi reciproci di tipo elettronico). Ora, il problema è che, anche se le microlenti sono in grado di fare il loro lavoro, non possono, comunque, riuscire a deviare tutta la radiazione in modo che cada perpendicolarmente.
Proprio quello che sto cercando di dire da un po'... Hai ragione a voler sottolineare che la colpa è la riduzione del pixel e la microlente cerca di starci dietro, forse sembrava che me la prendessi solo con lei, ma constatavo semplicemente che con pixel aventi aree sensibili difficilmente raggiungibili (e ciò peggiora al calare del pixel pitch come da tendenza dei dati di DxO) il problema si acuisce e la microlente fatica sempre più a stare dietro alle richieste di apertura del sistema ottico a monte.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
per le reflex full frame transfer, mentre per immagini in movimento si usavano gli interline transfer. Ecco perchè le reflex con CCD non fanno video
Deciditi però! Perché una volta te l'avevo fatto notare anche io che nessuna reflex con CCD supportava il liveview (e avevo ipotizzato full-frame-transfer) e subito mi avevi corretto dicendo che comunque erano tutte interline, sottolineando il fatto che la d200 aveva proprio i 4 canali per l'elevato transfer-rate richiesto dalla raffica. Ora compito a casa visto che li hai, vai a vedere e ci dicci cos'è (o meglio ancora metti qualcosa ) una volta per tutte!


Quote:
Originariamente inviato da yossarian Guarda i messaggi
Questo significa che, una volta trovata una cosa che funziona, si cerca di farla durare il più a lungo per ammortizzare le spese e per evitare di dover iniziare di nuovo tutto da capo senza alcun motivo.
Va bene, ma tra la 20D e la 30D c'è una generazione (cosa sono 18 mesi?) vuoi che in un tal lasso di tempo si siedano sugli allori e non cambino proprio nulla..

Per tutto quello dopo siamo d'accordo (ho apprezzato che hai voluto precisare sui 3T/4T/ecc. ) e fortuna che non ci siamo messi ad allargare il discorso alla trattazione dei dati raw o peggio ancora alla diffrazione!

Ultima modifica di Chelidon : 08-01-2012 alle 17:39.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 08-01-2012, 19:12   #63
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Ma non parliamo due lingue diverse, vero?? A me non pare sia una superficie discreta! Nella pellicola non B&N possono esserci quanti strati vuoi IN PROFONDITA', ma questo non vuol dire superficie sensibile discretizzata a casa mia e mi sembra evidente per quanto ho già detto sulla disposizione dei grani. Quindi i 2 fenomeni di cui abbiamo parlato finora che interessano il pixel, non intervengono. Che poi ci siano più strati sensibilizzati diversamente benissimo, ma è ovvio che saranno TRASPARENTI nello spettro complementare (utilizzano la sintesi sottrativa), quindi in prima approssimazione si comportano ognuno distintamente come assorbitore (praticamente totale nella propria banda e trasparente nel complementare, se il sistema ha funzionato ed è stato affinato tirando avanti per più di mezzo secolo!) in una delle tre regioni di spettro visibile per cui sono sensibilizzati.
il singolo strato della pellicola ha meteriale fotoassorbente discreto. Un grano è l'equivalente di un'area individuale, confinata da materiale non fotoassorbente, "un'isola fotoassorbente in un mare non fotoassorbente". E il principio che si applica alla progettazione delle pellicole è lo stesso di quello utilizzato per i sensori, con la differenza che non puoi amplificare il segnale. Pellicola fatte per scattare con buone ocndizione di luce hanno grani molto più piccoli e in numero maggiore, pellicole fatte scattare con poca luce hanno grani più grandi e meno numerosi, basanndosi sul principio universalmente valido che un fotorecettore più grande ha maggiore probabilità di catturare fotoni anche quando il numero di questi che cade sulla superficie è basso. In ognmi caso, sempre di insieme finito di punti si tratta, ovvero di insieme discreto. http://finearts.fontbonne.edu/tech/p.../film_gen.html. Ti risparmio i dettagli sulla reazione chimica tra, ad esempio, AgBr e fotone incidente

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Quindi no: colpiscono SEMPRE materiale fotoassorbente DIVERSAMENTE dai pixel dei sensori digitali (se pure al limite infinitesimale così non fosse, non importa in approssimazione è sicuramente su un ordine di grandezza completamente differente dalla situazione dei pixel sul sensore).
Che gli strati siano in successione ed estesi (ed entrambi non sono lasciati al caso ma sicuramente correlati alle caratteristiche degli strati e alla penetrazione della radiazione) e vi possano essere fenomeni di diffusione, non toglie comunque che una lente per quanto corretta ha comunque una profondità di fuoco diversa al variariare della lunghezza d'onda. Anche all'inverso su un elemento sensibile poco esteso come profondità ciò darebbe problemi, ma come al solito una cosa è citare un fenomeno, tutt'altro è vedere l'ordine di grandezza dello stesso (ricordiamo per non perderci di vista nei ragionamenti che stiamo parlando di un 20um circa di spessore totale per una generica pellicola). E' inutile quindi spingersi a cercare il pelo nell'uovo per la pellicola, quando invece in un sensore l'area fotosensibile è MACROSCOPICAMENTE ridotta rispetto all'area del pixel (si parla di fill-factor di decine di percento non a caso); considerala se preferisci semplicemente una questione di ordine di grandezza.
quello che ho detto e ribadisco è che si tratta di un fenomeno presente anche sulla pellicola anche se su quest'utlima è meno visibile per tutta una serie di motivi (tra cui quello che non possibile quantificarlo in quanto non è misurabile). Inoltre, la disposizione casuale dei grani all'interno dei singoli strati non garantisce l'immunità totale dal fenomeno neppure sui raggi che si propagano con angoli ottimali. Il fatto che la pellicola sia meno soggetta a questo fenomeno non significa che ne sia esente.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Lo so che fai l'analogia col crosstalk, ma nel pixel del sensore come hai fatto notare è un problema di luce non perfettamente concentrata dalla microlente o che viene riflessa da altre parti della struttura a valle del CFA, mentre in un "sistema omogeneo" (senza CFA tra l'altro) come la pellicola (che non ha zone fotosensibili distinte: i pixel) ha poco senso definirlo tale: perciò ti ho parlato di diffusione che sarà tanto ridotta quanto più è assorbitore il mezzo (e occhio a dare per scontato che faccia meglio il silicio).
ribadisco il concetto: la pellicola è suddivisibile in zone fotosensibili e zone non fotosensibili e l'equivalente dei pixel sono i grani di sali d'argento.
Questo è uno dei tanti link dove puoi vedere il variera delle dimensioni dei grani delle pellicole al variare della sensibilità. Non noti una certa similitudine con i pixel? Ovviamente quell'immagine rende solo l'idea delle dimensioni, perchè, a dfferenza dei sensori digitali, dove il reticolo è simmetrico, la disposizione dei sali d'argento all'interno di uno strato è di tipo random (simile a quella mostrata nell'altro link), quindi puoi avere addensamenti ini alcune zone e spazi vuoti relativamente ampi in altre. Quello che resta costante è il numero medio di grani per frame per quella determinata pellicola.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
In ogni caso questo fenomeno (per me su pellicola data l'assenza di pixel è diffusione, ma te chiamalo pure crosstalk) siamo d'accordo che non influisce comunque su eventuali "cadute" di esposizione, quindi ripeto la pellicola continua a subire solo la vignettatura fisiologica dell'obiettivo e non altri fenomeni di perdita di trasmissione dovuti alla geometria dei pixel.
vale quanto detto sopra e aggiungo un'altra elemento di cui la letteratura tende a tacere ma che non fa che rafforzare il parallelismo tra pellicola e sensori digitali, ovvero la presenza di fenomeni di aliasing, ossia di interferenze tra segnali di fotorecettori vicini, presenti anche in pellicola e solo meno visibili per quanto detto in un precedente post a proposito della sensibilità dell'occhio umano verso disturbi disposti su reticoli di tipo simmetrico o meno.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Scusa ma se non ci riferiamo ai CMOS FSI a quali ci riferiamo dato che sulle fotocamere a lenti intercambiabili attuali ci sono questi? Quando ci saranno i BSI (o il sensore organico di fuji che taglia la testa al toro ed elimina le microlenti) vedremo se cambieranno le misure o i produttori elimineranno la correzione "nascosta" di sensibilità ad ampie aperture!
Sì stavolta QUESTA è una guida d'onda, sono perfettamente d'accordo!
fino a qualche anno fa, a parte le canon, tutte le fotocamere ad ottica intercambiabile facevano uso di CCD FF transfer. Oggi, la stragrande maggrioranza delle medio formato, ottica intercambiabile, fa uso di ccd FF transfer, la maggior parte delle leica, anche FF, idem. Se passiamo al cinema, molte cineprese fanno uso di sensori di tipo ccd (ad esempio le sony f35 e f23, ma anche altre della serie cinealta). Le sigma usano sensori foveon x3 (cmos ma non a matrice bayer e privi di filtro AA). NOn esistono solo i cmos fsi di tipo bayer trattati negli articoli citati, mi pare. Invece quello che è stato fatto è prendere una serie di test, per altro opinabili, di dxomark, fatti su sensori con tecnologie differenti, metterli a sistema con due articoli che trattano i problemi connessi alle operazioni di scaling dei sensori cmos FSI (quindi una sola tipologia) e arrivare alla conclusione (sbagliata) che le microlenti sono la causa del problema)

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Sicuramente anche questo è crosstalk, però in tal caso avviene per i pixel ai margini (off-axis) come conseguenza del non avere decentrato le microlenti, perciò mi pareva fossimo d'accordo (così come lo definisce al termine della citazione riportata) nel chiamare questo fenomeno di cui abbiamo parlato finora "pixel vignetting"; sono d'accordo sul fatto che se il fascio non illumina un pixel marginale, in secondo luogo, la sua microlente lo andrà a focalizzare in parte su quello a fianco se non si provvede a decentrarla (o a realizzare obiettivi più telecentrici).
il pixel vignetting ed il pixel optical crosstalk sono due fenomeni differenti dovuti al non corretto allinemento dei raggi incidenti con l'asse della microlente. Il primo provoca il light fall off vero e proprio che è dovuto a quei raggi che non arrivano al fotodiodo perchè finiscono nello spazio tra pixel contigui o sull'area occupata dai circuiti preposti ad altre funzioni e non fotosensibili, presenti in prossimità della superficie nei cmos FSI. Il secondo, invece, riguarda quei raggi che superano queste barriere, arrivano al tunnel di quello specifico fotodiodo, ma con un angolo tale per cui non finiscono su quel fotodiodo ma su quello di un pixel vicino. Questo secondo fenomeno è la causa di uno dei tipi di rumore presenti ed evidenti, soprattutto con basse luci. Dai due articoli che hai citato, viene fuori che, allo stato attuale, il secondo costituisce un problema maggiore rispetto al primo e che indirizzare la luce verso il "tunnel" non è più sufficiente, ma che questa va guidata anche all'interno del tunnel. Ovviamente, entrambi i fenomeni èpossono verificarsi in qualunque punto del sensore (non esiste solo l'ottica geometrica, ma ci sono altre cause che provocano la deviazione dei raggi dalla loro corretta traiettoria), ma sono, per ovvie ragioni (geometrie, in questo caso), più probabili e frequenti nelle zone periferiche della superficie del pixel

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Proprio quello che sto cercando di dire da un po'... Hai ragione a voler sottolineare che la colpa è la riduzione del pixel e la microlente cerca di starci dietro, forse sembrava che me la prendessi solo con lei, ma constatavo semplicemente che con pixel aventi aree sensibili difficilmente raggiungibili (e ciò peggiora al calare del pixel pitch come da tendenza dei dati di DxO) il problema si acuisce e la microlente fatica sempre più a stare dietro alle richieste di apertura del sistema ottico a monte.
la questione non è prendersela solo con la microlente o meno. La microlente non è responsabile del fenomeno; il problema è solo e soltanto connesso alle operazioni di scaling delle dimensioni dei pixel. Lo stesso articolo che hai più volte citato, parla esplicitamente di probemi connessi alle operazioni di scaling geometrico de pixel, di cui quello dell'indirizzamento della luce sul fotodiodo è solo uno. Si potrebbe anche titolare "quello che si può fare per bilanciare i danni provocati dalla continua rincorsa ai Mpixel" , che è quello che chi progetta l'elettronica e l'ottica delle macchine fotografica si trova a dover fare tutti i giorni.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Deciditi però! Perché una volta te l'avevo fatto notare anche io che nessuna reflex con CCD supportava il liveview (e avevo ipotizzato full-frame-transfer) e subito mi avevi corretto dicendo che comunque erano tutte interline, sottolineando il fatto che la d200 aveva proprio i 4 canali per l'elevato transfer-rate richiesto dalla raffica. Ora compito a casa visto che li hai, vai a vedere e ci dicci cos'è (o meglio ancora metti qualcosa ) una volta per tutte!
non mi risulta di aver mai detto che la d200 ha un ccd interleave transfer e se lo avessi fatto avrei detto una cazzata. Una raffica da 5 foto al secondo su un sensore da 10 Mpixel di tipo aps-c non è così elevata da giustificare l'adozione di un sensore di tipo non FF transfer. Il live view non c'entra niente con la tipologia di sensore. Posso averlo con ccd o cmos indifferentemente. Il problema del live view è il sistema di AF utlizzato, semmai, che non ha nulla a che vedere con il tipo di sensore.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Va bene, ma tra la 20D e la 30D c'è una generazione (cosa sono 18 mesi?) vuoi che in un tal lasso di tempo si siedano sugli allori e non cambino proprio nulla..
per rimanere in casa canon, il modulo AF della 20d e della 30d è lo stesso che trovi oggi sulla 600d, con il punto centrale a doppia croce e gli altri 8 lineari (mentre sulla serie semipro, dalla 40d in poi, è stato migliorato, tenendo il centrale a doppia croce ma con gli altri 8 a croce)

Ultima modifica di yossarian : 09-01-2012 alle 01:19.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 09-01-2012, 20:14   #64
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
il singolo strato della pellicola ha meteriale fotoassorbente discreto. Un grano è l'equivalente di un'area individuale, confinata da materiale non fotoassorbente, "un'isola fotoassorbente in un mare non fotoassorbente".
No! Non sono isole, piuttosto fitte mine di profondità! NON E' IL SINGOLO GRANO l'unità spaziale interessata dall'assorbimento: è la PORZIONE DI STRATO in cui sono dispersi più grani sovrapposti rispetto alla superficie (non stiamo facendo geometria elementare e non sono punti infinitesimi su un piano ), quindi dal punto di vista della radiazione, il mezzo, cioè lo strato spesso in cui sono dispersi più grani sovrapposti, è STATISTICAMENTE OMOGENEO e perciò completamente (e uniformemente per ogni zona presa sopra la superficie) assorbente; questo anche se dal punto di vista dell'immagine la dimensione del grano influirà sicuramente sul campionamento spaziale (e inversamente sulla cinetica di reazione: vedi quanto hai detto sulla sensibilità).
Quote:
Originariamente inviato da yossarian Guarda i messaggi
ribadisco il concetto: la pellicola è suddivisibile in zone fotosensibili e zone non fotosensibili e l'equivalente dei pixel sono i grani di sali d'argento.
Quelle che tu chiami zone fotosensibili e non fotosensibili (a parte che una cosa è un mezzo praticamente trasparente in cui è disperso un materiale sensibile e tutt'altro i materiali non fotosensibili che circondano o coprono la zona attiva di un fotorecettore a stato solido) nella pellicola costituiscono una DISPERSIONE OMOGENEA e quindi dal punto di vista della radiazione che la attraversa è come avere un unico mezzo con assorbimento intermedio (anche la nebbia è una dispersione ma non ci vedi buchi attraverso e ti sembra continua e uniforme). Non è come per i pixel di un sensore che hanno le parti fotosensibili disposte planarmente e PERIODICAMENTE separate da parti che non contribuiscono a comporre l'immagine. Solo per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola (qui è inutile tirar fuori la banale chimica dei sali di argento quanto piuttosto capire cosa è una dispersione in chimica e che dal punto di vista della superficie non ci sono "buchi" dato che un vuoto in una zona può essere coperto da un pieno sottostante e viceversa).
Comunque, pazienza, se non sei convinto, la chiacchierata l'abbiamo fatta ed è inutile che ripeta ancora queste cose..

Quote:
Originariamente inviato da yossarian Guarda i messaggi
il pixel vignetting ed il pixel optical crosstalk sono due fenomeni differenti
Guarda capisco benissimo il tuo discorso, però non capisco di contro cosa interessi a noi di fare considerazioni su fenomeni che incrementano il rumore, visto che l'argomento in topic riguarda una caduta di esposizione e l'abbiamo già allargato abbastanza.. Non che non sia piacevole andare a spulciare tutto aggiungendo il crosstalk e le guide nel pixel, ma mi preoccupa visto quanto stiamo scrivendo.. Anzi, direi che sull'argomento principale le conclusioni le abbiamo già tratte e da parte mia direi che basta.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
La microlente non è responsabile del fenomeno; il problema è solo e soltanto connesso alle operazioni di scaling delle dimensioni dei pixel.
Infatti speravo di aver chiarito che non ho mai detto che sia la causa del fenomeno, altrimenti non avrei sottolineato più volte il fatto che la superfice fotosensibile dei sensori attuali non coincide interamente col pixel (più o meno a seconda delle tecnologie, ma sempre sostanzialmente inferiore) e ciò lo definiscono col fill-factor. E proprio per questo motivo servono le microlenti (tecnologia che abbiamo detto viene affinata con le generazioni negli anni) che però risulta pure ABBIANO LIMITI a convogliare i raggi più inclinati sull'area sensibile del pixel (quindi da una parte vengono affinate dall'altra il pixel pitch riducendosi peggiora il tutto con gli FSI).
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Lo stesso articolo che hai più volte citato, parla esplicitamente di probemi connessi alle operazioni di scaling geometrico de pixel
Infatti ne abbiamo parlato perché era concorde con la tendenza dei dati di DxO al ridursi del pixel pitch.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Si potrebbe anche titolare "quello che si può fare per bilanciare i danni provocati dalla continua rincorsa ai Mpixel" , che è quello che chi progetta l'elettronica e l'ottica delle macchine fotografica si trova a dover fare tutti i giorni.
Appunto di questo abbiamo fin qui parlato, penso, e ormai mi sembra lapalissiano visto che ne abbiamo già discusso ampiamente.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
non mi risulta di aver mai detto che la d200 ha un ccd interleave transfer e se lo avessi fatto avrei detto una cazzata. Una raffica da 5 foto al secondo su un sensore da 10 Mpixel di tipo aps-c non è così elevata da giustificare l'adozione di un sensore di tipo non FF transfer. Il live view non c'entra niente con la tipologia di sensore.
Allora era stata un'ipotesi basata sulle richieste di lettura veloce del liveview e che mi sembrò sensata per i CCD delle reflex ovviamente dato che nessuna con questa tecnologia l'aveva mai implementato. Comunque sperando che non finiremo , se t'interessa nello specifico, ti cito quel pezzetto che è vecchio di un anno:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
certo se mi vieni a dire che non sono tutti del tipo interline transfer i CCD che fanno video (su compatte o videocamere) e viceversa per i full-frame transfer sulle reflex allora la mia supposizione risulta parecchio campata per aria!
al contrario, sulle reflex si usano gli interline per avere una raffica più elevata. Con un frame trasfer hai un solo read out channel mentre, ad esempio, la D200 ne ha 4.
Mi era solo rimasto impresso, ma chissene, se hai i dati e puoi confermare che i CCD delle reflex sono basati su tecnologia full-frame-transfer mi fido: se citi qualcosa correggerò quello che credevo di avere imparato da te, tutto qui..
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 09-01-2012, 23:26   #65
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
No! Non sono isole, piuttosto fitte mine di profondità! NON E' IL SINGOLO GRANO l'unità spaziale interessata dall'assorbimento: è la PORZIONE DI STRATO in cui sono dispersi più grani sovrapposti rispetto alla superficie (non stiamo facendo geometria elementare e non sono punti infinitesimi su un piano ), quindi dal punto di vista della radiazione, il mezzo, cioè lo strato spesso in cui sono dispersi più grani sovrapposti, è STATISTICAMENTE OMOGENEO e perciò completamente (e uniformemente per ogni zona presa sopra la superficie) assorbente; questo anche se dal punto di vista dell'immagine la dimensione del grano influirà sicuramente sul campionamento spaziale (e inversamente sulla cinetica di reazione: vedi quanto hai detto sulla sensibilità).
Quelle che tu chiami zone fotosensibili e non fotosensibili (a parte che una cosa è un mezzo praticamente trasparente in cui è disperso un materiale sensibile e tutt'altro i materiali non fotosensibili che circondano o coprono la zona attiva di un fotorecettore a stato solido) nella pellicola costituiscono una DISPERSIONE OMOGENEA e quindi dal punto di vista della radiazione che la attraversa è come avere un unico mezzo con assorbimento intermedio (anche la nebbia è una dispersione ma non ci vedi buchi attraverso e ti sembra continua e uniforme). Non è come per i pixel di un sensore che hanno le parti fotosensibili disposte planarmente e PERIODICAMENTE separate da parti che non contribuiscono a comporre l'immagine. Solo per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola (qui è inutile tirar fuori la banale chimica dei sali di argento quanto piuttosto capire cosa è una dispersione in chimica e che dal punto di vista della superficie non ci sono "buchi" dato che un vuoto in una zona può essere coperto da un pieno sottostante e viceversa).
Comunque, pazienza, se non sei convinto, la chiacchierata l'abbiamo fatta ed è inutile che ripeta ancora queste cose..
1) il problema è quel "può" essere coperto e con una distribuzione random la certezza non l'avrai mai.
2) non è neppure sufficiente che un fotone colpisca un grano e liberi un atomo di Ag perchè si crei l'opacità necessaria ad avere un "punto immagine", poichè questo fenomeno deve ripertersi più volte per avere un numero n (spesso maggiore o uguale a 4) di atomi di Ag per singolo grano; se guardi l'immagine che hai postato, puoi renderti conto che con una distrbuzione casuale, i problemi puoi averli anche con raggi perpendicolari alla superficie del frame (cosa che col digitale non avverrà mai).
3) anche ammesso che un raggio colpisca un grano deve farlo con un angolo tale da penetrare all'interno e non da venire riflesso, cosa che accade molto più spesso di quanto si pensi. Questo perchè i grani non sono fotosensibili ma lo sono i sali d'argento al loro interno.
4) Le curve sensitometriche delle pellicole presentano una parte piatta sia all'inizio (zona di velo) sia alla fine (zona di saturazione) e prima di queste, altre due zone dove la curva cresce ma non con una proporzionalità diretta rispetto alla radiazione incidente. Questo significa che hai una tratta in cui la risposta è praticamente pari a 0 (velo) o, comunque, coperta dall'opacità caratteristica della pellicola. Una (piede) in cui esiste una proporzionalità, ma la risposta non è sufficiente a generare un'immagine; una tratta, quella lineare, in cui si ha creazione dell'immagine e la proporzionalità tra radiazione incidente e atomi di Ag creati è diretta; un'altra in cui la creazione di nuovi atomi aggiunge poco all'immagine latente; infine una in cui si ha saturazione della pellicola con le conseguenze che conosciamo . Al contrario, la risposta dei sensori digitali è, per loro natura, pressochè lineare, il che significa che presentano una sensibilità maggiore alla radiazione incidente, rispetto alla pellicola. Il contro è che hanno poca tolleranza in prossimità della soglia di saturazione, motivo per cui tendono ad avere meno gamma dinamica e a gestire peggio le scene con forte contrasto. Per ovviare a questo incinveniente, si cerca di rendere, artificialmente, la risposta dei sensori, più simile a quella della pellicola con i vari algoritmi di HDR per cui si inventano i nomi più fantasiosi. Questo semplicemente per dire che, anche con la pellicola, non è sufficiente che un raggio colpisca un "grano" fotorecettore ma, ancora più che con i sensori digitali, è necessario che il processo si ripeta più volte.
5) detto ciò, concludo che non sono l'unico che devi convincere del fatto che la luce che colpisce la pellicola viene assorbita per intero e non ci sono dispersioni, ma anche kodak, agfa, ilford, fujifilm e chi per essi, dato che sono soliti mettere, sia nelle pellicole in b/n che in quelle a colori, uno strato di materiale antiriflettente sul fondo della pellicola, proprio per evitare le interferenze dei raggi che, attraversando tutto il materiale fotoassorbente, raggiungono il fondo e tornano indietro.
6) A queste considerazioni, aggiungo il brevetto di un sistema di scansione digitale e relativa maschera per compensare il light fall off di una pellicola fotografica. Isole o bombe, il problema esiste lo stesso e non è l'unico. Come ho già detto, in un sensore digitale, la componente aggiuntiva è quella relativa al pixel vignetting anche se le stesse misure di dxomark, che continuo a mettere in discussione a livello quantitativo ma che, dal punto di vista qualitativo, mettono in evidenza un fenomeno reale, dimostrano che i progressi fatti nella progettazione delle microlenti dei sensori digitali hanno permesso, nel tempo, di ridurre l'incidenza di questo fenomeno, pur diminuendo notevolmente le dimensioni dei pixel.
Concludendo, anch'io sono dell'idea che rimarremo ognuno sulle sue posizioni; comunque mi ha fatto piacere fare questa chiacchierata che reputo interessante e istruttiva

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Guarda capisco benissimo il tuo discorso, però non capisco di contro cosa interessi a noi di fare considerazioni su fenomeni che incrementano il rumore, visto che l'argomento in topic riguarda una caduta di esposizione e l'abbiamo già allargato abbastanza.. Non che non sia piacevole andare a spulciare tutto aggiungendo il crosstalk e le guide nel pixel, ma mi preoccupa visto quanto stiamo scrivendo.. Anzi, direi che sull'argomento principale le conclusioni le abbiamo già tratte e da parte mia direi che basta.
semplicemente perchè il problema illustrato dal link che avete postato riguarda principalmente il crosstalk e i modi per combatterlo.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Infatti speravo di aver chiarito che non ho mai detto che sia la causa del fenomeno, altrimenti non avrei sottolineato più volte il fatto che la superfice fotosensibile dei sensori attuali non coincide interamente col pixel (più o meno a seconda delle tecnologie, ma sempre sostanzialmente inferiore) e ciò lo definiscono col fill-factor. E proprio per questo motivo servono le microlenti (tecnologia che abbiamo detto viene affinata con le generazioni negli anni) che però risulta pure ABBIANO LIMITI a convogliare i raggi più inclinati sull'area sensibile del pixel (quindi da una parte vengono affinate dall'altra il pixel pitch riducendosi peggiora il tutto con gli FSI).
su questo pare abbiamo raggiunto un accordo. Il discorso andrebbe integrato con considerazioni che spaziano anche sugli algoritmi di ricostruzione del segnale, molto più sofisticati e tali da permettere di ottenere, su un sensore di oggi, molto più affollato di uno di uno di qualche anno fa, un'immagine migliore nonostante il SNR per pixel non sia affatto migliorato

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Infatti ne abbiamo parlato perché era concorde con la tendenza dei dati di DxO al ridursi del pixel pitch.
i dati di dxomark sono stati ottenuti con un procedimento molto poco scientifico e porta a conclusioni sballate proprio perchè fa una comparazione tra sensori di tipo diverso, progettati in periodi differennti con tecnologie diverse, Se prendessimo per buone quelle conclusioni, in maniera del tutto acritica e decontestualizzando i singoli risultati, arriveremmo a concludere che ccd con pixel pitch maggiore si comportano peggio di cmos fsi con pixel pitch che è quasi la metà. La mia critica era rivolta anche a questo aspetto.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Allora era stata un'ipotesi basata sulle richieste di lettura veloce del liveview e che mi sembrò sensata per i CCD delle reflex ovviamente dato che nessuna con questa tecnologia l'aveva mai implementato. Comunque sperando che non finiremo , se t'interessa nello specifico, ti cito quel pezzetto che è vecchio di un anno:

Mi era solo rimasto impresso, ma chissene, se hai i dati e puoi confermare che i CCD delle reflex sono basati su tecnologia full-frame-transfer mi fido: se citi qualcosa correggerò quello che credevo di avere imparato da te, tutto qui..
hai ragione; ho riguardato il data sheet del sensore della d200 ed è un interleaved data transfer con alternate righe di elementi fotosensibili e registri e 4 canali di lettura, uno dedicato al rosso, uno al blu e 2 al verde, mentre quello della d80 ha un canale di lettura dedicato al verde e uno alternativamente al blu e al rosso. nvece sono di tipo full frame quelli delle medio formato (ma pure quelli necessitano di microlenti). Di conseguenza, anche la superficie dei ccd della comparativa non sfruttano l'intera superficie fotosensibile (anche se, rispetto ai cmos fsi, hanno, quindi, il solo vantaggio di non avere altri circuiti al di sopra del fotodiodo.

Ultima modifica di yossarian : 10-01-2012 alle 14:36.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 10-01-2012, 13:35   #66
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
il problema è quel "può" essere coperto. Con una distribuzine random dei granuli contenenti sali d'argento, la certezza della copertura non puoi averla comunque
Certo nel particolare se gioco una volta al casinò posso anche vincere, ma perdi di vista che ho la CERTEZZA STATISTICA che se gioco un numero elevato di volte perderò (per questo i casinò funzionano e sono redditizi)! Te lo ripeto nello strato non c'è un grano ma molti, anche perché altrimenti l'efficienza di assorbimento dello strato sarebbe molto bassa e di sicuro non hanno studiato per 50 anni degli strati con spessori casuali.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
i problemi puoi averli anche con raggi perpendicolari alla superficie del frame (cosa che col digitale non avverrà mai)
Anche se per assurdo tutto andasse storto in un punto della superficie (ed è improbabile se nello strato ci sono molti grani) per misurare quel difetto dovresti avercelo uguale statisticamente in tanti altri punti della superficie, quindi siamo ancora da capo con la statistica per i grandi numeri.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Le curve sensitometriche delle pellicole
Tutto il discorso che fai sulla non linearità della pellicola (è banale che i sensori abbiano dei vantaggi altrimenti non l'avrebbero soppiantata) è corretto ma fuori luogo con il discorso della discretizzazione. In ogni caso, a parte ciò, nella quasi totalità dei casi nella pratica reale in fotografia lavori senza il problema del difetto di reciprocità.
Occhio alle considerazioni semplicistiche che fai sulla chimica dell'emulsione (ci sono i pigmenti sensibilizzanti e la riduzione ad argento metallico avviene in massa durante lo sviluppo).
Lo strato sul fondo come dice il nome anche nello schema fujifilm che ti ho riportato è uno strato antialone e serve ad assorbire il resto della radiazione rimanente per evitare che venendo riflessa e diffusa indietro produca degli aloni (di nuovo NON c'è INTERFERENZA nel senso fisico del termine, se lo usi come sinonimo di disturbo invece ci siamo capiti ).
Il brevetto non conferma il tuo fenomeno: è un generico sistema di correzione della vignettatura durante la stampa a proiezione; anzi specifica proprio dopo che sta parlando di vignettatura dell'obiettivo fotografico e del proiettore, quindi sei te che a furia di vederla per i sensori, dai al termine fall-off sempre una connotazione specifica del pixel quando invece è un termine generico usato in alternativa a vignetting.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
semplicemente perchè il problema illustrato dal link che avete postato riguarda principalmente il crosstalk e i modi per combatterlo.
Però, mi sembrava di aver già detto di limitarci ai fenomeni che producono la "caduta di esposizione" visto che in quell'articolo parlano di tutta la roba problematica con la miniaturizzazione ed è già andata bene che non abbiamo parlato pure dell'annoso discorso della diffrazione!

Sul dopo concordo perfettamente con te!
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Se prendessimo per buone quelle conclusioni, in maniera del tutto acritica e decontestualizzando i singoli risultati, arriveremmo a concludere che ccd con pixel pitch maggiore si comportano peggio di cmos fsi con pixel pitch che è quasi la metà. La mia critica era rivolta anche a questo aspetto.
Però, mi sembra che abbiamo contestualizzato pure i dati dei CCD (assunto che i progetti delle microlenti possano essere stati affinati negli anni) e appurato, ora, che sia valido questo:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
ho riguardato il data sheet del sensore della d200 ed è un interleaved data transfer con alternate righe di elementi fotosensibili e registri e 4 canali di lettura, uno dedicato al rosso, uno al blu e 2 al verde, mentre quello della d80 ha un canale di lettura dedicato al verde e uno alternativamente al blu e al rosso. nvece sono di tipo full frame quelli delle medio formato (ma pure quelli necessitano di microlenti). Di conseguenza, anche la superficie dei ccd della comparativa non sfruttano l'intera superficie fotosensibile (anche se, rispetto ai cmos fsi, hanno, quindi, il solo vantaggio di non avere altri circuiti al di sopra del fotodiodo.
Mi sembra che sia plausibile che quei CCD interleaved possano avere un fill-factor non troppo diverso da quello dei CMOS FSI delle altre reflex e quindi arrivino a cadute simili a parità di generazione delle microlenti.

Certo se ci fossero altri dati, tipo quello della M9 o le medioformato, o anche le Sigma X3 si potrebbero avere altre conferme o magari no e ampliare le supposizioni. Terremo d'occhio come evolverà la situazione semmai!
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 10-01-2012, 15:52   #67
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Certo nel particolare se gioco una volta al casinò posso anche vincere, ma perdi di vista che ho la CERTEZZA STATISTICA che se gioco un numero elevato di volte perderò (per questo i casinò funzionano e sono redditizi)! Te lo ripeto nello strato non c'è un grano ma molti, anche perché altrimenti l'efficienza di assorbimento dello strato sarebbe molto bassa e di sicuro non hanno studiato per 50 anni degli strati con spessori casuali.

Anche se per assurdo tutto andasse storto in un punto della superficie (ed è improbabile se nello strato ci sono molti grani) per misurare quel difetto dovresti avercelo uguale statisticamente in tanti altri punti della superficie, quindi siamo ancora da capo con la statistica per i grandi numeri.
i grandi numeri sono poco indicativi in valore assoluto e portano alla certezza statistica solo quando il numero di prove tende ad infinito (la pellicola non ha infiniti grani e i raggi di luce non sono infiniti)


Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Tutto il discorso che fai sulla non linearità della pellicola (è banale che i sensori abbiano dei vantaggi altrimenti non l'avrebbero soppiantata) è corretto ma fuori luogo con il discorso della discretizzazione. In ogni caso, a parte ciò, nella quasi totalità dei casi nella pratica reale in fotografia lavori senza il problema del difetto di reciprocità.
Occhio alle considerazioni semplicistiche che fai sulla chimica dell'emulsione (ci sono i pigmenti sensibilizzanti e la riduzione ad argento metallico avviene in massa durante lo sviluppo).
Lo strato sul fondo come dice il nome anche nello schema fujifilm che ti ho riportato è uno strato antialone e serve ad assorbire il resto della radiazione rimanente per evitare che venendo riflessa e diffusa indietro produca degli aloni (di nuovo NON c'è INTERFERENZA nel senso fisico del termine, se lo usi come sinonimo di disturbo invece ci siamo capiti ).
Il brevetto non conferma il tuo fenomeno: è un generico sistema di correzione della vignettatura durante la stampa a proiezione; anzi specifica proprio dopo che sta parlando di vignettatura dell'obiettivo fotografico e del proiettore, quindi sei te che a furia di vederla per i sensori, dai al termine fall-off sempre una connotazione specifica del pixel quando invece è un termine generico usato in alternativa a vignetting.
http://chestofbooks.com/arts/photogr...-Halation.html

http://ceeserver.cee.cornell.edu/wdp...%20cameras.pdf

http://motion.kodak.com/motion/uploa...akes-image.pdf

Da questi testi non mi pare si parli di radiazione in eccesso da nessuna parte ma del semplice fenomeno causato dalla radiazione che, attraversando gli stati fotoassorbenti, arriva sul fondo e viene, in parte, riflessa verso l'interno della pellicola, causano aloni. e partiamo dal presupposto che ci sia "radiazione in eccesso" dovremo anche partire dall'assunto che, per ottenere lo stesso risultato, si può sottoesporre un determinato frame rispetto ai valori teorici corretti di esposizione. Invece nella valutazione della corretta esposizione di una pellicola, si tiene conto anche della quantità di luce "dispersa", allo stesso modo in cui si calcolano gli ISO equivalenti nei sensori digitali (tenendo conto della OE e della QE, tra le altre cose).

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Però, mi sembra che abbiamo contestualizzato pure i dati dei CCD (assunto che i progetti delle microlenti possano essere stati affinati negli anni) e appurato, ora, che sia valido questo:
Mi sembra che sia plausibile che quei CCD interleaved possano avere un fill-factor non troppo diverso da quello dei CMOS FSI delle altre reflex e quindi arrivino a cadute simili a parità di generazione delle microlenti.
in teoria, a parità di tecnologia delle microlenti e di tutto il resto, un ccd, anche di tipo interleaved, è sempre avvantaggiato rispetto ad un cmos fsi, perchè non ha i circuiti elettrici che occupano parte del pixel vero e proprio. Ovvio che, stando a quei risultati (e non solo a quelli), i ccd che equipaggiano le vecchie nikon sono peggiori dei cmos di vecchie e nuova generazione e questo dipende dal fatto che, evidentemente, il sistema di microlenti è di qualità inferiore e, molto probabilmente, anche la QE risulta inferiore.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Certo se ci fossero altri dati, tipo quello della M9 o le medioformato, o anche le Sigma X3 si potrebbero avere altre conferme o magari no e ampliare le supposizioni. Terremo d'occhio come evolverà la situazione semmai!
so che tutti i sensori attuali, anche su MF, montano, oggi, sistemi di microlenti piuttosto avanzati, nonostante le dimensioni dei pixel e la tecnologia adottata per i sensori stessi. Gli X3 e molte medio formato non hanno filtro AA, però non ho altri dati al riguardo. Infine, si deve anche valutare la tipologia delle ottiche: quelle di nikon e canon delle macchine prese in esame sono ottiche nate per FF (dove, comunque, a TA danno lo stesso problemi) e adattate ad altri formati. Se su MF esistono ottiche dedicate di tipo telecentrico o quasi telentrico, il problema, se esiste, è molto più contenuto
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 10-01-2012, 21:36   #68
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
i grandi numeri sono poco indicativi in valore assoluto e portano alla certezza statistica solo quando il numero di prove tende ad infinito (la pellicola non ha infiniti grani e i raggi di luce non sono infiniti)
Ti rispondo anch'io con una battuta: anche il borsellino nel mondo reale non è infinito quindi trovo difficile che qualcuno possa dimostrarmi che non finisce molto, ma molto, ma proprio molto prima del caso cantoriano..
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Da questi testi non mi pare si parli di radiazione in eccesso da nessuna parte ma del semplice fenomeno causato dalla radiazione che, attraversando gli stati fotoassorbenti, arriva sul fondo e viene, in parte, riflessa verso l'interno della pellicola, causano aloni
Ehm.. Guarda che stiamo parlando della stessa cosa... Anche il grano perfettamente investito dalla radiazione non l'assorbe tutta ovviamente, proprio così come il "silicio" ha la sua QE.. Quindi quello strato serve ad eliminare immagini fantasma riflesse da dietro, proprio come dici te...
Quote:
Originariamente inviato da yossarian Guarda i messaggi
so che tutti i sensori attuali, anche su MF, montano, oggi, sistemi di microlenti piuttosto avanzati, nonostante le dimensioni dei pixel e la tecnologia adottata per i sensori stessi
Sicuramente! Lo credo anch'io visto che dicevo che qualsiasi sensore a causa del fill-factor sensibilmente inferiore al 100% ne ha bisogno:
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
per questo semplice motivo servono le microlenti: per cercare di rendere il sensore un mezzo con risposta "continua" lungo la superficie, come è invece già a priori la pellicola
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Gli X3 e molte medio formato non hanno filtro AA, però non ho altri dati al riguardo. Infine, si deve anche valutare la tipologia delle ottiche: quelle di nikon e canon delle macchine prese in esame sono ottiche nate per FF (dove, comunque, a TA danno lo stesso problemi) e adattate ad altri formati. Se su MF esistono ottiche dedicate di tipo telecentrico o quasi telentrico, il problema, se esiste, è molto più contenuto
Appena metteranno qualcosa ci si butta un occhio! (anche se secondo me presto o tardi quando avranno più dati amplieranno anche loro quella paginetta)
Sul telecentrismo che viene spesso invocato anche negli articoli sulle microlenti c'è da dire che le ottiche del 4/3 e quelle recenti dovrebbero esserlo maggiormante magari vedo di spulciare un po' il database se ci sono valori di T-stop con lenti molto aperte..

Ultima modifica di Chelidon : 10-01-2012 alle 21:38.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 09-05-2012, 22:01   #69
R.Raskolnikov
Senior Member
 
L'Avatar di R.Raskolnikov
 
Iscritto dal: Feb 2007
Città: Figalandia
Messaggi: 1100
Quote:
Originariamente inviato da Itachi Guarda i messaggi
A questo punto la differenza tra un f/1.4 e un f/1.8 é quindi nella realtà minore di uno stop?
La differenza tra un f/1.4 e un f/1.8 è sempre stata minore di uno stop.
La scala dei diaframmi è:
1, 1.4, 2, 2.8, 4, 5.6, 8, 11, 16, 22, 32, 45...

Quote:
Originariamente inviato da Itachi Guarda i messaggi
Per dire....una lente come il Canon 1.2,che già é dichiarato da tutti che sia qualitativamente persino inferiore all' 1.4,avrebbe un senso a questo punto?
Io mi fiderei poco di quel tutti....in questo campo e specialmente tra i fotoamatori girano false verità e leggende metropolitane assurde. Sui forum, poi, se ne leggono di tutti i colori (la peggiore, ma più gettonata, è: "con questa lente da1 milione di euro farai foto migliori").
Poi ci sono vari parametri con cui giudicare un obiettivo. Per taluni certi parametri possono essere significativi, per altri no!
Per fare un esempio un po' estremo, per alcuni la qualità dei materiali (non lenti) con cui è costruito un obiettivo è fondamentale, per me no. Sembra una stupidata, ma nella realtà tanti professionisti preferiscono ottiche solide come rocce, a discapito di tutto il resto (relativamente).

Poi non si capisce di che ottica parli. Il Canon 50 1.2 è "migliore" del Canon 50 1.4 (tranne per le aberrazioni cromatiche).
Comunque è ovvio che ha senso comprare un f1.2 piuttosto di un f1.4, esattamente come avrebbe senso fare il contrario.
Chi si compra un'ottica super-luminosa lo fa per vari, e disparati motivi.
La differenza di profondità di campo è, a mio giudizio, forse l'ultimo di questi motivi.
Ma, ovviamente, già se uno si chiede se ha senso, significa che per lui NON ha alcun senso.

P.S.:
Riguardo alla notizia a me sembra una gran vaccata.
Se fosse così lo si sarebbe saputo dopo 1 giorno...forse meno.
Il punto è che svelare complotti va molto di moda, ma in realtà sono quasi sempre bufale.

Ultima modifica di R.Raskolnikov : 09-05-2012 alle 22:08.
R.Raskolnikov è offline   Rispondi citando il messaggio o parte di esso
Old 09-05-2012, 22:24   #70
R.Raskolnikov
Senior Member
 
L'Avatar di R.Raskolnikov
 
Iscritto dal: Feb 2007
Città: Figalandia
Messaggi: 1100
Quote:
Originariamente inviato da Donagh Guarda i messaggi

Scusa se mi permetto, ma la ragazza ha troppe ombre sul viso. Le vedi?
Il modo più semplice per attenuarle è (come minimissimo sindacale) un pannello di polisitrolo di fronte al soggetto (ovviamente non inquadrato)...ed anche un flashatina per illuminare gli occhi non sarebbe stata male. Avrebbe anch'essa giovato a quelle orribili ombre.
Con i flash anulari, per esempio, si crea un cerchio di luce stupendo negli occhi, che dona un'incredibile vivacità e vitalità allo sguardo.
Ci sarebbero (tante) altre cose da dire, ma le ombre sul viso sono la più evidente.
Comunque la cosa più importante in questo genere di foto è lo sguardo del soggetto....dev'essere vivo, interessante. Poi c'è la posa (non il tempo di posa, proprio il modo di incrociare le braccia, le gambe, la posa della "modella"). La tecnica viene (molto) dopo.
L'attrezzatura, che qui giudicano tutti essenziale e sulla quale fanno discorsi kilometrici, conta forse l'1%. Forse meno.
La seconda che hai postato è venuta decisamente meglio (fra l'altro mi sembra che assomigli ad Ambra Angiolini). Per eliminare certi difetti della pelle è utile, a volte, sovraesporre (poco)...specialmente nei primissimi piani, dove i normali difetti della pelle sono molto visibili.
Ciao.

Ultima modifica di R.Raskolnikov : 09-05-2012 alle 22:30.
R.Raskolnikov è offline   Rispondi citando il messaggio o parte di esso
Old 18-05-2012, 17:39   #71
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da R.Raskolnikov Guarda i messaggi
Io mi fiderei poco di quel tutti....
In realtà quel tutti è un bel pochi o quasi nessuno, visto che a parte su pentaxiani non ho visto girare la voce in molti altri forum (nazionali). In ogni caso se ti leggi le pagine indietro ci sono pubblicazioni scientifiche (certo non tutti vi possono accedere) che affrontano il fenomeno e indicano possibili vie risolutive e al contempo limiti e problemi.

Quote:
Originariamente inviato da R.Raskolnikov Guarda i messaggi
Chi si compra un'ottica super-luminosa lo fa per vari, e disparati motivi.
La differenza di profondità di campo è, a mio giudizio, forse l'ultimo di questi motivi.
Può darsi, però probabilmente coi sensori attuali che arrivano tranquillamente a 3200 ISO e volendo esagerare (benché molto meno bene) vanno pure ben oltre, non credo sia più l'esigenza di luminosità il motivo principale per un ottica iperluminosa (parere personalissimo).

Quote:
Originariamente inviato da R.Raskolnikov Guarda i messaggi
Riguardo alla notizia a me sembra una gran vaccata.
Se fosse così lo si sarebbe saputo dopo 1 giorno...forse meno.
Il punto è che svelare complotti va molto di moda, ma in realtà sono quasi sempre bufale.
Quelli di Luminous-Landscape però non mi sembrano proprio degli sprovveduti (comunque se guardi all'inizio c'è chi aveva messo un link molto vecchio in cui qualcuno si era già accorto del barare sull'esposizione anni prima dei test di DxO). Verissimo però che l'effetto possa interessare pochi casi (aperture iperluminose) e in maniera difficilmente percepibile.

Ultima modifica di Chelidon : 18-05-2012 alle 17:41.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2012, 08:54   #72
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Yossarian, guarda un po' dopo il brevetto del sensore organico di fuji, hanno messo un altra notizia di una proposta commerciale di un sensore con uno strato organico superiore che serve a ridurre a monte i soliti problemi di fill-factor (e pure QE parrebbe) dei sensori tradizionali.

Sembra che le idee sull'argomento comincino a fioccare!
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2012, 11:11   #73
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Yossarian, guarda un po' dopo il brevetto del sensore organico di fuji, hanno messo un altra notizia di una proposta commerciale di un sensore con uno strato organico superiore che serve a ridurre a monte i soliti problemi di fill-factor (e pure QE parrebbe) dei sensori tradizionali.

Sembra che le idee sull'argomento comincino a fioccare!
si, ma non mi è molto chiaro come dovrebbe funzionare questa nuova tecnologia. O meglio, non mi è chiaro come può garantire un fill factor del 100% e un'efficienza quantica dello stesso livello. 1) Nessuna pellicola (come nessun sensore digitale) è in grado di catturare il 100% della radiazione incidente; 2) non vedo come il sostituire una superficie fotoassorbente continua (un fotodiodo) con una discreta, per ciascun pixel, possa migliorare la capacità di catturare la luce; il vantaggio della pellicola rispetto ai sensori digitali è che non è divisa per pixel ma presenta una superficie continua anche se i fotorecettori sono in numero discreto. Al contrario, in questo caso, si avrebbe una superficie divisa per pixel, ciascuno dei quali con un numero discreto di fotorecettori . L'unica cosa che mi viene in mente è che, al contrario di quello che accade con le attuali tecnologie,tutta la superficie del pixel potrà essere usata come fotorecettore d i circuiti saranno collocati in uno strato sottostante, ma questo è possibile anche con i CMOS BSI di tipo stacked. 3) non si toglie il filtro bayer e, quindi, parte della luce incidente viene riflessa. 4) ci saranno ancora problemi di aliasing e, di conseguenza, necessiterà un filtro AA con perdita di nitidezza. Infine la cosa che mi lascia più perplesso è che sul sito di InVisage ho trovato solo scarne informazioni assimilabili a slogan pubblicitari con qualche immagine ma nessuna spiegazioni che sia un minimo dettagliata
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 09-06-2012, 12:27   #74
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
si, ma non mi è molto chiaro come dovrebbe funzionare questa nuova tecnologia.
Non hanno spiegato quasi nulla e perciò ci si mette un attimo a capirlo, ma è esattamente quello che hai intuito dopo:
Quote:
Originariamente inviato da yossarian Guarda i messaggi
L'unica cosa che mi viene in mente è che, al contrario di quello che accade con le attuali tecnologie,tutta la superficie del pixel potrà essere usata come fotorecettore d i circuiti saranno collocati in uno strato sottostante
Ti dico quel poco che ho intuito dalle presentazioni perché non ho trovato nulla di tecnico.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
O meglio, non mi è chiaro come può garantire un fill factor del 100% e un'efficienza quantica dello stesso livello.
Ovvio che non può farlo, nulla è perfettamente ideale, però se passi mettiamo caso da una QE=0,5 a QE=0,7 hai già guadagnato circa mezzo stop di sensibilità. Certo che senza dati si possono solo fare supposizioni: in teoria i quantum-dot sono ottimi come efficienze, ma se ho capito bene sono dispersi in una matrice polimerica conduttiva (come idea concettualmente ha molte anologie con certe celle fotovoltaiche organiche), quindi sicuramente bisogna vedere all'atto pratico l'insieme come si comporta.
Per quanto riguarda il fill-factor è lo stesso discorso del brevetto di fuji: la sovrastruttura che fa il processo di conversione fotone-elettrone è continua e ovviamente non ha sopra nemmeno delle metallizzazioni, cosa che è il difetto principale delle strutture tradizionali (non BSI). Certo che però come avrai notato (ed era una cosa che mi ero chiesto pure per il fuji, che se non erro, elimina addirittura le microlenti) la zona sensibile è uno strato continuo e a quel punto nessuno ci dice quanto i fotoelettroni da un punto possano andare a finire su pixel adiacenti (molto dipenderà dallo spessore dello strato rispetto all'ampiezza del pixel: può essere tutto e il contrario). Si potrebbe ritornare quindi ai discorsi di crosstalk che facevi te e probabilmente è per questo motivo che per questo InVisage nello schema son ben presenti dopotutto sempre le microlenti.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
non si toglie il filtro bayer e, quindi, parte della luce incidente viene riflessa
Ovvio per risolvere quel problema dovrebbero fare uno strato in cui i quantum-dot sono segregati su ogni pixel in base al loro spettro di assorbimento, facile dirlo in teoria e magari pure provarlo su tre pixel in laboratorio, tutt'altra complessità farlo industrialmente!
Soprattutto considerato che nell'annuncio originario dicevano che quello strato lì è deposto mediante spin-coating: parliamo di una tecnica semplice industrialmente e che ovviamente non permette un controllo del genere.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
questo è possibile anche con i CMOS BSI di tipo stacked.
Alla fine i vantaggi sarebbero più o meno gli stessi del simile brevetto fuji: puoi controllare la sensibilità a radiazioni indesiderate (detto in parole povere elimini il filtro IR-cut) e risolvi le limitazioni del fill-factor in maniera industrialmente più semplice che fare un BSI.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 09-06-2012, 15:26   #75
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5373
Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Ovvio che non può farlo, nulla è perfettamente ideale, però se passi mettiamo caso da una QE=0,5 a QE=0,7 hai già guadagnato circa mezzo stop di sensibilità. Certo che senza dati si possono solo fare supposizioni: in teoria i quantum-dot sono ottimi come efficienze, ma se ho capito bene sono dispersi in una matrice polimerica conduttiva (come idea concettualmente ha molte anologie con certe celle fotovoltaiche organiche), quindi sicuramente bisogna vedere all'atto pratico l'insieme come si comporta.
infatti, senza dati concreti si può affermare tutto e il contrario di tutto e la cosa che mi lascia perplesso è proprio la mancanza di documentazione adeguata. Quando si presenta una nuova tecnologia si usano white paper o simili per spiegare come e perchè quel dispositivo funziona in quel determinato modo. Qui si hanno solo una serie di affermazioni categoriche da accettare su base fideistica.


Quote:
Originariamente inviato da Chelidon Guarda i messaggi
Per quanto riguarda il fill-factor è lo stesso discorso del brevetto di fuji: la sovrastruttura che fa il processo di conversione fotone-elettrone è continua e ovviamente non ha sopra nemmeno delle metallizzazioni, cosa che è il difetto principale delle strutture tradizionali (non BSI). Certo che però come avrai notato (ed era una cosa che mi ero chiesto pure per il fuji, che se non erro, elimina addirittura le microlenti) la zona sensibile è uno strato continuo e a quel punto nessuno ci dice quanto i fotoelettroni da un punto possano andare a finire su pixel adiacenti (molto dipenderà dallo spessore dello strato rispetto all'ampiezza del pixel: può essere tutto e il contrario). Si potrebbe ritornare quindi ai discorsi di crosstalk che facevi te e probabilmente è per questo motivo che per questo InVisage nello schema son ben presenti dopotutto sempre le microlenti.
infatti, stavo pensando la stessa cosa e non solo in funziona e del crosstalk: in una pellicola non serve stabilire a quale "pixel" appartiene quel fotone catturato perchè, di fatto, i "pixel" sono i microgranuli che si occupano direttamente del processo di cattura e conversione. In questo caso, in cui hai una "superficie continua" che cattura la luce e un insieme discreto che si occupa del processo di conversione, mi chiedo come si possa confinare la radiazione incidente sul pixel X e come la si possa distinguere da quella che cade sui pixel contigui.

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Ovvio per risolvere quel problema dovrebbero fare uno strato in cui i quantum-dot sono segregati su ogni pixel in base al loro spettro di assorbimento, facile dirlo in teoria e magari pure provarlo su tre pixel in laboratorio, tutt'altra complessità farlo industrialmente!
Soprattutto considerato che nell'annuncio originario dicevano che quello strato lì è deposto mediante spin-coating: parliamo di una tecnica semplice industrialmente e che ovviamente non permette un controllo del genere.
mi chiedo come; gli unici sistemi che conosciamo per selezionare le diverse componenti dello spettro luminoso sono l'utilizzo di maschere o la disposizione a strati ed entrambe hanno vantaggi e svantaggi ma nessuna delle due permette la cattura del 100% della radiazione incidente (anzi, in realtà, nessuna tecnologia conosciuta permette di ottenere un simile risultato) e nessuna delle due è immune al problema del crosstalk che, anzi, ad esempio, proprio nei BSI e negli X3 è più problematico

Quote:
Originariamente inviato da Chelidon Guarda i messaggi

Alla fine i vantaggi sarebbero più o meno gli stessi del simile brevetto fuji: puoi controllare la sensibilità a radiazioni indesiderate (detto in parole povere elimini il filtro IR-cut) e risolvi le limitazioni del fill-factor in maniera industrialmente più semplice che fare un BSI.
si, l'idea sembrerebbe quella di ottenere i vantaggi di un BSI con minore spesa anche se, ripeto, le descrizioni fatte mi lasciano molto perplesso
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 09-06-2012, 16:37   #76
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Qui si hanno solo una serie di affermazioni categoriche da accettare su base fideistica.
Marketing?



Quote:
Originariamente inviato da yossarian Guarda i messaggi
In questo caso, in cui hai una "superficie continua" che cattura la luce e un insieme discreto che si occupa del processo di conversione, mi chiedo come si possa confinare la radiazione incidente sul pixel X e come la si possa distinguere da quella che cade sui pixel contigui.
Sicuramente il crosstalk sarà influenzato dlla lunghezza di diffusione del fotoelettrone e quindi come dicevo può variare a seconda del rapporto fra spessore dello strato sensibile e larghezza del pixel sottostante. Ovvio che avranno fatto i loro conti e se mettono delle microlenti lo fanno per quei motivi lì come spesso hai ricordato pure te.



Quote:
Originariamente inviato da yossarian Guarda i messaggi
mi chiedo come; gli unici sistemi che conosciamo
Sono nanostrutture fatte apposta per quello: se sono quantum-dot è intrisecamente controllabile la caratteristica di assorbimento, la gap del materiale può essere controllata con le dimensioni. Il problema è appunto come implementarli: qua se ho capito bene ne hanno dispersi di diversi tipi (in modo da coprire lo spettro visibile indistintamente) in una matrice di un polimero conduttore.


Quote:
Originariamente inviato da yossarian Guarda i messaggi
per selezionare le diverse componenti dello spettro luminoso sono l'utilizzo di maschere o la disposizione a strati ed entrambe hanno vantaggi e svantaggi ma nessuna delle due permette la cattura del 100% della radiazione incidente
Mi pare ovvio però che la QE sia riferita allo strato sensibile non ovviamente a quello che c'è sopra, è normale sia così per qualsiasi sensore considerarlo "nudo", ovvio che te fai notare che scrivono delle panzane da marketing nella presentazione. In ogni caso è vero che la CFA si mangia per ogni pixel della trasmissione ma deve per forza altrimenti non filtrerebbe. Agli albori del digitale mi pare, però si usassero CFA con terne che permettevano sintesi sottrativa (CMY) invece che additiva (RGB) e dato che l'assorbimento era complementare i sensori guadagnavano in sensibilità (l'uovo di colombo ). Però se sono state abbandonate, ipotizzo che probabilmente avevano altri problemi che non rendevano interessante il "gioco".

Ultima modifica di Chelidon : 09-06-2012 alle 16:45.
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2013, 09:12   #77
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Scusatemi se ridico qualcosa di cui avete già discusso, non ho letto tuttto tutto.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
si, ma non mi è molto chiaro come dovrebbe funzionare questa nuova tecnologia. O meglio, non mi è chiaro come può garantire un fill factor del 100% e un'efficienza quantica dello stesso livello. 1) Nessuna pellicola (come nessun sensore digitale) è in grado di catturare il 100% della radiazione incidente; 2) non vedo come il sostituire una superficie fotoassorbente continua (un fotodiodo) con una discreta, per ciascun pixel, possa migliorare la capacità di catturare la luce; il vantaggio della pellicola rispetto ai sensori digitali è che non è divisa per pixel ma presenta una superficie continua anche se i fotorecettori sono in numero discreto. Al contrario, in questo caso, si avrebbe una superficie divisa per pixel, ciascuno dei quali con un numero discreto di fotorecettori . L'unica cosa che mi viene in mente è che, al contrario di quello che accade con le attuali tecnologie,tutta la superficie del pixel potrà essere usata come fotorecettore d i circuiti saranno collocati in uno strato sottostante, ma questo è possibile anche con i CMOS BSI di tipo stacked. 3) non si toglie il filtro bayer e, quindi, parte della luce incidente viene riflessa. 4) ci saranno ancora problemi di aliasing e, di conseguenza, necessiterà un filtro AA con perdita di nitidezza. Infine la cosa che mi lascia più perplesso è che sul sito di InVisage ho trovato solo scarne informazioni assimilabili a slogan pubblicitari con qualche immagine ma nessuna spiegazioni che sia un minimo dettagliata
Il sensore organico di fujifilm-panasonic immagino lo vedremo quando e se uscirà. Io ne sono molto interessato perché per come lo presentano può aprire nuovi spazi nel design delle lenti, per via del maggiore angolo di incidenza che sarebbe consentito.
(interessanti sopratutto sulle mirrorless, magari full frame)

Avevo capito che avrebbero rimosso il filtro IR, essendo lo strato organico insensibile a quelle frequenze.


Invece per quanto riguarda approcci molto molto diversi indico il "digital film" di Fossum.
http://ericfossum.com/Publications/P...20Proposal.pdf

Che si basa su "jots", pixel estremamente piccoli (molto sotto la diffrazione) con solo 1-bit di dinamica (fotone si, fotone no). Una spece di Super Audio CD per le foto.

Ci sono molti che ci studiano perché fa figo dire "gigapixel sensor" o "quanta sensor" e menate varie. Magari prima o poi ci si arriva per davvero, se la fotografia computazionale non ci porta su altre strade.
__________________
flìckr
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 01-09-2013, 12:59   #78
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Sicuramente stanno ricercando su quel genere di sensori per i vantaggi di cui avevamo discusso, ma altrettanto sicuramente dubito li vedremo a breve. Già i BSI ancora nessuno li implementa su sensori grandi, questi organici probabilmente verrano dopo...

Molto interessante l'idea affermata nell'articolo che citi: è sicuramente un bell'approccio quello descritto! Non è che debba per forza puntare a immagini da Gigapixel come fanno notare nell'articolo il sovracampionamento può dare dei vantaggi e l'immagine può avere una risoluzione arbitraria.. è in parte pure un po' che presumeva anni fa Raghnar-the-coWolf
Chelidon è offline   Rispondi citando il messaggio o parte di esso
Old 02-09-2013, 19:37   #79
wyoming
Member
 
Iscritto dal: Jul 2010
Città: lombardia
Messaggi: 189
mi sono fatto spesso questa domanda. premesso che a me non piace fotografare con poca pdc quindi scatto a tutta apertura principalmente per questioni di luminosità, con le macchine che possiedo ora cerco di non superare i 1600 iso, quando comprerò corpi nuovi potrei recuparare un paio di stop avendo ancora foto accettabili usando sempre meno le massime aperture.
ho trovato interessante il fatto da cui è partita la discussione, mi spiace di non avere obiettivi più luminosi di f1.8 altrimenti farei volentieri qualche prova. sarebbe veramente uno sberleffo ma bisogna ammettere che il mercato fotografico è tutto un gigantesco specchio per allodole. a partire dal più piccolo accessorio, come il famoso cartoncino grigio che andava tanto di moda e costava come un quadro d'autore ed era completamente inutile, i pannelli riflettenti con ricarichi del 10000% ecc... fino ovviamente a fotocamere ed obiettivi.
io di obiettivi ne ho usati tanti e non ne ho mai visto nessuno che desse il massimo sotto f4. anzi direi che tutti quelli che ho usato, o di cui ho letto recensioni, hanno generalmente la resa maggiore da 5.6 a 1 o 2 stop prima della minima apertura.
non sono un esperto di ottica ma vista la mia esperienza andare a spendere palate di soldi per un f 1.2 mi sembra uno spreco. anche a ridurre la pdc piuttosto preferirei comprarmi una ff
wyoming è offline   Rispondi citando il messaggio o parte di esso
Old 08-09-2013, 12:37   #80
Chelidon
Bannato
 
L'Avatar di Chelidon
 
Iscritto dal: Aug 2006
Città: Parma
Messaggi: 2579
Sono d'accordo, questa cosa di cui abbiamo parlato qua, alla fine interessa marginalmente l'utente amatoriale. Almeno quello accorto e informato, non parlo dell'entusiasta che se se lo può permettere stravede per comprare l'obiettivo non-plus-ultra alla prima uscita!
Hai ragione a dire che per l'utente medio che a mala pena avrà il 50/1.8 ci sono ben altre pollate su cui lo intortano...

Infatti non a caso quando lo avevo citato avevo sottolineato che il problema ha creato molto scompiglio a quelli di Luminous-Landscape, che non sono certo amatori: è uno dei rari posti dove si discute quotidianamente di medio-formato e altre cose da professionisti avanzati. Quindi probabilmente per chi ricerca quelle determinate cose, capisco che possa essere sentita molto di più come una grossa presa per i fondelli un fenomeno su cui i produttori di obiettivi hanno per ovvie ragioni di conflitto d'interesse glissato..
Chelidon è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Apple MacBook Air M3: chi deve davvero comprarlo? La recensione Apple MacBook Air M3: chi deve davvero comprarlo...
ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ultrawide si fondono ASUS ROG Swift OLED PG49WCD: quando QD-OLED e ul...
Dreame L10s Pro Ultra Heat: la pulizia di casa tutta sostanza Dreame L10s Pro Ultra Heat: la pulizia di casa t...
HONOR Magic6 Pro: come funziona Magic Portal, il modo ''intelligente'' di condividere HONOR Magic6 Pro: come funziona Magic Portal, il...
L'innovazione richiede fiducia: Workday si propone come guida nell'era dell'IA L'innovazione richiede fiducia: Workday si propo...
RocketStar FireStar Drive: un propulsore...
Roscosmos: il lancio del razzo spaziale ...
Italia strategica per Oracle. Arriva la ...
Sam-Bankman Fried: 25 anni di reclusione...
Mobility Analytics di WINDTRE Business p...
Il lander lunare JAXA SLIM si è r...
Warframe conquista l'iPhone: senza soluz...
Marvel Rivals!, l'inaspettato shooter Pv...
Twitch aggiorna le linee guida sui conte...
Galaxy M55 ufficiale: la nuova fascia me...
Google corregge sette vulnerabilit&agrav...
IA: le imprese italiane sono in prima li...
Garmin Dash Cam 57: un'alleata perfetta ...
Elgato Facecam MK2: come rendere ancora ...
2 iRobot Roomba al prezzo più sco...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 00:39.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v