PDA

View Full Version : Rambus Binary Pixel: la gamma dinamica dell'occhio umano anche sui cellulari


Redazione di Hardware Upg
07-03-2013, 10:41
Link alla notizia: http://www.fotografidigitali.it/news/rambus-binary-pixel-la-gamma-dinamica-dell-occhio-umano-anche-sui-cellulari_46134.html

Rambus promette con la sua tecnologia Binay Pixel di portare anche sui sensori dei cellulari la stessa gamma dinamica dell'occhio umano, in foto e video, senza necessità di post produzione

Click sul link per visualizzare la notizia.

emanuele83
07-03-2013, 10:53
Link alla notizia: http://www.fotografidigitali.it/news/rambus-binary-pixel-la-gamma-dinamica-dell-occhio-umano-anche-sui-cellulari_46134.html

Rambus promette con la sua tecnologia Binay Pixel di portare anche sui sensori dei cellulari la stessa gamma dinamica dell'occhio umano, in foto e video, senza necessità di post produzione

Click sul link per visualizzare la notizia.

Complimenti per averci fornito più informazioni rispetto a quelle trovabili in rete sul sito Rambus, ogni vostro articolo dovrebbe essere così!

Beh insomma come si diceva già da anni ormai il prossimo step sarà l'aumento della gamma dinamica e della sensibilità riducendo il rumore, grazie ancora alla miniaturizzazione e alla corsa ai megapixel. Purtroppo il mercato e l'oligopolio di casa nikon (sony) e canon è tiranno e innovazioni del genere le vedremo sui corpi macchina reflex tra 5 anni e forse tra 10 a prezzi abbordabili.

JackZR
07-03-2013, 14:39
Per ottenere foto migliori basterebbe montare sensori più grandi e ridurre (sì ho proprio detto ridurre) il numero di megapixel.

emanuele83
07-03-2013, 14:42
Per ottenere foto migliori basterebbe montare sensori più grandi e ridurre (sì ho proprio detto ridurre) il numero di megapixel.

Manda una mail a canon e sony che non ci hanno proprio pensato. Poco importa che poi occorra avere lenti pesanti ed ingombranti...

Baboo85
07-03-2013, 22:13
Be', mica dicono che un occhio umano sano in media e' come un sensore a 52 Mpx (altri dicono che l'occhio in se' potrebbe essere da 576 Mpx ma poi il cervello elabora le informazioni e si riducono), direi che la strada e' ancora lunga, per il mercato consumer... :)

LMCH
08-03-2013, 05:30
Be', mica dicono che un occhio umano sano in media e' come un sensore a 52 Mpx (altri dicono che l'occhio in se' potrebbe essere da 576 Mpx ma poi il cervello elabora le informazioni e si riducono), direi che la strada e' ancora lunga, per il mercato consumer... :)

In realtà c'è un "trucco": la retina ha una maggior densità di recettori vicino alla parte centrale (eccetto il punto cieco) con una densità poi che decresce gradualmente.

Infatti abbiamo solo circa 6 milioni di coni (recettori dei colori primari) e 125 milioni di bastoncelli (recettori di luminosità) ... ci mancano più di 400 milioni di recettori per arrivare a 576mpx ! :eek:

Ma quando fissiamo qualcosa lo vediamo con la parte centrale "ad altissima risoluzione" e lo ricordiamo mentre l'occhio passa a fissare qualcosa d'altro "attirato" sui nuovi punti di messa a fuoco dal motion detect intrinseco delle parti periferiche della retina a più bassa risoluzione (ma che proprio per questo è come se avessero un filtro per il motion detect "in hardware").

Quindi quando guardiamo una scena i nostri occhi in automatico "fanno spazzate ad altissima risoluzione" sulle parti interessanti e/o che si stanno muovendo e noi vediamo un immagine virtuale "costruita" nel nostro cervello come se fosse tutta ad altissima risoluzione.

emanuele83
08-03-2013, 09:22
In realtà c'è un "trucco": la retina ha una maggior densità di recettori vicino alla parte centrale (eccetto il punto cieco) con una densità poi che decresce gradualmente.

Infatti abbiamo solo circa 6 milioni di coni (recettori dei colori primari) e 125 milioni di bastoncelli (recettori di luminosità) ... ci mancano più di 400 milioni di recettori per arrivare a 576mpx ! :eek:

Ma quando fissiamo qualcosa lo vediamo con la parte centrale "ad altissima risoluzione" e lo ricordiamo mentre l'occhio passa a fissare qualcosa d'altro "attirato" sui nuovi punti di messa a fuoco dal motion detect intrinseco delle parti periferiche della retina a più bassa risoluzione (ma che proprio per questo è come se avessero un filtro per il motion detect "in hardware").

Quindi quando guardiamo una scena i nostri occhi in automatico "fanno spazzate ad altissima risoluzione" sulle parti interessanti e/o che si stanno muovendo e noi vediamo un immagine virtuale "costruita" nel nostro cervello come se fosse tutta ad altissima risoluzione.

Rimane il fatto che il metodo acquisizione, campionamento ed elaborazione è diverso. prima di tutto la retina sovracampiona rispetto alla risoluzione della lente, secondo la componente di luminanza è molto più alta (bastoncelli) ma la crominanza, concentrata nella fovea è comunque diversificata in base a differenti coni che percepiscono ognuno un colore diverso. un po come il bayer pattern, se non fosse ocn un algoritmo di demosaicing migliore ;) per questo imho l'aumento di MPx insieme a nuove tecniche di campionamento, modulazione e demosaicing, sono la chiave per avere migliore gamma dinamica, e risoluzione spaziale. una cosa in cui i sensori sono migliori rispetto all'occhio sono solo gli alti iso ;)