View Full Version : Hasselblad H4D-200MS: immagini a 200 megapixel
Redazione di Hardware Upg
30-05-2011, 08:48
Link alla notizia: http://www.fotografidigitali.it/news/hasselblad-h4d-200ms-immagini-a-200-megapixel_36983.html
Con la tecnologia Multi-Shot la nuova Hasselbald H4D-200MS permette di ottenere immagini a 200 megapixel
Click sul link per visualizzare la notizia.
Opteranium
30-05-2011, 09:39
non saranno troppi? :D
Rubberick
30-05-2011, 09:42
no scusa ma non mi è molto chiaro come fa senza spostarsi e senza fare stitching un img + grande... risolve direttamente le aree a tipo crop separatamente e poi le unisce?
uno stitch vero richiederebbe lo spostamento sullo stesso piano focale in parallelo da parte dell'utilizzatore..
cioe' non è un sensore a 200mpixel ma sempre 50 giusto?
(non oso pensare che diavolo di elaborazione va fatta per un 200mpx.. --> raaam)
JamesTrab
30-05-2011, 09:52
Per gigantografie da attaccare ad un grattacielo?
Altri utilizzi li vedo forzati! :sofico:
ernest85
30-05-2011, 10:01
e dove lo possiamo vedere qualche scatto in full resolution?
no scusa ma non mi è molto chiaro come fa senza spostarsi e senza fare stitching un img + grande... risolve direttamente le aree a tipo crop separatamente e poi le unisce?
uno stitch vero richiederebbe lo spostamento sullo stesso piano focale in parallelo da parte dell'utilizzatore..
cioe' non è un sensore a 200mpixel ma sempre 50 giusto?
(non oso pensare che diavolo di elaborazione va fatta per un 200mpx.. --> raaam)
C'è proprio scritto nell'articolo, è il sensore che tramite un sistema piezo si sposta fisicamente sotto il filtro bayer, fino ad ora la tecnica era utilizzata per esporre ogni singolo pixel 4 volte in modo da poter estrarre tutte le informazioni colore senza dover ricorrere al demosaicing, ora viene utilizzato per ampliare la risoluzione della foto, il sensore è sempre da 50MP ma viene esposto 6 volte (????) così da tirare fuori immagini da 200MP...... naturalmente per soggetti statici.
AceGranger
30-05-2011, 10:33
e dove lo possiamo vedere qualche scatto in full resolution?
questa è a 50 MP e gia vedi se ha le doppie punte, a 200 inizi a vedere i capelli grossi come matite :asd:
http://www.clikon.it/uploads/ori/201104/gallery_4da8af64a3daa_Job0027.jpg
Rubberick
30-05-2011, 10:40
C'è proprio scritto nell'articolo, è il sensore che tramite un sistema piezo si sposta fisicamente sotto il filtro bayer, fino ad ora la tecnica era utilizzata per esporre ogni singolo pixel 4 volte in modo da poter estrarre tutte le informazioni colore senza dover ricorrere al demosaicing, ora viene utilizzato per ampliare la risoluzione della foto, il sensore è sempre da 50MP ma viene esposto 6 volte (????) così da tirare fuori immagini da 200MP...... naturalmente per soggetti statici.
si, forse non ci siamo capiti lo so che viene spostato fisicamente ma in termini microscopici e ho presente anche la tecnica per prevenire il demosaicing...
ma prima si parlava di spostare poco il sensore sotto il filtro per ottenere tutte le componenti colore su un unico pixel...
ora si sta parlando di fare cosa esattamente?
ora viene utilizzato per ampliare la risoluzione della foto, il sensore è sempre da 50MP ma viene esposto 6 volte (????)
la news e' chiara come un carciofo lesso.. esporre 6 volte può significare tutto, guadagnare gamma dinamica, col trucchetto loro avere tutte le componenti colore... ma non riesco a capire come si riesca a tirare fuori un img di 200mpixel da un sensore di 50 senza stitchare spostandosi di molto e non e' una cosa che fai interna al sensore... ma ti muovi tu con la macchina (cioe' oddio avresti un img di 200 invece di una di 50 prendendo maggiore campo)
ci deve stare qualche altro trucchetto dietro, mi viene da pensare a qualcosa tipo una variante dello zoom digitale delle compatte ma poi boh...
ernest85
30-05-2011, 11:06
si, forse non ci siamo capiti lo so che viene spostato fisicamente ma in termini microscopici e ho presente anche la tecnica per prevenire il demosaicing...
ma prima si parlava di spostare poco il sensore sotto il filtro per ottenere tutte le componenti colore su un unico pixel...
ora si sta parlando di fare cosa esattamente?
da ciò che ho letto lo spostamento è di mezzo pixel (l'ho letto altrove) e non di 1 pixel e quindi è come avere un sensore con pixel grandi la metà e quindi 4 volte più risoluzione, la cosa che non mi è chiara è il perchè di 6 scatti e non 4 ma penso che la motivazione sia legata alla struttura del sensore e quindi con 4 scatti si otterrebbero si più mpx ma una scarsa definizione del colore, invece con 6 scatti si ottiene anche una perfetta definizione del colore... ma sono mie ipotesi queste.
+Benito+
30-05-2011, 12:50
si capisce che effettuando un esagono e non un quadrato come spostamento si ottiene un risultato migliore.
yossarian
30-05-2011, 23:19
no scusa ma non mi è molto chiaro come fa senza spostarsi e senza fare stitching un img + grande... risolve direttamente le aree a tipo crop separatamente e poi le unisce?
uno stitch vero richiederebbe lo spostamento sullo stesso piano focale in parallelo da parte dell'utilizzatore..
cioe' non è un sensore a 200mpixel ma sempre 50 giusto?
(non oso pensare che diavolo di elaborazione va fatta per un 200mpx.. --> raaam)
scatta 4 foto spostando il sensore di 1 pixel; supponiamo che la sequenza del primo quadrato di pixel sia RGBG procedendo in senso orario: al primo scatto si avrà, appunto, che il primo pixel si troverà sotto il primo rosso della matrice bayer, nel secondo scatto sotto il primo verde, nel terzo scatto sotto il blu e nel quarto sotto il secondo verde del quadrato. Questa procedura può servire ad eliminare l'interpolazione ma anche, utilizzando l'interpolazione, a quadruplicare virtualmente il numero di pixel del sensore: così 50 Mpixel diventano 200. I restanti 2 spostamenti di 1/2 in orizzontale e in verticale, servono ad aumentare la quantità di informazioni per colore facendo pixel binning tra fotositi adiacenti.
Rubberick
30-05-2011, 23:46
la qualita' ovviamente rispetto ad avere una 200 nativa è tutt'altra storia no?
con quel tipo di interpolazione penso che si perda parecchio
+Benito+
31-05-2011, 07:57
secondo me invece il risultato è migliore perchè hai le componenti colore per ogni singolo pixel senza doverci lavorare via software.
Una matrixe di N pixel restituisce N/4 dati "originali" perchè sono divisi per componente colore, in questo caso hai la lettura "piena" dei dati relativi a tutti i fotodiodi.
scatta 4 foto...
Disegnino? (http://asia.cnet.com/i/r/2010/crave/dc/63020907/hasselblad2_500x266.jpg)
Qui (http://www.hasselblad.it/promozioni/comparison-jonathan-beer.aspx) invece degli esempi.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.