Quote:
Originariamente inviato da LMCH
Immagini diverse della stessa scena.
Applicando algoritmi di feature matching tra le 2 (o più) immagini scattate nello stesso istante si possono ricavare informazioni sulla profondità degli oggetti inquadrati, identificare automaticamente i riflessi (e ridurli), aumentare in generale la resa cromatica
ed applicare pure algoritmi di superrisoluzione in modo da estrarre maggiori dettagli dalla fusione dei dati delle due immagini (nota bene: fusione DEI DATI nel senso di informazioni contenute nelle immagini, non dei semplici pixel come succede con le foto panoramiche in cui si fa solo uno stitching).
|
Capito il discorso in generale.. ma nello specifico confuso quanto prima..
Va beh.. si trova in rete qualche sample di come funziona o semplicemente dei risultati rispetto ad una foto "normale"?