Quote:
Originariamente inviato da +Benito+
(Messaggio 46563150)
Mi chiedo come mai non abbiano ancora sfruttato il defocus per mappare tridimensionalmente l'ambiente.
Intendo dire che se hai un'ottica con geometria nota ed un sensore di fuoco, muovendo continuamente la lente di messa a fuoco ottieni per ogni elemento sensibile del sensore la posizione per cui il fascio di luce è a fuoco, ovvero la sua distanza. Mi sembra un metodo valido, economico e veloce per avere una rappresentazione prospettica quotata dello spazio intorno.
I sensori delle moderne reflex integrano già centinaia di sensori a rilevamento di fase. In questo caso la parte fotosensibile per la digitalizzazione dell'immagine non serve, per cui credo che una matrice da 0,5 MSensori sia fattibile sfruttando una superficie analoga ad un full frame.
|
Buona idea, ma credo che il sistema sia più lento dei LiDAR, oltre al fatto che necessita di avere la lente frontale sempre perfettamente pulita, e credo anche che possa essere abbagliato dal sole o dai fari delle auto (e non avrebbe senso un diaframma che si chiude perché aumenterebbe la profondità di campo), e, al contrario, avere problemi di notte causa scarsa illuminazione.
Nb
Ammetto di non conoscere questa tecnologia (ammesso esista), ho solo fatto il paragone con i problemi che affliggono le fotocamere reflex
Parlando dei prodotti dell'articolo, un appunto che mi viene da fare è sul grado di protezione; per un utilizzo del genere è più indicato IP66 che resiste ai getti d'acqua in pressione. Ricordo a tutti che i gradi di protezione IP67 e IP68 comprendono automaticamente tutti quelli inferiori tranne, appunto, IP66; gli apparecchi che soddisfano entrambi i requisiti hanno la doppia marcatura IP66/IP67 oppure IP66/IP68
|