PDA

View Full Version : Google Measure, come sfruttare la realtà aumentata per misurare oggetti e distanze


Redazione di Hardware Upg
25-06-2018, 14:21
Link alla notizia: https://www.hwupgrade.it/news/telefonia/google-measure-come-sfruttare-la-realta-aumentata-per-misurare-oggetti-e-distanze_76692.html

Basta tracciare una riga sullo schermo per ottenere una stima sulle dimensioni di qualsiasi oggetto, o della distanza fra due oggetti inquadrati dalla fotocamera. Come? Con la nuova app Measure di Google

Click sul link per visualizzare la notizia.

Okkau
25-06-2018, 14:24
Faccio prima con il metro

Portocala
25-06-2018, 14:33
Non funziona in modo intuitivo e spesso non rileva il piano in modo corrett, concordo con il voto del Play Store.

demon77
25-06-2018, 14:46
Adesso pare faccia abbastanza pena.. spero tanto la migliorino.
A me farebbe davvero comodo.

AceGranger
25-06-2018, 15:07
Adesso pare faccia abbastanza pena.. spero tanto la migliorino.
A me farebbe davvero comodo.

non è questione di app da migliorare; il problema dell'accuratezza deriva dal sensore del cellulare, dalla qualita e dalla deformazione dell'obiettivo.

sostanzialmente l'app è come se fosse un software per la fotogrammetria usata per estrapolare solo le lunghezze; per funzionare meglio servirebbero sensori piu grossi con meno rumore e lenti non grandangolari.

demon77
25-06-2018, 15:16
non è questione di app da migliorare; il problema dell'accuratezza deriva dal sensore del cellulare, dalla qualita e dalla deformazione dell'obiettivo.

sostanzialmente l'app è come se fosse un software per la fotogrammetria usata per estrapolare solo le lunghezze; per funzionare meglio servirebbero sensori piu grossi con meno rumore e lenti non grandangolari.

La risoluzione del sensore in realtà è più che sufficiente per avere ottimi dettagli (dipende poi dal contesto chiaramente), la problematica è data più che altro dal saper elaborare efficacemente le diverse foto riprese da diverse angolazioni per estrarne dati sufficientemente ridondanti per avere misure con un margine di errore minimo.
Forse per questo tipo di applicazione sarebbe molto più utile un sistama a doppia ottica (abbastanza distanziate tra loro) per riprese in 3d.

In sostanza fai un filmato dell'oggetto o del locale da più punti di vista possibile e dato un riferimento certo il software è poi in grado di ricostruire tutte le altre misure in modo dettagliato

AceGranger
25-06-2018, 16:56
La risoluzione del sensore in realtà è più che sufficiente per avere ottimi dettagli (dipende poi dal contesto chiaramente)

intendevo risoluzione "di qualita"; non serve a nulla avere 20 Mpixel pieni di rumore o di pixel elaborati in post, sena parlare dei filtri aggressivi di cui sono dotati i sensori dei cellulari.

ovviamente intendo ai fini fotogrammetrici.

la problematica è data più che altro dal saper elaborare efficacemente le diverse foto riprese da diverse angolazioni per estrarne dati sufficientemente ridondanti per avere misure con un margine di errore minimo.

è quello che gia fa questa app, il problema è che non puoi estrarre informazioni corrette se di partenza hai una valanga di errori


Forse per questo tipo di applicazione sarebbe molto più utile un sistama a doppia ottica (abbastanza distanziate tra loro) per riprese in 3d.


2 ottiche/sensori di merd@ non ne fanno uno buono :p


In sostanza fai un filmato dell'oggetto o del locale da più punti di vista possibile e dato un riferimento certo il software è poi in grado di ricostruire tutte le altre misure in modo dettagliato

la realta è che se non parti da immagini nitide esenti da rumore e con minima distorsione il software ricostruira sempre merd@ imprecisa; con i tempi dell'otturatore del video poi è la fiera dell'imprecisione.

se fosse tutto cosi semplice non avrei speso 5.000 euro di attrezzatura.

In realtà per correggere la distorsione delle lenti ci vuole poco, basterebbe fotografare un riferimento come un banale foglio a quadretti e un algoritmo abbastanza semplice.

ai fini fotogrammetrici, un'immagine corretta in post non è come avere una foto fatta con un obiettivo asferico e comunque non intendevo la piccola % di distorsione che danno gli obbiettivi, ma intendevo la distorsione del grandangolo tada dall'inquadrare una regione ampia che, anche se la raddrizzi, avra comunque pessime informazioni ai fini fotogrammetrici.

demon77
25-06-2018, 19:11
ai fini fotogrammetrici, un'immagine corretta in post non è come avere una foto fatta con un obiettivo asferico e comunque non intendevo la piccola % di distorsione che danno gli obbiettivi, ma intendevo la distorsione del grandangolo tada dall'inquadrare una regione ampia che, anche se la raddrizzi, avra comunque pessime informazioni ai fini fotogrammetrici.

Ma no, tu parli di fotogrammetria in senso cartografico.. cioè partire da uno scatto per riprodurre una mappa. Chiaro che li entrano in gioco tutte le questioni citate su deformazioni dell'obiettivo e nitidezza dell'immagine.

Qui parliamo di un software che partendo da tantissime immagini se non addirittura un filmato riece a calcolare le dimansioni di un oggetto mettendo insieme le informazioni di moltissimi scatti.
E' un modo molto diverso di lavorare partendo da una differente tipologia di informazioni.

Possiamo dire che è un sistema sulla falsa riga dei software che tirano fuori un modello tridimensionale di un oggetto a partire da tanti scatti dello stesso da diverse angolazioni.
La precisione aumenta all'aumentare del numero di foto disponibili.

zappy
25-06-2018, 20:12
interessante ma mi sfugge perchè sia possibile solo coi cell compatibili con la realtà aumentata.

Tedturb0
25-06-2018, 21:21
Giusto piu di un anno dopo apple.. e fa pure pena.
Non credo ci sia altro da aggiungere su merdroid. Ho speso 200€ per uno di questi (Xperia X dual) e a questo punto li considero soldi buttati.

Phoenix Fire
25-06-2018, 21:34
interessante ma mi sfugge perchè sia possibile solo coi cell compatibili con la realtà aumentata.
perchè l'app sfrutta le funzioni del kit di realtà aumentata, non è "scritta da zero"
Giusto piu di un anno dopo apple.. e fa pure pena.
Non credo ci sia altro da aggiungere su merdroid. Ho speso 200€ per uno di questi (Xperia X dual) e a questo punto li considero soldi buttati.
OT
come si chiama l'app per iOS?

AceGranger
25-06-2018, 21:55
Ma no, tu parli di fotogrammetria in senso cartografico.. cioè partire da uno scatto per riprodurre una mappa. Chiaro che li entrano in gioco tutte le questioni citate su deformazioni dell'obiettivo e nitidezza dell'immagine.

Possiamo dire che è un sistema sulla falsa riga dei software che tirano fuori un modello tridimensionale di un oggetto a partire da tanti scatti dello stesso da diverse angolazioni.
La precisione aumenta all'aumentare del numero di foto disponibili.

guarda che i software sono gli stessi e io mi occupo di ricostruzione di oggetti non di ricostruzioni territoriali.


Qui parliamo di un software che partendo da tantissime immagini se non addirittura un filmato riece a calcolare le dimansioni di un oggetto mettendo insieme le informazioni di moltissimi scatti.
E' un modo molto diverso di lavorare partendo da una differente tipologia di informazioni.


non è per nulla diverso; è la stessa identica cosa solo che con il video parti a prescindere con una perdita considerevole di informazioni per via dei tempi dell'otturatore, a meno che il video non sia un time-lapse o un 120-240 fps;

Il problema è solo e soltanto uno, che è quello che ti ho gia detto, la qualita di partenza dei sensori e delle lenti dei cellulari; il software qui non puo fare nulla di piu di quello che gia fa ora, ovvero approssimare la sorgente penosa.

Se non ci credi puoi farti tutte le prove che vuoi utilizzando Nuke, che è un sofware utilizzato per il montaggio degli effetti speciali nel mondo del cinema, che ha integrato il modulo per la ricostruzione fotogrammetrica da ripresa video; prova con un video da cellulare e poi con un video fatto con una APS-C o FF e poi guarda l'approssimazione di ricostruzione di uno e dell'altro sensore.


questo software avra sempre problemi di precisione direttamente proporzionali alla qualita dei sensori; quando miglioreranno i sensori migliorera di conseguenza il "suo metro"; se ipoteticamente parlando, avessi in mano uno smartphone con sensore APS-C e 24 Mpixel, dove ora ti ritrovi con errori di 1 cm avresti una precisione al millimetro.

demon77
25-06-2018, 22:38
guarda che i software sono gli stessi e io mi occupo di ricostruzione di oggetti non di ricostruzioni territoriali.



non è per nulla diverso; è la stessa identica cosa solo che con il video parti a prescindere con una perdita considerevole di informazioni per via dei tempi dell'otturatore, a meno che il video non sia un time-lapse o un 120-240 fps;

Il problema è solo e soltanto uno, che è quello che ti ho gia detto, la qualita di partenza dei sensori e delle lenti dei cellulari; il software qui non puo fare nulla di piu di quello che gia fa ora, ovvero approssimare la sorgente penosa.

Se non ci credi puoi farti tutte le prove che vuoi utilizzando Nuke, che è un sofware utilizzato per il montaggio degli effetti speciali nel mondo del cinema, che ha integrato il modulo per la ricostruzione fotogrammetrica da ripresa video; prova con un video da cellulare e poi con un video fatto con una APS-C o FF e poi guarda l'approssimazione di ricostruzione di uno e dell'altro sensore.


questo software avra sempre problemi di precisione direttamente proporzionali alla qualita dei sensori; quando miglioreranno i sensori migliorera di conseguenza il "suo metro"; se ipoteticamente parlando, avessi in mano uno smartphone con sensore APS-C e 24 Mpixel, dove ora ti ritrovi con errori di 1 cm avresti una precisione al millimetro.

Ok, mi fido di quel che dici, è chiaro che sei molto più informato su questa cosa.
Comunque errore di un centimetro va pure bene per me.. dipende ovviamente per cosa: se sto misurando un locale o una facciata un centimetro di errore va da dio, se sto misurando un comodino no! :stordita: :stordita:

demon77
25-06-2018, 22:41
Giusto piu di un anno dopo apple.. e fa pure pena.
Non credo ci sia altro da aggiungere su merdroid. Ho speso 200€ per uno di questi (Xperia X dual) e a questo punto li considero soldi buttati.

Eh certo. Infatti questa è una app prioritaria che il pianeta aspetta da anni.
Prendere uno smartphone è perfettamente inutile se non puoi usarlo per fare le misure con la realtà aumentata. :rolleyes:

Io preso una Leica M9 per fare le gare con le macchinine. Guarda una vera merda.. non ha neanche le ruote. Cosa che invece le macchinine della Burago hanno da anni.. e a questo punto li considero soldi buttati.

AceGranger
25-06-2018, 22:56
Ok, mi fido di quel che dici, è chiaro che sei molto più informato su questa cosa.
Comunque errore di un centimetro va pure bene per me.. dipende ovviamente per cosa: se sto misurando un locale o una facciata un centimetro di errore va da dio, se sto misurando un comodino no! :stordita: :stordita:

ma si, alla fine va bene un po per tutti, è un'app consumer; di certo non la usera il falegname per prendere le misure di un mobile su misura :D, ma gia cosi è usabilissima dalla gente normale.