PDA

View Full Version : Realtà aumentata per "leggere" nella mente dei robot: un esperimento del MIT


Redazione di Hardware Upg
06-11-2014, 14:39
Link alla notizia: http://www.businessmagazine.it/news/realta-aumentata-per-leggere-nella-mente-dei-robot-un-esperimento-del-mit_54781.html

Un particolare sistema di visualizzazione ideato dal MIT permette di fare più chiarezza sul processo decisionale operato dai robot in particolari situazioni

Click sul link per visualizzare la notizia.

SpyroTSK
07-11-2014, 10:22
Link alla notizia: http://www.businessmagazine.it/news/realta-aumentata-per-leggere-nella-mente-dei-robot-un-esperimento-del-mit_54781.html

Un particolare sistema di visualizzazione ideato dal MIT permette di fare più chiarezza sul processo decisionale operato dai robot in particolari situazioni

Click sul link per visualizzare la notizia.

scusate, nella mia ignoranza ho capito che:
il tizi del mit hanno creato un modo di rappresentare le "decisioni" (cioè log di debug) dei robot sotto forma di immagini?

Cioè: "Mi sposto perchè stà arrivando il robot vicino" lo traduce nella scia luminosa tra i due robot quando si avvicinano?

UAU :mbe:


È un pò come quando si stà programmando che si usa un qualsiasi "segnale" per dire "OK HO FATTO" (ad esempio il print di una variabile o il lampeggio di una scritta/pulsante) senza andare a vedere il debugger :doh:

in parole povere:

if (($robot_distance >= 1) && ($robot_distance <= 10)) {
controlla_coordinate_libere($coordinate);
sclia_luminosa($robot1, $robot2);
spostati($robot1, $coordinate);
}

gsorrentino
08-11-2014, 17:37
scusate, nella mia ignoranza ho capito che:
il tizi del mit hanno creato un modo di rappresentare le "decisioni" (cioè log di debug) dei robot sotto forma di immagini?

Cioè: "Mi sposto perchè stà arrivando il robot vicino" lo traduce nella scia luminosa tra i due robot quando si avvicinano?

UAU :mbe:

......

In realtà è più complesso perché i programmi non sono "lineari" come nel tuo esempio. Sono più codici in parallelo quindi avresti una marea di informazioni in cui dovresti cercare e ricostruire quello che accade. Lo stesso con i log dei debug.

Rubberick
13-11-2014, 08:45
abbè in pratica stanno mettendo su una suite di debug software/hardware da standardizzare per la correzione degli algoritmi dei robot

el_kiuzzo
18-11-2014, 08:46
Credo che se un'organizzazione come il MIT stia cercando di capire, in modi piu' o meno chiari per gli umani, cio' che pensano le macchine per migliorare le prestazione degli algoritmi, allora ci sara' una motivazione piu' o meno sensata. O per lo meno, immagino vorrano avere un feedback immediato senza dover in qualche modo scartabellare tra pagine di log/debug per capire cosa stia succedendo.

Come dice gsorrentino, spesso e volentieri la programmazione algoritmica dei robot e' pesantemente non lineare ed esplicitamente parallela. E si sa che gli umani, dal punto di vista mentale, non riescono a "pensare quadridmensionalmente" in modo naturale. Siamo intrinsecamente tridimensionali, in un mondo che vive in uno spazio tridimensionale. Quindi, aiutare la percezione di uno spazio ultra-tridimensionale (trad. ben piu' che tridimensionale) puo' aiutare.

Vale anche la pena di ricordare che, se una cosa non viene concepita da una singola persona, non e' detto che sia una banalita' o un errore.