View Single Post
Old 19-10-2017, 09:48   #10
Mparlav
Senior Member
 
L'Avatar di Mparlav
 
Iscritto dal: Dec 2005
Messaggi: 20689
Quote:
Originariamente inviato da amd-novello Guarda i messaggi
già. non vedo l'ora che si diffondano le macchine a guida autonoma. quella vera non le baggianate di oggi. ma un concetto non è stato mai spiegato. come funziona la programmazione di questi sistemi quando si deve decidere cosa rischiare per evitare di porre fine ad una vita?
ad esempio di certo cerco di rallentare per un gatto che attraversa ma se percepisco la possibilità di incidente lo prendo sotto senza pensarci troppo. se fosse un bambino o comunque un essere umano rischierei l'incidente.
In Germania stanno gettando le basi normative per stabilire a priori queste scelte "etiche":
https://www.engadget.com/2017/08/24/...-self-driving/

da quanto ho capito, pare che vogliano spingersi fino al livello di automazione 4, lasciando sempre un parte dell'intervento, e soprattutto della responsabilità, all'uomo. Perchè poi alla fine, il problema non è tanto tecnologico, ma di responsabilità, per la casa costruttrice e per l'assicurazione.

Un conducente umano agisce d'istinto e la scelta finale non è detto che sia quella più "corretta".
Nel tuo esempio, potrebbe aver deciso di scansare il gatto che attraversa ed alla fine si schianta uccidendo se stesso ed i passeggeri.
Oppure, decide di tirar dritto ed investire un pedone che attraversa (non un animale), salvando se stesso ed i passeggeri.
La tendenza attuale è che è talmente distratto alla guida che gli incidenti semplicemente avvengono senza aver manco eseguito una vera e propria scelta

In generale sono il conducente umano ha pochissimo tempo per ponderare, mentre un computer sì, ma solo se programmato "correttamente".

Alcuni esempi di "scelte etiche":
http://moralmachine.mit.edu/
__________________
Wer nicht lösungsorientiert handelt bleibt Bestandteil des Problem
Mparlav è offline   Rispondi citando il messaggio o parte di esso
 
1