PDA

View Full Version : Intel, modello matematico per stabilire le responsabilità degli incidenti nella guida autonoma


Redazione di Hardware Upg
18-10-2017, 13:21
Link alla notizia: http://auto.hwupgrade.it/news/tecnologia/intel-modello-matematico-per-stabilire-le-responsabilita-degli-incidenti-nella-guida-autonoma_71810.html

Il CEO di Mobileye propone un modello matematico che abbia lo scopo di formalizzare i concetti umani di cautela e responsabilità, così da poter determinare lo stato di sicurezza delle azioni di un veicolo autonomo

Click sul link per visualizzare la notizia.

emahwupgrade
18-10-2017, 13:38
E poi chi paga? Il produttore della macchina che ha sbagliato?

zappy
18-10-2017, 13:58
E poi chi paga? Il produttore della macchina che ha sbagliato?
se l'auto non ha controlli x umani (volante, pedali), per forza.

lucusta
18-10-2017, 14:18
se leggi tra le righe ti stanno dicendo che, dimostrata l'ammissibilità di una condizione che esclude possibilità di evitare l'incidente... il classico concorso di colpa... e paga quindi il proprietario.

nell'immagine 2 non ha senso nella guida autonoma.
qualsiasi auto che consideri ha innescato una possibile fonte di pericolo (anche la nera, perchè ricordiamoci che hanno sensori a 360°), quindi nessuna di queste è a guida autonoma.

zappy
18-10-2017, 14:20
se leggi tra le righe ti stanno dicendo che, dimostrata l'ammissibilità di una condizione che esclude possibilità di evitare l'incidente... il classico concorso di colpa... e paga quindi il proprietario.
se non ci sono controlli umani, come fai ad avere "colpa"? ;)

emahwupgrade
18-10-2017, 14:29
https://www.techspot.com/community/topics/bill-gates-vs-general-motors.37462/

🙂

lucusta
18-10-2017, 16:00
se non ci sono controlli umani, come fai ad avere "colpa"? ;)

perchè l'unico modo che hai, anche oggi, per scaricare la colpa sul produttore dell'auto è un difetto di fabbricazione.
dimostrato che non c'è colpa, quindi difetto, il danni li paga il proprietario (perchè qualcuno che paga ci deve sempre essere).

cdimauro
19-10-2017, 07:04
C'è da dire che il problema principale è attualmente rappresentato dagli esseri umani. Con la progressiva eliminazione degli umani, il numero di incidenti è destinato a ridursi notevolmente.

E in ogni caso, anche per quei pochi incidenti che ci saranno, ci sono sempre le assicurazioni (che comunque DOVREBBERO costare molto meno, proprio perché ci sarà di gran lunga meno rischi di incidenti).

Fermo restando che la guida autonoma pone delle problematiche etico-morali di non poco conto.

https://www.techspot.com/community/topics/bill-gates-vs-general-motors.37462/

🙂
:asd:

amd-novello
19-10-2017, 07:51
già. non vedo l'ora che si diffondano le macchine a guida autonoma. quella vera non le baggianate di oggi. ma un concetto non è stato mai spiegato. come funziona la programmazione di questi sistemi quando si deve decidere cosa rischiare per evitare di porre fine ad una vita?
ad esempio di certo cerco di rallentare per un gatto che attraversa ma se percepisco la possibilità di incidente lo prendo sotto senza pensarci troppo. se fosse un bambino o comunque un essere umano rischierei l'incidente.

Mparlav
19-10-2017, 10:48
già. non vedo l'ora che si diffondano le macchine a guida autonoma. quella vera non le baggianate di oggi. ma un concetto non è stato mai spiegato. come funziona la programmazione di questi sistemi quando si deve decidere cosa rischiare per evitare di porre fine ad una vita?
ad esempio di certo cerco di rallentare per un gatto che attraversa ma se percepisco la possibilità di incidente lo prendo sotto senza pensarci troppo. se fosse un bambino o comunque un essere umano rischierei l'incidente.

In Germania stanno gettando le basi normative per stabilire a priori queste scelte "etiche":
https://www.engadget.com/2017/08/24/germany-implement-ethical-guidelines-self-driving/

da quanto ho capito, pare che vogliano spingersi fino al livello di automazione 4, lasciando sempre un parte dell'intervento, e soprattutto della responsabilità, all'uomo. Perchè poi alla fine, il problema non è tanto tecnologico, ma di responsabilità, per la casa costruttrice e per l'assicurazione.

Un conducente umano agisce d'istinto e la scelta finale non è detto che sia quella più "corretta".
Nel tuo esempio, potrebbe aver deciso di scansare il gatto che attraversa ed alla fine si schianta uccidendo se stesso ed i passeggeri.
Oppure, decide di tirar dritto ed investire un pedone che attraversa (non un animale), salvando se stesso ed i passeggeri.
La tendenza attuale è che è talmente distratto alla guida che gli incidenti semplicemente avvengono senza aver manco eseguito una vera e propria scelta :(

In generale sono il conducente umano ha pochissimo tempo per ponderare, mentre un computer sì, ma solo se programmato "correttamente".

Alcuni esempi di "scelte etiche":
http://moralmachine.mit.edu/

s-y
19-10-2017, 11:00
la questione penso sia particolarmente delicata in questa fase di 'transizione', da capire cosa uscirà fuori e temo che prima di avere delle 'normative' stabili dovrà essere versato del sangue (lo scrivo senza giudizio, a priori non si può prevedere tutto)

tendenzialmente (ora come ora) sono per un approccio il più light possibile, a meno che non si demandi completamente alla macchina, anche la responsabilità

un esempio parzialmente per assurdo: se il guidatore fosse 'tenuto' ad intervenire solo in certi frangenti, lo farebbe partendo da uno stato di concentrazione estremamente basso dato che in precedenza non guidava, e la situazione sarebbe tutt'altro che ideale.
se poi fosse anche responsabile giuridicamente, penserebbe legittimamente 'ndo sta il bottone per spegnere l'accrocchio?'

biometallo
19-10-2017, 11:07
E poi chi paga? Il produttore della macchina che ha sbagliato?

se l'auto non ha controlli x umani (volante, pedali), per forza.
Se io parcheggio in discesa, e per assurdo il freno a mano si dovesse disinserire da solo chi pagherebbe eventuali danni a terzi?
Il proprietario dell'auto credo, allo stesso modo con la normativa vigente sarebbe sempre il proprietario dell'auto il resoponsabile, per poi eventualmente rivalersi sul produttore.


Con la progressiva eliminazione degli umani


Quindi alla fine avevano ragione tutti quelli che ogni volta che anche solo si accenna alla AI cominciano a parlare di Skynet e robot terminatori...

Vabbé adeguiamoci, Kill ALL Humans!

https://www.youtube.com/watch?v=2SdGkkp1aq8

(tutta una scusa pietosa per spammare sto demo che mi piace assai)

nickname88
19-10-2017, 11:58
se non ci sono controlli umani, come fai ad avere "colpa"? ;)
Se non hai il volante troveranno un pretesto o una logica contorta.

amd-novello
19-10-2017, 12:25
un sistema che in caso di pericolo richiede il mio intervento NON E' guida autonoma a mio parere, non importa come decidano di chiamarla.

zappy
19-10-2017, 14:50
Se io parcheggio in discesa, e per assurdo il freno a mano si dovesse disinserire da solo chi pagherebbe eventuali danni a terzi?
Il proprietario dell'auto credo, allo stesso modo con la normativa vigente sarebbe sempre il proprietario dell'auto il resoponsabile, per poi eventualmente rivalersi sul produttore.
perizia x stabilire se:
-s'è disinserito perché tu l'hai inserito male
-s'è disinserito perché tu non hai fatto manutenzione
-s'è disinserito perché è difettato di fabbrica.

ma cmq si parla di un oggetto (il freno a mano) che è un elemento di azione dell'umano sulla macchina. se il freno a mano non c'è perchè la macchina è autonoma e si "frena" da sola, difficile che si possa dare la colpa all'utente, fatti salvi danneggiamenti non riparati, mancata manutenzione/tagliando ecc.

zappy
19-10-2017, 14:51
Se non hai il volante troveranno un pretesto o una logica contorta.
dovrebbe essere davvero molto contorta...
un po' come dessero la colpa al passeggero se l'autobus/taxi/aereo si schianta...