Quote:
Originariamente inviato da Goofy Goober
non mi pare un parametro valido per l'equazione.
tu da solo ti suicideresti seduta stante per salvare altre 10 persone da morte certa?
a prescindere far decidere ad una IA chi vive e chi muore è roba di cui sarebbe meglio non parlare nemmeno...
tantovale tirare una moneta.
|
si mi rendo conto che è piuttosto paradossale.
Ma se stai guidando e all'improvviso ti saltano fuori due bambinni dietro ad un pallone.. magari ti viene pure di istinto o di inchiodare, o di sterzare bruscamente per evitarli andandoti però a schiantare contro un muro magari.
Lì la mossa è dettata dal caso e dall'istinto.. la moneta appunto.
Ma se fossi tu a programmare le auto autonome e lo potessi pianificare come regola cosa sceglieresti?
Un bimbo falciato o uno schianto di un'auto con magari tre persone sopra?
E se i bimbi fossero due sulla strada e l'auto con il solo guidatore la scelta sarebbe la stessa?