Quote:
Originariamente inviato da baolian
Secondo me il problema della guida autonoma è etico e morale ancora prima che tecnologico.
Potrebbe anche darsi che il livello attuale, ben lungi dall'essere perfetto, sia comunque già più sicuro della guida umana (quando ancora facevo l'assicuratore, ricordo che circa l'80% degli incidenti era causato dalla distrazione); però di un sistema automatico non si tollera l'errore, inoltre si tende a sovrastimare le capacità umane, in particolare le proprie (scometto che molti di quelli che stanno pensando di guidare sempre molto meglio di un autpilot di livello 2, avranno almeno una volta risposto al cellulare mentre guidavano o si siano messi alla guida dopo aver bevuto una birra al mare etc .etc.).
C'è anche il problema delle scelte di programmazione.
Ad esempio una persona attraversa la strada all'improvviso e non c'è lo spazio per fermare l'auto, le uniche due soluzioni possibili sono investire il pedone o sterzare facendo un frontale con l'auto che arriva in senso contrario: il programmatore deve scegliere la salute degli occupanti, con morte certa del pedone oppure salvaguardare il pedone sperando che i mezzi di sicurezza della nostra auto e di quella che sopraggiunge siano sufficienti a limitare i danni?
Infine il discorso delle responsabilità.
Oggi quella penale è del conducente, quella civile è del conducente in solido col proprietario. In caso di guida autonoma di livello 5?
|
chissà perchè sto indovinello esce sempre...
l'unica opzione sbagliata, per la verità, è far decidere (e guidare) ad un umano, visto che mediamente riuscirebbe sia a centrare il pedone sia ad effettuare un frontale con l'auto sull'altra corsia...