View Full Version : Autopilot attivo in un altro incidente su Tesla Model 3: morto il conducente
Redazione di Hardware Upg
20-05-2019, 18:41
Link alla notizia: https://auto.hwupgrade.it/news/tecnologia/autopilot-attivo-in-un-altro-incidente-su-tesla-model-3-morto-il-conducente_82419.html
La NTSB ha riportato un altro decesso su un'auto Tesla durante l'uso della modalità Autopilot. Il sistema pare sia inefficace in alcune condizioni, visto che la dinamica riprende quanto successo nel 2016 a un altro conducente di auto Tesla
Click sul link per visualizzare la notizia.
giljevic
21-05-2019, 06:39
Quanti ne sono morti in quel giorno in totale?
1 morto in una tesla. 1000 articoli. 10000morti al giorno... 1 articolo...
NighTGhosT
21-05-2019, 06:50
....e quanti veicoli Tesla con "Autopilot" ci sono in circolazione?
Quante auto non-Tesla senza "Autopilot"?
Perché se vi piacciono tanto le statistiche che tirate fuori a ogni articolo, allora poi bisogna considerarle tutte e non solo quelle che fanno piu' comodo.
Siccome i sostenitori della guida autonoma sostengono che sia la soluzione del futuro per diminuire gli incidenti mortali, e' anche giusto che venga sottolineato che al momento non e' cosi'.
Io ad esempio, se mai avessi i soldi per comprarmi una Tesla...DI CERTO l' "Autopilot" se lo tiene poi Musk.....io la Tesla la apprezzo per la tecnologia e per le sue performances come vettura full electric....STOP....non di certo per un sistema "Autopilot" che continua a far schiantare auto a destra e manca. :asd:
Chissà se qualcuno che cita così tanto i LiDAR come sacro graal, si è mai fermato a ragionare su quanto in fretta decadano le prestazioni (a dispetto dei RADAR) in caso di pioggia, foschia, sensore sporco, pannelli altamente riflettenti (come i cartelli stradali, le strisce bianche sull'asfalto), su quanto sia alto il crosstalk, su quanto costino quelli di qualità decente, di quanto siano grossi, di quanti ne servano a bordo del veicolo perché sia sicuro, ecc ecc.
Righostar
21-05-2019, 06:57
Allora andava a 110Km, un camion gli taglia la strada, muore! Primo: senza autopilota avrebbe frenato per tempo? Secondo: che stava facendo l`autista? No perchè anche in autopilot il pedale del freno funziona benissimo! Credo che bisognerebbe informare meglio che attualmente l`autopilot e le sue funzioni sono distanti da quelle cinematografiche futuristiche dove il tipo sale in macchina a Milano, le chiede di portarlo fino a Trapani e si addormenta arrivando sano e salvo diverse oree dopo a destinazione! Tesla o non Tesla!
Leggendo le dinamiche dell'incidente, credo sarebbe morto al volante di qualsiasi auto, se un camion ti taglia la strada c'è poco da fare!
tallines
21-05-2019, 07:21
Le mani del conducente, inoltre, non erano sul volante come invece dovrebbe essere utilizzata la modalità di guida assistita della compagnia.
............:rolleyes:
OUTATIME
21-05-2019, 07:58
Allora andava a 110Km, un camion gli taglia la strada, muore! Primo: senza autopilota avrebbe frenato per tempo? Secondo: che stava facendo l`autista? No perchè anche in autopilot il pedale del freno funziona benissimo! Credo che bisognerebbe informare meglio che attualmente l`autopilot e le sue funzioni sono distanti da quelle cinematografiche futuristiche dove il tipo sale in macchina a Milano, le chiede di portarlo fino a Trapani e si addormenta arrivando sano e salvo diverse oree dopo a destinazione! Tesla o non Tesla!
Considerando il tempo che il camion ci mette a porsi con lo spazio libero tra assi anteriori e posteriori in mezzo alla carreggiata, direi proprio di si... in ogni caso un automobilista "tradizionale" avrebbe frenato e sterzato andando o fuori strada o andando ad impattare con il muso della motrice, di sicuro non venendo decapitato dal rimorchio alla Sleepy Hollow.
OUTATIME
21-05-2019, 08:07
Chissà se qualcuno che cita così tanto i LiDAR come sacro graal, si è mai fermato a ragionare su quanto in fretta decadano le prestazioni (a dispetto dei RADAR) in caso di pioggia, foschia, sensore sporco, pannelli altamente riflettenti (come i cartelli stradali, le strisce bianche sull'asfalto), su quanto sia alto il crosstalk, su quanto costino quelli di qualità decente, di quanto siano grossi, di quanti ne servano a bordo del veicolo perché sia sicuro, ecc ecc.
Dall'inizio della storia dell'aviazione si rischia ancora di morire per collisione in volo, nonostante gli ausili elettronici ci siano e il mondo dell'aviazione abbia molte meno variabili della strada.
Le auto a guida autonoma devono farne di strada ancora.
Bradiper
21-05-2019, 08:14
Io non capisco sta gente.. Che affida la propria vita a un sistema non ancora perfetto, ma anche se fosse perfetto non riuscirei a lasciare il controllo al 100% e fare altro, ok guida tu ma non ti stacco gli occhi di dosso, lo userei più o meno come il cruise control.
La vera svolta epocale si avrà solo quando tutti i veicoli saranno a guida autonoma e comunicheranno tra loro, allora si che il numero di incidenti si avvicinerà allo zero, quando la stupidità umana verrà rimpiazzata.
il conducente usava l'autopilot in maniera impropria: il sistema Tesla , come quello di tante altre marche, prevede di attivare l'aiuto alla guida e di tenere le mani sul volante e il piede sinistro pronto ad intervenire, l'auto lo segnala appena si attiva il sistema; se il tipo lo ha attivato e da quello che si evince a tolto le mani dal volante magari per messaggiare con lo smartphone non è mica colpa di Tesla!
SpyroTSK
21-05-2019, 09:49
110Km/h, vicino ad un'incrocio? Idiota...Caso chiuso.
https://cdllife.com/2019/roof-sheared-off-of-tesla-in-fatal-crash-with-turning-semi-truck/
C'è anche da dire che se devo comunque tenere le mano sul volante ed essere pronto ad intervenire tanto vale mettersi a guidare senza Autopilot.
pinomaffei
21-05-2019, 10:27
Secondo una ricerca del MIT (https://hcai.mit.edu/human-side-of-tesla-autopilot/), in media i guidatori con autopilot attivo rimangono attenti e pronti a intervenire manualmente nella guida.
Le statistiche di Tesla dicono che gli incidenti sulle loro macchine sono più frequenti quando l'autopilot è disattivato (https://www.teslarati.com/tesla-q1-2019-vehicle-safety-report/), ma questa statistica non significa molto perché l'autopilot viene usato soprattutto nelle strade extraurbane dove il numero di incedenti per Km è più basso.
Riguardo agli incidenti mortali, questo articolo: "https://www.greencarreports.com/news/1119936_tesla-fatal-crash-rate-with-autopilot-still-no-better-than-with-human-drivers" sembra mostrare che, nonostante recenti miglioramenti, ancora il rischio con l'autopilot è molto simile a quello con la guida manuale, ma i numeri sono così bassi che questa statistica potrebbe non avere nessun significato.
Conclusione: non abbiamo nessuna certezza, nel futuro è molto probabile che l'autopilot diventerà più sicuro della guida manuale, ma al momento nessuno ne è veramente certo.
Detto questo, se avessi i soldi, comprerei subito una Tesla, autopilot o no. :mc:
OUTATIME
21-05-2019, 10:28
110Km/h, vicino ad un'incrocio? Idiota...Caso chiuso.
https://cdllife.com/2019/roof-sheared-off-of-tesla-in-fatal-crash-with-turning-semi-truck/
A parte che nell'articolo che hai linkato non c'è nessun riferimento ai 110Km/h... in ogni caso il limite di velocità nel punto dell'impatto è di 55 Mph, che sono comunque 88 Km/h, forse non hai ben presente come funzionano le Higway americane.
E comunque dubito che il sistema di assistenza alla guida non controlli tramite GPS la velocità consentita su quella strada.
SpyroTSK
21-05-2019, 12:41
A parte che nell'articolo che hai linkato non c'è nessun riferimento ai 110Km/h... in ogni caso il limite di velocità nel punto dell'impatto è di 55 Mph, che sono comunque 88 Km/h, forse non hai ben presente come funzionano le Higway americane.
E comunque dubito che il sistema di assistenza alla guida non controlli tramite GPS la velocità consentita su quella strada.
E' scritto nell'articolo:
Una Tesla Model 3 si è scontrata a Marzo con un camion a Palm Beach County, in Florida, provocando la morte del conducente. A riportare il fatto la National Transportation Safety Board: Jeremy Banner era alla guida del veicolo con la modalità Autopilot attiva (che è di guida assistita e non autonoma, lo ricordiamo) alla velocità di 110 km/h
Edit: So' benissimo qual'è il limite nelle Highway ma comunque a circa 70Mph, ben sopra il limite, non stava guardando (il camion non accelera da 0-100 in 2 secondi n'è riesce ad attraversare una highway "velocemente") e non aveva le mani sul volante.
Quindi: Stava sopra il limite di velocità, ha attivato la guida assistita e stava facendo altro, se vedi un camion a 70 metri, a 110kmh hai uno spazio utile di frenata sull'asciutto di 60Mt circa sull'asciutto quindi si sarebbe fermato 10mt prima dell'impatto.
Se guardi bene inoltre, il camion è stato preso nella parte finale del rimorchio, quindi il camion aveva iniziato la manovra da un pezzo.
OUTATIME
21-05-2019, 13:26
E' scritto nell'articolo:
E io ho scritto "nel link che hai postato tu" non nell'articolo italiano.... Quindi non sappiamo da dove arriva quel dato, nè se sia veritiero.
Edit: So' benissimo qual'è il limite nelle Highway ma comunque a circa 70Mph, ben sopra il limite, non stava guardando (il camion non accelera da 0-100 in 2 secondi n'è riesce ad attraversare una highway "velocemente") e non aveva le mani sul volante.
Quindi: Stava sopra il limite di velocità, ha attivato la guida assistita e stava facendo altro, se vedi un camion a 70 metri, a 110kmh hai uno spazio utile di frenata sull'asciutto di 60Mt circa sull'asciutto quindi si sarebbe fermato 10mt prima dell'impatto.
Se guardi bene inoltre, il camion è stato preso nella parte finale del rimorchio, quindi il camion aveva iniziato la manovra da un pezzo.
Come ripeto i 110 Km/h / 70 Mph per il momento non arrivano da fonti certe, inoltre rimango perplesso sulla possibilità di attivare la guida assisitita che ti consenta di andare oltre il limite (questo sarebbe un bel problema).
In ogni caso da quello che avevi scritto sembrava che il problema fosse la velocità sull'incrocio, non il fatto che stesse facendo altro.
SpyroTSK
21-05-2019, 13:35
E io ho scritto "nel link che hai postato tu" non nell'articolo italiano.... Quindi non sappiamo da dove arriva quel dato, nè se sia veritiero.
Come ripeto i 110 Km/h / 70 Mph per il momento non arrivano da fonti certe, inoltre rimango perplesso sulla possibilità di attivare la guida assisitita che ti consenta di andare oltre il limite (questo sarebbe un bel problema).
In ogni caso da quello che avevi scritto sembrava che il problema fosse la velocità sull'incrocio, non il fatto che stesse facendo altro.
Non è colpa solo della velocità, ma anche di tutto il resto.
https://www.theverge.com/2019/5/16/18627766/tesla-autopilot-fatal-crash-delray-florida-ntsb-model-3
The vehicle was traveling at 68 mph when it crashed
edit: secondo me comunque è fattibile andare oltre il limite, d'altronde le auto che leggono i cartelli e hanno la guida assistita di lv2 (come il mio tucson) con il cruise control puoi andare anche 220kmh e non fà una piega.
polli079
21-05-2019, 13:38
Siccome i sostenitori della guida autonoma sostengono che sia la soluzione del futuro per diminuire gli incidenti mortali, e' anche giusto che venga sottolineato che al momento non e' cosi'.
Condivido, io sono un sostenitore della guida autonoma ma sono d'accordo con te, siamo ancora parecchio indietro, inutile negarlo.
polli079
21-05-2019, 13:39
Allora andava a 110Km, un camion gli taglia la strada, muore! Primo: senza autopilota avrebbe frenato per tempo? Secondo: che stava facendo l`autista? No perchè anche in autopilot il pedale del freno funziona benissimo! Credo che bisognerebbe informare meglio che attualmente l`autopilot e le sue funzioni sono distanti da quelle cinematografiche futuristiche dove il tipo sale in macchina a Milano, le chiede di portarlo fino a Trapani e si addormenta arrivando sano e salvo diverse oree dopo a destinazione! Tesla o non Tesla!
L'autista ha sicuramente sbagliato in quanto doveva essere attento e vigile come se guidasse lui però questo non giustifica che l'autopilot ha fallito.
Va comunque capito se c'erano i margini per frenare oppure.
SpyroTSK
21-05-2019, 13:57
...Credo che bisognerebbe informare meglio che attualmente l`autopilot e le sue funzioni sono distanti da quelle cinematografiche futuristiche dove il tipo sale in macchina a Milano, le chiede di portarlo fino a Trapani e si addormenta arrivando sano e salvo diverse oree dopo a destinazione! Tesla o non Tesla!
Non funzionava su atto di forza, figuriamoci in realtà! :sofico:
https://www.youtube.com/watch?v=xGi6j2VrL0o
Charlie Oscar Delta
21-05-2019, 13:57
non ha fallito, no. è solo andato dritto contro un camion senza frenare. funziona alla grande. certo che se il guidatore avesse tenuto gli occhi aperti e sulla strada avrebbe frenato, lui ha attivato il sistema e si è disinteressato di tutto.
Charlie Oscar Delta
21-05-2019, 14:03
cmq è stato ribadito varie volte, ci sono molti articoli tecnici, il sistema tesla VEDE gli oggetti fissi o a basse velocità, ma li esclude dal calcolo per non affaticare il sistema, perchè gli darebbero tutti falsi positivi. di conseguenza un camion fermo per lui è un bel cielo azzurro e strada libera.
e questo è anche il motivo per cui non funziona nel traffico cittadino.
Leggendo le dinamiche dell'incidente, credo sarebbe morto al volante di qualsiasi auto, se un camion ti taglia la strada c'è poco da fare!
Tu se vedi un camion ti fermi, o ti lanci sotto facendo l'auto cabriolet come nei telefilm? :doh:
No ma funziona tutto benissimo. :D
Chiaramente colpa del conducente, come sempre.. :D
Coi sistemi automatici spariranno gli incidenti dalla strada, è solo il lidar che manca. :D
:sofico:
Charlie Oscar Delta
21-05-2019, 14:39
vero però che il lidar ha le sue limitazioni, oltre ai costi.
mi sembra che uber sperimentasse un mix di tutti questi sistemi, che non è detto fossero tutti ben funzionanti la sera dell'investimento.
quello che mi stupisce di questi radar è che gli basterebbe essere un sensore di parcheggio un po' più performante. e non l'economico che usa tesla.
https://arstechnica.com/cars/2019/05/feds-autopilot-was-active-during-deadly-march-tesla-crash/?comments=1
qui già 400 commenti.
questo l'avevo postato l'altro ieri.
https://mashable.com/2018/05/30/tesla-autopilot-stationary-crashes/?europe=true
https://www.wired.com/story/tesla-autopilot-why-crash-radar/
Tesla "Autopilot" cannot see stationary objects. It has a radar, but it is 1-D and low resolution. It uses this to localize other moving cars. In theory, it could use this to see a highway divider or firetruck it's about to hit, but since it's 1-D that would also mean that it would have to slam on the brakes when it sees an overpass coming up, because it can't tell the difference between an overpass and a highway divider or a firetruck. It can assume that overpasses aren't driving at 60mph, so it will see other cars. The Tesla algorithm is "look for lane markings and try to stay between them, and don't hit any moving vehicles. If there is any stationary object, including another a vehicle in your lane, the "Autopilot" will plow right into it. If they're not explaining this to customers, it's negligent.
polli079
21-05-2019, 15:02
C'è anche da dire che se devo comunque tenere le mano sul volante ed essere pronto ad intervenire tanto vale mettersi a guidare senza Autopilot.
Condivido, la tecnologia non è pronta, è palese, ma lo scopo deve essere quello di evitare che l'essere umano sia necessario perchè se devo guardare cosa fa la macchina tanto vale che guido io.
Charlie Oscar Delta
21-05-2019, 15:21
in 100 anni di evoluzione non esiste pilota automatico indipendente da DUE esperti piloti, manco nella strettissima regolamentazione degli aerei, manco sul treno, manco sulle navi, dove il rischio di urtare un ostacolo si valuta in centinaia di metri.
ma qui qualcuno è convinto di affidare a un computer una guida che sfreccia a pochissimi centimetri di distanza da cemento e acciaio.
basterebbe chiedere a questi fan del fututo se siederebbero su uno scooter a guida autonoma, o una bici. non si capisce perchè sull'auto si sentano più sicuri. questa è la cultura della deresponsabilizzazione, del vietato vietare, del non è mai colpa mia, inculcata da generazioni precedenti a quelle nuove.
righel71
21-05-2019, 17:27
tutta sta mega tecnologia e ia e poi non c'è un allarme che scassa talmente le palle se lasci le mani dal volante con autopilot attivo che le rimetti subito al loro posto?visto che il sensore già c'è.....mah. giocano con l'equivoco mi sa questi
modalità Autopilot attiva (che è di guida assistita e non autonoma, lo ricordiamo)
per me basta questo per dire che non è colpa dell'auto, ma dell'utente, che utilizza un mezzo in maniera non consona.
il resto è clickbait
poi se proprio vogliamo fare delle statistiche che abbiano valore assoluto, dobbiamo prendere in considerazione i morti su auto tradizionali, rapportati al totale delle auto tradizionali, e rapportarlo ai morti su auto a guida autonoma sul totale di queste ultime, le auto a guida ASSISTITA ne uscirebbero in ogni caso "vincitrici" se si può usare questo termine
Charlie Oscar Delta
21-05-2019, 17:59
certo, se prendi le statistiche come ti pare.
io non ho mai sentito di un umano che consapevolmente si va a suicidare contro un camion, o devia verso un paracarro in cemento convinto che sia la strada giusta.
l'umano sbaglia e si assume il rischio ogni volta che sale in auto, l'ia invece ti fa schiantare convinta che sta facendo la cosa giusta. e infatti l'auto è andata avanti per oltre 400metri dopo essere diventata cabriolet. non aveva assolutamente capito nè che stava per schiantarsi, nè che si è schiantata. per lei era tutto giusto, cielo azzurro e strada libera.
Sono tendenzialmente a favore dell'autopilot(anche se non mi fa impazzire)
Tuttavia, è meglio che le case automobilistiche, Tesla in primis, concentrino risorse, energie mentali e uomini allo sviluppo di auto ELETTRICHE sempre più efficienti e con costi che sempre più si avvicinano a quelli delle auto a carburante, facendo in modo che nel giro di 10-15 anni tali auto vengano del tutto soppiantate dalle elttriche. Questo serve, mentre invece boiate radical-chic come l'autopilot possono pure aspettare 2 o 300 anni.
Anyway, a quanto ho capito il camionista ha fatto una manovra da assassino esperto, come spesso fanno il 60% dei suoi colleghi. Autopilot o no, quando ti trovi in certe situazioni col killer di turno armato di camion, le penne ce le lasci anche se hai mani sul volante e piedi sul freno.
Charlie Oscar Delta
21-05-2019, 18:18
il 60% dei suoi colleghi. complimenti per il qualunquismo, espertone di statistiche.
ogni fottuto secondo nel mondo si muovono milioni di camion per portarti le tue robaccie prese su ebay o amazon e non c'è la conta dei morti da 60%.
e tutto ciò che hai scritto dopo anyway è una fesseria, manco un paralitico finirebbe sotto al camion. l'auto ha avuto 10 secondi per vederlo, e ha solo accelerato, mai rallentato. l'ha visto, ma il suo evoluto software l'ha ignorato perchè magari era un falso positivo.
Ma non era morto tipo 3 giorni fa ?
Che cavolo ... ne nuore uno a giorno
Che poi con le auto normali ne muoiono un casino al giorno non e un problema ?
Charlie Oscar Delta
22-05-2019, 01:02
https://www.theverge.com/2019/5/17/18629214/tesla-autopilot-crash-death-josh-brown-jeremy-banner
certo, se prendi le statistiche come ti pare.
io non ho mai sentito di un umano che consapevolmente si va a suicidare contro un camion, o devia verso un paracarro in cemento convinto che sia la strada giusta.
l'umano sbaglia e si assume il rischio ogni volta che sale in auto, l'ia invece ti fa schiantare convinta che sta facendo la cosa giusta. e infatti l'auto è andata avanti per oltre 400metri dopo essere diventata cabriolet. non aveva assolutamente capito nè che stava per schiantarsi, nè che si è schiantata. per lei era tutto giusto, cielo azzurro e strada libera.
Il fatto che l'umano si schianti senza farlo di proposito, ma neanche sempre perché alcuni si mettono alla guida anche ubriachi o drogati o attraversano con il rosso ecc..., e invece l ia lo faccia di proposito mi rincuora!! Ah si molto meglio morire piu spesso ma con la consapevolezza di aver fatto tutto da soli!!! Viva l'essere umano. Che poi l'idea di poter avere più tempo libero perché di fatto hai un autista personale h24 che guida al posto tuo deve fare proprio schifo. :fagiano:
Sono tendenzialmente a favore dell'autopilot(anche se non mi fa impazzire)
Tuttavia, è meglio che le case automobilistiche, Tesla in primis, concentrino risorse, energie mentali e uomini allo sviluppo di auto ELETTRICHE sempre più efficienti e con costi che sempre più si avvicinano a quelli delle auto a carburante, facendo in modo che nel giro di 10-15 anni tali auto vengano del tutto soppiantate dalle elttriche. Questo serve, mentre invece boiate radical-chic come l'autopilot possono pure aspettare 2 o 300 anni.
Anyway, a quanto ho capito il camionista ha fatto una manovra da assassino esperto, come spesso fanno il 60% dei suoi colleghi. Autopilot o no, quando ti trovi in certe situazioni col killer di turno armato di camion, le penne ce le lasci anche se hai mani sul volante e piedi sul freno.
ma anche no, il problemi principali imho sono due (e il comportamento dell'autista non c'entra una mazzuola )
1) in primis l'autista che non stava guidando ne guardando fuori dal parabrezza
2) il sistema autopilot è palese che non ha rilevato il rimorchio del camion (avvenimento per altro già successo anni fa) questo perchè il software di tesla si basa pesantemente sull'uso dei sistemi di visione il cui output ha un peso molto più rilevante di quello radar (altrimenti addio alla pedestrian detection)
il tutto coaudivato dal non uso di una tecnologia di ranging in grado di rilevare la maggior parte degli ostacoli biologici.
ci sarà un motivo se il 99% dei veicoli autonomi presenti attualmente nel mondo (ovvero agv, lgv, transpallet automatici) sono dotati di laser scan di sicurezza e/o di navigazione (sick e omron principalmente ) nonostante siano veicoli abbastanza lenti e che lavorano in ambienti sporchi.
l'unico motivo per non montare un laser scan è il costo non ci sono ne se ne ma
maxnaldo
22-05-2019, 09:25
la colpa è di Tesla, punto e basta.
a causa del loro marketing, guardate cosa dicono della loro guida assistita sul loro sito, anche adesso.
https://www.tesla.com/it_IT/models
la chiamano "Guida autonoma" e fanno anche vedere l'autista con le mani appoggiate sulle gambe nel loro video. Poi se vai a leggere bene cosa scrivono sotto vedi che c'è scritto "hardware predisposto per un futuro di guida autonoma", cioè adesso non possono farlo ma in futuro potrebbero.
il problema è proprio ciò che fanno credere ai loro clienti, che il sistema autopilot aumenta la sicurezza di guida e che, anche se non lo dichiarano ufficialmente, le loro Tesla possono essere definite: "a guida autonoma".
il marketing di quell'azienda è colpevole, i morti ce li hanno sulla loro coscienza. Inutile che si giustifichino dicendo "ah ma aveva tolto le mani dal volante", anche se lo scrivono nelle loro istruzioni il problema è quello che invece vogliono farti credere.
Anche il marketing della mia azienda telefonica cerca di farmi credere che le loro offerte sono "per sempre", poi però ogni anno arrivano le rimodulazioni con modifiche unilaterali al contratto. Però, a differenza di Tesla, queste balle sparate dal loro marketing non ammazzano nessuno.
oltre il limite di velocità di quasi il doppio... in scia di un camion (che quindi taglia l'aria ed in frenata assorbe il veicolo dietro di sé). In più NON frena quando il camion frena ma anzi accelera.
Ma magari il titolo non avrebbe dovuto avere un "da 10 secondi" tra le parole AUTO e IN?
no così, perché in quelle condizioni forse avrebbe fatto prima a premere eject e saltare fuori dal veicolo in corsa...
OUTATIME
22-05-2019, 10:22
Anyway, a quanto ho capito il camionista ha fatto una manovra da assassino esperto, come spesso fanno il 60% dei suoi colleghi. Autopilot o no, quando ti trovi in certe situazioni col killer di turno armato di camion, le penne ce le lasci anche se hai mani sul volante e piedi sul freno.
Ammesso e non concesso che sia così, il sistema ha fallito proprio dove avrebbe dovuto essere più preventivo, ovvero qualcosa che si interpone tra l'auto e la strada. Probabilmente il sistema, come qualcuno ha già osservato, ha rilevato correttamente il passaggio della motrice, ma non del rimorchio di un bel bianco candido e quindi non ha neppure frenato o tentato una manovra evasiva.
Quindi il sistema ha fallito. Punto.
Forse sarebbe il caso di rivedere il sistema, magari prendendosi più tempo, e inserendo negli ostacoli apposite segnalazioni riflettenti (al pari di un qualsiasi catadiottro), ma ad oggi è un sistema che fa abbastanza acqua, serve giusto per mantenere la corsia di marcia.
nickname88
22-05-2019, 10:31
E' incredibile che nonostante passi il tempo si continuino a ripetere sempre le stesse cose :asd:
L'autopilot non è una guida autonoma, ma semiautonoma, ed il conducente DEVE ( obbligato ) prestare attenzione e tenere le mani sul volante proprio al fine di intervenire laddove il sistema di guida mostra lacune. PUNTO !
polli079
22-05-2019, 11:06
la colpa è di Tesla, punto e basta.
a causa del loro marketing, guardate cosa dicono della loro guida assistita sul loro sito, anche adesso.
https://www.tesla.com/it_IT/models
la chiamano "Guida autonoma" e fanno anche vedere l'autista con le mani appoggiate sulle gambe nel loro video. Poi se vai a leggere bene cosa scrivono sotto vedi che c'è scritto "hardware predisposto per un futuro di guida autonoma", cioè adesso non possono farlo ma in futuro potrebbero.
il problema è proprio ciò che fanno credere ai loro clienti, che il sistema autopilot aumenta la sicurezza di guida e che, anche se non lo dichiarano ufficialmente, le loro Tesla possono essere definite: "a guida autonoma".
il marketing di quell'azienda è colpevole, i morti ce li hanno sulla loro coscienza. Inutile che si giustifichino dicendo "ah ma aveva tolto le mani dal volante", anche se lo scrivono nelle loro istruzioni il problema è quello che invece vogliono farti credere.
Anche il marketing della mia azienda telefonica cerca di farmi credere che le loro offerte sono "per sempre", poi però ogni anno arrivano le rimodulazioni con modifiche unilaterali al contratto. Però, a differenza di Tesla, queste balle sparate dal loro marketing non ammazzano nessuno.
Non per difendere Tesla in quanto condivido che il sistema abbia fallito però appellarsi al marketing mi sembra esagerato, visto che si parla di una macchina, con tutti i rischi che ci possono essere, possibile che non ti informi un minimo?
Nella stessa pagina, poco sotto c'è scritto che è una predisposizione.
maxnaldo
22-05-2019, 12:19
Non per difendere Tesla in quanto condivido che il sistema abbia fallito però appellarsi al marketing mi sembra esagerato, visto che si parla di una macchina, con tutti i rischi che ci possono essere, possibile che non ti informi un minimo?
Nella stessa pagina, poco sotto c'è scritto che è una predisposizione.
e tu leggi quello che ho scritto, se ti fermi alla prima riga poi straparlare è la tua conclusione ovvia.
polli079
22-05-2019, 13:42
e tu leggi quello che ho scritto, se ti fermi alla prima riga poi straparlare è la tua conclusione ovvia.
Ho letto e continuo a pensare che dare la colpa al marketing sia fuori luogo, non penso sia straparlare.
Da quanto ne so la guida autonoma attualmente è illegale, i mezzi devono essere guidati da una persona non da un computer quindi anche se la casa produttrice mi dice che la macchina può andare da sola ,qualche dubbio me lo faccio.
EDIT purtroppo si, la colpa è anche di chi guidava che ha usato una funzione in modo sbagliato, questo non elimina le colpe di Tesla è ovvio, ma anche il guidatore ha sbagliato.
Charlie Oscar Delta
22-05-2019, 14:55
allora dovrebbero fare che l'alert per le mani sul volante sia molto più frequente, non 8-10 secondi, e se il sensore interno (ce l'ha pure la fiesta!) vede che hai gli occhi chiusi o il collo piegato (come se dormi, ma con le mani sul volante), deve far qualcosa per richiamare attenzione e intanto rallentare. ripeto lo fa la ford economica da 10 anni..
ma poi chi lo comprerebbe più l'ap ? :) non giriamoci attorno.
ma poi chi lo comprerebbe più l'ap ? :) non giriamoci attorno.
Il concetto infatti è questo: se devi avere un sistema che in teoria ti aiuta, per finire però che sei tu a doverlo controllare e sorvegliare, con la fatica e lo stress che hai a sorvegliare un bambino di 3 anni che appena cali l'attenzione rischia di fare disastri, non ha alcun senso.
Diventa il contrario di un aiuto.
Prima che qualcuno tiri fuori altri sistemi, con l'ABS ad esempio è il contrario: se non è fatto male puoi schiacciare a fondo senza doverti preoccupare.
polli079
22-05-2019, 15:47
allora dovrebbero fare che l'alert per le mani sul volante sia molto più frequente, non 8-10 secondi, e se il sensore interno (ce l'ha pure la fiesta!) vede che hai gli occhi chiusi o il collo piegato (come se dormi, ma con le mani sul volante), deve far qualcosa per richiamare attenzione e intanto rallentare. ripeto lo fa la ford economica da 10 anni..
ma poi chi lo comprerebbe più l'ap ? :) non giriamoci attorno.
Hai centrato il punto, io stesso vorrei una macchina che va da sola (quando sarà pronta e sicura, se mai lo sarà) ma è ben diverso da una macchina che devi "assistere".
Come dice Flortex, non ha senso avere una macchina che va per i fatti suoi ma devi stare a controllarle, tanto vale che la guida l'umano.
Il punto è che adesso è in fase di test, test fatti anche da persone normali che non prestano la dovuta attenzione, quindi di incidenti di questo tipo ne succederanno ancora.
Vendendo il danno si capisce che l'autopilot non riconosce un rimorchio vuoto e quindi piatto, e per questo ha fatto come Supercar quando si infilava sotto i camion per evitare i missili nemici.
L'unica guida assistita è quella che da informazioni aggiuntive di assistenza all'utente che guida. Una tesla car su strade italiane con segnaletica logora o città storiche farebbe incidenti ogni giorno (anche solo perché sorpassa a destra come si vede nei video ed a Napoli)
Se Tesla avesse un sistema di guida totalmente autonoma sarebbe la societa con la maggiore capitalizzazione al mondo.
Arrivare alla guida autonoma è uno degli step disruptive della civiltà umana, chiaro che non si fa da un giorno con l'altro.
Pertanto per ora il sistema Tesla è un Cruise con autosteer. Il mio Cruise mi schianta anche contro un palo se non intervengo.
Se Tesla avesse un sistema di guida totalmente autonoma sarebbe la societa con la maggiore capitalizzazione al mondo.
Arrivare alla guida autonoma è uno degli step disruptive della civiltà umana, chiaro che non si fa da un giorno con l'altro.
Pertanto per ora il sistema Tesla è un Cruise con autosteer. Il mio Cruise mi schianta anche contro un palo se non intervengo.
Qua sembra che tutto debba essere o bianco o nero, per arrivare a una guida autonoma ci saranno da fare molti progressi, al momento si parla di guida assistita e basta, ma se d'altra parte non puoi lasciare senza controllo nemmeno un tostapane altrimenti ti brucia i toast, tanti vorrebbero lasciare senza controllo un,'auto con autopilot......
A voi scegliere chi è l'idiota.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.