View Full Version : Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso
Redazione di Hardware Upg
17-08-2021, 08:32
Link alla notizia: https://auto.hwupgrade.it/news/tecnologia/nuovo-guaio-per-autopilot-tesla-sotto-indagine-per-troppi-incidenti-contro-mezzi-di-soccorso_99904.html
L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta
Click sul link per visualizzare la notizia.
MikTaeTrioR
17-08-2021, 08:40
che forse usare anche un Lidar non sia poi cosi stupido!?
casistica così irrisoria
...
non sembrano esserci difetti
Mi scusi Sig. Zocchi, queste sono affermazioni di qualche autorità oppure è la sua opinione ?
Altre informazioni:
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a37320725/nhtsa-investigating-tesla-autopilot-crashes-fatalities/
agonauta78
17-08-2021, 09:12
Lontani anni Luce dalla guida autonoma, dovrebbero cambiare il nome all'auto pilot. Basta qualcosa di non ordinario per mandare in pappa il sistema
Dovrei ritrovare un post che feci anni fa dove dicevo proprio queste cose e un utente mi dava contro dicendo che ero anti-progresso.
Io affermai che la tecnologia è interessante ma ancora necessita di molti approfondimenti e miglioramenti per poter essere applicata ad occhi chiusi. Questa materia è proprio quella in cui mi sono laureato diversi anni fa, anche se ora faccio tutto un altro lavoro.
Massimiliano Zocchi
17-08-2021, 10:10
Mi scusi Sig. Zocchi, queste sono affermazioni di qualche autorità oppure è la sua opinione ?
Altre informazioni:
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a37320725/nhtsa-investigating-tesla-autopilot-crashes-fatalities/
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.
Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.
Il più grosso errore nella storia di Tesla,
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Massimiliano Zocchi
17-08-2021, 10:40
Il più grosso errore nella storia di Tesla,
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Concordo sul nome.
Sulle percentuali, pure nella vita dovrebbero essere zero, eppure c'è un sacco di gente che scivola nella vasca da bagno. Colpa della vasca, o colpa dell'utente?
harlock10
17-08-2021, 10:42
Il più grosso errore nella storia di Tesla,
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Non vorrei dire ma pure i piloti automatici degli arei non sono perfetti ma anzi causano anche loro svariati incidenti o situazioni di pericolo, al momento nessun sistema che non sia su rotaia in sede propria non è sicuro al 100%.
Il problema, secondo me è che gli essere umani sono ottimi esecutori ma pessimi controllori, ci si abitua troppo ad un sistema automatico e la volta che non funziona non si reagisce.
Il più grosso errore nella storia di Tesla,
IL NOME
è tutto tranne un autopilota.
Difatti come accennato è a livello 2 non 5.
PS le % non reggono. In aeronautica le % degli incidenti devono essere zero.
Sicuramente il nome non è dei più corretti, ma in fondo c'entra molto anche il marketing. A parte il nome, può chiamarsi anche "guido da solo guarda pure un film", Prima di affidare la tua vita ad un sistema del genere non cerchi di capire un minimo come funziona veramente? O ci si ferma al nome?
Tutti quelli che lo usano dormendo, leggendo o facendosi i cazzi loro sono semplicemente degli incoscienti.
E così scoprirono che avevano addestrato l'intelligenza artificiale con i tori! :D
Concordo sul nome.
Sulle percentuali, pure nella vita dovrebbero essere zero, eppure c'è un sacco di gente che scivola nella vasca da bagno. Colpa della vasca, o colpa dell'utente?
E certo.
Anche la cassettiera Ikea che cade e accoppa il bambino. Colpa del bambino che l'ha tirata.
narmowolf
17-08-2021, 11:50
E certo.
Anche la cassettiera Ikea che cade e accoppa il bambino. Colpa del bambino che l'ha tirata.
Cosa volete farci, lo sapete che Tesla non sbaglia mai.
E' impossibile ogni contraddittorio su una qualsiasi notizia su Telsa & Co perchè si viene subito additati come retrogradi.
Vedrete quando uscirà la nuova Tesla "LaRuota"
https://i.imgur.com/XdqVaKs.png
Tutti grideranno al miracolo
Axios2006
17-08-2021, 11:52
È dunque lecito che l'NHTSA metta sotto scacco un'azienda per una casistica così irrisoria?
Ma si... ma che importa se una vettura piena di batterie al litio travolge mezzi e personale di soccorso... :rolleyes:
Ma si... ma che importa se una vettura piena di batterie al litio travolge mezzi e personale di soccorso... :rolleyes:
Avevo sorvolato sul "lecito"... però ragazzi...
chiedersi se sia "lecito" per l'autorità governativa di controllo esercitare il controllo...?
Ma certo che no :D Aboliamola del tutto ! Ma come si permette di indagare Tesla :ncomment:
Bryant Walker Smith, a law professor at the University of South Carolina, said the parked emergency crashes "really seem to illustrate in vivid and even tragic fashion some of the key concerns with Tesla's system."
NHTSA, he said, "has been far too deferential and timid, particularly with respect to Tesla."
https://www.reuters.com/business/autos-transportation/us-opens-formal-safety-probe-into-tesla-autopilot-crashes-2021-08-16/
La guida autonoma è già realtà ...
Si si credici credici :D :D :D
Hiei3600
17-08-2021, 14:05
Domanda per gli esperti:
L'autopilota (o comunque lo si voglia chiamare) è in grado di capire che certe regole del traffico sono diverse quando si tratta di mezzi di soccorso?
Ad esempio
Normalmente, se arriva un'ambulanza a sirene spiegate da dietro, le macchine si spostano quanto più possibile su un lato della strada per farla passare, questo l'autopilota lo sa?
L'autopilota sa che deve sempre dare la precedenza ad una pattuglia della polizia con sirene spiegate? anche quando questa attraversa un semaforo con il rosso?
Domanda per gli esperti:
L'autopilota (o comunque lo si voglia chiamare) è in grado di capire che certe regole del traffico sono diverse quando si tratta di mezzi di soccorso?
Ad esempio
Normalmente, se arriva un'ambulanza a sirene spiegate da dietro, le macchine si spostano quanto più possibile su un lato della strada per farla passare, questo l'autopilota lo sa?
L'autopilota sa che deve sempre dare la precedenza ad una pattuglia della polizia con sirene spiegate? anche quando questa attraversa un semaforo con il rosso?
Ne dubito fortemente. Ma in quel caso se sento la sirena mi pare straovvio che è meglio riprendere a guidare da soli.
ramses77
17-08-2021, 15:01
Andrò controcorrente, ma da Teslaro credo 1) che in giro ci siano tanti rincoglioniti alla guida con e senza Tesla, a cui la vita va stretta, 2) che il nome Autopilot sarebbe da ritirare perché è da truffa e mi sorprendo come negli USA dove è un attimo per un marchio essere destinatario di una class action per una riga dimenticata nelle istruzioni si permetta una cosa del genere, 3) che se ci fosse stato anche un solo incidente dubbio è giusto indagare sul produttore, qualunque esso sia.
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.
Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.
In realtà quello che dici peggiora la situazione: presumendo che molte persone usino Autopilot correttamente, senza dargli il completo controllo, in quanti casi è stato il guidatore a evitare l'incidente?
Quindi gli errori del sistema sono sicuramente più di undici.
Il vero problema che mi preoccupa è che Musk sembra avere la tendenza a voler anticipare i tempi, magari a causa di una sua visione avveniristica (che eccita molti lettori di queste news: d'altra parte siamo tutti nerd). Cosa confermata dall'abitudine di dare scadenze che poi non riesce a confermare. Per cui ho il dubbio che faccia pochi test preliminari.
pin-head
17-08-2021, 15:47
Chi ha fatto incidenti con l’autopilot non sa usare l’auto, e si è distratto, contravvenendo alle regole ben spiegate da tesla.
L’autopilot ha già evitato molti (ma molti) più incidenti di quanti ne siano successi: è più sicuro della guida umana, già al momento (ed è in beta).
Il lidar non serve a nulla, anzi è un problema.
Ringrazio l’NHTSA per l’indagine, sto continuando a comprare azioni a prezzo di saldo ^_^
L'autopilot é un pacchetto SW che si puo' acquistare in qualsiasi momento, inoltre lo sanno tutti che é ancora in fase di sviluppo ed evolve di anno in anno, lo stesso venditore tesla tra le righe mi ha consigliato di non prenderlo al momento dell'acquisto, tanto se vuoi aggiungerlo basta comprarlo in un secondo momento con la carta di credito.
Detto questo se si parla di 11 indcidenti in circa 3 anni mi pare poca roba, vorrei sapere quanti incidenti l'autopilot avrebbe evitato prendendo il controllo sugli imbecilli che corrono a 140 all'ora in tangenziale o quelli che si mettono a guidare mezzi ubriachi o stanchi per le troppe ore al volante.
Adamo K.
17-08-2021, 18:08
L'autopilot é un pacchetto SW che si puo' acquistare in qualsiasi momento, inoltre lo sanno tutti che é ancora in fase di sviluppo ed evolve di anno in anno, lo stesso venditore tesla tra le righe mi ha consigliato di non prenderlo al momento dell'acquisto, tanto se vuoi aggiungerlo basta comprarlo in un secondo momento con la carta di credito.
Detto questo se si parla di 11 indcidenti in circa 3 anni mi pare poca roba, vorrei sapere quanti incidenti l'autopilot avrebbe evitato prendendo il controllo sugli imbecilli che corrono a 140 all'ora in tangenziale o quelli che si mettono a guidare mezzi ubriachi o stanchi per le troppe ore al volante.
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a...hes-fatalities/
QuÎ però dice che verranno presi in esame SOLO 11 incidenti, ma questi incidenti che coinvolgono le tesla sono sicuramente molti di più di 11.
L’autopilot ha già evitato molti (ma molti) più incidenti di quanti ne siano successi: è più sicuro della guida umana, già al momento (ed è in beta).
Dato molto interessante, Mi puoi dare la fonte dei dati?
Il lidar non serve a nulla, anzi è un problema.
Perchè il Lidar sarebbe un problema?
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a...hes-fatalities/
QuÎ però dice che verranno presi in esame SOLO 11 incidenti, ma questi incidenti che coinvolgono le tesla sono sicuramente molti di più di 11.
I dati vanno analizzati tutti pero'.
Quante sono le Tesla in circolazione con autopilot attivo? Quanti sono stati gli incidenti causati dall'autopilot?
L'autopilot é piu' pericoloso di un essere umano?
Ci sono tante variabili in gioco ed é per questo che la guida autonoma non é neanche legale nella maggior parte dei Paesi, per ora sono legali solo gli ADAS
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.
Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.
È una guida assistita giusto ma se funziona male un indagine mi pare giusta
Concordo sul nome.
Sulle percentuali, pure nella vita dovrebbero essere zero, eppure c'è un sacco di gente che scivola nella vasca da bagno. Colpa della vasca, o colpa dell'utente?
Se la vasca ha il fondo antiscivolo si
pin-head
17-08-2021, 22:27
Dato molto interessante, Mi puoi dare la fonte dei dati?
I veicoli Tesla con autopilot nel 2020 hanno totalizzato 0.2 incidenti ogni milione di miglia negli stati uniti.
La media americana nel 2020 è stata di 2 incidenti per milione di miglia, che è circa NOVE volte di più.
Fonte: https://www.tesla.com/impact-report/2020 (pagina 37)
Perchè il Lidar sarebbe un problema?
Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.
Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.
Ci mancava pure il redattore che diventa paladino dell'azienda di turno, come se mancassero i fanboy qui su HWUP. Ti do un consiglio non richiesto, meglio che i redattori siano imparziali. Tra l'altro è tra le regole base del (buon) giornalismo.
Venendo al fatto, vuoi insegnare all' NHTSA come davono fare il loro lavoro e come si fanno le statistiche?
Iniziamo dalla tua:
-che senso ha calcolare sulla base del numero di Tesla vendute? Di solito si guardano le miglia percorse. Comunque essemdo un evento non comune bisognerebbe sapere quante hanno incrociato un incidente con veicoli fermi a bordo strada in situazioni simili ecc., al limite potrebbero essere il 100% dei casi. Poi bisognerebbe sapere quante volte è o non è intervenuto il guidatore per evitare l'incidente, qui è meno assurdo pensare che se non interviene il guidatore l'incidente è quasi sicuro. ecc...
- sei sicuro che abbia senso fare un ragionamento basato sulla statistica quando ci sono morti e feriti in mezzo? Un terrorista di boston/san bernardino/ecc. fa qualche decina tra morti e feriti, su 300 milioni di americani sarà lo 0,0..%, non indaghiamo tanto è una percentuale irrisoria, no?
- glielo dici tu alla moglie del prossimo poliziotto ucciso da una tesla che va bene così?
...
Ah, Tesla è indagata anche in Cina per problemi all'autopilot (accelera a vanvera), ma lo fanno solo perche sono comunisti e cattivi, vero?
Pienamente d'accordo invece sul nome ingannevole, se non è un autopilot non lo puoi chiamare così, indipendentemente da quello che poi scrivi nel libretto di istruzioni o altrove.
Ricordo che quando arrivarono sul mercato i primi navigatori in Usa venivano chiamati autopilot, qualche frescone ha creduto al nome e su un camper ha attivato il navigatore ed è andato dietro a dormire :D, vi lascio immaginare come è finita. Non ricordo se avesse fatto causa all'azienda che lo aveva chiamato così, comunque mi pare che dopo gli cambiarono nome.
In Usa devono addirittura scrivere sui microonde di non asciugarci gli animali domestici perchè qualcuno lo ha fatto.
Ma è capitato di rado, quindi chissenefrega, giusto?
ramses77
18-08-2021, 07:04
Ci mancava pure il redattore che diventa paladino dell'azienda di turno, come se mancassero i fanboy qui su HWUP. Ti do un consiglio non richiesto, meglio che i redattori siano imparziali. Tra l'altro tra le regole base del (buon) giornalismo.
Non sarai tu quello imparziale? No eh…:D
Ma secondo te :mbe: un redattore “paladino dell’azienda di turno” pubblicherebbe una notizia potenzialmente negativa sull’azienda in questione titolandolo “nuovo guaio”?:mc:
Non è questione di essere imparziali o fanboy, ma di fare pace col cervello.:Prrr:
È una semplice doverosa inchiesta sul perché, probabilmente, degli idioti alla vista di un incidente o mezzi di soccorso, non hanno disattivato il sistema e ripreso a guidare personalmente come vorrebbe una minima decenza cerebrale.:muro:
Come al solito, probabilmente emergerà che stavano facendo altro, non badando alla strada e quando emergerà tutti gli haters si guarderanno bene dal riconoscere che il sistema è stato scagionato.
[...]Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.
Tra poco? IMHO devono passare ancora parecchi anni.
Un paio di esempi in cui si vede che l'intelligenza artificiale non è così... intelligente come vogliono far credere
https://www.reddit.com/r/teslamotors/comments/nrs8kf/you_think_ice_cream_truck_stop_signs_are_a_problem/?utm_term=1437389151&utm_medium=post_embed&utm_source=embed&utm_name=&utm_content=header
https://mobile.twitter.com/JordanTeslaTech/status/1418413307862585344?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1418413307862585344%7Ctwgr%5E%7Ctwcon%5Es1_c10
pin-head
18-08-2021, 09:14
Tra poco? IMHO devono passare ancora parecchi anni.
Un paio di esempi in cui si vede che l'intelligenza artificiale non è così... intelligente come vogliono far credere
https://www.reddit.com/r/teslamotors/comments/nrs8kf/you_think_ice_cream_truck_stop_signs_are_a_problem/?utm_term=1437389151&utm_medium=post_embed&utm_source=embed&utm_name=&utm_content=header
https://mobile.twitter.com/JordanTeslaTech/status/1418413307862585344?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1418413307862585344%7Ctwgr%5E%7Ctwcon%5Es1_c10
Sbagli, manca poco. Ragioni in modo lineare, come tutti, ma gli sviluppi di queste tecnologie sono esponenziali.
Non sarai tu quello imparziale? No eh…:D
Ma secondo te :mbe: un redattore “paladino dell’azienda di turno” pubblicherebbe una notizia potenzialmente negativa sull’azienda in questione titolandolo “nuovo guaio”?:mc:
Non è questione di essere imparziali o fanboy, ma di fare pace col cervello.:Prrr:
È una semplice doverosa inchiesta sul perché, probabilmente, degli idioti alla vista di un incidente o mezzi di soccorso, non hanno disattivato il sistema e ripreso a guidare personalmente come vorrebbe una minima decenza cerebrale.:muro:
Come al solito, probabilmente emergerà che stavano facendo altro, non badando alla strada e quando emergerà tutti gli haters si guarderanno bene dal riconoscere che il sistema è stato scagionato.
Ma insomma il sistema ha funzionato o no?
Se non ha funzionato cosa c'è che non va in una indagine?
ramses77
18-08-2021, 10:22
Ma insomma il sistema ha funzionato o no?
Se non ha funzionato cosa c'è che non va in una indagine?
Fai confusione sulla logica dell’indagine.
È proprio questo il punto, “voi” detrattori mettete subito il carro davanti ai buoi. :O
È il risultato dell’indagine che rivelerà SE non ha funzionato, non il semplice fatto che l’indagine sia stata avviata (del che sono ben contento da utilizzatore), o che ci siano stati degli incidenti (che poi finora sono sempre stati ricondotti ad utilizzi molto azzardati della funzione).
Aspettiamo il risultato prima di fare gli haters o i fanboy.
Fai confusione sulla logica dell’indagine.
È proprio questo il punto, “voi” detrattori mettete subito il carro davanti ai buoi. :O
È il risultato dell’indagine che rivelerà SE non ha funzionato, non il semplice fatto che l’indagine sia stata avviata (del che sono ben contento da utilizzatore), o che ci siano stati degli incidenti (che poi finora sono sempre stati ricondotti ad utilizzi molto azzardati della funzione).
Aspettiamo il risultato prima di fare gli haters o i fanboy.
Allora se la indagine parte e perché si presuppone che ci sia qualcosa che non va,
Io non ho espresso giudizi sull autopilot ma su chi critica l apertura delle indagini,
ramses77
18-08-2021, 10:40
Allora se la indagine parte e perché si presuppone che ci sia qualcosa che non va,
Io non ho espresso giudizi sull autopilot ma su chi critica l apertura delle indagini,
Niente in contrario, ben venga! :mano:
Sbagli, manca poco. Ragioni in modo lineare, come tutti, ma gli sviluppi di queste tecnologie sono esponenziali.
Puoi quantificare il "poco"?
Sbagli, manca poco. Ragioni in modo lineare, come tutti, ma gli sviluppi di queste tecnologie sono esponenziali.
Sull'IA in genere gli sviluppi sono stati logaritmici: si parte con tante belle speranze (poco prima del 1950) e poi si scoprono i problemi.
I veicoli Tesla con autopilot nel 2020 hanno totalizzato 0.2 incidenti ogni milione di miglia negli stati uniti.
La media americana nel 2020 è stata di 2 incidenti per milione di miglia, che è circa NOVE volte di più.
Fonte: https://www.tesla.com/impact-report/2020 (pagina 37)
Grazie! Lo studio è molto interessante. Depurato dal Marketing, si evince che un guidatore Tesla, grazie all'autopilot, può passare da un 0.4 incidenti per milioni di miglia a 0.2.
Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due.
Secondo me parti da una contrapposizione di tecnologie e non della fusione di entrambe. Anche le videocamere falliscono in caso di luce anomala. e questo accade non di rado, contorni non ben definiti, quando sono abbagliate da una fonte luminose, di notte, mal tempo, etc.. Inoltre la ricostruzione 3D solo con le videocamere è meno accurata rispetto a una ricostruzione 3d videocamere + lidar
Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.
L'IA non può fare miracoli, se la qualità del dato di input è bassa e con molto rumore, non può fare miracoli. Per questo molti stanno spingendo sulla integrazione delle videocamere con il lidar. Ovviamente stiamo parlando di IA per la photogrammetry e non per la guida.
PS
Comunque Tesla non usa i Lidar perchè costano, non perchè sono inaffidabili. Elon musk ritiene che si può ottenere quasi lo stesso risulatato senza i costosi Lidar. Vedremo se in futuro avrà ragione, ad oggi non è possibile dirlo visto che non è sul mercato nessuna auto a guida autonoma non sorvegliata.
pin-head
18-08-2021, 14:27
No, Tesla non usa il lidar perché a volte non è coerente con i feed delle camere e l’ia non può sapere a chi fare affidamento. Hanno spiegato per bene i motivi.
Il lidar è una stampella che gli altri usano, perché non riescono a ottenere gli stessi risultati con le videocamere.
La visione ottica è sicuramente superiore, come hanno dimostrato con la release più recente dell’fsd.
Nel giro di un anno, secondo me, o 2 massimo, uscirà una versione dell’fsd così affidabile che gli hater (e chi non si documenta) non sapranno più a cosa attaccarsi.
No,
Questa è la dichiarazione (techcrunch.com/2019/04/22/anyone-relying-on-lidar-is-doomed-elon-musk-says/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAALhMKubW6rlqgOHpjVRSNk71QBIMVbyJlgefyYT3Kure3tFmMhj16onALszQLOlmMiK-8NlzARcI2vkNZeSRGUkUuiC5ViO5H8_z4-W5adcd6te4-lJUHWV65KxISeyM8RJ_PKbvWSOH6zPYAgTA0CS3ddjLx9We7A_rutLFApD-)di Elon Musk con cui dice che non usa i Lidar perchè costosi e inutili.
“Lidar is a fool’s errand,” Elon Musk said. “Anyone relying on lidar is doomed. Doomed! [They are] expensive sensors that are unnecessary. It’s like having a whole bunch of expensive appendices. Like, one appendix is bad, well now you have a whole bunch of them, it’s ridiculous, you’ll see.”
Tesla non usa il lidar perché a volte non è coerente con i feed delle camere e l’ia non può sapere a chi fare affidamento. Hanno spiegato per bene i motivi.
Mi puoi indicare la fonte?
Nel giro di un anno, secondo me, o 2 massimo, uscirà una versione dell’fsd così affidabile che gli hater (e chi non si documenta) non sapranno più a cosa attaccarsi.
Se poi per te è una guerra tra fazioni e non una discussione... non rispondermi nememno. Cercherò qualche altro interlocutore.
pin-head
19-08-2021, 01:59
Questa è la dichiarazione (techcrunch.com/2019/04/22/anyone-relying-on-lidar-is-doomed-elon-musk-says/?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAALhMKubW6rlqgOHpjVRSNk71QBIMVbyJlgefyYT3Kure3tFmMhj16onALszQLOlmMiK-8NlzARcI2vkNZeSRGUkUuiC5ViO5H8_z4-W5adcd6te4-lJUHWV65KxISeyM8RJ_PKbvWSOH6zPYAgTA0CS3ddjLx9We7A_rutLFApD-)di Elon Musk con cui dice che non usa i Lidar perchè costosi e inutili.
“Lidar is a fool’s errand,” Elon Musk said. “Anyone relying on lidar is doomed. Doomed! [They are] expensive sensors that are unnecessary. It’s like having a whole bunch of expensive appendices. Like, one appendix is bad, well now you have a whole bunch of them, it’s ridiculous, you’ll see.”
Appunto, come ho scritto io, il lidar è inutile. Il fatto che sia costoso è un’aggravante, non è il motivo principale. Musk è stato chiarissimo.
Mi puoi indicare la fonte?
Cerca su youtube il CVPR 2021 di Karpathy. Dura una 40ina di minuti, ma è illuminante.
Se poi per te è una guerra tra fazioni e non una discussione... non rispondermi nememno. Cercherò qualche altro interlocutore.
[/quote]
Non è una guerra tra fazioni, sai quanto mi interessa il parere di qualcuno che non riesce a capire cosa sta succedento, e di cosa si salta parlando. Ma è pieno di hater, quando si parla di Tesla. Che non hanno la minima idea dell’argomento di discussione.
NighTGhosT
19-08-2021, 06:35
Io faccio parte di quelli che hanno comprato una Tesla non di certo per l'autopilot dato che al massimo ho usato il cruise adattivo in autostrada.....ma per tutte le altre sue qualità.
Come dissi già da tempo, io continuerò a guidare personalmente la mia auto finché non sarò costretto a forza a non poterlo più fare o non ne sarò più in grado. E fino a quel giorno, per me autopilot manco esiste.
Ci vorranno almeno altri 10 - 15 anni prima di vedere qualche sistema di guida autonoma vagamente affidabile. Io ne ho 43 di anni....e ringraziando il cielo sarò in grado ancora di guidare personalmente per ancor più tempo.
E non importa se gli incidenti causati sono "solo" lo 0,00000002 %.......perché se in quello 0,00000002% ci finisci tu....o tuo figlio....o un tuo caro....allora assume tutt'altro valore.
Oggi è meglio sperare in scuole guida più serie che non regalino le patenti ma che siano capaci di preparare correttamente i ragazzi....e di responsabilizzare......che pensare alla guida autonoma. Imho. ;)
Cerca su youtube il CVPR 2021 di Karpathy. Dura una 40ina di minuti, ma è illuminante.
Grazie, stasera lo guarderò!
Grazie! Lo studio è molto interessante. Depurato dal Marketing, si evince che un guidatore Tesla, grazie all'autopilot, può passare da un 0.4 incidenti per milioni di miglia a 0.2.
Secondo me parti da una contrapposizione di tecnologie e non della fusione di entrambe. Anche le videocamere falliscono in caso di luce anomala. e questo accade non di rado, contorni non ben definiti, quando sono abbagliate da una fonte luminose, di notte, mal tempo, etc.. Inoltre la ricostruzione 3D solo con le videocamere è meno accurata rispetto a una ricostruzione 3d videocamere + lidar
L'IA non può fare miracoli, se la qualità del dato di input è bassa e con molto rumore, non può fare miracoli. Per questo molti stanno spingendo sulla integrazione delle videocamere con il lidar. Ovviamente stiamo parlando di IA per la photogrammetry e non per la guida.
PS
Comunque Tesla non usa i Lidar perchè costano, non perchè sono inaffidabili. Elon musk ritiene che si può ottenere quasi lo stesso risulatato senza i costosi Lidar. Vedremo se in futuro avrà ragione, ad oggi non è possibile dirlo visto che non è sul mercato nessuna auto a guida autonoma non sorvegliata.
Ancora prima che AI, ho il sospetto che ci sia anche una questione della qualità delle immagini: cam VS occhio umano.
Se vuoi prestazioni intelligenti analoghe all'uomo, i sensori dovranno pur essere simili, o no ? L'occhio umano su google trovo che ha 576 megapixel.
Per esempio, il FSD scambia per un semaforo rosso le luci di un camion della spazzatura che sono posizionate in alto.
Perchè ?
Un uomo non si pone il problema di non sapere catalogare un camion della spazzatura non ha mai visto: un uomo vede un camion e vede che le luci sono montate sul camion. E non gli passa per la testa che sia un semaforo.
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?
[...] Per esempio, il FSD scambia per un semaforo rosso le luci di un camion della spazzatura che sono posizionate in alto.
Perchè ?
Un uomo non si pone il problema di non sapere catalogare un camion della spazzatura non ha mai visto: un uomo vede un camion e vede che le luci sono montate sul camion. E non gli passa per la testa che sia un semaforo.
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?
IMHO il limite delle AI è che non sono "consapevoli" del contesto. P.es. in giro ho letto più di una testimonianza di proprietari di auto con guida assistita (non per forza Tesla) che in autostrada l'auto ha bruscamente rallentato (o segnalato al conducente di rallentare) incrociando cartelli con il limite dei 40 orari posti nelle corsie di decelerazione di accesso agli svincoli; in pratica hanno riconosciuto perfettamente il cartello, ma non il contesto dello stesso.
Però, come hai fatto notare, gli errori di riconoscimento ottico dei sistemi avvengono (esempio al limite del surreale) (https://auto.everyeye.it/amp/notizie/guida-autonoma-tesla-impazzisce-logo-coop-476547.html), ma non credo sia per colpa della definizione delle immagini; anzi, se la risoluzione fosse maggiore occorrerebbe molta più potenza di calcolo per elaborare in tempo reale tutte quelle informazioni in più
IMHO il limite delle AI è che non sono "consapevoli" del contesto. P.es. in giro ho letto più di una testimonianza di proprietari di auto con guida assistita (non per forza Tesla) che in autostrada l'auto ha bruscamente rallentato (o segnalato al conducente di rallentare) incrociando cartelli con il limite dei 40 orari posti nelle corsie di decelerazione di accesso agli svincoli; in pratica hanno riconosciuto perfettamente il cartello, ma non il contesto dello stesso.
Però, come hai fatto notare, gli errori di riconoscimento ottico dei sistemi avvengono (esempio al limite del surreale) (https://auto.everyeye.it/amp/notizie/guida-autonoma-tesla-impazzisce-logo-coop-476547.html), ma non credo sia per colpa della definizione delle immagini; anzi, se la risoluzione fosse maggiore occorrerebbe molta più potenza di calcolo per elaborare in tempo reale tutte quelle informazioni in più
interessante
sono 3 problemi:
1) Contesto, mi sembra un problema software, ma di livello elementare, cioè che riguarda il traffico. Non è una complessità della vita reale che puoi incontrare in città.
E già qui si intuisce che ce n'è ancora tanto di lavoro.
EDIT: però dovremmo parlare solo di FSD di Tesla, perchè la guida assistita degli altri, boh ?
2) divertente la scritta COOP rossa, non l'avevo ancora vista :D
E' peggio di come immaginavo.
Non vedendo le immagini originali non possiamo dire granchè... Però ragazzi una lettera rossa in un cartello bianco è completamente diverso da semaforo.
Forse è programmato per eccedere nella sicurezza (il FSD vede qualcosa di rosso in alto -> semaforo.)
Ma anche qui si intuisce che... passeranno decenni :rolleyes:
3) potenza di calcolo: infatti volevo dire proprio quello. Significherebbe che tutto l'hw già installato, cam/CPU/RAM/ecc, è inadeguato.
[...] Non vedendo le immagini originali non possiamo dire granchè...
Hai guardato il video in fondo all'articolo del link? Si vede chiaramente il grossolano errore dell'AI
pin-head
19-08-2021, 12:48
IMHO il limite delle AI è che non sono "consapevoli" del contesto. P.es. in giro ho letto più di una testimonianza di proprietari di auto con guida assistita (non per forza Tesla) che in autostrada l'auto ha bruscamente rallentato (o segnalato al conducente di rallentare) incrociando cartelli con il limite dei 40 orari posti nelle corsie di decelerazione di accesso agli svincoli; in pratica hanno riconosciuto perfettamente il cartello, ma non il contesto dello stesso.
Però, come hai fatto notare, gli errori di riconoscimento ottico dei sistemi avvengono (esempio al limite del surreale) (https://auto.everyeye.it/amp/notizie/guida-autonoma-tesla-impazzisce-logo-coop-476547.html), ma non credo sia per colpa della definizione delle immagini; anzi, se la risoluzione fosse maggiore occorrerebbe molta più potenza di calcolo per elaborare in tempo reale tutte quelle informazioni in più
L’fsd in alcuni casi sbaglia perché sta imparando, è come se fosse un neo patentato. Nel giro di poco tempo guiderà meglio di qualsiasi essere umano, e salverà molte vite.
L’fsd in alcuni casi sbaglia perché sta imparando, è come se fosse un neo patentato. Nel giro di poco tempo guiderà meglio di qualsiasi essere umano, e salverà molte vite.
Mi sembri molto ottimista, se intendi un'anno o due come hai scritto in un precedente post. Poi quando sarà effettivamente disponibile il FSD vorrei proprio vederla all'opera in certe città, tipo Milano, Napoli o anche Parigi, Madrid e Barcellona, magari negli orari di punta (ho citato alcune città dove ho personalmente guidato, ma ce ne sono molte altre con il traffico "problematico") e valutare se effettivamente guida meglio di un essere umano o se va in BSOD...
marchigiano
19-08-2021, 13:21
che forse usare anche un Lidar non sia poi cosi stupido!?
concordo, per me 2 lidar davanti e uno su ogni altro lato sono fondamentali, non è vero che costano tanto, gli ultimi sono calati parecchio e sono piccoli, è che musk non ha voglia di riscrivere tutto il software, ma gli tocca spendere in telecamere di altissima qualità e comunque non arrivano all'occhio umano e non fa in tempo a fare il calcolo tridimensionale degli oggetti in tempo reale. poi sul vetro della telecamera ci sbatte un sassolino, il vetro si segna e la telecamera sbarella... :D
marchigiano
19-08-2021, 13:23
L’fsd in alcuni casi sbaglia perché sta imparando, è come se fosse un neo patentato. Nel giro di poco tempo guiderà meglio di qualsiasi essere umano, e salverà molte vite.
si ma sarà un pilota con un occhio solo, senza 10/10 e senza occhiali... con un cervello limitato nei ragionamenti ma solo con tanta memoria...
Un uomo non si pone il problema di non sapere catalogare un camion della spazzatura non ha mai visto: un uomo vede un camion e vede che le luci sono montate sul camion. E non gli passa per la testa che sia un semaforo.
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?
Per quelle che sono le mie modeste conoscienze della IA, credo che tue stai giungendo a conclusioni errate, partendo da due tematiche/problemi esistenti.
TL,DR
Di seguito una mi modesta spiegazione riferita solo alla computer vision.
Per quanto riguarda la qualità delle immagine c'è da dire che in alcune condizioni le camere sono molto meglio di quanto può fare un uomo. Ma in altre condizioni sono estremamente peggio, come nel caso di maltempo, mezze luci, penombra, luce abbagliante, etc... Quindi nn è sempre un problema di cattiva qualità(4)
Poi cìè il problema del ricoscimento degli oggetti. Come uomini siamo in grado di identificare un camion come concetto(*), mentre l'IA no.
Oggi quello che facciamo è dare in pasto alla IA (Machine learning) migliaia di immagini di un oggetto in diverse situazioni e dirgli che quello in quella immagine c'è l'oggetto X. Dopo di che se la rete neurale è stata addestrata a dovere, cercare i tipici i sotto oggetti X1, X2,.. che compongono l'oggetto X.
Dopo di che la ML potrebbe tentare di riscostruire nello spazio reale l'oggetto X i suoi sotto oggetti (e tutti gli altri oggetti dell'immagine) andando a creare un modello 3D del mondo che lo circonda, con cui a sua volte correggere e aumentare la qualità dell'immagine.
Se questa operazione per l'uomo è istantanea, per l'attuale generazione di IA richiede una potenza computazione e quindi tempo, molto gravosa. Oltre a fallire quando l'immagine acquisita non viene riconosciuta per via di una distanza notevole con il dataset di addestramento. Mentre per l'uomo il potere di astrazione è molto superiore.
[EDIT] Usando il Lidar si avrebberò meno fallimenti, in quanto non si deve riconoscere l'ambiente circostante, per capire le distanze e gli ostacoli o ingombri.
E quì avviene la divisione tra Tesla e gli altri produttori. Essendo questa tecnica gravosa dal punto di vista computazionale, Gli altri usano il Lidar, oltre alle immagini delle telecamere, per ricostruire l'ambiente 3D circostante(2) riducendo la mole di calcoli.
Tesla invece sostiene che sono in grado di sviluppare una IA in grado di fare quanto fatto dall'uomo, senza l'uso del Lidar(3)
PS
Non sono un esperto di IA e di computer vision, quindi ogni correzione a quanto scritto è assolutamente benvenuta, così imparo qualcosa.
(1) In realtà dal punto di vista filosofico la cosa è molto dibattuta (it.wikipedia.org/wiki/Universale)
(2) Usano anche la IA
(3) Spero che nel video sopra postato vi siano dettagli su come lo faranno
(4) Cornell researchers have discovered that a simpler method, using two inexpensive cameras on either side of the windshield, can detect objects with nearly LiDAR’s accuracy and at a fraction of the cost (news.cornell.edu/stories/2019/04/new-way-see-objects-accelerates-future-self-driving-cars)
Hai guardato il video in fondo all'articolo del link? Si vede chiaramente il grossolano errore dell'AI
No perchè sono un coione e non ho scrollato in fondo :muro:
Grazie, ho visto: i cartelloni sono lontani, per me rafforza i sospetti di scarsa risoluzione delle immagini in input.
I casi sono 2:
o migliorano la percezione tridimensionale in modo da misurare la distanza (ma non credo che basterà)
o ci installano delle cam da 100 megapixel, e vedi che le scritte le distingue.
L’fsd in alcuni casi sbaglia perché sta imparando, è come se fosse un neo patentato.
:doh:
Per quelle che sono le mie modeste conoscienze della IA, credo che tue stai giungendo a conclusioni errate, partendo da due tematiche/problemi esistenti.
TL,DR
Di seguito una mi modesta spiegazione riferita solo alla computer vision.
CUT
Ho paura che la situazione attuale sia la somma tutto di quello che abbiamo detto.
Più ancora un bel po' :D
pin-head
19-08-2021, 19:58
si ma sarà un pilota con un occhio solo, senza 10/10 e senza occhiali... con un cervello limitato nei ragionamenti ma solo con tanta memoria...
È chiaro che non conosci minimamente l’argomento.
E' successo ancora, per fortuna non c'è il morto
A Tesla Model 3 hit a parked police car in Orlando, driver said she was ‘in Autopilot’
https://www.cnbc.com/2021/08/28/tesla-model-3-hit-a-parked-police-car-in-orlando-driver-said-she-was-in-autopilot.html
Adesso aspettiamo i debunker che recuperano i filmati con le prove,
che il guidatore mente per l'assicurazione,
che è colpa del poliziotto,
che la NHTSA "illecitamente" indaga
ecc :O
Non sarà che il FSD sbaglia ANCHE perchè ha immagini in input di bassa qualità ?
Il numero di coni (sono le cellule che percepiscono il colore) nella retina è di circa 6-7 milioni. Come risoluzione l'occhio umano è paragonabile a una fotocamera con 6-7 Mpixel (ci sono molti più bastoncelli, ma sono utili per la visione notturna con basse intensità di luce). Devi inoltre considerare che la parte centrale dell'occhio (la fovea) non ha cellule per la visione; come se in un sensore ci sia un "buco" in mezzo, molto più grande del notch di un cellulare, ma proprio in mezzo all'immagine: ci pensa poi il cervello a ricostruire cosa probabilmente c'era nell'area non visibile.
La nostra capacità di visione dipende dal cervello, non dall'occhio.
A questo proposito può essere utile studiare il ruolo dei movimenti oculari saccadici e come vengono sfruttati dal cervello per aumentare la risoluzione percepita dell'immagine.
Incidentalmente, mi piacerebbe vedere che qualcuno provi a implementare telecamere con movimenti pseudo-saccadici e la relativa IA per la ricostruzione di immagini ad alta risoluzione.
Quindi mi dispiace, il problema non è delle telecamere, ma dell'IA.
Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.
Se usano le videocamere attuali, continueranno ad avere problemi che per un essere umano sono cose ininfluenti.
Le cose cambieranno davvero solo quando si investirà seriamente sulle event camera neuromorfiche.
Per chi non lo sapesse, la retina non è solo un tappeto di coni e bastoncelli sensibili alla luce, ma vi sono più strati di cellule che elaborano e confrontano i dati "grezzi" in modo da operare come il primo stadio di motion detection, misuratori di parallasse, feature detector e filtri anti-disturbo. Questo permette di trasmettere solo "quello che cambia"/"le cose interessanti" e se serve l'immagine "completa" questa viene "ricostruita nel cervello" aggiungendo i dati in arrivo a quelli già inseriti nell'"immagine interna" costruita dal cervello fino a quel momento.
Significa che mentre una videocamera classica collegata su USB2 a 640x640 senza compressione trasmette tirata proprio al massimo intorno a 60fps, una event camera "rozza" come quelle già in circolazione 20 anni fa trasmette l'equivalente di oltre 2000fps sempre sempre sullo stesso scrauso link USB2 ed alleggerendo pure la fase di elaborazione (trasmette solo le "parti interessanti" insieme alle informazioni sul perché sono interessanti).
tallines
29-08-2021, 17:15
Link alla notizia: https://auto.hwupgrade.it/news/tecnologia/nuovo-guaio-per-autopilot-tesla-sotto-indagine-per-troppi-incidenti-contro-mezzi-di-soccorso_99904.html
L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta
Il colmo dei colmi.........:rolleyes:
ramses77
30-08-2021, 07:55
Il colmo dei colmi.........:rolleyes:
Quelli che commentano i titoli senza sapere una mazza sono i miei preferiti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.