View Full Version : La Tesla fa cilecca e investe un pedone (finto): il video che mette in imbarazzo Musk e colleghi
Redazione di Hardware Upg
02-10-2020, 14:41
Link alla notizia: https://auto.hwupgrade.it/news/tecnologia/la-tesla-fa-cilecca-e-investe-un-pedone-finto-il-video-che-mette-in-imbarazzo-musk-e-colleghi_92464.html
Un video pubblicato su Weibo mostra quanto inaffidabili possono essere i sistemi di frenata assistita. L'auto protagonista in questo caso è la Model 3, ma altri test in passato hanno mostrato come la tecnologia in generale non sia sempre affidabile
Click sul link per visualizzare la notizia.
nickname88
02-10-2020, 14:58
Gli esseri umani invece non fanno mai cilecca vero ? :rolleyes:
Gli esseri umani invece non fanno mai cilecca vero ? :rolleyes:
E quindi?
Certo che fanno cilecca per questo si affidano ai sistemi elettronici, magari pubblicizzati fantasmagoricamente.
Dilettanti, non avete capito che l'ha investito perchè ha riconosciuto che si trattava di un manichino e non di un pedone vero! :D
nickname88
02-10-2020, 15:16
E quindi?
Se devi cercare la perfezione per poter INIZIARE a rimpiazzare la guida umana non la rimpiazzi più.
Quello che sovviene (non ho ancora visto il video) e' comunque la questione responsabilita'. Se in un caso simile l'automobilista e' sollevato da OGNI responsabilità pur nella tragedia ipotetica del test in un contesto reale, potrei anche "accettare" la rarità dell' errore. Se invece sara' comunque l'automobilista responsabile in qualche modo di non aver (che so' faccio un es. non conosco come funzionano) "inserito in tempo la modalità manuale" e evitato il problema... beh... allora preferisco guidare con i miei occhi e le mie scelte.
FirePrince
02-10-2020, 16:08
Nessun sistema è infallibile, men che meno la guida manuale con guidatori umani. Al momento i sistemi automatici già performano meglio degli esseri umani in molte situazioni (ad esempio la guida in autostrada oppure con scarsa luminosità), quindi non accettare il (molto limitato) numero di incidenti e morti che questi sistemi comportano è da criminali, in quanto preverrebbero molti più incidenti e morti (quelli causati dall’alternativa si avere persone al volante).
mentalray
02-10-2020, 16:11
Non metto in dubbio l'autenticità del video, ma la prima cosa che mi viene in mente é, gli igegneri di Tesla un test del genere non lo hanno mai fatto? Investono miliardi sul loro sistema autopilot e la loro dotazione ADAS é di tutto rispetto, molto superiore a quello di tante altre case automobilistiche, credo che prove del genere siano all'ordine del giorno.
Nessun sistema é infallibile ed é per questo che si parla ancora di assitenza alla guida, l'uomo é ancora l'unico responsabile legale in caso di incidenti, ma sono certo che le auto guideranno davvero da sole tra qualche anno, leggi permettendo.
Vorrei vedere la stessa prova effettuata con auto di altre marche dal costo equivalente.
Io sono contentissimo della mia model 3, penso che non potrei piu' tornare su un'auto tradizionale.
schwalbe
02-10-2020, 16:17
Anche nell'incidente col camion ribaltato di qualche mese fa, avevo fatto notare che l'auto non ha rallentato con l'autista del camion in corsia che si sbracciava per far rallentare le auto, tanto da doversi scansare a lato per non esser investito.
Il problema quindi c'è.
Anche nell'incidente col camion ribaltato di qualche mese fa, avevo fatto notare che l'auto non ha rallentato con l'autista del camion in corsia che si sbracciava per far rallentare le auto, tanto da doversi scansare a lato per non esser investito.
Il problema quindi c'è.
Che problema ci sarebbe per un sistema di guida ASSISTITA e non di guida AUTOMATICA, se ho l'ABS devo comunque saper frenare, se poi in una situazione di emergenza imprevista l'ABS interviene e mi salva le chiappe bene che ci sia, ma non è che se ho l'ABS posso frenare a caxxo di cane, così come la frenata d'emergenza e tutti gli altri ausili...
nickname88
02-10-2020, 16:42
l'AI comunque sia col tempo apprende e migliora soltanto, l'essere umano oltre a non poter apprendere oltre un tot dopo un certo lasso di tempo degrada. :rolleyes:
Quindi questi errori sono un successo, specie se rilevati in fase di test.
Che problema ci sarebbe per un sistema di guida ASSISTITA e non di guida AUTOMATICA, se ho l'ABS devo comunque saper frenare, se poi in una situazione di emergenza imprevista l'ABS interviene e mi salva le chiappe bene che ci sia, ma non è che se ho l'ABS posso frenare a caxxo di cane, così come la frenata d'emergenza e tutti gli altri ausili...
Secondo me il problema si presenta nel momento in cui, attivando l'aiuto, comunque si tende inevitabilmente ad essere un attimo più rilassati. Ed è una cosa che un po fa paura. Lo noto già solo col cruise control adattativo. Fai sempre attenzione, ma non tanta quanto ne faresti senza aiuto. Non dico che ti metti a giocare, ma invece di essere perennemente concentrato su chi ti sta davanti, il cervello riesce anche a divagare
l'AI comunque sia col tempo apprende e migliora soltanto, l'essere umano oltre a non poter apprendere oltre un tot dopo un certo lasso di tempo degrada. :rolleyes:
Quindi questi errori sono un successo, specie se rilevati in fase di test.
dove hai letto che l'essere umano dopo un tot non apprende e dopo un lasso di tempo degrada???
e dove hai letto che l'IA migliora soltanto??
mah francamente un guidatore umano che vede al lato della strada un pedone un minimo di attenzione ce la mette proprio perché non sapendo le intenzioni si tiene pronto a frenare nel caso in cui questo voglia attraversare o anche semplicemente buttarsi sotto alla prima macchina che passa perché stufo della vita oppure per simulare un incidente ;)
insomma una intelligenza artificiale sarà anche più veloce nei tempi di reazione ma prima deve capire che deve reagire e come reagire appropriatamente
mah francamente un guidatore umano che vede al lato della strada un pedone un minimo di attenzione ce la mette proprio perché non sapendo le intenzioni si tiene pronto a frenare nel caso in cui questo voglia attraversare o anche semplicemente buttarsi sotto alla prima macchina che passa perché stufo della vita oppure per simulare un incidente ;)
insomma una intelligenza artificiale sarà anche più veloce nei tempi di reazione ma prima deve capire che deve reagire e come reagire appropriatamente
Tipo quella signora che quando avevo il bambino piccolo sul passeggino, a momenti mi stirava sulle strisce pedonali perchè ebbe la bella intuizione di sorpassare l'auto che si era fermata per farci passare...
Quello che sovviene (non ho ancora visto il video) e' comunque la questione responsabilita'.
a me sovvien l'eterno, ed i molti pedoni... :cool:
schwalbe
02-10-2020, 18:13
Che problema ci sarebbe per un sistema di guida ASSISTITA e non di guida AUTOMATICA, se ho l'ABS devo comunque saper frenare, se poi in una situazione di emergenza imprevista l'ABS interviene e mi salva le chiappe bene che ci sia, ma non è che se ho l'ABS posso frenare a caxxo di cane, così come la frenata d'emergenza e tutti gli altri ausili...
A parte che il marketing faceva credere all'inizio che fosse automatica, mentre sul manuale è sempre stato presente che è assistita, il conducente deve sempre sorvegliare e sempre pronto a prendere la guida quando l'Autopilot non capisce la situazione e fa, mi pare di ricordare, tre suoni d'avviso e poi "passa i comandi". In tutti i casi si ha molteplici casi di gente che guarda film, videogioca, mangia, legge, fan le cosacce!:D, ... Tanto che c'è cascata anche una dei test di Uber!
Ma la notizia è che ha fallito una simulazione con un pedone e io ricordo che ha fallito anche in un altro caso reale. Quindi son già 2.
A mio parere è grave che non "veda" i pedoni, a prescindere che il guidatore li vede e deve intervenire!
La metto dal punto di vista tecnico, perché nel 2020, con già vari anni di sperimentazioni e tanti $/€€ spesi, mi aspettavo altri risultati.
Macchine fotografiche che scattano se sorridi, occhi rossi corretti senza chiederti niente, riconoscere e nominare le persone, cani, gatti nelle foto/dal vero, totem che riconoscono se non hai mascherina e se hai febbre, ecc e poi le auto che ti stirano anche se se fermo in mezzo alla strada!
Nel rileggere la poesia sopra citata mi e' venuto in mente pur decisamente meno importante ma (almeno per il cinema epico) il film rivisto di recente per la ennesima volta '2001: Odissea nello spazio (1968)'. Non c'entra molto ma l'ultimo capitolo "verso l'infinito e oltre" e' talmente "elevato" da ricordarla in qualche modo. :)
.. proprio perché non sapendo le intenzioni si tiene pronto a frenare nel caso in cui questo voglia attraversare o anche semplicemente buttarsi sotto alla prima macchina che passa..
Questo e' un punto credo rilevante che gia' avevo accennato in un altra discussione. L' essere umano proprio perche' conosce l'essere umano e lo e' nel contempo egli stesso, puo' fare un veloce "calcolo" sul comportamento della persona che potrebbe (ad es.) barcollare in stato di ebrezza pur camminando o discutere animatamente con un'altra persona e "presumere" che essi cadano dal marciapiede o facciano qualcosa di impensabile e incalcolabile per qualsiasi AI (es. una rissa scattata ipoteticamente tra due senza segnale alcuno occupando la corsia).
Magari l' AI attenderebbe che i propri sensori rilevassero l'avvicinamento dei corpi all'asfalto, la persona umana notando il comportamento anomalo (es. quello che barcolla ubriaco) potrebbe ipoteticamente prevedere l'eventualità che "è meglio stare piu' a sinistra onde evitare che qualcuno mi si butti sotto".
Credo si sottovaluti e anche di molto le capacita' di "preveggenza" se cosi' si puo' chiamare che l'essere umano ha dopo decenni e decenni di esperienza di vita terrena.
mgiammarco
02-10-2020, 19:09
Gli esseri umani invece non fanno mai cilecca vero ? :rolleyes:
Si, per esempio quando mettono in vendita una macchina chiaramente testata poco per vincere il Time to Market....
etiernal
02-10-2020, 19:47
Questo e' un punto credo rilevante che gia' avevo accennato in un altra discussione. L' essere umano proprio perche' conosce l'essere umano e lo e' nel contempo egli stesso, puo' fare un veloce "calcolo" sul comportamento della persona che potrebbe (ad es.) barcollare in stato di ebrezza pur camminando o discutere animatamente con un'altra persona e "presumere" che essi cadano dal marciapiede o facciano qualcosa di impensabile e incalcolabile per qualsiasi AI (es. una rissa scattata ipoteticamente tra due senza segnale alcuno occupando la corsia).
Magari l' AI attenderebbe che i propri sensori rilevassero l'avvicinamento dei corpi all'asfalto, la persona umana notando il comportamento anomalo (es. quello che barcolla ubriaco) potrebbe ipoteticamente prevedere l'eventualità che "è meglio stare piu' a sinistra onde evitare che qualcuno mi si butti sotto".
Credo si sottovaluti e anche di molto le capacita' di "preveggenza" se cosi' si puo' chiamare che l'essere umano ha dopo decenni e decenni di esperienza di vita terrena.
Bellissimo commento. Penso tu abbia colto in pieno il problema con "IA" (in virgolette, perché non è IA ovviamente).
2 anni fa, in un Turing Talk un professore da Cambridge (l'inventore del "framework" su cui si basano i vari "remote screen controlling software") aveva presentato dei scenari dove le macchine "autonome" di livello 4/5 avrebbero avuto problemi. Pensate alle rotonde (più complesse) oppure al traffico asiatico dove per muoversi è necessario capire l'intenzione di altri esseri umani.
Tempo fa, discutevo con i miei compagni di corso scenari dove il pedone è sulle strisce pedonali e non capisce se può attraversare o meno, dal momento che ha una macchina ferma sull'incrocio che sta per svoltare verso di lui. Solitamente, il guidatore umano avrebbe lampeggiato le luci o fatto un cenno con la mano. Come farà la macchina a dirgli cosa vuole fare? Come fa il pedone ad essere sicuro che la macchina l'ha visto? Mi ricorda il "dining philosophers problem".
Ritornando alla notizia, devo dire che è scandaloso. Voi altri non capite il problema principale: Tesla si rifiuta di usare sensori come i LiDAR perché dice che sono troppo costosi ecc ecc... Però in scenari del genere i LiDAR sono più che sufficienti per risolvere il problema. Il punto è che Tesla dovrà prima o poi rivolgersi ad una serie di sensori secondari che aiutano i neural network e sono usati come piano B. Vedremo quale strategia utilizza quando sarà a livello 4 o livello 5 di "self-driving".
Quando il pedone viene investito, l'intera strategia di Elon deve essere messa in dubbio. Cavolo, persino la mia macchinetta dotata di LiDAR con algoritmi presi da ROS può evitare i pedoni, giusto per darvi un'idea della relativa semplicità.
La gente dice che è una macchina, e quindi è normale che commetta errori. Non è così semplice. Solitamente, "software correctness" può essere verificato con 100% di "confidence" nell'ambito di "reasoning and verification". Cosa che tra l'altro si fa per le centrali elettriche/nucleari ecc. Come fai a farlo con i neural network o in generale qualsiasi machine learning (ML) model? Boh.
Il problema è anche un'altro: in un software tradizionale, gli errori sono causati da "bug" che possono individuati e risolti. Nell'ambito di ML, è tutta un'altra storia. Non esistono "bug", e non si possono aggiustare gli errori scrivendo ulteriori istruzioni/comandi per la macchina.
Quindi, sì, è un errore e badate che non è un "bug". Il problema è tutta la tecnologia (neural network) su cui Tesla basa il suo famigerato Autopilot.
Lo si può aggiustare? Sì. In due modi: facendo più "training", come hanno suggerito altri utenti, in altre parole, investendo il più alto numero di persone possibili; il secondo modo è partire da capo, riscrivere tutto dall'inizio (io preferisco quest'ultimo, non so voi :D).
Nel rileggere la poesia...
qualcuno ha colto ;)
... Voi altri non capite il problema principale: Tesla si rifiuta di usare sensori come i LiDAR ...
ricordami una cosa: Tesla si basa solo su telecamere, giusto?
Bonaparte2
02-10-2020, 20:19
Ci sono video di tutte le auto che fanno cilecca, anche molto prima della tesla.
etiernal
02-10-2020, 20:33
ricordami una cosa: Tesla si basa solo su telecamere, giusto?
Visto che non hai letto il mio intervento, rispondo alla tua domanda direttamente. Tesla usa i "radar" ma li usa in congiunzione con i neural network. C'è un fusione tra i due. Mentre, il resto delle aziende usa i LiDAR come input di riserva per avere un'idea alternativa del "environment". Questa è la principale differenza!
Non è così semplice. Solitamente, "software correctness" può essere verificato con 100% di "confidence" nell'ambito di "reasoning and verification". Cosa che tra l'altro si fa per le centrali elettriche/nucleari ecc. Come fai a farlo con i neural network o in generale qualsiasi machine learning (ML) model? Boh.
La sicurezza funzionale, applicata ad esempio alle centrali elettriche/nucleari, prevede una serie di layer. semplificando moltissimo (ma veramente tanto), abbiamo un layer che controlla il processo (chiamato PCS), con hardware e software "normale". E poi ci sono i vari sistemi di sicurezza. Uno (ESD) che prevede lo spegnimento dell'impianto qualora il processo dovesse diventare pericoloso e/po incontrollabile. Qualore il sistema di spegnimento non riuscisse ad "evitare l'incidente" si attiverebberò i sistemi di contenimento del danno (F&G).
Nel caso della macchina autonoma, avremmo un sistema che guida in modo potenzialmente fallace (IA via ML), in caso di pericolo qualora il sistema a guida autonoma falisse, dovrebbe intervenire un sistema che automaticamente mette in sicurezza la macchina.
nickname88
02-10-2020, 22:46
dove hai letto che l'essere umano dopo un tot non apprende e dopo un lasso di tempo degrada???
e dove hai letto che l'IA migliora soltanto??Un individuo mentalmente normodotato sà benissimo ( non c'è bisogno di spiegargli l'ovvietà ) che l'età che avanza oltre un tot è solo deleterio per le capacità mentali e fisiche dell'essere umano e che quindi non è in grado di migliorarsi continuamente dopo un certo lasso di tempo, e siccome prima o poi crepa .... esiste pure un limite all'esperienza che può accumulare.
E no, l'esperienza e la conoscenza accumulata in vita non si può passare geneticamente al figlio ( nè condividerla con tutta l'umanità ), che dovrà ricominciare il percorso di maturazione e apprendimento daccapo, con strumenti sempre migliori certo ma di fatto non sarà mai in grado di portarsi portare avanti una maturità già raggiunta in precedenza come può fare una macchina.
Non è infatti un caso che la stragrande maggioranza degli errori commessi dalla guida umana son sempre gli stessi.
L'AI non migliora ? Ah certo, il progresso tecnologico adesso è votato al peggioramento. :rolleyes:
Senza contare che dovrebbe migliorare anche a livello HW con il tempo, anzichè peggiorare ( e no ... non crepano, non ne sono in grado ), non sono in grado di "dimenticare" e sono in grado di effettuare un backup dei propri progressi e condividerli.
Si, per esempio quando mettono in vendita una macchina chiaramente testata poco per vincere il Time to Market....
Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.
Un individuo mentalmente normodotato sà benissimo ( non c'è bisogno di spiegargli l'ovvietà ) che l'età che avanza oltre un tot è solo deleterio per le capacità mentali e fisiche dell'essere umano e che quindi non è in grado di migliorarsi continuamente dopo un certo lasso di tempo, e siccome prima o poi crepa .... esiste pure un limite all'esperienza che può accumulare.
E no, l'esperienza e la conoscenza accumulata in vita non si può passare geneticamente al figlio ( nè condividerla con tutta l'umanità ), che dovrà ricominciare il percorso di maturazione e apprendimento daccapo, con strumenti sempre migliori certo ma di fatto non sarà mai in grado di portarsi portare avanti una maturità già raggiunta in precedenza come può fare una macchina.
Non è infatti un caso che la stragrande maggioranza degli errori commessi dalla guida umana son sempre gli stessi.
L'AI non migliora ? Ah certo, il progresso tecnologico adesso è votato al peggioramento. :rolleyes:
Senza contare che dovrebbe migliorare anche a livello HW con il tempo, anzichè peggiorare ( e no ... non crepano, non ne sono in grado ), non sono in grado di "dimenticare" e sono in grado di effettuare un backup dei propri progressi e condividerli.
Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.
allora c'è quella cosa che si chiama scuola , palestra, libri, video , arte, ecc ecc che non fanno nient'altro che trasmettere alle generazioni future, le esperienze, e le conoscenze delle generazioni passate, e questo permette all'umanità di evolversi in continuazione,
la IA come qualsiasi cosa nel mondo si deteriora ed "invecchia" , neanche una stella, è eterna
sei sicuro che l'incidente non può ripetersi??? che ne sai se è un problema di SW o HW ???
se è un errore di progettazione??
nickname88
03-10-2020, 00:05
La IA come qualsiasi cosa nel mondo si deteriora ed "invecchia" , neanche una stella, è eterna
sei sicuro che l'incidente non può ripetersi??? che ne sai se è un problema di SW o HW ???
se è un errore di progettazione??Errori di progettazione possono essere corretti. Se l'incidente si ripete è perchè non è stato fixato come pensavano, riprendono in mano il progetto e lo fixano prima o poi.
Il fatto è che una volta fixato, poi non è che la macchina lo dimentica col tempo e non è fixato solo per quella macchina individualmente, ma in modo globale. Quindi col tempo non può che evolversi sempre di più in modo inesorabile. Una macchina non deve rifare daccapo tutto il percorso di Deep Learning della precedente, nasce già imparata e l'AI viene affinata sempre.
allora c'è quella cosa che si chiama scuola , palestra, libri, video , arte, ecc eccE che centrano con l'abilità di guida del veicolo ?
Quì si parla di reagire a determinate circostanze con specifici fattori che entrano in gioco e spesso anche in tempi ristretti, combinazioni che seppur numerose sono in numero finito e una macchina è in grado di memorizzarle tutte ed elaborare una soluzione in tempo reale, l'uomo in determinate circostanze no, oltre ad essere spesso influenzabile da emozioni o alterazioni.
La maggior parte delle persone alla guida invece solo per iniziare ha dimenticato buona parte del codice stradale studiato dopo il primo anno dalla patente e buona parte degli errori sono necessari ad ogni individuo per poter maturare consapevolezze o far esperienza.
Gli errori alla guida infatti spesso son sempre gli stessi indipendentemente dall'epoca.
la IA come qualsiasi cosa nel mondo si deteriora ed "invecchia" , neanche una stella, è eternaMa anche no, l'AI non è altro che un insieme di righe di codice, non si deteriora per niente.
Da quando il software si deteriora ? :asd:
Imho facendo un ragionamento generico e tralasciando la marca di quale auto in questione, qualcuno potrebbe chiedersi se a deteriorarsi possa essere uno delle migliaia di componenti elettronici (anche un solo transistor tra i miliardi di essi) su cui quelle righe di codice formano un programma che su quel componente fà totale affidamento. Ci saranno magari logiche di sicurezza per cui la macchina possa continuare a funzionare, ma non si puo' non pensare pensare che un veicolo fatto di componenti elettronici, semiconduttori, componenti passivi, meccanica, semplici connessioni (fili) deteriorabili etc... non abbiano vita probabilmente piu' limitata in termini di anni rispetto a quello che serve all'essere umano per guidare (occhi, orecchie, cervello, braccia, gambe, esperienza) che già ha a che fare con veicoli che possono guastarsi, infatti non e' che sia molto propenso all'aumento esponenziale di elettronica in veicoli che finiscono a dipendere dall'elettronica piu' che dalla meccanica.
Per cui il programma compilato sul quel codice potrebbe essere eterno ma tutta l'auto in una complessita' elettronica enorme (cosi' come un qualsiasi hardware che sia una motherboard di un computer) eterni non lo sono e chissà ipoteticamente potrebbe bastare un condensatore specifico difettoso per cui magari tutto quanto diventa instabile. E un conto e' una scheda madre che e' instabile, un conto un'auto lanciata a 100 all'ora che "scopre" questa instabilità. :)
Ad ogni modo riflettevo inoltre sul fattore responsabilità personale ma anche emotiva nel caso di ostacolo imprevisto. Oggigiorno a prescindere da chi in un incidente tra guidatore/i o eventuali terzi colpiti e' "responsabile" per cui le dinamiche possono essere complesse (es. uno che si butta sotto per estremi), una cosa e' certa chi e' alla guida farà "istintivamente" di tutto per evitarlo, non importa se era lui ad andare forte, se era una persona ad essersi buttata sotto, chi avra' la possibilita' di "tentare" l'impossibile, pur impossibile, lo tenterà. Questo solleva questioni boh filosofiche verrebbe da dire per cui in quel preciso istante tutto il resto del mondo non esiste... quel guidatore avra' magari uno o due secondi di tempo dilatati per relatività, in cui applicare tutto se stesso e tutta la sua esperienza in un estremo gesto per salvare la situazione fosse anche a costo della sua vita. Cosi' come quello che vedendo dalla spiaggia una persona sentirsi male in mare pur sapendo che e' improbabile il salvataggio, tenterà di buttarsi per semplice instinto di empatia e connessione tra umani..
Nessuna IA o AI come la si voglia declinare, potra' mai provare rimpianto di non aver tentato o orgoglio di aver tentato o piangere o gioire nel caso positivo o negativo della riuscita o meno del salvataggio. C'e' un fattore umano per cui per quanto ormai egli sia quotidianamente denigrato da ogni fronte possibile per archiviarlo come obsoleto, una macchina davvero intelligente forse lo "simulerebbe" dopo chissa quante migliaia di incidenti... ma sull' epitaffio di quelle persone cosa andrebbe scritto allora.. "Diedero la vita per il progresso della tecnica?".
Imho facendo un ragionamento generico e tralasciando la marca di quale auto in questione, qualcuno potrebbe chiedersi se a deteriorarsi possa essere uno delle migliaia di componenti elettronici (anche un solo transistor tra i miliardi di essi) su cui quelle righe di codice formano un programma che su quel componente fà totale affidamento. Ci saranno magari logiche di sicurezza per cui la macchina possa continuare a funzionare, ma non si puo' non pensare pensare che un veicolo fatto di componenti elettronici, semiconduttori, componenti passivi, meccanica, semplici connessioni (fili) deteriorabili etc... non abbiano vita probabilmente piu' limitata in termini di anni rispetto a quello che serve all'essere umano per guidare (occhi, orecchie, cervello, braccia, gambe, esperienza) che già ha a che fare con veicoli che possono guastarsi, infatti non e' che sia molto propenso all'aumento esponenziale di elettronica in veicoli che finiscono a dipendere dall'elettronica piu' che dalla meccanica.
Per cui il programma compilato sul quel codice potrebbe essere eterno ma tutta l'auto in una complessita' elettronica enorme (cosi' come un qualsiasi hardware che sia una motherboard di un computer) eterni non lo sono e chissà ipoteticamente potrebbe bastare un condensatore specifico difettoso per cui magari tutto quanto diventa instabile. E un conto e' una scheda madre che e' instabile, un conto un'auto lanciata a 100 all'ora che "scopre" questa instabilità. :)
Ad ogni modo riflettevo inoltre sul fattore responsabilità personale ma anche emotiva nel caso di ostacolo imprevisto. Oggigiorno a prescindere da chi in un incidente tra guidatore/i o eventuali terzi colpiti e' "responsabile" per cui le dinamiche possono essere complesse (es. uno che si butta sotto per estremi), una cosa e' certa chi e' alla guida farà "istintivamente" di tutto per evitarlo, non importa se era lui ad andare forte, se era una persona ad essersi buttata sotto, chi avra' la possibilita' di "tentare" l'impossibile, pur impossibile, lo tenterà. Questo solleva questioni boh filosofiche verrebbe da dire per cui in quel preciso istante tutto il resto del mondo non esiste... quel guidatore avra' magari uno o due secondi di tempo dilatati per relatività, in cui applicare tutto se stesso e tutta la sua esperienza in un estremo gesto per salvare la situazione fosse anche a costo della sua vita. Cosi' come quello che vedendo una persona in mare pur sapendo che e' impossibile il salvataggio, tenterà di salvare qualcuno magari ad egli sconosciuto per semplice instinto di empatia.. connessione tra umani..
Nessuna IA o AI come la si voglia declinare, potra' mai provare rimpianto di non aver tentato o orgoglio di aver tentato o piangere o gioire nel caso positivo o negativo della riuscita o meno del salvataggio. C'e' un fattore umano per cui per quanto ormai egli sia quotidianamente denigrato da ogni fronte possibile per archiviarlo come obsoleto, una macchina davvero intelligente forse lo "simulerebbe" dopo chissa quante migliaia di incidenti... ma sull' epitaffio di quelle persone cosa andrebbe scritto allora.. "Diedero la vita per il progresso della tecnica?".
Poi leggi del tipo che per non schiacciare un topo, entra dentro una processione di un funerale...
Se si parla per assurdo, un essere umano è infallibile, poi la realtà è che a fine anno si contano i morti, credo che nessuno si sogni che con la guida assistita si arrivi a zero, ma se saranno di meno, sarà comunque un successo.
Poi leggi del tipo che per non schiacciare un topo, entra dentro una processione di un funerale...
Se si parla per assurdo, un essere umano è infallibile, poi la realtà è che a fine anno si contano i morti, credo che nessuno si sogni che con la guida assistita si arrivi a zero, ma se saranno di meno, sarà comunque un successo.
Cio' non toglie che per quanto in quell' esempio ci sia un anomalia nella valutazione delle priorità, voglio credere che il guidatore non avrebbe voluto si arrivasse a quello e che magari (per quanto assurdo) avrebbe pensato di evitare facilmente il topo con una leggera correzione dello sterzo e che invece ha destabilizzato l'auto etc.. etc.. puo' essere che a prescindere da come la notizia immagino possa essere data "Investe tot persone per evitare un topo" magari le cose non sono andate cosi' assurdamente come si crede. Se un cane attraversa la strada cosa fate non cercate di evitarlo? Ma se nell'evitarlo la macchina perde aderenza e le risonanze di quella instabilita' creano un disastro di chi e' la colpa? Del guidatore, del cane che non doveva attraversare la strada, del padrone del cane, di una epoca in cui il cane e' quasi piu' importante dell'essere umano? Anche perche' se ipoteticamente e malauguratamente si investisse un animale domestico c'e' gente che e' stata linciata da esseri umani (ricordo in passati lontani fatti di cronaca) per situazioni simili e per assurdo anche queste logiche vanno ad aggiungersi e spiegare il "perchè" possano succedere certe cose, cose che non mi stupirebbe sarebbero potute succedere ad una intelligenza artificiale a meno che non ritenga il topo sacrificabile e il cane no o nessuno dei due o entrambi?
tuttodigitale
03-10-2020, 10:07
Secondo me il problema si presenta nel momento in cui, attivando l'aiuto, comunque si tende inevitabilmente ad essere un attimo più rilassati. Ed è una cosa che un po fa paura. Lo noto già solo col cruise control adattativo. Fai sempre attenzione, ma non tanta quanto ne faresti senza aiuto. Non dico che ti metti a giocare, ma invece di essere perennemente concentrato su chi ti sta davanti, il cervello riesce anche a divagare
A parte che il marketing faceva credere all'inizio che fosse automatica, mentre sul manuale è sempre stato presente che è assistita, il conducente deve sempre sorvegliare e sempre pronto a prendere la guida quando l'Autopilot non capisce la situazione e fa, mi pare di ricordare, tre suoni d'avviso e poi "passa i comandi". In tutti i casi si ha molteplici casi di gente che guarda film, videogioca, mangia, legge, fan le cosacce!:D, ... Tanto che c'è cascata anche una dei test di Uber!
Ma la notizia è che ha fallito una simulazione con un pedone e io ricordo che ha fallito anche in un altro caso reale. Quindi son già 2.
A mio parere è grave che non "veda" i pedoni, a prescindere che il guidatore li vede e deve intervenire!
La metto dal punto di vista tecnico, perché nel 2020, con già vari anni di sperimentazioni e tanti $/€€ spesi, mi aspettavo altri risultati.
Macchine fotografiche che scattano se sorridi, occhi rossi corretti senza chiederti niente, riconoscere e nominare le persone, cani, gatti nelle foto/dal vero, totem che riconoscono se non hai mascherina e se hai febbre, ecc e poi le auto che ti stirano anche se se fermo in mezzo alla strada!
c'è un errore di fondo nel vostro ragionamento.
è l'auto-pilot (mai nome fu più azzeccato :rolleyes: ) che assiste non il contrario.
Chi è alla guida deve far finta di non averlo, e in caso di errore/pericolo l'elettronica di bordo che assiste. Un pò quello che succede nelle ferrovie.
è chiaro che un sistema di questo tipo è progettato in modo da NON intervenire in caso di dubbio, per non essere invadente. (un sistema che dà assistenza deve essere per lo più trasparente al guidatore....).
A livello progettuale nulla da eccepire, così deve essere. Evidentemente c'è chi fa il figo si dimentica che la macchina va condotta come se non ci fosse.
Quanti incidenti con questo sistema sarebbe possibile evitare o comunque ridurne l'entità del danno, se ben usato?
Questa tecnologia già oggi è rivoluzionaria a mio modo di vedere, probabilmente perchè so cosa significa uscire dall'auto letteralmente con le ossa rotte.
... Ah certo, il progresso tecnologico adesso è votato al peggioramento. :rolleyes:
certo che sei proprio rimasto alle concezioni ottocentesche...:rolleyes:
non esemplifico tanto non capiresti, e applico direttamente quel che diceva Oscar Wilde...
schwalbe
03-10-2020, 11:37
c'è un errore di fondo nel vostro ragionamento.
...
Mica tanto! Confermi quello che avevo detto!
mgiammarco
03-10-2020, 16:22
c'è un errore di fondo nel vostro ragionamento.
è l'auto-pilot (mai nome fu più azzeccato :rolleyes: ) che assiste non il contrario.
Chi è alla guida deve far finta di non averlo, e in caso di errore/pericolo l'elettronica di bordo che assiste. Un pò quello che succede nelle ferrovie.
Certo ed è quello che io critico. Io ho una normalissima Hyundai Tucson con cruise control adattivo:
- tiene le distanze meglio di me;
- frena meglio di me;
- si distrae meno di me
Però Hyundai lo chiama "cruise control adattivo", mentre Tesla lo chiama e lo promuove come "autopilot", per ottenere un gran stupore e un aumento delle vendite ben sapendo che qualcuno prima o poi sarebbe morto.
Ora qua siamo addirittura ai pedoni non visti. Qui è proprio mettere in produzione un software in alpha test (neanche beta test), quindi è una TRUFFA, un approfittarsi della temporanea mancanza di una normativa.
mgiammarco
03-10-2020, 16:28
Dipende, se la "testata poco" è in grado di garantire margini di errori anche pari a quelli medi dell'essere umano in teoria sarebbe già pronta a rimpiazzarlo. L'aver colpito un pedone ora, farà si che l'incidente non si ripeta quantomeno in relazione a queste dinamiche specifiche.
Ma che risposta è? Hai presente la frase "requisiti minimi per uso professionale"?
Vediamo se capisci la differenza fra:
- un chirurgo che ti opera senza aver mai preso in mano un bisturi prima, sbaglia tutto e ti dice: "però grazie a te il prossimo si salva"
- un chirurgo esperto che, in un intervento difficile, non riesce ad ottenere il risultato previsto, ma tu comunque non muori.
La differenza è che il primo NON È AUTORIZZATO a toccare nessun essere umano!! E non è che arriva la Tesla con "noi siamo fichi, americcani e innovators" quindi se muore qualcuno è per il progresso. No mi spiace, se muore qualcuno è perché siete volutamente incompetenti per risparmiare soldi. Guardate Google, è da 10 anni che investe barcate di soldi e fa 10 milioni di km di test e non ha messo ancora in vendita la guida automatica. Questi arrivano e in due/tre anni vendono una cosa che non funziona...
... Hyundai lo chiama "cruise control adattivo", mentre Tesla lo chiama e lo promuove come "autopilot", ....
tesla sterza anche, credo. E' una differenza notevoleissima (a patto che funzioni ovviamente)
Tante discussioni sulla guida autonoma/assistita quando nel video quello che viene a mancare e' l'AEB
https://www.youtube.com/watch?v=FTKxCE5qmQM&ab_channel=EuroNCAP
mgiammarco
03-10-2020, 18:54
tesla sterza anche, credo. E' una differenza notevoleissima (a patto che funzioni ovviamente)
Sterza anche la hyundai, si chiama lane assist, e non funziona molto bene. Ma nel manuale è spiegato chiaramente di non fidarsi e il sistema nel dubbio si spegne e ti avverte con un cicalino. Oltre al limite legale che, se togli le mani dal volante per più di 10 secondi ti avvisa e si spegne comunque.
Ma c'è su tante macchine ormai solo che non viene chiamato autopilot.
Tesla applica il marketing stile apple alle automobili. Ma non va bene, qui si parla di vite umane.
Sterza anche la hyundai, si chiama lane assist, e non funziona molto bene. Ma nel manuale è spiegato chiaramente di non fidarsi e il sistema nel dubbio si spegne e ti avverte con un cicalino. Oltre al limite legale che, se togli le mani dal volante per più di 10 secondi ti avvisa e si spegne comunque.
Ma c'è su tante macchine ormai solo che non viene chiamato autopilot.
Tesla applica il marketing stile apple alle automobili. Ma non va bene, qui si parla di vite umane.
non voglio difendere tesla (in generale trovo il marketing detestabile), ma mi pare che il suo sistema sia un po' più sofisticato... e cmq a quanto dici direi che funziona parecchio meglio
Notturnia
04-10-2020, 22:59
quanto adoro che la mia macchina fa quello che voglio io e non lei.. almeno se devo stirare un pedone decido io chi scegliere..
è assurdo che si possa mettere sotto qualcuno perchè la ditta che ha venduto la macchina continua a dare nomi farlocchi ai suoi sistemi ( e chiamalo assisted driving e non autopilot...) e comunque auto che frenano quando vedono pedoni ci sono da tempo.. e frenano sul serio.. e con un camion sdraiato per terra anche la mia macchina frena da sola senza che lo veda io per forza.. e frena molto prima che io capisca che il camion davanti a me è fermo in strada a luci spente.. (per fortuna perchè io non avevo capito che aveva parcheggiato...)
tesla deve lavorare molto se vuole vendere un autopilot che fa quello che il nome suggerisce.. resto dell'idea che mi piacciono di più gli umani che i computer che guidano..
Comunque la Tesla nel video ha fatto bene a non frenare.
Quel fantoccio andava stirato, non essendoci le strisce pedonali. :D
By(t)e
Notturnia
05-10-2020, 08:28
@andbad, dici che la Macchina ha deciso che andava punito ? :-D ma era in un parcheggio, non ci sono strisce pedonali.. secondo me lo ha stirato perchè ha visto che era fatto male e si è offesa
...è assurdo che si possa mettere sotto qualcuno perchè la ditta che ha venduto la macchina continua a dare nomi farlocchi ai suoi sistemi ...
assurdo è che tu attribuisci la colpa alla ditta quando il responsabile unico dei danni sei TU che non hai prestato attenzione alla strada. :O
se sul manuale di istruzioni di una pistola c'è scritto che serve a curare il mal di testa, tu te la punti alla tempia? o sei una persona senziente e minimamente intelligente?
giusto per capire...
@andbad, dici che la Macchina ha deciso che andava punito ? :-D ma era in un parcheggio, non ci sono strisce pedonali.. secondo me lo ha stirato perchè ha visto che era fatto male e si è offesa
Mi sembra evidente che il pedone è un poveraccio a caccia di risarcimento: fa moonwalking fuori dalla traiettoria, appena vede l'auto arrivare scatta che nemmeno Bolt e ci si butta contro. E' evidente che è uno che mira a farsi pagare dall'assicurazione, come le migliaia di video dashcam russi.
La Tesla fa solo un servizio alla collettività. :D
By(t)e
quanto adoro che la mia macchina fa quello che voglio io e non lei.. almeno se devo stirare un pedone decido io chi scegliere..
è assurdo che si possa mettere sotto qualcuno perchè la ditta che ha venduto la macchina continua a dare nomi farlocchi ai suoi sistemi ( e chiamalo assisted driving e non autopilot...) e comunque auto che frenano quando vedono pedoni ci sono da tempo.. e frenano sul serio.. e con un camion sdraiato per terra anche la mia macchina frena da sola senza che lo veda io per forza.. e frena molto prima che io capisca che il camion davanti a me è fermo in strada a luci spente.. (per fortuna perchè io non avevo capito che aveva parcheggiato...)
tesla deve lavorare molto se vuole vendere un autopilot che fa quello che il nome suggerisce.. resto dell'idea che mi piacciono di più gli umani che i computer che guidano..
Immagino che tu abbia comprato tutte le creme miracolose che fanno crescere il pene o i capelli o i feromoni che fanno innamorare le donne, lo scrivono i produttori che funzionano....
Comunque non è che le altre siano granché meglio, eh...
https://www.youtube.com/watch?v=o9O-aejD0vI
By(t)e
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.