View Full Version : L'autopilot porta Tesla in tribunale, gli eredi di Micah Lee chiedono giustizia
Redazione di Hardware Upg
29-09-2023, 13:12
Link alla notizia: https://auto.hwupgrade.it/news/auto-elettriche/l-autopilot-porta-tesla-in-tribunale-gli-eredi-di-micah-lee-chiedono-giustizia_120515.html
Secondo l'accusa, l'autopilot di Tesla avrebbe provocato l'incidente in cui il conducente ha perso la vita e gli altri passeggeri hanno riportato gravi lesioni. La causa, che per adesso si sta svolgendo in ambito civile, potrebbe segnare un precedente importante nel dirimere casi simili
Click sul link per visualizzare la notizia.
gd350turbo
29-09-2023, 13:19
"una casa automobilistica non dovrebbe mai vendere ai consumatori veicoli sperimentali".
Eh mi sembra cosa buona e giusta, (ma anche la gente che li va a comprare...)
Spero che gli diano una bella bastonata !
"una casa automobilistica non dovrebbe mai vendere ai consumatori veicoli sperimentali".
Eh mi sembra cosa buona e giusta, (ma anche la gente che li va a comprare...)
Spero che gli diano una bella bastonata !Io, invece, spero sia accertata la verità
gd350turbo
29-09-2023, 13:34
Io, invece, spero sia accertata la verità
Bè se come è scritto nel articolo, improvvisamente ha sbandato e centrato un albero, mi pare che si sappia già.
--Bè se come è scritto nel articolo, improvvisamente ha sbandato e centrato un albero, mi pare che si sappia già.
Questo é quello che sostiene l'accusa, mentre la difesa nega che fosse persino attivo, perché una manovra del genere non potrebbe farla.
Quindi, i punti sono 2:
-Accertare se l'autopilot era attivo
-Se lo era, se Tesla é da considerare responsabile dell'accaduto.
Ricordo di aver letto che tesla ha programmato l'autopilot per disattivarsi pochi secondi prima di un impatto in modo da poter dire che non era attivo nell'istante dell'incidente.
Se fosse vero mi sembra una pratica molto scorretta e spero non funzioni questa scusa in tribunale.
gd350turbo
29-09-2023, 13:50
Quindi, i punti sono 2:
-Accertare se l'autopilot era attivo
Considerando l'elettronica di cui dispone, non penso che sia cosa difficile da stabilire.
-Se lo era, se Tesla é da considerare responsabile dell'accaduto.
Appunto... adesso io non conosco miminamente il funzionamento di tale coso, ma a logica, direi che ci dovrebbe essere un log.
Bè se come è scritto nel articolo, improvvisamente ha sbandato e centrato un albero, mi pare che si sappia già.
Ormai le cause contro Tesla e Autopilot non si contano più, ma Tesla ne è sempre uscita indenne.
A mio parere Tesla rischia parecchio ogni volta, perché il nome Autopilot è ingannevole. Si lo so che non è un vero Autopilot, ma parecchi sono fessi e si fermano a leggere il nome, come quelli che si addormentano alla guida o cazzeggiano.
Queste cause basta perderne una che si creano precedenti pericolosi.
agonauta78
29-09-2023, 14:07
Hanno sbagliato tutto cominciando dal nome ,autopilot . Che poi sia scritto che è un ausilio alla guida non cambia la sostanza . Di solito queste cause sono fatte per spillare un po' di soldi o tentare di farlo . Non dimentichiamo che l'America è quel posto del mondo dove se non scrivi nelle istruzioni che non puoi mettere animali o bambini nei forni per aciugarli , la gente li mette per davvero
pachainti
29-09-2023, 14:26
"una casa automobilistica non dovrebbe mai vendere ai consumatori veicoli sperimentali".
Eh mi sembra cosa buona e giusta, (ma anche la gente che li va a comprare...)
Spero che gli diano una bella bastonata !
Speriamo, potrebbe essere un precedente contro la vendita di prodotti non finiti, software incluso.
Giulia.Favetti
29-09-2023, 14:27
Ricordo di aver letto che tesla ha programmato l'autopilot per disattivarsi pochi secondi prima di un impatto in modo da poter dire che non era attivo nell'istante dell'incidente.
Se fosse vero mi sembra una pratica molto scorretta e spero non funzioni questa scusa in tribunale.
Magari ricordi anche dove lo hai letto?
MorgaNet
29-09-2023, 14:32
Magari ricordi anche dove lo hai letto?
Si trova ovunque online, poi che sia vero o meno non saprei.
Ma ritengo che i log avrebbero già smascherato questa procedura sistematica
https://www.google.com/search?q=tesla+disable+autopilot+before+crash&rlz=1C1GCEB_enIT881IT881&oq=Tesla+disable+autopilot&aqs=chrome.1.69i57j0i19i512j0i19i22i30l8.8526j0j15&sourceid=chrome&ie=UTF-8
Speriamo, potrebbe essere un precedente contro la vendita di prodotti non finiti, software incluso.
E come lo definisci un prodotto finito? Esente da bachi? Impossibile.
gd350turbo
29-09-2023, 14:39
Speriamo, potrebbe essere un precedente contro la vendita di prodotti non finiti, software incluso.
Un gioco non finito e/o in beta, ok, ti darà dei problemi, faranno delle patch che risolveranno ma un autopilot in beta, ti può uccidere...
Poi vabbè ognuno farà le sue scelte io manco se mi pagassero lo vorrei !
allora ok autopilot non è una vera guida autonoma, ok che devi comunque sorvegliare ed essere pronto a prendere in mano le redini
ma l'autopilot è qualcosa di elettronico e quindi veloce mentre l'essere umano ha comunque tempi di reazione più lenti
se l'autopilot prende una decisione e tu ti accorgi che è sbagliata, tempo che reagisci e il danno magari è già fatto
a logica, direi che ci dovrebbe essere un log.
Ci sara' sicuramente un log.
Ma uno (disonesto) lo puo' alterare. Banalmente, scrivo nel log in maniera differita (dopo 5 minuti) e se c'e' un incidente, non salvo gli ultimi eventi
In futuro potrebbe porsi un dilemma etico, se i sistemi di guida autonoma avessero ad esempio un decimo di incidenti mortali rispetto ai guidatori umani, accuseremo di omicidio colposo le case produttrici visto che ci sarebbero comunque migliaia di morti, di fatto buttandoli fuori mercato ma accettando la decuplicazione del numero di vittime?
pachainti
29-09-2023, 18:59
Un gioco non finito e/o in beta, ok, ti darà dei problemi, faranno delle patch che risolveranno ma un autopilot in beta, ti può uccidere...
Poi vabbè ognuno farà le sue scelte io manco se mi pagassero lo vorrei !
Certo, ci sono molti software che indirettamente fanno molti danni e uccidono molte persone a causa dei bug.
pachainti
29-09-2023, 19:03
E come lo definisci un prodotto finito? Esente da bachi? Impossibile.
Zero bug è impossibile, ma scolapasta come adesso con N vulnerabilità zero day e/o con N CVE di livello alto-critico al mese, nemmeno.
Occorre che i produttori di software siano responsabili dei loro prodotti/servizi come lo sono quelli di qualunque altro settore. In questo modo invece di rilasciare software poco testati praticamente in beta e farli testare agli utenti finali, provvedono a testarli internamente.
Il CRA (https://en.wikipedia.org/wiki/Cyber_Resilience_Act) dell'UE sta andando in questa direzione, non è esente da difetti, anzi, ma si spera che vengano corretti prima della bozza finale.
Bè se come è scritto nel articolo, improvvisamente ha sbandato e centrato un albero, mi pare che si sappia già.
Giusto. Il solo fatto che vi fosse un sistema di assistenza alla guida montato sull'auto, determina automaticamente il vero colpevole della sbandata!
Infatti, una persona all'interno di quel veicolo non sarebbe mai stata in grado di provocare un incidente del genere, vero?... Quindi processo inutile, Tesla al gabbio! :rolleyes:
ramses77
01-10-2023, 08:57
Ho sempre sostenuto che il nome sia truffaldino e non capisco come possa essere permesso dalla legge, specie negli USA. Detto questo, facendo parte di diversi gruppi di Tesla, sono molto preoccupato nel constatare di quante capre ci siano in giro. Si leggono domande di tutti i colori di gente che ha appena comprato una Tesla, magari anche col pacchetto di guida autonoma al massimo potenziale comprato senza nemmeno saperlo, ma che non han mai letto il manuale e non è nemmeno consapevole di non guidare un'auto uguale alle altre, ma potenzialmente molto pericolosa. C'è chi chiede se col cruise control deve tenere il piedale dell'acceleratore schiacciato. Chi chiede cosa sia un'icona che vede a schermo (quella dell'autopilot inserito), perché l'autopilot non gli funziona in città, e così via. E tralascio quello che fa i filmati col contrappeso sul volante. Gente totalmente rincoglionita che rappresenta un grave problema per strada. Non dico che sia questo il caso, ma quando vedo un'auto contro una chiesa, questo contro una palma... penso a quelle persone prima che ad un errore software pacchiano. Poi i log diranno, ma ricordo ancora un morto due anni fa: la famiglia aveva intentato causa a Tesla e alla fine si scoprì che al momento dell'impatto in autostrada, al sedile di guida non c'era nessuno perché il tizio faceva il figo seduto dietro e aveva messo un peso sul sedile del guidatore.
Notturnia
01-10-2023, 11:06
Ho sempre sostenuto che il nome sia truffaldino e non capisco come possa essere permesso dalla legge, specie negli USA. Detto questo, facendo parte di diversi gruppi di Tesla, sono molto preoccupato nel constatare di quante capre ci siano in giro. Si leggono domande di tutti i colori di gente che ha appena comprato una Tesla, magari anche col pacchetto di guida autonoma al massimo potenziale comprato senza nemmeno saperlo, ma che non han mai letto il manuale e non è nemmeno consapevole di non guidare un'auto uguale alle altre, ma potenzialmente molto pericolosa. C'è chi chiede se col cruise control deve tenere il piedale dell'acceleratore schiacciato. Chi chiede cosa sia un'icona che vede a schermo (quella dell'autopilot inserito), perché l'autopilot non gli funziona in città, e così via. E tralascio quello che fa i filmati col contrappeso sul volante. Gente totalmente rincoglionita che rappresenta un grave problema per strada. Non dico che sia questo il caso, ma quando vedo un'auto contro una chiesa, questo contro una palma... penso a quelle persone prima che ad un errore software pacchiano. Poi i log diranno, ma ricordo ancora un morto due anni fa: la famiglia aveva intentato causa a Tesla e alla fine si scoprì che al momento dell'impatto in autostrada, al sedile di guida non c'era nessuno perché il tizio faceva il figo seduto dietro e aveva messo un peso sul sedile del guidatore.
leggendo quello che hai scritto mi domando che gente compri tesla e quanto poco la gente abbia capito della guida assistita di tesla
sembra che ci sia un livello di imbecilli non indifferente in giro per strada e che questi adorino comprare tesla perchè pensano che le AI di tesla siano migliori del loro cervello umano (e forse è vero da quello che scrivi ) ma purtroppo anche le AI di tesla non sono poi granchè confronto ad un cervello di un umano normale..
come sunto di quello che scrivi sembra che la gente non sia pronta all'attuale basso livello di automazione disponibile nelle tesla ma che, per colpa della truffa perpetrata con il nome dell'assistente alla guida, molti si facciano imbrogliare
speriamo che non restino coinvolti innocenti in questo processo truffaldino unito a persone sub-dotate... pessimo binomio venditore truffatore + cliente imbecille
Zero bug è impossibile, ma scolapasta come adesso con N vulnerabilità zero day e/o con N CVE di livello alto-critico al mese, nemmeno.
Occorre che i produttori di software siano responsabili dei loro prodotti/servizi come lo sono quelli di qualunque altro settore. In questo modo invece di rilasciare software poco testati praticamente in beta e farli testare agli utenti finali, provvedono a testarli internamente.
Il CRA (https://en.wikipedia.org/wiki/Cyber_Resilience_Act) dell'UE sta andando in questa direzione, non è esente da difetti, anzi, ma si spera che vengano corretti prima della bozza finale.
Questa è semplicemente fantascienza. Ormai i software sono talmente complessi che se anche ogni software house avesse la forza di tutta microsoft (per dire un colosso) comunque sarebbe letteramente impossibile dare quello che chiedi.
La riprova è che anche nel campo dei DRM dove si investono miliardi, dove si sono inventati Denuvo e simili alla fine vengono sempre violati.
Senza contare che il mercato oggi vuole che un software venga aggiornato continuamente. Se perdi tempo a testare troppo un software qualcun altro pubblica e perdi mercato.
Quindi chiedi una cosa non solo poco fattibile tecnicamente ma anche fuori mercato commercialmente.
-----------
Quanto all'autopilot mi piace poco esprimermi sul sentito dire. Se ci sarà un processo vedremo quello che esce certo è che attivare o meno l'autopilot sapendo tutti i rischi connessi è una scelta che ognuno fa singolarmente quindi personalmente ritengo che ne sia consapevole.
Sarebbe come se uno facesse causa a Ferrari perché qualcuno è morto a 300Km/h sostenendo che è colpa dell'auto che è arrivata a quella velocità e non del fatto che chi c'era sopra ha tenuto il pedale a fondo.
Zero bug è impossibile, ma scolapasta come adesso con N vulnerabilità zero day e/o con N CVE di livello alto-critico al mese, nemmeno.
Occorre che i produttori di software siano responsabili dei loro prodotti/servizi come lo sono quelli di qualunque altro settore. In questo modo invece di rilasciare software poco testati praticamente in beta e farli testare agli utenti finali, provvedono a testarli internamente.
Il CRA (https://en.wikipedia.org/wiki/Cyber_Resilience_Act) dell'UE sta andando in questa direzione, non è esente da difetti, anzi, ma si spera che vengano corretti prima della bozza finale.
E' così da sempre se vuoi sfornare un modello nuovo ogni due anni. Tutti i software sono pieni zeppi di bachi, che via via sistemano con le patch ai tagliandi. Solo che nel caso dell'Autopilot chiaramente un bug è più pericoloso. E ricordo che ancora non è stato accertato che sia stato un bug la causa dell'incidente.
TorettoMilano
02-10-2023, 08:31
finchè il sistema impone di avere le mani sul volante tutte le riflessioni stanno a zero. ad ogni modo mi fa sorridere come per i soliti noti sia a priori colpa di tesla, ma ormai in italia si è colpevoli fino a prova contraria e poi se l'accusato è qualcuno che si odia questa regola vale doppio :asd:
gd350turbo
02-10-2023, 08:56
Giusto. Il solo fatto che vi fosse un sistema di assistenza alla guida montato sull'auto, determina automaticamente il vero colpevole della sbandata!
Infatti, una persona all'interno di quel veicolo non sarebbe mai stata in grado di provocare un incidente del genere, vero?... Quindi processo inutile, Tesla al gabbio! :rolleyes:
Mettere in commercio un sistema di guida autonoma in stato sperimentale e/o beta secondo il mio punto di vista, è già sufficente per mettere al gabbio chi lo produce e questo indipendentemente dalla ditta, potrebbe essere fiat, vw,bmw, ecc.. ecc che il mio giudizio in merito sarebbe lo stesso.
gd350turbo
02-10-2023, 09:02
lsembra che ci sia un livello di imbecilli non indifferente in giro per strada e che questi adorino comprare tesla perchè pensano che le AI di tesla siano migliori del loro cervello umano (e forse è vero da quello che scrivi ) ma purtroppo anche le AI di tesla non sono poi granchè confronto ad un cervello di un umano normale..
Assolutamente d'accordo.
ma stamparsi perchè sei un pirla alla guida, è una cosa, stamparsi per via di un bug software è un altra.
Mettere in commercio un sistema di guida autonoma in stato sperimentale e/o beta secondo il mio punto di vista, è già sufficente per mettere al gabbio chi lo produce e questo indipendentemente dalla ditta, potrebbe essere fiat, vw,bmw, ecc.. ecc che il mio giudizio in merito sarebbe lo stesso.
Se è per questo allora dovresti mettere al gabbio mezza Italia se consideri che la stragrande maggioranza dei comuni ha segnaletica stradale errata... ad esempio da me hanno fatto la genialata di invertire 2 cartelli di precedenza e quindi non sai mai se seguire i cartelli palesemente sbagliati o seguire il codice della strada che vorrebbe il contrario.
Per non parlare di tutti quei casi in cui segnaletica orizzontale e verticale è mancante, coperta, sbagliata, contraddittoria...
Per quanto mi piaccia Tesla sia chiaro io, penso di poter dire come te, non userei mai l'autopilot però ribadisco che Tesla non ti obbliga ad attivarlo ed è altrettanto vero che l'autopilot non è mai dominante rispetto a chi è nell'abitacolo quindi se stai attento e con le mani sul volante il rischio è veramente nullo o quasi.
gd350turbo
02-10-2023, 10:03
Se è per questo allora dovresti mettere al gabbio mezza Italia se consideri che la stragrande maggioranza dei comuni ha segnaletica stradale errata... ad esempio da me hanno fatto la genialata di invertire 2 cartelli di precedenza e quindi non sai mai se seguire i cartelli palesemente sbagliati o seguire il codice della strada che vorrebbe il contrario.
Appunto per questo, anzi, penso che questo sia un punto importante per il buon funzionamento di una guida autonoma, tutta italia e non solo è piena di cartelli con indicazioni mancanti/inesatte/duplicate/contrastanti, io non ne conosco le logiche di funzionamento, ma presumo che tale situazione possa metterla in crisi.
Per quanto mi piaccia Tesla sia chiaro io, penso di poter dire come te, non userei mai l'autopilot però ribadisco che Tesla non ti obbliga ad attivarlo ed è altrettanto vero che l'autopilot non è mai dominante rispetto a chi è nell'abitacolo quindi se stai attento e con le mani sul volante il rischio è veramente nullo o quasi.
Che sia di tesla o di chiunque altro, non ha importanza...
Se una cosa viene resa disponibile al pubblico, deve essere in qualche modo certificata.
Fino a che non ci saranno importanti evoluzioni nel medesimo, vade retro, poi magari tra qualche decina di anni quando non sarò più in grado di guidare autonomamente con una certa sicurezza, allora probabilmente una guida autonoma mi sarà d'aiuto.
TorettoMilano
02-10-2023, 10:06
Che sia di tesla o di chiunque altro, non ha importanza...
Se una cosa viene resa disponibile al pubblico, deve essere in qualche modo certificata.
Fino a che non ci saranno importanti evoluzioni nel medesimo, vade retro, poi magari tra qualche decina di anni quando non sarò più in grado di guidare autonomamente con una certa sicurezza, allora probabilmente una guida autonoma mi sarà d'aiuto.
è certificato come livello due, copio incollo quanto riportato dal sito della concorrenza
anche con i sistemi di assistenza di livello 2 il conducente mantiene sempre la responsabilità
https://www.volkswagen.it/it/auto-elettriche-e-ibride/scopri-la-mobilita-elettrica/id-magazine/tecnologia/cinque-livelli-verso-la-guida-autonoma.html
gd350turbo
02-10-2023, 10:09
Livello due se non sbaglio è disponibile anche in altre vetture.
TorettoMilano
02-10-2023, 10:12
Livello due se non sbaglio è disponibile anche in altre vetture.
mi pare mercedes, e di recente pure bmw, abbiano addirittura livello 3
gd350turbo
02-10-2023, 10:22
mi pare bmw, e di recente pure mercedes, abbiano addirittura livello 3
Se continuano così, probabilmente quando sarò vecchio arriviamo al livello 5 e mi sarà molto utile.
Fino e che ci riesco continuo con la guida manuale
Livello due se non sbaglio è disponibile anche in altre vetture.
livello 2 è anche la mia civic del 19
il livello 2 è presente in praticamente su tutte le auto moderne. Anche lì il software e hardware non è esente da bug e/o malfunzionamenti.
mi pare che solo Mercedes abbia il livello 3 (traffic jammer: Mantiene la corsia e distanza con un limite mi pare di 60km/h e solo in alcune autostrade mappate).
"L'autopilot" in questione è di livello 2 quindi richiede che il guidatore sia sempre vigile e pronto a prendere in mano la situazione. Significa anche (tranne per alcune situazioni troppo veloci) che questo sistema non è più pericoloso del singolo umano. Mi pare anche che i dati relativi agli incidenti con sistemi di ausilio alla guida tesla lo abbiano già dimostrato.
Faccio notare che di "bug" a componenti critici negli aerei (mezzo di trasporto più sicuro!) che hanno portato al disastro ce ne sono stati e continueranno a verificarsi.
esempio di cose non prive di "bug" che sono in mercato: Medicinali
anche i dispositivi di sicurezza nei macchinari a lavoro si basano sulla probabilità e non sulla certezza.
gd350turbo
02-10-2023, 10:49
livello 2 è anche la mia civic del 19
e mi pareva...
la mia invece è a livello zero, e mi sta bene così.
Mettere in commercio un sistema di guida autonoma in stato sperimentale e/o beta secondo il mio punto di vista, è già sufficente per mettere al gabbio chi lo produce e questo indipendentemente dalla ditta, potrebbe essere fiat, vw,bmw, ecc.. ecc che il mio giudizio in merito sarebbe lo stesso.
Bè se come è scritto nel articolo, improvvisamente ha sbandato e centrato un albero, mi pare che si sappia già.
Ok, quindi mi confermi che, secondo la tua attenta perizia tecnica su questo specifico incidente, la sbandata è stata sicuramente causata per colpa dell'autopilot, giusto?
Sarebbe ottimo poter presentare la tesi di gdturbo durante il processo per aggiungere un tassello decisivo ed accertare finalmente la verità :asd:
pachainti
03-10-2023, 06:17
Questa è semplicemente fantascienza. Ormai i software sono talmente complessi che se anche ogni software house avesse la forza di tutta microsoft (per dire un colosso) comunque sarebbe letteramente impossibile dare quello che chiedi.
La riprova è che anche nel campo dei DRM dove si investono miliardi, dove si sono inventati Denuvo e simili alla fine vengono sempre violati.
Senza contare che il mercato oggi vuole che un software venga aggiornato continuamente. Se perdi tempo a testare troppo un software qualcun altro pubblica e perdi mercato.
Quindi chiedi una cosa non solo poco fattibile tecnicamente ma anche fuori mercato commercialmente.
Non è come dici e la riprova del DRM non ha molto senso in quanto non riguarda alcun bug e responsabilità. Purtroppo da sempre i software hanno delle licenze che escludono qualunque responsabilità del produttore, è sufficiente che invece i produttori siano responsabili dei danni provocati come in tutti gli altri settori.
Dopo i bug non saranno assenti, ma sicuramente saranno minimizzati, specialmente le vulnerabilità zero day e quelle con CVE critico-alto.
In tutti i settori se non rispetti le norme minime sulla sicurezza, non puoi vendere il prodotto, come è giusto che sia. La stessa cosa può e deve essere replicata anche nel software, avremo meno versioni mensili-annuali, se faranno veramente beta testing.
E' così da sempre se vuoi sfornare un modello nuovo ogni due anni. Tutti i software sono pieni zeppi di bachi, che via via sistemano con le patch ai tagliandi. Solo che nel caso dell'Autopilot chiaramente un bug è più pericoloso. E ricordo che ancora non è stato accertato che sia stato un bug la causa dell'incidente.
Non è normale e nemmeno giusto. Ci hanno abituato cosi, ma le cose possono e devono cambiare. I produttori di software devono essere responsabili del funzionamento del loro prodotto/servizio come tutti gli altri.
Autopilot di Tesla si disattiva qualche secondo prima dell'incidente, link (https://www.motortrend.com/news/nhtsa-tesla-autopilot-investigation-shutoff-crash/).
Non è come dici e la riprova del DRM non ha molto senso in quanto non riguarda alcun bug e responsabilità.
Ma come no... Io produttore mi rivolto a te che fai DRM per proteggere il mio software e te che dovresti proteggerlo invece fai un software che viene violato e permette l'accesso al mio software. Per me è un esempio molto più lampante di un accidentale bug che magari era difficilissimo anche solo da individuare.
Purtroppo da sempre i software hanno delle licenze che escludono qualunque responsabilità del produttore, è sufficiente che invece i produttori siano responsabili dei danni provocati come in tutti gli altri settori.
E in pratica azzereresti completamente la produzione di software perché ribadisco ti puoi illudere di aver creato un software privo di bug ma nessuno e ripeto NESSUNO ci può riuscire. Per quanto un software venga testato, sperimentato, debuggato avrà SEMPRE e ribadisco SEMPRE delle casistiche impreviste anche perché c'è un'infinita combinazione di possibili hardware e software terzi che potrebbero interferire a decine e decine di livelli diversi per cui per quanto tu possa testare sarà impossibile e intendo letteralmente testare tutte le possibili varianti che potresti incontrare nel mondo reale.
Dopo i bug non saranno assenti, ma sicuramente saranno minimizzati, specialmente le vulnerabilità zero day e quelle con CVE critico-alto.
Non è detto... a volte sono proprio le patch dell'ultimo minuto a introdurre altre vulnerabilità.
In tutti i settori se non rispetti le norme minime sulla sicurezza, non puoi vendere il prodotto, come è giusto che sia.
Guarda che attualmente il software rispetta le norme minime di sicurezza anzi oserei dire che i software sono fra le cose più sicure in assoluto. Ad oggi la stragrande maggioranza degli attacchi che fanno danni rilevanti alle aziende avvengono per social engineering e solo una piccolissima parte sfruttando le vulnerabilità o i bug software.
Sfruttare un bug oggi richiede competenze elevate, tempo e risorse che ormai non valgono nemmeno la pena salvo essere degli obiettivi sensibili e in quei casi si attuano politiche di sicurezza particolari.
Banalmente anche nei privati ormai passa tutto per un errore dell'utente e gli attacchi diretti non voglio dire che sono diventati una rarità ma quasi.
La stessa cosa può e deve essere replicata anche nel software, avremo meno versioni mensili-annuali, se faranno veramente beta testing.
Che non porterebbe assolutamente a niente perché tanto puoi beta testare quanto vuoi ma certi problemi rimarrebbero tali e quasi.
Autopilot di Tesla si disattiva qualche secondo prima dell'incidente, link (https://www.motortrend.com/news/nhtsa-tesla-autopilot-investigation-shutoff-crash/).
Ma ti rendi conto che stai citando come fonte attendibile motortrend.com !?!
Mi fai un pippone sul fatto che tutti dovremmo essere responsabili, una menata infinita dopodiché per sostenere la tua tesi non trovi di meglio che un sito che ha una credibilità sotto zero?!
Ora io non so se sia vera o no la notizia e ci sta che sia anche vera ma senza una fonte credibile permettimi di avere dei dubbi.
gd350turbo
03-10-2023, 07:26
Ok, quindi mi confermi che, secondo la tua attenta perizia tecnica su questo specifico incidente, la sbandata è stata sicuramente causata per colpa dell'autopilot, giusto?
di sicuro c'è solo la morte e lo conferma il tizio che ci ha lasciato le penne...
poi se stesse facendo un video da postare sui social per far vedere quanto è figa la sua macchina che guida da sola, questo non posso saperlo !
Sarebbe ottimo poter presentare la tesi di gdturbo durante il processo per aggiungere un tassello decisivo ed accertare finalmente la verità :asd:
Peccato che il mio parere conti quanto una goccia nel oceano...
TorettoMilano
03-10-2023, 08:03
e si riportano articoli con titoli clickbait e poi manco si legge l'articolo :asd:
si parla di mezzo secondo prima dell'impatto (non di secondi) per la disattivazione dell'autopilot e l'articolo stesso riporta
So, where does that leave the mysterious half-second-or-so Autopilot shutoff just before these crashes? In all likelihood, it's probably a simple protocol to shut off the system because a crash is about to occur. Plenty of new cars feature last-ditch shutoffs and other preemptive actions that occur just before or during impact; think about seatbelts that cinch up so occupants are seated more safely, or fuel-line disconnects, or some of the fancy new suspension actions Audi's A8 is capable of such as lifting one side of the car just before it's T-boned to place more of the crash structure in the path of the impact.
evitiamo di fare figure barbine, lo dico per voi eh
e si riportano articoli con titoli clickbait e poi manco si legge l'articolo :asd:
si parla di mezzo secondo prima dell'impatto (non di secondi) per la disattivazione dell'autopilot e l'articolo stesso riporta
evitiamo di fare figure barbine, lo dico per voi eh
Ma anche se fosse, dovrebbe anche cancellare tutti i log, cosa che non credo proprio faccia. Cosa cambia se mezzo secondo prima è disattivato? In questi casi viene analizzata l'intera dinamica dell'incidente, mica solo l'istante dell'impatto.
TorettoMilano
03-10-2023, 08:16
Ma anche se fosse, dovrebbe anche cancellare tutti i log, cosa che non credo proprio faccia. Cosa cambia se mezzo secondo prima è disattivato? In questi casi viene analizzata l'intera dinamica dell'incidente, mica solo l'istante dell'impatto.
non c'è molto da discutere in merito, e stranamente nel 99,9% dei casi chi posta queste cose odia muschio e/o tesla e/o elettrico in generale (anche se la guida autonoma non è prerogativa dell'auto elettrica)
pachainti
03-10-2023, 15:34
Ma come no... Io produttore mi rivolto a te che fai DRM per proteggere il mio software e te che dovresti proteggerlo invece fai un software che viene violato e permette l'accesso al mio software. Per me è un esempio molto più lampante di un accidentale bug che magari era difficilissimo anche solo da individuare.
Se la violazione dipende da un difetto di progettazione o da un bug, vulnerabilità, è giusto che la responsabilità sia del produttore di tale software. Se invece la violazione dipende da un hack, no.
E in pratica azzereresti completamente la produzione di software perché ribadisco ti puoi illudere di aver creato un software privo di bug ma nessuno e ripeto NESSUNO ci può riuscire. Per quanto un software venga testato, sperimentato, debuggato avrà SEMPRE e ribadisco SEMPRE delle casistiche impreviste anche perché c'è un'infinita combinazione di possibili hardware e software terzi che potrebbero interferire a decine e decine di livelli diversi per cui per quanto tu possa testare sarà impossibile e intendo letteralmente testare tutte le possibili varianti che potresti incontrare nel mondo reale.
Evidentemente non leggi attentamente ciò che ho scritto, varie volte per esempio qui (https://www.hwupgrade.it/forum/showpost.php?p=48313343&postcount=19).
Comunque non ti preoccupare, per fortuna stiamo andando in questa direzione, speriamo che sistemino i problemi emersi nel CRA.
Non è detto... a volte sono proprio le patch dell'ultimo minuto a introdurre altre vulnerabilità.
Non hai la certezza (il 100% non esiste in niente), ma la probabilità di avere bug e vulnerabilità critiche diminuirà drasticamente se i produttori di software diventeranno responsabili dei danni provocati.
Guarda che attualmente il software rispetta le norme minime di sicurezza anzi oserei dire che i software sono fra le cose più sicure in assoluto. Ad oggi la stragrande maggioranza degli attacchi che fanno danni rilevanti alle aziende avvengono per social engineering e solo una piccolissima parte sfruttando le vulnerabilità o i bug software.
Sfruttare un bug oggi richiede competenze elevate, tempo e risorse che ormai non valgono nemmeno la pena salvo essere degli obiettivi sensibili e in quei casi si attuano politiche di sicurezza particolari.
Banalmente anche nei privati ormai passa tutto per un errore dell'utente e gli attacchi diretti non voglio dire che sono diventati una rarità ma quasi.
A me e non solo risulta il contrario. La quantità di problemi nel software è superiore a ogni altro settore.
Zero Tolerance: More Zero-Days Exploited in 2021 Than Ever Before (https://www.mandiant.com/resources/blog/zero-days-exploited-2021)
40% of zero day exploits from the last decade happened in 2021 (https://securityintelligence.com/news/40-percent-zero-day-exploits-decade-2021/)
Che non porterebbe assolutamente a niente perché tanto puoi beta testare quanto vuoi ma certi problemi rimarrebbero tali e quasi.
Se il beta testing lo fai interno invece che esterno attraverso gli utenti finali, molti bug e vulnerabilità vengono scoperte prima e non come zero day.
Ma ti rendi conto che stai citando come fonte attendibile motortrend.com !?!
Mi fai un pippone sul fatto che tutti dovremmo essere responsabili, una menata infinita dopodiché per sostenere la tua tesi non trovi di meglio che un sito che ha una credibilità sotto zero?!
Ora io non so se sia vera o no la notizia e ci sta che sia anche vera ma senza una fonte credibile permettimi di avere dei dubbi.
Ti vanno bene questi?
Teslas running Autopilot involved in 273 crashes reported since last year (https://www.washingtonpost.com/technology/2022/06/15/tesla-autopilot-crashes/)
The new data set stems from a federal order last summer requiring automakers to report crashes involving driver assistance to assess whether the technology presented safety risks. Tesla‘s vehicles have been found to shut off the advanced driver-assistance system, Autopilot, around one second before impact, according to the regulators.
An investigation into 16 Tesla ‘Autopilot’ car crashes just got more serious (https://fortune.com/2022/06/09/investigation-tesla-crashes-elevated-national-highway-traffic-safety-administration/)
In the majority of the 16 crashes, the Teslas issued forward collision alerts to the drivers just before impact. Automatic emergency braking intervened to at least slow the cars in about half the cases. On average, Autopilot gave up control of the Teslas less than a second before the crash, NHTSA said in documents detailing the probe.
Se un fatto è noto, cambiare la fonte della notizia, non cambia lo stesso.
pachainti
03-10-2023, 15:39
e si riportano articoli con titoli clickbait e poi manco si legge l'articolo :asd:
si parla di mezzo secondo prima dell'impatto (non di secondi) per la disattivazione dell'autopilot e l'articolo stesso riporta
evitiamo di fare figure barbine, lo dico per voi eh
Nessun articolo acchiappa fessi, leggi bene sopra prima di parlare a caso.
mrk-cj94
02-11-2023, 22:22
Bè se come è scritto nel articolo, improvvisamente ha sbandato e centrato un albero, mi pare che si sappia già.
ma l'hai letto o ti sei fermato a quelle 2 righe? perchè il contenuto dell'articolo parla di ben altro
mrk-cj94
02-11-2023, 22:24
Giusto. Il solo fatto che vi fosse un sistema di assistenza alla guida montato sull'auto, determina automaticamente il vero colpevole della sbandata!
Infatti, una persona all'interno di quel veicolo non sarebbe mai stata in grado di provocare un incidente del genere, vero?... Quindi processo inutile, Tesla al gabbio! :rolleyes:
:D
mrk-cj94
02-11-2023, 22:27
Questa è semplicemente fantascienza. Ormai i software sono talmente complessi che se anche ogni software house avesse la forza di tutta microsoft (per dire un colosso) comunque sarebbe letteramente impossibile dare quello che chiedi.
La riprova è che anche nel campo dei DRM dove si investono miliardi, dove si sono inventati Denuvo e simili alla fine vengono sempre violati.
Senza contare che il mercato oggi vuole che un software venga aggiornato continuamente. Se perdi tempo a testare troppo un software qualcun altro pubblica e perdi mercato.
Quindi chiedi una cosa non solo poco fattibile tecnicamente ma anche fuori mercato commercialmente.
-----------
Quanto all'autopilot mi piace poco esprimermi sul sentito dire. Se ci sarà un processo vedremo quello che esce certo è che attivare o meno l'autopilot sapendo tutti i rischi connessi è una scelta che ognuno fa singolarmente quindi personalmente ritengo che ne sia consapevole.
Sarebbe come se uno facesse causa a Ferrari perché qualcuno è morto a 300Km/h sostenendo che è colpa dell'auto che è arrivata a quella velocità e non del fatto che chi c'era sopra ha tenuto il pedale a fondo.
dai processi spesso escono barzellette, purtroppo
mrk-cj94
03-11-2023, 02:09
Appunto per questo, anzi, penso che questo sia un punto importante per il buon funzionamento di una guida autonoma, tutta italia e non solo è piena di cartelli con indicazioni mancanti/inesatte/duplicate/contrastanti, io non ne conosco le logiche di funzionamento, ma presumo che tale situazione possa metterla in crisi.
Che sia di tesla o di chiunque altro, non ha importanza...
Se una cosa viene resa disponibile al pubblico, deve essere in qualche modo certificata.
Fino a che non ci saranno importanti evoluzioni nel medesimo, vade retro, poi magari tra qualche decina di anni quando non sarò più in grado di guidare autonomamente con una certa sicurezza, allora probabilmente una guida autonoma mi sarà d'aiuto.
quindi meglio non parlare direttamente :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.