PDA

View Full Version : Tesla, guida autonoma Beta v10: non è "sbalorditiva" se cerca di schiantarsi contro una colonna


Redazione di Hardware Upg
14-09-2021, 17:17
Link alla notizia: https://auto.hwupgrade.it/news/tecnologia/tesla-guida-autonoma-beta-v10-non-e-sbalorditiva-se-cerca-di-schiantarsi-contro-una-colonna_100670.html

Molti beta tester Tesla americani hanno ricevuto l'aggiornamento alla guida completamente autonoma v10, ma le premesse di Elon Musk non sembrano rispettate. Ci sono ampi progressi, ma lontani dall'essere "sbalorditivi"

Click sul link per visualizzare la notizia.

davidemo89
14-09-2021, 17:29
ok che è un'azione che non potrebbe fare (molto probabilmente è un problema di mapping) ma la colonna l'ha vista ed evitata...
Perchè scrivete "senza rilevare la presenza delle colonne"? La colonna l'ha vista ed evitata, non ci è andata contro. La V9 invece voleva andarci addosso haha

Lui non ha mai preso il commando con la V10. Solo con la V9 ha preso il commando per evitare le colonne

enonno
14-09-2021, 17:33
non poteva attraversare in mezzo alle colonne ovviamente...ci mancherebbe che ci vada a sbattere....

berson
14-09-2021, 18:00
Senza sistemi attivi per il rilevamento di ostacoli come radar, lidar o sonar difficilmente ci potrà essere sicurezza nella guida autonoma. Tra l'altro le prestazioni di queste tecnologie migliorano e i prezzi scendono costantemente, la scelta di Tesla di rinunciarvi è incomprensibile.

Alfhw
14-09-2021, 18:11
ok che è un'azione che non potrebbe fare (molto probabilmente è un problema di mapping) ma la colonna l'ha vista ed evitata...
Perchè scrivete "senza rilevare la presenza delle colonne"? La colonna l'ha vista ed evitata, non ci è andata contro. La V9 invece voleva andarci addosso haha
Osservando il monitor della Model 3 sembra che l'auto veda la colonna solo a intermittenza, 1 secondo sì e 3 no. Si nota anche il tentennamento e l'indecisione dell'auto su dove andare. Forse il colore grigio della colonna è troppo simile a quello dell'asfalto?


Lui non ha mai preso il commando con la V10. Solo con la V9 ha preso il commando per evitare le colonne
Per le colonne no ma al minuto 3.13 deve prendere il volante quando l'auto va contromano.

Comunque a parte questi errori (del resto è una beta) il livello raggiunto dalla guida autonoma di Tesla è notevole.

Alfhw
14-09-2021, 18:14
Senza sistemi attivi per il rilevamento di ostacoli come radar, lidar o sonar difficilmente ci potrà essere sicurezza nella guida autonoma. Tra l'altro le prestazioni di queste tecnologie migliorano e i prezzi scendono costantemente, la scelta di Tesla di rinunciarvi è incomprensibile.
Infatti mi chiedo: gli altri costruttori usano radar o lidar? E quanto costa aggiungere queste tecnologie? Con un radar o lidar, l'auto vedrebbe persino meglio di un occhio umano in situazioni di luce strana (es. controluce, sbalzi di luminosità...) o luce assente.

sbaffo
14-09-2021, 18:18
mind blowing nel senso che quando ti schianti contro una colonna il cervello esplode sul cruscotto. :D

Comunque deve smetterla di usare nomi ingannevoli: FULL self drivng non lo è manco per il c@zzo, già self drivng è ingannevole.
A quando uina bella multa a 7 zeri per far tornare nei ranghi questo buffone?
Già la SEC lo ha bastonato, ora ce ne vuole un'altra.

robweb2
14-09-2021, 19:27
La cosa che più mi ha colpito del filmato è l'idiozia di una strada con una serie di enormi colonne nel centro della carreggiata e senza nessun guard Rail o altro tipo di protezione, mai visto una roba più stupida di quella.
Comunque la Tesla, pur con qualche dubbio, le ha evitate, evidentemente anche la A.I. era perplessa dall'idiozia della strada.

barzokk
14-09-2021, 21:14
La cosa che più mi ha colpito del filmato è l'idiozia di una strada con una serie di enormi colonne nel centro della carreggiata e senza nessun guard Rail o altro tipo di protezione, mai visto una roba più stupida di quella.
Comunque la Tesla, pur con qualche dubbio, le ha evitate, evidentemente anche la A.I. era perplessa dall'idiozia della strada.
Siete meravigliosi :D
Non è la Tesla che sbaglia, è la strada è fatta male. !!!11!!!111
Praticamente come l'iphone che lo impugnate male.
Vi amo. :smack:


Genova, pilastri della sopraelevata
https://www.google.com/maps/@44.4060677,8.9275234,3a,75y,179.19h,89.66t/data=!3m6!1e1!3m4!1sauhg7Wnl3n5gyILAk0N1Xg!2e0!7i13312!8i6656

Albi80
14-09-2021, 22:48
Ma perché un titolo dell'articolo così di m.rda se il V10 ha evitato in entrambi i casi le colonne ?

pin-head
14-09-2021, 23:48
Senza sistemi attivi per il rilevamento di ostacoli come radar, lidar o sonar difficilmente ci potrà essere sicurezza nella guida autonoma. Tra l'altro le prestazioni di queste tecnologie migliorano e i prezzi scendono costantemente, la scelta di Tesla di rinunciarvi è incomprensibile.

È incomprensibile per chi non si documenta.
Per chi invece prova ad approfondire, appare chiaro il motivo per cui si basano sulla sola visione.
Come appare chiaro che tutti gli altri sono così indietro che hanno bisogno di una stampella (il lidar) per riuscire a fare cose che tesla fa otticamente.

Con la differenza che l’IA di Tesla sta migliorando in modo esponenziale, gli altri invece sono (e saranno) limitati dalla suddetta stampella. E non andranno da nessuna parte.

xarz3
15-09-2021, 00:11
È incomprensibile per chi non si documenta.
Per chi invece prova ad approfondire, appare chiaro il motivo per cui si basano sulla sola visione.
Come appare chiaro che tutti gli altri sono così indietro che hanno bisogno di una stampella (il lidar) per riuscire a fare cose che tesla fa otticamente.

Con la differenza che l’IA di Tesla sta migliorando in modo esponenziale, gli altri invece sono (e saranno) limitati dalla suddetta stampella. E non andranno da nessuna parte.

forse, ma ci sono scenari in cui con le telecamere non vai probabilmente da nessuna parte, ad esempio nebbia fitta o pioggia molto forte, semplicemente perche le telecamere non vedono nulla.

In ogni caso quello che qui sfugge e' che il machine learning segue tendenzialmente la legge dei diminishing returns, e' spesso relativamente facile ottenere risultati decenti ma la quasi perfezione e' incredibilmente difficile da raggiungere, e se vuoi la guida autonoma a quella devi arrivare.

xarz3
15-09-2021, 00:16
Siete meravigliosi :D
Non è la Tesla che sbaglia, è la strada è fatta male. !!!11!!!111
Praticamente come l'iphone che lo impugnate male.
Vi amo. :smack:


Genova, pilastri della sopraelevata
https://www.google.com/maps/@44.4060677,8.9275234,3a,75y,179.19h,89.66t/data=!3m6!1e1!3m4!1sauhg7Wnl3n5gyILAk0N1Xg!2e0!7i13312!8i6656

gia... tra l altro casi come quelli del video sono diffusissimi, non solo a genova ma pure a roma e in chissa quante altre citta. la tesla forse non sara andata a sbattere ma di certo se fosse stata una persona a guidare mi chiederei chi gli ha dato la patente

Hiei3600
15-09-2021, 01:19
È incomprensibile per chi non si documenta.
Per chi invece prova ad approfondire, appare chiaro il motivo per cui si basano sulla sola visione.
Come appare chiaro che tutti gli altri sono così indietro che hanno bisogno di una stampella (il lidar) per riuscire a fare cose che tesla fa otticamente.

Con la differenza che l’IA di Tesla sta migliorando in modo esponenziale, gli altri invece sono (e saranno) limitati dalla suddetta stampella. E non andranno da nessuna parte.

Il discorso non regge, un radar può vedere cose un sensore ottico non può (come detto da altri vedi nebbia fitta o altre condizioni simili), sarebbe come dire che 3 orecchie sono meglio di 4 perché tanto con 3 ci si può comunque arrangiare...

io78bis
15-09-2021, 06:40
Siete meravigliosi :D
Non è la Tesla che sbaglia, è la strada è fatta male. !!!11!!!111
Praticamente come l'iphone che lo impugnate male.
Vi amo. :smack:


Genova, pilastri della sopraelevata
https://www.google.com/maps/@44.4060677,8.9275234,3a,75y,179.19h,89.66t/data=!3m6!1e1!3m4!1sauhg7Wnl3n5gyILAk0N1Xg!2e0!7i13312!8i6656

Nel caso di Genova i piloni si posano su un marciapiede, impedendo una manovra stupida come il cambio corsia. Non credo in Italia ci siano colonne di cemento in mezzo alle carreggiata senza cartelli o segnaletica

TorettoMilano
15-09-2021, 07:39
che livello incredibile ha raggiunto l'autopilot. chissà quante gente si fa la penichella nella tratta lavoro-casa (illegalmente)

filippo1980
15-09-2021, 08:53
Quoto chi si lamenta del titolo, nell'articolo c'è scritto chiaramente che la macchina NON va a sbattere! Ok, ha dei dubbi ma è una versione beta di un software ancora giovane quindi ci sta, così come ci sono le mille indecisioni che le varie tecnologie di assistenza alla guida hanno ancora!
Mi rendo conto che per una persona che guida perfettamente e senza fare errori sembri assurdo che un computer abbia indecisioni, ma parliamoci chiaro, preferireste una IA che (inizia l'esagerazione) per parcheggiare ci metta 5 minuti senza sfiorare nulla o una IA che parcheggi in 20 secondi dando una botta davanti ed una dietro come fanno alcune persone?
Sinceramente io preferirei la prima sapendo, però, che con il tempo il machine learning le permetterà di fare sempre meglio e sempre più velocemente!

Aggiungo solo una cosa, la domanda vera, per me, non è perché Tesla abbia preferito quel sistema a quello dei radar ma, piuttosto, perché non li abbia affiancati almeno per questo primo periodo in cui, anche se facessero la stessa identica cosa, due sensori sarebbero meglio di uno!

Forse, e sottolineo FORSE, perché si sono resi conto che nel momento in cui la telecamera avesse risposto "strada libera" mentre il radar "strada bloccata" sarebbe stato complicato capire quale segnale seguire?
Da programmatore avrei gli incubi a dover selezionare i parametri per prediligere una risposta piuttosto che l'altra in base a fattori esterni!

Mon3
15-09-2021, 09:25
forse, ma ci sono scenari in cui con le telecamere non vai probabilmente da nessuna parte, ad esempio nebbia fitta o pioggia molto forte, semplicemente perche le telecamere non vedono nulla.

In ogni caso quello che qui sfugge e' che il machine learning segue tendenzialmente la legge dei diminishing returns, e' spesso relativamente facile ottenere risultati decenti ma la quasi perfezione e' incredibilmente difficile da raggiungere, e se vuoi la guida autonoma a quella devi arrivare.

Ah si e questo l'hai deciso tu che bisogna avere la quasi perfezione? (che poi che vuol dire?). ovviamente i guidatori umani sono la quasi perfezione giusto? :doh:
Basta solamente che la guida autonoma faccia un numero di incidenti/vittime pari o minore dei guidatori normali e ha già vinto. E credo che se mettessimo tutte auto a guida autonoma già adesso questo risultato sarebbe raggiunto.

!fazz
15-09-2021, 09:27
È incomprensibile per chi non si documenta.
Per chi invece prova ad approfondire, appare chiaro il motivo per cui si basano sulla sola visione.
Come appare chiaro che tutti gli altri sono così indietro che hanno bisogno di una stampella (il lidar) per riuscire a fare cose che tesla fa otticamente.

Con la differenza che l’IA di Tesla sta migliorando in modo esponenziale, gli altri invece sono (e saranno) limitati dalla suddetta stampella. E non andranno da nessuna parte.

il mero guadagno di risparmiare circa 300$ di componentistica (a stare larghi)per ogni auto prodotta? perchè fidati non c'è nessun motivo per avere tolto il radar che ormai viene montato anche su un auto da 10.000€ delegando tutto ad una stupida rete neurale

riguardo al lidar
se ditte del calibro di Intel, Qualcoom e Google investono su veicoli dotati di sensor fusion per la guida autonoma in strada mentre nel 100% dei casi di guida autonoma industriale (che è attualmente l'unico utilizzo reale di guida autonoma) si utilizzano lidar (come adesso si usa chiamare il laserscan) tecnologia che esiste e viene utilizza da oltre 30 anni, facendo la fortuna di marchi come sick un motivo c'è

e mi fa ridere che una persona come te, che ha dimostrato molte volte il fatto di non avere nessuna competenza tecnica in merito ma solo un ceco fanatismo nell'auto dei tuoi sogni cominci a parlare di stampella parlando di un sensore affidabile sicuro ed affidabile dimenticanco la regola fondamentale di qualsiasi sistema esperto, ovvero garbage in--> garbage out ovvero se fornisci ad una rete neurale dati schifosi (come le immagini di quelle videocamere a basso contrasto) la rete neurale non può lavorare su dati che non ha e quindi ovviamente non riesce a predirre il corretto output

vuoi sapere perchè tesla non usa il lidar? perchè se ha tolto un sensore che costa pochi dollari per mero profitto sicuramente non installa un sensore 10 volte più costoso sempre per il mero profitto

joe4th
15-09-2021, 09:38
Chissa' come se la caverebbe nel mezzo del mercatino di Maeklong: https://www.youtube.com/watch?v=RW0EZ6cpkwc :-)

!fazz
15-09-2021, 09:41
Chissa' come se la caverebbe nel mezzo del mercatino di Maeklong: https://www.youtube.com/watch?v=RW0EZ6cpkwc :-)

passa da FSD a FSC

da full self driving a full self carmageddon

:D :D

popye
15-09-2021, 10:15
Un bel tacer non fu mai scritto....

popye
15-09-2021, 10:19
Quando faranno una guida autonoma in grado di districarsi nel traffico del Cairo (egitto) o di Dacca (bangladesh) allora,forse, inizierò a fidarmi

rigelpd
15-09-2021, 11:07
forse, ma ci sono scenari in cui con le telecamere non vai probabilmente da nessuna parte, ad esempio nebbia fitta o pioggia molto forte, semplicemente perche le telecamere non vedono nulla.

In ogni caso quello che qui sfugge e' che il machine learning segue tendenzialmente la legge dei diminishing returns, e' spesso relativamente facile ottenere risultati decenti ma la quasi perfezione e' incredibilmente difficile da raggiungere, e se vuoi la guida autonoma a quella devi arrivare.

I miliardi di automobili guidate dai miliardi di automobilisti sprovvisti di radar e lidar ti provano che questi mezzi non sono indispensabili per guidare.

DrSto|to
15-09-2021, 11:13
I miliardi di automobili guidate dai miliardi di automobilisti sprovvisti di radar e lidar ti provano che questi mezzi non sono indispensabili per guidare.
Ehh, ma (quasi)tutti sono dotati di visione stereoscopica e di conseguenza della capacità di valutare la profondità.

rigelpd
15-09-2021, 11:18
il mero guadagno di risparmiare circa 300$ di componentistica (a stare larghi)per ogni auto prodotta? perchè fidati non c'è nessun motivo per avere tolto il radar che ormai viene montato anche su un auto da 10.000€ delegando tutto ad una stupida rete neurale



Il radar ha il difetto che avere una risoluzione angolare pessima, questo significa che non riesce a distinguere bene gli oggetti fermi a bordo strada (che non rischi di colpire) dalle auto ferme nella strada. Un'automobile programmata per fermarsi ogni qual volta il radar rileva un oggetto fermo vicino starebbe costantemente a frenare per ogni palo della luce, cassonetto, cartello stradale, idrante etc. Per questo motivo tutti i sistemi di guida autonoma sono programmati per ignorare gli oggetti che il radar rileva come fermi e tenere conto solo di quelli in movimento per cui è facile identificarli come veicoli. E' per questo motivo che spesso e volentieri le automobili provviste di radar vanno a schiantarsi contro mezzi fermi.

Il radar non avrebbe impedito ad un'automobile di andarsi a schiantare su quel pilastro.

rigelpd
15-09-2021, 11:19
Ehh, ma (quasi)tutti sono dotati di visione stereoscopica e di conseguenza della capacità di valutare la profondità.

E perchè secondo te le Tesla no? Hanno 8 telecamere e non solo la visione stereoscopica ma anche una visione completa e costante a 360°.

TorettoMilano
15-09-2021, 11:26
io pagherei per vedere la gente che da sentenze su scelte tecniche delle multinazionali in una riunione con gli ingegneri specializzati delle stesse :D

DrSto|to
15-09-2021, 12:03
E perchè secondo te le Tesla no? Hanno 8 telecamere e non solo la visione stereoscopica ma anche una visione completa e costante a 360°.

A me risulta che la profondità è "immaginata" dalla rete neurale.

pin-head
15-09-2021, 12:30
forse, ma ci sono scenari in cui con le telecamere non vai probabilmente da nessuna parte, ad esempio nebbia fitta o pioggia molto forte, semplicemente perche le telecamere non vedono nulla.


Se le telecamere non vedono nulla, non vedi nulla nemmeno tu. E nemmeno altra gente in giro per la strada. Ergo, è meglio stare fermi.

pin-head
15-09-2021, 12:32
Il discorso non regge, un radar può vedere cose un sensore ottico non può (come detto da altri vedi nebbia fitta o altre condizioni simili), sarebbe come dire che 3 orecchie sono meglio di 4 perché tanto con 3 ci si può comunque arrangiare...

No. Il problema vero è che il radar e il lidar possono fornire dati in contrasto con le telecamere, e l’ia non saprebbe a chi dare retta.
Il radar/lidar serve solo a chi non è capace di elaborare i dati dalle camere.

pin-head
15-09-2021, 12:34
il mero guadagno di risparmiare circa 300$ di componentistica (a stare larghi)per ogni auto prodotta? perchè fidati non c'è nessun motivo per avere tolto il radar che ormai viene montato anche su un auto da 10.000€ delegando tutto ad una stupida rete neurale

riguardo al lidar
se ditte del calibro di Intel, Qualcoom e Google investono su veicoli dotati di sensor fusion per la guida autonoma in strada mentre nel 100% dei casi di guida autonoma industriale (che è attualmente l'unico utilizzo reale di guida autonoma) si utilizzano lidar (come adesso si usa chiamare il laserscan) tecnologia che esiste e viene utilizza da oltre 30 anni, facendo la fortuna di marchi come sick un motivo c'è

e mi fa ridere che una persona come te, che ha dimostrato molte volte il fatto di non avere nessuna competenza tecnica in merito ma solo un ceco fanatismo nell'auto dei tuoi sogni cominci a parlare di stampella parlando di un sensore affidabile sicuro ed affidabile dimenticanco la regola fondamentale di qualsiasi sistema esperto, ovvero garbage in--> garbage out ovvero se fornisci ad una rete neurale dati schifosi (come le immagini di quelle videocamere a basso contrasto) la rete neurale non può lavorare su dati che non ha e quindi ovviamente non riesce a predirre il corretto output

vuoi sapere perchè tesla non usa il lidar? perchè se ha tolto un sensore che costa pochi dollari per mero profitto sicuramente non installa un sensore 10 volte più costoso sempre per il mero profitto

Ecco un’altra persona che non si documenta, non approfondisce, non sa, eppure parla. Sbagliando di grosso, direi. Ma il tempo è galantuomo: già l’fsd 10 lavora (otticamente) meglio di qualunque altro sistema di guida autonoma, quando uscirà la versione completa capirai meglio anche tu di aver scritto inesattezze. Basta solo aspettare.

barzokk
15-09-2021, 13:05
io pagherei per vedere la gente che da sentenze su scelte tecniche delle multinazionali in una riunione con gli ingegneri specializzati delle stesse :D
Io pagherei per vedere e sentire i commenti gli ingegneri che devono sviluppare il FSD, dopo la riunione con Muskio e i vertici che gli chiedono di fare i miracoli, perchè ormai sono anni che si sono venduti la pelle dell'orso :asd:
Purtroppo hanno clausole di NDA altrimenti sai che ridere :sbonk:

Chissà quanti qui sono stati in situazioni simili ;)

TorettoMilano
15-09-2021, 13:11
Io pagherei per vedere e sentire i commenti gli ingegneri che devono sviluppare il FSD, dopo la riunione con Muskio e i vertici che gli chiedono di fare i miracoli, perchè ormai sono anni che si sono venduti la pelle dell'orso :asd:
Purtroppo hanno clausole di NDA altrimenti sai che ridere :sbonk:

Chissà quanti qui sono stati in situazioni simili ;)

ciao barzokk, toglimi una curiosità. ma in questi anni ritieni tesla abbia dato un qualche supporto positivo nel settore delle auto elettriche? non vale rispondere "grazie a tesla sappiamo cosa NON fare" :D

barzokk
15-09-2021, 13:17
Nel caso di Genova i piloni si posano su un marciapiede, impedendo una manovra stupida come il cambio corsia. Non credo in Italia ci siano colonne di cemento in mezzo alle carreggiata senza cartelli o segnaletica
La questione è vederli, il FSD non li vede.
Può essere che le telecamere non riescono a vedere il grigio chiaro, oppure non sono oggetti nei training data ecc.
A Genova chissà, forse funzionerebbe perchè vedrebbe il marciapiede... e i pilastri sono scuri e sporchi :asd:
Fatto sta che una persona vera non si pone il problema. In strada può esserci di tutto, puoi anche trovarci un frigorifero per esempio, e allora ?

Poi nella 9.2 non c'era mica solo il problema del pilone: ha strisciato la portiera contro una siepe perchè non aveva visto la distanza, dopo un incrocio andava contro delle auto parcheggiate, ecc ecc

ciao barzokk, toglimi una curiosità. ma in questi anni ritieni tesla abbia dato un qualche supporto positivo nel settore delle auto elettriche? non vale rispondere "grazie a tesla sappiamo cosa NON fare" :D
bè ci ha fatto tanto ridere :D
seriamente, dai, certo, che domanda
se poi sia la scelta giusta francamente non lo so

rigelpd
15-09-2021, 13:46
A me risulta che la profondità è "immaginata" dalla rete neurale.

Esattamente come tu "immagini" la profondità mettendo insieme due immagini.

marchigiano
15-09-2021, 13:47
Se le telecamere non vedono nulla, non vedi nulla nemmeno tu. E nemmeno altra gente in giro per la strada. Ergo, è meglio stare fermi.

si una un occhio umano è nettamente superiore alle telecamere che si possono installare su un auto... diciamo che la tesla vede come un anziano con cataratta che guida a memoria in caso non distingua bene gli oggetti... :rolleyes: è vero che può essere comunque superiore ad alcuni tizi che girano in strada (non si sa perchè non gli venga ritirata la patente), ma non la ritengo superiore a un umano sano che sa guidare decentemente

pin-head
15-09-2021, 14:06
si una un occhio umano è nettamente superiore alle telecamere che si possono installare su un auto... diciamo che la tesla vede come un anziano con cataratta che guida a memoria in caso non distingua bene gli oggetti... :rolleyes: è vero che può essere comunque superiore ad alcuni tizi che girano in strada (non si sa perchè non gli venga ritirata la patente), ma non la ritengo superiore a un umano sano che sa guidare decentemente

Che tu la ritrnga superiore o meno a un umano sano è irrilevante, ciò che conta sono i fatti. E al momento ci vede meglio di qualsiasi umano, per il semplice fatto che ha una visione a 360.
Non basarti unicamente sulla risoluzione delle camere: l’IA si ricorda di tutto quello che è successo prima, per cui non fa analisi su un singolo fotogramma, ma tiene conto della temporalità, e funziona eccezionalmente bene.
Ti consiglio di andare a vedere l’AI Day di Tesla, ti si chiariranno molti dubbi.

rigelpd
15-09-2021, 14:16
Che tu la ritrnga superiore o meno a un umano sano è irrilevante, ciò che conta sono i fatti. E al momento ci vede meglio di qualsiasi umano, per il semplice fatto che ha una visione a 360.
Non basarti unicamente sulla risoluzione delle camere: l’IA si ricorda di tutto quello che è successo prima, per cui non fa analisi su un singolo fotogramma, ma tiene conto della temporalità, e funziona eccezionalmente bene.
Ti consiglio di andare a vedere l’AI Day di Tesla, ti si chiariranno molti dubbi.

Concordo, dal punto di vista dell'hardware di visione le Tesla non sono inferiori ad un uomo, anzi è vero l'opposto.

Quello che Tesla deve ancora migliorare è la percezione visiva, intesa come capacità di trarre informazioni dalla matrice di pixel. In quest'ottica però penso che Tesla sia più avanti di chiunque altro nel campo dell'automotive.

Il grosso del lavoro che manca sembra essere nel campo del planning ma a guardare la presentazione dell'AI Day stanno facendo progressi anche in questo campo.

DrSto|to
15-09-2021, 14:19
Esattamente come tu "immagini" la profondità mettendo insieme due immagini.
A me risulta che la telecamera anteriore sia una, e che la rete neurale sia stata addestrata grazie anche ai dati forniti dal radar.
Magari sbaglio eh!

pin-head
15-09-2021, 14:25
Concordo, dal punto di vista dell'hardware di visione le Tesla non sono inferiori ad un uomo, anzi è vero l'opposto.

Quello che Tesla deve ancora migliorare è la percezione visiva, intesa come capacità di trarre informazioni dalla matrice di pixel. In quest'ottica però penso che Tesla sia più avanti di chiunque altro nel campo dell'automotive.

Il grosso del lavoro che manca sembra essere nel campo del planning ma a guardare la presentazione dell'AI Day stanno facendo progressi anche in questo campo.

Stanno facendo ENORMI progressi, con una crescita esponenziale. Cosa che la gente fatica a capire sia perché non si informa, sia perché è controintuitivo.

pin-head
15-09-2021, 14:27
A me risulta che la telecamera anteriore sia una, e che la rete neurale sia stata addestrata grazie anche ai dati forniti dal radar.
Magari sbaglio eh!

Inizialmente era addestrata anche con il radar. Poi sono arrivati al punto che il radar è diventato inutile, e l’hanno eliminato. Le Tesla in produzione non lo montano.

!fazz
15-09-2021, 14:36
Inizialmente era addestrata anche con il radar. Poi sono arrivati al punto che il radar è diventato inutile, e l’hanno eliminato. Le Tesla in produzione non lo montano.

e si schiantano nei cassoni dei tir come risultato

DrSto|to
15-09-2021, 14:57
e si schiantano nei cassoni dei tir come risultato
Ma che dici? Vanno che è una bellezza, sempre siano lodati Musk nostro salvatore e San Jobs! :D

pin-head
15-09-2021, 15:01
e si schiantano nei cassoni dei tir come risultato

Al momento l’fsd 10 è un livello 2.
Se l’auto si schianta è solo colpa dell’umano al volante.
Quando arriverà il livello 5, salverà innumerevoli vite umane.

rigelpd
15-09-2021, 15:10
A me risulta che la telecamera anteriore sia una, e che la rete neurale sia stata addestrata grazie anche ai dati forniti dal radar.
Magari sbaglio eh!

No hai ragione, effettivamente non usano le tecnica stereoscopica per determinare la distanza degli oggetti, d'altronde non la usiamo nemmeno non in automobile, visto che la visione stereoscopica funziona bene solo a distanza ravvicinata 4-5 metri massimo, dopodichè la differenza tra le due immagini diventa così minima da non essere più percepibile dall'occhio umano, o meglio: è percepibile ma l'accuratezza in termini di stima della distanza decresce molto in fretta).

DrSto|to
15-09-2021, 15:13
dopodichè la differenza tra le due immagini diventa così minima da non essere più percepibile dall'occhio umano (nel senso che è percepibile ma l'accuratezza in termini di stima della distanza decresce molto in fretta).

A detta di chi? Vai a manovrare una gru vai...

rigelpd
16-09-2021, 08:36
A detta di chi? Vai a manovrare una gru vai...

Tu invece dovresti tornare alle scuole medie e ripassare un po di trigonometria...

barzokk
16-09-2021, 09:00
e si schiantano nei cassoni dei tir come risultato
Stando a quanto affermato sopra, il radar non sarebbe servito perchè il cassone era fermo in mezzo all'autostrada.... :O
Poi forse le telecamere non lo hanno visto perchè il cassone era grigio chiaro/bianco... :mbe:
Che furbi questi beta tester che si giocano la vita


Comunque insisto, la risoluzione dell'occhio umano, qualcuno dice che è 576 Megapixel.
https://www.google.com/search?q=human+eye+resolution

Ormai passano i decenni, ma mi continua a sembrare che siamo ancora alla preistoria della AI.

barzokk
16-09-2021, 09:19
A me risulta che la telecamera anteriore sia una, e che la rete neurale sia stata addestrata grazie anche ai dati forniti dal radar.
Magari sbaglio eh!
qui:
https://www.tesla.com/autopilot
dice che in tutto ha 8 CAM
davanti ce ne sono 3, davanti allo specchietto retrovisore
però servono per "gestire" distanze diverse 60-150-250 metri, e quindi NON servono ad implementare una visione stereoscopica come quella umana.
La profondità potrebbe quindi essere rilevata dalla combinazione delle 3 cam, meh :mbe:

Se non vede dei pilastri a pochi metri, forse avrebbero dovuto sviluppare una visione stereoscopica come fanno tutti gli esseri viventi da milioni di anni ?

386DX40
16-09-2021, 09:23
Continuo a credere che si guardi piu' all' aspetto tecnico della visibilità e delle tecnologie varie connesse ad essa che non alle "altre capacità" che l' essere umano sfrutta durante la guida di un veicolo. Si parlava della nebbia, certo se un sensore qualsiasi esso sia (telecamera, radar, lidar, quel che si vuole) "non ci vede" perche' c'e' la nebbia presumibilmente anche l' essere umano "non ci vedrà" per lo stesso motivo.
Ma quest' ultimo pone decadi di esperienza di guida in quelle condizioni, magari proprio su quella strada che conosce a memoria come a memoria conosce i punti piu' pericolosi e intuisce spesso quasi per "sentore" che dietro quella curva "mediamente" c'e' "potenzialmente" spesso la probabilità di dover porre maggior attenzione (un bus di linea che prende tutta la carreggiata, animali selvatici anche grossi, etc); quindi anche con una visibilità ridotta il conoscere la strada a memoria, il percepire suoni, luci, sensazioni spesso proprio per esperienza, lo pone al di sopra della "tridimensionalità" dell' ambiente.

Quando capita di guidare magari in strade provinciali dove l' illuminazione e' zero magari per decine di chilometri e le luci della macchine fanno quello che possono e magari nemmeno i fari di profondità bastano, l' insieme di elementi "analogici" totalmente umani come quelli suddetti fanno spesso la differenza per evitare un problema le cui risonanze sono esponenziali (se per evitare un topolino nella nebbia si finisce con un auto nel bosco qualcosa non torna).
Ovvio che non parlo di "preveggenza" ma di un insieme di fattori "analogici" umani che spesso con i loro limiti per certi versi rasentano quasi la preveggenza ancora prima di dover calcolare cio' che e' visibile sulla carreggiata o nei dintorni. Come dicevo in un vecchio esempio, se un guidatore esperto vede una persona ipoteticamente ubriaca sul marciapiede barcollare e camminare nella stessa direzione del veicolo, il guidatore puo' immaginare quale sia il probabile o improbabile pericolo nell' eventualità ipotetica nefasta che quella persona possa perdere l' equilibrio e/o cadere dal marciapiede, quindi ipoteticamente e probabilmente guiderà molto piu' lontano del solito dal marciapiede per evitare ogni eventualità. E' quella che si chiama precauzione e imho e' un concetto analogico e dipende da una miriade di variabili umane basate sulla esperienza.

DrSto|to
16-09-2021, 10:30
Se non vede dei pilastri a pochi metri, forse avrebbero dovuto sviluppare una visione stereoscopica come fanno tutti gli esseri viventi da milioni di anni ?
No, gli ingegneri Tesla la sanno molto più lunga di milioni di anni di evoluzione perché hanno studiato la trigonometria.

Ci arriveranno, milioni di anni dopo la data promessa dal dittatore di Marte, ma ci arriveranno e se il pedone ubriaco verrà investito la colpa sarà solo sua.

barzokk
16-09-2021, 10:43
Continuo a credere che si guardi piu' all' aspetto tecnico della visibilità e delle tecnologie varie connesse ad essa che non alle "altre capacità" che l' essere umano sfrutta durante la guida di un veicolo.
...
Assolutamente d'accordo, ma non c'è bisogno di andare così avanti.
Mi sembra che in generale abbiamo capito solo approssimativamente come funziona la visione umana. E Tesla la sta "scimmiottando" con 3 cam a bassa risoluzione, mi sembra che siamo ancora fermi al punto di partenza.
D'altra parte la AI, lo dice il nome, non è intelligenza, è una finzione di intelligenza.

Comunque non servono decenni di esperienza, io l'ho imparato a 16 anni che dietro ad una curva può esserci un autobus (la prima volta che ho dovuto scansarlo: è entrato nel mio bagaglio di esperienze :D )
Ma a parte le esperienze personali, nessun ragazzo di 16 anni va contro ad un pilastro. Al massimo qualcuno potrebbe strisciare la fiancata contro la siepe, ma non per non averla vista, semmai perchè potrebbe mancargli la consapevolezza delle dimensioni dell'auto.


No, gli ingegneri Tesla la sanno molto più lunga di milioni di anni di evoluzione perché hanno studiato la trigonometria.
...

ah la trigonometria mannaggia, io al liceo guardavo le pere di una mia compagna di scuola :D

386DX40
16-09-2021, 11:53
Assolutamente d'accordo, ma non c'è bisogno di andare così avanti.
Mi sembra che in generale abbiamo capito solo approssimativamente come funziona la visione umana. E Tesla la sta "scimmiottando" con 3 cam a bassa risoluzione, mi sembra che siamo ancora fermi al punto di partenza.
D'altra parte la AI, lo dice il nome, non è intelligenza, è una finzione di intelligenza.

Comunque non servono decenni di esperienza, io l'ho imparato a 16 anni che dietro ad una curva può esserci un autobus (la prima volta che ho dovuto scansarlo: è entrato nel mio bagaglio di esperienze :D )
Ma a parte le esperienze personali, nessun ragazzo di 16 anni va contro ad un pilastro. Al massimo qualcuno potrebbe strisciare la fiancata contro la siepe, ma non per non averla vista, semmai perchè potrebbe mancargli la consapevolezza delle dimensioni dell'auto.


Ma infatti la questione imho va oltre il problema della "visione" e entra nel campo della percezione, precauzione, esperienza. Ovvio l'essere umano non e' perfetto alla guida ma cio' non toglie che quando guida non pone solo schemi, algoritmi, specifiche tecniche ma questioni che riguardano la responsabilità della vita umana propria/altrui (ad es.) nel sapere che pur esistendo dei limiti per cui e' fallibile comunque, quello stesso "essere analogico" include anche la possibilità di scelte alla guida che magari rasenterebbero quasi il "miracolo" per quanto improbabili e che dubito "digitalmente" implementabili via sw/hw.
Se per schivare un ostacolo poi si trova a schivarne un altro e poi spunta un cinghiale, un grifone e una lastra di ghiaccio e il guidatore con 220 battiti al minuto, l' adrenalina che gli esce dalle orecchie, gli occhi spalancati che manco un' aquila reale, riuscisse ipoteticamente ad uscire indenne da quella situazione pur improbabile (ma non del tutto), e' solo grazie ad una lunghissima lista di esperienze di vita e di correlate scelte istintive.
In piu' una volta spesso l'esperienza alla guida ereditava quella sulla bicicletta, poi sul ciclomotore, poi sul motociclo e poi solo dopo si arrivava allo studio e alla patente di guida con un bagaglio di esperienza sulla infrastruttura che era importantissima, senza la quale oggigiorno significa che quella esperienza di guida andrà costruita dopo con un veicolo in partenza piu' complesso e pericoloso dei suddetti imho come di fatto lo e' un auto da una tonnellata.

pin-head
16-09-2021, 13:33
Continuo a credere che si guardi piu' all' aspetto tecnico della visibilità e delle tecnologie varie connesse ad essa che non alle "altre capacità" che l' essere umano sfrutta durante la guida di un veicolo. Si parlava della nebbia, certo se un sensore qualsiasi esso sia (telecamera, radar, lidar, quel che si vuole) "non ci vede" perche' c'e' la nebbia presumibilmente anche l' essere umano "non ci vedrà" per lo stesso motivo.
Ma quest' ultimo pone decadi di esperienza di guida in quelle condizioni, magari proprio su quella strada che conosce a memoria come a memoria conosce i punti piu' pericolosi e intuisce spesso quasi per "sentore" che dietro quella curva "mediamente" c'e' "potenzialmente" spesso la probabilità di dover porre maggior attenzione (un bus di linea che prende tutta la carreggiata, animali selvatici anche grossi, etc); quindi anche con una visibilità ridotta il conoscere la strada a memoria, il percepire suoni, luci, sensazioni spesso proprio per esperienza, lo pone al di sopra della "tridimensionalità" dell' ambiente.

Quando capita di guidare magari in strade provinciali dove l' illuminazione e' zero magari per decine di chilometri e le luci della macchine fanno quello che possono e magari nemmeno i fari di profondità bastano, l' insieme di elementi "analogici" totalmente umani come quelli suddetti fanno spesso la differenza per evitare un problema le cui risonanze sono esponenziali (se per evitare un topolino nella nebbia si finisce con un auto nel bosco qualcosa non torna).
Ovvio che non parlo di "preveggenza" ma di un insieme di fattori "analogici" umani che spesso con i loro limiti per certi versi rasentano quasi la preveggenza ancora prima di dover calcolare cio' che e' visibile sulla carreggiata o nei dintorni. Come dicevo in un vecchio esempio, se un guidatore esperto vede una persona ipoteticamente ubriaca sul marciapiede barcollare e camminare nella stessa direzione del veicolo, il guidatore puo' immaginare quale sia il probabile o improbabile pericolo nell' eventualità ipotetica nefasta che quella persona possa perdere l' equilibrio e/o cadere dal marciapiede, quindi ipoteticamente e probabilmente guiderà molto piu' lontano del solito dal marciapiede per evitare ogni eventualità. E' quella che si chiama precauzione e imho e' un concetto analogico e dipende da una miriade di variabili umane basate sulla esperienza.

È proprio per questo che si usano le reti neurali.
L’IA farà (sta già facendo) esattamente quello che hai scritto, ma lo farà meglio di qualsiasi essere umano.

386DX40
16-09-2021, 15:55
È proprio per questo che si usano le reti neurali.
L’IA farà (sta già facendo) esattamente quello che hai scritto, ma lo farà meglio di qualsiasi essere umano.

Immagino che ci siano cose che potrebbe fare meglio come guidare n giorni consecutivi senza fermarsi o escludere la possibilità di distrazione anche solo di tot secondi in proporzione ad ore di viaggio, velocità di reazione etc.. ma immagino anche che nelle casistiche comuni quel "meglio" non e' detto non abbia il lato opposto della medaglia delle cose che reti neurali o meno, magari "non possa fare". Gli esempi volevano soprattutto ricordare che la "fallibilità analogica" dell' essere umano nella sua complessità gli permettono di cose che un algoritmo anche quello piu' avanzato potrebbe non voler fare proprio perche' non e' conveniente sul profilo di calcolo statistico laddove invece l' essere umano nei suoi lampi di genio ma allo stesso tempo capacità di fare la scelta "sbagliata ma giusta" puo' fare cose che nessuna IA farebbe.
Esempio puramente ipotetico, se un essere umano comune passeggiando vedesse un essere umano tra le onde in tempesta richiedere aiuto potrebbe ipoteticamente trovarsi inaspettatamente contro ogni logica/probabilità di riuscita a scegliere non facendo il calcolo che ci si aspetterebbe da IA, reti neurali, sensori, algoritmi ma un ragionamento di "vada come vada bisogna tentare qualcosa". Magari senza calcolo o per umanità o per fede. E magari quel tentativo potrebbe effettivamente essere "provvidenziale" e salvare quell' essere umano salvando anche se stesso oppure no. Il rischio sarebbe altissimo di non riuscita eppure talvolta accade che persone es colte da malore vengano salvate contro ogni probabilità quasi appunto per miracolo. Ma e' una scelta dettata anche da questioni etiche. Un IA, un algoritmo et simili, immagino ragionerebbero in termini di quanto probabile sarebbe il salvataggio e se quella probabilità fosse 1 su 100 chissà cosa deciderebbe e su quale piano "etico".

pin-head
16-09-2021, 17:13
Immagino che ci siano cose che potrebbe fare meglio come guidare n giorni consecutivi senza fermarsi o escludere la possibilità di distrazione anche solo di tot secondi in proporzione ad ore di viaggio, velocità di reazione etc.. ma immagino anche che nelle casistiche comuni quel "meglio" non e' detto non abbia il lato opposto della medaglia delle cose che reti neurali o meno, magari "non possa fare". Gli esempi volevano soprattutto ricordare che la "fallibilità analogica" dell' essere umano nella sua complessità gli permettono di cose che un algoritmo anche quello piu' avanzato potrebbe non voler fare proprio perche' non e' conveniente sul profilo di calcolo statistico laddove invece l' essere umano nei suoi lampi di genio ma allo stesso tempo capacità di fare la scelta "sbagliata ma giusta" puo' fare cose che nessuna IA farebbe.
Esempio puramente ipotetico, se un essere umano comune passeggiando vedesse un altro essere umano in mare in tempesta richiedente aiuto potrebbe ipoteticamente trovarsi inaspettatamente contro ogni logica e contro ogni probabilità di riuscita a non fare il calcolo che ci si aspetterebbe da IA, reti neurali, sensori, algoritmi di "costi/benefici" ma un ragionamento di "vada come vada bisogna tentare qualcosa". Magari per errore di calcolo o per spirito di umanità o per fede. E magari quel tentativo potrebbe effettivamente essere "provvidenziale" e salvare quell' essere umano salvando anche se stesso. Il rischio sarebbe stato altissimo di non riuscita eppur talvolta accade che persone vengano salvate contro ogni probabilità a volte quasi appunto per miracolo. Ma e' una scelta dettata anche da questioni etiche e di salvaguardia tra esseri umani. Un IA, un algoritmo et simili, immagino ragionerebbero in termini di quanto probabile sarebbe il salvataggio e se quella probabilità fosse 1 su 100 chissà cosa deciderebbe e su quale piano "etico".

Giusto per capire, sei un esperto di AI e reti neurali?

386DX40
16-09-2021, 17:50
Era solo una opinione sul tema per quel che vale a prescindere dalle proprie competenze. :)

magicohw
18-09-2021, 10:22
Visto che la nostra segnaletica non lo permette e lo permettera' tra 30 anni, ma a cosa serve rischiare la pelle...