Sfida guida autonoma VS superumano digitale: così Waymo ha testato il software dei suoi veicoli

Sfida guida autonoma VS superumano digitale: così Waymo ha testato il software dei suoi veicoli

Waymo ha creato un superumano instancabile e impossibile da distrarre per un testa a testa contro il suo software di guida autonoma, al fine di verificare chi fosse il guidatore migliore

di pubblicata il , alle 13:02 nel canale Scienza e tecnologia
WaymoAlphabet
 

Un super uomo contro un programma: potrebbe essere un promettente inizio di una seria sci-fi invece è l’ultimo, futuristico e per certi aspetti incredibile, test sulla sicurezza messo a punto da Waymo per testare i limiti del suo programma di guida autonoma. L’azienda ha infatti creato un modello umano perfetto, instancabile e con gli occhi fissi sulla strada e l’ha messo "in competizione" con il proprio software di guida autonoma in una serie di simulazioni di crash per vedere quale fosse il miglior pilota in termini di sicurezza.

Sulla carta viene dato per assodato che un veicolo autonomo (AV) sia migliore di un essere umano per quanto riguarda la lucidità, la prontezza di riflessi e il rispetto del codice stradale, fosse anche solo per il fatto che un programma non assume alcol e/o droghe, non si distrae, rispetta i limiti; nonostante quello che si potrebbe definire un fatto innegabile, le autorità preposte non sembrano inclini ad approvare leggi che consentano la circolazione di veicoli autonomi, quanto meno nel breve periodo e questo sta spronando alcune società, come Waymo, a fare di tutto per dimostrare l’assoluta affidabilità di sistemi di guida autonoma.

Come un test estremo fra un AV e un superuomo.

Alt

La sperimentazione dell’azienda facente capo ad Alphabet si compone di due parti: la prima analizza e modella i tempi di risposta quando un incidente è imminente, la seconda "presenta una nuova metodologia per valutare in che modo i sistemi di guida autonoma evitano gli incidenti". La nuova metodologia prevede la creazione di un modello del "tempo di risposta e dell'azione evasiva di un guidatore umano privo di difetti, con gli occhi sempre puntati sul conflitto (ndr NIEON)" da mettere a confronto con un AV in una serie di diversi scenari di incidenti imminenti; il risultato è stato prevedibile fino a un certo punto.

Il guidatore sovrumano si è dimostrato in grado di gestire in sicurezza la maggior parte delle simulazioni, evitando il 62,5% degli incidenti e riducendo il rischio di lesioni gravi nell'84% delle situazioni, ma il veicolo Waymo ha superato di molto questi risultati dimostrandosi capace di evitare il 75% delle collisioni e riducendo il rischio di lesioni gravi del 93%.

Alt

"Abbiamo costantemente superato questo livello elevato delle prestazioni umane", ha dichiarato Trent Victor, direttore della ricerca sulla sicurezza di Waymo, a The Verge, riferendosi a come viene solitamente misurato il tempo di risposta delle mente umana in questo tipo di esperimenti, con soggetti preventivamente istruiti a rispondere a stimoli come un suono o una luce di stop e da qui inizia la debolezza di questo tipo di sperimentazione. Nel contesto reale pedoni e ciclisti non sempre si comportano in modo prevedibile e per tentare di far fronte a questa tipologia di eventi i metodi tradizionali tendono a sopravvalutare il tempo di reazione dei conducenti presumendo che rispondano più lentamente in situazioni di rapido movimento o più velocemente in situazioni di lento movimento. Waymo ha deciso di tentare un approccio diverso facendo "partire l'orologio" nel momento in cui il guidatore è sorpreso o quando le sue aspettative sono deluse. "In caso di eventi urgenti, i conducenti reagiscono il più velocemente possibile", ha affermato Victor. "E lo fanno perché sono molto sorpresi."

Utilizzando i dati di studi di guida più aderenti alla realtà, la società ha affermato di aver creato un benchmark interno per evitare le collisioni che supera il conducente tipico; in precedenza l'azienda aveva cercato di misurare la sicurezza dei suoi AV simulando dozzine di incidenti mortali verificatisi in Arizona nell'arco di quasi un decennio. Lo spin-off di Google ha scoperto che la sostituzione di una delle due vetture coinvolte in una collisione con i suoi veicoli guidati da robot avrebbe eliminato quasi tutti i decessi, ma non è finita qui. Una volta creato il NIEON Waymo ha ripetuto queste simulazioni arrivando alla conclusione riportata prima: la guida autonoma è migliore anche di un superuomo.

Un recente studio di RAND ha concluso che la maggior parte dei cittadini, quando si parla di guida umana VS guida robotica, si fida di quanto deciso dalle autorità preposte alla gestione dei regolamenti stradali, che al momento (quantomeno negli Stati Uniti) non sembrano voler prendere una decisione in merito. In questa zona di "crepuscolo" normativo, Waymo spera che pubblicizzando questi dati, responsabili politici, ricercatori e persino altre aziende possano iniziare ad assumersi il compito di sviluppare un quadro universale.

Victor ha affermato che entrambi gli studi sono stati sottoposti a revisione paritaria e saranno inviati a una rivista per la pubblicazione. "Stiamo seguendo il modo in cui funziona il processo scientifico", ha detto. "Quindi spetta agli altri commentare e fare ricerche basate su questo".

Dispositivi Amazon in super offerta! Sono tanti: c'è Fire TV Stick a 19€, Echo Dot a 17€ e molto altro, guarda tutti i prezzi qui!
4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TorettoMilano30 Settembre 2022, 13:30 #1
ma basta vedere questo video di anni fa per capire come la guida autonoma può solo salvare vite e fare cose disumane
https://youtu.be/KHvLFujWBeg?t=222
AlPaBo30 Settembre 2022, 15:18 #2
Quindi, per verificare il funzionamento di un sistema di IA, l'hanno confrontato con un altro sistema di IA?
E hanno dedotto che il loro sistema di IA funziona meglio di un altro sistema di IA sempre fatto da loro?
E hanno detto che il sistema di IA che funziona peggio somiglia a un superuomo?

Insomma, una serie di affermazioni non conseguenti o basate su assiomi indimostrabili e su osservazioni soggettive. Non ha alcun valore metodologico, è pura fuffa.

E sia ben chiaro: non sto dicendo che un sistema di IA non possa funzionare bene, ma solo che la loro prova non dimostra niente, è pura propaganda che vuol essere ripresa dai fan (come in questo caso hardware upgrade) allo scopo di auto congratularsi.
TorettoMilano30 Settembre 2022, 15:22 #3
Originariamente inviato da: AlPaBo
Quindi, per verificare il funzionamento di un sistema di IA, l'hanno confrontato con un altro sistema di IA?
E hanno dedotto che il loro sistema di IA funziona meglio di un altro sistema di IA sempre fatto da loro?
E hanno detto che il sistema di IA che funziona peggio somiglia a un superuomo?

Insomma, una serie di affermazioni non conseguenti o basate su assiomi indimostrabili e su osservazioni soggettive. Non ha alcun valore metodologico, è pura fuffa.

E sia ben chiaro: non sto dicendo che un sistema di IA non possa funzionare bene, ma solo che la loro prova non dimostra niente, è pura propaganda che vuol essere ripresa dai fan (come in questo caso hardware upgrade) allo scopo di auto congratularsi.


è ovvio il test sia autocelebrativo anche perchè waymo testa l'IA di waymo
frncr30 Settembre 2022, 16:18 #4
Originariamente inviato da: AlPaBo
Quindi, per verificare il funzionamento di un sistema di IA, l'hanno confrontato con un altro sistema di IA?

No, hanno creato "un benchmark interno per evitare le collisioni che supera il conducente tipico", ovvero da come capisco io hanno modellizzato le prestazioni massime di un conducente umano, e hanno confrontato le prestazioni del loro sistema di guida autonoma a questo modello ideale di guidatore umano, in un contesto di simulazione di incidenti, e hanno concluso che il loro sistema è superiore nell'evitare o contenere i danni. Il modello di guidatore umano ovviamente non è una IA, è un modello statistico.

Dopodiché, il tutto serve a poco a mio avviso; non ci sono dubbi che un sistema di guida autonoma allo stato dell'arte è già ora in grado di evitare molti più incidenti di un guidatore umano (anche attento), non fosse altro per il fatto che ha:
- una percezione dell'ambiente molto più completa di un umano (ad esempio la visione a 360°;
- tempi di reazione incomparabilmente più brevi;
- elevatissima capacità di controllo e previsione della dinamica del mezzo (e di quella degli altri veicoli).
Nondimeno, il problema per arrivare alla legalizzazione di questi sistemi non è la loro efficacia ma la loro affidabilità (oltre alla soluzione dei problemi etici insiti nella programmazione a priori della gerarchia di valore dei possibili danni). Ovvero: se un sistema di guida autonoma è statisticamente più sicuro dei guidatori umani ma ogni tanto sbaglia e provoca incidenti di suo, è accettabile? O posto meglio: quanto deve essere migliore statisticamente un sistema di guida autonoma perché sia accettabile che ogni tanto causi incidenti e la morte di qualcuno? La risposta non è ovvia perché noi siamo abituati ad accettare come inevitabile il fatto che i guidatori umani causino incidenti, danni, feriti e morti con una certa frequenza (ci basta che siano assicurati), ma non siamo probabilmente pronti ad accettare che questo possa farlo un computer, pure se con frequenza molto più bassa.

Alla fine non saranno i problemi tecnici a frenare l'adozione della guida autonoma, ma i problemi sociali ed etici, con le loro conseguenze sull'azione legislativa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^