Redazione di Hardware Upg
14-11-2017, 12:01
Link alla notizia: http://auto.hwupgrade.it/news/tecnologia/intelligenza-artificiale-per-comandare-in-modo-naturale-l-auto-con-la-voce-con-uno-zampino-italiano_72318.html
"Aumentare la sicurezza dei conducenti con interazioni intuitive e a minor carico cognitivo" questo il modo con cui l'Intelligenza Artificiale di Nuance punta a farci guidare in modo più sicuro. E c'è uno zampino italiano, con alcuen soluzioni sviluppate nel nostro paese a Torino da Nuance
Click sul link per visualizzare la notizia.
La Paura
14-11-2017, 15:03
Per me i comandi vocali diventeranno utili nel momento in cui è come se parlassi ad una persona seduta accanto a me con il mano il mio telefono che fa ciò le dico anche in maniera poco precisa.
ComputArte
16-11-2017, 10:55
...i dati di chi sono e che fine fanno?!
La privacy del'utente come è protetta e rispettata?
...la decodifica del linguaggio naturale spesso avverrà "lato server" :-) per evidenti ragioni di brokeraggio dati dove anche il settore automotive sta scimmiottando il modello delle OTT nel quale gli utenti sono meri serbatoi di dati da usurpare per farci business... SENZA LASCIARE NEMMENO LE BRICIOLE a chi i dati li genera.... sorry ma questo modello di business imploderà...a breve!
cdimauro
16-11-2017, 19:55
Nell'automotive al 99,9999% l'elaborazione del linguaggio naturale non può avvenire lato server, ma avviene internamente, nella piattaforma hardware/software del veicolo.
Com'è ovvio che sia, visto che le auto non è garantito che possano essere connesse sempre ai server.
Peraltro l'unica connessione possibile, SE presente, è tramite una SIM integrata, dove il traffico dati DEVE essere limitato, visto che la casa automobilistica paga un canone per ogni SIM integrata sull'auto.
amd-novello
16-11-2017, 22:06
come mai questi sistemi vanno solo online? se si volesse portare tutto in locale quanto spazio servirebbe? centinaia di giga?
cdimauro
17-11-2017, 05:26
E' una questione di piattaforma hardware, più che altro. Nelle automobili ci sono SoC che non sono molto potenti, e non c'è molto spazio a disposizione, per cui le risorse utilizzate da ogni componente (e il riconoscimento audio è uno di questi) sono limitate (in realtà sono partizionate fra i vari componenti).
Ecco perché, come dice l'articolo, prima viene utilizzato il riconoscitore vocale integrato, che quindi è stato realizzato per fornire già delle risposte. Solo se fallisce si passa al cloud (che ha risorse hardware di gran lunga superiori all'auto, e software sempre aggiornato), SE è stato possibile contattarlo.
Ma, appunto, l'auto deve poter funzionare anche nel caso peggiore, e quindi in assenza di connessione. Per cui la versione embedded dev'essere già di buon livello (e lo è, effettivamente, per chi ha provato il sistema Nuance di cui parla l'articolo).
Il problema non è, quindi, l'aggiornamento, visto che ormai le auto si aggiornano da sole abbastanza di frequente (se non ricordo male 5-6 volte l'anno), per cui la possibilità di avere codice e/o una base dati migliore per la versione embedded c'è sempre (basta aspettare un po' di mesi).
Ma sempre nei limiti dello spazio e della percentuale di CPU utilizzabile dal componente riconoscitore vocale.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.