E' una questione di piattaforma hardware, più che altro. Nelle automobili ci sono SoC che non sono molto potenti, e non c'è molto spazio a disposizione, per cui le risorse utilizzate da ogni componente (e il riconoscimento audio è uno di questi) sono limitate (in realtà sono partizionate fra i vari componenti).
Ecco perché, come dice l'articolo, prima viene utilizzato il riconoscitore vocale integrato, che quindi è stato realizzato per fornire già delle risposte. Solo se fallisce si passa al cloud (che ha risorse hardware di gran lunga superiori all'auto, e software sempre aggiornato), SE è stato possibile contattarlo.
Ma, appunto, l'auto deve poter funzionare anche nel caso peggiore, e quindi in assenza di connessione. Per cui la versione embedded dev'essere già di buon livello (e lo è, effettivamente, per chi ha provato il sistema Nuance di cui parla l'articolo).
Il problema non è, quindi, l'aggiornamento, visto che ormai le auto si aggiornano da sole abbastanza di frequente (se non ricordo male 5-6 volte l'anno), per cui la possibilità di avere codice e/o una base dati migliore per la versione embedded c'è sempre (basta aspettare un po' di mesi).
Ma sempre nei limiti dello spazio e della percentuale di CPU utilizzabile dal componente riconoscitore vocale.
|