NVIDIA rende Audio2Face open source: ecco come donare le emozioni agli avatar 3D

NVIDIA rende Audio2Face open source: ecco come donare le emozioni agli avatar 3D

NVIDIA ha reso open source Audio2Face, tecnologia AI che genera animazioni facciali realistiche partendo dagli input audio. Già adottata da studi di videogiochi e aziende creative, la soluzione fornisce lip-sync accurato, espressioni naturali e personalizzazione dei modelli consentendo agli avatar 3D di riprodurre le emozioni

di pubblicata il , alle 19:29 nel canale Schede Video
NVIDIA
 

NVIDIA ha annunciato la conversione in open source di Audio2Face, la tecnologia di animazione facciale basata su intelligenza artificiale che genera espressioni realistiche e sincronizzazione labiale a partire da un input audio. Lo strumento, già adottato in ambiti che spaziano dai videogiochi ai servizi digitali, è ora disponibile come risorsa open source, con modelli pre-addestrati, SDK e framework di training accessibili a sviluppatori, ricercatori e utenti. Tutti gli strumenti sono disponibili direttamente nella sezione dedicato del sito dell'azienda.

La tecnologia si fonda su modelli di deep learning che analizzano le caratteristiche acustiche del parlato, come fonemi e intonazione. Questi elementi vengono tradotti in un flusso di dati di animazione che, attraverso una mappatura, genera le pose facciali di un avatar 3D. In questo modo è possibile ottenere un lip-sync accurato e allo stesso tempo riprodurre le emozioni attraverso le espressioni del viso.

Audio2Face supporta due modalità operative: offline, ideale per contenuti pre-scriptati come filmati o cutscene di videogiochi, e real-time streaming, che consente a un avatar di reagire dinamicamente alla voce dell'utente, per interazioni più immersive e realistiche nei videogiochi, oltre che per applicazioni come assistenti virtuali o customer service.

L'apertura del framework di training rappresenta un elemento strategico: consente a team e aziende di riaddestrare i modelli o di affinarli con dataset personalizzati, così da adattare la tecnologia a specifici contesti linguistici, stilistici o artistici.

Rendere Audio2Face open source significa permettere alla comunità di estenderne le funzionalità e ottimizzarne il codice per casi d'uso diversi. NVIDIA sottolinea che questo approccio genera un ciclo di innovazione collaborativa, in cui sviluppatori, studenti e ricercatori possono contribuire attivamente. Inoltre, garantisce all'azienda una più rapida adozione delle sue tecnologie da parte dei partner.

Numerosi studi hanno già sperimentato l'integrazione della tecnologia. Reallusion, tramite le suite iClone e Character Creator, ha potenziato i propri strumenti di editing e puppeteering. Survios, con Alien: Rogue Incursion Evolved Edition, ha ridotto i tempi di produzione mantenendo alto il livello di immersione.

The Farm 51 ha dichiarato che, con Chernobylite 2: Exclusion Zone, l'adozione di Audio2Face ha reso possibili animazioni impensabili durante lo sviluppo del primo capitolo della serie. Anche sviluppatori come Convai, Codemasters, NetEase, Perfect World Games e Streamlabs hanno inserito la soluzione nei loro processi creativi.

Con questa scelta, NVIDIA non solo apre l'accesso a strumenti di animazione facciale avanzata, ma rafforza anche la possibilità di sperimentare nuove applicazioni in settori come gaming, media, intrattenimento e servizi digitali. L'obiettivo è chiaramente quello di ampliare l'uso di avatar intelligenti e rendere le interazioni uomo-macchina sempre più naturali e coinvolgenti.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^