Il CEO di NVIDIA è lapidario: 'Non possiamo più fare computer grafica senza intelligenza artificiale'

"Non possiamo più fare computer grafica senza intelligenza artificiale", ha detto Huang durante un intervento. "Calcoliamo un pixel, e ne deduciamo gli altri 32". L'IA pronta a diventare sempre più il centro dell'innovazione grafica nei videogiochi.
di Manolo De Agostini pubblicata il 16 Settembre 2024, alle 09:51 nel canale Schede VideoNVIDIA
Upscaling e generazione dei fotogrammi potrebbero essere solo l'inizio per quanto riguarda l'uso dell'intelligenza artificiale nella grafica dei videogiochi e non solo. Parlando alla Goldman Sachs Communacopia + Technology Conference di San Francisco, il CEO di NVIDIA Jensen Huang ha spiegato come l'IA sia ormai essenziale nel settore della grafica, non se ne può più fare a meno.
"Nella nostra azienda la usiamo per la computer grafica. Non possiamo più fare computer grafica senza intelligenza artificiale. Calcoliamo un pixel, e ne deduciamo gli altri 32. Insomma, è incredibile. E così alluciniamo, se vogliamo, gli altri 32, e il risultato è temporalmente stabile, fotorealistico, e la qualità dell'immagine è incredibile, le prestazioni sono incredibili".
Ovviamente Huang si riferisce alla grafica fotorealistica, a produzioni che sono così esigenti dal punto di vista dei calcoli da richiedere necessariamente l'uso di tecnologie come il DLSS con Frame Generation per raggiungere frame rate giocabili sulle GPU attuali.
"Calcolare un pixel richiede molta energia. Questo è il calcolo. L'inferenza sugli altri 32 richiede pochissima energia e può essere eseguita in modo incredibilmente veloce. Quindi uno dei vantaggi non è solo l'addestramento del modello... ma anche l'uso del modello", ha aggiunto Huang.
NVIDIA ha già imboccato questa strada da tempo, mentre AMD sembra lo farà compiutamente con FSR 4, tecnologia che ci auguriamo di veder debuttare insieme alle GPU basate su architettura RDNA 4. Il responsabile di AMD per la grafica ha dichiarato all'IFA 2024 di essere intervenuto sullo sviluppo della nuova versione di FSR circa un anno fa, indirizzando il team sull'uso di tecniche di IA.
Tutto questo non deve stupire, NVIDIA e AMD useranno le reti neurali per quanti più aspetti della gestione grafica e non solo, ad esempio nella compressione delle texture: NVIDIA sta lavorando su Neural Texture Compression (NTC), AMD su Neural Texture Block Compression (NTBC), solo per fare un esempio comune. E poi chiaramente non vediamo l'ora di vedere cosa si è inventata NVIDIA con il DLSS 4, anch'esso previsto con la nuova gamma di GPU Blackwell.
Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare
Ma l'IA è qui per restare, nonostante qualcuno ogni tanto ne canti il De profundis. "Se non fosse per l'IA, il lavoro che stiamo svolgendo nella robotica, nella biologia digitale... praticamente tutte le aziende biotecnologiche che incontro in questi giorni [sono] costruite sulla base di NVIDIA", ha affermato Huang.
"Generazione di piccole molecole, screening virtuale. Voglio dire, l'intero settore verrà reinventato per la prima volta con la scoperta di farmaci assistita dai computer grazie all'intelligenza artificiale. Quello in corso è un lavoro incredibile".
41 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSospetto che ci voglia piu' tempo a "dedurre" gli altri 31 pixel con l'IA che a calcolarli
Sospetto che ci voglia piu' tempo a "dedurre" gli altri 31 pixel con l'IA che a calcolarli
Per quanto io non sia assolutamente un fan o sostenitore dei vari upscaling basati sulla IA sospetti male, dedurre gli altri 32 pixel costa meno tempo e energia... ma dato che dei dati coerenti non potrebbero nascere dal nulla c'è ovviamente un "trucco", o meglio due.
1. La precisione di ciò che viene dedotto non è uguale a quella che si avrebbe calcolandolo, quindi risparmi in qualità.
2. Tutto si basa su apprendimenti fatti a priori che quindi portano comunque ad un determinato lavoro e consumo ma fatto da un sistema e poi condiviso, lo puoi immaginare come se ti dessero un qualcosa di parzialmente prerenderizzato e tu devi "solo" adattarlo al tuo caso particolare. Ovviamente non è così però ti aiuta ad avere una idea del perchè funziona.
Eh?
Sospetto che ci voglia piu' tempo a "dedurre" gli altri 31 pixel con l'IA che a calcolarli
invece ha pienamente ragione, pensare oggi di gestire il calcolo grafico ancora puntando alla potenza computazionale pura è follia...
AI ovunque e comunque.. che sia meglio o peggio non ci frega niente, basta che compriate le nostre schede..
Però anche il frame renderizzato calcolandolo è solo una approssimazione della scena che idealmente si vorrebbe rappresentare (fotorealistica), quindi potenzialmente "inventando" i pixel con i modelli generativi si potrebbe anche ottenere un risultato finale migliore rispetto ai metodi classici
al risposta al fsr4 nvidia l'ha data nel 2018 cioè 6 anni fa con il dlss mi sa che sei rimasto un po indietro con le tecnologie
comunque basandoci sui fatti visto che il fsr oggi fa schifo a detta di tutti non ho molte speranze per il 4 a meno che non sia un progetto nuovo che parta da 0
Dipende da cosa intendi per fotorealismo... se intendi qualcosa di indistinguibile dalla realtà ma senza pretesa che sia identico all'oggetto dal quale è stato creato si forse è possibile. Ma se pretendi di ricreare un oggetto da uno realmente esistente ma di base ti mancano delle informazioni è impossibile che una IA ti generi perfettamente i dati mancanti.
comunque basandoci sui fatti visto che il fsr oggi fa schifo a detta di tutti non ho molte speranze per il 4 a meno che non sia un progetto nuovo che parta da 0
Ah ecco mi pareva, c'è già e si chiama dlss4, che prima o poi uscirà
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".