Il CEO di NVIDIA è lapidario: 'Non possiamo più fare computer grafica senza intelligenza artificiale'

Il CEO di NVIDIA è lapidario: 'Non possiamo più fare computer grafica senza intelligenza artificiale'

"Non possiamo più fare computer grafica senza intelligenza artificiale", ha detto Huang durante un intervento. "Calcoliamo un pixel, e ne deduciamo gli altri 32". L'IA pronta a diventare sempre più il centro dell'innovazione grafica nei videogiochi.

di pubblicata il , alle 09:51 nel canale Schede Video
NVIDIA
 

Upscaling e generazione dei fotogrammi potrebbero essere solo l'inizio per quanto riguarda l'uso dell'intelligenza artificiale nella grafica dei videogiochi e non solo. Parlando alla Goldman Sachs Communacopia + Technology Conference di San Francisco, il CEO di NVIDIA Jensen Huang ha spiegato come l'IA sia ormai essenziale nel settore della grafica, non se ne può più fare a meno. 

"Nella nostra azienda la usiamo per la computer grafica. Non possiamo più fare computer grafica senza intelligenza artificiale. Calcoliamo un pixel, e ne deduciamo gli altri 32. Insomma, è incredibile. E così alluciniamo, se vogliamo, gli altri 32, e il risultato è temporalmente stabile, fotorealistico, e la qualità dell'immagine è incredibile, le prestazioni sono incredibili".

Ovviamente Huang si riferisce alla grafica fotorealistica, a produzioni che sono così esigenti dal punto di vista dei calcoli da richiedere necessariamente l'uso di tecnologie come il DLSS con Frame Generation per raggiungere frame rate giocabili sulle GPU attuali.

"Calcolare un pixel richiede molta energia. Questo è il calcolo. L'inferenza sugli altri 32 richiede pochissima energia e può essere eseguita in modo incredibilmente veloce. Quindi uno dei vantaggi non è solo l'addestramento del modello... ma anche l'uso del modello", ha aggiunto Huang.

NVIDIA ha già imboccato questa strada da tempo, mentre AMD sembra lo farà compiutamente con FSR 4, tecnologia che ci auguriamo di veder debuttare insieme alle GPU basate su architettura RDNA 4. Il responsabile di AMD per la grafica ha dichiarato all'IFA 2024 di essere intervenuto sullo sviluppo della nuova versione di FSR circa un anno fa, indirizzando il team sull'uso di tecniche di IA.

Tutto questo non deve stupire, NVIDIA e AMD useranno le reti neurali per quanti più aspetti della gestione grafica e non solo, ad esempio nella compressione delle texture: NVIDIA sta lavorando su Neural Texture Compression (NTC), AMD su Neural Texture Block Compression (NTBC), solo per fare un esempio comune. E poi chiaramente non vediamo l'ora di vedere cosa si è inventata NVIDIA con il DLSS 4, anch'esso previsto con la nuova gamma di GPU Blackwell.

Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare

Ma l'IA è qui per restare, nonostante qualcuno ogni tanto ne canti il De profundis. "Se non fosse per l'IA, il lavoro che stiamo svolgendo nella robotica, nella biologia digitale... praticamente tutte le aziende biotecnologiche che incontro in questi giorni [sono] costruite sulla base di NVIDIA", ha affermato Huang.

"Generazione di piccole molecole, screening virtuale. Voglio dire, l'intero settore verrà reinventato per la prima volta con la scoperta di farmaci assistita dai computer grazie all'intelligenza artificiale. Quello in corso è un lavoro incredibile".

41 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Fantapollo16 Settembre 2024, 09:58 #1
Non credo molto a questa cosa, capisco che il Ceo Nvidia ami infilare la parola IA un po' da tutte le parti.

Sospetto che ci voglia piu' tempo a "dedurre" gli altri 31 pixel con l'IA che a calcolarli
Gyammy8516 Settembre 2024, 10:04 #2
Piuttosto dov'è la risposta di nvidia a fsr4?
Final5016 Settembre 2024, 10:15 #3
Originariamente inviato da: Fantapollo
Non credo molto a questa cosa, capisco che il Ceo Nvidia ami infilare la parola IA un po' da tutte le parti.

Sospetto che ci voglia piu' tempo a "dedurre" gli altri 31 pixel con l'IA che a calcolarli


Per quanto io non sia assolutamente un fan o sostenitore dei vari upscaling basati sulla IA sospetti male, dedurre gli altri 32 pixel costa meno tempo e energia... ma dato che dei dati coerenti non potrebbero nascere dal nulla c'è ovviamente un "trucco", o meglio due.

1. La precisione di ciò che viene dedotto non è uguale a quella che si avrebbe calcolandolo, quindi risparmi in qualità.

2. Tutto si basa su apprendimenti fatti a priori che quindi portano comunque ad un determinato lavoro e consumo ma fatto da un sistema e poi condiviso, lo puoi immaginare come se ti dessero un qualcosa di parzialmente prerenderizzato e tu devi "solo" adattarlo al tuo caso particolare. Ovviamente non è così però ti aiuta ad avere una idea del perchè funziona.
DrSto|to16 Settembre 2024, 10:18 #4
Originariamente inviato da: Gyammy85
Piuttosto dov'è la risposta di nvidia a fsr4?


Eh?
Predator_198216 Settembre 2024, 10:29 #5
Originariamente inviato da: Fantapollo
Non credo molto a questa cosa, capisco che il Ceo Nvidia ami infilare la parola IA un po' da tutte le parti.

Sospetto che ci voglia piu' tempo a "dedurre" gli altri 31 pixel con l'IA che a calcolarli


invece ha pienamente ragione, pensare oggi di gestire il calcolo grafico ancora puntando alla potenza computazionale pura è follia...
Notturnia16 Settembre 2024, 10:31 #6
la traduzione è "non riusciamo a fare più troppi utili se non ci comprate schede per AI" ?

AI ovunque e comunque.. che sia meglio o peggio non ci frega niente, basta che compriate le nostre schede..
pengfei16 Settembre 2024, 10:48 #7
Originariamente inviato da: Final50
1. La precisione di ciò che viene dedotto non è uguale a quella che si avrebbe calcolandolo, quindi risparmi in qualità.


Però anche il frame renderizzato calcolandolo è solo una approssimazione della scena che idealmente si vorrebbe rappresentare (fotorealistica), quindi potenzialmente "inventando" i pixel con i modelli generativi si potrebbe anche ottenere un risultato finale migliore rispetto ai metodi classici
coschizza16 Settembre 2024, 10:59 #8
Originariamente inviato da: Gyammy85
Piuttosto dov'è la risposta di nvidia a fsr4?


al risposta al fsr4 nvidia l'ha data nel 2018 cioè 6 anni fa con il dlss mi sa che sei rimasto un po indietro con le tecnologie

comunque basandoci sui fatti visto che il fsr oggi fa schifo a detta di tutti non ho molte speranze per il 4 a meno che non sia un progetto nuovo che parta da 0
Final5016 Settembre 2024, 11:06 #9
Originariamente inviato da: pengfei
Però anche il frame renderizzato calcolandolo è solo una approssimazione della scena che idealmente si vorrebbe rappresentare (fotorealistica), quindi potenzialmente "inventando" i pixel con i modelli generativi si potrebbe anche ottenere un risultato finale migliore rispetto ai metodi classici


Dipende da cosa intendi per fotorealismo... se intendi qualcosa di indistinguibile dalla realtà ma senza pretesa che sia identico all'oggetto dal quale è stato creato si forse è possibile. Ma se pretendi di ricreare un oggetto da uno realmente esistente ma di base ti mancano delle informazioni è impossibile che una IA ti generi perfettamente i dati mancanti.
Gyammy8516 Settembre 2024, 11:35 #10
Originariamente inviato da: coschizza
al risposta al fsr4 nvidia l'ha data nel 2018 cioè 6 anni fa con il dlss mi sa che sei rimasto un po indietro con le tecnologie

comunque basandoci sui fatti visto che il fsr oggi fa schifo a detta di tutti non ho molte speranze per il 4 a meno che non sia un progetto nuovo che parta da 0


Ah ecco mi pareva, c'è già e si chiama dlss4, che prima o poi uscirà

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^