Schede video, addio alla 'forza bruta'? DLSS e intelligenza artificiale sono qui per restare
Negli ultimi anni il settore della grafica ha visto l'introduzione di tecnologie di intelligenza artificiale capaci di creare buona parte dell'immagine, andando ad affiancare il rendering nativo. Secondo NVIDIA non si tornerà indietro: il ricorso all'IA sarà sempre maggiore.
di Manolo De Agostini pubblicata il 21 Settembre 2023, alle 07:31 nel canale Schede VideoNVIDIAGeForceAMDRadeonIntelArc
Durante una "tavola rotonda" sul canale Youtube di Digital Foundry incentrata sull'implementazione del DLSS 3.5 in Cyberpunk 2077 (Update 2.0 e Phatom Liberty) si è parlato di diverse cose, tra cui il ruolo del DLSS in futuro e il focus di NVIDIA sul rendering a forza bruta, cioè a risoluzione nativa.
Bryan Catanzaro, VP of Applied Deep Learning Research di NVIDIA, che possiamo definire "la mente" dietro al DLSS, ha dichiarato molto chiaramente - a favore di chi aveva qualche dubbio - che il DLSS e altre soluzioni di IA correlate sono qui per restare, non si tratta di tecnologie pensate per far digerire alle schede video il ray o path tracing in una fase transitoria, ma diventeranno sempre più importanti e centrali in futuro.
Anche se NVIDIA lavorerà per incrementare la forza bruta delle sue GPU in futuro, Catanzaro ritiene che perseguire solo quella strada puntando al rendering a risoluzione nativa non sia la soluzione migliore e più intelligente.
Anzitutto ci sono i vincoli imposti dallo sviluppo dell'hardware, con la difficoltà nell'aumentare sempre e comunque la potenza dei prodotti data dal fatto che ci stiamo avvicinando a limiti che impediscono di perseguire la cosiddetta "Legge di Moore". Catanzaro parla proprio di "morte della Legge di Moore", di conseguenza per avere importanti passi avanti nel settore grafico è necessario ricorrere a tecnologie alternative e l'intelligenza artificiale può essere di grande aiuto.
Catanzaro, in un momento della chiacchierata, arriva a definire il rendering in rasterizzazione tradizionale "fake", falso, un insieme scelte degli sviluppatori che non permettono di mostrare una grafica che sia effettivamente vicina alla realtà. Un punto su cui anche Jakub Knapik - VP Art and Global Art Director di CD Projekt RED - si è detto d'accordo.
E se il ray tracing aiuta a migliorare il realismo dell'immagine, il path tracing sembra essere la via da seguire. Nel caso di Cyberpunk 2077, Knapik afferma che il path tracing sarebbe impossibile da gestire senza tecnologie come il DLSS, non solo in termini prestazionali, ma anche d'immagine finale, in quanto l'IA è in grado di fare scelte più intelligenti rispetto ai vecchi metodi per renderizzare la grafica.
In casa NVIDIA ritengono che DLSS/IA potrebbero persino arrivare a sostituire completamente il rendering tradizionale. Il settore sta infatti prendendo sempre più consapevolezza del fatto che è più veloce introdurre tecnologie complesse partendo dall'analisi di grandi set di dati - la cosiddetta fase di addestramento dell'IA - che mettere a punto da zero algoritmi di rendering tradizionali che la sola forza bruta dell'hardware potrebbe comunque faticare a gestire.
58 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLe strade percorribili sono tre:
- Consumi sempre più elevati
- Calcolo quantistico
- Ottimizzazione software (tra cui DLSS, FSR etc.)
Catanzaro è un genio!
La mente di queste persone farà grande una intera multinazionale poiché ha creduto e investito nelle loro idee. Questo è quello che manca in Italia.il grafene tanto sbandierato non dovrebbe permettere frequenze enormemente più elevate?
Sicuramente manca chi crede nelle idee, ma in Italia mancano anche le persone con idee valide
il grafene tanto sbandierato non dovrebbe permettere frequenze enormemente più elevate?
I nuovi materiali sono sempre sbalorditivi finché rimangono nel laboratorio poi li porti sugli impianti e ti accorgi che forse non è tutto così semplice o economicamente sostenibile
Questo é il problema. Lumen di Unreal ha dato nuova linfa alla rasterizzazione (anche usando un pó di RT) ma il futuro é PT. E magari ci saremmo giá arrivati se invece di usare solo una frazione dei transistor a quello scopo per poter mantenere tutto il carrozzone, ci fossimo buttati a capofitto.
Anzi, ci saremmo giá arrivati se dopo la guerra per i triangoli al secondo, e i pixel al secondo, AMD e nVidia avessero ingaggiato la guerra per i raggi al secondo.
Siccome questo non é successo, il passaggio al PT non é mai avvenuto e si dá la colpa all'algoritmo dimenticando che 25 anni fa c'era chi seriamente sosteneva che calcolare una radice quadrata per ogni pixel non era fattibile e che quindi l'illuminazione per pixel non sarebbe mai stata realtá.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".