Quote:
Poiché i G-buffer usati come input sono prodotti nativamente sulla GPU, il nostro metodo potrebbe essere integrato più profondamente nei motori di gioco, incrementando l'efficienza e possibilmente avanzando ulteriormente il livello di realismo
|
Sembra una implementazione a più basso livello del DLSS che può avere "conoscenza" delle parti di immagini che sta elaborando, diversamente dal DLSS che lo fa a immagine conclusa e quindi non discriminata nelle sue parti.
Serve però che sia supportato dalle SH, e la vedo dura quando le console manco una moltiplicazione 4x4 riescono a fare in tempo decente.
Forse nel 2025-2026 quando anche AMD ci metterà un pezzo di silicio che può fare più che testurizzare a manetta e poco altro.
Quote:
L'inferenza nel nostro approccio in questa implementazione attualmente non ottimizzata richiede mezzo secondo su una GeForce RTX 3090.
|
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?"
(che fa il paio con: i calcoli RT sono solo calcoli FP e quindi basta avare abbastanza core veloci per eseguirli, non servono gli RT core... peccato che non si sia quantificato il numero e la velocità di questi core per pareggiare le prestazioni di HW dedicato).