View Single Post
Old 13-05-2021, 08:59   #10
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Poiché i G-buffer usati come input sono prodotti nativamente sulla GPU, il nostro metodo potrebbe essere integrato più profondamente nei motori di gioco, incrementando l'efficienza e possibilmente avanzando ulteriormente il livello di realismo
Sembra una implementazione a più basso livello del DLSS che può avere "conoscenza" delle parti di immagini che sta elaborando, diversamente dal DLSS che lo fa a immagine conclusa e quindi non discriminata nelle sue parti.

Serve però che sia supportato dalle SH, e la vedo dura quando le console manco una moltiplicazione 4x4 riescono a fare in tempo decente.
Forse nel 2025-2026 quando anche AMD ci metterà un pezzo di silicio che può fare più che testurizzare a manetta e poco altro.

Quote:
L'inferenza nel nostro approccio in questa implementazione attualmente non ottimizzata richiede mezzo secondo su una GeForce RTX 3090.
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?"

(che fa il paio con: i calcoli RT sono solo calcoli FP e quindi basta avare abbastanza core veloci per eseguirli, non servono gli RT core... peccato che non si sia quantificato il numero e la velocità di questi core per pareggiare le prestazioni di HW dedicato).

Ultima modifica di CrapaDiLegno : 13-05-2021 alle 09:12.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
 
1