GPU Subwarp Interleaving, NVIDIA studia soluzioni per migliorare le prestazioni in ray tracing

GPU Subwarp Interleaving, NVIDIA studia soluzioni per migliorare le prestazioni in ray tracing

In un documento tecnico NVIDIA parla di GPU Subwarp Interleaving, una tecnica che potrebbe migliorare le prestazioni del ray tracing. L'azienda ne analizza punti di forza e debolezza, concludendo che per ora non è applicabile alle architetture attuali, ma forse lo sarà in futuro.

di pubblicata il , alle 17:01 nel canale Schede Video
NVIDIAGeForceRTX
 

Il rendering ibrido che oggi muove i videogiochi più avanzati, in cui alla rasterizzazione si affiancano per alcuni effetti di ray tracing in tempo reale (illuminazione globale, ombre, ecc.), porta a un maggior realismo dell'immagine ma allo stesso tempo le prestazioni ne risentono.

Per questo dapprima NVIDIA (DLSS) e poi AMD (FSR/RSR) - senza dimenticare Intel con XeSS nel prossimo futuro - hanno proposto soluzioni compensative in grado di preservare quanto più la qualità di immagine e restituire un boost prestazionale. Introdotto per la prima volta con le GPU GeForce RTX 2000 nell'ultima parte del 2018, il ray tracing in tempo reale non è una tecnologia statica e come tutte le altre è oggetto di continuo studio per elevarne qualità e minimizzarne l'impatto.

Un documento pubblicato dai ricercatori di NVIDIA a questo indirizzo, intitolato "GPU Subwarp Interleaving", sembra andare in quella direzione. Stando a quanto riportato, si tratta di un "miglioramento architetturale" che sarebbe in grado - in base alle prime prove - di garantire un aumento prestazionale medio del 6,3% (fino al 20%).

Tutto molto bello, almeno in apparenza, ma c'è un però. Il Subwarp Interleaving, scrive NVIDIA, "presenta carenze che ne precludono l'implementazione nel breve termine". Secondo quanto scrivono i ricercatori è necessario attuare alcuni miglioramenti dell'architettura, altrimenti il ritorno concreto potrebbe essere limitato.

"I kernel di raytracing stressano le GPU in tre modi fondamentali: sono molto divergenti, soffrono di scarsa occupazione e i warp (blocchi di thread) stallano in attesa del completamento delle operazioni a lunga latenza", scrive NVIDIA. "Di solito, gli scheduler della GPU possono nascondere gli stalli a lunga latenza passando ad altri warp pronti, ma i kernel di ray tracing spesso hanno pochi warp attivi per occultare la latenza".

"Subwarp Interleaving è una nuova tecnica che punta a ridurre le bolle nella pipeline nei kernel di ray tracing. Quando un'operazione a lunga latenza blocca un warp e lo scheduler dei warp della GPU non può trovare un warp attivo a cui passare, uno scheduler subwarp può invece passare l'esecuzione del warp corrente a un altro subwarp divergente".

Per dimostrare la tecnica NVIDIA ha creato quelle che definisce "estensioni architetturali" a una GPU "simil-Turing" che sfrutta "molte delle caratteristiche inerenti dell'architettura di base per supportare lo scheduling indipendente dei thread. Subwarp Interleaving riduce gli stalli esposti del 10,5%".

I test hanno dimostrato che la tecnica, pur mostrando alcuni interessanti miglioramenti in termini prestazionali (6,3% in media, 20% massimo) in alcuni campi di applicazione del ray tracing, vede purtroppo un "uso ristretto e una complessità del design che ne limitano l'attrattività per le attuali architetture grafiche".

"Tuttavia, l'evoluzione delle richieste da parte delle applicazioni e il loro comportamento possono motivare il futuro esame di approcci di tolleranza alla latenza e mitigazione della divergenza come Subwarp Interleaving".

Subwarp Interleaving è probabilmente solo uno dei tanti progetti su cui Nvidia sta lavorando per migliorare le architetture future nella gestione del ray tracing: non è detto che la sua applicazione diventerà realtà, ma è proprio questo processo di costante studio e analisi di nuove tecniche che permette di arrivare a ottenere prodotti sempre più potenti e innovativi.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
al13526 Gennaio 2022, 19:22 #1
tanto di cappello agli ingegneri nvidia che continuano a lavorare e sfornare innovazioni e miglioramenti a tempo pieno in ambito grafico
CrapaDiLegno26 Gennaio 2022, 20:14 #2
Mentre dall'altra parte brevettano TMU che possono fare anche BVH usando dati in forma di pseudo-texture... ahahah
http://www.freepatentsonline.com/20190197761.pdf

Siamo su due piani di ricerca e sviluppo completamente diversi.
Questo brevetto proposto quasi un anno dopo Turing.

E' ovvio che Nvidia voglia continuare a fare ricerca avanzata sul RT. Sa bene che è il futuro (insieme agli algoritmi basati sull'AI), rispetto all'ormai vetusto raster, e permette di ottenere immagini migliori con meno lavoro da parte degli sviluppatori. Oltre che a permettere migliore scalatura nel tempo (un gioco vecchio potrebbe facilmente essere aggiornato per l'HW nuovo pompando la qualità grafica semplicemente aumentando la qualità del motore raytracing) .
Ovviamente le prestazioni decadono e perciò ogni aiuto in tal senso è una manna: fare 30% in più è praticamente sfornare una nuova generazione di GPU, quindi se lo si fa per ottimizzazione invece che per forza bruta è un gran risparmio in termini di soldi.

Dai Nvidia, hai risparmiato quasi 40 miliardi dall'inutile acquisto di ARM. Puoi concentrarti a spenderli per una R&D migliore. Se vuoi le super mega CPU ARM based te le puoi fare lo stesso, in casa come fa Apple.
davide15527 Gennaio 2022, 06:58 #3
Originariamente inviato da: CrapaDiLegno
Mentre dall'altra parte brevettano TMU che possono fare anche BVH usando dati in forma di pseudo-texture... ahahah
http://www.freepatentsonline.com/20190197761.pdf

Siamo su due piani di ricerca e sviluppo completamente diversi.
Questo brevetto proposto quasi un anno dopo Turing.

E' ovvio che Nvidia voglia continuare a fare ricerca avanzata sul RT. Sa bene che è il futuro (insieme agli algoritmi basati sull'AI), rispetto all'ormai vetusto raster, e permette di ottenere immagini migliori con meno lavoro da parte degli sviluppatori. Oltre che a permettere migliore scalatura nel tempo (un gioco vecchio potrebbe facilmente essere aggiornato per l'HW nuovo pompando la qualità grafica semplicemente aumentando la qualità del motore raytracing) .
Ovviamente le prestazioni decadono e perciò ogni aiuto in tal senso è una manna: fare 30% in più è praticamente sfornare una nuova generazione di GPU, quindi se lo si fa per ottimizzazione invece che per forza bruta è un gran risparmio in termini di soldi.

Dai Nvidia, hai risparmiato quasi 40 miliardi dall'inutile acquisto di ARM. Puoi concentrarti a spenderli per una R&D migliore. Se vuoi le super mega CPU ARM based te le puoi fare lo stesso, in casa come fa Apple.


Volevi dire Ampere semmai.
CrapaDiLegno27 Gennaio 2022, 09:21 #4
Originariamente inviato da: davide155
Volevi dire Ampere semmai.


No, Turing.
E' da Turing (2018) che Nvidia ha le unità RT integrate.
Il brevetto AMD è del 2019.
Questo dimostra come non è vero che AMD stesse già lavorando alle unità RT prima di Nvidia, sia per i tempi, sia per il metodo davvero primitivo di tentare di risolvere il problema.
Il metodo di AMD è un metodo molto semplice che non complica l'architettura ma che ha prestazioni e complicazioni di programmazione diverse da quanto fatto da Nvidia.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^