Redazione di Hardware Upg
26-01-2022, 16:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/gpu-subwarp-interleaving-nvidia-studia-soluzioni-per-migliorare-le-prestazioni-in-ray-tracing_104276.html
In un documento tecnico NVIDIA parla di GPU Subwarp Interleaving, una tecnica che potrebbe migliorare le prestazioni del ray tracing. L'azienda ne analizza punti di forza e debolezza, concludendo che per ora non è applicabile alle architetture attuali, ma forse lo sarà in futuro.
Click sul link per visualizzare la notizia.
tanto di cappello agli ingegneri nvidia che continuano a lavorare e sfornare innovazioni e miglioramenti a tempo pieno in ambito grafico
CrapaDiLegno
26-01-2022, 19:14
Mentre dall'altra parte brevettano TMU che possono fare anche BVH usando dati in forma di pseudo-texture... ahahah
http://www.freepatentsonline.com/20190197761.pdf
Siamo su due piani di ricerca e sviluppo completamente diversi.
Questo brevetto proposto quasi un anno dopo Turing.
E' ovvio che Nvidia voglia continuare a fare ricerca avanzata sul RT. Sa bene che è il futuro (insieme agli algoritmi basati sull'AI), rispetto all'ormai vetusto raster, e permette di ottenere immagini migliori con meno lavoro da parte degli sviluppatori. Oltre che a permettere migliore scalatura nel tempo (un gioco vecchio potrebbe facilmente essere aggiornato per l'HW nuovo pompando la qualità grafica semplicemente aumentando la qualità del motore raytracing) .
Ovviamente le prestazioni decadono e perciò ogni aiuto in tal senso è una manna: fare 30% in più è praticamente sfornare una nuova generazione di GPU, quindi se lo si fa per ottimizzazione invece che per forza bruta è un gran risparmio in termini di soldi.
Dai Nvidia, hai risparmiato quasi 40 miliardi dall'inutile acquisto di ARM. Puoi concentrarti a spenderli per una R&D migliore. Se vuoi le super mega CPU ARM based te le puoi fare lo stesso, in casa come fa Apple.
davide155
27-01-2022, 05:58
Mentre dall'altra parte brevettano TMU che possono fare anche BVH usando dati in forma di pseudo-texture... ahahah
http://www.freepatentsonline.com/20190197761.pdf
Siamo su due piani di ricerca e sviluppo completamente diversi.
Questo brevetto proposto quasi un anno dopo Turing.
E' ovvio che Nvidia voglia continuare a fare ricerca avanzata sul RT. Sa bene che è il futuro (insieme agli algoritmi basati sull'AI), rispetto all'ormai vetusto raster, e permette di ottenere immagini migliori con meno lavoro da parte degli sviluppatori. Oltre che a permettere migliore scalatura nel tempo (un gioco vecchio potrebbe facilmente essere aggiornato per l'HW nuovo pompando la qualità grafica semplicemente aumentando la qualità del motore raytracing) .
Ovviamente le prestazioni decadono e perciò ogni aiuto in tal senso è una manna: fare 30% in più è praticamente sfornare una nuova generazione di GPU, quindi se lo si fa per ottimizzazione invece che per forza bruta è un gran risparmio in termini di soldi.
Dai Nvidia, hai risparmiato quasi 40 miliardi dall'inutile acquisto di ARM. Puoi concentrarti a spenderli per una R&D migliore. Se vuoi le super mega CPU ARM based te le puoi fare lo stesso, in casa come fa Apple.
Volevi dire Ampere semmai.
CrapaDiLegno
27-01-2022, 08:21
Volevi dire Ampere semmai.
No, Turing.
E' da Turing (2018) che Nvidia ha le unità RT integrate.
Il brevetto AMD è del 2019.
Questo dimostra come non è vero che AMD stesse già lavorando alle unità RT prima di Nvidia, sia per i tempi, sia per il metodo davvero primitivo di tentare di risolvere il problema.
Il metodo di AMD è un metodo molto semplice che non complica l'architettura ma che ha prestazioni e complicazioni di programmazione diverse da quanto fatto da Nvidia.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.