|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...ng_104276.html
In un documento tecnico NVIDIA parla di GPU Subwarp Interleaving, una tecnica che potrebbe migliorare le prestazioni del ray tracing. L'azienda ne analizza punti di forza e debolezza, concludendo che per ora non è applicabile alle architetture attuali, ma forse lo sarà in futuro. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 8020
|
tanto di cappello agli ingegneri nvidia che continuano a lavorare e sfornare innovazioni e miglioramenti a tempo pieno in ambito grafico
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ 27GR95QE, Headset AR/VR Meta Quest Pro |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
Mentre dall'altra parte brevettano TMU che possono fare anche BVH usando dati in forma di pseudo-texture... ahahah
http://www.freepatentsonline.com/20190197761.pdf Siamo su due piani di ricerca e sviluppo completamente diversi. Questo brevetto proposto quasi un anno dopo Turing. E' ovvio che Nvidia voglia continuare a fare ricerca avanzata sul RT. Sa bene che è il futuro (insieme agli algoritmi basati sull'AI), rispetto all'ormai vetusto raster, e permette di ottenere immagini migliori con meno lavoro da parte degli sviluppatori. Oltre che a permettere migliore scalatura nel tempo (un gioco vecchio potrebbe facilmente essere aggiornato per l'HW nuovo pompando la qualità grafica semplicemente aumentando la qualità del motore raytracing) . Ovviamente le prestazioni decadono e perciò ogni aiuto in tal senso è una manna: fare 30% in più è praticamente sfornare una nuova generazione di GPU, quindi se lo si fa per ottimizzazione invece che per forza bruta è un gran risparmio in termini di soldi. Dai Nvidia, hai risparmiato quasi 40 miliardi dall'inutile acquisto di ARM. Puoi concentrarti a spenderli per una R&D migliore. Se vuoi le super mega CPU ARM based te le puoi fare lo stesso, in casa come fa Apple. Ultima modifica di CrapaDiLegno : 26-01-2022 alle 19:20. |
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Jan 2006
Città: Firenze
Messaggi: 18084
|
Quote:
__________________
Intel i9 12900k@5.2ghz allcore liquid cooled//Corsair Vengeance RGB 2x16gb 3600mhz DDR4//RTX 4090 Strix liquid cooled//Asus Strix Z690 Gaming-A//Samsung 990pro Pciex4.0 2tb//Thermaltake ThoughPower 850w//LG C4 oled 42" 144hz 4k//Aquaero 6XT//Edifier S360DB with Topping Dx3Pro+ |
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
No, Turing.
E' da Turing (2018) che Nvidia ha le unità RT integrate. Il brevetto AMD è del 2019. Questo dimostra come non è vero che AMD stesse già lavorando alle unità RT prima di Nvidia, sia per i tempi, sia per il metodo davvero primitivo di tentare di risolvere il problema. Il metodo di AMD è un metodo molto semplice che non complica l'architettura ma che ha prestazioni e complicazioni di programmazione diverse da quanto fatto da Nvidia. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 08:09.