PDA

View Full Version : Da NVIDIA Optix, engine ray-tracing per GPU


Redazione di Hardware Upg
05-08-2009, 11:49
Link alla notizia: http://www.hwupgrade.it/news/skvideo/da-nvidia-optix-engine-ray-tracing-per-gpu_29790.html

Al Siggraph NVIDIA annuncia la prossima distribuzione di un engine ray-tracing interattivo che utilizza la potenza di calcolo delle GPU

Click sul link per visualizzare la notizia.

Vince 15
05-08-2009, 12:11
E' solo una questione di tempo... prima o poi il ray-tracing in real-time arriverà. Veramente l'hanno già fatto, anche senza hardware dedicato... e non c'è motivo per cui non arrivi anche per noi comuni mortali. Viva l'ottimismo. :D

Wolfhask
05-08-2009, 12:24
Arriverà...prima o poi ma arriverà son sempre più veloci ste schede xd

tony73
05-08-2009, 12:26
Il ray tracing... mi ricordo nei primi anni '90 veniva nominato spesso a vanvera.

atomo37
05-08-2009, 12:28
è così ancora oggi :D

xxxyyy
05-08-2009, 12:29
Ray-tracing :sbav:

simonk
05-08-2009, 12:52
Bravissimi i miei ragazzi dell'Nvidia, ora almeno devo racimulare 1000 euro per prendere una nuova scheda, o meglio un "quadro"

Masamune
05-08-2009, 12:55
figo! :eek:

raytracing 4 all!!!!

dimdar
05-08-2009, 14:58
Secondo me aspettano di vedere come va la CPU Intel che vanta di avere integrata la GPU con codice x86 per accelerare proprio il ray-tracing. Se prende campo hanno già a disposizione tutto, basta metterlo dentro al successore della GT300

II ARROWS
05-08-2009, 15:57
Ovvio che solo per applicazioni professionali, sarà anche interattivo ma difficilmente farà 20FPS con la jungla di Crysis...

maxfl
05-08-2009, 16:00
Sebbene, come riportato dalla news, questa caratteristica sia al momento solo per le quadro, se e quando arriverà per i giochi come sarà il salto qualitativo della resa grafica rispetto a quella a cui siamo abituati ora? Ci sarà un avvicinamento alla grafica "fotorealistica" in tempo reale?
Lo chiedo perché riguardando i filmati di introduzione di WoW mi sono detto 'magari fosse così la grafica'

LCol84
05-08-2009, 16:30
La grafica dovrebbe essere proprio come i filmati prerenderizzati che vedi nei giochi ;)

coschizza
05-08-2009, 16:34
Secondo me aspettano di vedere come va la CPU Intel che vanta di avere integrata la GPU con codice x86 per accelerare proprio il ray-tracing. Se prende campo hanno già a disposizione tutto, basta metterlo dentro al successore della GT300

il concetto "basta metterlo dentro al successore " non è esattamente cosi

non hanno mica fatto un hardware nuovo ma solo un driver e un framework applicativo sviluppato appositamente.

quindi la differenza di implementazione e performance tra questo e la futura gpu intel non sono paragonabili

tra questo e avere un supporto nativo hardware passa acqua sotto i poti

METATHRON
05-08-2009, 17:47
su ebay una quadro bella nuova la si trova a 1/4 del prezzo di listino...dall'irlanda....dall'ighilterra....te le tirano dietro.

miao

robertogl
05-08-2009, 18:50
La grafica dovrebbe essere proprio come i filmati prerenderizzati che vedi nei giochi ;)

se non sbaglio,tecnicamente,si potrebbe usare questo engine e far aumentare il dettaglio all'aumentare della potenza delle schede,quindi teoricamente si potrebbe avere il fotorealismo anche subito,ma a fps ridicoli,vicini allo 0 :fagiano:

gabi.2437
05-08-2009, 21:05
Potrebbe tornare utile per programmi come Maxwell no?

Marco rossi
05-08-2009, 21:16
Alcune VGA Geforce con un firmware moddato si trasforma in una Quadro proprio come le Ati...:D
Quindi si potrebbe anche evitare di comprare proprio una quadro!

JackZR
05-08-2009, 21:34
Secondo me aspettano di vedere come va la CPU Intel che vanta di avere integrata la GPU con codice x86 per accelerare proprio il ray-tracing. Se prende campo hanno già a disposizione tutto, basta metterlo dentro al successore della GT300
Secondo me molto semplicemente nVidia si prepara ad affogare Intel nel suo stesso brodo (e AMD mi sa che gli farà un :ciapet: ancora iù grosso visto che dispone sia di CPU che di GPU) :asd:

mentalrey
06-08-2009, 05:36
Maxwell non e' un Raytracer, usa un rendering che parte
prorpio dalla lampada e calcola i fotoni emessi cercando di simulare
proprio fisicamente la realta'.

il raytracer lavora al contrario di come accade in natura, "simulando" una luce
ma partendo a calcolare dal punto di osservazione e non dalla lampada,
quindi bisogna poi immettere global illumination e mille altre cose per
rendere la scena credibile.

Detto questo, trovo comunque il raytracing un approccio piu' comodo e credibile
rispetto all'uso delle directX.
Almeno non si e' legati ad una libreria di rasterizzazione propietaria
in cui ci saranno miglioramenti solo se la casa in questione decide che da oggi
si possono usare nuovi effetti.

valesavex
06-08-2009, 07:02
La cosa non deve stupire troppo: nVidia anni fa acquistò la casa produttrice di Entropy (Exluna), un sistema di rendering in GI/Radiosity e poi ne uscì con il famoso 'Gelato' che però non ebbe la diffusione sperata.
Più recentemente ha acquistato la Mental Images, che come tanti sanno produce Mental Ray che è integrato in 3dsMax, Maya, Softimage etc etc...questa acquisizione ha portato a Mental Mill prima (shader in real time) e ora si spera a Raytracing via GPU.
E' la logica conseguenza di quell'acquisto!