View Full Version : Slinter Cell 3 + S.M. 3.0 (HDR)
nonikname
19-02-2005, 13:37
Posso iniziare dicendo che ultimamente ho sentito molte volte che quando i programmatori useranno gli shaders 3.0 , la serie 6 nvidia sarà ormai non all'altezza .... :p
Grazie al demo di Chaos Teory possiamo cominciare a far lavorare ufficialmente (farcry 1.3 docet) quella parte del die mai "riscaldato" prima d'ora..
http://img211.exs.cx/img211/3910/splintercell320050219114415205.th.jpg (http://img211.exs.cx/my.php?loc=img211&image=splintercell320050219114415205.jpg)http://img211.exs.cx/img211/8695/splintercell320050219114439046.th.jpg (http://img211.exs.cx/my.php?loc=img211&image=splintercell320050219114439046.jpg)
Ora vi posto qualche immagine presa con fraps ... so che i FW 67.66 hanno qualche problema con l'AA , ma sembra che la serie 70 abbia risolto tutto ciò (non li ho messi solo per la lettura sballata del sensore di temp..)
Tutte le immagini sono state prese con i dettagli al max e attivi , a 1024x768 AA4x e AF8x
http://img63.exs.cx/img63/236/splintercell320050219114703643.th.jpg (http://img63.exs.cx/my.php?loc=img63&image=splintercell320050219114703643.jpg) http://img63.exs.cx/img63/6172/splintercell320050219114747041.th.jpg (http://img63.exs.cx/my.php?loc=img63&image=splintercell320050219114747041.jpg) http://img221.exs.cx/img221/8356/splintercell320050219114815044.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219114815044.jpg)
http://img221.exs.cx/img221/1982/splintercell320050219120412734.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219120412734.jpg) http://img221.exs.cx/img221/8063/splintercell320050219120511711.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219120511711.jpg) http://img221.exs.cx/img221/7774/splintercell320050219121140939.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219121140939.jpg)
http://img221.exs.cx/img221/5027/splintercell320050219121831920.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219121831920.jpg) http://img221.exs.cx/img221/5998/splintercell320050219122925654.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219122925654.jpg) http://img221.exs.cx/img221/2413/splintercell320050219123720205.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219123720205.jpg)
http://img221.exs.cx/img221/9536/splintercell320050219124516859.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219124516859.jpg) http://img221.exs.cx/img221/9843/splintercell320050219125759628.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219125759628.jpg) http://img221.exs.cx/img221/7861/splintercell320050219125721074.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219125721074.jpg)
Smanettando con i settaggi , si scopre che l'ammazza prestazioni è l'HDR , ma con tutto abilitato e al Max i frames/sec si mantengono molto stabili sui 30-35Fps (55-70 senza HDR) naturalmente con AA4x e AF8x , ma nonostante ciò il gioco è fluidissimo ..(grazie anche alla visuale in terza persona)
P.S. Oltre alla grafica da incubo , il sonoro è allo stesso livello : se devo essere sincero è quanto di più spettacolare abbia sentito fin'ora..
Bottom line : Unico appunto , gli occhi di Sam : sono quasi comici :D
L'Hdr non lo stai usando con l'AA vero?
Le due cose non vanno attivate insieme.
nonikname
19-02-2005, 14:28
Originariamente inviato da R@nda
L'Hdr non lo stai usando con l'AA vero?
Le due cose non vanno attivate insieme.
Non credo che sia renderizzato come in farcry , ma adesso mi hai messo la pulce nell'orecchio...
Adesso provo e posto...
P.S. l'engine utilizzato è sempre l'unreal2 pesantemente modificato , quindi è solo un'assaggio di cosa si può fare con questa serie 6...
Originariamente inviato da nonikname
Non credo che sia renderizzato come in farcry , ma adesso mi hai messo la pulce nell'orecchio...
Adesso provo e posto...
P.S. l'engine utilizzato è sempre l'unreal2 pesantemente modificato , quindi è solo un'assaggio di cosa si può fare con questa serie 6...
In alcuni punti è molto bello (vedendo le foto,non ho il gioco) in altri sembra FarCry.
Cmq seguendo il Thread di FarCry ho sempre visto che Hdr e AA sono incompatibili tra loro.....ma di più non so.
Non so se dipende dall'implementazione dell'Hdr nel gioco o se dipende proprio dall'Hdr in se.:confused:
nonikname
19-02-2005, 14:40
http://img224.exs.cx/img224/7527/splintercell320050219152935076.th.jpg (http://img224.exs.cx/my.php?loc=img224&image=splintercell320050219152935076.jpg) http://img224.exs.cx/img224/2299/splintercell320050219153003874.th.jpg (http://img224.exs.cx/my.php?loc=img224&image=splintercell320050219153003874.jpg)
A quanto pare avevi ragione ... :D
Edit : Con Farcry ho avuto modo di scoprire che AA e HDR non sono ottimi amici , ma dato che nei settaggi di Chaos Teory si può attivare l'AA e l'HDR insieme , ho pensato che fosse stato usato in altro modo , permettendo cioè di beneficiare di tale feature anche a chi ha solo HW DX9b..(ATI e NV FX in su)
Ah quindi proprio in automatico se attivi l'Hdr non attiva l'AA?
Se non altro guadagni in Fps no?:D (sempre che valga la pena tenere attivo l'Hdr visivamente).
Bhe dalle immagini che hai postato è evidente che l'aa e l'hdr non sono compatibili..............hai visto le scalettature nonostante tu l'avessi attivato?
Può darsi che questo ti ha fatto perdere anche un opò di prestazioni......su gmc dicevano che con i dettagli al massimo ci si gioca bene anche con una fx 5600:confused:
nonikname
19-02-2005, 14:53
Originariamente inviato da museman
Bhe dalle immagini che hai postato è evidente che l'aa e l'hdr non sono compatibili..............hai visto le scalettature nonostante tu l'avessi attivato?
Può darsi che questo ti ha fatto perdere anche un opò di prestazioni......su gmc dicevano che con i dettagli al massimo ci si gioca bene anche con una fx 5600:confused:
A 1024x768 con AA4x e AF8x HDR on e tutti i settaggi al max , il gioco è molto stabile ..ma di rado supera i 45FPS !!!
Mentre con gli stessi settaggi di prima , ma con HDR off , le prestazioni aumentano molto: 60-80FPS di media...
Però (c'è sempre un però) , l'HDR restituisce al gioco un'atmosfera completamente differente : più immersiva e coinvolgente ...(dimenticatevi Farcry : qui è calibrata alla perfezione)
Vedere le due cose insieme sarebbe stato impagabile , ma come al solito , nella vita (reale e ludica) non si può avere tutto :(
nonikname
19-02-2005, 14:58
Originariamente inviato da R@nda
Ah quindi proprio in automatico se attivi l'Hdr non attiva l'AA?
Se non altro guadagni in Fps no?:D (sempre che valga la pena tenere attivo l'Hdr visivamente).
E' questo che mi ha fatto cadere nel tranello : dai settaggi puoi attivare sia AA che HDR ...
Mentre ho letto su un forum che con la serie 70 (forceware) , l'AA funzionava anche con l'HDR attivato...
Ma si sa , sui forum ci posta chiunque :D : l'unica è provare sti driver.... (farò anche questo sforzo , anzi , lo farà mia moglie a sopportarmi ;) )
In effetti gia dalle immagini che hai postato si vede che l'impatto e molto migliore con hdr attivo e aa off............
A proposito dicevano anche che la Serie 9700 e succesive non sarebbero state in grado di far girare i giochi dx 9 e sappiamo tutti come è andata
nonikname
19-02-2005, 15:35
Originariamente inviato da museman
In effetti gia dalle immagini che hai postato si vede che l'impatto e molto migliore con hdr attivo e aa off............
A proposito dicevano anche che la Serie 9700 e succesive non sarebbero state in grado di far girare i giochi dx 9 e sappiamo tutti come è andata
Beh , quello che ultimamente si sente sul forum , anche dai cosiddetti bene informati è che la 6800ultra sarà vecchia e non in grado di far girare titoli sm3 quando usciranno ....
Perciò mi è sembrato quantomeno doveroso , portare all'attenzione di tali individui il primo titolo ufficiale che trae giovamento da tali feature...
Tengo a precisare che data la facilità con cui si può modificare un engine nato per le DX 8.1 (unreal engine 2) e uno per le DX9b (farcry sandbox) la conclusione mi pareva scontata anche mesi fa , ma se prima era ottimismo ora diviene certezza....
Ora non resta che aspettare i veri engine DX9c SM3.0 : stalker - F.E.A.R. - Oblivion - Fek engine :D (BW2) e i vari outsider di cui non ne ipotizziamo nemmeno l'esistenza...
nonikname
19-02-2005, 17:26
Edit: In negozio ho provato questa demo su un XP 2600+ 512mbram e Rad9550..
Nei settaggi video non c'è la possibilità di modificare le impostazioni shader : rimane Shaders 1.1 fisso , ma sono riusciti ugualmente a ricreare gli stessi effetti di luci sulle superfici (simil shader2.0) in modo sbalorditivo ... ovvio che ci sono tutte le limitazioni del caso , ma il risultato è incredibile...
Il gioco con la config su descritta gira "onestamente" bene a 1024x768 , con una fluidità impeccabile ... quindi ottimo lavoro sulla scalabilità dell'engine da parte dei programmatori..
Ora non mi rimane che provarlo con una radeon più evoluta (9700 x8xx) per vedere cosa offre il profilo SM2.0 ...(e se è attivabile..)
Originariamente inviato da nonikname
Edit: In negozio ho provato questa demo su un XP 2600+ 512mbram e Rad9550..
Nei settaggi video non c'è la possibilità di modificare le impostazioni shader : rimane Shaders 1.1 fisso , ma sono riusciti ugualmente a ricreare gli stessi effetti di luci sulle superfici (simil shader2.0) in modo sbalorditivo ... ovvio che ci sono tutte le limitazioni del caso , ma il risultato è incredibile...
Il gioco con la config su descritta gira "onestamente" bene a 1024x768 , con una fluidità impeccabile ... quindi ottimo lavoro sulla scalabilità dell'engine da parte dei programmatori..
Ora non mi rimane che provarlo con una radeon più evoluta (9700 x8xx) per vedere cosa offre il profilo SM2.0 ...(e se è attivabile..)
Dove l'hai trovata la demo di SC?p2p?
Visto che hai un nvidia come me degli ultimi driver che sono usciti quali sono i più performanti?Io adesso sto con i 66.93.
andreamarra
20-02-2005, 16:38
interessante.... domandina: ma gli shader 3.0 utilizzati nel gioco a parte avere una velocità di renderizzazione superiore ai 2.0 sono qualitativamente identici, vero?
Oppure il codice degli shader in questo gioco saturano complemante il numero massimo disponibile di istruzioni di un PS2.0?? [quindi con il risultato di avere uno shader migliore qualitativamente per resa?]
andreamarra
20-02-2005, 16:58
Originariamente inviato da nonikname
Beh , quello che ultimamente si sente sul forum , anche dai cosiddetti bene informati è che la 6800ultra sarà vecchia e non in grado di far girare titoli sm3 quando usciranno ....
Perciò mi è sembrato quantomeno doveroso , portare all'attenzione di tali individui il primo titolo ufficiale che trae giovamento da tali feature...
Tengo a precisare che data la facilità con cui si può modificare un engine nato per le DX 8.1 (unreal engine 2) e uno per le DX9b (farcry sandbox) la conclusione mi pareva scontata anche mesi fa , ma se prima era ottimismo ora diviene certezza....
Ora non resta che aspettare i veri engine DX9c SM3.0 : stalker - F.E.A.R. - Oblivion - Fek engine :D (BW2) e i vari outsider di cui non ne ipotizziamo nemmeno l'esistenza...
Guarda, io ero uno di questi individui. Cioè a ritenere che l'uscita degli shader 3.0 era una mossa prettamente commerciale perchè a conti fatti non si avrebbero avuto differenze visive ma solo velocistiche (che non è una cosa cattiva, anzi).
Infatti partivo dal presupposto che gli shader 3.0 differiscono a livello prestazionale dai 2.0, e che a livelli qualittivi non c'erano differenze di sorta.
Per questo ho sempre pensato che soltanto se le istruzioni dei 3.0 (che si saturano con moooolte più istruzioni dei normali 2.0) fossero state tanto lunghe da non essere replicabile da un ps2.0 (a livello di istruzioni) allora a livello qualitativo ci sarebbero state differenze.
Ma leggendo in giro mi pare che neanche nell'Unreal 3 engine gli shader 3.0 avrebbero avuto una lunghezza di istruzioni tali da non poter essere renderizzati con i normali 2.0.
Di conseguenza, ho ritenuto che per un paio di anni gli shader 3.0 non sarebbero stati "necessari" in quanto sarebbero stati replicabili con i 2.0. Una volta infatti che il numero di istruzioni dei 3.0 sarebbe stato eccessivo per i 2.0, allora l'architettura che funziona in 3.0 avrebbe avuto grandi vantaggi non solo a livello prestazionale ma anche qualitativo. Ma nel frattempo (forse anni, considerando il tempo di uscita dei giochi full DX9, molto dopo le schede DX9) i giochi sarebbero diventati probabilmente tanto evoluti ed esosi che il divario tra uno shader 3.0 e un 2.0 ci sarebbe stato, ma che probabilmente la potenza di calcolo di queste schede 3.0 non sarebbe stata più sufficiente.
Ovvio che se la Ati avesse avuto più agganci avrebbe per qualche tempo messo da parte i 3.0 facendo puntare i programmatori sui 2.0B. Ma d'altra parte sia la più semplice compilazione dei 3.0 rispetto agli altri shader, sia la maggior forza persuatrice di nvidia per le SH stanno facilitando e di molto lo shader model 3.0.
Ma questo era un mio discorso teorico dei primi periodi, quando non mi fidavo ancora molto dell'NV40 ricordando la tristezza dell'FX.
Detto questo, considerando il supporto a questi nuovi shader, considerando effetti HDR che ati non supporta a causa dei 24 bit di precisione, considerando che alcuni titoli sfruttano ombre soft per nvidia e non per ati (vedi Riddick) e considerando inoltre come si sta muovendo il mercato... una NV40 o successiva sarà il mio prossimo acquisto. Sempre che nei prossimi mesi ati non esce una scheda 3.0 ancora più performante e a 32bit di fp. ma in questo caso, vedrò anche che fa nvidia (che, lo ripeto, con la NV40 mi ha sbalordito e non poco):
:)
Originariamente inviato da andreamarra
interessante.... domandina: ma gli shader 3.0 utilizzati nel gioco a parte avere una velocità di renderizzazione superiore ai 2.0 sono qualitativamente identici, vero?
Oppure il codice degli shader in questo gioco saturano complemante il numero massimo disponibile di istruzioni di un PS2.0?? [quindi con il risultato di avere uno shader migliore qualitativamente per resa?]
La qualità è identica con entrambi gli shader model ;)
andreamarra
20-02-2005, 17:03
Originariamente inviato da lowenz
La qualità è identica con entrambi gli shader model ;)
lo chiedevo semplicemente per cercare di spiegare il concetto fumoso e complesso che ho poi spiegato sotto :D
se leggi capisci perchè l'ho chiesto, e se ho detto stronzate fammelo notare :)
Lo shader model non influenza la qualità, ma la capacità o meno di fare determinate operazioni in x istruzioni :)
Infatti anche NV30 poteva lavorare a 32 bit però supportava solo S.M. 2 :)
Da chi li ha fatti (:D), se volete leggervi le caratteristiche:
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/programmingguide/hlslshaders/shadermodel3/shadermodel3.asp
Athlon 64 3000+
20-02-2005, 19:46
Io sinceramente devo capire ancora l'utilità dello shader model 3.0 dato che per me rimane solo una manovrà pubblicitaria.
Io la 6800Gt non la ho presa di certo per lo shader model 3.0
Originariamente inviato da Athlon 64 3000+
Io sinceramente devo capire ancora l'utilità dello shader model 3.0 dato che per me rimane solo una manovrà pubblicitaria.
Io la 6800Gt non la ho presa di certo per lo shader model 3.0
http://www.elitebastards.com/page.php?pageid=4136&head=1&comments=1
Cmq è una cosa che soprattutto facilita la vita a chi gli shader li progetta/programma/ottimizza ;)
Quella che aumenta infatti è la PROGRAMMABILITA', non tanto l'efficienza :)
nonikname
21-02-2005, 11:51
Originariamente inviato da lowenz
La qualità è identica con entrambi gli shader model ;)
Giusto per torglierci lo "sfizio" , mi posti un'immagine con gli shader 2.0 ??
Io , ti ripeto , ho visto solo il gioco su NV40 e R9550 , e le opzioni settabili su quest'ultima erano solo SM1.1 ...
Mi confermi allora che HDR , tone mapping , parallax mapping e soft shadows si possono abilitare anche con lo SM2.0 ??
nonikname
21-02-2005, 12:00
Originariamente inviato da lowenz
http://www.elitebastards.com/page.php?pageid=4136&head=1&comments=1
Cmq è una cosa che soprattutto facilita la vita a chi gli shader li progetta/programma/ottimizza ;)
Quella che aumenta infatti è la PROGRAMMABILITA', non tanto l'efficienza :)
What does this mean for gamers?
The feature set of Pixel Shader 3.0 does also allow for some nice new visual effects of note - Mainly the ability to use floating point values for texture filtering and frame buffer blending. In particular, frame buffer blending can allow for a realistic looking 'motion blur' effect (brings back memories of 3Dfx's T-Buffer, doesn't it?), and floating point textures should improve the look of effects such as HDR (High Dynamic Range) rendering - An effect that we've already seen on PS 2.0 hardware in Half-Life 2, now taken to a new level.
So, to sum up, PS 3.0 is definitely a big step forward from a hardware and developer point of view, while still offering some interesting new effects for all the eye-candy lovers. As with all new graphics technology, the real question marks are over how much (and how quickly) the features will be brought into use, and what the exact performance ramifactions will be - There is a possibility that the first generation of 3.0 shader compliant hardware will be nothing more than a 'checkbox feature' if performance isn't good enough. Again, we shall have to wait and see.
Shader Model 3.0 - What's it all about? (http://www.elitebastards.com/page.php?pageid=4136&head=1&comments=1) by Hanners on 03/31/04 at 06:25am (stesso tuo link)
Edit : sorry , sono stato senza ADSL tutto sabato e domenica...(Telecom di ç°é°§§°)
La qualità VISIVA dipende unicamente dalla profondità in bit usata per il processing: su NV30 (pur non essendo SM3 compliant) e NV40 (SM3 compliant) la massima è sempre e comunque 32 bit.
Poi c'è la questione "HDR, tone mapping , parallax mapping e soft shadows": vero, ma queste cose NON fanno parte di uno SHADER MODEL: in SM3 si implementano più facilmente, ma nessuno ti impedisce di implementarle in SM2.
Io sto parlando assolutamente in generale cmq, non mi riferisco a Splinter Cell, non l'ho programmato io :p
Se i programmatori non hanno previsto le feature da te citate nel path di rendering SM2.....lamentati con loro :D
Per l'HDR, che è il problema più spinoso forse in termini qualitativi, non c'è mica solo l'implementazione supportata da Nvidia, ne esistono tanti tipi!
Se non sbaglio Nvidia ha scelto di supportare questa:
http://www.openexr.com/
"Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels. The 16-bit floating-point format, called "half", is compatible with the half data type in NVIDIA's Cg graphics language and is supported natively on their new GeForce FX and Quadro FX 3D graphics solutions."
Vedi, "va" anche sulle FX questo tipo di HDR ;)
scusate l'ignoranza totale... ma cos'è questo HDR?? :D
Wela, paisà :D
HDR=High Dynamic Range
Range Dinamico Elevato: vuol dire che puoi rappresentare meglio tutta la gamma dei colori, avendo più valori a disposizione.
Tramite HDR puoi ottenere migliori effetti di blooming, che poi sono quelli che tutti chiamano impropriamente HDR :)
Il blooming puoi farlo in tanti modi, chiedete a Fek ;)
ok, grazie compaesano...! ma come si fa ad attivare o disattivare...? sempre ke si possa fare con una ti4200.... :(
Originariamente inviato da gallo85
ok, grazie compaesano...! ma come si fa ad attivare o disattivare...? sempre ke si possa fare con una ti4200.... :(
Sulla 4200 non penso sia possibile :(
Cmq per chi vuole approfondire le differenze fra gli Shader Model:
http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx
Originariamente inviato da nonikname
A quanto pare avevi ragione ... :D
Edit : Con Farcry ho avuto modo di scoprire che AA e HDR non sono ottimi amici , ma dato che nei settaggi di Chaos Teory si può attivare l'AA e l'HDR insieme , ho pensato che fosse stato usato in altro modo , permettendo cioè di beneficiare di tale feature anche a chi ha solo HW DX9b..(ATI e NV FX in su)
Se fa HDR non puo' attivare FSAA. E' un limite fisico dell'hardware che non puo' essere aggirato in alcun modo.
Originariamente inviato da fek
Se fa HDR non puo' attivare FSAA. E' un limite fisico dell'hardware che non puo' essere aggirato in alcun modo.
E se si forzasse il vecchio rozzo pesante supersampling per l'FSAA invece del multisampling....
Originariamente inviato da lowenz
E se si forzasse il vecchio rozzo pesante supersampling per l'FSAA invece del multisampling....
In quel caso va... a due frame al secondo, ma va :D
Originariamente inviato da fek
In quel caso va... a due frame al secondo, ma va :D
Beh qualcuno ci provi allora! :)
Dumah Brazorf
21-02-2005, 22:50
Originariamente inviato da nonikname
Giusto per torglierci lo "sfizio" , mi posti un'immagine con gli shader 2.0 ??
Non credo sia possibile, il gioco implementa solo SM1.1 e 3.0, con tanti cari saluti da casa nVidia...
http://www.rage3d.com/board/showthread.php?t=33804528&page=6&pp=30
ora vediamo come va con la scheda in sign :cool:
In effeti sulla mia 9800 pro mi applica gli shader 1.1 senza la possibilità di cambiarli.................mi sa che stavolta nvidia abbia pagato bene quelli della ubisoft:mad:
Originariamente inviato da museman
In effeti sulla mia 9800 pro mi applica gli shader 1.1 senza la possibilità di cambiarli.................mi sa che stavolta nvidia abbia pagato bene quelli della ubisoft:mad:
è un demo ;)
Però tocca dire che il risultato finale è sbalorditivo.....non credevo che si potessero fare cose simili com gli shader 1.1 (anche se ho i miei dubbi che quelli siano gli 1.1...a tratti sembra meglio di far cry come effetti:confused: )
Originariamente inviato da lowenz
è un demo ;)
E perchè mettere gli 1.1 e i 3.0 ma non quelli 2.0?Comunque alla fine ho visto che il risultato, aparte l'hdr, è identico a quello degli screen postati ad inizio thread
cmq da screen non rende proprio, bisogna vederlo dal vivo per capire che è uno spettacolo :eek:
http://img233.exs.cx/img233/5702/splintercell3018yo.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3018yo.jpg) http://img233.exs.cx/img233/8721/splintercell3060lb.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3060lb.jpg)
http://img233.exs.cx/img233/1593/splintercell3146eu.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3146eu.jpg) http://img233.exs.cx/img233/7986/splintercell3211fv.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3211fv.jpg)
http://img233.exs.cx/img233/6546/splintercell3221nx.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3221nx.jpg) http://img233.exs.cx/img233/1290/splintercell3231gf.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3231gf.jpg)
http://img233.exs.cx/img233/4945/splintercell3246bc.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3246bc.jpg) http://img233.exs.cx/img233/8569/splintercell3258ue.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3258ue.jpg)
http://img233.exs.cx/img233/1258/splintercell3297sz.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell3297sz.jpg) http://img166.exs.cx/img166/8779/splintercell3303kl.th.jpg (http://img166.exs.cx/my.php?loc=img166&image=splintercell3303kl.jpg)
http://img166.exs.cx/img166/1126/splintercell3357mr.th.jpg (http://img166.exs.cx/my.php?loc=img166&image=splintercell3357mr.jpg) http://img166.exs.cx/img166/6083/splintercell3360jc.th.jpg (http://img166.exs.cx/my.php?loc=img166&image=splintercell3360jc.jpg)
Comunque l'applicazione di questo hdr tramite schede nvidia è un po' una cazzata...perchè se uno lo attiva le prestazioni decadono ed il gioco non dico che sia ingiocabile, ma non è fluido.Infatti se si capita vicino ad una fonte di luce e la si spegne i frame schizzano verso l'alto ed il gioco diventa fluidissimo al massimo dettaglio.
trippuma
22-02-2005, 19:24
Originariamente inviato da nonikname
http://img224.exs.cx/img224/7527/splintercell320050219152935076.th.jpg (http://img224.exs.cx/my.php?loc=img224&image=splintercell320050219152935076.jpg) http://img224.exs.cx/img224/2299/splintercell320050219153003874.th.jpg (http://img224.exs.cx/my.php?loc=img224&image=splintercell320050219153003874.jpg)
A quanto pare avevi ragione ... :D
Edit : Con Farcry ho avuto modo di scoprire che AA e HDR non sono ottimi amici , ma dato che nei settaggi di Chaos Teory si può attivare l'AA e l'HDR insieme , ho pensato che fosse stato usato in altro modo , permettendo cioè di beneficiare di tale feature anche a chi ha solo HW DX9b..(ATI e NV FX in su)
Mi potresti mandare il link per scaricare la demo di splinter cell chaos theory per favore? Non la trovo neanche sul sito della ubi. Bo. Ciao e grazie in anticipo.
nonikname
23-02-2005, 11:43
Originariamente inviato da trippuma
Mi potresti mandare il link per scaricare la demo di splinter cell chaos theory per favore? Non la trovo neanche sul sito della ubi. Bo. Ciao e grazie in anticipo.
Trovato su un CD allegato di una rivista tedesca PCgamers ....
Altimenti facilmente rintracciabile sui P2P ;) (c'è anche la beta multyplayer..)
è un demo
E' previsto il supporto allo SM1.1 e al 3.0 anche nel gioco ufficiale ... sorry :( (c'è da dire che se al posto di quel 1.1 ci fosse scritto 2.0 nessuno si sarebbe accorto della differenza : il render path 1.1 è semplicemente sbalorditivo...)
In negozio ho una X800pro di seconda mano e ho provato a prendere degli shots anche con questa VPU (ho raffrontato anche l'output della mia 6800gt in SM3.0)
http://img195.exs.cx/img195/5603/splintercell320050222065812206.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222065812206.jpg) http://img195.exs.cx/img195/1978/splintercell320050222065841105.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222065841105.jpg)
http://img195.exs.cx/img195/2938/splintercell320050222070158549.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222070158549.jpg) http://img195.exs.cx/img195/900/splintercell320050222070220299.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222070220299.jpg)
http://img195.exs.cx/img195/5573/splintercell320050222070614377.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222070614377.jpg) http://img195.exs.cx/img195/5623/splintercell320050222070630595.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222070630595.jpg)
http://img195.exs.cx/img195/8885/splintercell320050222071220824.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071220824.jpg) http://img195.exs.cx/img195/2820/splintercell320050222071235468.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071235468.jpg)
http://img195.exs.cx/img195/2125/splintercell320050222071334714.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071334714.jpg) http://img195.exs.cx/img195/1787/splintercell320050222071350000.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071350000.jpg)
nonikname
23-02-2005, 11:45
......Continua
X800pro....................6800GT
http://img195.exs.cx/img195/4839/splintercell320050222071449451.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071449451.jpg) http://img195.exs.cx/img195/299/splintercell320050222071508068.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071508068.jpg)
http://img195.exs.cx/img195/8710/splintercell320050222071710290.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071710290.jpg) http://img195.exs.cx/img195/2113/splintercell320050222071726283.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071726283.jpg)
http://img195.exs.cx/img195/3519/splintercell320050222071824398.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071824398.jpg) http://img195.exs.cx/img195/6205/splintercell320050222071840090.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071840090.jpg)
http://img195.exs.cx/img195/7396/splintercell320050222071955847.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222071955847.jpg) http://img195.exs.cx/img195/343/splintercell320050222072007469.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222072007469.jpg)
http://img195.exs.cx/img195/6110/splintercell320050222072224956.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222072224956.jpg) http://img195.exs.cx/img195/3018/splintercell320050222072225436.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222072225436.jpg)
nonikname
23-02-2005, 11:52
X800pro....................6800GT
http://img195.exs.cx/img195/1936/splintercell320050222072244234.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222072244234.jpg) http://img195.exs.cx/img195/8549/splintercell320050222072255547.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222072255547.jpg)
http://img233.exs.cx/img233/3720/splintercell320050222072509738.th.jpg (http://img233.exs.cx/my.php?loc=img233&image=splintercell320050222072509738.jpg) http://img195.exs.cx/img195/3197/splintercell320050222072533213.th.jpg (http://img195.exs.cx/my.php?loc=img195&image=splintercell320050222072533213.jpg)
http://img97.exs.cx/img97/6797/splintercell320050222073532267.th.jpg (http://img97.exs.cx/my.php?loc=img97&image=splintercell320050222073532267.jpg)http://img97.exs.cx/img97/4550/splintercell320050222073546314.th.jpg (http://img97.exs.cx/my.php?loc=img97&image=splintercell320050222073546314.jpg)
http://img97.exs.cx/img97/984/splintercell320050222073623079.th.jpg (http://img97.exs.cx/my.php?loc=img97&image=splintercell320050222073623079.jpg)http://img97.exs.cx/img97/193/splintercell320050222073634853.th.jpg (http://img97.exs.cx/my.php?loc=img97&image=splintercell320050222073634853.jpg)
http://img97.exs.cx/img97/9985/splintercell320050222074448988.th.jpg (http://img97.exs.cx/my.php?loc=img97&image=splintercell320050222074448988.jpg)http://img97.exs.cx/img97/951/splintercell320050222074613761.th.jpg (http://img97.exs.cx/my.php?loc=img97&image=splintercell320050222074613761.jpg)
Cioè tu mi stai dicendo che dall'Sm 1.1 al 3.0 hanno solo acceso le luci?!:rotfl:
Cmq grazie per le foto,che pazienza!
Zodd_Il_nosferatu
23-02-2005, 12:03
senza offesa ma la differenza è bella e pesante...
e penso che con i 2.0 la differenza sarebbe stata meno marcata :muro:
Zodd_Il_nosferatu
23-02-2005, 12:04
Originariamente inviato da R@nda
Cioè tu mi stai dicendo che dall'Sm 1.1 al 3.0 hanno solo acceso le luci?!:rotfl:
Cmq grazie per le foto,che pazienza!
mi sa che nn ci vedi... guarda le pareti, guarda la differenza qualitativa... con i 3.0 la precisione è millimetrica con i 1.1 il muro sembra finto...
Originariamente inviato da Zodd_Il_nosferatu
mi sa che nn ci vedi... guarda le pareti, guarda la differenza qualitativa... con i 3.0 la precisione è millimetrica con i 1.1 il muro sembra finto...
Ma ho visto si:rolleyes:
Non sono queste le cose che mi fanno spendere 500€ per una sk video te l'assicuro.
Zodd_Il_nosferatu
23-02-2005, 12:15
Originariamente inviato da R@nda
Ma ho visto si:rolleyes:
Non sono queste le cose che mi fanno spendere 500€ per una sk video te l'assicuro.
io la prossima scheda video che comprerà sarà l'ati R520... solo per le prestazioni che a quanto pare saranno mooolto alte... della grafica me ne frega poco...
però a pensare che hanno tolti i 2.0... :mad:
nonikname
23-02-2005, 12:17
Originariamente inviato da R@nda
Cioè tu mi stai dicendo che dall'Sm 1.1 al 3.0 hanno solo acceso le luci?!:rotfl:
Cmq grazie per le foto,che pazienza!
Ho detto che l'1.1 è il migliore mai visto fin'ora , praticamente se ci fosse stato scritto 2.0 ben pochi (se non nessuno) avrebbero dubitato....
Cmq guarda questi 2 shots , in particolare il muro... (spettacolo)
X800pro....................6800GT
http://img94.exs.cx/img94/7209/splintercell320050222084501074.th.jpg (http://img94.exs.cx/my.php?loc=img94&image=splintercell320050222084501074.jpg) http://img94.exs.cx/img94/6287/splintercell320050222084515903.th.jpg (http://img94.exs.cx/my.php?loc=img94&image=splintercell320050222084515903.jpg)
Senza dubbio il gioco acquisisce una profondità mai vista prima ...
Unreal engine 2 o no , i programmatori possono fregiarsi di essere stati i primi ad inserire lo SM3.0 in un gioco ufficiale...
Ai capito.....zitti zitti , con un engine originariamente dx8.1 , cosa sono riusciti a fare ??
Edit : di pazienza c'è ne va di più a servire un cliente che non sa se prendere un banco di ddr 333 o uno di 400 allo stesso prezzo.. (a-data entrambe) per un nforce 2.... 30 minuti per decidere e convincerlo.....
Mentre per gli shots basta fare dei salvataggi....
Ecco,in queste due si apprezza parecchio di più la differenza,perchè hanno usato il parallax mapping (che si può fare in Ps2.0).
Insomma diciamo che se ne sono fregati apposta dello Sm2.0....bravi bravi...
Dumah Brazorf
23-02-2005, 12:45
Aggiungo 2 screen che ho trovato in giro.
http://img1.imagevenue.com/loc175/fd4_senzahdr.png
http://img2.imagevenue.com/loc155/4cc_conhdr.png
andreamarra
23-02-2005, 12:49
la differenza visiva in diversi screen è bella sostanziosa.
Penso che applicando sm2.0 il risultato sarebbe stato del tutto identico, almeno credo.
Certo che se in molti rilasciassero giochi ps1.1 e ps3.0.... ok che voglio prendere una NV40, però...
trippuma
23-02-2005, 13:47
Praticamente con le radeon si vede peggio? Che cazzo mi è arrivata da due settimane :D !!!!!! Ormai la tengo.
andreamarra
23-02-2005, 14:10
Originariamente inviato da Zodd_Il_nosferatu
senza offesa ma la differenza è bella e pesante...
e penso che con i 2.0 la differenza sarebbe stata meno marcata :muro:
tecnicamente con i PS2.0 avremmo avuto esattamente la stessa qualità visiva dei ps3.0.
L'HDR usato agevola le schede nvidia, bastava programmare il gioco per l'hdr delle ati (ce ne sono di diversi tipi di HDR).
Se la NV40 fa un effetto di ombre sfumate come in RIddick, allora va bene.
Ma se un gioco differisce per politiche di marketing non solo per le performance ma anche per la qualità (la differenza in certi punti è imbarazzante), questo mi da un pò fastidio.
Cmq mi aspetto dei driver catalyst ottimizzati per questo gioco (un pò come quelli ati per doom3 e quelli nvidia per Hl2), se i programmatori non fanno piu i ps2.0 sotto pressione nvidia allora....
ronaldovieri
23-02-2005, 14:28
cavolo che bello sto giochetto
bene bene finalmente sfruttata la mia 6800
Originariamente inviato da andreamarra
L'HDR usato agevola le schede nvidia, bastava programmare il gioco per l'hdr delle ati (ce ne sono di diversi tipi di HDR).
Tipo?
andreamarra
23-02-2005, 15:55
Originariamente inviato da fek
Tipo?
L'hdr lo si gestisce solo in un modo?
Originariamente inviato da andreamarra
L'hdr lo si gestisce solo in un modo?
No, ce ne sono diversi, ma se vuoi fare piu' di 2fps in una scena normale, diciamo che l'fp blending e' molto comodo.
E' pero' vero che implementando tutto in SM2.0 senza HDR la qualita' grafica sarebbe molto probabilmente stata simile.
Non e' vero che si puo' fare HDR su scene complesse su ATI a framerate accettabili.
andreamarra
23-02-2005, 16:13
Originariamente inviato da fek
No, ce ne sono diversi, ma se vuoi fare piu' di 2fps in una scena normale, diciamo che l'fp blending e' molto comodo.
E' pero' vero che implementando tutto in SM2.0 senza HDR la qualita' grafica sarebbe molto probabilmente stata simile.
Non e' vero che si puo' fare HDR su scene complesse su ATI a framerate accettabili.
discorso tecnico a parte che per ovvi motivi posso comprendere ma non fino in fonfo... ponendo caso i programmatori di questo gioco usavano uno sm2.0 con bloom o quello che è...
a livello tecnico-velocistico usando il 3.0 era meglio?
a livello di impatto visivo, sarebbe stata la stessa cosa usare i 2.0 e bloom?
Quello che intendo sapere è: sarebbe stato possibile ottenere per questo gioco in sm2.0 la stessa (o simile) qualità grafica del sm3.0? [non velocità, ma qualità visiva)
E poi: il fatto di aver usato i 3.0 e 1.1 (con differenze visive sostenute in certi punti) è da imputare a problemi per i programmatori o alla nvidia manica-larga?
Perchè se d'ora in poi cominciano tutti a fare così (solo 3.0 ed effeti migliori) allora sei quasi "obbligato" a prendere nvidia, o no?
Originariamente inviato da andreamarra
discorso tecnico a parte che per ovvi motivi posso comprendere ma non fino in fonfo... ponendo caso i programmatori di questo gioco usavano uno sm2.0 con bloom o quello che è...
a livello tecnico-velocistico usando il 3.0 era meglio?
a livello di impatto visivo, sarebbe stata la stessa cosa usare i 2.0 e bloom?
Quello che intendo sapere è: sarebbe stato possibile ottenere per questo gioco in sm2.0 la stessa (o simile) qualità grafica del sm3.0? [non velocità, ma qualità visiva)
1) a livello tecnico-velocistico usando il 3.0 era meglio?
Possibile.
2) a livello di impatto visivo, sarebbe stata la stessa cosa usare i 2.0 e bloom?
La domanda e' mal posta :)
A parte gli scherzi, se ignoriamo la componente velocistica, puoi ottenere gli stessi risultati qualitativi anche con un Commodore 64 in un paio di ore di rendering.
La domanda andrebbe formulata cosi#: "a livello di impatto visivo, sarebbe stata al stessa cosa usare 2.0 e bloom renderizzando la scena ad un framerate accettabile".
Ignorando alcuni possibile problemi qualitativi dovuto alla precisione nel lavorare a 8bit per colore invece che 16bit direi di si'. Piu' o meno.
E poi: il fatto di aver usato i 3.0 e 1.1 (con differenze visive sostenute in certi punti) è da imputare a problemi per i programmatori o alla nvidia manica-larga?
Direi che la questione e' di convenienza, non credo che NVIDIA abbia accordi particolari con Ubisoft.
Quello che ho letto in giro e' che il gioco e' sviluppato con due code path, uno per xbox (SM1.x) e uno per xbox next (presumbilmente SM3.0). Con questo antefatto, e' una scelta sensata non implementare un terzo code path e investire i soldi e il tempo risparmiato in altro, fermo presente che questo e' un progetto per console riadattato al PC.
Perchè se d'ora in poi cominciano tutti a fare così (solo 3.0 ed effeti migliori) allora sei quasi "obbligato" a prendere nvidia, o no?
No :)
Originariamente inviato da andreamarra
Perchè se d'ora in poi cominciano tutti a fare così (solo 3.0 ed effeti migliori) allora sei quasi "obbligato" a prendere nvidia, o no?
piuttosto passo ad una S3 :asd:
trippuma
23-02-2005, 18:06
Se vuoi ti spedisco la voodoo 1 :sofico:
Originariamente inviato da fek
Se fa HDR non puo' attivare FSAA. E' un limite fisico dell'hardware che non puo' essere aggirato in alcun modo.
Il fatto che con L'HDr non si possa abilitare FSAA mi sembrea una grave lacuna!!!!:muro:
Non so' se sia meglio avere immagini meno "nitide" ma lineari o piu' "nitide" ma a sega!!!!:(?????
Forse uscirà qualcosa di meglio di questo HDR...o almeno lo spero.... :rolleyes:
1100000110100000
:)
Originariamente inviato da Daytona
Il fatto che con L'HDr non si possa abilitare FSAA mi sembrea una grave lacuna!!!!:muro:
Non so' se sia meglio avere immagini meno "nitide" ma lineari o piu' "nitide" ma a sega!!!!:(?????
Bella domanda. Beh, per ancora un paio di anni e' cosi' e c'e' poco da fare.
Originariamente inviato da fek
No, ce ne sono diversi, ma se vuoi fare piu' di 2fps in una scena normale, diciamo che l'fp blending e' molto comodo.
E' pero' vero che implementando tutto in SM2.0 senza HDR la qualita' grafica sarebbe molto probabilmente stata simile.
Non e' vero che si puo' fare HDR su scene complesse su ATI a framerate accettabili.
http://www.daionet.gr.jp/~masa/rthdribl/
Stando a quello che sostieni tutti quelli che hanno visto il tech-demo sopraindicato sono degli allucinati? Oppure ritieni che le ATI ottengano più dei 2 frame di cui parli solo perchè la geometria della scena è scarna o se vuoi non è complessa..?(in ogni caso con lo stesso demo le GPU Nvidia ottengono risultati peggiori)
Il video del Crytech Engine con HDR lanciato poco prima dell'uscita della GPU R420 esegue o meno la feature in oggetto...?
Originariamente inviato da Milotto
http://www.daionet.gr.jp/~masa/rthdribl/
Stando a quello che sostieni tutti quelli che hanno visto il tech-demo sopraindicato sono degli allucinati? Oppure ritieni che le ATI ottengano più dei 2 frame di cui parli solo perchè la geometria della scena è scarna o se vuoi non è complessa..?(in ogni caso con lo stesso demo le GPU Nvidia ottengono risultati peggiori)
Il video del Crytech Engine con HDR lanciato poco prima dell'uscita della GPU R420 esegue o meno la feature in oggetto...?
Sono un po' di sfere ed usa il ping ponging, e' una demo famosissima di un paio di anni fa. Nella demo non ci sono luci, ma solo una envmap in HDR. Un conto e' renderizzare una scena con qualche sfera, un conto una scena di un gioco.
Il video del Crytech engine non faceva HDR.
Originariamente inviato da fek
Sono tre sfere ed usa il ping ponging. Il video del Crytech engine non faceva HDR.
Ci puoi spiegare perchè tale tecnica non può esser utilizzata per scene con una geometria più complessa..?A quanto pare il suo utilizzo non impedisce l'uso dell' AA...
TNX
Originariamente inviato da Milotto
Ci puoi spiegare perchè tale tecnica non può esser utilizzata per scene con una geometria più complessa..?A quanto pare il suo utilizzo non impedisce l'uso dell' AA...
TNX
Perche' sta facendo super sampling, che e' totalmente software e non ha bisogno di supporto hw. Infatti rallenta molto.
Ora senza entrare nel dettaglio del ping ponging, l'idea e' di simulare il fp blending all'interno del pixel shader renderizzando ogni passata della luce prima in un buffer e poi in un altro buffer, usando il buffer precedente come input del pixel shader.
La tecnica, oltre ad essere ha pero' intrinsecamente molto lenta e consumare moltissima banda, non si sposa troppo bene con la geometria transparente (leggi, non puoi avere geometria transparente).
Infatti in quella techdemo tutti gli oggetti sono opachi.
Puoi trovare piu' informazioni su questa tecnica per fare HDR qui:
http://www.imm.dtu.dk/visiondag/VD03/grafisk/WolfgangEngel.ppt
E qui:
http://www.shaderx2.com/Tables%20of%20Content.htm
“Simulating Blending Operations on Floating Point Render Targets”
Originariamente inviato da fek
Perche' sta facendo super sampling, che e' totalmente software e non ha bisogno di supporto hw. Infatti rallenta molto.
Negli screenshoots c'è scritto Multisample...!?
:confused:
Originariamente inviato da Milotto
Negli screenshoots c'è scritto Multisample...!?
:confused:
Lo so, ma se guardi il codice fa SuperSampling :)
Ero convinto che il demo Crytech supportasse HDR , perchè dagli screenshoots sembra che di questo si tratti , eccone alcuni presi a caso..:
http://img63.exs.cx/img63/1354/bc-TechDemo2004-12-0.jpg
http://img70.exs.cx/img70/1010/98-TechDemo2004-12-0.jpg
http://img93.exs.cx/img93/7938/d3-TechDemo2004-12-0.jpg
Originariamente inviato da Milotto
Ero convinto che il demo Crytech supportasse HDR , perchè dagli screenshoots sembra che di questo si tratti , eccone alcuni presi a caso..:
Blooming.
Originariamente inviato da fek
Blooming.
Sicome ti ho affibbiato un ruolo didattico..:D ;)
Puoi darci in cosa differisce dal HDR...?
Tnx a lot.
Originariamente inviato da Milotto
Sicome ti ho affibbiato un ruolo didattico..:D ;)
Puoi darci in cosa differisce dal HDR...?
Tnx a lot.
Ehehe...
Niente, sono due cose diverse. Il blooming e' un effetto, l'HDR e' una tecnica di rendering.
Originariamente inviato da fek
Ehehe...
Niente, sono due cose diverse. Il blooming e' un effetto, l'HDR e' una tecnica di rendering.
Quindi questo blooming genera solo un bagliore diffuso e non è una tecnica di illuminazione....
Originariamente inviato da Milotto
Quindi questo blooming genera solo un bagliore diffuso e non è una tecnica di illuminazione....
Yup!
E' un effetto di post processing. Disegni tutta la scena normalmente o in HDR e poi, in maniera indipendente da come hai generato l'immagine, isoli i pixel dell'immagine piu' chiari di un certo valore, doppia passata di gaussiana, sale e pepe a piacere ed ecco il blooming. Da servire caldo preferibilmente con un buon rosso :D
Originariamente inviato da fek
Yup!
E' un effetto di post processing. Disegni tutta la scena normalmente o in HDR e poi, in maniera indipendente da come hai generato l'immagine, isoli i pixel dell'immagine piu' chiari di un certo valore, doppia passata di gaussiana, sale e pepe a piacere ed ecco il blooming. Da servire caldo preferibilmente con un buon rosso :D
Anche se mi occupo di chimica , fino alla gaussiana ti ho seguito.... :) ;) dopo invece:D
OT
fek , se mi posso permettere ,vorrei commentare la tua sign:
"We in the game industry are lucky enough to be able to create our visions"
anch'io nell'industria dell'alimentazione sono strafortunato di dare una forma ai sogni della panza..nn so se mi spiego ..
:sofico:
Originariamente inviato da royal
OT
fek , se mi posso permettere ,vorrei commentare la tua sign:
"We in the game industry are lucky enough to be able to create our visions"
anch'io nell'industria dell'alimentazione sono strafortunato di dare una forma ai sogni della panza..nn so se mi spiego ..
:sofico:
Tu ti rendi conto di quanto sei crudele a parlarmi di cibo quando vivo in UK, vero? :|
Salve a tutti, premetto che sto giocando al demo con una ati 9500 pro, quello che volevo dire e che ho visto le immagini prese con una x800pro e una 6800gt, e vi posso assicurare che sono tutte sballate.
infatti la differenza che si intravede non c'è, sono andato negli stessi posti e la qualità al 99% era identica a quella della 6800gt.
il problema e che se provo a fare un'immagine non sò per quale motivo mi esce come quelle che avete visto in precedenza, cioè scure è prive di qualsiasi effetto.
Originariamente inviato da Express
Salve a tutti, premetto che sto giocando al demo con una ati 9500 pro, quello che volevo dire e che ho visto le immagini prese con una x800pro e una 6800gt, e vi posso assicurare che sono tutte sballate.
infatti la differenza che si intravede non c'è, sono andato negli stessi posti e la qualità al 99% era identica a quella della 6800gt.
il problema e che se provo a fare un'immagine non sò per quale motivo mi esce come quelle che avete visto in precedenza, cioè scure è prive di qualsiasi effetto.
Punto interessante.. :eek:
nonikname
24-02-2005, 12:07
Originariamente inviato da Express
Salve a tutti, premetto che sto giocando al demo con una ati 9500 pro, quello che volevo dire e che ho visto le immagini prese con una x800pro e una 6800gt, e vi posso assicurare che sono tutte sballate.
infatti la differenza che si intravede non c'è, sono andato negli stessi posti e la qualità al 99% era identica a quella della 6800gt.
il problema e che se provo a fare un'immagine non sò per quale motivo mi esce come quelle che avete visto in precedenza, cioè scure è prive di qualsiasi effetto.
Io invece ti posso assicurare che gli shots sono perfettamente attinenti all'output :quello che si vede sul monitor in tempo reale ricalca lo shot preso con fraps...
Per la precisione , ho anche provato il gioco con una PowCol9550 e il risultato è quasi identico alla x800pro (differisce solo nell'applicazione dell'anisotropico)
L'X800pro non è più in mio possesso , ma ti posso postare uno frame preso con la 9550 e la 6800...
Questa volta ho provato ad eliminare l'HDR su nvidia abilitando l'AA4x (AF8x) su entrambe le schede... (shots presi con Hyper Snap DX al posto di Fraps ;) )
http://img169.exs.cx/img169/8528/splintercell320050224125505216.th.jpg (http://img169.exs.cx/my.php?loc=img169&image=splintercell320050224125505216.jpg) http://img169.exs.cx/img169/5770/splintercell320050224125535765.th.jpg (http://img169.exs.cx/my.php?loc=img169&image=splintercell320050224125535765.jpg)
nelle immagini che ai postato sembra come se l'opzione high quality textures sia disabilitato.
Adesso provo anchio con hypersanp (di solito uso snag it) e se l'immagine esce corretamente la posto.
MiKeLezZ
24-02-2005, 14:42
Questo è interessante.
In effetti nel pannello di controllo ATi è possibile cambiare il dettaglio delle texture basso/alto/medio/alto/molto alto.
Forse è quello, quindi..
andreamarra
24-02-2005, 14:54
Originariamente inviato da Express
nelle immagini che ai postato sembra come se l'opzione high quality textures sia disabilitato.
Adesso provo anchio con hypersanp (di solito uso snag it) e se l'immagine esce corretamente la posto.
fra un pò finisce il download, vediamo un pò.... :)
Originariamente inviato da fek
Tu ti rendi conto di quanto sei crudele a parlarmi di cibo quando vivo in UK, vero? :|
ehh lo so.. ho presente cosa mangiano in UK e quel "cosa" mi spaventa .. nn vorrei mettere più di tanto il dito nella piaga..ma qui andiamo giù di bomboloni , brioches ,paste & torte fresche ..passando x grissini al tartufo(vivo ad alba-ho detto tutto) ..si va a finire sulle pizze & focacce farcite.
vieni a programmare in italia .. tu mi fai vedere in anteprima B&W2 ed io ti faccio assaggiare gli ultimi pasticcini..made my us :D
x R@nda :buongustaio anchè tu ,ehh?
francipalermo
25-02-2005, 12:27
demo in download...
stasera vediamo come va con sistema in sign.
andreamarra
25-02-2005, 12:28
Originariamente inviato da francipalermo
demo in download...
stasera vediamo come va con sistema in sign.
se va bene sul mio, va benissimissimo sul tuo :D
francipalermo
25-02-2005, 12:44
:sperem: :D
vedremo!
BTinside
25-02-2005, 13:46
Originariamente inviato da nonikname
Posso iniziare dicendo che ultimamente ho sentito molte volte che quando i programmatori useranno gli shaders 3.0 , la serie 6 nvidia sarà ormai non all'altezza .... :p
Grazie al demo di Chaos Teory possiamo cominciare a far lavorare ufficialmente (farcry 1.3 docet) quella parte del die mai "riscaldato" prima d'ora..
http://img211.exs.cx/img211/3910/splintercell320050219114415205.th.jpg (http://img211.exs.cx/my.php?loc=img211&image=splintercell320050219114415205.jpg)http://img211.exs.cx/img211/8695/splintercell320050219114439046.th.jpg (http://img211.exs.cx/my.php?loc=img211&image=splintercell320050219114439046.jpg)
Ora vi posto qualche immagine presa con fraps ... so che i FW 67.66 hanno qualche problema con l'AA , ma sembra che la serie 70 abbia risolto tutto ciò (non li ho messi solo per la lettura sballata del sensore di temp..)
Tutte le immagini sono state prese con i dettagli al max e attivi , a 1024x768 AA4x e AF8x
http://img63.exs.cx/img63/236/splintercell320050219114703643.th.jpg (http://img63.exs.cx/my.php?loc=img63&image=splintercell320050219114703643.jpg) http://img63.exs.cx/img63/6172/splintercell320050219114747041.th.jpg (http://img63.exs.cx/my.php?loc=img63&image=splintercell320050219114747041.jpg) http://img221.exs.cx/img221/8356/splintercell320050219114815044.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219114815044.jpg)
http://img221.exs.cx/img221/1982/splintercell320050219120412734.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219120412734.jpg) http://img221.exs.cx/img221/8063/splintercell320050219120511711.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219120511711.jpg) http://img221.exs.cx/img221/7774/splintercell320050219121140939.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219121140939.jpg)
http://img221.exs.cx/img221/5027/splintercell320050219121831920.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219121831920.jpg) http://img221.exs.cx/img221/5998/splintercell320050219122925654.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219122925654.jpg) http://img221.exs.cx/img221/2413/splintercell320050219123720205.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219123720205.jpg)
http://img221.exs.cx/img221/9536/splintercell320050219124516859.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219124516859.jpg) http://img221.exs.cx/img221/9843/splintercell320050219125759628.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219125759628.jpg) http://img221.exs.cx/img221/7861/splintercell320050219125721074.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=splintercell320050219125721074.jpg)
Smanettando con i settaggi , si scopre che l'ammazza prestazioni è l'HDR , ma con tutto abilitato e al Max i frames/sec si mantengono molto stabili sui 30-35Fps (55-70 senza HDR) naturalmente con AA4x e AF8x , ma nonostante ciò il gioco è fluidissimo ..(grazie anche alla visuale in terza persona)
P.S. Oltre alla grafica da incubo , il sonoro è allo stesso livello : se devo essere sincero è quanto di più spettacolare abbia sentito fin'ora..
Bottom line : Unico appunto , gli occhi di Sam : sono quasi comici :D
Strano io almeno all'inizio del gioco faccio 25/29 frame con gli stessi settaggi tuoi ed abbiamo una configurazione pressocchè identica: entrambi 6800Gt; tu 3,6ghz intel io 3400 AMD; 1Gb di ram; entrambi SATA maxtor e Audigy 2
BTinside
25-02-2005, 14:39
Originariamente inviato da fek
La tecnica, oltre ad essere ha pero' intrinsecamente molto lenta e consumare moltissima banda, non si sposa troppo bene con la geometria transparente (leggi, non puoi avere geometria transparente).
"transparente"
:D che lol!!!!!!
si vede che stai in UK;)
Originariamente inviato da BTinside
"transparente"
:D che lol!!!!!!
si vede che stai in UK;)
Dooooooooooh! sono stato assimilato!! :(
yossarian
25-02-2005, 15:28
Originariamente inviato da nonikname
Beh , quello che ultimamente si sente sul forum , anche dai cosiddetti bene informati è che la 6800ultra sarà vecchia e non in grado di far girare titoli sm3 quando usciranno ....
Perciò mi è sembrato quantomeno doveroso , portare all'attenzione di tali individui il primo titolo ufficiale che trae giovamento da tali feature...
Tengo a precisare che data la facilità con cui si può modificare un engine nato per le DX 8.1 (unreal engine 2) e uno per le DX9b (farcry sandbox) la conclusione mi pareva scontata anche mesi fa , ma se prima era ottimismo ora diviene certezza....
Ora non resta che aspettare i veri engine DX9c SM3.0 : stalker - F.E.A.R. - Oblivion - Fek engine :D (BW2) e i vari outsider di cui non ne ipotizziamo nemmeno l'esistenza...
se per te un po' di HDR, con calcoli fp16 anche a livello di precisione interna, significa full sm3.0 allora è un discorso diverso. NV40, come del resto anche R420, non riuscirebbero a far girare neppure un gioco full sm2.0 in maniera fluida.
trippuma
25-02-2005, 18:42
Ragazzuoli miei, ho scaricato la demo ma non riesco a farla girare in full screen, posso giocare soltanto in finestra!!! O come mai?
francipalermo
25-02-2005, 18:46
azz...non saprei dirti!
ho lasciato il pc a casa che era in pieno download.
appena torno dovrebbe aver finito e vediamo!
trippuma
25-02-2005, 18:49
E poi non mi fa scegliere le opzioni degli shader.... non saprei. Forse perchè ho radeon o forse per via dei driver? Scusa l'ignoranza ma non mi intendo molto a livello di differenze tra nvidia e raddy. Comunque dopo guardiamo, ciao ciao.
andreamarra
25-02-2005, 18:53
Originariamente inviato da trippuma
E poi non mi fa scegliere le opzioni degli shader.... non saprei. Forse perchè ho radeon o forse per via dei driver? Scusa l'ignoranza ma non mi intendo molto a livello di differenze tra nvidia e raddy. Comunque dopo guardiamo, ciao ciao.
un pò indietro è spiegato come sistemare questa cosa, anche se a molti compreso me non dà problemi.
Per gli shader: se hai una radeon puoi selezionare solo i 1.1, se hai una NV40 puoi scegliere tra 1.1 e 3.0
BTinside
25-02-2005, 20:01
Originariamente inviato da yossarian
se per te un po' di HDR, con calcoli fp16 anche a livello di precisione interna, significa full sm3.0 allora è un discorso diverso. NV40, come del resto anche R420, non riuscirebbero a far girare neppure un gioco full sm2.0 in maniera fluida.
Allora che senso ha implementare gli shader 3.0 in NV40 e R520 se ancora le capacità di uno shader 2.0 non possono essere saturate neanke da R420, solo per l afacilità di programmazione del 3.0?
BTinside
25-02-2005, 20:46
Originariamente inviato da fek
Dooooooooooh! sono stato assimilato!! :(
:) dai che se perdi per il cibo almeno recuperi in donne, no? so che li hanno un altra mentalità..decisamente più facile, soprattutto con gli italiani:D ;)
yossarian
25-02-2005, 21:00
Originariamente inviato da BTinside
Allora che senso ha implementare gli shader 3.0 in NV40 e R520 se ancora le capacità di uno shader 2.0 non possono essere saturate neanke da R420, solo per l afacilità di programmazione del 3.0?
lo sm3.0 non è che un'evoluzione del 2.0 che, in primo luogo, può rendere più semplice il lavoro dei programmatori (così come le dx9 hanno facilitato il compito rispetto alle dx8.1). In alcuni casi possono rendere anche più veloce l'elaborazione (sempre che gli strumenti adoperati siano adeguati alla potenza dei chip). Ad esempio, geometry instancing e dynamic branching possono tornare molto utili. L'HDR, invece, aumenta la qualità dell'immagine in output, perchè permette di andare oltre la limitazione finora imposta dall'utilizzo di 8 bit INT nel frame buffer.
Però, come avete avuto modo di notare, abbatte le prestazioni e non è utilizzabile con il MSAA (cosa normale perchè si tratta di due operazioni di post processing che fanno uso delle stesse risorse HW e, quindi, sono in conflitto tra loro).
Il chiedersi perchè si progettano nuove api quando i chip esistenti non riescono a "saturare" le vecchie non ha molto senso. E' una situazione che si è sempre verificata e dipende dal fatto che le api dovrebbero servire solo come punto di riferimento per chi progetta HW e SW ma non è affatto detto che un chip DX9 compliant debba essere in grado di far girare una path full dx9 con tutti gli effetti previsti attivati. Ci sono dei limiti di progettazione e realizzazione imposti dalle dimensioni del chip e dalle scelte fatte dai progettisti. Ad esempio, pensi che se fosse possibile con il processo produttivo attuale, nVIDIA non avrebbe eliminato la dipendenza tra tmu e alu presente in NV30 e in NV40?
Eppure, con HL2, abbiamo visto che questa dipendenza è piuttosto penalizzante e che per miglioarare le prestazioni di NV40 (e non vederlo, in certe mappe, ai livelli di un R3x0), si è dovuta abbassare la precisione di calcolo a fp16 e si è dovuto procedere al riordino degli shader, mentre con la serie NV3x si è ricorsi a path fx12 o a operazioni di shader replacement, soprattutto con NV30 e NV34). Oppure credi che se ATi potesse, non migliorerebbe le prestazioni dei suoi chip nelle operazioni di texture lookup?
trippuma
25-02-2005, 22:08
Originariamente inviato da andreamarra
un pò indietro è spiegato come sistemare questa cosa, anche se a molti compreso me non dà problemi.
Per gli shader: se hai una radeon puoi selezionare solo i 1.1, se hai una NV40 puoi scegliere tra 1.1 e 3.0
Cosa è spiegato? Perchè non mi fa selezionare le opzioni degli shader o perchè non mi parte a schermo intero? Hol riletto tutto il post ma sinceramente non ho visto niente di ciò che ho chiesto.... scusate :p
BTinside
25-02-2005, 23:25
Originariamente inviato da yossarian
pensi che se fosse possibile con il processo produttivo attuale, nVIDIA non avrebbe eliminato la dipendenza tra tmu e alu presente in NV30 e in NV40?
Ma non era fra tmu e fpu? oppure alu e fpu sono la stessa cosa?
leoneazzurro
25-02-2005, 23:54
ALU= unità aritmetico-logica
Poichè le ALU presenti nella pipe di PS lavorano in virgola mobile (floating point), ecco che nelle schede DX9 le ALU sono anche FPU
BTinside
26-02-2005, 00:27
Ragazzi ho provato The Chronicles Of Riddick e ho scoperto che abilitando le soft shadows ,features che il gioco abbina agli shader 2.0++ e attiva solo con geforce 6, non si può attivare l'AA.
Se lo attivo il gioco gira esattamente a 1fps al secondo su 6800GT. Se lo tengo disattivato e attivo gli shader 2.0++(quindi soft shadows inq uesto caso) il gioco gira comunque ai limiti del godibile, con qualche rallentamento di troppo. Lo stesso discorso vale per Splinter Cell attivando l'HDR..crolli paurosi.
Da ciò deduco che le soft shadows, come l'HDR in splinter cell, features attivabili secondo i giochi solo su NV40 (selezionando shader 3.0 in Splinter Cell e Shader 2.0++ in Riddick) come spiega Fek chiedono il doppio della banda passante (correggimi se sbaglio fek) e questo spiega come mai neanche in Riddick posso attivare l'AA quando sono attivate dai menù features che superano le specifiche shader 2.0
In sintesi : come in Splinter Cell CT attivando shader 3.0 ,e quindi HDR, non si può attivare l'AA così in Riddick attivando gli shader 2++(attivabili solo su nv40), e quindi soft shadows, non si può attivare l'AA.
Entrambe sono features che superano le specifiche shader 2.0 e con entrambe le 6800 crollano di prestazioni ai limiti del giocabile e non permettono di usare AA. Ciò significa che ogni gioco che userà caratteristiche di shader 3.0 o 2++ su 6800 andrà lento? o quantomeno giocabile ma pursempre con la rinunica all'anti aliasing?
Se è così mi sà che di questi shader 3.0 delle 6800 ne vedremo utilizzati ben poco, dato che crollano le prestazioni in questo modo. Secondo servono solo a eseguire shader 2.0 più velocemente.:rolleyes:
Originariamente inviato da BTinside
Ragazzi ho provato The Chronicles Of Riddick e ho scoperto che abilitando le soft shadows ,features che il gioco abbina agli shader 2.0++ e attiva solo con geforce 6, non si può attivare l'AA.
Se lo attivo il gioco gira esattamente a 1fps al secondo su 6800GT. Se lo tengo disattivato e attivo gli shader 2.0++(quindi soft shadows inq uesto caso) il gioco gira comunque ai limiti del godibile, con qualche rallentamento di troppo. Lo stesso discorso vale per Splinter Cell attivando l'HDR..crolli paurosi.
Da ciò deduco che le soft shadows, come l'HDR in splinter cell, features attivabili secondo i giochi solo su NV40 (selezionando shader 3.0 in Splinter Cell e Shader 2.0++ in Riddick) come spiega Fek chiedono il doppio della banda passante (correggimi se sbaglio fek) e questo spiega come mai neanche in Riddick posso attivare l'AA quando sono attivate dai menù features che superano le specifiche shader 2.0
In sintesi : come in Splinter Cell CT attivando shader 3.0 ,e quindi HDR, non si può attivare l'AA così in Riddick attivando gli shader 2++(attivabili solo su nv40), e quindi soft shadows, non si può attivare l'AA.
Entrambe sono features che superano le specifiche shader 2.0 e con entrambe le 6800 crollano di prestazioni ai limiti del giocabile e non permettono di usare AA. Ciò significa che ogni gioco che userà caratteristiche di shader 3.0 o 2++ su 6800 andrà lento? o quantomeno giocabile ma pursempre con la rinunica all'anti aliasing?
Se è così mi sà che di questi shader 3.0 delle 6800 ne vedremo utilizzati ben poco, dato che crollano le prestazioni in questo modo. Secondo servono solo a eseguire shader 2.0 più velocemente.:rolleyes:
Non c'è una correlazione diretta tra l'abilitazione degli shaders 3.0 e l'impossibilità di utilizzare l'antialiasing. Questo dipende solo ed esclusivamente dalle caratteristiche del motore di rendering e degli shaders utilizzati. Ricordo che fin dal primo Splinter Cell non è possibile abilitare il FSAA e qui parliamo di pixel shaders 1.1.
BTinside
26-02-2005, 10:21
Originariamente inviato da Vifani
Non c'è una correlazione diretta tra l'abilitazione degli shaders 3.0 e l'impossibilità di utilizzare l'antialiasing. Questo dipende solo ed esclusivamente dalle caratteristiche del motore di rendering e degli shaders utilizzati. Ricordo che fin dal primo Splinter Cell non è possibile abilitare il FSAA e qui parliamo di pixel shaders 1.1.
Si ma se già abbiamo due casi in cui abilitare qualcosa di correlato a shader 3.0 causa tutto questo sfruttamento di banda passante (se così è...perchè è solo una mia supposizione che ho fatto applicando a Riddick la spiegazione di Fek sui cali di framerate di Splinter Cell) la cosa non è molto felice.
magari è già stato detto però:
Io ho messo tutto al max e mi ha fatto impostare aa
però vedo i capelli del tizio violetti e anche i fili d'era sono viola :cry:
per i resto va che è una bellezza :)
i driver sono 75.90
geforce 6800 ultra
msi neo2
amd 3500+ @ 2500mhz
ram 512x2 geil @ 250mhz
audigy 2 zs
Originariamente inviato da BTinside
Si ma se già abbiamo due casi in cui abilitare qualcosa di correlato a shader 3.0 causa tutto questo sfruttamento di banda passante (se così è...perchè è solo una mia supposizione che ho fatto applicando a Riddick la spiegazione di Fek sui cali di framerate di Splinter Cell) la cosa non è molto felice.
Ha ragione Raffaele, non c'e' correlazione fra SM3.0 e impossibilita' di abilitare l'FSAA e neppure i cali di framerate.
Semplicemente la generazione attuale di GPU non e' abbastanza performante per applicare quelle tecniche (soft shadow e HDR) su tutta la scena a frame rate stabilmente superiori ai 60fps.
E' un problema puramente tecnologico che verra' risolto col tempo con l'introduzione di nuove GPU piu' veloci.
Le due tecniche di cui sopra sono perfettamente implementabili in SM2.0 ma con prestazioni inferiori vista l'impossibilita' di usare tecniche specifiche all'SM3.0.
(Raffaele, Playfields e' di nuovo up)
Originariamente inviato da fek
(Raffaele, Playfields e' di nuovo up)
Ottimo. Che diavolo era successo?
Poi non ci postava più nessuno da un bel po'.
yossarian
26-02-2005, 14:29
Originariamente inviato da fek
Ha ragione Raffaele, non c'e' correlazione fra SM3.0 e impossibilita' di abilitare l'FSAA e neppure i cali di framerate.
Semplicemente la generazione attuale di GPU non e' abbastanza performante per applicare quelle tecniche (soft shadow e HDR) su tutta la scena a frame rate stabilmente superiori ai 60fps.
E' un problema puramente tecnologico che verra' risolto col tempo con l'introduzione di nuove GPU piu' veloci.
Le due tecniche di cui sopra sono perfettamente implementabili in SM2.0 ma con prestazioni inferiori vista l'impossibilita' di usare tecniche specifiche all'SM3.0.
(Raffaele, Playfields e' di nuovo up)
l'unica correlazione che può esistere riguarda operazioni che coinvolgono le stesse unità di calcolo; ad esempio HDR, soft shadow e AA sono operazioni di post processing che fanno uso, tutte e tre, delle unità ps.
Originariamente inviato da yossarian
l'unica correlazione che può esistere riguarda operazioni che coinvolgono le stesse unità di calcolo; ad esempio HDR, soft shadow e AA sono operazioni di post processing che fanno uso, tutte e tre, delle unità ps.
Di conseguenza queste features non possono essere usate insieme , se non a fps bassissimi o in nessun caso...siccome si tratta di postprocessing le tre operazioni possono essere sequenziali?
In caso di risposta negativa , si evince che anche un sistema in SLI non sia in grado di utilizzare le features sopracitate contemporaneamente...
Originariamente inviato da yossarian
l'unica correlazione che può esistere riguarda operazioni che coinvolgono le stesse unità di calcolo; ad esempio HDR, soft shadow e AA sono operazioni di post processing che fanno uso, tutte e tre, delle unità ps.
Yoss, perche' dici che HDR e AA fanno uso dell'unita' ps?
Io sapevo che nel caso del multisampling ci fosse un'unita' apposita che entra in gioco al momento della presentazione del frame. Mentre nel caso dell'HDR non c'e' alcun calcolo in particolare, si tratta semplicemente di scrivere il risultato dei ps in un buffer in floating point, a meno che l'unita di blending in floating point non usi di nuovo i ps, mentre anche qui io sapevo fosse un'unita a se' stante.
(Playfields ha avuto problemi col provider, ma ora sono risolti ed e' di nuovo up)
yossarian
26-02-2005, 14:42
Originariamente inviato da Milotto
Di conseguenza queste features non possono essere usate insieme , se non a fps bassissimi o in nessun caso...siccome si tratta di postprocessing le tre operazioni possono essere sequenziali?
In caso di risposta negativa , si evince che anche un sistema in SLI non sia in grado di utilizzare le features sopracitate contemporaneamente...
potrebbero essere sequenziali (non contemporanee), però a prezzo di frame rate bassissimi. Quindi è molto probabile che i chip siano programmati in maniera tale che l'una escluda l'altra (o quanto meno che non possano essere adoperate tutte in contemporanea). Come dice fek, l'attuale generazione non ha potenza sufficiente per permettere l'applicazione di queste tecniche su tutta la scena (in realtà per l'AA si è abbandonata, già da tempo, l'idea di applicarlo su tutta la scena, per cui si dovrebbe parlare, più correttamente, di edge antialiasing che è una cosa un po' diversa dal full screen antialiasing).
yossarian
26-02-2005, 14:57
Originariamente inviato da fek
Yoss, perche' dici che HDR e AA fanno uso dell'unita' ps?
Io sapevo che nel caso del multisampling ci fosse un'unita' apposita che entra in gioco al momento della presentazione del frame. Mentre nel caso dell'HDR non c'e' alcun calcolo in particolare, si tratta semplicemente di scrivere il risultato dei ps in un buffer in floating point, a meno che l'unita di blending in floating point non usi di nuovo i ps, mentre anche qui io sapevo fosse un'unita a se' stante.
(Playfields ha avuto problemi col provider, ma ora sono risolti ed e' di nuovo up)
la generazione del multisampling è simile a quella del supersampling; per ogni pixel si ricavano n pixel adiacenti (disposti secondo una determinata griglia) e viene fatta un'operazione di blending tra i loro valori. La differenza tra le due modalità è che nel MS, gli n pixel, in realtà, non sono quelli realmente adiacenti a quello su cui si applica l'AA ma n subpixel ricavati dallo stesso pixel su cui si applica l'AA. La procedura prevede, ad esempio, nel caso di 4x, l'aumento di risoluzione dell'immagine di 4 volte rispetto all'originale. In tal modo, per ogni pixel si generano 4 subpixel che, nel SS conservano i valori di luminanza e crominanza originari, mentre nel MS sono letteralmente generati dal pixel di partenza, per cui tutti e 4 hanno lo stesso valore di luminanza e crominanza. Questo permette di eseguire un MSAA4x quasi in un'unico ciclo, perchè ogni unità ps può elaborare fino a 3 pixel ottenuti dagli stessi valori di partenza (ossia fino a 3 subpixel originati da un unico pixel), come del resto avviene per le tmu (motivo per cui il bilinear filtering è quasi gratuito e il trilinear costa caro); Quindi, ogni 4 cicli si elaborano 12 subpixel, corrispondenti a 3 pixel dell'immagine alla display resolution; tenendo conto che, scegliendo opportunamente la grigli, si può far capitare in molti casi il 4° subpixel in corrispondenza del primo della successiva elaborazione e tenendo conto che l'AA noon viene applicato a pieno schermo ma solo sui bordi, si può concludere che il risparm,io è notevole (anche se la qualità non è la stessa). Nel SS questo non è possibile perchè, trattandosi di 4 valori differenti, sono richiesti 4 cicli per elaborare un singolo pixel alla display resolution.
Per quanto riguarda l'HDR, come hai intuito, l'unità di blending fa ancora uso dei ps.
Originariamente inviato da yossarian
potrebbero essere sequenziali (non contemporanee), però a prezzo di frame rate bassissimi. Quindi è molto probabile che i chip siano programmati in maniera tale che l'una escluda l'altra (o quanto meno che non possano essere adoperate tutte in contemporanea). Come dice fek, l'attuale generazione non ha potenza sufficiente per permettere l'applicazione di queste tecniche su tutta la scena (in realtà per l'AA si è abbandonata, già da tempo, l'idea di applicarlo su tutta la scena, per cui si dovrebbe parlare, più correttamente, di edge antialiasing che è una cosa un po' diversa dal full screen antialiasing).
Quindi se le tre operazioni possono essere sequenziali un sistema in SLI può consentirne l'attivazione in contemporanea?
Oppure si continuerebbero ad aver fram rate similmente bassi?
Originariamente inviato da Milotto
Quindi se le tre operazioni possono essere sequenziali un sistema in SLI può consentirne l'attivazione in contemporanea?
Oppure si continuerebbero ad aver fram rate similmente bassi?
Scusatemi ma ho quotato erroneamente...
yossarian
26-02-2005, 15:03
Originariamente inviato da Milotto
Quindi se le tre operazioni possono essere sequenziali un sistema in SLI può produrre potrebbe consentirne l'attivazione in contemporanea?
Oppure si continuerebbero ad aver fram rate similmente bassi?
non ho una vga con Nv4x, per cui non ho avuto modo di testare l'impatto di tutte queste applicazioni; però dalle prove fatte in giro ho avuto modo di vedere che, ad esempio, l'impatto delle soft shadow è pari a un fattore 3x, mentre l'HDR riduce le prestazioni a circa la metà; quello meno pesante, per le modalità di applicazione, è l'AA che, però, sommato alle altre due, ridurrebbe ulteriormente il frame rate. Un sistema sli può portare incrementi del 70% (ossia di un fattore pari a 0,7) circa (più alti nelle situazioni in cui si è bandwidth limited), quindi non sufficiente a riportare le prestazioni a livelli accettabili
Originariamente inviato da yossarian
non ho una vga con Nv4x, per cui non ho avuto modo di testare l'impatto di tutte queste applicazioni; però dalle prove fatte in giro ho avuto modo di vedere che, ad esempio, l'impatto delle soft shadow è pari a un fattore 3x, mentre l'HDR riduce le prestazioni a circa la metà; quello meno pesante, per le modalità di applicazione, è l'AA che, però, sommato alle altre due, ridurrebbe ulteriormente il frame rate. Un sistema sli può portare incrementi del 70% (ossia di un fattore pari a 0,7) circa (più alti nelle situazioni in cui si è bandwidth limited), quindi non sufficiente a riportare le prestazioni a livelli accettabili
Da ciò si evince la sua inutilità....Almeno per l'attuale generazione di VGA
francipalermo
26-02-2005, 15:16
ho scaricato il gioco.
impostazioni 1024x768.
shader 3
filtri attivati, (ma non mi ricordo in quale ho messo 4 e in quale 8:D niuubione..)
be gira benissimo.....l'unica cosa e che io odio i giochi in terza persona:rolleyes:
yossarian
26-02-2005, 15:54
per fek
hai pvt
ciao
Originariamente inviato da yossarian
Per quanto riguarda l'HDR, come hai intuito, l'unità di blending fa ancora uso dei ps.
Sicuro al 1000%? perche' qui mi avevano assicurato un'unita' indipendente al fianco dell'unita' di blending intera.
andreamarra
26-02-2005, 17:09
Scusate, ma detto papale papale... a me sinceramente mette un pò di "paura" il fatto che una NV40 appena uscita, praticamente, ai primi giochi con shader 3.0 ed effetti grafici particolari.... si affossi irrimediabilmente...
Mi viene il sospetto, e lo dico con tristezza perchè sono sempre stato intenzionato a prendere una GT al posto della 9700pro, che questo NV40 vada perfettamente per i 2.0, ma per altre applicazioni faccia un pò come l'NV3X per gli shader 2.0.
Il motivo è semplice: questa scheda supporta soft shadows, HDR, shader 3.0... ora io mi aspettavo che in un futuro non molto lontano la NV40 avrebbe arrancato con queste cose, ma di sicuro non nei primi giochi. Invece qua i primi due giochi che sfruttano opzioni grafiche e capacità di render tipiche dell'NV40... le prestazioni si affossano.
Me lo sarei aspettato tra un anno, ma non immediatamente. La 9700 Pro è uscita come FullDX9, ma per diverso tempo non ha fatto partire nulla di DX9, nel mercato solo DX8. Poi sono usciti i primi giochi con features DX9 e la scheda è andata abbastanza bene, tutt'ora con giochi con shader 2.0 va egregiamente. La NV40 già "cede", e non so il motivo.
Ora sto alla finestra e aspetto i prossimi giochi, vediamo se le due rondini non fanno primavera.
yossarian
26-02-2005, 17:31
Originariamente inviato da fek
Sicuro al 1000%? perche' qui mi avevano assicurato un'unita' indipendente al fianco dell'unita' di blending intera.
se per unità indipendente intendono i cosiddetti combiners, possono anche aver ragione; però i combiners fanno sempre parte delle pixel pipeline. Mi sembrerebbe strano il fatto che si utilizzino unità dedicate e spiego brevemente il motivo. Si sta parlando di operazioni di post processing, ossia che avvengono una volta che l'immagine è già formata nel framebuffer. I ps sono in grado di svolgere operazioni di blending su valori relativi a rgb e alpha (che sono le operazioni richieste da queste feature) anzi, sono le unità che meglio delle altre possono svolgere questo lavoro. L'utilizzo di unità dedicate presuppone l'impiego di unità operanti in fp, in numero tale da poter elaborare l'intera immagine in un tempo ragionevole e con un'architettura interna che, in molti punti, ricalca quella dei ps. Stiamo quindi parlando di un'unità poco meno voluminosa di quella preposta al calcolo dei ps che, da sola, occupa un 35-40% dell'intero die.
Originariamente inviato da andreamarra
Scusate, ma detto papale papale... a me sinceramente mette un pò di "paura" il fatto che una NV40 appena uscita, praticamente, ai primi giochi con shader 3.0 ed effetti grafici particolari.... si affossi irrimediabilmente...
Mi viene il sospetto, e lo dico con tristezza perchè sono sempre stato intenzionato a prendere una GT al posto della 9700pro, che questo NV40 vada perfettamente per i 2.0, ma per altre applicazioni faccia un pò come l'NV3X per gli shader 2.0.
Non pensi che sia proprio per questo che Ati abbia scelto di non implementare lo SM3 nel R420? E' inutile sprecare transistor per avere un supporto di facciata ad una feature.
yossarian
26-02-2005, 17:50
Originariamente inviato da yossarian
se per unità indipendente intendono i cosiddetti combiners, possono anche aver ragione; però i combiners fanno sempre parte delle pixel pipeline. Mi sembrerebbe strano il fatto che si utilizznino unità dedicate e spiego brevemente il motivo. Si sta parlando di operazioni di post processing, ossia che avvengono una volta che l'immagine è già formata nel framebuffer. I ps sono in grado di svolgere operazioni di blending su valori relativi a rgb e alpha (che sono le operazioni richieste da queste feature) anzi, sono le unità che meglio delle altre possono svolgere questo lavoro. L'utilizzo di unità dedicate presuppone l'impiego di unità operanti in fp, in numero tale da poter elaborare l'intera immagine in un tempo ragionevole e con un'architettura interna che, in molti punti, ricalca quella dei ps. Stiamo quindi parlando di un'unità poco meno voluminosa di quella preposta al calcolo dei ps che, da sola, occupa un 35-40% dell'intero die.
l'R3x0 è in grado di far girare giochi con feature sm2.0 ma non che facciano uso di tutti gli strumenti che lo sm2.0 mette a disposizione; allo stesso modo, Nv40 può far girare giochi che facciano un uso parziale di feature sm3.0 (ad esempio il solo HDR è attivabile). Intanto chi sviluppa SW può iniziare a prendere confidenza con le nuove API, in attesa che esca HW sufficientemente potente da poterle sfruttare a pieno. Così è sempre stato
andreamarra
26-02-2005, 17:52
Originariamente inviato da MaBru
Non pensi che sia proprio per questo che Ati abbia scelto di non implementare lo SM3 nel R420? E' inutile sprecare transistor per avere un supporto di facciata ad una feature.
Guarda, è esattamente quello che ho sospettato fin dall'inizio. Poi però alcuni dubbi se ne sono andati perchè, vuoi anche la potenza commerciale nvidia che può sponsorizzare molto bene i suoi nuovi shader, avevo capito che gli shader 3.0 andavano a semplificare la velocità di esecuzione dei 2.0.
Però il vero salto prestazionale dei 3.0 sarebbe stato dato dal branching che la NV40 può gestire, però sicuramente con risultati disastrosi a causa della "poca" potenza della vpu. Questo è quello che ho capito leggendo i post di fek.
Ora però di fronte ai primi giochi che sfruttano gli shader 3.0 e soprattutto di fronte a nuovi effetti grafici e modalità di render (soft shadows, anche se la X800 li può gestire vedi Ruby.. ma non nei giochi per motivi scontati-leggi forza economica nvidia- e HDR) noto che apportano si dei cambiamenti visivi di un certo tipo... ma con pressocchè affossamento delle prestazioni. E sinceramente non me lo aspettavo, me lo aspettavo molto più in là. Non da subito. Ora vediamo come gli altri giochi shader 3.0, HDR e soft shadows andranno...
Certo che è stata una mossa più commerciale che altro, ma almeno dò atto alla nvidia di aver fatto da apripista. Così che i programmatori possono già cominciare a sperimentare nuovi effetti.
Originariamente inviato da andreamarra
E sinceramente non me lo aspettavo, me lo aspettavo molto più in là. Non da subito. Ora vediamo come gli altri giochi shader 3.0, HDR e soft shadows andranno...
Non per niente l'Unreal Engine 3 girava (uso il passato perché non so fino a che punto lo abbiano ottimizzato; qui ci può dare una mano Francesco che lo ha visto in azione di persona) a 15/20 fps su NV40.
Certo che è stata una mossa più commerciale che altro, ma almeno dò atto alla nvidia di aver fatto da apripista. Così che i programmatori possono già cominciare a sperimentare nuovi effetti.
Questo senza dubbio. Kudos a nvidia. Senno i programmatori 3d con cosa giochellerebbero nel tempo libero?;) :D
andreamarra
26-02-2005, 18:06
Originariamente inviato da MaBru
Non per niente l'Unreal Engine 3 girava (uso il passato perché non so fino a che punto lo abbiano ottimizzato; qui ci può dare una mano Francesco che lo ha visto in azione di persona) a 15/20 fps su NV40.
Questo senza dubbio. Kudos a nvidia. Senno i programmatori 3d con cosa giochellerebbero nel tempo libero?;) :D
Già il fatto che un motore grafico (per l'occasione volutamente pompato) riesce ad andare a 15-20 fps per me sarebbe stata una garanzia di lbuona ongevità di questa NV40... perchè questo motore esce nel 2006 e il chip è uscito nei primi mesi del 2004.
COme ha detto yossarian il R3X0 gestisce benissimo gli shader 2.0, ma non benissimo tutte le funzioni più evolute degli stessi. Idem è infatti per la NV40 che gestisce da dio gli shader 2.0..ma... credevo che anche per lei fuinzionasse nello stesso modo per gli shader successivi, ovvero: vai bene adesso con i 2.0, andrai bene con una parte delle features grafiche dei 3.0.
Invece qui ci troviamo una scheda che con i ps2.0++ di Riddick perde parecchio (a quanto mi hanno riferito), e che crolla con HDR in Splinter Cell. Che i programmatori non siano stati "capacissimi" e che occorre studiare meno la faccenda? Oppure al primo accenno di shader 3.0 la scheda cede?
Originariamente inviato da andreamarra
Che i programmatori non siano stati "capacissimi" e che occorre studiare meno la faccenda? Oppure al primo accenno di shader 3.0 la scheda cede?
La seconda che hai detto.:D
Fek dice che solo l'HDR ti fa perdere un 25-30%.
Originariamente inviato da yossarian
se per unità indipendente intendono i cosiddetti combiners, possono anche aver ragione; però i combiners fanno sempre parte delle pixel pipeline. Mi sembrerebbe strano il fatto che si utilizzino unità dedicate e spiego brevemente il motivo. Si sta parlando di operazioni di post processing, ossia che avvengono una volta che l'immagine è già formata nel framebuffer. I ps sono in grado di svolgere operazioni di blending su valori relativi a rgb e alpha (che sono le operazioni richieste da queste feature) anzi, sono le unità che meglio delle altre possono svolgere questo lavoro. L'utilizzo di unità dedicate presuppone l'impiego di unità operanti in fp, in numero tale da poter elaborare l'intera immagine in un tempo ragionevole e con un'architettura interna che, in molti punti, ricalca quella dei ps. Stiamo quindi parlando di un'unità poco meno voluminosa di quella preposta al calcolo dei ps che, da sola, occupa un 35-40% dell'intero die.
Si', le tue motivazioni sono condivisibili. Ma come ti ho scritto in PM ci sono due considerazioni che mi fanno propendere per la soluzione di un'unita' di blending fp dedicata:
1) Se i ps fossero in grado di fare le veci di un'unita' di blending fp vorrebbe dire che sono in qualche modo in grado di prendere il render target corrente in input, effettuarci sopra un'operazione e poi scriverci (un ciclo read/modify/write sul render target corrente per intenderci). Sono ormai due anni che chiediamo esattamente questa possibilita' all'interno dei ps e ci e' sempre stata negata. Le motivazioni che ci danno hanno qualcosa a che vedere una una serie di "cache" sia in input sia in output ai ps che andrebbero bypassate da una tale operazione e loro dicono che gli costerebbe troppe complicazioni da implementare. Se davvero in realta' lo stanno gia' facendo, non costerebbe nulla dare a noi la possibilita' di programmare esplicitamente all'interno del ps quest'operazione di blending fornendoci il render target corrente in input. Non solo non ce lo vogliono dare, dicono che non lo faranno ancora per qualche anno. Da qui i miei dubbi.
2) La seconda considerazione riguarda la precisione dell'unita' di blending che e' 16 bit per canale, NVIDIA non permette operazioni di blending su render target a 32 bit. Se l'operazione di blending fosse nei ps che supportano sia 16, sia 32 bit, implementare anche il blending a 32 bit sarebbe sostanzialmente automatico, mentre non viene data questa possibilita'.
Da queste due considerazioni propenderei piu' per un'unita' di blending dedicata fp a 16 bit che affianca l'unita' di blending intera a 8 bit. In fondo e' una sola mini alu che processa tutti i pixel in attesa di essere scritti sul frame buffer esattamente come la versione intera.
Aggiungo che pero' la tendenza in futuro sara' sicuramente di darci il totale controllo dell'unita' di blending all'interno dei ps quindi vedo la tua soluzione piu' come la soluzione futura piuttosto che quella odierna.
Dici che ha senso?
Originariamente inviato da andreamarra
Che i programmatori non siano stati "capacissimi" e che occorre studiare meno la faccenda? Oppure al primo accenno di shader 3.0 la scheda cede?
Ma in realta' il problema prestazionale non e' negli shader 3.0 anzi. Per svariati motivi uno shader del tutto equivalente scritto col modello 3.0 e' di solito piu' veloce che scritto col modello 2.0. Ovviamente se andiamo a sfruttare tutte le 65k istruzioni massime che gli shader 3.0 mettono teoricamente a disposizione la GPU si siede, ma questo non sarebbe assolutamente un uso normale.
E anche in questo caso ho visto ottimizzazioni della funzione di tone mapping per SM3.0 con cicli davvero di 65k istruzioni che risultano piu' veloci di un'equivalente implementazione del tone mapping in 2.0 (senza entrare troppo nel dettaglio del perche' altrimenti vi addormentate tutti io compreso :p).
Il problema e' proprio nel fatto che tecniche sofisticate di soft shadowing e HDR in real time sono inerentemente troppo costose per questa generazione per poter girare ad elevati framerate.
Tu immagina che una scena normalissima su NV40 trattata in deferred rendering e HDR facendo pesante uso di buffer in floating point non mi gira a piu' di 40fps indipendentemente dalla sua complessita' geometrica. E' praticamente un costo fisso che non dipende ne' dalla geometria ne' dall'implementazione ma solo dalla potenza dell'hw...
Fermatemi che su questi argomenti in particolare scriverei paginate visto che e' cio' su cui sto facendo piu' ricerca nell'ultimo anno :p
Originariamente inviato da fek
Fermatemi che su questi argomenti in particolare scriverei paginate visto che e' cio' su cui sto facendo piu' ricerca nell'ultimo anno :p
Continua pure. :D
Erano mesi che non c'era un 3d interessante in questa sezione.
leoneazzurro
26-02-2005, 20:25
Originariamente inviato da yossarian
l'unica correlazione che può esistere riguarda operazioni che coinvolgono le stesse unità di calcolo; ad esempio HDR, soft shadow e AA sono operazioni di post processing che fanno uso, tutte e tre, delle unità ps.
Mi sembra di aver letto (dove non ricordo) che sono i drivers nVidia a disabilitare l'AA in caso si attivi l'HDR. Se è vero, è probabile che sia per motivi prestazionali.
yossarian
26-02-2005, 20:28
Originariamente inviato da fek
Si', le tue motivazioni sono condivisibili. Ma come ti ho scritto in PM ci sono due considerazioni che mi fanno propendere per la soluzione di un'unita' di blending fp dedicata:
1) Se i ps fossero in grado di fare le veci di un'unita' di blending fp vorrebbe dire che sono in qualche modo in grado di prendere il render target corrente in input, effettuarci sopra un'operazione e poi scriverci (un ciclo read/modify/write sul render target corrente per intenderci). Sono ormai due anni che chiediamo esattamente questa possibilita' all'interno dei ps e ci e' sempre stata negata. Le motivazioni che ci danno hanno qualcosa a che vedere una una serie di "cache" sia in input sia in output ai ps che andrebbero bypassate da una tale operazione e loro dicono che gli costerebbe troppe complicazioni da implementare. Se davvero in realta' lo stanno gia' facendo, non costerebbe nulla dare a noi la possibilita' di programmare esplicitamente all'interno del ps quest'operazione di blending fornendoci il render target corrente in input. Non solo non ce lo vogliono dare, dicono che non lo faranno ancora per qualche anno. Da qui i miei dubbi.
2) La seconda considerazione riguarda la precisione dell'unita' di blending che e' 16 bit per canale, NVIDIA non permette operazioni di blending su render target a 32 bit. Se l'operazione di blending fosse nei ps che supportano sia 16, sia 32 bit, implementare anche il blending a 32 bit sarebbe sostanzialmente automatico, mentre non viene data questa possibilita'.
Da queste due considerazioni propenderei piu' per un'unita' di blending dedicata fp a 16 bit che affianca l'unita' di blending intera a 8 bit. In fondo e' una sola mini alu che processa tutti i pixel in attesa di essere scritti sul frame buffer esattamente come la versione intera.
Aggiungo che pero' la tendenza in futuro sara' sicuramente di darci il totale controllo dell'unita' di blending all'interno dei ps quindi vedo la tua soluzione piu' come la soluzione futura piuttosto che quella odierna.
Dici che ha senso?
i ps sono anche un'unità di blending (per l'esattezza di color blending); con lo sm3.0 dovrebbero essere in grado di fare anche alpha blending. Il problema è che non sono in grado di farlo ad elaborazione in corso; per questo motivo si deve ricorrere a post elaborazioni. Quindi, purtroppo, l'idea di far eseguire alpha blending insieme ad altre operazioni al momento puoi scordartela. Con le architetture unificate il discorso dovrebbe cambiare, anche perchè si dovrebbero avere texture buffer (come la L2 di NV40) e pixel buffer comuni a tutte le unità di calcolo, anzichè registri dedicati come accade ora.
Per quanto riguarda la seconda obiezione, la risposta ufficiale è che, secondo nVIDIA, le operazioni di blending non sono possibili con fp32 (oltre al fatto che fp32 richiede molte più risorse rispetto a fp16).
Questo non esclude che, effettivamente, possa esserci un'unità dedicata di blending fp16; mi chiedo, però, quanto deve essere voluminosa questa unità (le vecchie unità di alpha blending erano a soli 8 bit ed erano posizionate, all'interno della pipeline, prime dell'alphatest e dello z-test) all'interno delle ROP's.
Originariamente inviato da yossarian
Questo non esclude che, effettivamente, possa esserci un'unità dedicata di blending fp16; mi chiedo, però, quanto deve essere voluminosa questa unità (le vecchie unità di alpha blending erano a soli 8 bit ed erano posizionate, all'interno della pipeline, prime dell'alphatest e dello z-test) all'interno delle ROP's.
Altro dubbio, fisicamente l'alpha blending avviene prima o dopo il depth test e l'alpha test?
Perche' dal punto di vista logico sia in D3D sia in OpenGL l'ordine e' del tipo:
early-z -> pixel shader -> detph test -> stencil test -> alpha test -> alpha blending -> color mask
Questo lo so di preciso perche' proprio venerdi' ho usato l'early z per simulare il dynamic branching su R3X0 e non eseguire lo shader se una certa condizione e' vera (ho preso un buon 20% cosi').
Un altro trucco diffuso e' abilitare l'alpha test con un alpha ref molto piccolo per evitare l'alpha blending e il ciclo read/modify/write se il pixel e' "molto trasparente", cosi' da salvare un po' di fillrate. Di solito guadagno un 5% variabile cosi'.
Io faccio riferimento alla pipeline logica delle D3D per queste ottimizzazioni ma non vorrei che il vero motivo sia un altro, adesso mi fai venire il dubbio :)
yossarian
26-02-2005, 22:33
Originariamente inviato da fek
Altro dubbio, fisicamente l'alpha blending avviene prima o dopo il depth test e l'alpha test?
Perche' dal punto di vista logico sia in D3D sia in OpenGL l'ordine e' del tipo:
early-z -> pixel shader -> detph test -> stencil test -> alpha test -> alpha blending -> color mask
Questo lo so di preciso perche' proprio venerdi' ho usato l'early z per simulare il dynamic branching su R3X0 e non eseguire lo shader se una certa condizione e' vera (ho preso un buon 20% cosi').
Un altro trucco diffuso e' abilitare l'alpha test con un alpha ref molto piccolo per evitare l'alpha blending e il ciclo read/modify/write se il pixel e' "molto trasparente", cosi' da salvare un po' di fillrate. Di solito guadagno un 5% variabile cosi'.
Io faccio riferimento alla pipeline logica delle D3D per queste ottimizzazioni ma non vorrei che il vero motivo sia un altro, adesso mi fai venire il dubbio :)
la sequenza logica è quella che hai descritto, anche perchè in OpenGL (ma immagino anche in D3D)dopo stencil e depth test, qualora l'elaborazione non richiedesse operazioni di blending, queste ultime possono essere bypassate, esattamente come hai dichiarato di fare.
L'ordine fisico dei blocchi che eseguono queste elaborazioni, invece, può variare a seconda delle esigenze del progettista (pur lasciando invariate le sequenze logiche).
p.s. tornando al discorso sull'unità dedicata alle operazioni di blending su NV40; ammesso che ci sia effettivamente una unità fp16 che affianchi quella tradizionale fx8, dovrebbe essercene una per per pipeline (ossia 16 unità fp64 nel caso dell'NV40) dedicata esclusivamente alle operazioni di blending. Quello che non mi torna, oltre al fatto che queste unità occuperebbero uno spazio non indifferente, è il calo delle prestazioni che, da quanto si legge all'inizio di questo thread, risultano, grosso modo dimezzate. La cosa è alquanto strana, se si paragona questo calo a quello (molto contenuto) che si ha nell'elaborazione degli shader fp16 rispetto a quelli fx12 e se si tiene conto del fatto che, essendoci una unità dedicata, l'elaborazione dovrebbe avvenire "in tempo reale" e non in post processing. Tra l'altro, è anche vero che passando da 8 a 16 bit, raddoppia la richiesta di banda passante. Sarei curioso di vedere un test con e senza HDR fatto con una 6600
pp.ss. hai pvt; svuota la mailbox :)
BTinside
27-02-2005, 00:46
E' un piacere quando vi confrontate....avete una cultura infinita in materia?:D
Originariamente inviato da yossarian
pp.ss. hai pvt; svuota la mailbox :)
Svuotata! :D
Gia' che sono qui ne approfitto, non ti muovere.
Ho scoperto ieri che usando le write mask, praticamente scrivendo solo su una parte del registro e non su tutto il registro, si ha una penalita' che va dal circa il 20% su R3X0 fino al 66% su NV3X (non so su NV40, provero' la settimana prossima).
Praticamente:
mov r0.xyz, c0.xyz
E' piu' lento di:
mov r0, c0
Ora, da diverse fonti ho sempre letto che e' preferibile scrivere solo la parte necessaria del registro e non sempre tutte le componenti. Mi ricordo che anche tu scrivesti che l'NV40 e' in grado di processare solo le componenti che vengono usate e rilascia il resto della ALU per altri calcoli.
Perche' queste misurazioni (che non ho fatto io) dicono il contrario? Hai una spiegazione? Sono curioso :)
Qualche bench per valutare l'impatto delle soft shadow
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++800.gif
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++1024.gif
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++1280.gif
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++1600.gif
Come si può notare l'impatto sulle prestazioni è drammatico.
andreamarra
27-02-2005, 13:30
porca pupazza :eekk:!!!
leoneazzurro
27-02-2005, 13:45
Originariamente inviato da MaBru
Qualche bench per valutare l'impatto delle soft shadow
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++800.gif
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++1024.gif
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++1280.gif
http://www.firingsquad.com/hardware/chronicles_of_riddick_performance/images/++1600.gif
Come si può notare l'impatto sulle prestazioni è drammatico.
Qui la spiegazione:
http://community.vugames.com/WebX?14@227.bF2CeDphhMg.0@.1dd925c9/14
Further: The PS2.0+ shading mode uses a 16-tap (4x4 pixels) filterkernel to achieve smooth shadows (if you run the game in 1600x1200 with ps2.0+ it's roughly the same amount of job as running it in 6400x4800 in ps2.0 mode).
C'è anche il perchè non è stato possibile implementare i PS 2.0++ su ATI:
xplanation: As posted by Monolith-Sbz: “The reason that PS2.0+ only works on Geforce 6 cards is that it utilizes an extension which allows us to read back the depth/stencil buffer, ATI does not have such an extension so we could not implement it on their hardware.”
Si parla di estensioni perchè a quanto pare la verione PC usa un motore OpenGL per il rendering.
Originariamente inviato da fek
Tu immagina che una scena normalissima su NV40 trattata in deferred rendering e HDR facendo pesante uso di buffer in floating point non mi gira a piu' di 40fps indipendentemente dalla sua complessita' geometrica. E' praticamente un costo fisso che non dipende ne' dalla geometria ne' dall'implementazione ma solo dalla potenza dell'hw...
Uno dei vantaggi del deferred shading (è sempre lui, vero? :D) non è proprio semplificare la parte di disegno dei triangoli? Quindi dovrebbe essere comprensibile questo comportamento :p
(Allora alla fine lo hai scelto il deferred rendering? Vedremo un B&W2 Hi-tech :D).
Originariamente inviato da Banus
(Allora alla fine lo hai scelto il deferred rendering? Vedremo un B&W2 Hi-tech :D).
Si', ma non deferred :)
...ho letto tutta la discussione, complimenti a tutti, molto interessante...ce ne fossero di thread così!
...i grafici postati da MaBru sono... "sconvolgenti"!
...ciao!
BTinside
27-02-2005, 14:24
Originariamente inviato da fek
Ho scoperto ieri che usando le write mask, praticamente scrivendo solo su una parte del registro e non su tutto il registro, si ha una penalita' che va dal circa il 20% su R3X0 fino al 66% su NV3X (non so su NV40, provero' la settimana prossima).
e facci sapere su NV40 che perdita hai...
:)
BTinside
27-02-2005, 14:31
Originariamente inviato da leoneazzurro
Qui la spiegazione:
http://community.vugames.com/WebX?14@227.bF2CeDphhMg.0@.1dd925c9/14
Further: The PS2.0+ shading mode uses a 16-tap (4x4 pixels) filterkernel to achieve smooth shadows (if you run the game in 1600x1200 with ps2.0+ it's roughly the same amount of job as running it in 6400x4800 in ps2.0 mode).
Già l'avevano spiegato yossarian e fek
leoneazzurro
27-02-2005, 14:33
Originariamente inviato da BTinside
Già l'avevano spiegato yossarian e fek
Sorry :(
Ad ogni modo è la risposta ufficiale della casa
BTinside
27-02-2005, 14:36
Originariamente inviato da belin
...ho letto tutta la discussione, complimenti a tutti, molto interessante...ce ne fossero di thread così!
...i grafici postati da MaBru sono... "sconvolgenti"!
...ciao!
Eh già, abbastanza sconvolgenti...:rolleyes:
BTinside
27-02-2005, 14:42
Originariamente inviato da leoneazzurro
C'è anche il perchè non è stato possibile implementare i PS 2.0++ su ATI:
xplanation: As posted by Monolith-Sbz: “The reason that PS2.0+ only works on Geforce 6 cards is that it utilizes an extension which allows us to read back the depth/stencil buffer, ATI does not have such an extension so we could not implement it on their hardware.”
Si parla di estensioni perchè a quanto pare la verione PC usa un motore OpenGL per il rendering.
edit: essendo che siamo nel 3ad si Splinter Cell+ SM3.0 e un utente ha cominciato a parlare dell'impatto delle soft shadows in riddick ho fatto confusione con l'impatto dell'hdr sulle prestazioni in splinter cell e avevo detto una fesseria:D
leoneazzurro
27-02-2005, 14:47
L'estensione di cui parlano è realtiva al driver OpenGL di ATI, non all'hardware (lo dico solo per la precisione).
BTinside
27-02-2005, 14:55
Originariamente inviato da leoneazzurro
L'estensione di cui parlano è realtiva al driver OpenGL di ATI, non all'hardware (lo dico solo per la precisione).
Capisco, aspettiamo chiarimenti da Yossarian
Lord style
27-02-2005, 17:14
Originariamente inviato da leoneazzurro
L'estensione di cui parlano è realtiva al driver OpenGL di ATI, non all'hardware (lo dico solo per la precisione).
Mi sembra invece che si riferisca all'hardware. :)
ATI does not have such an extension so we could not implement it on their hardware.”
leoneazzurro
27-02-2005, 17:21
Nope, l'estensione è dei driver OpenGL.
Quando i driver OpenGL vengono rilasciata dalla casa produttrice, non è raro vedere delle estensioni alla modalità base dell'OpenGL, estensioni in genere fatte per facilitare la programmazione e/o supportare features avanzate delle GPU.
Altrimenti avrebbero detto "ATI cards do not support this function" e basta.
Lord style
27-02-2005, 18:24
Originariamente inviato da leoneazzurro
Nope, l'estensione è dei driver OpenGL.
Quando i driver OpenGL vengono rilasciata dalla casa produttrice, non è raro vedere delle estensioni alla modalità base dell'OpenGL, estensioni in genere fatte per facilitare la programmazione e/o supportare features avanzate delle GPU.
Altrimenti avrebbero detto "ATI cards do not support this function" e basta.
Scusa me devono essere ancora più chiari di questo.
not implement it on their hardware
"non è stato implementato nel loro Hardware"
Probabilmente si riferiscono all'Ultrashadow, ma non ci scommetto. :)
rega scusate se casco a fagiolo ma prima di leggere tutto questo vorrei capire cosa è l'hdr :( e come si attiva... scusate per l'ignoranza e grazie
fabiannit
27-02-2005, 19:40
il gioco completo in italia quando esce??
BTinside
27-02-2005, 21:04
:D
:asd:
http://img167.exs.cx/my.php?loc=img167&image=nvidiageforcefx6000ultrawith3d.jpg
yossarian
27-02-2005, 21:37
Originariamente inviato da fek
Svuotata! :D
Gia' che sono qui ne approfitto, non ti muovere.
Ho scoperto ieri che usando le write mask, praticamente scrivendo solo su una parte del registro e non su tutto il registro, si ha una penalita' che va dal circa il 20% su R3X0 fino al 66% su NV3X (non so su NV40, provero' la settimana prossima).
Praticamente:
mov r0.xyz, c0.xyz
E' piu' lento di:
mov r0, c0
Ora, da diverse fonti ho sempre letto che e' preferibile scrivere solo la parte necessaria del registro e non sempre tutte le componenti. Mi ricordo che anche tu scrivesti che l'NV40 e' in grado di processare solo le componenti che vengono usate e rilascia il resto della ALU per altri calcoli.
Perche' queste misurazioni (che non ho fatto io) dicono il contrario? Hai una spiegazione? Sono curioso :)
facendo una semplice operazione di trasferimento di dati da un registro costante ad uno temporaneo si ha un impatto prestazionale di quella entità adoperando le write mask?
E' vero che NV40 è in grado di svolgere thread separati tra le varie alu, però, in questo caso, non credo che il problema sia quello; a meno che lo shader non preveda altre operazioni dello stesso genere su componenti specifiche di un vettore.
Con un singolo shader, la quantità di cicli di clock inpiegati per leggere e scrivere un vettore completo è lo stesso di quelli impiegati a leggere e scrivere solo, come nell'esempio, le componenti xyz. R3x0 ha alu separate per xyz da un lato (fp72) e alpha (fp24) dall'altro, mentre NV3x ha una singola alu vettoriale completa.
Adesso vedo se trovo qualcosa sulle ottimizzazioni previste per chip ATi o NV a proposito dell'utilizzo delle write mask.
leoneazzurro
27-02-2005, 22:38
Originariamente inviato da Lord style
Scusa me devono essere ancora più chiari di questo.
"non è stato implementato nel loro Hardware"
Probabilmente si riferiscono all'Ultrashadow, ma non ci scommetto. :)
La frase è:
The reason that PS2.0+ only works on Geforce 6 cards is that it utilizes an extension which allows us to read back the depth/stencil buffer, ATI does not have such an extension so we could not implement it on their hardware.”
tradotta:
La ragione per cui (la modalità) PS 2.0+ funziona solo sulle schede Geforce 6 è che essa (I PS 2.0) utilizza un'estensione (dei drivers) che ci permette di rileggere il depth/stencil buffer. ATI non ha questa estensione per cui non ci è stato possibile implementarlo (i PS 2.0+) sul loro hardware.
Il che comunque non vuol dire che poi potesse essere possibile implementare tutto a frame rate anche lontanamente accettabili sulle ATI (vedi perdita di performance sulle softshadows e così via) .
leoneazzurro
27-02-2005, 22:45
Originariamente inviato da Jok3r88
rega scusate se casco a fagiolo ma prima di leggere tutto questo vorrei capire cosa è l'hdr :( e come si attiva... scusate per l'ignoranza e grazie
L'HDR dta per High Dynamic Range (lighting) ed è una tecnica di rendering (ma non solo, si usa anche in fotografia) sulla quale ci saranno almeno 10 thread in questo forum, ma vabbè. Serve a rendere l'illuminazione della scena più realistica. In parole povere i valori dell'illuminazione in una scena di un gioco sino ad ora dovevano essere non troppo diversi tra loro, perchè i valori di luminosità che l'hardware permetteva di trattare (a frame rates decenti) non potevano essere molto distanti tra loro. Il che rendeva le immagini molto "piatte". Con L'HDR invece questa limitazione viene a essere abbattuta, per cui in teoria con HDR si dovrebbero avere immagini più aderenti alla realtà (in pratica... ci si deve lavorare su)
L'HDR però non è che si "attiva": deve essere previsto nel gioco, e supportato dall'hardware.
amd-novello
27-02-2005, 22:59
citando lowenz
HDR=High Dynamic Range
Range Dinamico Elevato: vuol dire che puoi rappresentare meglio tutta la gamma dei colori, avendo più valori a disposizione.
Tramite HDR puoi ottenere migliori effetti di blooming, che poi sono quelli che tutti chiamano impropriamente HDR
Il blooming puoi farlo in tanti modi
yossarian
28-02-2005, 00:46
Originariamente inviato da leoneazzurro
L'estensione di cui parlano è realtiva al driver OpenGL di ATI, non all'hardware (lo dico solo per la precisione).
quoto leoneazzurro; il problema è relativo alle estensioni permesse da ATi che reputa negativa, per l'impatto che ha sulle prestazioni, la possibilità di effettuare azioni di "read back" verso il depth buffer. Le motivazioni sono che questo tipo di interventi disabilitano lo hyerarchical-z e costringono a decomprimere i dati contenuti nello z-buffer facendo crollare le prestazioni.
per fek: il mistero si infittisce; sia ATi che nVIDIA raccomandano, per i vs e i ps, un uso "aggressivo" delle write mask. Tra l'altro, l'istruzione che hai postata richiede l'utilizzo di semplici operazioni di lettura/scrittura da parte dell'alu senza altre elaborazioni particolari e dovrebbe essere eseguita indifferentemente, sia utilizzano le write mask che non utilizzandole, sempre alla stessa velocità.
Originariamente inviato da leoneazzurro
La frase è:
The reason that PS2.0+ only works on Geforce 6 cards is that it utilizes an extension which allows us to read back the depth/stencil buffer, ATI does not have such an extension so we could not implement it on their hardware.”
tradotta:
La ragione per cui (la modalità) PS 2.0+ funziona solo sulle schede Geforce 6 è che essa (I PS 2.0) utilizza un'estensione (dei drivers) che ci permette di rileggere il depth/stencil buffer. ATI non ha questa estensione per cui non ci è stato possibile implementarlo (i PS 2.0+) sul loro hardware.
Il che comunque non vuol dire che poi potesse essere possibile implementare tutto a frame rate anche lontanamente accettabili sulle ATI (vedi perdita di performance sulle softshadows e così via) .
beh le estensioni si possono sempre aggiungere nei driver a meno che la limitazione non sia proprio hardware..
cmq mi chiedo se fare un "antialiasing" delle ombre per renderle soft shadows sia un metodo intelligente :rolleyes: oppure è l'unico che si ha attualmente..
Further: The PS2.0+ shading mode uses a 16-tap (4x4 pixels) filterkernel to achieve smooth shadows (if you run the game in 1600x1200 with ps2.0+ it's roughly the same amount of job as running it in 6400x4800 in ps2.0 mode).
bYeZ!
Originariamente inviato da ATi7500
cmq mi chiedo se fare un "antialiasing" delle ombre per renderle soft shadows sia un metodo intelligente :rolleyes: oppure è l'unico che si ha attualmente..
Un altro modo è renderizzare n ombre con n altino e poi fonderle.. capirai che così consumi una quantità enorme di fillrate :p
L'antialiasing è ancora la soluzione migliore.
Originariamente inviato da ATi7500
beh le estensioni si possono sempre aggiungere nei driver a meno che la limitazione non sia proprio hardware..
cmq mi chiedo se fare un "antialiasing" delle ombre per renderle soft shadows sia un metodo intelligente :rolleyes: oppure è l'unico che si ha attualmente..
E' una delle pochissime soluzioni percorribili per fare soft shadow con lo stencil. E' uno dei motivi per i quali ci si sta muovendo in massa verso lo shadow mapping.
HDR: quante soddisfazioni mi danno questi ragazzi :D
amd-novello
28-02-2005, 10:59
dite che se in doom3 ci fosse l'hdr la qualità cambierebbe?
cmq non capisco dite che va a modificare i colori ma a me sembra solo che faccia diventare le rocce dei lampioni. mi fa un po schifino sto effetto bagliore
yossarian
28-02-2005, 11:14
Originariamente inviato da ATi7500
beh le estensioni si possono sempre aggiungere nei driver a meno che la limitazione non sia proprio hardware..
bYeZ!
non esiste una vera limitazione in HW nel senso che si tratta di un'operazione possibile che però abbatte le prestazioni perchè disabilita lo hyerarchical e obbliga a decomprimere i dati del depth buffer con le conseguenze che si perdono i vantaggi di una scansione front to back e fa aumentare la richiesta di bandwidth (almeno di un fattore 4x).
Athlon 64 3000+
28-02-2005, 11:18
Originariamente inviato da yossarian
non esiste una vera limitazione in HW nel senso che si tratta di un'operazione possibile che però abbatte le prestazioni perchè disabilita lo hyerarchical e obbliga a decomprimere i dati del depth buffer con le conseguenze che si perdono i vantaggi di una scansione front to back e fa aumentare la richiesta di bandwidth (almeno di un fattore 4x).
L'HDR sarà gestibile da R520 e NV47 visto che NV40 non ci riesce,ipotizzando che ci sarà un raddoppio di prestazioni e con le schede con circa 50 gb di banda passante?
nothinghr
28-02-2005, 11:25
Quali sono i migliori forceware per questa demo? l'ho provata con i 75.90 ma a volte attivando l'S.M. 3.0 vedo la faccia del tipo verde! non sempre comunque
yossarian
28-02-2005, 11:30
Originariamente inviato da Athlon 64 3000+
L'HDR sarà gestibile da R520 e NV47 visto che NV40 non ci riesce,ipotizzando che ci sarà un raddoppio di prestazioni e con le schede con circa 50 gb di banda passante?
il problema non è il solo HDR che, anche se a scapito delle prestazioni, può essere gestito discretamente anche da NV40, ma tutte le altre feature sm3.0 che, messe insieme, portano ad un degrado delle prestazioni drammatico. Per poter valutare i prossimi chip bisognerà prima vederli all'opera
BTinside
28-02-2005, 11:32
Originariamente inviato da yossarian
quoto leoneazzurro; il problema è relativo alle estensioni permesse da ATi che reputa negativa, per l'impatto che ha sulle prestazioni, la possibilità di effettuare azioni di "read back" verso il depth buffer. Le motivazioni sono che questo tipo di interventi disabilitano lo hyerarchical-z e costringono a decomprimere i dati contenuti nello z-buffer facendo crollare le prestazioni.
Non è che sono altre manovre da parte della software house per cercare i punti deboli di Ati? Perchè alla fine non esiste un incremento qualitativo tale da giustificare l'impatto negativo sulle prestazioni. Le ombre appaiono solo più "morbide e sfumate" ma credo sia meglio attivare un semplice AA4X che pesa molto meno. Nvidia paga bene evidentemente
leoneazzurro
28-02-2005, 11:37
Alla fine così come è fatta la modalità PS 2.0++ non è che sia utilizzabile neppure sulle 6800...
Ma bisognerebbe chiedere agli sviluppatori (non che ti risponderebbero in merito) per saperlo ;D
Athlon 64 3000+
28-02-2005, 11:40
Originariamente inviato da yossarian
il problema non è il solo HDR che, anche se a scapito delle prestazioni, può essere gestito discretamente anche da NV40, ma tutte le altre feature sm3.0 che, messe insieme, portano ad un degrado delle prestazioni drammatico. Per poter valutare i prossimi chip bisognerà prima vederli all'opera
Quando si usa lo shader model 3.0 si possono attivare alcune freature e non hdr oppure quando lo si attiva si attivano tutte le freature?
yossarian
28-02-2005, 11:43
Originariamente inviato da BTinside
Non è che sono altre manovre da parte della software house per cercare i punti deboli di Ati? Perchè alla fine non esiste un incremento qualitativo tale da giustificare l'impatto negativo sulle prestazioni. Le ombre appaiono solo più "morbide e sfumate" ma credo sia meglio attivare un semplice AA4X che pesa molto meno. Nvidia paga bene evidentemente
non so se il problema di cui si parla e per cui non sono stati implementati gli shader 2+ su ATi sia relativo alle ombre (non ho neppure il gioco, tra l'altro); mi limito a fare considerazioni su quello che ho letto: se veramente ci sono istruzioni di read back verso il depth buffer non mi meraviglia che ATi non permetta la loro abilitazione per i motivi che ho esposto e non escluderei a priori che il calo di prestazioni con NV40, che rende praticamente inutilizzabili le estensioni sm2.0+, sia dovuto anche alle motivazioni che hanno spinto ATi a non abilitare questa procedura (anche i chip NV hanno una sorta di hyerarchical, se non ricordo male a 2, anzichè a 3 livelli e utilizzano algoritmi di compressione dei dati dello z-buffer).
Per quanto riguarda i punti deboli dei chip ATi, sicuramente ce ne sono (uno, ad esempio, è quello relativo alle dependent texture read, tanto utilizzate in Doom3).
yossarian
28-02-2005, 11:45
Originariamente inviato da Athlon 64 3000+
Quando si usa lo shader model 3.0 si possono attivare alcune freature e non hdr oppure quando lo si attiva si attivano tutte le freature?
c'è sempre la possibilità di selezionare cosa attivare e cosa no
Athlon 64 3000+
28-02-2005, 11:56
Originariamente inviato da yossarian
c'è sempre la possibilità di selezionare cosa attivare e cosa no
Io ho sempre sostenuto che lo shader model 3.0 fossè un manovra commericiale di Nvidia e che quando verrà sfruttare L'NV40 sarà vecchio e inadeguato.
Sò che permette di velocizzare l'esecuzione degli shader se scritti sotto
3.0 invece che con i 2.0
Quello che chiedo ma quali sono e quante le freature dello SM 3.0 e quali sono veramente utilizzabili in un motore grafico dall'NV40 senza rischiare in un grosso decadimento prestazionale come fanno HDR e Dynamic Braching
BTinside
28-02-2005, 12:08
Originariamente inviato da Athlon 64 3000+
Io ho sempre sostenuto che lo shader model 3.0 fossè un manovra commericiale di Nvidia e che quando verrà sfruttare L'NV40 sarà vecchio e inadeguato.
Sò che permette di velocizzare l'esecuzione degli shader se scritti sotto
3.0 invece che con i 2.0
Quello che chiedo ma quali sono e quante le freature dello SM 3.0 e quali sono veramente utilizzabili in un motore grafico dall'NV40 senza rischiare in un grosso decadimento prestazionale come fanno HDR e Dynamic Braching
Diciamo che Nvidia con lo shader 3.0 ha continuato il suo compito di apri-strada alle nuove features come ha detto un altro utente quì. Come il T&L HW o il Cube Mapping. Ma in effetti non credo che nel GeForce 2 GTS era utilizzabile quest'ultima features senza cali di prestazioni.
BTinside
28-02-2005, 12:08
Originariamente inviato da yossarian
non so se il problema di cui si parla e per cui non sono stati implementati gli shader 2+ su ATi sia relativo alle ombre (non ho neppure il gioco, tra l'altro); mi limito a fare considerazioni su quello che ho letto: se veramente ci sono istruzioni di read back verso il depth buffer non mi meraviglia che ATi non permetta la loro abilitazione per i motivi che ho esposto e non escluderei a priori che il calo di prestazioni con NV40, che rende praticamente inutilizzabili le estensioni sm2.0+, sia dovuto anche alle motivazioni che hanno spinto ATi a non abilitare questa procedura (anche i chip NV hanno una sorta di hyerarchical, se non ricordo male a 2, anzichè a 3 livelli e utilizzano algoritmi di compressione dei dati dello z-buffer).
Per quanto riguarda i punti deboli dei chip ATi, sicuramente ce ne sono (uno, ad esempio, è quello relativo alle dependent texture read, tanto utilizzate in Doom3).
Cosa sono le dependent texture read?:)
BTinside
28-02-2005, 12:09
Originariamente inviato da Athlon 64 3000+
Quello che chiedo ma quali sono e quante le freature dello SM 3.0 e quali sono veramente utilizzabili in un motore grafico dall'NV40 senza rischiare in un grosso decadimento prestazionale come fanno HDR e Dynamic Braching
Ciò che mi chiedo anch'io:)
andreamarra
28-02-2005, 12:16
Originariamente inviato da Athlon 64 3000+
Io ho sempre sostenuto che lo shader model 3.0 fossè un manovra commericiale di Nvidia e che quando verrà sfruttare L'NV40 sarà vecchio e inadeguato.
Sò che permette di velocizzare l'esecuzione degli shader se scritti sotto
3.0 invece che con i 2.0
Quello che chiedo ma quali sono e quante le freature dello SM 3.0 e quali sono veramente utilizzabili in un motore grafico dall'NV40 senza rischiare in un grosso decadimento prestazionale come fanno HDR e Dynamic Braching
Sia HDR che Dbranching (soprattutto quest'ultimo) saranno appannaggio delle prossime schede grafiche.
Se si tratta solo di sostituire le istruzioni ps2.0 con quelle 3.0 allora (considrando che il numero di istruzioni usate non avrebbe colmato un ps2.0) i vantaggi anche se piccoli ci sono.
Il problema invece è quando vengono utilizzati effetti grafici, techiche di rendering in shader 3.0. Sinceramente sono totalmente pessimista per queste nv40 attuali, sinceramente credevo che almeno per i primi giochi le prestazioni non decadessero di molto.
Per lo meno diamo atto che la nvidia ha fatto da apripista. Qualcuno deve pur cominciare.
Alla luce di questo: io ero sicuro di prendere una nv40 per via di effetti grafici in più, si parlava del fatto che era meglio prendere nv40 perchè sarebbe stata "più longeva", perchè era meglio prendere una che sfruttava i 3.0 piuttosto che prenderne una che non li sfrutta. Adesso mi sa che le mie considerazioni iniziali su queste schede non erano campate in aria...
aspetto altri giochi, vediamo che succede.
BTinside
28-02-2005, 12:54
Originariamente inviato da andreamarra
Io ero sicuro di prendere una nv40 per via di effetti grafici in più, si parlava del fatto che era meglio prendere nv40 perchè sarebbe stata "più longeva", perchè era meglio prendere una che sfruttava i 3.0 piuttosto che prenderne una che non li sfrutta. Adesso mi sa che le mie considerazioni iniziali su queste schede non erano campate in aria...
aspetto altri giochi, vediamo che succede.
Io ero sicuro invece sin dall'inizio che avrebbero fruttato poco in termini qualitativi, comprai la 6800GT solo per il rapporto prezzo prestazioni e la possibilità di portarla ad Ultra. Sicuramente un rapporto più conveniente di quello Ati che solo ora fa uscire la X800XL.
andreamarra
28-02-2005, 13:39
Originariamente inviato da BTinside
Io ero sicuro invece sin dall'inizio che avrebbero fruttato poco in termini qualitativi, comprai la 6800GT solo per il rapporto prezzo prestazioni e la possibilità di portarla ad Ultra. Sicuramente un rapporto più conveniente di quello Ati che solo ora fa uscire la X800XL.
diciamo che se dovessi prendere una scheda video adesso, prenderei sicuramente la GT lo stesso.
Solo che un èò di "amaro in bocca" mi rimane :(
Athlon 64 3000+
28-02-2005, 13:45
Infatti io la 6800Gt la ho presa perchè primo la X800Pro non mi ha mai convinto per il fatto delle 12 pipeline e secondo la X800Xt non la trovato a meno di 480-490 euro a novembre e allora ho trovato la 6800Gt a 427 euro e allora ho preso L'NV40.
BTinside
28-02-2005, 13:58
Originariamente inviato da Athlon 64 3000+
Infatti io la 6800Gt la ho presa perchè primo la X800Pro non mi ha mai convinto per il fatto delle 12 pipeline e secondo la X800Xt non la trovato a meno di 480-490 euro a novembre e allora ho trovato la 6800Gt a 427 euro e allora ho preso L'NV40.
D'altronde se non sono shader 3.0 appieno sono sicuramente quaclosina in più degli shader 2.0b di ati, per il resto la scheda va piuttosto bene.
Originariamente inviato da yossarian
non esiste una vera limitazione in HW nel senso che si tratta di un'operazione possibile che però abbatte le prestazioni perchè disabilita lo hyerarchical e obbliga a decomprimere i dati del depth buffer con le conseguenze che si perdono i vantaggi di una scansione front to back e fa aumentare la richiesta di bandwidth (almeno di un fattore 4x).
beh, in questo senso è una operazione ke non sfrutta tutto l'hardware a disposizione incorrendo in rallentamenti ;) cmq grazie per la precisazione
bYeZ!
BTinside
28-02-2005, 15:21
Originariamente inviato da ATi7500
beh, in questo senso è una operazione ke non sfrutta tutto l'hardware a disposizione incorrendo in rallentamenti ;) cmq grazie per la precisazione
bYeZ!
Hai PVT:)
Originariamente inviato da BTinside
Hai PVT:)
risposto ;)
bYeZ!
BTinside
28-02-2005, 15:40
Originariamente inviato da ATi7500
risposto ;)
bYeZ!
Altra domanda:)
Originariamente inviato da yossarian
il problema non è il solo HDR che, anche se a scapito delle prestazioni, può essere gestito discretamente anche da NV40, ma tutte le altre feature sm3.0 che, messe insieme, portano ad un degrado delle prestazioni drammatico. Per poter valutare i prossimi chip bisognerà prima vederli all'opera
Io sarei meno pessimista, al momento si riesce su un NV40 a far girare scene in full HDR con parecchi effetti ed uso sistematico dell'SM3.0 attorno ai 25/30fps (ampiamente dentro i limiti di accettabilita' di un'applicazione realtime). Ipotizzando di raddoppiare le prestazioni si parla di 50/60 fps al massimo dettaglio, piu' che accettabile.
Athlon 64 3000+
28-02-2005, 16:52
Originariamente inviato da fek
Io sarei meno pessimista, al momento si riesce su un NV40 a far girare scene in full HDR con parecchi effetti ed uso sistematico dell'SM3.0 attorno ai 25/30fps (ampiamente dentro i limiti di accettabilita' di un'applicazione realtime). Ipotizzando di raddoppiare le prestazioni si parla di 50/60 fps al massimo dettaglio, piu' che accettabile.
HAi provato con L'NV40 a far girare un'applicazione in realtime con parecchi effetti ed uso sitematico dell'SM 3.0 però senza HDR e con quale frame rate.
yossarian
28-02-2005, 17:08
Originariamente inviato da fek
Io sarei meno pessimista, al momento si riesce su un NV40 a far girare scene in full HDR con parecchi effetti ed uso sistematico dell'SM3.0 attorno ai 25/30fps (ampiamente dentro i limiti di accettabilita' di un'applicazione realtime). Ipotizzando di raddoppiare le prestazioni si parla di 50/60 fps al massimo dettaglio, piu' che accettabile.
trovi che io sia pessimista? Sono solo un adepto della legge di Murphy!
:D
Anche il VSA100 della Voodoo5 permetteva attraverso il T-Buffer (surrogato dell ' Accumulation Buffer delle piattaforme Silicon) le soft shadows ; anche in quel caso con un mostruoso calo di prestazioni a causa del supersampling (se non sbaglio) necessario all'effetto in oggetto....
BTinside
28-02-2005, 18:53
Originariamente inviato da Milotto
Anche il VSA100 della Voodoo5 permetteva attraverso il T-Buffer (surrogato dell ' Accumulation Buffer delle piattaforme Silicon) le soft shadows ; anche in quel caso con un mostruoso calo di prestazioni a causa del supersampling (se non sbaglio) necessario all'effetto in oggetto....
Se le soft shadow pesano tanto su 6800Ultra non oso immagginare sul VSA 100
peppos83
06-03-2005, 00:59
Originariamente inviato da BTinside
Se le soft shadow pesano tanto su 6800Ultra non oso immagginare sul VSA 100
Beh... Da quello ke ho visto (demo 3dfx) con utilizzo in realtime delle soft shadow:eek: ti posso assicurare ke andavano e vanno benissimo:sofico: ... Già le soft shadow nel 2000 kissà oggi ke avrebbe fatto se fosse ancora viva:cry:
allucinoggeno!! Ma secondo voi davvero nv 40 non tiene decentemente 1153x864 con HDR e AF?!!? Ma se va a palla! Mha! Il demo di splinter cell non l'ho ancora provato.
Originariamente inviato da Vash88
allucinoggeno!! Ma secondo voi davvero nv 40 non tiene decentemente 1153x864 con HDR e AF?!!? Ma se va a palla! Mha! Il demo di splinter cell non l'ho ancora provato.
che dire.... secondo mè la versione finale sarà diversa come prestazioni, mi spiego meglio, la mia config è composta da 3500+ 1gb ram e 6800ultra audigy 2 zs (audio spettacolare per chi ha un 5.1) impostando tutto al max senza aa ma con af a 16 alla risoluzione di 640 ho 40 fps a 1280 30 e a 1600 25 possibile che neanche a 640 riesce a farlo girare? :(
peppos83
06-03-2005, 11:03
Originariamente inviato da samuelx
che dire.... secondo mè la versione finale sarà diversa come prestazioni, mi spiego meglio, la mia config è composta da 3500+ 1gb ram e 6800ultra audigy 2 zs (audio spettacolare per chi ha un 5.1) impostando tutto al max senza aa ma con af a 16 alla risoluzione di 640 ho 40 fps a 1280 30 e a 1600 25 possibile che neanche a 640 riesce a farlo girare? :(
Ammazza... E proprio bello massiccio:eek:
Originariamente inviato da peppos83
Beh... Da quello ke ho visto (demo 3dfx) con utilizzo in realtime delle soft shadow:eek: ti posso assicurare ke andavano e vanno benissimo:sofico: ... Già le soft shadow nel 2000 kissà oggi ke avrebbe fatto se fosse ancora viva:cry:
A quale tech demo ti riferisci...?
Originariamente inviato da peppos83
Beh... Da quello ke ho visto (demo 3dfx) con utilizzo in realtime delle soft shadow:eek: ti posso assicurare ke andavano e vanno benissimo:sofico: ... Già le soft shadow nel 2000 kissà oggi ke avrebbe fatto se fosse ancora viva:cry:
A meno di non infrangere le leggi della fisica, nulla piu' di quello che le GPU High-end fanno adesso.
Che tecnica usava per le soft shadow in quella demo? Nessuna tecnica che conosco e' in grado di girare in real time su una GPU con le capacita' delle voodoo di allora.
peppos83
06-03-2005, 18:51
Originariamente inviato da Milotto
A quale tech demo ti riferisci...?
Nn mi ricordo il nome (la provai tempo fà) ma era ambientata dentro ad un museo... Se la ritrovo t faccio saxe...
peppos83
06-03-2005, 18:54
Originariamente inviato da fek
A meno di non infrangere le leggi della fisica, nulla piu' di quello che le GPU High-end fanno adesso.
Che tecnica usava per le soft shadow in quella demo? Nessuna tecnica che conosco e' in grado di girare in real time su una GPU con le capacita' delle voodoo di allora.
Nn so d preciso ke tecnica usasse... Ma si basava sul T-Buffer™ Digital Cinematic Effect integrato nel chip VSA100. Cmq mi sà ke nel 2000 qst chip era l'unico a poter fare ciò: mi sbaglio?
Originariamente inviato da fek
A meno di non infrangere le leggi della fisica, nulla piu' di quello che le GPU High-end fanno adesso.
Che tecnica usava per le soft shadow in quella demo? Nessuna tecnica che conosco e' in grado di girare in real time su una GPU con le capacita' delle voodoo di allora.
Fek lui si riferisce al T-Buffer che è un'implementazione di 3dfx dell'accumulation buffer di OpenGL. Non so che prestazioni avesse all'epoca, però effettivamente faceva un qualche tipo di soft shadow e soft reflections (anche se ovviamente parliamo sempre di pseudo soft shadow, niente di fisicamente corretto in termini di penombra).
Originariamente inviato da Vifani
Fek lui si riferisce al T-Buffer che è un'implementazione di 3dfx dell'accumulation buffer di OpenGL. Non so che prestazioni avesse all'epoca, però effettivamente faceva un qualche tipo di soft shadow e soft reflections (anche se ovviamente parliamo sempre di pseudo soft shadow, niente di fisicamente corretto in termini di penombra).
Beh, neanche quelle di oggi sono neppure lontanamente vicine ad essere fisicamente corrette.
Ricordo il T-Buffer delle Voodoo5, sostanzialmente inusabile con piu' di un paio di oggetti. Lo usavano per fare depth of field, ad esempio.
Oggi il T-Buffer e' stato formalmente abbandonato da qualche anno in favore di soluzioni piu' flessibili: di fatto era un render target di oggi con parecchie limitazioni.
Originariamente inviato da fek
Beh, neanche quelle di oggi sono neppure lontanamente vicine ad essere fisicamente corrette.
Ricordo il T-Buffer delle Voodoo5, sostanzialmente inusabile con piu' di un paio di oggetti. Lo usavano per fare depth of field, ad esempio.
Oggi il T-Buffer e' stato formalmente abbandonato da qualche anno in favore di soluzioni piu' flessibili: di fatto era un render target di oggi con parecchie limitazioni.
Certo, le ombre di oggi non sono fisicamente corrette, cmq la resa di quelle mostrate da 3dfx non era male per l'epoca. Tuttavia effettivamente come per molti effetti che vediamo anche oggi nelle demo tecnologiche di ATI e NVIDIA, alla fine erano scarsamente applicabili ad un gioco.
BTinside
09-03-2005, 21:07
Originariamente inviato da peppos83
Ammazza... E proprio bello massiccio:eek:
é l'Hdr che pesa
peppos83
09-03-2005, 21:36
Originariamente inviato da BTinside
é l'Hdr che pesa
Lo so:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.