View Full Version : 7800GTX & High Dynamic Range
stilelibero766
31-10-2005, 21:15
Ma la 7800GTX supporta l’High Dynamic Range ??? :)
O è solo una esclusiva di casa ATI???
no ce l'ha anche la 7800 se non erro
DevilMalak
01-11-2005, 01:11
se non erro ce l'han tutte le vga dx9, soltanto che con la serie x1k delle radeon di ati si può avere HDR+AA contemporaneamente [ potrei aver detto un idiozia, aspetto conferma/smentita :) ]
pistolino
01-11-2005, 11:35
se non erro ce l'han le vga (Nvida 6xxx e superiori. Le X800 e inferiori non lo hanno), soltanto che con la serie x1k delle radeon di ati si può avere HDR+AA contemporaneamente [ potrei aver detto un idiozia, aspetto conferma/smentita :) ]
confermo in parte ;)
mirkobob
01-11-2005, 11:52
6600gt ce l'ha!!!
http://www.webalice.it/mirkobob/lostcoast1.jpg
http://www.webalice.it/mirkobob/lostcoast2.jpg
darkfear
01-11-2005, 11:54
6600gt ce l'ha!!!
http://www.webalice.it/mirkobob/lostcoast1.jpg
http://www.webalice.it/mirkobob/lostcoast2.jpg
il "falso" hdr di hl2 niente a che vedere con quello "vero"...tutte le dx 9 (o quai) supportano l'hdr ma con AA solo 1k di ati
supportano l'hdr le geforce 6 e 7 e la serie x1k di ati..
mirkobob
01-11-2005, 12:02
azz allora chi ha x800 o x850? che fa rosica? :D
darkfear
01-11-2005, 12:04
azz allora chi ha x800 o x850? che fa rosica? :D
no ce l'hanno anche loro... :rolleyes: e anche la serie 5...
no guarda solo chi supporta sm3.0 supporta hdr (anche se le cose non sono strettamente legate) e solo la x1k lo supporta in accoppiata con l'antialiasing!
cerco un link per dimostrartelo
ecco qui http://www.hwupgrade.it/articoli/skvideo/1361/10.html
buona lettura ;)
darkfear
01-11-2005, 12:20
no guarda solo chi supporta sm3.0 supporta hdr (anche se le cose non sono strettamente legate) e solo la x1k lo supporta in accoppiata con l'antialiasing!
cerco un link per dimostrartelo
ah scusa pensavo che la serie 5 lo supportasse..scusa cmq non solo lo sm3.0 assolutamente no...la mia lo supporta...e non ha lo sm3.0 :p
darkfear
01-11-2005, 12:21
ecco qui http://www.hwupgrade.it/articoli/skvideo/1361/10.html
buona lettura ;)
ma tu dici in accoppiata con l'AA!!! solo le 1k ma per il resto tutte dalla serie 6 e anche le 9800 lo supportano...per la serie 5 non lo so...
riporto dall'articolo che ho linkato:
"Le schede video serie Radeon X850 (o precedenti) non possono renderizzare su una texture in formato floating point ed è per questo che possono supportare l’High Dynamic Range solo con tecniche facenti uso di texture in formato intero a 16/32 bit per canale di colore come quelle utilizzate da Half Life 2 Lost Coast o da Splinter Cell Chaors Theory nella modalità Shader Model 2.0 introdotta con l’ultima patch. Le schede video della serie GeForce 6x00 e 7800, invece, sono in grado di renderizzare in questo tipo di texture e di utilizzare tale operazione per realizzare l’High Dynamic Range"
la scheda che hai in sign non supporta hdr
no guarda solo chi supporta sm3.0 supporta hdr (anche se le cose non sono strettamente legate) e solo la x1k lo supporta in accoppiata con l'antialiasing!
cerco un link per dimostrartelo
Falso :)
L'HDR non è una prerogativa dello SM3. E' solo un caso che le schede SM3 supportino anche l'HDR che tutti ritengono "canonico" ma che "canonico non è". In quanto pure quello è mezzo HDR. E quello di HL2 non è falso HDR, è solo un modo diverso per ottenere HDR da quello usato in Far Cry (ad esempio) che utilizza il blending in floating point anzichè utilizzare gli interi (come fa appunto HL2).
riporto dall'articolo che ho linkato:
"Le schede video serie Radeon X850 (o precedenti) non possono renderizzare su una texture in formato floating point ed è per questo che possono supportare l’High Dynamic Range solo con tecniche facenti uso di texture in formato intero a 16/32 bit per canale di colore come quelle utilizzate da Half Life 2 Lost Coast o da Splinter Cell Chaors Theory nella modalità Shader Model 2.0 introdotta con l’ultima patch. Le schede video della serie GeForce 6x00 e 7800, invece, sono in grado di renderizzare in questo tipo di texture e di utilizzare tale operazione per realizzare l’High Dynamic Range"
la scheda che hai in sign non supporta hdr
L'articolo non dice che le Radeon X850 non possono realizzare l'High Dynamic Range, dice solo che non possono farlo usando texture in formato floating point, cosa ben diversa. Di tecniche di HDR ce ne sono diverse e quella scelta da Valve per HL2 Lost Coast non fa uso di texture in formato floating point, ma di texture in formato intero con 32 bit per componente di colore. Non per questo bisogna considerare quello di HL2 come un HDR falso o truccato. E' un'altra tecnica di HDR, così come ci sono tante tecniche per realizzare le ombre, l'acqua, ecc....
avete ragione giuste rettifiche :)
x djlode: avevo detto nel post che hai quotato che hdr e sm3.0 non erano strettamente legati :)
x djlode: avevo detto nel post che hai quotato che hdr e sm3.0 non erano strettamente legati :)
Hai ragione. Avevo visto dopo aver scritto il messaggio. Ma dalla tua prima affermazione poteva sembrare il contrario, così ho lasciato :)
Erian Algard
02-11-2005, 09:58
Domanda: Perchè in Brothers in Arms se disattivo l'HDR e metto l'antialias(forzandolo dal pannelo Nvidia)quest'ultimo non si attiva durante il gioco?
So che non c'entra una pippa, ma l'anti alias senza HDR deve funzionare no?
Sì, l'AA senza HDR dovrebbe funzionare sempre. Ma può anche esserci un problema di driver, o del gioco che magari con l'AA in questione non si "trova bene" e quindi Nvidia ha deciso di lasciarlo disattivato. Ati aveva problemi con l'AA in alcuni giochi e questo era disattivato dai driver automaticamente.
Meglio non avercelo se avercelo obbliga ad avere problemi no? :)
Cmq prova ad attivarlo dal gioco, se c'è l'opzione, piuttosto che dai panello.
Erian Algard
02-11-2005, 10:27
L'opzione non c'è dal gioco....quindi penso sia come dici tu disattivato dai driver.....
Meglio però che ti fidi di qualcuno che ha il gioco :)
Erian Algard
02-11-2005, 10:42
Se lo trovo qualcuno......sono giorni che giro sui forum e pare che sto gioco non ce l'ha nessuno.....allucinante.....
L'articolo non dice che le Radeon X850 non possono realizzare l'High Dynamic Range, dice solo che non possono farlo usando texture in formato floating point, cosa ben diversa. Di tecniche di HDR ce ne sono diverse e quella scelta da Valve per HL2 Lost Coast non fa uso di texture in formato floating point, ma di texture in formato intero con 32 bit per componente di colore. Non per questo bisogna considerare quello di HL2 come un HDR falso o truccato. E' un'altra tecnica di HDR, così come ci sono tante tecniche per realizzare le ombre, l'acqua, ecc....
Se si intende HDR cosi' come definito nelle specifiche delle DX9c allora no, le X800 ed X850 non possono fare quell'HDR.
Se all'interno di un engine grafico un particolare sviluppatore vuole inserire un hdr eseguito differentemente, cosi' come ha fatto Valve con un brillante stratagemma che gli permette di utilizzare una forma di HDR sufficientemente convincente, allora potremmo dire che QUALSIASI scheda video Dx9 supporti una forma QUALSIASI di hdr.
Tutto sta ad intendersi sui termini, ma se parliamo di HDR "in generale" parliamo di quello che non necessita programmazione "ad hoc" ma che bensi' si poggia sulle API e sulle feature delle schede video.
Ah, ora l'HDR sarebbe una specifica delle Dx9.0c? Mi giunge assolutamente nuova :D
Ora, se si parla di HDR in quanto tale, Microsoft non l'ha inventato. E l'algoritmo prevede un uso di una precisione di 32bit. Quindi manco l'HDR che tanto sventola Nvidia è HDR pure.
Premesso questo, partendo dal presupposto sbagliato che Microsoft abbia inteso l'HDR come specifica delle Dx9.0c, mi fai vedere una paginetta in cui venga indicato che l'HDR vero è solo quello che usa superfici generate con fp a 16bit?
Perchè ne ricordo una sola in cui sotto High Dynamic Range veniva spiegato l'effetto con blending a 16bit fp e con blooming con interi. Quindi, concludo, Valve non ha usato uno stratagemma, Valve fa HDR in uno dei diversi modi in cui si può fare. Nonostante Nvidia (guarda caso ne? :D) spacci per vero HDR solo quello che le sue schede potevano fare (6800 e 7800).
Per dire:
Questo viene direttamente dall'MSDN di MS:
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/HDRFormats_Sample.asp
Questo è un link contenuto all'interno di un articolo sempre dell'MSDN di MS:
http://www.daionet.gr.jp/~masa/rthdribl/
Notare le richieste :)
Ah, ora l'HDR sarebbe una specifica delle Dx9.0c? Mi giunge assolutamente nuova :D
Ora, se si parla di HDR in quanto tale, Microsoft non l'ha inventato. E l'algoritmo prevede un uso di una precisione di 32bit. Quindi manco l'HDR che tanto sventola Nvidia è HDR pure.
Premesso questo, partendo dal presupposto sbagliato che Microsoft abbia inteso l'HDR come specifica delle Dx9.0c, mi fai vedere una paginetta in cui venga indicato che l'HDR vero è solo quello che usa superfici generate con fp a 16bit?
Se dobbiamo metterla a burletta non trovi interlocutore, se dobbiamo parlare seriamente allora comincia a leggere con attenzione i post a cui rispondi, per non prendere fischi per fiaschi.
Innanzitutto non e' stato scritto ne' che l'hdr sia "una specifica delle dx9.0c", bensi' e' stato scritto "hdr fatto SECONDO le specifiche delle dx9.0c". Secondo non e' stato scritto da nessuna parte che l'abbia inventato Microsoft.
Terzo fai confusione tra i termini di precisione di calcolo e bit. Da come la metti tu, in maniera cosi' "sbrigativa", sembra che parli di 16 bit o 32 bit e se permetti fa sorridere visto che non stiamo parlando di valori fixed. Tutt'alpiu' dovresti dire 128 e 64 bit visto che si tratta di 4x32 bit nel caso di FP32 e di 4x16 bit nel caso di FP16, il che e' BEN diverso.
Perchè ne ricordo una sola in cui sotto High Dynamic Range veniva spiegato l'effetto con blending a 16bit fp e con blooming con interi. Quindi, concludo, Valve non ha usato uno stratagemma, Valve fa HDR in uno dei diversi modi in cui si può fare. Nonostante Nvidia (guarda caso ne? :D) spacci per vero HDR solo quello che le sue schede potevano fare (6800 e 7800).
Per dire:
Questo viene direttamente dall'MSDN di MS:
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/HDRFormats_Sample.asp
Questo è un link contenuto all'interno di un articolo sempre dell'MSDN di MS:
http://www.daionet.gr.jp/~masa/rthdribl/
Notare le richieste :)
Nell'url Microsoft che hai proposto, toglimi una curiosita', essendo un sample, cosa vorresti dimostrare? :)
Mi sembra che il mio intervento e' stato chiarissimo, ma hai svicolato prendendo spunto su affermazioni che hai capito "a modo tuo".
Il senso del mio post, e lo ribadisco, e' che se viene programmato un gioco dx9 e viene previsto il supporto hdr "come da Api", le 6800-7800-x1800 lo eseguono (tralascio x1300-x1600, 6200-6600 perche' credo l'impatto prestazionale sia enorme), le altre schede NO.
Se, come nel caso di Valve, vengono usate altre implementazioni che riescono (da li' il termine STRATAGEMMA) a dare una resa visiva grossomodo paragonabile su tutte le schede, allora si tratta di un intervento diretto dei programmatori. E' sempre HDR, non e' fatto secondo le specifiche della API, di conseguenza dire "genericamente" che una X800 supporti HDR e' mentire all'utente finale, il quale poi carica splinter cell chaos theory e l'hdr NON ce l'ha.
Poi glielo vai a spiegare tu il motivo? Le informazioni si danno tutte per bene sai? :)
Se dobbiamo metterla a burletta non trovi interlocutore, se dobbiamo parlare seriamente allora comincia a leggere con attenzione i post a cui rispondi, per non prendere fischi per fiaschi.
Innanzitutto non e' stato scritto ne' che l'hdr sia "una specifica delle dx9.0c", bensi' e' stato scritto "hdr fatto SECONDO le specifiche delle dx9.0c". Secondo non e' stato scritto da nessuna parte che l'abbia inventato Microsoft.
Terzo fai confusione tra i termini di precisione di calcolo e bit. Da come la metti tu, in maniera cosi' "sbrigativa", sembra che parli di 16 bit o 32 bit e se permetti fa sorridere visto che non stiamo parlando di valori fixed. Tutt'alpiu' dovresti dire 128 e 64 bit visto che si tratta di 4x32 bit nel caso di FP32 e di 4x16 bit nel caso di FP16, il che e' BEN diverso.
Nell'url Microsoft che hai proposto, toglimi una curiosita', essendo un sample, cosa vorresti dimostrare? :)
Mi sembra che il mio intervento e' stato chiarissimo, ma hai svicolato prendendo spunto su affermazioni che hai capito "a modo tuo".
Il senso del mio post, e lo ribadisco, e' che se viene programmato un gioco dx9 e viene previsto il supporto hdr "come da Api", le 6800-7800-x1800 lo eseguono (tralascio x1300-x1600, 6200-6600 perche' credo l'impatto prestazionale sia enorme), le altre schede NO.
Se, come nel caso di Valve, vengono usate altre implementazioni che riescono (da li' il termine STRATAGEMMA) a dare una resa visiva grossomodo paragonabile su tutte le schede, allora si tratta di un intervento diretto dei programmatori. E' sempre HDR, non e' fatto secondo le specifiche della API, di conseguenza dire "genericamente" che una X800 supporti HDR e' mentire all'utente finale, il quale poi carica splinter cell chaos theory e l'hdr NON ce l'ha.
Poi glielo vai a spiegare tu il motivo? Le informazioni si danno tutte per bene sai? :)
scusa la presunzione, ma dove sta scritto che l'api Dx9 non può avvalersi delle texture in formato intero a 16/32 bit per canale di colore (per la renderizzazione di HDR)?
bYeZ!
Se dobbiamo metterla a burletta non trovi interlocutore, se dobbiamo parlare seriamente allora comincia a leggere con attenzione i post a cui rispondi, per non prendere fischi per fiaschi.
Comincia tu, visto che ne hai presi diversi :D
Metterla a burletta? Sia mai, ma almeno non farlo pure tu consigliandomi di leggere attentamente i post a cui rispondi, cosa che faccio da anni :)
Innanzitutto non e' stato scritto ne' che l'hdr sia "una specifica delle dx9.0c", bensi' e' stato scritto "hdr fatto SECONDO le specifiche delle dx9.0c".
"Così come definito nelle specifiche delle DX9" in italiano per me vuol dire che nelle DX9 è definita la specifica dell'HDR. Cosa falsa, non essendo l'HDR un effetto definito nelle specifiche delle DX9 (le specifiche DX9 contengono le specifiche delle Api e se dentro è definito un qualcosa fa parte delle specifiche non credo che si possa scappare da una cosa talmente logica). Quindi se volevei scrivere fatto utilizzando le specifiche dx9.0c sbagli di nuovo in quanto la capacità di renderizzare superfici in floating point non è una specifica necessaria delle dx9.0c. Di solito se voglio intendere qualcosa, scrivo cosa intendo :)
Secondo non e' stato scritto da nessuna parte che l'abbia inventato Microsoft.
Non ho scritto che tu l'hai scritto, come vedi non sono l'unico a leggere con poca attenzione. Se infatti ti sei letto il seguito capisci cosa intendevo.
Terzo fai confusione tra i termini di precisione di calcolo e bit. Da come la metti tu, in maniera cosi' "sbrigativa", sembra che parli di 16 bit o 32 bit e se permetti fa sorridere visto che non stiamo parlando di valori fixed. Tutt'alpiu' dovresti dire 128 e 64 bit visto che si tratta di 4x32 bit nel caso di FP32 e di 4x16 bit nel caso di FP16, il che e' BEN diverso.
Quindi tu non sai dell'esistenza di calcoli in floating point con precisione di 16 bit e 32bit? Quindi, ad esempio, l'IEEE 754 per te non esiste?
Nell'url Microsoft che hai proposto, toglimi una curiosita', essendo un sample, cosa vorresti dimostrare? :)
Essendo un documento che parla di HDR e propone l'HDR usando interi, non mi pare difficile capire cosa dimostra. HDR -> interi. Tu parli di stratagemma e di vero HDR solo nel caso di utilizzo di superfici generate in floating point. Dimostra che ciò che dici è falso :)
Mi sembra che il mio intervento e' stato chiarissimo, ma hai svicolato prendendo spunto su affermazioni che hai capito "a modo tuo".
Leggo quello che c'è scritto. Risponto a quello che c'è scritto.
L'HDR non è definito nelle specifiche delle DX9 e l'HDR utilizzato da Valve non è falso HDR o uno stratagemma, ma solo un modo diverso di HDR. In quanto HDR non identifica altro che un modo diverso di mappare i valori di intensità della luce per avere maggiore precisione.
Il senso del mio post, e lo ribadisco, e' che se viene programmato un gioco dx9 e viene previsto il supporto hdr "come da Api", le 6800-7800-x1800 lo eseguono (tralascio x1300-x1600, 6200-6600 perche' credo l'impatto prestazionale sia enorme), le altre schede NO.
Senso che avevo compreso, senso sbagliato.
Se, come nel caso di Valve, vengono usate altre implementazioni che riescono (da li' il termine STRATAGEMMA) a dare una resa visiva grossomodo paragonabile su tutte le schede, allora si tratta di un intervento diretto dei programmatori. E' sempre HDR, non e' fatto secondo le specifiche della API, di conseguenza dire "genericamente" che una X800 supporti HDR e' mentire all'utente finale, il quale poi carica splinter cell chaos theory e l'hdr NON ce l'ha.
E' sempre HDR ma non è HDR? Cristo, alquanto confusa come cosa o solo io la vedo così? Ah, per inciso, SP:CT attiva il tanto amato HDR anche dalla 9700 in su :), così giusto per essere precisi eh...
X800 non supporta HDR ottenuto tramite la generazione di superfici in floating point ma supporta l'HDR come Valve usa, come usa SP:CT e come usano altri demo.
Poi glielo vai a spiegare tu il motivo? Le informazioni si danno tutte per bene sai? :)
Certo, infatti le informazioni da me date sono esatte. E le ho date pure tutte.
Quindi tu non sai dell'esistenza di calcoli in floating point con precisione di 16 bit e 32bit? Quindi, ad esempio, l'IEEE 754 per te non esiste?
Stai scherzando? :)
Torno alla considerazione di cui sopra, se non capisci cio' che scrivo, o se sono io troppo arzigogolato o criptico, basta chiedere :)
Credo sia dai tempi delle discussioni "NV30 vs R300" che si parla di cio'. Tanto per la precisione, quando uscii con una delle prime comparative approfondite tra le due schede, vedi nvitalia :p
Essendo un documento che parla di HDR e propone l'HDR usando interi, non mi pare difficile capire cosa dimostra. HDR -> interi. Tu parli di stratagemma e di vero HDR solo nel caso di utilizzo di superfici generate in floating point. Dimostra che ciò che dici è falso :)
Non ho nulla da dimostrare, visto che l'accezione di "falso" l'hai inventata tu, come tanti altri mulini a vento di cui hai riempito le tue risposte :)
Ma mi autoquoto per tua comodita' :
Se si intende HDR cosi' come definito nelle specifiche delle DX9c allora no, le X800 ed X850 non possono fare quell'HDR.
Se all'interno di un engine grafico un particolare sviluppatore vuole inserire un hdr eseguito differentemente, cosi' come ha fatto Valve con un brillante stratagemma che gli permette di utilizzare una forma di HDR sufficientemente convincente, allora potremmo dire che QUALSIASI scheda video Dx9 supporti una forma QUALSIASI di hdr.
Ho messo in neretto le parole reali che si scontrano coi tuoi mulini a vento :)
Hint : dx9c ed sm3.0, che relazione ci sara' mai ;)
HDR secondo le specifiche dx9.0c, per farti l'esempio di Splinter Cell Chaos Theory, riporto un piccolo particolare :
"Shader Model 2.0 specification has been added in the latest patch and this allows especially ATI video cards to run the game at their highest setting available."
Cioe', di nuovo programmazione "aggiuntiva". Ora, con l'uscita delle schede Ati SM 3.0 compliant, mi spieghi chi perdera' tempo ad implementare un path parallelo per esse?
E sopratutto, dove e' che ho scritto che sarebbe FINTO hdr? :D
Ti do' un indizio : le regole del gioco le fa Microsoft, non io, ne' tu. Nel momento in cui ci troviamo ad utilizzare SM 3.0 e le feature vengono rapportate ad esso, non sperare nella retroprogrammazione del singolo HDR per una fetta di schede destinata a venire rimpiazzata. Il fine non scritto ma reale di Nvidia ed Ati e' proprio fartela cambiare la scheda, non certo fartela tenere all'infinito, e le successive revisioni delle Api che seguono pari passo lo scontro a cazzotti tra le due ne e' la diretta prova.
Poi ripeto, visto che ti ritengo ben piu' intelligente del doverti veder prendere le mie parole e rigirarle, aspetto che la smetti di giocare e poi ne riparliamo seriamente. Il che significa che in reply puoi fare i tuoi comodi se proprio e' burletta la tua intenzione... ma pazienza :)
Stai scherzando? :)
Torno alla considerazione di cui sopra, se non capisci cio' che scrivo, o se sono io troppo arzigogolato o criptico, basta chiedere :)
Credo sia dai tempi delle discussioni "NV30 vs R300" che si parla di cio'. Tanto per la precisione, quando uscii con una delle prime comparative approfondite tra le due schede, vedi nvitalia :p
Se per te quanto hai scritto sopra ha senso in italiano allora mi scuso io, troppo poco intelligente per interpretare quanto scrivi.
Sei tu che mi accusi di non essere chiaro e di non capire quando parlo di precisione a 16 o 32 bit di cosa parlo.
Non ho nulla da dimostrare, visto che l'accezione di "falso" l'hai inventata tu, come tanti altri mulini a vento di cui hai riempito le tue risposte :)
Definire qualcosa stratagemma non equivale a dire che non è vero? E ciò che non è vero cos'è?
Ma mi autoquoto per tua comodita' :
So quello che hai scritto non sono deficiente, sto solo aspettando il link ad una pagina microsoft (che fa le regole) delle specifiche DX9 dove venga indicato come HDR unico e solo quello che indichi tu. Ripeto, io ti ho argomentato per filo e per segno quanto sbagli. Tu ancora no.
Ho messo in neretto le parole reali che si scontrano coi tuoi mulini a vento :)
Hint : dx9c ed sm3.0, che relazione ci sara' mai ;)
Sei noioso...
Tu hai detto che nelle specifiche c'è scritto come si fa HDR. Ti ho dimostrato che non è così, che tu non lo voglia accettare francamente a me poco interessa :)
HDR secondo le specifiche dx9.0c, per farti l'esempio di Splinter Cell Chaos Theory, riporto un piccolo particolare :
Cosa c'entra? Sei tu che hai detto che con Splinter Cell non ti trovi HDR. Ti ho dimostrato che è ancora falso. Come sia ottenuto quell'HDR l'ho specificato subito. Ripeto, perchè scrivi quanto hai scritto?
E sopratutto, dove e' che ho scritto che sarebbe FINTO hdr? :D
Se non è HDR vero cos'è? Dimmelo tu.
Poi ripeto, visto che ti ritengo ben piu' intelligente del doverti veder prendere le mie parole e rigirarle, aspetto che la smetti di giocare e poi ne riparliamo seriamente. Il che significa che in reply puoi fare i tuoi comodi se proprio e' burletta la tua intenzione... ma pazienza :)
Pensi che stia giocando o mi stia burlando?
L'HDR si può ottenere in diversi modi.
P.S. Ho editato l'ultimo pezzo, ho scritto cose che potevano risultare offensive. E mi sono reso conto dopo di quello che avevo scritto.
yossarian
02-11-2005, 16:40
L'articolo non dice che le Radeon X850 non possono realizzare l'High Dynamic Range, dice solo che non possono farlo usando texture in formato floating point, cosa ben diversa. Di tecniche di HDR ce ne sono diverse e quella scelta da Valve per HL2 Lost Coast non fa uso di texture in formato floating point, ma di texture in formato intero con 32 bit per componente di colore. Non per questo bisogna considerare quello di HL2 come un HDR falso o truccato. E' un'altra tecnica di HDR, così come ci sono tante tecniche per realizzare le ombre, l'acqua, ecc....
confermo tutto; le tecniche per fare hdr sono tante e diverse tra loro; alcune fanno uso di notazione fp, altre di notazione INT o fx; alcune usano 16 bit per canale, altre 10, 11, 12 o anche 8 (anche se gli addetti ai lavori considerano vero hdr solo quello che utilizza fp32 per canale). La tecnica implementata in hw da nVIDIA e ATi, è stata ideata da OpenEXR ed è stata scelta per la semplicità di applicazione in HW e per la qualità dell'algoritmo di compressione.
I chip delle serie NV4x e R520 hanno, in più, la capacità di fare texture blending a fp16 e color blending (sempre a fp16 nelle rop's).
L'hdr scelto da Valve per Lost Coast è, a tutti gli effetti, vero hdr, anche se diverso da quello di OpenEXR.
confermo tutto; le tecniche per fare hdr sono tante e diverse tra loro; alcune fanno uso di notazione fp, altre di notazione INT o fx; alcune usano 16 bit per canale, altre 10, 11, 12 o anche 8 (anche se gli addetti ai lavori considerano vero hdr solo quello che utilizza fp32 per canale). La tecnica implementata in hw da nVIDIA e ATi, è stata ideata da OpenEXR ed è stata scelta per la semplicità di applicazione in HW e per la qualità dell'algoritmo di compressione.
I chip delle serie NV4x e R520 hanno, in più, la capacità di fare texture blending a fp16 e color blending (sempre a fp16 nelle rop's).
L'hdr scelto da Valve per Lost Coast è, a tutti gli effetti, vero hdr, anche se diverso da quello di OpenEXR.
quindi anche la tecnica di OpenEXR (oltre a quella tirata in ballo da HL2) è supportata in hardware dai chip R3x0?
bYeZ!
Murakami
02-11-2005, 18:44
quindi anche la tecnica di OpenEXR (oltre a quella tirata in ballo da HL2) è supportata in hardware dai chip R3x0?
bYeZ!
No, se non ho capito male.
No, se non ho capito male.
yoss dice che R520 e NV40&G70 hanno qualcosa "in più" del supporto base OpenEXR..deducevo quindi che chip precedenti avessero questo supporto..
bYeZ!
ForeverBlue
02-11-2005, 19:36
non ho letto tt il thread ma dico la mia:
HDR è un fine, i mezzi col quale viene ottenuto non contano, perciò in teoria tutte le dx9 possono fare HDR INTEGER, solo NV40/G70/R520 HDR FP e solo R520 HDR FP+AAA
yossarian
02-11-2005, 19:39
quindi anche la tecnica di OpenEXR (oltre a quella tirata in ballo da HL2) è supportata in hardware dai chip R3x0?
bYeZ!
no, la tecnica di OpenEXR prevede la capacità di fare texture blending e color blending (all'interno del fb o, comunque, nelle rop's) a fp16; queste due operazioni sono prerogativa esclusiva di NV4x, G70 e R5x0
alexlionheart
03-11-2005, 14:01
scusate ma come mai in lost coast attivo aa 4x e hdr e mi va tutto bene?mica ho una 1800
scusate ma come mai in lost coast attivo aa 4x e hdr e mi va tutto bene?mica ho una 1800
Perchè va bene così :)
Il metodo usato per fare HDR in Lost Coast è compatibile con l'AA pur non avendo una X1800.
yossarian
03-11-2005, 14:24
scusate ma come mai in lost coast attivo aa 4x e hdr e mi va tutto bene?mica ho una 1800
perchè in Lost Coast non si fa uso di color blending a fp16 nel frame buffer. Il MSAA funziona solo a i8, mentre l'hdr, secondo l'implementazione di OpenEXR, prevede operazioni a fp16 anche all'interno delle rop's. Le due modalità, nei chip NV40 e G70 sono incompatibili, per cui sarebbe impossibile arrivare con fp16 nelle rop's, fare color blending a fp16 e applicare il MSAA a i8. In Lost Coast si occupano delle operazioni di tone mapping (compressione da fp16 a i8) i pixel shader; per cui, all'uscita dalle pixel pipeline e all'ingresso nelle rop's, i dati sono già a i8 e il color blending a i8 è compatibile con il MSAA. Quindi, rispetto al metodo ideato da OPenEXR, e adottato da ATi e nVIDIA, manca solo l'operazione di color blendong a fp16
Ma la 7800GTX supporta l’High Dynamic Range ??? :)
O è solo una esclusiva di casa ATI???
l'hdr fp è supportato dai "tempi" del geforce6
perchè in Lost Coast non si fa uso di color blending a fp16 nel frame buffer. Il MSAA funziona solo a i8, mentre l'hdr, secondo l'implementazione di OpenEXR, prevede operazioni a fp16 anche all'interno delle rop's. Le due modalità, nei chip NV40 e G70 sono incompatibili, per cui sarebbe impossibile arrivare con fp16 nelle rop's, fare color blending a fp16 e applicare il MSAA a i8. In Lost Coast si occupano delle operazioni di tone mapping (compressione da fp16 a i8) i pixel shader; per cui, all'uscita dalle pixel pipeline e all'ingresso nelle rop's, i dati sono già a i8 e il color blending a i8 è compatibile con il MSAA. Quindi, rispetto al metodo ideato da OPenEXR, e adottato da ATi e nVIDIA, manca solo l'operazione di color blendong a fp16
Quindi si può automaticamente dire che l'affermazione "solo le x1800 possono utilizzare HDR + AA contemporaneamente" sia quantomeno inesatta.
Murakami
04-11-2005, 10:32
Quindi si può automaticamente dire che l'affermazione "solo le x1800 possono utilizzare HDR + AA contemporaneamente" sia quantomeno inesatta.
No, se non specifichi che tipo di HDR utilizzi... :p
Quindi si può automaticamente dire che l'affermazione "solo le x1800 possono utilizzare HDR + AA contemporaneamente" sia quantomeno inesatta.
Dipende, tu sei pronto ad ammettere che X800 supporta l'HDR?
Dipende, tu sei pronto ad ammettere che X800 supporta l'HDR?
Beh, leggendo i vostri commenti sembrerebbe che anche le x800 e le 9800pro lo supportino.
Ma poi che centro io, la domanda era generale.
Beh, leggendo i vostri commenti sembrerebbe che anche le x800 e le 9800pro lo supportino.
Ma poi che centro io, la domanda era generale.
Vabbhè dai non era riferita a te precisamente la domanda, era solo un modo di porla :)
Murakami
04-11-2005, 11:24
Beh, leggendo i vostri commenti sembrerebbe che anche le x800 e le 9800pro lo supportino.
Ma poi che centro io, la domanda era generale.
La domanda l'hai fatta tu: a chi dovremmo rispondere? :p
La risposta è: solo la ATI X1800 (e derivati) può applicare l'AA se l'HDR è fatto con l'FP blending, mentre usando INT o FX anche altre schede DX9 ne sono in grado.
La domanda l'hai fatta tu: a chi dovremmo rispondere? :p
La risposta è: solo la ATI X1800 (e derivati) può applicare l'AA se l'HDR è fatto con l'FP blending, mentre usando INT o FX anche altre schede DX9 ne sono in grado.
La tua precisazione avrebbe senso se le forme di HDR diverse da quelle fatte con FP blending fossero qualitativamente inferiori.
Mi pare di aver capito dai vostri precedenti reply che non c'è differenza qualitativa, e quindi non essendoci, si può tranquillamente affermare che tutte le schede che possono applicare HDR, possono tranquillamente farlo assieme ad AA.
Se invece c'è differenza qualitativa, bisognerebbe cominciare a considerare VERO HDR solamente quello fatto in FP blending.
giusto?
Murakami
04-11-2005, 12:19
La tua precisazione avrebbe senso se le forme di HDR diverse da quelle fatte con FP blending fossero qualitativamente inferiori.
Mi pare di aver capito dai vostri precedenti reply che non c'è differenza qualitativa, e quindi non essendoci, si può tranquillamente affermare che tutte le schede che possono applicare HDR, possono tranquillamente farlo assieme ad AA.
Se invece c'è differenza qualitativa, bisognerebbe cominciare a considerare VERO HDR solamente quello fatto in FP blending.
giusto?
Non ho la competenza sufficiente per esprimermi sulla resa qualitativa di una implementazione di HDR rispetto ad un'altra: certo, quello usato in "Lost Coast" mi sembra eccellente ma, probabilmente, altre forme che usano la notazione in virgola mobile possono raggiungere risultati anche superiori...bisognerebbe sentire Fek.
Ad ogni modo, a prescindere dalla resa qualitativa, è già stato chiarito che l'HDR ottenuto tramite metodi diversi dall'FP blending non è FALSO... :p
yossarian
04-11-2005, 12:24
Quindi si può automaticamente dire che l'affermazione "solo le x1800 possono utilizzare HDR + AA contemporaneamente" sia quantomeno inesatta.
si e no. Il termine HDR è molto generico e si riferisce all'utilizzo di tutte le notazioni che, in qualche modo, permettono di utilizzare una gamma cromatica più estesa rispetto a quella ottenibile con 8 bit interi per canale.
Questo vuol dire ammettere come valide tutte le tecniche, comprese quelle ibride, come quella utilizzata in Lost Coast, che prevede l'utilizzo di fp16 per il texture blending a livello di tmu e il ricorso a notazione intera nelle rop's. La scelta operata di nVIDIA e ATi, invece, si è indirizzata verso la tecnica ideata da OPenEXR, che prevede, invece, il ricorso a fp16 fino a dentro le rop's e il supporto HW all'ahdr è stato studiato di conseguenza.
Perciò, se da un lato si può affermare che quello di LC è, comunque, a tutti gli effetti, HDR, dall'altro è lecito affermare che solo R520 può utilizzare, insieme, il MSAA e l'HDR che è stato implementato in HW sul chip. Tutti gli altri chip sono costretti, se si vuole adoperare anche MSAA, a ricorrere a forme di HDR che fanno uso solo della capacità delle tmu di fare texture blending in fp16, ma a livello di rop's sono costretti a operare in i8 (come quando l'hdr è disabilitato).
yossarian
04-11-2005, 12:28
La tua precisazione avrebbe senso se le forme di HDR diverse da quelle fatte con FP blending fossero qualitativamente inferiori.
Mi pare di aver capito dai vostri precedenti reply che non c'è differenza qualitativa, e quindi non essendoci, si può tranquillamente affermare che tutte le schede che possono applicare HDR, possono tranquillamente farlo assieme ad AA.
Se invece c'è differenza qualitativa, bisognerebbe cominciare a considerare VERO HDR solamente quello fatto in FP blending.
giusto?
dire che non c'è differenza qualitativa non è corretto. L'utilizzo di algoritmi di hdr diversi porta a differenze di resa differenti. Quello di OPenEXR è uno dei più efficaci sia sotto l'aspetto qualitativo che riguardo alla facilità di implementarlo in HW. Ad esempio, nell'HDR adoperato in LC, il color blending nelle rop's è fatto a i8, mentre in quello di OpenEXR avviene a fp16.
Il principio di base è essenzialmente che, a parità di resa tra le varie operazioni, più sono i calcoli che si eseguono a maggior precisione, più la resa finale è migliore.
Allora ricapitolando.
Non si può parlare di VERO HDR o FALSO HDR anche se c'è differenza qualitativa tra le differenti modalità di esecuzione di HDR.
Quindi non è corretto dire che le x800/9800 fanno HDR high quality ma lo fanno con una qualità inferiore.
Quindi in un certo senso aveva ragione CS25. Il suo unico errore è stato quello che di basare la differenza tra i 2 HDR su uno standard che sarebbe stato imposto da dx9.0 c (cosa non esatta da quello che ho capito), invece che sulla differenza di resa qualitativa.
azz allora chi ha x800 o x850? che fa rosica? :D
Quindi per concludere io con la mia x800xt pe non è che rosiko, però impiego più risorse per visualizzare questo effetto ed il risultato non è qualitativamente comparabile a quello di g40/70 e x1800.
Quindi si può automaticamente dire che l'affermazione "solo le x1800 possono utilizzare HDR + AA contemporaneamente" sia quantomeno inesatta.
Secondo l'accezione piu' corretta di HDR rendering, l'affermazione invece e' corretta. Solo i chip della serie R5X0 sono in grado di fare multisampling su superfici fp16 (HDR).
I chip della serie NV40 e G70 supportano il rendering e il blending di superfici fp16, ma non l'MSAA, quindi supportano il rendering HDR.
La tecnica di HL2 e' una modalita' di HDR rendering ibrido con pesanti limitazioni che sono state discusse diffusamente in altri thread. E' HDR nel senso molto lasco del termine (supporto a calcoli fp16), non e' HDR nel senso stretto del termine (rendering su superfici fp16 e colori rappresentati in fp16).
Se non si vuole fare alcuna distinzione fra "vero" e "falso" HDR allora bisogna concludere che tutti i motori di rendering sono HDR con un tonemapping banale che fa semplice clamping a 1.0.
Le pesanti limitazioni di cui parli si ripercuotono anche sulla visualizzazione dell'effetto finale o sono delle limitazioni di programmazione?
Il risultato finale di questo hdr ibrido è peggiore di quello considerato "hdr normale"?
grazie per la risposta
Le pesanti limitazioni di cui parli si ripercuotono anche sulla visualizzazione dell'effetto finale o sono delle limitazioni di programmazione?
Il risultato finale di questo hdr ibrido è peggiore di quello considerato "hdr normale"?
grazie per la risposta
Entrambi. Il metodo ibrido costringe a modificare ogni singolo shader per aggiungergli la fase di tonemapping. Con molti shader diventa una cosa problematica. Dal punto qualitativo il blending finale a 8 bit e' meno "preciso" di quello a 16 bit e si puo' notare in effetti di banding, ad esempio sul cielo. Un'altra limitazione riguarda il fatto che la luminanza massima presente nella scena puo' essere solo "indovinata" e non calcolata. Si nota in HL2 LC che a volte la scena rimane troppo chiara o troppo scura, perche' il motore non e' riuscito ad indonvinare l'esposizione giusta.
darkfear
16-11-2005, 13:57
e cmq alla fine l'HDR ce l'ho!!! :ciapet: :ciapet: :ciapet:
non miinteressa come ma ce l'ho!!!.....ma posso usare quello di Far-Cry??
edit: no perchè io sapevo che poteva essere attivato solo dalle Geforce serie 6.....per lo S.M 3.0
andreamarra
16-11-2005, 15:31
Entrambi. Il metodo ibrido costringe a modificare ogni singolo shader per aggiungergli la fase di tonemapping. Con molti shader diventa una cosa problematica. Dal punto qualitativo il blending finale a 8 bit e' meno "preciso" di quello a 16 bit e si puo' notare in effetti di banding, ad esempio sul cielo. Un'altra limitazione riguarda il fatto che la luminanza massima presente nella scena puo' essere solo "indovinata" e non calcolata. Si nota in HL2 LC che a volte la scena rimane troppo chiara o troppo scura, perche' il motore non e' riuscito ad indonvinare l'esposizione giusta.
fek ma nei prossimi giochi (vedi quelli con il motore unreal3) l'HDR impiegato che tu sappia sarà utilizzabile anche da schede video non geffo6 e R520, oppure ci sarà impiego di una sorta di HDR modello HL2: Lost Coast?
O entrambi?
fek ma nei prossimi giochi (vedi quelli con il motore unreal3) l'HDR impiegato che tu sappia sarà utilizzabile anche da schede video non geffo6 e R520, oppure ci sarà impiego di una sorta di HDR modello HL2: Lost Coast?
O entrambi?
L'unica vera domanda da fare che non ho fatto :stordita:
bella
darkfear
16-11-2005, 16:52
e cmq alla fine l'HDR ce l'ho!!! :ciapet: :ciapet: :ciapet:
non miinteressa come ma ce l'ho!!!.....ma posso usare quello di Far-Cry??
edit: no perchè io sapevo che poteva essere attivato solo dalle Geforce serie 6.....per lo S.M 3.0
che dite? una risposina alla domanda del niubbo da persone MOLTOOO + esperte di lui?? :stordita:
A quanto ne so in Far Cry hanno messo solo l'HDR ottenuto usando blending in fp16, quindi con la X800 non puoi usarlo.
darkfear
16-11-2005, 16:57
A quanto ne so in Far Cry hanno messo solo l'HDR ottenuto usando blending in fp16, quindi con la X800 non puoi usarlo.
NOOOOOOOOOO!!!!!!!!!!! :cry: :cry: :cry: :cry:
(scusate sono rimasto DAVVERO scioccato e rimasto con la mano sulla o...nnoon riuscivoooo a staccarla...scusate...)
fek ma nei prossimi giochi (vedi quelli con il motore unreal3) l'HDR impiegato che tu sappia sarà utilizzabile anche da schede video non geffo6 e R520, oppure ci sarà impiego di una sorta di HDR modello HL2: Lost Coast?
O entrambi?
Credo che la maggioranza fara uso di render target fp16.
darkfear però edita che hai sballato tutto il layout della pagina :rolleyes:
bYeZ!
andreamarra
16-11-2005, 20:29
L'unica vera domanda da fare che non ho fatto :stordita:
bella
:D :)
la domanda sorge spontanea :O :D perchè se i giochi futuri utilizzeranno in
massa
l'HDR di Lost Coast o cmq un tipo di HDR non fp16 allora nessun problema.
In più la curiosità nasce da questo: se i giochi nei prossimi mesi
usciranno con l'HDR fp16, l'unica scheda video che potrà gestirli con un sample di AA anche minimo
(un 2X, che male non fa) è l'R520.
Insomma, se dovessi prendere una scheda video in base a
questi fattori, "manderei a quel paese" la potenza assurda
di una GTX512 mega e punterei tranquillamente su una XL
o una X1800XT (meglio ancora), che pare si clocchi bene
(oltre a risparmiarmi tanti soldi da investire in altro) e mi
darebbe sicuramente una resa qualitativa migliore della
controparte nvidia.
Sempre che la scheda non si sieda troppo con un
filtro di 2X, sebbene i test fatti su giochi con HDR fp16
mostrino come la GTX256 vada praticamente uguale
alla X1800XT con HDR ma anche con un AAA di 2 sample
(vedi i test con FC).
Tutto questo in previsione futura, ma per me è
sempre meglio avere una feature in più
(e quindi qualità grafica in più) piuttosto che non averla.
andreamarra
16-11-2005, 22:00
Credo che la maggioranza fara uso di render target fp16.
ok fek, grazie per la risposta ;)
darkfear
16-11-2005, 22:02
NOOOOOOOOOO!!!!!!!!!!! :cry: :cry: :cry: :cry:
(scusate sono rimasto DAVVERO scioccato e rimasto con la mano sulla o...nnoon riuscivoooo a staccarla...scusate...)
Grazie a Raven per aver lasciato abbastanza O per la giusta resa "enfatica" :D :D :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.