View Full Version : I primi benchmark di Half-Life 2: Lost Coast
Redazione di Hardware Upg
22-09-2005, 08:31
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15419.html
Analizzate le prestazioni ottenibili con le principali schede video di nuova generazione, utilizzando il nuovo demo tecnologico di Valve
Click sul link per visualizzare la notizia.
Erian Algard
22-09-2005, 08:39
Infatti mi piacerebbe vedere come si comporteranno le Radeon visto che la gtx è molto avanti rispetto alle altre.....comunque notizia scarna....la conf. di prova qual'è?Non lo trovo attendibilissimo...
ma half-life 2 non è un gioco Ati-friend ??
come mai l' 850 XT sta dietro alla 6800ultra????
thepampa
22-09-2005, 08:41
Beh considerando la risoluzione 1024X768 non altissima, antialiasing 2X e filtro anisotropico 8X, non mi sembra che i frame rate facciano gridare al miracolo! Questo mi fa pensare che o il codice del livello non è ancora ottimizzato del tutto, o l'HDR, fa precipitare il frame rate... Mah
Aspetto di scaricarlo da Steam e vedere come gira sulla mia gloriosa 9700 Pro !!
ma R520 può gestire il framebuffer in modalità HDR?
ma half-life 2 non è un gioco Ati-friend ??
come mai l' 850 XT sta dietro alla 6800ultra????
lì per lì me lo sono chiesto pure io , poi leggendo meglio ho visto :
Segnaliamo come nei etst eseguiti sia stato attivato l'HDR, High Dynamic Range, per una più realistica qualità d'immagine finale.
se nn ricordo male questo HDR dovrebbe essere incluso negli shader 3.0 implementate solamente nelle schede video nVidia di questo test , e anche dalla prossima generazione ATi....però ripeto , potrei sbagliarmi....
Sarebbe curioso sapere se per runnare questo test per forza si deve essere registrati a Steam....anche se bellissimo in fondo solo per il test nn dovrebbero esserci problemi....:rolleyes:
Beh si questi bench fanno acqua da tutte le parti.
Non ho idea se le affermazioni di chi ha riportato la notizia sono mera traduzione del sito sorgente o no, fatto sta che fare una comparativa tra schede basate NV40 e R420 su un gioco attivando l'HDR e' risibile per due motivi :
1) Solo NV40 di quella generazione supporta l'HDR
2) Con l'HRD attivato, NV40 (e g70 pure) non eseguono antialiasing
3) Per assurdo l'impatto dell'HDR e' piu' pesante di quello dell'AA 2x.
Quindi, consiglio personale, passate oltre che hanno fatto un test a dir poco delirante.
P.S. Stamattina il sonno impera, ho scritto "per due motivi" e poi ne ho elencati tre... amen :)
Daniele Nobile
22-09-2005, 09:14
Sarebbe interessante vedere come si comporterebbe una doppia 6600 gt in SLI. Naturalmente parlo da interessato dato che attualmente ho una pny 6600 gt sli e che pensavo di raddoppiare non appena cala ancora il prezzo di questa scheda.
Foglia Morta
22-09-2005, 09:19
ma la fonte riporta test sia con HDR attivato che senza anche per la X850 . Ero rimasto che la serie attuale ATI non supporta l' HDR , altri test taroccati o c' è una spiegazione logica ?
Graphicmaniac
22-09-2005, 09:23
Dicono di aver trovato un modo per implementare l'hdr anche su ati, dicono anche che l'hdr non peserà molto sulle prestazioni ..
senza hdr 6800U e X800XT vanno allo stesso modo + o -
ma la fonte riporta test sia con HDR attivato che senza anche per la X850 . Ero rimasto che la serie attuale ATI non supporta l' HDR , altri test taroccati o c' è una spiegazione logica ?
Non c'e' una spiegazione logica, per questo non mi fido molto di quanto riportato da questi benchmark.
Dicono di aver trovato un modo per implementare l'hdr anche su ati, dicono anche che l'hdr non peserà molto sulle prestazioni ..
senza hdr 6800U e X800XT vanno allo stesso modo + o -
I modi per fare HDR su R4x0 esistono, sulle prestazioni, se non hanno usato tecnologia o algoritmi alieni sconosciuti a tutto il resto della comunita' di sviluppatori, non credo si possa fisicamente fare piu' di tanto.
A meno che non abbiano implementato un fake con un po' di blooming e lo chiamano HDR.
Sarebbe curioso sapere se per runnare questo test per forza si deve essere registrati a Steam....anche se bellissimo in fondo solo per il test nn dovrebbero esserci problemi....:rolleyes:
Lo possono scaricare gratis tutti quelli che hanno comprato half-life 2.
Comunque questa che rilasciano è stata la quarta implementazione dell'HDR, iniziata per VALVE nel 2003.
Hanno avuto vari problemi nel corso delle altre tre (causa AA che non funzionava ad esempio con l'HDR attivo, differenze tra ATI e nVIDIA con gli shader model e altre robe).
Questo quarto tentativo riesce a girare anche con una semplice 9600 (a 5fps ma gira :D ) e gira sia su ATI che nVIDIA.
SilverXXX
22-09-2005, 09:31
Qualcuno sa qual'è la differenza prestazionale fra sm2 e sm3 usando l'hdr?
Lo possono scaricare gratis tutti quelli che hanno comprato half-life 2.
questo tutto sommato è per altro giustissimo , ma mi sono epresso da cani prima , mi stavo più che altro chiedendo se anche per un bench così c'è bisogno di essere proprio...loggati a Steam...quindi , ok l'account valido , ma anche proprio l'attivazione online, insomma proprio come il gioco....
HDR è una modalità di rendering della scena che è possibile finora solo per NV40 e derivati, in quanto solo NV40 può impostare il framebuffer in modalità floating point se ben ricordo.
R520 sa farlo? Lo chiedo a voi perchè francamente non lo so :D
che io sappia HDR nn centra assolutamente con i sm3.0
HDR può essere usato in tutti i chip r3x0 di ati con l'AA attivato..è solo nvidia che nn riesce ad applicare l'AA attivando anche gli effetti HDR...
Il "vero" hdr pesa, e pesa molto, quindi se l'impatto prestazionale e' basso su NV40... beh allora e' ragionevole pensare come ha fatto Fek che stiano usando semplicemente effetti di blooming et similia.
Basti vedere l'impatto prestazionale in Farcry per capire :)
questo tutto sommato è per altro giustissimo , ma mi sono epresso da cani prima , mi stavo più che altro chiedendo se anche per un bench così c'è bisogno di essere proprio...loggati a Steam...quindi , ok l'account valido , ma anche proprio l'attivazione online, insomma proprio come il gioco....
Beh guarda, non è proprio un bench, ma penso sarà usato per quello nei confronti video.
In realtà è un livello aggiuntivo (che porta nuove info sulla storia in sè) che per l'occasione hanno buttato fuori con l'implementazione dell'HDR, visto che d'ora in poi i futuri titoli powered by Source lo avranno disponibile.
Per scaricarlo bisogna loggarsi a steam col proprio account, come già detto avere hl2 registrato e poi cliccare su scarica.
Nessuna attivazione aggiuntiva o chissachè.
Dalle analisi di Bit-Tech e tutto il resto si deduce che solo Blooming non è, e poi nelle opzioni video si è detto che si potrà scegliere:
-rendering normale
-bloom
-bloom + HDR
Quando uscirà si potrà vedere coi nostri occhi se è solo Bloom (io sono convinto di no e ben spero di rifarmi gli occhi).
Per chi ne vuol sapere di più riporto altri link sempre su l'HDR di VALVE (in inglese):
I vari passaggi per arrivare all'ultima versione del codice e l'attuale presenza nei giochi dell'HDR:
http://www.bit-tech.net/gaming/2005/09/14/lost_coast_screens/2.html
Features presenti nell'HDR del Source:
http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/2.html
http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/3.html
http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/4.html
Qualcuno sa qual'è la differenza prestazionale fra sm2 e sm3 usando l'hdr?
E' una domanda amplissima e dipende da molti fattori. Per dare dei numeri molto indicativi, si puo' dire che uno shader scritto in sm2 viene eseguito grosso modo alla stessa velocita' del medesimo shader matematicamente equivalente scritto in sm3. Ci sono alcune situazioni in cui con l'sm3 si possono prendere delle scorciatoie, ma in generale e' ragionevole supporre la stessa velocita'.
Per l'HDR (che non necessita' shader scritti in sm3), il decadimento prestazionale puo' variare dal 25% al 40%, a seconda delle situazioni e dei colli di bottiglia. Sono cifre indicative.
che io sappia HDR nn centra assolutamente con i sm3.0
HDR può essere usato in tutti i chip r3x0 di ati con l'AA attivato..è solo nvidia che nn riesce ad applicare l'AA attivando anche gli effetti HDR...
Non c'e' alcuna GPU in commercio in grado di applicare multisampling a superfici in floating point necessarie per fare HDR.
La prima GPU sara' l'R500 dell'X360.
Per chi ne vuol sapere di più riporto altri link sempre su l'HDR di VALVE (in inglese):
I vari passaggi per arrivare all'ultima versione del codice e l'attuale presenza nei giochi dell'HDR:
http://www.bit-tech.net/gaming/2005/09/14/lost_coast_screens/2.html
Features presenti nell'HDR del Source:
http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/2.html
http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/3.html
http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/4.html
Interessante. Grazie.
leoneazzurro
22-09-2005, 10:33
I modi per fare HDR su R4x0 esistono, sulle prestazioni, se non hanno usato tecnologia o algoritmi alieni sconosciuti a tutto il resto della comunita' di sviluppatori, non credo si possa fisicamente fare piu' di tanto.
A meno che non abbiano implementato un fake con un po' di blooming e lo chiamano HDR.
Il che forse potrebbe spiegare il discorso "antialiasing attivato con 'HDR' ", IMHO.
Non è da escludere che gioco e drivers poi non applichino poi in realtà le impostazioni edll'utente (cioè l'utente scegli HDR e AA ma poi solo HDR è attivato in realtà).
Letto l'artiolo di bit-tech.
A quanto ho capito in questa demo c'e' un effetto di autoesposizione e di blooming che viene chiamato HDR dall'articolo, ma ci sono alcune imprecisioni nell'articolo stesso:
In standard (SDR) rendering, the aperture is fixed, meaning the amount of light entering our virtual eyes remains constant. Exposure Control, and Dynamic Aperture works the same way the human eye works, constantly adjusting the exposure according to the available light.
La frase in grassetto e' errata: si puo' fare autoesposizione anche con il rendering standard in LDR. Credo sia cio' che e' stato implementato su R4x0.
Senza entrare troppo nel tecnico, hanno preso delle texturemap in HDR, le hanno convertite in LDR in un tool e poi le hanno date in pasto ad un engine in LDR che fa autoesposizione e aggiunge blooming. Su NV40, immagino, che abbiano scritto invece su una superficie in HDR e lasciato il resto della pipeline invariato.
La differenza fra fare autoesposizione usando superfici LDR o HDR risiede solo nella precisione del colore: nel primo caso si potrebbe notare un effetto di banding ad esempio sul cielo.
Il risultato del rendering in quegli screenshot e' assolutamente eccellente.
nonikname
22-09-2005, 10:37
Beh si questi bench fanno acqua da tutte le parti.
Non ho idea se le affermazioni di chi ha riportato la notizia sono mera traduzione del sito sorgente o no, fatto sta che fare una comparativa tra schede basate NV40 e R420 su un gioco attivando l'HDR e' risibile per due motivi :
1) Solo NV40 di quella generazione supporta l'HDR
2) Con l'HRD attivato, NV40 (e g70 pure) non eseguono antialiasing
3) Per assurdo l'impatto dell'HDR e' piu' pesante di quello dell'AA 2x.
Quindi, consiglio personale, passate oltre che hanno fatto un test a dir poco delirante.
Estratto da bit-tech.net (http://www.bit-tech.net/gaming/2005/09/14/lost_coast_screens/2.html):" To clarify, then: the HDR works on Shader Model 2 and Shader Model 3 hardware, and you can run it with anti-aliasing on." :eek:
Per chi vuole approfondire e guardare qualche foto/video :
Half Life 2: Lost Coast HDR overview (http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/1.html)
Half-Life 2: Lost Coast (http://www.bit-tech.net/gaming/2005/09/14/lost_coast_screens/1.html)
P.S. Non vivrei + senza Google... :ave:
Il che forse potrebbe spiegare il discorso "antialiasing attivato con 'HDR' ", IMHO.
Non è da escludere che gioco e drivers poi non applichino poi in realtà le impostazioni edll'utente (cioè l'utente scegli HDR e AA ma poi solo HDR è attivato in realtà).
Esatto. Se usano grosso modo la pipeline che ho indicato, e' perfettamente possibile attivare l'MSAA perche' le superfici sulle quali l'immagine e' renderizzata non sono HDR, ma normali superfici intere a 8 bit.
Purtroppo c'e' molta confusione e molto hype sull'HDR, che in realta' e' una cosa piuttosto banale.
Una piccola precisazione: quando parlo di rendering HDR, parlo sempre e solo di rendering su superfici in floating point a 16 bit. Il rendering su superfici intere a 8 bit non e' HDR, ma una sua approssimazione piu' o meno buona.
nonikname
22-09-2005, 10:40
Oppss , ho letto adesso il commento di smanu85....: sono talmente :old: che per la vergogna mi auto banno per un giorno....
nonikname
22-09-2005, 10:55
Una piccola precisazione: quando parlo di rendering HDR, parlo sempre e solo di rendering su superfici in floating point a 16 bit. Il rendering su superfici intere a 8 bit non e' HDR, ma una sua approssimazione piu' o meno buona.
Ma in Farcry non usano l'OpenEXR floating point a 64bit ?
Quanto ci starebbe bene qui (http://www.bit-tech.net/content_images/black_white_2_screen/bw4.jpg) l' HDR (BW2) :eek: se non c'è già :wtf:
Edit: menomale che mi dovevo bannare ... :D
Guys non perdetevi il trailer:
http://video1.bit-tech.net/lost_coast_wmv.zip
1100000110100000
;)
Ma in Farcry non usano l'OpenEXR floating point a 64bit ?
Si', Farcry usa superfici fp16.
Non escludo che anche il code path NV40 di Loast Coast usi superfici fp16.
Quanto ci starebbe bene qui (http://www.bit-tech.net/content_images/black_white_2_screen/bw4.jpg) l' HDR (BW2) :eek: se non c'è già :wtf:
Ne parliamo nel thread ufficiale se vuoi, ok? Qui sarebbe OT :)
nonikname
22-09-2005, 11:22
Si', Farcry usa superfici fp16.
Non escludo che anche il code path NV40 di Loast Coast usi superfici fp16.
Guardando ora le specifiche (http://www.openexr.com/) dell' openEXR , si legge : "Support for 16-bit floating-point, 32-bit floating-point, and 32-bit integer pixels"....
Ora mi chiedo : ma è un parametro che si può cambiare a seconda del carico , bilanciandolo quando la scena è troppo esosa..... oppure , una volta configurato l'engine , renderizza sempre e comunque alla stessa precisione...
Cmq , il fatto stesso che l'openEXR è stato creato dall'Industrial Light & Magic , fa capire quanto in principio sia stato previsto per il post processing , e successivamente implementato da nVIDIA come feature real time 3d... Ecco perchè non era previsto usare l'AA : una volta renderizzato il frame , gli animatori/creatori di effetti speciali , possono successivamente applicarlo sull'immagine statica .... Chissà se è una chiave di lettura troppo fantasiosa .. :fagiano:
Ne parliamo nel thread ufficiale se vuoi, ok? Qui sarebbe OT
E' che sono rimasto letteralmente basito dalla profondità di campo (infinita) che ho finito (lol) per andare OT.... Spiacente....
rastapunx
22-09-2005, 11:24
Mi sa che ati userà questo lost coast per sorprenderci tutti con r520...
nonikname
22-09-2005, 11:32
Mi sa che ati userà questo lost coast per sorprenderci tutti con r520...
Lo spero vivamente: tutti i soldi che Valve ha fatto rimettere ad ATI all'epoca della 9800XT (per intenderci quando gli hanno rubato da sotto il naso il 70% del codice di HalfLife 2 ) , dovranno pur rientrare in qualche modo...
Infatti è da un pò che ci penso : Lost Coast/R520 --> stesso time frame... ;)
Ora mi chiedo : ma è un parametro che si può cambiare a seconda del carico , bilanciandolo quando la scena è troppo esosa..... oppure , una volta configurato l'engine , renderizza sempre e comunque alla stessa precisione...
Una volta creata la superficie di rendering non e' possibile modificare la sua profondita' e il suo formato.
Cmq , il fatto stesso che l'openEXR è stato creato dall'Industrial Light & Magic , fa capire quanto in principio sia stato previsto per il post processing , e successivamente implementato da nVIDIA come feature real time 3d... Ecco perchè non era previsto usare l'AA : una volta renderizzato il frame , gli animatori/creatori di effetti speciali , possono successivamente applicarlo sull'immagine statica .... Chissà se è una chiave di lettura troppo fantasiosa .. :fagiano:
E' tutto molto piu' semplice di cosi' :)
Invece di renderizzare colori da 0 a 1, renderizzi colori da 0 a [numero molto grande]. Questo e' HDR, niente di particolarmente esotico.
nonikname
22-09-2005, 11:40
Una volta creata la superficie di rendering non e' possibile modificare la sua profondita' e il suo formato.
Peccato... (Very helpful)
E' tutto molto piu' semplice di cosi' .....
Fagiano si , ma non fino a questo punto: parlavo del openEXR+AA = ??
Fagiano si , ma non fino a questo punto: parlavo del openEXR+AA = ??
Allora non avevo capito io :p
La risposta a questa domanda e' stata data da Yoss in qualche altro topic ed e' un problema hardware: le ROP non sono in grado di fare MSAA su superfici in fp16, per mancanza di transistor credo, ma qui si esce nel mio campo e quando arriva yoss ti scrive un papiro sull'argomento :D
E' tutto molto piu' semplice di cosi' :)
Invece di renderizzare colori da 0 a 1, renderizzi colori da 0 a [numero molto grande]. Questo e' HDR, niente di particolarmente esotico.
ma allora il problema per fare vero HDR non diventa il monitor che non riesce ad avere abbastanza "potenza luminosa" (o sto dicendo una cavolata?)?
Ciao
Ma nessuno ha notato che l'immagine Nvidia e' decisamente migliore della ATI sia per dettaglio che per contrasto cromatico??
Nvidia (http://www.bit-tech.net/content_images/lost_coast_benchmark/eyecandy1.jpg)
ATI (http://www.bit-tech.net/content_images/lost_coast_benchmark/aticomparison1.jpg)
Basta soffermarsi sui dettagli (lo scafo della nave a sinistra, il mare subito alla sua sinistra, le travi di legno, la parete erbosa a destra, ecc) il contrasto ATIano, e' risibile. Per non parlare della definizione delle texture in lontananza, ma questo e' un altro discorso.
Altra domandona, se veramente l'HDR "vero" (scusate la ripetizione), e' fattibile anche con le VPU ATI, per quale motivo fino ad oggi, e' stato implementato solo su Nvidia?? ATI avrebbe sollevato un polverone non indifferente qualora non fosse stato vero.
Non è vero HDR. Non c'è verso di farlo su R420.
Anche se Microsoft, cercando High Dynamic Range sul sito, porta due esempi. Il primo è il vero HDR come Nvidia comanda. Il secondo, sempre classificato HDR, è in realtà Blooming. Non supportando il blending a 16 bit in floating point ovviamente, R420 e similari non sono in grado di renderizzare il primo metodo, mentre usano benissimo il secondo.
ma allora il problema per fare vero HDR non diventa il monitor che non riesce ad avere abbastanza "potenza luminosa" (o sto dicendo una cavolata?)?
Ciao
Non stai dicendo affatto una cavolata :)
Esistono i primi monitor in circolazione in grado di accettare input in floating point e non nel classico RGB8 (o RGB10). Ma e' ancora troppo presto per questi device.
Allora bisogna trovare un qualche modo per convertire l'immagine finale da valori in floating point a valori interi che vanno da 0 a 1 prima di spedire il risultato al monitor. E qui c'e' da sbizzarrirsi, basta che cerchi Tonemapping su google e avrai da leggere paper per un mese.
Un tonemapping molto semplice, che e' quello comunemente implementato in tutte le pipeline grafiche dall'albo dei tempi e':
"Se l'intensita' del colore e' minore di 1 allora il risultato e' il colore stesso; se e' maggiore di 1 allora il risultato e' bianco".
Puoi subito immaginare che fare HDR rendering, subire l'impatto prestazionale, per poi usare un tonemapping cosi' banale che non porta alcuna differenza visiva con una pipeline piu' classica, non e' un'idea molto furba. E pensa che c'e' anche gente che si vanta di fare HDRI e di essere tecnologicamente avanzatissima che fa esattamente questo ;) Casi patologici, comunque...
Un tonemapping poco piu' interessante:
"Se l'intensita' del colore e' minore di LM (maggiore di 1), dividi tutto per Z e scrivi il risultato; se e' maggiore di LM il risultato e' bianco".
E' un po' piu' flessibile perche' puoi specificare LM (magari variabile), ma i risultati visivi non sono eccezionali.
Un altro tonemapping "alla Farcry", che e' quello piu' classico nel rendering in tempo reale:
"Calcola l'intensita' massima e media della scena, i colori di intensita' massima diventano bianco, quelli di intensita' media grigio a 0.5 di intensita', gli altri colori vengono scalati attraverso una qualche funzione (logaritmica ad esempio)."
FarCry e Splinter Cell fanno questo, scegliendo la funzione a seconda della scena e i vari parametri accuratamente, il risultato non e' affatto male. In altri termini questa funzione si chiama Autoesposizione, perche' si comporta in maniera ragionevolmente simile all'occhio umano.
Da notare che nella definizione che ho dato il numero 1.0 non appare (non e' un caso); questo significa che questa particolare funzione di tonemapping puo' essere (e viene) usata anche per normali immagini LDR! Con la differenza che l'intensita' massima non sara' mai superiore a 1.0 e spesso inferiore. E' preumibilmente quello che accade in Half Life 2 Loast Coast.
Io ho sperimentato con questa funzione, e poi con uno schema che si basa sul calcolo dell'istogramma dell'immagine (per chi conosce Photoshop, sa di che parlo), che ho implementato anche in LDR, ma mi dava immagini un po' troppo desaturate al termine dell'autoesposizione... A me piaceva, agl'altri no. Pazienza :D
Ma nessuno ha notato che l'immagine Nvidia e' decisamente migliore della ATI sia per dettaglio che per contrasto cromatico??
Il contrasti cromatici a me sembrano uguali :mbe: ...però effettivamete l'immagine con HDR di Nvidia è piu' nitida... :)
1100000110100000
:)
Il contrasti cromatici a me sembrano uguali :mbe: ...però effettivamete l'immagine con HDR di Nvidia è piu' nitida... :)
1100000110100000
:)
Non so che dirti, forse non hai un buon monitor (magari un LCD non troppo qualitativo) o forse non hai ingrandito l'immagine per vederla bene. I toni scuri su Nvidia sono molto piu' scuri ed i chiari sono meno "patinati".
Comunque siamo lontani dai riusltati di Far Cry.
Ma nessuno ha notato che l'immagine Nvidia e' decisamente migliore della ATI sia per dettaglio che per contrasto cromatico??
No. Solo tu. Anche perchè le immagini non sono perfettamente uguali e logicamente non ha senso confrontarle visto che si riferiscono ( e lo si vede benissimo) a due istanti completamente diversi.
No. Solo tu. Anche perchè le immagini non sono perfettamente uguali e logicamente non ha senso confrontarle visto che si riferiscono ( e lo si vede benissimo) a due istanti completamente diversi.
Sì, forse le vedo solo io, ora faccio un bel patchwork e vediamo se le vedi pure tu. :)
http://img326.imageshack.us/img326/6800/atinvidia12ai.jpg (http://imageshack.us)
Incollado pezzi di schermata Nvidia su quella ATI, direi che risalti molto di piu'.
http://img326.imageshack.us/img326/5770/atinvidia5yd.jpg (http://imageshack.us)
Questo e' un particolare a confronto, (come la settimana enigmistica.. trova le differenze :D). Ci sono e sono evidenti.
Sono solo particolari questi, ma tutta l'immagine e' meno contrastata, come fosse patinata.
No. Solo tu. Anche perchè le immagini non sono perfettamente uguali e logicamente non ha senso confrontarle visto che si riferiscono ( e lo si vede benissimo) a due istanti completamente diversi.
Anch'io non vedo alcuna differenza sostanziale non imputabile al fatto che sono screenshot presi in situazioni leggermente diverse.
yossarian
23-09-2005, 22:03
Allora non avevo capito io :p
La risposta a questa domanda e' stata data da Yoss in qualche altro topic ed e' un problema hardware: le ROP non sono in grado di fare MSAA su superfici in fp16, per mancanza di transistor credo, ma qui si esce nel mio campo e quando arriva yoss ti scrive un papiro sull'argomento :D
faccio un copia/incolla con l'altro thread :D
Nell'elaborazione dell'hdr sono coinvolte anche le pixel pipeline; le operazioni di color blending si appoggiano, infatti, anche sulle unità di shading (i due circuiti non sono del tutto indipendenti e le pixel pipeline sono in grado di effettuare operazioni di blending a fp16).
Il problema di fondo è nella genesi delle immagini con hdr e, contestualmente, in quella delle immagini con MSAA. Teoricamente, tra MS e SS l'unica variazione consiste nel fatto che nel MS (prendo come riferimento la modalità 4x), per ogni pixel si scelgono 4 campioni ad ognuno dei quali si attribuisce un unico colore, risultato del valore ricavato interpolando i campioni con il pixel su cui si opera. Al contrario, nel SS ad ogni campione è attribuito un colore ricavato, a sua volta, dall'interpolazione dei valori del pixel di partenza con il singolo campione. Risultato è che l'immagine ottenuta con il SS occupa, nella peggiore delle ipotesi, 4 volte lo spazio di quella ottenibile con il MS (che è uguale a quella ricavata alla display resolution). Per velocizzare ancora il processo, l'immagine ottenuta applicando il MS viene immagazzinata direttamente nel frame buffer come immagine da inviare al monitor (con il SS non succede perchè le dimensioni del frame sono pari a circa 4 volte quelle dell'immagine originale; per questo si parla di applicazione via SW, perchè non si utilizza, di fatto, un supporto fisico di memorizzazione dell'immagine completa, nella sua fase intermedia). Qual è il problema dunque? Che sia MSAA che HDR "scrivono" due immagini nel frame buffer ed entrambi fanno uso, almeno in parte, delle unità di shading (a causa della non perfetta ortogonalità tra ROP's e PS che permetterebbe, invece, di applicare entrambi gli effetti in tempo reale, prima di scrivere la versione definitiva dell'immagine). Questo comporta che la seconda (quella ricavata con l'HDR) va a sovrascrivere la prima, impedendo l'utilizzazione di entrambi gli effetti contemporaneamente.
In R500 questo non succede, perchè PS e ROP's sono perfettamente indipendenti e i due effetti possono essere applicati alla stessa immagine prima della sua definitiva screittura nel frame buffer
Anch'io non vedo alcuna differenza sostanziale non imputabile al fatto che sono screenshot presi in situazioni leggermente diverse.
Si vede che si tratta di situazioni leggermente differenti, ma non credo proprio che cio' di cui parlo possa ricondursi a questa causa. Le immagini qui sopra, credo mostrino meglio le differenze.
Comuqne resta piu' definita l'immagina Nvidia, ma quello puo' dipendere dalle impostazioni AF.
Si vede che si tratta di situazioni leggermente differenti, ma non credo proprio che cio' di cui parlo possa ricondursi a questa causa. Le immagini qui sopra, credo mostrino meglio le differenze.
Comuqne resta piu' definita l'immagina Nvidia, ma quello puo' dipendere dalle impostazioni AF.
E' la causa. PS e HDR cambiano in modo dinamico, così come le ombre. E' come piantare in giardino una pianta a mezzogiorno e di notte e stupirsi che la prima in più ha l'ombra.
E' la causa. PS e HDR cambiano in modo dinamico, così come le ombre. E' come piantare in giardino una pianta a mezzogiorno e di notte e stupirsi che la prima in più ha l'ombra.
Si', l'autoesposizione e' la causa piu' probabile.
Scusate, ma a me sembra proprio una renderizzazione differente, non una scena differente, differira' di qualche frame, non calza il paragone giorno notte (capisco come fosse volutamente esagerato.. so come funziona l'HDR). Insomma, se ci fosse una maggiore sorgente luminosa su una e sull'altra no, allora sarei d'accorso, ma solo ed in parte sulla luminosita', non sui colori sbiaditi. Tuttavia le immagini sono pressoché identiche.
Servirebbe qualche altra immagine per vedere se si tratti solo di un caso isolato.
Sapete se ci sono altri test in giro??
ma half-life 2 non è un gioco Ati-friend ??
come mai l' 850 XT sta dietro alla 6800ultra????
Che sia "ATI friend" non significa che se una scheda grafica concorrente sia piu' veloce vada a framerate inferiori.
In ogni caso questo numeretti sono decisamente inattendibili. Chissà, magari con l'HDRI le soluzioni nVidia sono piu' efficienti... E' tutto da vedere...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.