PDA

View Full Version : colpaccio su nvidia


Window Vista
04-07-2006, 17:50
Gli sviluppatori di Rydermak un futuro benchmark (e gioco) DirectX 9, affermano che uno dei due player del mondo grafico sta "falsificando la verità" per quanto riguarda il parametro pixel precision.
Secondo gli sviluppatori, Nvidia non permette di utilizzare una pixel precision superiore a 16 bit, più veloce rispetto a quella a 32 bit. L'unico problema è che la pixel precision a 16 bit è un parametro sottostante ai requisiti delle DirectX 9 - che richiedono full precision 24 o 32 bit - quindi, se si utilizza una precision sotto i 24 bit la scheda video non può dirsi DirectX 9 compliant. Se volete inserire normal mapping, parallax mapping e riflessioni/rifrazioni dell'acqua, i vostri shader richiedono una precisione a 32 bit.
Secondo gli sviluppatori, Nvidia non lascia scelta. Non si può utilizzare la precisione 24 o 32 bit, si è sempre "bloccati" a 16 bit. Dalla prospettiva di uno sviluppatore e un artistica questo non è accettabile.

fonte:http://www.tomshw.it/news.php?newsid=6926


Mi sa che Nvidia se la passi non tanto bene

nec-3500
04-07-2006, 19:11
se risultasse vero, sarebbe quantomai pesante...... nVidia ne rimarrebbe sotto, molto sotto........

Athlon 64 3000+
04-07-2006, 21:18
diciamo che per nvidia non sarebbe una novità dopo quello che è successo 3 anni fà.

fede27
04-07-2006, 22:03
mi sembra sia abbstanza risaputo che nvidia punta più sulla "potenza bruta" (+fps) rispetto alla qualità.

tuttavia devo dire che una recensione proprio di tom's hw metteva a confronto l'HDR della serie 7 e quello delle x1x00 e la 7 non mi sembrava poi così indietro, anzi..

quando lo ritrovo posto il link ;)

CIaO

lowenz
05-07-2006, 09:50
Sapevo che nella serie 5xxx non si poteva usare la precisione a 24 bit, ma la 32 sì. E credo sia così anche nelle 6xxx e 7xxx.

Cmq basta provare con ShaderMark.

yossarian
05-07-2006, 12:38
passando da fp16 a fp32, sia la serie 6 che la serie 7 perdono una istruzione e 7 flops per ciclo per ogni pipeline (ad esempio un G70 passa da 5 a 4 istruzioni e da 27 a 20 flops per ciclo per pipeline); quindi un calo di prestazioni esiste ed è quantificabile attorno ad un 20-25% a seconda dei casi (del tipo di istruzione); questo perchè ogni pipeline è dotata di un circuito che effettua normalizzazioni vettoriali e tale circuito funziona solo a fp16.
Rispetto a NV30, in cui la perdita prestazionale poteva superare il 50% (ma NV30 aveva seri limiti nella capienza dei registri temporanei, poichè era in grado di gestire, senza apprezzabili perdite prestazionali, solo 2 variabili indipendenti per alu, contro le 4 di R3x0 e dei successivi chip ATi e NV), il calo è meno netto; resta eprò il fatto che, volendo puntare sui risultati di un benchmark, può fare comodo guadagnare anche quel 20-25% che si perderebbe, altrimenti, passando a fp32.
Questo non vuol dire che G70 non sia DX9 full compliant; innanzitutto non è vero che la precisione prevista per le DX9 sia non inferiore a fp24: ci sono vari tipi di istruzioni e, di conseguenza, di calcoli e per ognuno è prevista una precisione minima che, in alcuni casi (ad esempio dependent read) può essere inferiore a fp24). Inoltre, G70 è in grado di eseguire fisicamente calcoli a fp32 e se dovesse effettivamente lavorare a fp16 è solo perchè verrebbe forzata la precisione a fp16 via driver per ottenere più fps nei benchmark.

Athlon 64 3000+
05-07-2006, 13:22
passando da fp16 a fp32, sia la serie 6 che la serie 7 perdono una istruzione e 7 flops per ciclo per ogni pipeline (ad esempio un G70 passa da 5 a 4 istruzioni e da 27 a 20 flops per ciclo per pipeline); quindi un calo di prestazioni esiste ed è quantificabile attorno ad un 20-25% a seconda dei casi (del tipo di istruzione); questo perchè ogni pipeline è dotata di un circuito che effettua normalizzazioni vettoriali e tale circuito funziona solo a fp16.
Rispetto a NV30, in cui la perdita prestazionale poteva superare il 50% (ma NV30 aveva seri limiti nella capienza dei registri temporanei, poichè era in grado di gestire, senza apprezzabili perdite prestazionali, solo 2 variabili indipendenti per alu, contro le 4 di R3x0 e dei successivi chip ATi e NV), il calo è meno netto; resta eprò il fatto che, volendo puntare sui risultati di un benchmark, può fare comodo guadagnare anche quel 20-25% che si perderebbe, altrimenti, passando a fp32.
Questo non vuol dire che G70 non sia DX9 full compliant; innanzitutto non è vero che la precisione prevista per le DX9 sia non inferiore a fp24: ci sono vari tipi di istruzioni e, di conseguenza, di calcoli e per ognuno è prevista una precisione minima che, in alcuni casi (ad esempio dependent read) può essere inferiore a fp24). Inoltre, G70 è in grado di eseguire fisicamente calcoli a fp32 e se dovesse effettivamente lavorare a fp16 è solo perchè verrebbe forzata la precisione a fp16 via driver per ottenere più fps nei benchmark.

Quindi pensi che le affermazioni degli sviluppatori che dicono che usino sempre fp16 anche nei giochi sia un cretinata bella e buona?

yossarian
05-07-2006, 13:32
Quindi pensi che le affermazioni degli sviluppatori che dicono che usino sempre fp16 anche nei giochi sia un cretinata bella e buona?

non è detto che sia una cretinata; anzi è molto probabile che i driver forzino fp16 anche nei giochi; sicuramente lo fanno in qual tipo di calcoli che non necessitano di precisione superiore (e questo è logico); resta da vedere se ciò avviene anche la dove sarebbe opportuno usare almeno fp24 se non fp32

Brightblade
05-07-2006, 13:50
Mi sembra di esser tornato indietro di 3 anni...

Se fosse vero cmq, non e' che non hanno scelta, dato che uno dei 2 colossi del mercato vga lo permette (se non ho capito male), nessuno vieta loro di usarla, e quindi non e' necessario x loro limitare la propria creativita'. Diciamo che + che non aver scelta, non gli conviene programmare in modo tale che una grande fetta del mercato non possa acquistare i loro prodotti xche' l'hardware non glieli supporta. Se sono paladini della verita' non dovrebbero sottostare alle imposizioni di nVidia, se le ritengono inaccettabili. Mi sbagliero', ma la penso cosi'.

yossarian
05-07-2006, 14:53
Mi sembra di esser tornato indietro di 3 anni...

Se fosse vero cmq, non e' che non hanno scelta, dato che uno dei 2 colossi del mercato vga lo permette (se non ho capito male), nessuno vieta loro di usarla, e quindi non e' necessario x loro limitare la propria creativita'. Diciamo che + che non aver scelta, non gli conviene programmare in modo tale che una grande fetta del mercato non possa acquistare i loro prodotti xche' l'hardware non glieli supporta. Se sono paladini della verita' non dovrebbero sottostare alle imposizioni di nVidia, se le ritengono inaccettabili. Mi sbagliero', ma la penso cosi'.

in effetti dovrebbe essere come dici; anche se ci fossero pressioni da parte di NV affinchè non si faccia ricorso a calcoli che richiedono fp32, uno sviluppatore dovrebbe fare riferimento solo alla versione delle API su cui si basa il suo progetto, senza sentirsi condizionato. Le API dovrebbero a tutti gli effetti costituire il punto di riferimento sia per chi sviluppa SW che per chi progetta l'HW

Simon82
05-07-2006, 15:18
passando da fp16 a fp32, sia la serie 6 che la serie 7 perdono una istruzione e 7 flops per ciclo per ogni pipeline (ad esempio un G70 passa da 5 a 4 istruzioni e da 27 a 20 flops per ciclo per pipeline); quindi un calo di prestazioni esiste ed è quantificabile attorno ad un 20-25% a seconda dei casi (del tipo di istruzione); questo perchè ogni pipeline è dotata di un circuito che effettua normalizzazioni vettoriali e tale circuito funziona solo a fp16.
Rispetto a NV30, in cui la perdita prestazionale poteva superare il 50% (ma NV30 aveva seri limiti nella capienza dei registri temporanei, poichè era in grado di gestire, senza apprezzabili perdite prestazionali, solo 2 variabili indipendenti per alu, contro le 4 di R3x0 e dei successivi chip ATi e NV), il calo è meno netto; resta eprò il fatto che, volendo puntare sui risultati di un benchmark, può fare comodo guadagnare anche quel 20-25% che si perderebbe, altrimenti, passando a fp32.
Questo non vuol dire che G70 non sia DX9 full compliant; innanzitutto non è vero che la precisione prevista per le DX9 sia non inferiore a fp24: ci sono vari tipi di istruzioni e, di conseguenza, di calcoli e per ognuno è prevista una precisione minima che, in alcuni casi (ad esempio dependent read) può essere inferiore a fp24). Inoltre, G70 è in grado di eseguire fisicamente calcoli a fp32 e se dovesse effettivamente lavorare a fp16 è solo perchè verrebbe forzata la precisione a fp16 via driver per ottenere più fps nei benchmark.
Penso anche io che piu' che una limitazione hardware sia AL LIMITE (ma e' comunque tutto da verificare, imho balla perche' sarebbe uscito ben prima questo rumors e da piu' fonti) una forzatura software per guadagnare qualcosa.

yossarian
05-07-2006, 21:53
Penso anche io che piu' che una limitazione hardware sia AL LIMITE (ma e' comunque tutto da verificare, imho balla perche' sarebbe uscito ben prima questo rumors e da piu' fonti) una forzatura software per guadagnare qualcosa.

non c'è un limite HW e che si faccia ricorso ad operazioni di application detect e riduzione della precisione di calcolo non è una novità (è la classica scoperta dell'acqua calda :D ); resta solo da appurare se questa pratica prevede anche eventuali pressioni nei confronti delle SWHouse affinchè non facciano ricorso a calcoli che prevedano espressamente l'utilizzo di fp32, pena evidente perdita di qualità (le lamentele sulla presunta non libertà da parte degli sviluppatori sembrerebbero far pensare a qualcosa del genere)

Dark Schneider
05-07-2006, 23:06
Supportare l'FP16 è solo una possibilità in più.
Non capisco perchè ogni volta deve essere vista come una pecca, quando invece è un pregio.
E' tutto molto semplice: se è possibile utilizzare una precisione inferiore ed ottenere lo stesso risultato, guadagnando in prestazioni...questo rappresenta solo una cosa positiva.

E' una questione di flessibilità.

Ma non capisco cosa ci sia di così strano. Si utilizza una precisione fp16 quando è sufficente tale precisione. Si utilizza quella fp32 quando serve.

Le DX9.0c da quel che ricordo ammettono e permettono poi tale utilizzo di precisione.

Ma in qualsiasi ambito dell'informatica, quando ci sono di mezzo più tipi di precisioni si agisce così. :)

fede27
05-07-2006, 23:10
sì ma il discorso importante che emerge è un altro. ovvero il fatto che nVidia, a causa di questo problema, faccia pressioni sugli sviluppatori costringendoli a lavorare in fp16 quando potrebbero programmare giochi migliori utilizzando l'fp32 ;)

DjLode
05-07-2006, 23:10
Però intanto in molti sanno che deve uscire un nuovo benchmark ;)

Dark Schneider
05-07-2006, 23:51
sì ma il discorso importante che emerge è un altro. ovvero il fatto che nVidia, a causa di questo problema, faccia pressioni sugli sviluppatori costringendoli a lavorare in fp16 quando potrebbero programmare giochi migliori utilizzando l'fp32 ;)


Da quel che ricordo io, nVidia consiglia di utilizzare l'fp16 dove è sufficente. Mi pare al tempo anche fek confermò. Ma semplicemente perchè è una cosa super logica. Se hai una possibilità in più, sfrutti tale possibilità. Cerchi di ottenere un risultato con il minimo sforzo. Semplice.
Non mi sembra nemmeno logico pensare alla possibilità di programmare giochi migliori utilizzando fp32. O meglio non mi sembra sensata come affermazione. Nel senso che se andiamo a vedere, le X1000 hanno solo la possibilità di fare fp32. Quindi già sapere questo, smonta il fatto di poter programmare giochi migliori.

Quando si scrive uno shader, lo si scrive utilizzando la massima precisione interna possibile...in questo caso FP32. Poi si procede nel scalare ad FP16 nel caso quella determinata architettura video lo permetta(NV4x-G7x si). Ma si scala solo dove è possibile. Cioè dove non c'è perdita di qualità. Dove c'è perdita si utilizza FP32.
Evidentemente al giorno d'oggi l'FP16 è più che sufficente e sono pochi i casi dove FP32 serve realmente. nVidia ed Ati hanno fatto scelte architetturali diverse. :) Ma questo non significa niente, fa ancora più ridere il discorso di questa notizia, che vuol far quasi passare questa cosa come un "magheggio". Come se qualcuno "bara". Quando invece è una cosa normalissima.

Ma questo è un discorso vecchio di anni ed anni. E' stato discusso in lungo e largo ormai da un sacco di tempo.

DjLode ha fatto una buona osservazione: si sono fatti publicità...per il loro benchmark e gioco in sviluppo. Perchè sennò davvero, questa è una questione che risale a diversi anni fa. Infatti rileggere adesso questa nuova news su un così vecchissimo argomento mi ha fatto sorridere. :)

Per me sta news non ha proprio senso. :)

Brightblade
06-07-2006, 08:04
sì ma il discorso importante che emerge è un altro. ovvero il fatto che nVidia, a causa di questo problema, faccia pressioni sugli sviluppatori costringendoli a lavorare in fp16 quando potrebbero programmare giochi migliori utilizzando l'fp32 ;)

X restare ad un tema attuale...ci sono intercettazioni che dimostrano che nVidia fa pressioni agli sviluppatori? Se si' non ne sono a conoscenza. Io penso che, piu' che altro, la pressione sia data dal fatto che una grande % del mercato e' in mano ad nVidia, e gli sviluppatori, come avevo gia' scritto, non vogliono tirarsi la zappa sui piedi perdendo quella fetta di mercato, cosa per altro comprensibile.

In ogni caso, io penso che se venissero programmati i giochi sfruttando delle features che nVidia non supporta e fosse evidente al giocatore che queste features arricchiscono enormemente l'esperienza videoludica, credo che solo i fanboy piu' integralisti rimarrebbero con nVidia, mentre tutti gli altri videogiocatori si butterebbero a pesce sui prodotti di chi le supporta (ATI o chiunque mai si immettera' nel mercato delle vga). Ogni tanto vanno fatte delle scelte coraggiose, altrimenti e' inutile lamentarsi se poi si sottosta al giogo di chi ha in mano i soldi.

CS25
06-07-2006, 10:38
Questo non vuol dire che G70 non sia DX9 full compliant; innanzitutto non è vero che la precisione prevista per le DX9 sia non inferiore a fp24: ci sono vari tipi di istruzioni e, di conseguenza, di calcoli e per ognuno è prevista una precisione minima che, in alcuni casi (ad esempio dependent read) può essere inferiore a fp24). Inoltre, G70 è in grado di eseguire fisicamente calcoli a fp32 e se dovesse effettivamente lavorare a fp16 è solo perchè verrebbe forzata la precisione a fp16 via driver per ottenere più fps nei benchmark.

Scusa yoss ma, sebbene io non abbia a portata di mano le specifiche, mi risulta che in certe istruzioni le dx9 richiedano FP24-FP32 obbligatoriamente. Ne parlammo secoli fa anche su Nvitalia. Il dubbio allora e' che se gli sviluppatori di quel bench si ritrovano le gpu a forzare l'fp16 anche dove non dovrebbe, avremo la dimostrazione tramite screenshot di quel demo comparando la resa visiva di varie schede con (magari la includessero) la resa campione elaborata via software.

Aggiungo che vedo una certa mancanza di memoria storica in certi interventi. Abbiamo visto in passato cosa Nvidia arrivi a fare pur di gonfiare i numeri (i clipping planes hanno veramente battuto ogni record, mi-ti-ci nello sfruttare il fatto che i benchmark hanno una sequenza fissa di immagini).
D'altrocanto, se solo un benchmark adesso all'alba di luglio 2006 permette di accorgerci di tutto cio', e' segno che se davvero le gpu Nvidia lavorassero in FP16 tutto il tempo, non abbiamo piu' l'occhio allenato noi o hanno ragione loro ad usarla :)

fede27
06-07-2006, 10:53
Da quel che ricordo io, nVidia consiglia di utilizzare l'fp16 dove è sufficente. Mi pare al tempo anche fek confermò. Ma semplicemente perchè è una cosa super logica. Se hai una possibilità in più, sfrutti tale possibilità. Cerchi di ottenere un risultato con il minimo sforzo. Semplice.
Non mi sembra nemmeno logico pensare alla possibilità di programmare giochi migliori utilizzando fp32. O meglio non mi sembra sensata come affermazione. Nel senso che se andiamo a vedere, le X1000 hanno solo la possibilità di fare fp32. Quindi già sapere questo, smonta il fatto di poter programmare giochi migliori.

Quando si scrive uno shader, lo si scrive utilizzando la massima precisione interna possibile...in questo caso FP32. Poi si procede nel scalare ad FP16 nel caso quella determinata architettura video lo permetta(NV4x-G7x si). Ma si scala solo dove è possibile. Cioè dove non c'è perdita di qualità. Dove c'è perdita si utilizza FP32.
Evidentemente al giorno d'oggi l'FP16 è più che sufficente e sono pochi i casi dove FP32 serve realmente. nVidia ed Ati hanno fatto scelte architetturali diverse. :) Ma questo non significa niente, fa ancora più ridere il discorso di questa notizia, che vuol far quasi passare questa cosa come un "magheggio". Come se qualcuno "bara". Quando invece è una cosa normalissima.

Ma questo è un discorso vecchio di anni ed anni. E' stato discusso in lungo e largo ormai da un sacco di tempo.

DjLode ha fatto una buona osservazione: si sono fatti pubblicità...per il loro benchmark e gioco in sviluppo. Perchè sennò davvero, questa è una questione che risale a diversi anni fa. Infatti rileggere adesso questa nuova news su un così vecchissimo argomento mi ha fatto sorridere. :)

Per me sta news non ha proprio senso. :)

ma certo siamo d'accordissimo su questo!! è alla base di qualsiasi idea di programmazione!tra l'altro se hai letto il mio primo post ho detto di aver analizzato la rece sugli sm3 e, in certi casi, quello nVidia mi sono sembrati qualitativamente migliori.

il mio discorso di adesso non era certo per dire "scriviamo in fp32 sempre e comnque" ma per dire che (sperando che non sia così) nVidia potrebbe fare pressioni sui programmatori perché scrivano in modo da non utilizzare fp32 anche quando questo potrebbe portare ad una resa grafica migliore senza possibilità di scalare a fp16

questo potrebbe essere l'unico senso da dare a queste informazioni..altrimenti è mera pubblicità :(

fede27
06-07-2006, 10:58
X restare ad un tema attuale...ci sono intercettazioni che dimostrano che nVidia fa pressioni agli sviluppatori? Se si' non ne sono a conoscenza. Io penso che, piu' che altro, la pressione sia data dal fatto che una grande % del mercato e' in mano ad nVidia, e gli sviluppatori, come avevo gia' scritto, non vogliono tirarsi la zappa sui piedi perdendo quella fetta di mercato, cosa per altro comprensibile.



:D intercettazioni :asd:

nessuno lo da come dato di fatto sono solo ipotesi che si stanno facendo per spiegare questa news ;)

mikepedo
06-07-2006, 10:58
Scusate tanto se vado un pò off topic ma in questa discussione si è tirato in ballo anche il chip nv30...
Ricordo che in una sua recensione si parlava di un fatto abbastanza ecclatante: il chip nv30 era in grado, entro certi limiti, di ripartire la potenza di calcola tra pixel e vertx shaders a seconda della richiesta, una cosa simile agli shaders unificati di XBOX360! Mi confermate?

mikepedo
06-07-2006, 11:02
Mi sembrava di averlo letto su nvitalia.com, ma sfortunatamente tutti i link ai vecchi articoli non funzionano più!

Brightblade
06-07-2006, 11:25
:D intercettazioni :asd:

nessuno lo da come dato di fatto sono solo ipotesi che si stanno facendo per spiegare questa news ;)

OK, anche se x come l'avevi scritto non suonava come un'ipotesi (almeno parlo x me, magari agli altri si'), ma non e' questo il punto. Quello che volevo sottolineare e' che per come e' strutturato il mercato, l'hardware che supporta queste features esiste, e di conseguenza nessuno sviluppatore e' limitato nella sua creativita'.

Dovrebbe essere nVidia a produrre hardware all'altezza delle loro creazioni, e non loro abbassarsi al livello imposto da nVidia. Credo che il modo migliore di sottolineare le presunte limitazioni di nVidia, sarebbe quello di sviluppare i prodotti con riferimento la qualita' max che le API mettono loro a disposizione (rinunciandovi solo quando la cosa e' uno spreco di risorse xche' non necessaria), poi i problemi sarebbero di nVidia.

Il tutto sempre ammesso e non concesso che la notizia sia fondata anche x quanto riguarda i prodotti attuali, non voglio dire ne che sia vero ne che sia falso.

Simon82
06-07-2006, 12:10
Supportare l'FP16 è solo una possibilità in più.
Non capisco perchè ogni volta deve essere vista come una pecca, quando invece è un pregio.
E' tutto molto semplice: se è possibile utilizzare una precisione inferiore ed ottenere lo stesso risultato, guadagnando in prestazioni...questo rappresenta solo una cosa positiva.

E' una questione di flessibilità.

Ma non capisco cosa ci sia di così strano. Si utilizza una precisione fp16 quando è sufficente tale precisione. Si utilizza quella fp32 quando serve.

Le DX9.0c da quel che ricordo ammettono e permettono poi tale utilizzo di precisione.

Ma in qualsiasi ambito dell'informatica, quando ci sono di mezzo più tipi di precisioni si agisce così. :)
Concordo... anche le varie ottimizzazioni che si sono fatte pro-bench. Capito che puo' essere vista come una forzatura, un trucco ma c'e' da pensare che se queste ottimizzazioni ci fanno guadagnare frames con una perdita di dettaglio qualitativamente impercettibile (se non da quelli che si sbattono a cercarle con il lanternino) personalmente la vedo come una cosa utile eccome nei giochi in cui quella manciata di frames ti viene bene per garantirti una fluidita'. ;)

mikepedo
06-07-2006, 12:21
Concordo... anche le varie ottimizzazioni che si sono fatte pro-bench. Capito che puo' essere vista come una forzatura, un trucco ma c'e' da pensare che se queste ottimizzazioni ci fanno guadagnare frames con una perdita di dettaglio qualitativamente impercettibile (se non da quelli che si sbattono a cercarle con il lanternino) personalmente la vedo come una cosa utile eccome nei giochi in cui quella manciata di frames ti viene bene per garantirti una fluidita'. ;)

Ehi Simon82, vedo che come avatar hai il chip NV1... sai che io conservo una Diamond Edge 3D 3240XL 2 Mb??? :D

Brightblade
06-07-2006, 12:38
Concordo... anche le varie ottimizzazioni che si sono fatte pro-bench. Capito che puo' essere vista come una forzatura, un trucco ma c'e' da pensare che se queste ottimizzazioni ci fanno guadagnare frames con una perdita di dettaglio qualitativamente impercettibile (se non da quelli che si sbattono a cercarle con il lanternino) personalmente la vedo come una cosa utile eccome nei giochi in cui quella manciata di frames ti viene bene per garantirti una fluidita'. ;)


Xro', se non ho interpretato male la notizia, si parla del fatto che le limitazioni di nVidia "costringerebbero" (qualunque cosa voglia dire, e il condizionale e' d'obbligo) ad usare un livello di dettaglio qualitativamente inferiore, anche quando si vorrebbe usarne uno superiore per rendere la propria creazione la migliore possibile. Ho capito male?

fede27
06-07-2006, 12:41
Xro', se non ho interpretato male la notizia, si parla del fatto che le limitazioni di nVidia "costringerebbero" (qualunque cosa voglia dire, e il condizionale e' d'obbligo) ad usare un livello di dettaglio qualitativamente inferiore, anche quando si vorrebbe usarne uno superiore per rendere la propria creazione la migliore possibile. Ho capito male?

anch'io avevo capito questo. resta il fatto che in pratica non mi pare si riscontri negli screen..

thegladiator
06-07-2006, 13:55
Concordo... anche le varie ottimizzazioni che si sono fatte pro-bench. Capito che puo' essere vista come una forzatura, un trucco ma c'e' da pensare che se queste ottimizzazioni ci fanno guadagnare frames con una perdita di dettaglio qualitativamente impercettibile (se non da quelli che si sbattono a cercarle con il lanternino) personalmente la vedo come una cosa utile eccome nei giochi in cui quella manciata di frames ti viene bene per garantirti una fluidita'. ;)



No! Mi dispiace ma non sono d'accordo! Dato che le schede devono possedere specifiche caratteristiche per rispondere in modo completo alle richieste delle DirectX, e dato che di ciò se ne fanno poi vanto in fase pubblicitaria...beh...se permetti io utente finale mi sentirei preso in giro!! E' come dire compro un tappeto da 10.000euro e magari ad un occhio non attento può sembrare simile a uno che ne costa 5.000 ma in realtà non è così...non so se ho reso l'idea... :O
Se spendo 500€ per una scheda FULL COMPLIANT DIRECTX9 ESIGO CHE LO SIA!! Anche se ad occhio nudo non vedessi la differenza con una che è DirectX 9 al 99% non mi interessa, è una questione di correttezza innanzitutto commerciale e soprattutto di marketing! Pubblicizzano una caratteristica che in realtà non hanno e ciò è perseguibile legalmente... :rolleyes:

mikepedo
06-07-2006, 14:27
Ma non si può far sciegliere all'utente che usa il video gioco se usare FP16 o 32? Un pò come 16 e 32 bit nei giochi attuali e soprattutto passati! mah... :confused:
Cmq c'è qualcuno che mi sa rispondere al mio quesito poco sopra esposto riguardo nv30??? Io lo ricordo perfettamente quel passaggio nell'articolo!!! E se non erro questa caratteristica venne poi abbandonata dall'NV35 in poi...

yossarian
06-07-2006, 16:00
Scusa yoss ma, sebbene io non abbia a portata di mano le specifiche, mi risulta che in certe istruzioni le dx9 richiedano FP24-FP32 obbligatoriamente. Ne parlammo secoli fa anche su Nvitalia. Il dubbio allora e' che se gli sviluppatori di quel bench si ritrovano le gpu a forzare l'fp16 anche dove non dovrebbe, avremo la dimostrazione tramite screenshot di quel demo comparando la resa visiva di varie schede con (magari la includessero) la resa campione elaborata via software.

Aggiungo che vedo una certa mancanza di memoria storica in certi interventi. Abbiamo visto in passato cosa Nvidia arrivi a fare pur di gonfiare i numeri (i clipping planes hanno veramente battuto ogni record, mi-ti-ci nello sfruttare il fatto che i benchmark hanno una sequenza fissa di immagini).
D'altrocanto, se solo un benchmark adesso all'alba di luglio 2006 permette di accorgerci di tutto cio', e' segno che se davvero le gpu Nvidia lavorassero in FP16 tutto il tempo, non abbiamo piu' l'occhio allenato noi o hanno ragione loro ad usarla :)

è vero, lo sm2.0 prevede, di base, l'utilizzo di fp24; ci sono, però, alcuni tipi di calcoli in cui le specifiche minime prevedono l'utilizzo di precisione inferiore (come ce ne sono altri per cui sarebbe preferibile l'utilizzo di fp32).

Sembra essere tornati indietro di 3 anni,anche se con NV3x si arrivava a forzare l'impiego di sm1.4 o inferiori al posto del 2.0, mentre in questo caso, sebrerebbe (il condizionale è d'obbligo finchè non si hanno prove certe) che la pratica si limiti all'utilizzo forzoso di fp16 al posto di fp32 (o fp24 che non è previsto sulle gpu NV). Certo è che con l'aumento della complessità dei calcoli (aumento della lunghezza degli shader e utilizzo di effetti grafici che richiedono una precisione superiore), aumenta percentualmente il numero di casi in cui è richiesto l'impiego di fp32 e diminuisce, di conseguenza, il margine di guadagno derivante dall'impiego di fp16 e questo rappresenta uno svantaggio per le gpu NV.

yossarian
06-07-2006, 16:03
Scusate tanto se vado un pò off topic ma in questa discussione si è tirato in ballo anche il chip nv30...
Ricordo che in una sua recensione si parlava di un fatto abbastanza ecclatante: il chip nv30 era in grado, entro certi limiti, di ripartire la potenza di calcola tra pixel e vertx shaders a seconda della richiesta, una cosa simile agli shaders unificati di XBOX360! Mi confermate?

le unità di calcolo di NV30 sono di tipo tradizionale e non c'è alcun modo di ripartire il lavoro tra vertex e pixel shader, che vada oltre ciò che è possibile con qualunque altro chip a shader non unificati

yossarian
06-07-2006, 16:05
No! Mi dispiace ma non sono d'accordo! Dato che le schede devono possedere specifiche caratteristiche per rispondere in modo completo alle richieste delle DirectX, e dato che di ciò se ne fanno poi vanto in fase pubblicitaria...beh...se permetti io utente finale mi sentirei preso in giro!! E' come dire compro un tappeto da 10.000euro e magari ad un occhio non attento può sembrare simile a uno che ne costa 5.000 ma in realtà non è così...non so se ho reso l'idea... :O
Se spendo 500€ per una scheda FULL COMPLIANT DIRECTX9 ESIGO CHE LO SIA!! Anche se ad occhio nudo non vedessi la differenza con una che è DirectX 9 al 99% non mi interessa, è una questione di correttezza innanzitutto commerciale e soprattutto di marketing! Pubblicizzano una caratteristica che in realtà non hanno e ciò è perseguibile legalmente... :rolleyes:

G7x è dx9 full compliant; se si forza fp16 al posto di fp32 è solo per ottenere prestazioni migliori nei benchmark o più frame in game e non perchè il chip non è in grado di gestire calcoli a fp32.

Brightblade
06-07-2006, 16:10
Forse mi sono venuti in mente un paio di casi nei quali ho notato una qualita' non esattamente eccelsa (x usare un eufemismo) dell'immagine. Stasera catturo gli screen sul pc di casa e domani li posto, vorrei capire se e' un mio problema o se e' una cosa diffusa. Per dare un'idea, un caso e' il bench della demo multiplayer di F.E.A.R., quando la camera passa sopra alla pozza d'acqua, la parete mi sembra di ricordare sia un po' cubettosa. Non so se riguardi il problema discusso qui, ma mi ricordo di aver pensato che qualcosa non quadrava. Puo' essere che nella versione completa non sia cosi', ma dato che non ce l'ho non posso verificarlo.

mikepedo
06-07-2006, 16:53
le unità di calcolo di NV30 sono di tipo tradizionale e non c'è alcun modo di ripartire il lavoro tra vertex e pixel shader, che vada oltre ciò che è possibile con qualunque altro chip a shader non unificati

Facendo una ricerca ho trovato questo:

http://www.amdplanet.it/archivio/articoli/38/2

Riporto la parte più interessante:

"L’innovazione dell’architettura del recente chip di nVidia sta nella non discretizzazione dei vari componenti. Come già visto su queste pagine, anche il performante R300 viene proposto come un insieme di diverse e specifiche unità, la cui comunicazione permette la creazione dell’immagine finale. NV30 non è nulla (o quasi) di tutto ciò. Per fornire una elevata programmabilità, gli ingegneri nVidia hanno puntato sull’ FP Array, questo il nome del motore grafico alla base del GeForceFX 5800 Ultra. Nessuna unità di setup dei triangoli e di Vertex Shader, né T&L, né tessellizzazione, né clipping, ma una serie di motori molto poco specializzati capaci di lavorare in sincronia e perfetto parallelismo al fine di garantire la più elevata flessibilità."

Ecco quello che volevo dire! Anche se sembra diverso questo sistema rispetto agli shader unificati!

yossarian
06-07-2006, 18:01
Facendo una ricerca ho trovato questo:

http://www.amdplanet.it/archivio/articoli/38/2

Riporto la parte più interessante:

"L’innovazione dell’architettura del recente chip di nVidia sta nella non discretizzazione dei vari componenti. Come già visto su queste pagine, anche il performante R300 viene proposto come un insieme di diverse e specifiche unità, la cui comunicazione permette la creazione dell’immagine finale. NV30 non è nulla (o quasi) di tutto ciò. Per fornire una elevata programmabilità, gli ingegneri nVidia hanno puntato sull’ FP Array, questo il nome del motore grafico alla base del GeForceFX 5800 Ultra. Nessuna unità di setup dei triangoli e di Vertex Shader, né T&L, né tessellizzazione, né clipping, ma una serie di motori molto poco specializzati capaci di lavorare in sincronia e perfetto parallelismo al fine di garantire la più elevata flessibilità."

Ecco quello che volevo dire! Anche se sembra diverso questo sistema rispetto agli shader unificati!

avevo immaginato che si trattasse di questo :D
C'è stato un periodo in cui è circolata questa voce relativa ad un array di unità di calcolo scalari di tipo fp32 (sul modello delle unità di shading del P10 di 3DLabs), al posto delle classiche unità vettoriali fp128 (fp32x4). In realtà, i VS dell'NV30 non sono altro che clasiche unità vettoriali fp128, composte da 4 unità scalari in parallelo. Al contrario, R3x0 è stato il primo chip ad adottare unità fp32 scalari, in parallelo all'unità vettoriale fp128 principale (ripresa, in seguito, dalle unità di VS di R4x0, NV40 e successivi chip)

fede27
06-07-2006, 18:19
avevo immaginato che si trattasse di questo :D
C'è stato un periodo in cui è circolata questa voce relativa ad un array di unità di calcolo scalari di tipo fp32 (sul modello delle unità di shading del P10 di 3DLabs), al posto delle classiche unità vettoriali fp128 (fp32x4). In realtà, i VS dell'NV30 non sono altro che clasiche unità vettoriali fp128, composte da 4 unità scalari in parallelo. Al contrario, R3x0 è stato il primo chip ad adottare unità fp32 scalari, in parallelo all'unità vettoriale fp128 principale (ripresa, in seguito, dalle unità di VS di R4x0, NV40 e successivi chip)

scusami yossarian ma già che ci sei ne approfitto!! tempo fa ho aperto un 3D cui nessuno ha risposto a questo quisito: che differenza pratica apporta il fatto di avere il bus memoria mettiamo da 256bit con 64x4bit oppure con 32x8bit ??

mikepedo
06-07-2006, 19:13
Grazie yossarian per la risposta! Ci fu confusione allora con nv30!

X Fede27

yossarian è sicuramente più competente di me in materia, in ogni caso credo di poterti dare anch'io una risposta semplificata:
mettiamo che devi inviare 2 pacchetti distinti di dati da 32 bit ciascuno.
Con un bus a 256 bit diviso 64x4 sarai obbligato ad inviarlo utilizzando 2 bus da 64 bit l'uno, utilizzando per l'appunto ben 64x2=128 bit. Al contrario, con un buse diviso 32x8 potrai utilizzare 32x2 bit per il trasporto dei 2 pacchetti, quindi solo 64 bit sui 256 disponibili!

fede27
06-07-2006, 19:17
Grazie yossarian per la risposta! Ci fu confusione allora con nv30!

X Fede27

yossarian è sicuramente più competente di me in materia, in ogni caso credo di poterti dare anch'io una risposta semplificata:
mettiamo che devi inviare 2 pacchetti distinti di dati da 32 bit ciascuno.
Con un bus a 256 bit diviso 64x4 sarai obbligato ad inviarlo utilizzando 2 bus da 64 bit l'uno, utilizzando per l'appunto ben 64x2=128 bit. Al contrario, con un buse diviso 32x8 potrai utilizzare 32x2 bit per il trasporto dei 2 pacchetti, quindi solo 64 bit sui 256 disponibili!

però se fosse come dici tu si sarebbe passati da 64x X a 32x X mentre è accaduto il contrario. i chip più recenti sono dotati di bus 64x X quindi dev'essere questo ad essere vantaggioso...

yossarian
06-07-2006, 21:29
scusami yossarian ma già che ci sei ne approfitto!! tempo fa ho aperto un 3D cui nessuno ha risposto a questo quisito: che differenza pratica apporta il fatto di avere il bus memoria mettiamo da 256bit con 64x4bit oppure con 32x8bit ??

gli attuali moduli di ram sono a 160 pin (o più nel caso delle ddrx) e 64 bit. Questo vuol dire che l'opzione 4x32 o 8x32 è da escludere. Uno dei motivi dell'ampliamento del bus è stata anche per avere la possibilità di utilizzare un memory controller con più canali a disposizione (fino a NV20 si avevano bus da 128 a canale unico).
Diciamo, quindi, che è stata una scelta non troppo libera, dettata dall'architettura fisica delle ram e delle interfacce tra ram e processori.

fede27
06-07-2006, 22:00
gli attuali moduli di ram sono a 160 pin (o più nel caso delle ddrx) e 64 bit. Questo vuol dire che l'opzione 4x32 o 8x32 è da escludere. Uno dei motivi dell'ampliamento del bus è stata anche per avere la possibilità di utilizzare un memory controller con più canali a disposizione (fino a NV20 si avevano bus da 128 a canale unico).
Diciamo, quindi, che è stata una scelta non troppo libera, dettata dall'architettura fisica delle ram e delle interfacce tra ram e processori.

grazie!

Brightblade
07-07-2006, 10:24
Ho uploadato gli screen.

Questi problemi ce li ho solo io? Possono essere correlati all'argomento della discussione? Ce li ho sia con i FW 81.24 che con i FW 91.28


FEAR MP Demo Bench - Notare la parete blocchettosa

http://img106.imageshack.us/img106/5630/fearmpbug4sy.th.jpg (http://img106.imageshack.us/my.php?image=fearmpbug4sy.jpg)


3DM05 - Notare la luce intorno al fuoco fatuo (nel 3DM06 non l'ho notato), si nota che pure lei e' un po' blocchettosa, zoommando si nota meglio. Non e' dovuto alla perdita di qualita' nella conversione a jpeg, lo vedo anche mentre va il bench.

http://img155.imageshack.us/img155/806/pyreflie0ud.jpg (http://img155.imageshack.us/img155/806/pyreflie0ud.jpg)

Vorrei capire se e' un problema legato al mio hardware o se e' cosi' anche x altri.

edit. Forse ho usato un po' troppe volte il verbo "notare"... :asd:

fede27
07-07-2006, 11:00
direi che non è solo la parete ma anche la colonna!!! :eek:

adesso bisognerebbe che qualcuno con una radeon x1x00 (magari non x1300/x1600 :D ) prendesse gli stessi screen con le stesse impostazioni (oltre ad attendere la conferma da altri possessori geforce che hanno anche loro questo problema)

Brightblade
07-07-2006, 11:08
direi che non è solo la parete ma anche la colonna!!! :eek:

adesso bisognerebbe che qualcuno con una radeon x1x00 (magari non x1300/x1600 :D ) prendesse gli stessi screen con le stesse impostazioni (oltre ad attendere la conferma da altri possessori geforce che hanno anche loro questo problema)


Hai ragione :eekk: sembra che qualsiasi cosa su cui la rifrazione (si chiamera' cosi'? boh..) dell'acqua e' ben visibile, abbia quello strano effetto.

Se non ricordo male le impostazioni sono 1280x960 2xAA 16xAF tutto al max tranne softshadows, nei drivers ho settato la qualita' video su alta qualita'.

Non ho la versione completa del gioco, x cui non posso verificare se e' cosi' anche per quella.

mikepedo
07-07-2006, 11:11
Sembra di rivedere le texture di Doom... 1 intendo! :D

dwfgerw
07-07-2006, 11:12
probabile che si tratti di uno shader applicato con una qualità inferiore per aumentare gli fps...

Brightblade
07-07-2006, 11:17
Sembra di rivedere le texture di Doom... 1 intendo! :D


Io DooM 1 ce l'ho installato insieme a Doomsday, un mod (forse pero', tecnicamente non si chiama mod) che permette di usare le opengl e dei pack aggiuntivi di texture ad alta risoluzione, e ti assicuro che come qualita' video e' molto meglio di questi screen :asd:

probabile che si tratti di uno shader applicato con una qualità inferiore per aumentare gli fps...

Vorrei proprio capire se e' cosi', oppure se il e' mio hardware che ha qualche problema.

Certo che se quello del 3DM05 lo noto solo io, ma non e' solo un mio problema, i casi sono 2, o posso farmi assumere come microbiologo, e non avrei neanche bisogno del microscopio :sofico: oppure tutto il mondo ha bisogno degli occhiali da presbite :asd:

Window Vista
07-07-2006, 11:23
Io DooM 1 ce l'ho installato insieme a Doomsday, un mod (forse pero', tecnicamente non si chiama mod) che permette di usare le opengl e dei pack aggiuntivi di texture ad alta risoluzione, e ti assicuro che come qualita' video e' molto meglio di questi screen :asd:



Vorrei proprio capire se e' cosi', oppure se il mio hardware che ha qualche problema.

Certo che se quello del 3DM05 lo noto solo io, ma non e' solo un mio problema, i casi sono 2, o posso farmi assumere come microbiologo, e non avrei neanche bisogno del microscopio :sofico: oppure tutto il mondo ha bisogno degli occhiali da presbite :asd:
O magari è proprio la scheda video a fp16 anzichè a 32

fede27
07-07-2006, 11:24
senza confronti però non lo sapremo mai! c'è nessuno con una nVidia serie 7 che possa ripetre il test???!!

Brightblade
07-07-2006, 11:27
O magari è proprio la scheda video a fp16 anzichè a 32

Ma nel caso in cui non fosse un problema legato solo al mio hardware e fosse come dici tu, il punto sarebbe: xche' nessuno ne ha mai parlato, neanche nelle recensioni? Mi sembra abbastanza evidente anche a occhio nudo mentre il 3DM05 sta girando, e non lo definirei un "caso in cui utilizzare una precisione inferiore non pregiudica la qualita' dell'immagine". Cmq prima di tirare conclusioni aspetto feedback da chi altro puo' catturare gli stessi screen, se ne avra' voglia.

Catan
07-07-2006, 11:40
allora signori vi dico la mia perche anche io all'epoca su nvitalia con CS25 e Yoss partecipavo a questa discussione.
le gpu di nvidia per quanto rimeneggiate e migliorare restano cmq figlie o prendono in prestito quello che nvidia reputava buono dalle su vecchie sk.
da nv30 che i chip nvidia potevano lavorare in fp16 e fp32 ma non fp24 come invece faceva r300.
a lungo nvidia batte sul ferro dicendo che la sua archidettura aveva fp32 ma si benguardava dal dire che non aveva ne la potenza di calcolo ne la potenza archidetturale per gestirla mentre ati non si faceva problema a dire io ho fp24 e quest per essere dx9 mi basta anche perche la qualità tra fp24 e fp32 è molto simile mentre tra fp16 e fp24/32 si nota.
ora nvidia che fa sa benissimo che in fp16 ilsuo chip puo lavorare mentre quello ati puo andare sono in fp32 e in fp24 forse(non ricordo se dall'archidettura r520 lo hanno abbandonato).
allora furbescamente dice dove si puo usare usa fp16 perche lavoro meglio e faccio + fps e + punti.
la cosa sarebbe ok se fosse fatta in maniera trasperenze e perfettamente gestibile dall'utente.
visto che non si puo fare allora nvidia furbescamente dice ok lo faccio lavorare in fp16 non dico una mazza a nessuno solo io ho il libero arbitrio di decidere se fp16 rende come fp32 dove serve a me e quando lo decido io.
pensando che magari quando mi faccio una partira a Q4 sono talmente preso a fraggare che la texture un pò sbilenca non la noto.
purtroppo per lei o per fortuna sua sono i bench che fanno vendere le sk.da quando i bench sono diventati di uso comune e ripetitivi anche un non programmatore si rende conto di quando la qualità non eccele.
figurarsi dei programmatori che stanno a fa un nuovo bench full sm3.0 che iniziano aprogrammare uno shader in fp32 e lo fanno lanciare.
"o guarda perchè questo è cosi brutto e su ati no?"
"guarda magari hai scritto una riga male di codice"
"no è tutto a posto"
"ah dai un occhiata alle impostazioni della vga"
"azz i dvr forzano la precisione in fp16 in questo punto autonomamente quindi qualcuno dei programmatori nvidia ha deciso che per questa texture era sufficnete fp16 ma non è quello che vogliamo noi"
"puoi cambiarlo tu il dvr"
"no perche se no nvidia mi arresta e poi posso sistemare i dvr in loco ma tutta la gente a casa che fa?un corso di programmazione per forzare fp32 e vedere le loro vga fare 30% di fps in meno?"


come vedete quello che fa nvidia non è molto trasparente non obbliga i programmatori a programmare in fp16 o fp32.semplicmeente vede che una isturzione fp32 non la digerisce e in maniera oscura la fa diventare fp16.
almeno Ati taglia al testa al toro e mette tutto in fp32

Brightblade
07-07-2006, 12:31
Ma tutto cio' non era finito nella tomba insieme alla serie 5? Io avevo una 5900XT e di cose come queste, qualcuna l'avevo vista (es il pavimento nel livello Archivio di FarCry, fino a che non e' stata rilasciata una patch dopo che la serie 6 era gia' in commercio, che ha sistemato la cosa anche x la serie 5, oppure la torcia in SWAT4, cose che mi sembrava fossero legate al fatto di usare i PS1.4/PS1.1 invece dei PS2.0). Dopodiche' non ho mai piu' letto di episodi come quelli, neanche x la serie 6.

Ripeto, essendo cosi' evidente, se il problema non e' solo mio mi rifiuto di credere che nessun'altro l'abbia notato.

fede27
07-07-2006, 12:37
Ma tutto cio' non era finito nella tomba insiema alla serie 5? Io avevo una 5900XT e di cose come queste, qualcuna l'avevo vista (es il pavimento nel livello Archivio di FarCry, fino a che non e' stata rilasciata una patch dopo che la serie 6 era gia' in commercio, che ha sistemato la cosa anche x la serie 5, oppure la torcia in SWAT4, cose che mi sembrava fossero legate al fatto di usare i PS1.4/PS1.1 invece dei PS2.0). Dopodiche' non ho mai piu' letto di episodi come quelli, neanche x la serie 6.

Ripeto, essendo cosi' evidente, se il problema non e' solo mio mi rifiuto di credere che nessun'altro l'abbia notato.

io aspetterei anche un intervento di Vifani che queste schede bene o male le ha recensite tutte e, credo, se ci fosse un problema di tale evidenza dovrebbe essere in grado di falro notare...

mikepedo
07-07-2006, 13:10
La mia esperienza con le recendi schede nvidia risale alla 6800... ne comprai una appena uscita sul mercato al posto della mia AIW 9800 PRO (che tutt'ora utilizzo)
Beh, l'ho tenuta una settimana. Il motivo è che, oltre a non riuscire a stare senza TV nel pc, notai soprattutto una qualità d'immagine nei giochi leggermente inferiore. Fu una sensazione, non posso riferirmi ad un fatto particolare come dimostrerebbero questi screenshots. La 6800 era velocissima, però come qualità non mi entusiasmò. Ecco tutto.

Brightblade
07-07-2006, 13:46
Io in generale sono soddisfatto sia della qualita' video (l'unico confronto che posso fare con una scheda ATI xro' e' la X700 nel notebook di mio fratello) che delle prestazioni in praticamente tutte le applicazioni che ho provato, solo che ci sono questi 2 casi anomali x i quali non ho ancora trovato una spiegazione. Certo e' che se fossero intenzionali e non un bug, sarebbero veramente pacchiani...chiunque li abbia implementati a questo modo, cercava guai. Ri-ri-ripeto, sempre che non sia solamente un mio problema.

mikepedo
07-07-2006, 13:52
Comunque se ricordo bene nvidia la giocò molto sporca con 3DMark 2003 e FX5800 Ultra...
Fu beccata in pieno, quindi credo, e spero, che abbia imparato dai suoi errori e non ripeta certe vigliaccate!

leonX85
07-07-2006, 14:43
senza confronti però non lo sapremo mai! c'è nessuno con una nVidia serie 7 che possa ripetre il test???!!

Eccoti servito:

http://img228.imageshack.us/img228/7550/7900gtfear5gh.th.jpg (http://img228.imageshack.us/my.php?image=7900gtfear5gh.jpg)

Driver 91.31 non whl.. fate voi...

mikepedo
07-07-2006, 14:49
Questo inizia a diventare un problema...
Scusate che schede video state utilizzando della nvidia?
Inoltre chi ha una ATI con questo gioco dovrebbe a questo punto fare la stessa cosa!

mikepedo
07-07-2006, 14:52
Scusa leonX85 immagino che stai usando una 7900GT come in sign...
imho non è ammesso un simile obrorio da schede video di ultima generazione!!! Schede con minimo 256 Mb di ram! Mah... :confused:

Brightblade
07-07-2006, 15:00
Scusa leonX85 immagino che stai usando una 7900GT come in sign...
imho non è ammesso un simile obrorio da schede video di ultima generazione!!! Schede con minimo 256 Mb di ram! Mah... :confused:

Puo' essere che la cosa nella versione completa non sia cosi', pero' non posso confermarlo xche' non ce l'ho.

Almeno x FEAR ho la conferma che non e' solo un mio problema, adesso ci vuole qualche occhio di falco che riesca a vedere la fiammella del 3DM in movimento o che catturi uno screen appena compare la fiammella, poi ci penso io a vedere se e' blocchettosa o no :eek:

mikepedo
07-07-2006, 15:11
Puo' essere che la cosa nella versione completa non sia cosi', pero' non posso confermarlo xche' non ce l'ho.

Almeno x FEAR ho la conferma che non e' solo un mio problema, adesso ci vuole qualche occhio di falco che riesca a vedere la fiammella del 3DM in movimento o che catturi uno screen appena compare la fiammella, poi ci penso io a vedere se e' blocchettosa o no :eek:

Io ho la mia fidata 9800PRO ma non posso usarla perchè non ho la cpu al momento... comunque appena posso proverò anch'io.
Però il problema esiste, ed è alquanto fastidioso!

Vifani
07-07-2006, 15:16
io aspetterei anche un intervento di Vifani che queste schede bene o male le ha recensite tutte e, credo, se ci fosse un problema di tale evidenza dovrebbe essere in grado di falro notare...

Eccomi qua :)

Quel problema visto nello screenshot di Fear l'ho rilevai anche io, ma se non mi sbaglio fu risolto con una patch del gioco e/o con una revisione dei driver. Io ricordo che compariva anche con le schede Radeon.

Che versione del gioco state usando?

Brightblade
07-07-2006, 15:22
Eccomi qua :)

Quel problema visto nello screenshot di Fear l'ho rilevai anche io, ma se non mi sbaglio fu risolto con una patch del gioco e/o con una revisione dei driver. Io ricordo che compariva anche con le schede Radeon.

Che versione del gioco state usando?

Se nella versione completa il problema e' stato risolto, la cosa mi conforta parecchio, perche' al momento non ce l'ho e posso basarmi solo sulla demo, in particolare lo screen l'ho catturato dalla bench integrata nella demo multiplayer.

thegladiator
07-07-2006, 15:55
Ciao raga, sto seguendo con una certa apprensione questa discussione in quanto se i problemi di qualità fossero reali sarebbe veramente grave per Nvidia....e oltretutto si mostrerebbe recidiva!! :muro:

Stasera farò uno screenshot della parete di FEAR (gioco completo, ver. 1.04) e sopratutto della "lucciola" del 3dmark05. Nel caso di FEAR potrebbe dipendere dalla patch come già qualcuno faceva notare ma l'alone di luce intorno alla lucciola del 3dmark05 come si spiegherebbe??
Se con la mia X1800XT i "cubetti" non comparissero la cosa comincerebbe a diventare "pericolosa" per nvidia.... :mc:

A stasera! ;)

fede27
07-07-2006, 17:50
Eccomi qua :)

Quel problema visto nello screenshot di Fear l'ho rilevai anche io, ma se non mi sbaglio fu risolto con una patch del gioco e/o con una revisione dei driver. Io ricordo che compariva anche con le schede Radeon.

Che versione del gioco state usando?

ci sta che sia un problema del gioco..però è pure strano che sia del tutto simile al problema con la luce del 3d05...che dici?

Cliccando sull'immagine salta fuori un virus!!!

:mbe:

Eccoti servito:

thanks!! hai tempo e voglia di fare lo stesso nel 3d05??

leonX85
07-07-2006, 18:05
Cliccando sull'immagine salta fuori un virus!!!

Ugo


:confused: :confused:

leonX85
07-07-2006, 18:08
http://img249.imageshack.us/img249/7545/3dmerd055na.th.jpg (http://img249.imageshack.us/my.php?image=3dmerd055na.jpg)

Ecco la fatina magica circondata dai cubetti... driver 91.31 ;)

Brightblade
07-07-2006, 18:31
2 su 2, non e' proprio un numero di campioni tale da tirarci fuori una statistica, pero' non puo' neanche essere una coincidenza....se fosse cosi' x tutti mi domando, ma quelli della Futuremark non hanno mai detto niente?

Chi mi puo' aggiornare sullo status dei drivers approved o meno, da quelli del 3DM? So che ai tempi del 3DM03 e del "macello" che ne era conseguito, avevano iniziato questa pratica di approvare o meno ogni release dei drivers, se una delle release che abbiamo usato io e Leon e' approved, allora vuol dire e' questa la qualita' che si erano posta come obiettivo quelli di FM? Non penso proprio...almeno, preferisco pensare di no...

Certo e' che da adesso in poi staro' con gli occhi sgranati x vedere ogni frame di quello che mi passa sul monitor, mi aiutera' nella scelta della prox scheda video...cmq per ora sono gli unici 2 "bachi" che ho riscontrato, se ne trovero' altri non mi faro' problemi a postarli.

.......me n'e' venuto in mente uno che avevo rimosso dalla memoria....non potro' postarlo fino a domani xo', xche' adesso non sono a casa e stasera non ho tempo (e stanotte vorrei dormire)....stay tuned

Cliccando sull'immagine salta fuori un virus!!!

Ugo

:mbe: :what:

Questo e' terrorismo informatico!! :asd:

Anzi, mi sa che sei un marchettaro nVidia e non vuoi che altri vedano lo screen :asd: :asd:

fede27
07-07-2006, 19:34
ahi ahi..mi sa che non ci siamo. anche questo problema è del software..oppure anche ati va a fp16. ho fatto adesso il 3dmerd della lucina e mi viene la stessa identica cosa. solo con i filtri si vede normale...

fede27
07-07-2006, 19:35
no non è terrorismo informastico il virus é il Generic downloader.y


Ugo

sorry ma lo vedi soo tu

leonX85
07-07-2006, 23:16
ahi ahi..mi sa che non ci siamo. anche questo problema è del software..oppure anche ati va a fp16. ho fatto adesso il 3dmerd della lucina e mi viene la stessa identica cosa. solo con i filtri si vede normale...

Intendi con AF?? A quanto l'hai settato? 8x?
Dimmi che così provo anche io ;)

leonX85
07-07-2006, 23:28
Cmq confermo che con i filtri non si vedono i cubetti!!
Ho appena provato con l'anisotropico settato a 16x e non c'erano +.. Se poi mi dite che in fear basta una patch x migliorare la resa, probabilmente è solo un problema di software.. anche xchè escludo che, se fosse vera una tale differenza tra ati e nvidia, non fosse nata prima questa polemica!!
CIAO

Brightblade
08-07-2006, 13:53
Bene bene, a uno a uno si chiariscono i dubbi (anzi, male male visto che anche su schede ati si vede a cubetti). Cmq ho qualche altro screen di cui vorrei sempre capire se il problema e' solo mio o no, li sto uploadando, tra poco li posto. Intanto posto questo, e' la lucciola del 3DM06, anche senza forzare l'AF nei drivers, l'alone e' sfumato e non a cubetti.

http://img134.imageshack.us/img134/5571/firefly063tu.th.jpg (http://img134.imageshack.us/my.php?image=firefly063tu.jpg)

Ecco gli screen di cui parlavo. FarCry Patch 1.33, livello training, l'ombra sulla capanna appena si esce all'aperto e l'ombra sulla roccia appena prima della capanna che contiene il binocolo. In quali "si riconoscono" i possessori di schede ATI e in quali i possessori di schede nVidia? Poi vi spiego come li ho catturati.


1

http://img134.imageshack.us/img134/4055/farcry18zg.th.jpg (http://img134.imageshack.us/my.php?image=farcry18zg.jpg)


2

http://img134.imageshack.us/img134/4807/farcry21vn.th.jpg (http://img134.imageshack.us/my.php?image=farcry21vn.jpg)


3

http://img101.imageshack.us/img101/5752/farcry34mc.th.jpg (http://img101.imageshack.us/my.php?image=farcry34mc.jpg)


4

http://img101.imageshack.us/img101/9826/farcry44av.th.jpg (http://img101.imageshack.us/my.php?image=farcry44av.jpg)

Non ho trovato info al riguardo neanche cercando su Google, ma se della cosa si e' gia' discusso, lasciamo pure cadere l'argomento.

mikepedo
08-07-2006, 14:18
Ehi Brightblade, penso che con questi 4 screenshots hai colto nel segno un altro problema... se sono eseguiti con schede nvidia ed ati, di sicuro l'ombra più bella è quella sfumata!
Personalmente non sono in grado di dire di chi sia l'una o l'altra ombra, con Far cry ho giocato pochissimo :(

Brightblade
08-07-2006, 14:30
He he :Perfido: , aspetto che magari qualcuno che ne ha voglia mi dica "io ho la tal scheda e vedo le ombre come la 1 e la 3 oppure come la 2 e la 4", e poi rivelo come li ho catturati e le varie corrispondenze.

X ora dico solo che la differenza credo sia dovuta a questo:

Screen 1 e 3: Shadow Map Type= Depht Maps

Screen 2 e 4: Shadow Map Type= Mixed Depht/2D

Questo settaggio non riesco a modificarlo neanche nel config.

X me comunque e' arabo, sicuramente qualche esperto tipo Fek sa cosa significa.

Bye, a stasera!


edit. Troppi feedback! Vabbe' e' sabato e c'e' pure il sole, non potevo aspettarmi altro :D

Cmq, per farla breve, tutti gli screen li ho catturati sul mio pc usando gli stessi settaggi in tutti e 4 i casi, l'1 e il 3 li ho catturati dopo aver lanciato normalmente il gioco, lasciandogli rilevare l'hardware x quello che e'. Il 2 e il 4 li ho catturati dopo aver lanciato il gioco gabbandolo, cioe' con una ingeniosissima dll creata un paio d'annetti fa da qualcuno (mi sembra con 3DAnalyze), gli ho fatto credere di avere una Radeon nel sistema, invece della GF 7900gt.

Insomma, per qualche motivo, se il gioco rileva una GF, pensa bene di sminchi@re le ombre. Le ombre cubettose le avevo anche sulla GF5 e secondo me ci sono anche sui sistemi con GF6, x cui se fosse stato un baco a quest'ora sarebbe gia' stato risolto, il che mi fa pensare che la cosa potrebbe essere intenzionale. Dato che non ho visto un crollo vertiginoso degli fps fra ombre pixellose e ombre sfocate, non vedo per quale motivo si dovrebbero sminchiare le ombre su sitemi con GF.

thegladiator
08-07-2006, 19:00
Confermo l'alone "cubettoso" della lucciola verde nel 3dmark05 anche con la x1800..... :)

fede27
08-07-2006, 19:17
io vedo questo...



2

http://img134.imageshack.us/img134/4807/farcry21vn.th.jpg (http://img134.imageshack.us/my.php?image=farcry21vn.jpg)




...e questo


4

http://img101.imageshack.us/img101/9826/farcry44av.th.jpg (http://img101.imageshack.us/my.php?image=farcry44av.jpg)


;)

Brightblade
09-07-2006, 14:31
io vedo questo...



...e questo




;)

Non avevo alcun dubbio...come sono quasi certo che chiunque abbia una GF dalla serie 5 alla 7 vede la 1 e la 3 :muro: Spero ci sia qualcuno che mi contraddica, e che mi spieghi come avere le ombre smussate senza camuffare la mia GF da 9800Pro :mc:



Confermo l'alone "cubettoso" della lucciola verde nel 3dmark05 anche con la x1800..... :)

Bene (male!)...era da prima che comprassi la prima scheda col Rendition Verite' 1000, che non vedevo piu' cubetti in applicazioni 3D...

Franx1508
09-07-2006, 15:25
Scusa yoss ma, sebbene io non abbia a portata di mano le specifiche, mi risulta che in certe istruzioni le dx9 richiedano FP24-FP32 obbligatoriamente. Ne parlammo secoli fa anche su Nvitalia. Il dubbio allora e' che se gli sviluppatori di quel bench si ritrovano le gpu a forzare l'fp16 anche dove non dovrebbe, avremo la dimostrazione tramite screenshot di quel demo comparando la resa visiva di varie schede con (magari la includessero) la resa campione elaborata via software.

Aggiungo che vedo una certa mancanza di memoria storica in certi interventi. Abbiamo visto in passato cosa Nvidia arrivi a fare pur di gonfiare i numeri (i clipping planes hanno veramente battuto ogni record, mi-ti-ci nello sfruttare il fatto che i benchmark hanno una sequenza fissa di immagini).
D'altrocanto, se solo un benchmark adesso all'alba di luglio 2006 permette di accorgerci di tutto cio', e' segno che se davvero le gpu Nvidia lavorassero in FP16 tutto il tempo, non abbiamo piu' l'occhio allenato noi o hanno ragione loro ad usarla :)
ti ricordi la mia crociata a riguardo dello z-occlusion culling disattivato sulle grandi geforce 4ti?

Franx1508
09-07-2006, 15:46
x1800xt

http://img91.imageshack.us/img91/7506/immagine0lp.th.jpg (http://img91.imageshack.us/my.php?image=immagine0lp.jpg)

Brightblade
09-07-2006, 15:54
x1800xt

http://img91.imageshack.us/img91/7506/immagine0lp.th.jpg (http://img91.imageshack.us/my.php?image=immagine0lp.jpg)

Non vedo cubetti, ma in compenso vedo dei triangoloni nell'angolo in basso a destra....ormai sono dannato x l'eternita' a vedere i bachi video ovunque :muro:

Franx1508
09-07-2006, 16:06
Non vedo cubetti, ma in compenso vedo dei triangoloni nell'angolo in basso a destra....ormai sono dannato x l'eternita' a vedere i bachi video ovunque :muro:
si lo sò
sarà un errore di rendering casuale. :)

fede27
09-07-2006, 16:25
Non vedo cubetti, ma in compenso vedo dei triangoloni nell'angolo in basso a destra....ormai sono dannato x l'eternita' a vedere i bachi video ovunque :muro:

no io quelli li vedo pure mentre gioco ;) comunque..

si lo sò
sarà un errore di rendering casuale.

..è vero, ogni tanto capitano

Andrea deluxe
09-07-2006, 17:10
guardando tutto cio' mi viene da pensare che nvidia senza il settore quadro andrebbe a picco veramente come il titanic!

ho avuto una gf3 ti200, 5900ultra, 6800 ultra e adesso ho una x1900xtx.

LA DIFFERENZA NELLA QUALITA C'E'!

Nella bufera fp16 e 32 ci sono passato e sono riuscito a "tifare" ancora nvidia, ma oggi che mi tira fuori la serie 7 che non fa hdr+aa e' scandaloso!

nvidia se continua cosi fara una brutta fine :doh:

Brightblade
10-07-2006, 10:08
si lo sò
sarà un errore di rendering casuale. :)



no io quelli li vedo pure mentre gioco ;) comunque..



..è vero, ogni tanto capitano


Errori di rendering casuali :mbe: :mc:

fede27
10-07-2006, 13:01
Errori di rendering casuali :mbe: :mc:

ma sì dai non ne hai mai visti??? conti i quadratini grandi come pixel e non t'accorgi di sgorbi così?? :D

shodan
10-07-2006, 13:51
Ciao a tutti,

i problemi del riflesso nel demo di Fear sono dovuti sicuramente a una texture (quella del riflesso) non filtrata con filtro bilineare / trilineare, ma solo con il point sampling.
Non credo centrino evenutali problemi di precisione degli shader; può essere invece legato a una texture fatta male (nel gioco) oppure a delle impostazioni "aggressive" del driver video.

Tralasciando il primo caso (non possiamo farci nulla...), per averne capire se il problema è effettivamente legato al driver video fate alcuni screenshot con le impostazioni indicate sotto:
-) con l'AF 16x impostato dai driver;
-) con l'AF 16x impostato del gioco e non dal driver;
-) senza AF ma impostando la tacca "qualità-prestazioni" presente nel pannello dei driver al massimo della qualità;

Provo ad anticipare la risposta: nelle prove 2 e 3 il problema dovrebbe essere più attenuato a addirittura sparire.
Vediamo che succede! ;)

Ciao. :)

Brightblade
10-07-2006, 14:21
ma sì dai non ne hai mai visti??? conti i quadratini grandi come pixel e non t'accorgi di sgorbi così?? :D


In realta' io intendevo dire che il pc, in generale, di errori "casuali" non puo' farne, c'e' sempre un problema HW o SW (risolvibile o meno) legato ai diversi errori. Sarebbe un po' come dire che ogni tanto Prime95 sbaglia i conti e in realta' spara fuori un errore nello stress test, pur non essendoci motivo :mbe: Cmq, di "errori casuali di rendering" di quel tipo ne ho visti solo quando occavo troppo la ram video, se si manifestassero regolarmente non riuscirei a dormire la notte finche' non riuscissi a scoprirne la causa :sofico:

oscuroviandante
10-07-2006, 14:43
ho una 7900 GTX e con driver di default così come escono dall'installazione non ho nessun effetto blocchettoso sia con 3DMark che con FEAR.

thegladiator
10-07-2006, 16:58
ho una 7900 GTX e con driver di default così come escono dall'installazione non ho nessun effetto blocchettoso sia con 3DMark che con FEAR.


Il problema col 3dmark05 ce l'hanno tutti, sia ati che nvidia......moh che tu non ce l'abbia con la 7900gtx è impossibile..... :mc:

fede27
10-07-2006, 17:00
In realta' io intendevo dire che il pc, in generale, di errori "casuali" non puo' farne, c'e' sempre un problema HW o SW (risolvibile o meno) legato ai diversi errori. Sarebbe un po' come dire che ogni tanto Prime95 sbaglia i conti e in realta' spara fuori un errore nello stress test, pur non essendoci motivo :mbe: Cmq, di "errori casuali di rendering" di quel tipo ne ho visti solo quando occavo troppo la ram video, se si manifestassero regolarmente non riuscirei a dormire la notte finche' non riuscissi a scoprirne la causa :sofico:

ma sì infatti sono del tutto casulai e molto sporadici ;)

attendiamo gli esiti della tua inchiesta-ombre quadrattose far cry :D

oscuroviandante
11-07-2006, 10:51
Il problema col 3dmark05 ce l'hanno tutti, sia ati che nvidia......moh che tu non ce l'abbia con la 7900gtx è impossibile..... :mc:


azz....forse non c'ho fatto caso :D :stordita: :stordita: ho guardato solo le immagini in movimento :fagiano:

Se poi non ci sono davvero blocchetti mi tengo stretto stretto la mia bestiolina :sofico:

enry2772
11-07-2006, 10:56
ho una 7900 GTX e con driver di default così come escono dall'installazione non ho nessun effetto blocchettoso sia con 3DMark che con FEAR.


mmmm e quindi anche io con le mie bestioline in SLI non ho nessun blocco neanche a FEAR ad alta risoluzione!!! :cool:

pandyno
11-07-2006, 11:24
D'altrocanto, se solo un benchmark adesso all'alba di luglio 2006 permette di accorgerci di tutto cio', e' segno che se davvero le gpu Nvidia lavorassero in FP16 tutto il tempo, non abbiamo piu' l'occhio allenato noi o hanno ragione loro ad usarla :)

O semplicemente non abbiamo più tutto qesto tempo da dedicare ;)

Window Vista
11-07-2006, 11:29
Il problema col 3dmark05 ce l'hanno tutti, sia ati che nvidia......moh che tu non ce l'abbia con la 7900gtx è impossibile..... :mc:
Voglio le immagini

Brightblade
11-07-2006, 12:10
Voglio le immagini

Appena riesco a fare un giro di 3DM05 sul notebook di mio fratello, che monta un X700, posto lo screen. Cmq, su 2 utenti ATI che hanno controllato, entrambi hanno notato i cubetti (vedi qualche post indietro). Nn penso siano markettari nvidia camuffati da utenti ATI :sofico:



ma sì infatti sono del tutto casulai e molto sporadici ;)

attendiamo gli esiti della tua inchiesta-ombre quadrattose far cry :D

Magari lo posto anche nel thread ufficiale di FarCry...

oscuroviandante
11-07-2006, 14:14
Voglio le immagini

stasera riprovo e le posto ;)

oscuroviandante
12-07-2006, 23:29
In effetti ci sono i blocchi :stordita:

http://img79.imageshack.us/img79/6541/immagine569wy.th.jpg (http://img79.imageshack.us/my.php?image=immagine569wy.jpg)

Ma se ci sono sia con le ATI che con le nVidia allora il problema è di 3DMark.

E anche se fosse un problema solo con nVidia ,personalmente non toglie la soddisfazione che ho avuto con tutte le schede che ho avuto (a parte la sciagurata serie FX)

Brightblade
13-07-2006, 08:16
E anche se fosse un problema solo con nVidia ,personalmente non toglie la soddisfazione che ho avuto con tutte le schede che ho avuto (a parte la sciagurata serie FX)

Anch'io ho avuto una GF2 Ti200, GF4 Ti4200, GFFX 5900XT@Ultra e poi questa 7900GT. Mai un RMA e mi hanno sempre fatto girare tutto cio' che ho dato loro in pasto ai settaggi che mi andavano a genio. Anche la tanto vituperata 5900 il suo lavoro lo faceva, e comunque l'unico gioco per il quale mi dispiaceva un po' dover sacrificare i PS2.0 era FarCry (anche xche' all'epoca non e' che ci fossero molti altri validi titoli in cui i PS2.0 fossero una necessita'). Solo FEAR e COD2 mi hanno spinto a fare l'upgrade (e tra l'altro devo ancora giocarli entrambi).

Detto cio' pero', qui si cercava di capire se alcuni "bachi" presenti in alcune applicazioni, fossero appunto bug, oppure ottimizzazioni un po' troppo spericolate. Anche se ho sempre avuto schede nVidia (il fatto che ho deciso di dare loro fiducia pure dopo la 5900XT dice tutto...), non mi farei problemi a prendere una scheda ATI se scoprissi che, rimanendo con nV, dal 2 al 3 mi trovo un gioco con la grafica sminchi@ta xche' per coprire lacune hardware ci mettono delle toppe software. Vorrebbe dire che non hanno imparato nulla dal "fiasco" GFFX. Cmq a parte quelli che ho postato, non ho notato altri "bachi" in nessun'altra applicazione.

Pat77
13-07-2006, 10:04
L'errore di Nvidia è stato quello di affidarsi troppo alle specifiche dettate da Carmack e dalla posizione di mercato cercando di imporre uno standard fuori dalle specifiche Microsoft.
Se l'Fp16 viene usato quando non serve maggiore qualità, non vedo dove sia il dramma.

Pk77

oscuroviandante
13-07-2006, 11:21
L'errore di Nvidia è stato quello di affidarsi troppo alle specifiche dettate da Carmack e dalla posizione di mercato cercando di imporre uno standard fuori dalle specifiche Microsoft.
Se l'Fp16 viene usato quando non serve maggiore qualità, non vedo dove sia il dramma.

Pk77


Guarda lo dico da semi-utOnto in quanto non ho ancora capito cosa voglia dire fp16 e fp32 :sofico:.
Se guardo cosa sono riusciti a fare con PREY utilizzando il 'vecchio' motore di Doom 3 in OpenGL e un qualsiasi gioco in Direct 3D (spero di nun avev detto 'na strunzata :sofico: ) ...a livello grafico preferisco decisamente il primo.

E' la stessa cosa che provai quando (ahimè :( ) passai da giochi in Glide ai D3D....... la grafica mi sembrava piatta e senza vita.

Forse l'OpenGL è in qualche modo boicottato da MSoft in favore del suo standard?

Dylan BJ
16-07-2006, 16:53
se il gioco rileva una GF, pensa bene di sminchi@re le ombre. Le ombre cubettose le avevo anche sulla GF5 e secondo me ci sono anche sui sistemi con GF6, x cui se fosse stato un baco a quest'ora sarebbe gia' stato risolto, il che mi fa pensare che la cosa potrebbe essere intenzionale. Dato che non ho visto un crollo vertiginoso degli fps fra ombre pixellose e ombre sfocate, non vedo per quale motivo si dovrebbero sminchiare le ombre su sitemi con GF.

qua si parla di mafia vera e propria!!!! altro che qualita' pura!!!! :fiufiu:
pago e manipolo l'avversario.... :nonsifa:

fede27
16-07-2006, 16:57
puoi fare un po'di prove?? non trovi nessun tipo di impostazione/filtro che ti permetta di visualizzare ombre sfocate??

Brightblade
16-07-2006, 19:15
L'unico modo che ho trovato e' quello di far credere al gioco che ho un scheda ATI. Avevo provato in passato a modificare tutte le opzioni relative alle ombre, ma nessuna ha dato l'esito sperato.... :muro:

Se guardo nel log creato dal gioco nei 2 casi, la differenza principale e' questa:

Screen 1 e 3 (nVidia): Shadow Map Type= Depht Maps

Screen 2 e 4 (ATI): Shadow Map Type= Mixed Depht/2D

non ho trovato nessun'opzione in grado di modificarla. Xro' mi chiedo a chi giova tutto cio', dato che, anche sminchiando le ombre, il guadagno che ho notato e di 3-4fps (pero' ho testato solo questo livello, magari in altri il guadagno e' maggiore).


qua si parla di mafia vera e propria!!!! altro che qualita' pura!!!! :fiufiu:
pago e manipolo l'avversario.... :nonsifa:

:confused: :confused: Puoi spiegarti meglio? In questo caso chi pagherebbe chi? Forse ho capito, intendi dire che ATI avrebbe pagato Crytek x sminchiare alcuni aspetti della grafica quando rileva una scheda nVidia?

Dylan BJ
17-07-2006, 08:45
intendi dire che ATI avrebbe pagato Crytek x sminchiare alcuni aspetti della grafica quando rileva una scheda nVidia?

:mano: gia'.... ma vorrei sperare fino all'ultimo in un certo "fair play" di fondo tra i 2 contenenti.... anke xke' a farne le spese sarebbero, come sempre, gli utenti finali...

fede27
17-07-2006, 10:35
qua si parla di mafia vera e propria!!!! altro che qualita' pura!!!! :fiufiu:
pago e manipolo l'avversario.... :nonsifa:

:mbe: ridicolo...quanto vuoi che ci metta un ing della nvidia a beccare una roba del enere provando un gioco..ma dai. e poi in media è la nvidia che si appoggia maggiormente ai programmatori di giochi quindi mi pare una tesi piuttostosconclusionata la tua ;)

Foglia Morta
18-07-2006, 15:23
su theinquirer (http://uk.theinquirer.net/?article=33097) c' è il confronto con 2 immagini , effettivamente un po di differenza c'è

fede27
18-07-2006, 15:29
prova a cercare anche tu..su tom's c'era un articolo con confronto dell'HDR ati e nvidia..dici che serve a capirci qualcosa???

comunque nel tuo link la differenza in quelle immagini si vede tutta e pure senza sforzarsi. cavolo fa quasi male agli occhi una sfocatura così..

ps: ma l'oggetto renderizzato in dx9 è solo il motoscafo vero?? :stordita:

Brightblade
19-07-2006, 07:58
A me piu' che una differenza tra FP16/FP32 sembra una differenza di filtri e AA, con l'immagine ATI troppo poco filtrata e l'immagine nVidia un po' troppo filtrata per i miei gusti.

X aggiungere un'altra considerazione che c'entra poco con il confronto, a guardarlo bene, lo scenario mi sembra che assomigli molto al livello di Painkiller ambientato in una citta' stile Venezia...solo che li' le costruzioni avevano un aspetto molto piu' solido e definito....e stiamo parlando di un gioco che ha + di 2 anni...

Window Vista
19-07-2006, 14:05
Tempo fa abbiamo pubblicato una notizia su un tema sollevato da TheInquirer che, riportando le parole di uno sviluppatore del benchmark Rydermark, allungava l'ombra di un supporto incompleto delle DirectX 9 da parte di Nvidia.
Rydermark - "Nvidia non è DX 9 compliant"
TheInquirer non è nuovo ad attacchi contro Nvidia, riportiamo la notizia per dovere di cronaca, ma non potendo testare di prima mano, prendiamo le debite distanza dalla vicenda.
Gli sviluppi quindi, sono i seguenti:

Dailytech riporta come la storia originariamente pubblicata su TheInquirer sia del tutto priva di dettagli facendo riferimento a uno sviluppatore del benchmark (ancora non in vendita, quindi il tutto è ancor meno verificabile). Per questo motivo, sono apparse due immagini che confrontavano una scena di Rydermark 2006 rendirizzata da una scheda ATi e da una scheda Nvidia.
Tuttavia, ecco il colpo di scena: queste immagini sembra non siano opera di una scheda grafica, ma di Photoshop. Ma andiamo con ordine:
http://img117.imageshack.us/img117/4886/small2111largeatishaderuq7.jpg (http://imageshack.us)
Versione:ATI

http://img209.imageshack.us/img209/2980/small2112largenshaderlw6.jpg (http://imageshack.us)
Versione:NVIDIA
Come potete vedere l’immagine rendirizzata dalla scheda Nvidia mostra un’acqua con meno dettagli e meno nitida.
Tuttavia sembra che le due immagini non siano state renderizzate da due schede o meglio, l’immagine renderizzata dalla scheda ATi sembra essere basata su quella Nvidia, e non è stata prodotta dalla scheda. Per maggiori dettagli vi rimandiamo alla notizia di Dailytech.
Se ci saranno risvolti interessanti su questa vicenda, ve ne informeremo.
Link Dailytech:http://www.dailytech.com/article.aspx?newsid=3400
Fonte: Tomshw.it

shodan
20-07-2006, 13:08
Mi autoquoto per riproporre di effettuare i test indicati sotto...

Ciao. :)

Ciao a tutti,

i problemi del riflesso nel demo di Fear sono dovuti sicuramente a una texture (quella del riflesso) non filtrata con filtro bilineare / trilineare, ma solo con il point sampling.
Non credo centrino evenutali problemi di precisione degli shader; può essere invece legato a una texture fatta male (nel gioco) oppure a delle impostazioni "aggressive" del driver video.

Tralasciando il primo caso (non possiamo farci nulla...), per capire se il problema è effettivamente legato al driver video fate alcuni screenshot con le impostazioni indicate sotto:
-) con l'AF 16x impostato dai driver;
-) con l'AF 16x impostato del gioco e non dal driver;
-) senza AF ma impostando la tacca "qualità-prestazioni" presente nel pannello dei driver al massimo della qualità;

Provo ad anticipare la risposta: nelle prove 2 e 3 il problema dovrebbe essere più attenuato a addirittura sparire.
Vediamo che succede! ;)

Ciao. :)

fede27
20-07-2006, 13:38
Tempo fa abbiamo pubblicato una notizia su un tema sollevato da TheInquirer che, riportando le parole di uno sviluppatore del benchmark Rydermark, allungava l'ombra di un supporto incompleto delle DirectX 9 da parte di Nvidia.
Rydermark - "Nvidia non è DX 9 compliant"
TheInquirer non è nuovo ad attacchi contro Nvidia, riportiamo la notizia per dovere di cronaca, ma non potendo testare di prima mano, prendiamo le debite distanza dalla vicenda.
Gli sviluppi quindi, sono i seguenti:



guarda che se le posti così picole non si capisce niente. l'importante è vedere il dettaglio del motoscafo che mostra bene la differenza

Window Vista
20-07-2006, 13:40
guarda che se le posti così picole non si capisce niente. l'importante è vedere il dettaglio del motoscafo che mostra bene la differenza
Da tomshw erano così, quindi non me ne fare la colpa :mad: .
Se non capisci non è colpa mia cmq ecco un'altra news da tomshw.it

Nella giornata di ieri vi abbiamo proposto quello che sta diventando un caso, ovvero la "faida" mediatica tra TheInquirer, l'azienda Rydermark e alcune testate che hanno accusato il sito web londinese e gli sviluppatori di voler gettare discredito su Nvidia grazie a immagini che proverebbero presunte carenze nel supporto DirectX 9. L'accoppiata è stata accusata di aver manomesso le immagini in rete riguardanti Nvidia, nel tentativo di screditarla.

VGA - novità sul caso Rydermark/Nvidia

Dopo le accuse di ieri, TheInquirer non ha esitato a rispondere (testo integrale qui):

YOUR HUMBLE INQ, together with the developer of Rydermark, has been accused of a serious Photoshopping job. A link to the accusations is here.

Anyone who knows any kind of shader programming knows that the shader can mimic any filter from Photoshop. It is as simple as that, and I don't have any idea why I should bother to Photoshop anything or why a developer might bother to do so either.

I have enough stories to write, and I don't need to make ones up. And I wouldn't benefit from the practice at all. It is as simple as that.

And I can't see why a developer would bother to do such a thing either. We are talking here about people I have known for close to five years. They never messed me up before, so I stand by my story.

The developer is furious about the allegations posted by Anand's spawn, as this affects his credibility as much as it does ours. This is what you get when you take on PR departments of the multi-billion dollar companies. But we've negotiated such terrain before and we will prevail [You been chatting with Dubya, Fudo? - News Ed.] this time. If we are right on this, and we strongly believe we are, then Nvidia will be in serious trouble.

We are working hard with the developer to present more proof to our eager audience of millions and we may even have a video to show you, but this thing could take a few days. We don't want do give the story up.

La testata respinge in toto le accuse, sia a suo carico che eventualmente a carico degli sviluppatori e afferma che sta lavorando alacremente con gli stessi per presentare ulteriori prove, tra le quali potrebbe esserci anche un video. Tuttavia, per questo dovranno passare alcuni giorni.

Dailytech rilancia riportando un aggiornamento alla notizia pubblicata ieri:

Update 07/19/2006: The Inquirer has posted something resembling a rebuttal to this article. Incredibly, a user from the ModTheater.com forums managed to track down some of the stock art used in the screen renders, and believes the entire image is actually fraudulent.

Come vedete, un utente ha cercato prove che andrebbero a confermare la modifica delle immagini. Dal canto nostro ci teniamo super partes e vi informeremo sull'evoluzione della vicenda.

Franx1508
20-07-2006, 13:47
è assodato che nvidia abbia grossi problemi con il branching,non avete notato che le vga nvidia per stare al passo abbiano puntato tutto sulla forza bruta?

Crasher89
20-07-2006, 14:58
raga io kn fear nn ho avuto problemi,nn ho riscontrato gli scacchetti.Questo test l'ho fatto kn il filtro bilineare e nn ci sono scacchetti
http://img82.imageshack.us/my.php?image=fear2006072013465579ly7.png

ma in compenso ho avuto questo
http://img77.imageshack.us/my.php?image=fear2006072013465631he7.jpg

fede27
20-07-2006, 15:01
raga io kn fear nn ho avuto problemi,nn ho riscontrato gli scacchetti.Questo test l'ho fatto kn il filtro bilineare e nn ci sono scacchetti
http://img82.imageshack.us/my.php?image=fear2006072013465579ly7.png

mi sembra sia assodato che quel problema è dovuto alla demo

ma in compenso ho avuto questo
http://img77.imageshack.us/my.php?image=fear2006072013465631he7.jpg


:eek: allucinante!!

Crasher89
21-07-2006, 11:55
bruttissimo eh? :D

Window Vista
21-07-2006, 13:17
bruttissimo eh? :D
Qui ci vuole Vifani & co. a spiegarci, "se ci siete ancora battete un colpo".