PDA

View Full Version : Far Cry 1.2 / 1.3


abitrulez
24-07-2004, 10:36
"Nvidia encouraged Crytek to use partial precision in the shaders wherever possible. This means that many of the shaders will run in 16-bit precision, not the 32-bit precision (a requirement of SM3.0) that they are touting to the press. Ironically, while promoting the 32-bit precision of SM3.0 as a "must have", Nvidia is asking developers to use less precision than was available in SM1.0 - that is, all the way back in DirectX8! Even more ironically, ATI hardware will run most of the FarCry shaders more accurately (ATI hardware runs all shaders in 24-bit precision). Microsoft, the owner of DirectX, defines 24-bit and greater as "full precision" and 16-bit as "partial precision".

So there you have it, some of the facts, and some rumours.... nonetheless Crytek has committed to delivering 3Dc support in patch v1.3, which will provide higher detail images, or free up memory with better compression than traditional normal map compression options. FarCry is a great example of a next generation title that uses normal maps extensively. When the "final" patch arrives, we will be giving it a good going over and posting indepth results.

Thunder82
24-07-2004, 13:41
fonte?

DjLode
24-07-2004, 13:58
http://www.driverheaven.net/#article_15593

Ci aggiungo pure questa:

http://www.warp2search.net/modules.php?name=News&file=article&sid=19066

DjLode
24-07-2004, 14:01
Dal primo link:

"The major performance increase is due to improvements in the lighting shader. The new patch enables the effect of three lights to be calculated in one pass (previously, each light required its own pass). It is possible, with a bit of extra work, for four lights to be calculated in a single pass on ATI hardware, but Crytek has not made the changes that would enable this. This is the major performance increase on both ATI and Nvidia hardware."

:rolleyes:

"SM3.0 includes instancing, a feature nvidia have promoted heavily, saying that it proves the superiority of their hardware - while this is certainly a major talking and selling point, all X800 cards (and even 9500,9600,9700,9800) are capable of instancing. We have a beta driver in our possession which reflects this and associated performance gains, and it will be in the publicly posted CATALYST 4.8. We dont feel until a final patch is available from Crytek we should post our detailed findings as there is every possibility between now and the next release this could change."

"We can give you rough indications of percentage increases - on the research map with Far Cry v1.2 \r_sm2bpath 1 and HLSL compiler profile 2.0b we saw increases of 13% at 1024x768, 21% at 1280x1024 and 25% at 1600x1200. Nothing to be sniffed at."

Thunder82
24-07-2004, 14:28
che bello, sbandiera tanto i ps3 e poi li usa a 16bit, quindi non usando i veri ps3 :rolleyes:

pandyno
24-07-2004, 14:44
Fp16 non 16bit ;)

Thunder82
24-07-2004, 14:45
Originariamente inviato da pandyno
Fp16 non 16bit ;)

sì intendevo quello ;) 16 bit floating point ;)

Maury
24-07-2004, 15:58
:rolleyes:

Ahhh ... ma che bello :O

KenMasters
24-07-2004, 16:15
ma poxca miseria, ma a nvidia è stata data la licenza di prendere x i fondelli la gente? E' disgustoso davvero. Ostentare la propria superiorità in tutti i modi (anche i piu stupidi, tipo quando disse che ati non era in grado di implementare gli sm3.0 perche non sapevano come farlo :lol: ) e poi usare ogni tipo di trucchetto per stare davanti nei bench..

Raven
24-07-2004, 16:21
Scusatemi... ma secondo le specifiche dei PS3 e VS3, non sono obbligati ad usare fp32?!? :confused:

Thunder82
24-07-2004, 16:22
Originariamente inviato da Raven
Scusatemi... ma secondo le specifiche dei PS3 e VS3, non sono obbligati ad usare fp32?!? :confused:

esatto. Ma anche secondo le specifiche dx9 la precisione MINIMA da usare negli shader sarebbe un fp24, invece nVidia gironzola tranquilla a fp16 dicendo che è cmq dx9...

Raven
24-07-2004, 16:27
Originariamente inviato da Thunder82
esatto. Ma anche secondo le specifiche dx9 la precisione MINIMA da usare negli shader sarebbe un fp24, invece nVidia gironzola tranquilla a fp16 dicendo che è cmq dx9...

mmmhhh... ma c'è una differenza qualitativa visibile (tipo i fenomi di banding ormai ben noti) o invece nulla di aprezzabile?!?!... perché in tal caso...

pandyno
24-07-2004, 16:58
Puoi trovare tutto il discorso nei minimi dettagli qua:

http://www.driverheaven.net/showthread.php?s=&threadid=51427

fd-82
24-07-2004, 17:01
Originariamente inviato da Raven
mmmhhh... ma c'è una differenza qualitativa visibile (tipo i fenomi di banding ormai ben noti) o invece nulla di aprezzabile?!?!... perché in tal caso...

Si, dal 16 a 24 visibile, dal 24 a 32 quasi inesistente. (ho visto delle screen di far cry, non mi ricordo dove)

Alberto Falchi
24-07-2004, 17:07
Originariamente inviato da Thunder82
esatto. Ma anche secondo le specifiche dx9 la precisione MINIMA da usare negli shader sarebbe un fp24, invece nVidia gironzola tranquilla a fp16 dicendo che è cmq dx9...


"Nvidia is asking developers to use less precision than was available in SM1.0"

Pape

Thunder82
24-07-2004, 17:09
Originariamente inviato da GMCPape
"Nvidia is asking developers to use less precision than was available in SM1.0"

Pape

scommetto che quell' "asking" sia in realtà un "a$king" :D :sofico:

Alberto Falchi
24-07-2004, 17:17
Originariamente inviato da Thunder82
scommetto che quell' "asking" sia in realtà un "a$king" :D :sofico:

Veramente mi focalizzavo sul fatto che dicono "SM1". Il che è logico: negli SM1 (che NON richiedono FP32) è logico che nVidia spinga a usare il mixed mode (FP16+FP32) per migliorare le prestazioni.

Pape

fd-82
24-07-2004, 17:21
"Thats right people, the NV40/SM3.0 isnt the only card/Shader Model that can provide instancing, any of ATI’s DX9 hardware supports this feature, in the words of some ATI employees (off the record) "even using DirectX9.0b"
...
Type the following in the command console: \e_vegetation_sprites_distance_ratio 100

This will eliminate the usage of 2D sprites as vegetation, and draw full animated vegetation throughout the scene


Questa non la sapevo, ma bisogna aspettare i 4.8, o è già disponibile questa funzionalità?

Thunder82
24-07-2004, 17:22
Originariamente inviato da GMCPape
Veramente mi focalizzavo sul fatto che dicono "SM1". Il che è logico: negli SM1 (che NON richiedono FP32) è logico che nVidia spinga a usare il mixed mode (FP16+FP32) per migliorare le prestazioni.

Pape

uhm... ma lo sm1.0 non è lo shader model 1.0? cioè vertex e pixel shader 1.0? E i pixel shader 1.0 sono addirittura senza floating point, tutto con fixed

fd-82
24-07-2004, 17:28
Ho sbagliato, intendevo questo:

For Instancing support type (again without quotes) “\r_GeomInstancing 1”

Manp
24-07-2004, 17:44
Originariamente inviato da GMCPape
"Nvidia is asking developers to use less precision than was available in SM1.0"

Pape

nVidia stà chiedendo agli sviluppatori di usare una precisione minore di quella che era disponibile nello shader model 1.0

Veramente mi focalizzavo sul fatto che dicono "SM1". Il che è logico: negli SM1 (che NON richiedono FP32) è logico che nVidia spinga a usare il mixed mode (FP16+FP32) per migliorare le prestazioni.

non è che nVidia spinge ad usare il mixed mode nello SM1.0... ma spinge ad usare una precisione addirittura minore di quella che veniva usata nello shader model 1.0 in giochi sbandierati come DX9, dove la precisione minima consentita dovrebbe essere FP24

:)

spak
24-07-2004, 18:29
ma!!!!!! pero all atto pratico( vedendo la qualita dei vari screenshot pubblicati in rete ) non mi sembra che sia vero o perlomeno viene nascosto molto bene vediamo se viene ufficializzata la cosa x il momento mi sembra + le solite azzioni di marketing;)

Alberto Falchi
24-07-2004, 18:37
Originariamente inviato da Manp
nVidia stà chiedendo agli sviluppatori di usare una precisione minore di quella che era disponibile nello shader model 1.0


OIps, avevo letto di fretta. La tua traduzione è corretta, ma che vuol dire quella frase? MIsa che c'è un errore nell'originale. con lo SM 1 non esisteva proprio il floating point: si usavano solo valori integer.

In ogni caso, non è che un gioco DX 9 deve usare ovunque FP32: i programmatori possono scegliere che precisione assegnare a ogni effetto. Per certe cose è oggettivamente inutile andare oltre gli FP16, per altre è fondamentale. Da quanto vedo, cmq, mi sembra che non esistano differenze sostanziali fra gli screen fatti con ati o nvidia, e di conseguenza mi interessa ben poco cosa esattamente ci sia dietro al motore

Pape

nonikname
24-07-2004, 19:00
Mi preoccuperei poco di quello che dice DriverHeaven , dato che è quanto di più vicino ad ATI esista ....(basta vedere qualsiasi recensione fatta su questo sito , una su tutte la X800XT contro la Gainward 6800ultra Watercooled : la recensione più di parte che abbia mai letto)

P.S. Se non trovate un giorno qualsiasi , in una pagina qualsiasi una pubblicità ATI su questo sito fatemelo sapere ........

pandyno
24-07-2004, 19:16
Originariamente inviato da GMCPape
OIps, avevo letto di fretta. La tua traduzione è corretta, ma che vuol dire quella frase? MIsa che c'è un errore nell'originale. con lo SM 1 non esisteva proprio il floating point: si usavano solo valori integer.

In ogni caso, non è che un gioco DX 9 deve usare ovunque FP32: i programmatori possono scegliere che precisione assegnare a ogni effetto. Per certe cose è oggettivamente inutile andare oltre gli FP16, per altre è fondamentale. Da quanto vedo, cmq, mi sembra che non esistano differenze sostanziali fra gli screen fatti con ati o nvidia, e di conseguenza mi interessa ben poco cosa esattamente ci sia dietro al motore

Pape

Vero, ma lo SM3.0 richiede espressamente FP32 come lo SM2.0 richiede FP24.

Il discorso secondo me va affrontato in questo senso: nVidia propone lo SM3.0 come indispensabile e poi mi scende a FP16, un controsenso non credi?

Alberto Falchi
24-07-2004, 19:48
Originariamente inviato da pandyno
Vero, ma lo SM3.0 richiede espressamente FP32 come lo SM2.0 richiede FP24.

Il discorso secondo me va affrontato in questo senso: nVidia propone lo SM3.0 come indispensabile e poi mi scende a FP16, un controsenso non credi?

Dipende da come la vedi. Se fosse vero quanto detto sul sito (cosa di cui dubito, visto che tale sito non è il massimo per affidabilità), potrebbe anche esserlo. In verità, credo semplicemente che lo SM3 sia stato utilizzato in certe situazioni, mentre in altre rimanga lo SM2. Ed è normale questo: indipendentemente da Ati o nvidia, un gioco non userà ovunque lo SM3, ma solo nelle aree dove ha senso farlo. Ovviamente poi nvidia spingerà sullo SM3 come fondamentale, così come ATI fa con 3Dc. Ogni azienda cerca di tirare l'acqua al suo mulino, del resto. Non mi stupirei se a breve qualcuno per esempio saltasse fuori dimostrando che il 3dc in realtà non comprime tanto più di altri algoritmi.

Pape

Thunder82
24-07-2004, 21:32
Con le ottimizzazioni attivate su R420:

http://www.ixbt.com/video2/images/fc12/pic1.png

http://www.ixbt.com/video2/images/fc12/pic2.png

http://www.ixbt.com/video2/images/fc12/pic3.png

http://www.ixbt.com/video2/fc12-2.shtml

KenMasters
24-07-2004, 21:41
di che ottimizzazioni si tratta? simulano lo sm 3.0?

Thunder82
24-07-2004, 21:42
Originariamente inviato da KenMasters
di che ottimizzazioni si tratta? simulano lo sm 3.0?

siccome la stessa roba che viene fatta coi ps 3.0 si può fare coi ps 2.x, questo è quello che viene fuori

pandyno
24-07-2004, 21:58
non è una spiegazione molto tecnica, io credo semplicemente che alcune cose con quel path siano calcolate in FP16 e altre in FP24 in luogo di FP16/FP32 adottato da nvidia.

Come mi hanno fatto giustamente notare sul forum di nVitalia lo SM3.0 non richiede una precisione minima di FP32, ma per quanto riguarda il fog e lo specular è *permesso* l' ausilio di precisione mista FP16/FP32.
Per quanto riguarda invece il processo di HpDR invece è espressamente richiesto FP32.

il documento è ufficiale microsoft:

http://www.microsoft.com/whdc/winhec/partners/shadermodel30_nvidia.mspx

Ammetto che tutto ciò è molto strano, mi ricordavo esattamente il contrario, non nego d' altro canto che in rete riguardo a questo ci sia la confusione più totale,.

pandyno
24-07-2004, 22:03
Originariamente inviato da Thunder82

http://www.ixbt.com/video2/images/fc12/pic3.png


Questo è probabilmente il risultato del calcolo di tre luci in una sola passata, pare che l' hardware ATI sia capace di processarne 4 in una passata, forse lo vedremo nella prossima patch

KenMasters
24-07-2004, 22:15
Originariamente inviato da Thunder82
siccome la stessa roba che viene fatta coi ps 3.0 si può fare coi ps 2.x, questo è quello che viene fuori


:rolleyes: eh immaginavo che servissero a poco ma non che fossero completamente inutili...

Thunder82
24-07-2004, 22:54
Originariamente inviato da pandyno
Questo è probabilmente il risultato del calcolo di tre luci in una sola passata, pare che l' hardware ATI sia capace di processarne 4 in una passata, forse lo vedremo nella prossima patch

l'importante è che se c'è una tecnologia a disposizione per aumentare i fps, questa venga utilizzata per tutte le schede che potrebbero trarne beneficio e non solo per la casa che ha sborsato più $ agli sviluppatori.

Manp
24-07-2004, 22:55
Originariamente inviato da GMCPape
OIps, avevo letto di fretta. La tua traduzione è corretta, ma che vuol dire quella frase? MIsa che c'è un errore nell'originale. con lo SM 1 non esisteva proprio il floating point: si usavano solo valori integer.


è vero, per questo mi sembra strano... può darsi intendessero il n° di bit usato per rappresentare i numeri... in fondo anche un numero intero può essere rappresentato con un diverso numero di bit, ma ovviamente in questo caso non si dovrebbe parlare di precisione poichè 01 o 0001 rappresenterebbero la stessa cifra intera...

posso immaginare che nello SM1 i numeri interi venissero rappresentati con 8 (o 16) bit e che quindi il senso della frase si una cosa del tipo: "nvidia spinge ad usare una precisione uguale al n° di bit che venivano usati per la rappresentazione degli interi nello SM1"

:)

Dark Schneider
24-07-2004, 22:58
Ragà come ha detto qualcuno sopra, penso che ci sia un po' di confusione intorno allo Shader Model 3.0!! Certi credono: FP32 = Shader Model 3.0!! Non è proprio esatto. Ci sono alcuni features che diciamo richiedono tale precisione d'obbligo. Un Esempio è l'HDPR, che Far Cry NON supporta. Lo SM 3.0 permette e ammette lo scalare della precisione in determinate situazioni. In pratica rientra perfettamente nelle specifiche.

Quindi c'è poco su cui discutere e ben poco da "condannare"...anzi non c'è proprio nulla da condannare.

-=Krynn=-
25-07-2004, 09:17
come mai nessun altro sito ha ripreso la notizia?

Vifani
25-07-2004, 10:27
E' assolutamente ovvio che NVIDIA chieda, là dove possibile, di utilizzare FP16. Indipendentemente dalla potenza di calcolo di NV40, se si usano FP16 ci saranno sempre e comunque prestazioni superiori rispetto a FP32. I calcoli devono essere eseguiti su un numero inferiore di bit, le variabili occupano meno spazio in memoria, ecc... Si tratta di un discorso matematico. Sicuramente NV40 soffre in misura inferiore rispetto a NV3x dell'uso dei FP32 (probabilmente a causa di carenze strutturali da parte di quest'ultimo), ma il calo ci sarà sempre. Il giorno in cui non ci sarà, non esisteranno più gli FP16 e FP24.

Chiarito questo, ciò che fa NVIDIA non è nè una presa per il culo nè qualcosa di cui sorprendersi. Dove non esistono evidenti differenze qualitative NVIDIA chiede di usare FP16, mentre dove possibile chiede di usare lo SM 3.0. Non dovete intendere quest'ultimo come l'uso incondizionato di FP32, ma come la possibilità di realizzare effetti grafici innovativi e di ottimizzare le prestazioni come ha fatto Crytek.

Quella di NVIDIA è una normalissima manovra di marketing. Da un lato vuole assicurarsi le migliori prestazioni (FP16 dove possibile), dall'altro vuole mettere in risalto la superiorità delle proprie schede che supportano lo SM 3.0.

ATI invece usa sempre FP24 e supporta lo SM 2.x.

Sta a voi scegliere quale approccio elogiare e quale condannare :)

spak
25-07-2004, 10:45
quoto in pieno il problema e che questa "condanna" non e stata provata con nessuna prova concreta ma riportata solo da quel sito il che mi fa pensare :O e certi commenti mi fanno un po sorridere;)

^TiGeRShArK^
25-07-2004, 11:05
il problema è che per essere una skeda dx9 la precisione minima dovrebbe essere fp24....
le skede nvidia tendono ad usare fp16 quando possibile....
il problema è ke c'erano persone qui sul forum (secondo me c'è pure il clone di qualcuno ke all'uscita di nv30 fu letteralmente smerxato pubblicamente perkè si ostinava a difenderla:asd: ) ke osannavano il supporto agli shader 3 divinizzando nvidia, quando poi in realtà si scopre che questi shader 3 non provocano alcun aumento di prestazioni che non possa essere ottenuto anche su schede ati, che nvidia tende ad utilizzare FP16 (mentre sono convinto che prima col banding di farcry utilizzasse gli INT).
finchè non si nota alcuna differenza di qualità per me qualsiasi ottimizzazione va bene, ma c'è da dire che molte volte nvidia non sta troppo a farsi scrupoli se deve ottenere performance in più come si è già visto in passato.

Athlon 64 3000+
25-07-2004, 12:52
Anche se io preferisco la scelta fatta da Ati bisogna smetterla di litigare tutte le volte per discussioni Ati vs Nvidia.
In Far Cry è stato risolto il problema delle del famoso banding.
Tanto ognuno tira acqua al suo mulino quindi si sceglie in base alle scelte personali.
Io preferisco il 3Dc allo SM 3.0 ma da qui ha criticare aspramente Nvidia adesso si esagera.
Io in passato la ho criticata per via delle Fx che erano veramente dei cessi di schede e per i cheat dei driver nel 2003 e ho avuto diverse perplessità riguardo all'NV40 che sono state risolte con nuovi driver e con la patch 1.2 in Far Cry.
Lo scontro tra 6800 e X800 e diverso da quello 9800 e 5900.

Dark Schneider
25-07-2004, 13:04
Originariamente inviato da Athlon 64 3000+
Anche se io preferisco la scelta fatta a Ati bisogna smetterla di litigare tutte le volte per discussioni Ati vs Nvidia.
In Far Cry è stato risolto il problema delle del famoso banding.
Tanto ognuno tira acqua al suo mulino quindi si sceglie in base alle scelte personali.
Io preferisco il 3Dc allo SM 3.0 ma da qui ha criticare aspramente Nvidia adesso si esagera.
Io in passato la ho critcato per via delle Fx che erano veramente dei cessi di schede e per i cheat dei driver nel 2003 e ho avuto diverse perplessità riguardo all'NV40 che sono state risolte con nuovi driver e con la patch 1.2 in Far Cry.
Lo scontro tra 6800 e X800 e diverso da quello 9800 e 5900.


Questo è un ragionamento intelligente. :)

Alberto Falchi
25-07-2004, 15:51
Originariamente inviato da ^TiGeRShArK^
ke osannavano il supporto agli shader 3 divinizzando nvidia, quando poi in realtà si scopre che questi shader 3 non provocano alcun aumento di prestazioni che non possa essere ottenuto anche su schede ati

Questa è una sega mentale: guarda i bench e giudica. Può essere ottenuto anche su Ati, MAtrox Volari, S virge che? Dimostralo, non abbaiarlo. Il gioco, per come è fatto, gira meglio su nVidia (o meglio, i bench danno a lei ragione): tutto il resto è stupidità, sino a che qualcuno non dimostra il contrario.


finchè non si nota alcuna differenza di qualità per me qualsiasi ottimizzazione va bene, ma c'è da dire che molte volte nvidia non sta troppo a farsi scrupoli se deve ottenere performance in più come si è già visto in passato.

è un problema comune anche ad ATi, o qualcuno si dimentica delle sporche fatte col primo Radeon. Senza contare che è impossibile disabilitare le ottimizzazioni dell'anisotropico e del trilinear con gli attuali driver ATI (discorso forse ambiguo, visto che queste ottimizzazioni di ATi in ogni caso non hanno portato a un degrado sensibile dell'immagine, esattamente come le ottimizzazioni di nVidia, del resto).

Pape

pandyno
25-07-2004, 16:58
http://www.driverheaven.net/showthread.php?threadid=51500&s=


Geometry Instancing disponibile anche su HW ATI

fd-82
25-07-2004, 17:39
Originariamente inviato da pandyno
http://www.driverheaven.net/showthread.php?threadid=51500&s=


Geometry Instancing disponibile anche su HW ATI

Anche su R9xx, più precisamente:p :D

pandyno
25-07-2004, 20:11
Se mai RX3X0 ;)

fd-82
25-07-2004, 20:15
Originariamente inviato da pandyno
Se mai RX3X0 ;)

Si hai ragione :mc: :D

DjLode
25-07-2004, 20:22
Originariamente inviato da Vifani
E' assolutamente ovvio che NVIDIA chieda, là dove possibile, di utilizzare FP16. Indipendentemente dalla potenza di calcolo di NV40, se si usano FP16 ci saranno sempre e comunque prestazioni superiori rispetto a FP32. I calcoli devono essere eseguiti su un numero inferiore di bit, le variabili occupano meno spazio in memoria, ecc... Si tratta di un discorso matematico. Sicuramente NV40 soffre in misura inferiore rispetto a NV3x dell'uso dei FP32 (probabilmente a causa di carenze strutturali da parte di quest'ultimo), ma il calo ci sarà sempre. Il giorno in cui non ci sarà, non esisteranno più gli FP16 e FP24.

Chiarito questo, ciò che fa NVIDIA non è nè una presa per il culo nè qualcosa di cui sorprendersi. Dove non esistono evidenti differenze qualitative NVIDIA chiede di usare FP16, mentre dove possibile chiede di usare lo SM 3.0. Non dovete intendere quest'ultimo come l'uso incondizionato di FP32, ma come la possibilità di realizzare effetti grafici innovativi e di ottimizzare le prestazioni come ha fatto Crytek.

Quella di NVIDIA è una normalissima manovra di marketing. Da un lato vuole assicurarsi le migliori prestazioni (FP16 dove possibile), dall'altro vuole mettere in risalto la superiorità delle proprie schede che supportano lo SM 3.0.

ATI invece usa sempre FP24 e supporta lo SM 2.x.

Sta a voi scegliere quale approccio elogiare e quale condannare :)

Io non condanno nè Ati nè Nvidia. Qui l'unica società a perdere letteralmente la faccia è stata Crytek. Nvidia può chiedere ma se Crytek si "abbassa" a soddisfare le richieste è lei a perderci la faccia. Logico che N e A cerchino di far supportare il più alto numero possibile di features ai vari giochi. E non ci vedo nulla di scandaloso.

vegeta88
25-07-2004, 21:07
Per un confronto

Ragazzi qui: http://forum.hwupgrade.it/showthread.php?s=&postid=5278692#post5278692

ho uppato un pò di shoot fatti con la mia 5900XT con patch 1.2.

Come si può notare le prestazioni sono buone e sono stati risolti i problemi di banding che vi erano con gli shader 2.0.


Ciao;) ;)

josefor
25-07-2004, 22:07
Qualcuno è riuscito a scaricare la path per il PS 2.0b?
Io no ci riesco:cry:

Ren
26-07-2004, 11:28
ma secondo voi i presunti shader3 di farcry sono reali ma fatemi il piacere... la crytek ha solo usato qualche trucchetto x farlo andare + veloce spacciandolo x Shader3.

Ren
26-07-2004, 11:31
quando uscirà un vero engine grafico che sfrutta gli S3 potremo fare tutte le costatazioni dovute.

Alberto Falchi
26-07-2004, 12:46
Originariamente inviato da Ren
ma secondo voi i presunti shader3 di farcry sono reali ma fatemi il piacere... la crytek ha solo usato qualche trucchetto x farlo andare + veloce spacciandolo x Shader3.


Hai visto il codice? In caso contrario, come fai a ostentare tanta sicumera?

Pape

DjLode
27-07-2004, 07:52
Originariamente inviato da GMCPape
Hai visto il codice? In caso contrario, come fai a ostentare tanta sicumera?

Pape

Bhè se abilitando una paio di comandi da console le gpu R420 riescono a calcolare le loro 4 belle fonti luminose con un solo passaggio (ricordo, cosa che Crytek ha ribadito più di una volta fattibile solo con il fantomatico SM3), credo che se non hanno solo ricompilato l'hlsl con lo SM3, poco ci manca :)

Alberto Falchi
27-07-2004, 08:07
Originariamente inviato da DjLode
Bhè se abilitando una paio di comandi da console le gpu R420 riescono a calcolare le loro 4 belle fonti luminose con un solo passaggio (ricordo, cosa che Crytek ha ribadito più di una volta fattibile solo con il fantomatico SM3), credo che se non hanno solo ricompilato l'hlsl con lo SM3, poco ci manca :)

Ti dirò, vista l'assenza delle DX9.0c qualche dubbio può venire, sebbene sembri assurdo che qualche programmatore le spari così grosse. E leggendo questo articolo (http://www.digit-life.com/articles2/gffx/fc12-2.html) i fatti sembrerebbero darti ragione.

Ricapitolando:
1) esce la patch x lo SM3 (ma non le librerie di MS per supportarlo)
2) i test incrementano le prestazioni su schede nVidia, quindi viene da pensare che in effetti siano abilitate le ottimizzazioni per gli shader 3.
3) la patch viene ritirata per bizzarri comportamenti con certo hardware
4) Digit-life dimostra che sono stati usati shader più lunghi del solito, ma funzionanti (con boos di prestazioni, per di più) su R420.
5) ATI riprende la corona sui test di FC:

Una situazione ridicola, oserei dire. Anche perché è complesso attribuire le colpe. è stata Crytek a spingere per un frettoloso rilascio, in modo da pacare la comunità in attesa dell patch? O nVidia, in virtù della sua potenza marketing e degli accordi con gli sviluppatori (FC è un gioco con logo TWIMTBP), ha spinto per una simile soluzione? E qual è lo scenario peggiore? nVidia che spoinge per tali ottimizzazioni (dimostrando una politica ben poco trasparenete e onesta) o Crytek che si piega al volere di nVidia, palesando una dipendenza poco chiara col produttore di hardware?

Il problema stavolte non sono dei cheat, quanto una tanto sbandierata feature che NON è stata implementata, nonostante tanto rumore attorno a essa. Ben vengano le ottimizzazioni, anche se non necessariamente compatibili con SM3, ma perché vantare caratteristiche non presenti? Per rispettare accordi con nVidia o semplicemente per esaltare il proprio motore come "ancora all'avanguardia" proprio a ridosso dell'uscita dei nuovi engine?

Sono proprio curioso di vedere che risponderanno i PR delle due aziende.

Pape

DjLode
27-07-2004, 08:20
Non so se l'ho detto qui o in un altro thread, ma io attribuisco più colpe a Crytek. Mi sembra logico e lecito che le (ormai due rimaste) case di produzione di chip cerchino di far implementare le loro caratteristiche ai vari giochi "importanti", e tutti sappiamo come Nvidia in questo sia maestra (oltre che maestra di marketing nello sbandierare cose che poi in realtà non sono). D'altrondo vanta una posizione di dominanza ancora oggi anche se Ati ha guadagnato parecchie fette di mercato.
E questa questione ne è una dimostrazione.
Ma come ho detto, che Nvidia chieda non mi sembra una cosa tanto strana (ritengo ben più gravi i avri cheat di cui si è macchiata ma che ormai sembrano dimenticati, mentre il quack di Ati è macchia indelebile e incancellabile), ma che Crytek risponda... bhè questo sì!
Futuremark a varie non velate pressioni di nvidia che chiedeva di sviluppare il 3d mark in modo che si avvantaggiasse dell'archietttura di Nv3x ha portato all'uscita di Nvidia dal progetto 3d mark (poi è stata riammessa.... vabbhè pazienza).
Quindi due reazioni diverse.

DjLode
27-07-2004, 08:24
Nuovo link? Non so se è già stato postato:

http://www.firingsquad.com/hardware/far_cry_ps2.0b/default.asp

"Interestingly enough, ATI reaped more benefits from the addition of instancing than NVIDIA’s GeForce 6800 cards did. In our testing, results were limited for NVIDIA cards in the training demo, while X800 reaped some tangible performance improvements. In regulator, instancing helped both ATI and NVIDIA’s hardware, with the 6800 cards seeing a little more of an improvement than the X800s. Additionally, the ability to collapse up to four lights into one pass (versus three on ATI hardware) yields a little more performance for the GeForce 6800 cards."

"Meanwhile, ATI users can essentially enjoy the same benefits that GeForce 6800 users were bragging about a few weeks ago in Far Cry. How’s that for irony!"

MaBru
27-07-2004, 08:56
[halduemilauno mode on]
http://www.xbitlabs.com/articles/video/display/farcry20b.html
;)
[halduemilauno mode off]
:D

josefor
27-07-2004, 09:14
Un impressione espressa dal sito Firingsguard sulla possibile e futura implementazione del 3dc.

"La nostra l'impressione è che l'esecuzione di CryTek del 3Dc è focalizzata sulle prestazioni piuttosto che sulla qualità migliorata di immagine, in modo che le prestazioni di ATIs X800 potranno andare soltanto in su di adesso."

Già adesso le x800xt sembrano le più veloci

Alberto Falchi
27-07-2004, 14:07
Proseguendo il discorso sull'ambiguo supporto SM3, fonti ufficiali di nVidia sostengono che la patch rilasciata da Crytek NON sia la stessa che era stata preparata insieme agli ingegneri di nVidia. Vediamo come prosegue il giochetto, ora ^_^

Pape

DjLode
27-07-2004, 14:09
Originariamente inviato da GMCPape
Proseguendo il discorso sull'ambiguo supporto SM3, fonti ufficiali di nVidia sostengono che la patch rilasciata da Crytek NON sia la stessa che era stata preparata insieme agli ingegneri di nVidia. Vediamo come prosegue il giochetto, ora ^_^
Pape

:rolleyes:
Ma va? :mc:

Thunder82
27-07-2004, 14:13
Originariamente inviato da josefor
Un impressione espressa dal sito Firingsguard sulla possibile e futura implementazione del 3dc.

"La nostra l'impressione è che l'esecuzione di CryTek del 3Dc è focalizzata sulle prestazioni piuttosto che sulla qualità migliorata di immagine, in modo che le prestazioni di ATIs X800 potranno andare soltanto in su di adesso."

Già adesso le x800xt sembrano le più veloci

Logico. Praticamente prendono le normal map e le comprimono col 3dc con una compressione 4x. Altrimenti, per avere più qualità a stesse prestazioni, avrebbero dovuto ricreare prima delle normal map a risoluzione 4 volte superiore e poi comprimerle col 3dc.

Vifani
28-07-2004, 11:46
Originariamente inviato da DjLode
Io non condanno nè Ati nè Nvidia. Qui l'unica società a perdere letteralmente la faccia è stata Crytek. Nvidia può chiedere ma se Crytek si "abbassa" a soddisfare le richieste è lei a perderci la faccia. Logico che N e A cerchino di far supportare il più alto numero possibile di features ai vari giochi. E non ci vedo nulla di scandaloso.

Questa è la legge del dio denaro. ATI e NVIDIA hanno sicuramente utilizzato mezzi di condizionamento più che adeguati e Crytek ha accettato. E' così che funziona il mondo. Far Cry è il gioco con la grafica più avanzata attualmente ed è utilizzato da molte testate per la valutazione delle schede video.

Crytek, ATI e NVIDIA non stanno facendo altro che coltivare i propri interessi.

DjLode
28-07-2004, 11:56
Originariamente inviato da Vifani
Questa è la legge del dio denaro. ATI e NVIDIA hanno sicuramente utilizzato mezzi di condizionamento più che adeguati e Crytek ha accettato. E' così che funziona il mondo. Far Cry è il gioco con la grafica più avanzata attualmente ed è utilizzato da molte testate per la valutazione delle schede video.

Crytek, ATI e NVIDIA non stanno facendo altro che coltivare i propri interessi.

Assolutamente :)
Il fatto riferito al "perderci la faccia" era inerente alla patch, pesantemente Nvidia-based che con gli opportuni comandi diventava pesantemente Ati-based così da pareggiare le sorti. Patch ritirata in fretta e furia e ora salta fuori che non era la patch elaborata da Nvidia e Crytek insieme. E' un pò come la storia di Futuremark che caccia Nvidia dicendo "I cheat? Cara Nvidia non si fa :nonsifa: :nonsifa: ", salvo poi riprenderli dentro dopo un pò e di fatto accettando il motivo per cui si era arrivati alla rottura.
Sicuramente lì in mezzo è FM ad averci perso la credibilità :)
Capisci cosa intendo? Rimane fermo il fatto che ognuno quando può fa i suoi interessi a discapito degli interessi dei suoi concorrenti.

Aryan
28-07-2004, 13:16
Sono uscite ieri le DX 9.0C

fd-82
28-07-2004, 17:33
Originariamente inviato da Aryan
Sono uscite ieri le DX 9.0C

Scarico subito, voglio proprio vedere di quanto migliorerà far cry sulla mia 9600xt usando il Geometry Instancing.;)

Thunder82
28-07-2004, 17:44
Originariamente inviato da fd-82
Scarico subito, voglio proprio vedere di quanto migliorerà far cry sulla mia 9600xt usando il Geometry Instancing.;)

non migliora niente, il geometry instancing è solo per i ps 2.0b (x800)

david-1
28-07-2004, 17:50
Originariamente inviato da Thunder82
non migliora niente, il geometry instancing è solo per i ps 2.0b (x800)
Quindi servirà a qualcosa le dx 9.0c per le 9800?

Aryan
28-07-2004, 17:50
Originariamente inviato da david-1
Quindi servirà a qualcosa le dx 9.0c per le 9800?
40-70 pt in + al 3dm03...

fd-82
28-07-2004, 18:48
Originariamente inviato da Thunder82
non migliora niente, il geometry instancing è solo per i ps 2.0b (x800)

A me sembrava di aver letto su driversheaven che va anche sulle nostre, qmc trovo il link e lo posto.

fd-82
28-07-2004, 18:54
...
SM3.0 includes instancing, a feature nvidia have promoted heavily, saying that it proves the superiority of their hardware - while this is certainly a major talking and selling point, all X800 cards (and even 9500,9600,9700,9800) are capable of instancing. We have a beta driver in our possession which reflects this and associated performance gains, and it will be in the publicly posted CATALYST 4.8. We dont feel until a final patch is available from Crytek we should post our detailed findings as there is every possibility between now and the next release this could change.

Da quello che c'è scritto quì, è possibile ma bisogna avere i 4.8.

Thunder82
28-07-2004, 19:09
Originariamente inviato da Aryan
40-70 pt in + al 3dm03...

sì, se le usi coi cata 4.8. Coi cata 4.7 e dx9.0b facevo con 3dmark03 e i driver impostati su qualità alta 3994 punti con la vga a default. Coi cata 4.7 e dx 9.0c 4001 punti sempre a frequenze default. Ben 7 punti in più :D

in far cry i fps sono migliorati di 0.5fps circa, niente di che...

Thunder82
28-07-2004, 19:11
Originariamente inviato da fd-82
Da quello che c'è scritto quì, è possibile ma bisogna avere i 4.8.

mah bisogna vedere se si sbatteranno per farli usare o se se ne fregheranno e lo implementano solo con le x800. Teoricamente è possibile anche con le nostre, ma la domanda è: lo faranno?

fd-82
28-07-2004, 19:27
Originariamente inviato da Thunder82
mah bisogna vedere se si sbatteranno per farli usare o se se ne fregheranno e lo implementano solo con le x800. Teoricamente è possibile anche con le nostre, ma la domanda è: lo faranno?

Uscirano driver non ufficiali con l'implementazione, penso. (se non lo fa Ati)
Non c'è nessuno che ha una ati e ha provato i beta 4.8 in far cry per vedere se funzia?

fek
28-07-2004, 20:27
Originariamente inviato da GMCPape
"Nvidia is asking developers to use less precision than was available in SM1.0"

Pape

Da NVItalia:

http://www.nvitalia.com/forum/newreply.php?s=&action=newreply&postid=492965

Originariamente inviato da fek :
"Nvidia encouraged Crytek to use partial precision in the shaders wherever possible. This means that many of the shaders will run in 16-bit precision, not the 32-bit precision (a requirement of SM3.0) that they are touting to the press. Ironically, while promoting the 32-bit precision of SM3.0 as a "must have", Nvidia is asking developers to use less precision than was available in SM1.0 - that is, all the way back in DirectX8! Even more ironically, ATI hardware will run most of the FarCry shaders more accurately (ATI hardware runs all shaders in 24-bit precision). Microsoft, the owner of DirectX, defines 24-bit and greater as "full precision" and 16-bit as "partial precision", Nvidia has claimed that ATI paid Crytek to delay the patch and include ATI features (the figure mentioned was $500k!)."


Non so chi abbia scritto questo pezzo, ma non ha le idee molto chiare.
Innanzitutto la precisione dello SM1.0 e' 8 bit (10 per l'1.4) per canale in fixed point.
Usare 32 bit ovunque e' perfettamente inutile, quindi e' ovvio che un buon programmatore usera' i 16 bit dove i 32 sono inutili.
Sarebbe come se un programmatore leggesse sempre un grosso file da disco, invece di tenere in memoria i dati piu' frequenti, e poi si lamentasse che la sua applicazione e' lenta dando la colpa all'hard disk: la colpa e' sua che non e' capace a programmare.

Avere la possibilita' di scegliere fra 16 e 32 bit invece di essere fissi a 24 e' un vantaggio dell'architettura, non una colpa.


Originariamente inviato da fek :


Ma questo e' un limite dell'architettura non un suo vantaggio.
Non porta a nessun vantaggio perche' l'architettura non supporta la partial precision.

Ti faccio un esempio. Immagina di aver scritto un'applicazione che gira a 25 fps in determinate condizioni su NV40, ti viene detto che le specifiche sono minimo 30fps.
Inizi a fare profiling e scopri che l'applicazione e' pixel shader limited, devi ottimizzare i pixel shader. Vai a guardare il pixel shader piu' usato che e' scritto usando fp32. L'opzione piu' semplice per ottimizzarlo e' scalare alcune istruzioni a fp16. Lanci l'applicazione, controlli che i requisiti sulla qualita' siano soddisfatti, va a 30fps, chiudi tutto e vai al pub.

Stessa applicazione che gira su R420 a 25fps, requisiti richiedono 30fps, guardi il pixel shader e che fai? Scali la precisione? No, l'architettura non lo supporta, devi riscrivere il pixel shader e/o semplificarlo riducendone la qualita', ma cercando di mantenerla entro le specifiche. Probabilmente andrai al pub un po' piu' tardi oggi.

E' un esempio, non e' detto che basti ridurre tutte le volte la precisione per far volare il gioco, ma vuole mostrare come con l'architettura nvidia hai un'opzione in piu' da sfruttare. E' un vantaggio.

fek
28-07-2004, 20:38
Originariamente inviato da DjLode
Bhè se abilitando una paio di comandi da console le gpu R420 riescono a calcolare le loro 4 belle fonti luminose con un solo passaggio (ricordo, cosa che Crytek ha ribadito più di una volta fattibile solo con il fantomatico SM3), credo che se non hanno solo ricompilato l'hlsl con lo SM3, poco ci manca :)

Ma la vera domanda e'? Dove sono le 4 luci di Far Cry? L'ho giocato tutto e non ho mai visto piu' di due luci dinamiche contemporaneamente.

fek
28-07-2004, 20:43
Originariamente inviato da Vifani
Questa è la legge del dio denaro. ATI e NVIDIA hanno sicuramente utilizzato mezzi di condizionamento più che adeguati e Crytek ha accettato. E' così che funziona il mondo. Far Cry è il gioco con la grafica più avanzata attualmente ed è utilizzato da molte testate per la valutazione delle schede video.

Crytek, ATI e NVIDIA non stanno facendo altro che coltivare i propri interessi.

Ma infatti. ATI non paga gli sviluppatori per mettere il proprio marchio sui giochi?

Si', tanto e' vero che chi mi dice che supporto nvidia non sa che io sono di fatto stipendiato da ATI :)

MaBru
28-07-2004, 20:44
Originariamente inviato da fek
Ma la vera domanda e'? Dove sono le 4 luci di Far Cry? L'ho giocato tutto e non ho mai visto piu' di due luci dinamiche contemporaneamente.
Che ne pensi di FC dal punto di vista tecnico? E' veramente programmato con i piedi come dice qualcuno?

fd-82
28-07-2004, 20:53
Originariamente inviato da fek
Da NVItalia:

http://www.nvitalia.com/forum/newreply.php?s=&action=newreply&postid=492965

Ok, ma c'è veramente bisogno di sacrificare la qualità, visto la potenza mostruosa che hanno raggiunto le NV40?
Cosa ne pensi?

fek
28-07-2004, 21:07
Originariamente inviato da MaBru
Che ne pensi di FC dal punto di vista tecnico? E' veramente programmato con i piedi come dice qualcuno?


Hmmm... secondo me non e' eccezionale: tipo in alcune situazioni ci sono luci statiche su oggetti statici che castano ombre con stencil. Non ha molto senso, tanto vale precalcolare le ombre e migliorare la qualita'. Secondo me in molte situazioni il modello di illuminazione non e' coerente.
Poi non ci puo' essere popping dei lod su un P4 3.2 ghz con 6800 in ambientazioni interne, posso capire amibenti esterni, ma all'interno con due modelli a schermo non ha senso.

La vegetazione e' molto bella (anche se soffre di popping).
L'acqua, beh, dell'acqua non parlo perche'sono di parte :)
(Ho scritto gli shader dell'acqua di BW2).

Originariamente inviato da fd-82
Ok, ma c'è veramente bisogno di sacrificare la qualità, visto la potenza mostruosa che hanno raggiunto le NV40?
Cosa ne pensi?

Dipende troppo da quello che stai facendo.

Dark Schneider
28-07-2004, 21:31
Originariamente inviato da fd-82
Ok, ma c'è veramente bisogno di sacrificare la qualità, visto la potenza mostruosa che hanno raggiunto le NV40?
Cosa ne pensi?


Ma la qualità non viene sacrificata. Ragà ma fek vi sta cercando di far capire che viene utilizzato l'fp16 DOVE la qualità non risulta sacrificata...dove appunto risulta identica alle precisioni superiori.
NON è un handicap far lavorare la precisione fp16, ma un punto di forza, un vantaggio appunto. Si hanno migliori prestazioni e la qualità è la stessa. C'è un punto dove invece non si ha la stessa qualità? Bene in quel punto si utilizza l'fp32. Usare l'fp24 o fp32 sempre può comportare uno spreco di risorse...inutili. Quindi è un vantaggio utilizzare dove è possibile l'fp16...ottieni lo stesso risultato qualitativo..migliore dal punto di vista prestazionale...in maniera meno esosa. Per di più basta dare un occhiata alle descrizioni delle dx9.0c sul sito microsoft ad esempio e c'è scritto che è permesso l'fp16/fp32 negli shader 3.0!!

FC che dava banding..era solo perchè alla Crytek avevano cannato...tra l'altro risolto con la patch. Magari poteva succedere che anche con l'fp24 cannavano e si notava un banding. Con i giochi attuali che fanno uso di shader differenze qualitative tra fp16-24-32 non dovrebbero esserci...se ci sono il problema sta altrove.

fd-82
28-07-2004, 22:00
Originariamente inviato da Dark Schneider
cut...


Ma infatti la mia era una domanda (forse formulata male) per capire, fatta ad uno che ne capisce di più.:)

Quindi se la scelta di usare fp32 o fp16 viene fatta con cura, non si sacrifica la qualità e migliorano le prestazioni. Ok.

Ma questa scelta e tutti i test di controllo della qualità sono impegnativi? (come tempo intendo)
E se non vengono fatti con cura? (motivi vari; fretta, incapacità)
Non è meglio una soluzione intermedia che elimina questi inconvenienti a costo di qualche frame in meno? (vedi fp24)
Esisterà mai un giocco (nell'arco di vita della nv40) che fara 25 frame senza filtri?

Questi erano i miei dubbi. Ma se mi dite che questi problemi non esistono e sono io a farmi le pug***te allora mi fermo:sofico:
Ciao

DjLode
28-07-2004, 23:02
Originariamente inviato da fek
Ma la vera domanda e'? Dove sono le 4 luci di Far Cry? L'ho giocato tutto e non ho mai visto piu' di due luci dinamiche contemporaneamente.

Ehm a dire la verità non lo so :)
Ma sono loro che hanno sparato alto, io riporto. Se non sanno loro quello che hanno fatto :D

pandyno
29-07-2004, 11:58
La cosa bella di tutto questo è che Far Cry neanche mi piace. :D

Non mi piace l' ambientazione, non mi piacciono gli shader, non mi piace la storia non mi piace l' IA, non mi piacciono le armi :D

fd-82
29-07-2004, 23:44
Originariamente inviato da pandyno
La cosa bella di tutto questo è che Far Cry neanche mi piace. :D

Non mi piace l' ambientazione, non mi piacciono gli shader, non mi piace la storia non mi piace l' IA, non mi piacciono le armi :D

Seee :sofico:

Vifani
29-07-2004, 23:57
Originariamente inviato da DjLode
Ehm a dire la verità non lo so :)
Ma sono loro che hanno sparato alto, io riporto. Se non sanno loro quello che hanno fatto :D

Di fatto è irrilevante se ci siano o meno quattro luci contemporaneamente. La realtà è che Crytek ha semplicemente voluto dire che ci sono riusciti con R420.

Dark Schneider
30-07-2004, 00:08
Chissà come sarà l'HDR che sarà aggiunto nella patch 1.3 per le 6800!!
Ho come la sensazione che parlano parlano..ma poi non combinano nulla. :rolleyes: