View Full Version : NV3x e il banding in Far Cry.
KenMasters
29-06-2004, 12:44
Come avevo immaginato e detto + volte su questo forum i problemi che affliggono le geforce fx non dipendono dalla precisione degli shaders (il famoso FP16) ma soltanto da errori di programmazione da parte della crytek. Un utente del forum di nvnews ha fatto una comparazione tra le diverse modalità di rendering giungendo alla conclusione che basta forzare il path r300 in modalità fp16 per avere qualità e prestazioni al pari di ati.
qui tutte le informazioni e gli screenshots:
http://www.nvnews.net/vbulletin/showthread.php?t=30854
TechExpert
29-06-2004, 13:11
ma va lah, chissa perche lo hai trovato su un forum di un sito affiliato a nvidia...
Sono tutte fregnacce, capirai se sbagliano la programmazione proprio sulle schede nvidia quando far cry e' un gioco sotto lo stemma the way it's meant to be played (nvidiaTM)
E' invece come si e' sempre saputo, la scarsa qualita' di progettazione di NV30 e derivati, speriamo piuttosto cio non si ripresenti con NV40 anche se fin'ora non sono riuscito a vederlo girare decentemente in alcuna recensione Far Cry su NV40.
KenMasters
29-06-2004, 13:30
Originariamente inviato da TechExpert
ma va lah, chissa perche lo hai trovato su un forum di un sito affiliato a nvidia...
Sono tutte fregnacce, capirai se sbagliano la programmazione proprio sulle schede nvidia quando far cry e' un gioco sotto lo stemma the way it's meant to be played (nvidiaTM)
E' invece come si e' sempre saputo, la scarsa qualita' di progettazione di NV30 e derivati, speriamo piuttosto cio non si ripresenti con NV40 anche se fin'ora non sono riuscito a vederlo girare decentemente in alcuna recensione Far Cry su NV40.
che un gioco sia fregiato dal "TWIMTBP" non significa che sia esente da bug e chissa quali altre amenità. Errare è umano si sa. Gli interventi di questo utente sono apparsi su molte homepage di news hardware e quindi penso che non ci siano dubbi sulla sua affidabilità. Piuttosto il problema è che x te esiste solo una marca di schede video e tutto il resto è immondizia. Io invece penso che questa sia una buona notizia per chiunque sia interessato a comprare una scheda della casa di santa clara.
Originariamente inviato da TechExpert
ma va lah, chissa perche lo hai trovato su un forum di un sito affiliato a nvidia...
Sono tutte fregnacce, capirai se sbagliano la programmazione proprio sulle schede nvidia quando far cry e' un gioco sotto lo stemma the way it's meant to be played (nvidiaTM)
E' invece come si e' sempre saputo, la scarsa qualita' di progettazione di NV30 e derivati, speriamo piuttosto cio non si ripresenti con NV40 anche se fin'ora non sono riuscito a vederlo girare decentemente in alcuna recensione Far Cry su NV40.
Allora kelly, stiamo ancora aspettando la foto... :asd:
KenMasters
29-06-2004, 13:34
Originariamente inviato da MaBru
Allora kelly, stiamo ancora aspettando la foto... :asd:
certo che non pensavo si potesse arrivare a tanto...qui si supera e anche di molto il tifo da stadio... addirittura negare l'evidenza :D che tipi! :D
Originariamente inviato da KenMasters
certo che non pensavo si potesse arrivare a tanto...qui si supera e anche di molto il tifo da stadio... addirittura negare l'evidenza :D che tipi! :D
Vorrai dire che tipe! :D
superCippo
29-06-2004, 13:37
lol a parte ke su quel forum se leggete tutte le sign, noterete ke non ce nemmeno una persona con una skeda video ati.. :D :D :D :D
falcon.eddie
29-06-2004, 13:38
Originariamente inviato da MaBru
Allora kelly, stiamo ancora aspettando la foto... :asd:
:rotfl: :asd:
KenMasters
29-06-2004, 13:44
Originariamente inviato da superCippo
lol a parte ke su quel forum se leggete tutte le sign, noterete ke non ce nemmeno una persona con una skeda video ati.. :D :D :D :D
ma su un forum di news nvidia cosa ti aspettavi di trovare? E cmq ripeto questo non è un utente che spare caxxate (so che è entrato da poco a far parte anche dello staff di nvnews) Inoltre sempre su questo forum c'è una sezione dedicata alle ati, prova a leggere un po li le sign :D
ronaldovieri
29-06-2004, 14:40
Originariamente inviato da MaBru
Allora kelly, stiamo ancora aspettando la foto... :asd:
:D :D
un vero genio/a:D :D
TechExpert
29-06-2004, 15:02
From HardOCP:
Our CPU scaling experiences really helped us understand just how important the CPU is to having a great gaming experience. In real-world gaming situations with a slower CPU such as an AthlonXP 2500+ or a Pentium4 2.4GHz, the video performance becomes extremely bottlenecked by the CPU. We were forced to reduce resolution, AA and AF settings, as well as in-game quality settings in the case of FarCry just to get playable performance. The results between each card remained close with these slow CPUs, but there was always one card that was able to run with at least a higher resolution or AA/AF setting, and that was the X800XT-PE.
When we moved up to the faster CPUs such as the Pentium4 at 3.0GHz or the Socket 754 Athlon64 3000+, we saw performance skyrocket and saw the performance differences become very noticeable between the cards. This pattern continued with the Pentium4 3.4GHz and the Socket 939 Athlon64 3500+. As the CPU speed increased so did the difference in performance and IQ abilities, typically showing the X800XT-PE and X800Pro gaining in performance more than the 6800Ultra, especially in FarCry. "
Jedi_Master
29-06-2004, 15:13
Originariamente inviato da KenMasters
Un utente del forum di nvnews ha fatto una comparazione tra le diverse modalità di rendering giungendo alla conclusione che basta forzare il path r300 in modalità fp16 per avere qualità e prestazioni al pari di ati.
Ma scusate usare il path delle ATI non e' proprio quello
che aveva fatto hwupgrade nella rece delle x800
dove il banding c'era?? come ha fatto a scomparire??
TechExpert
29-06-2004, 15:43
" If you compare the price points of the cards' MSRP, you will find that the GeForce 6800Ultra at $499 MSRP should compete against the Radeon X800XT-PE, which also has an MSRP of $499. The X800Pro comes in at a lower price point of $399. You would think that video cards set at the same price would perform similarly, but as we have shown in our initial X800 series review, our recent VisionTek X800Pro review, and now this article, this is not the case. The X800Pro at one hundred dollars less than the GeForce 6800Ultra was either matching or beating it in game performance. "
in aggiunta...
come avevo sempre detto
Cosa c'entra quel pezzo con il banding in far cry lo sai solamente tu kelly..... ops com'è che ti fai chiamare :) TechExpert :)
Gatz1980
29-06-2004, 16:27
Come è possibile forzare il rendering path R300 in fp16 e fp32 se l'R300 lavora solo in fp24?
Lavora internamente con FP24 ma tu puoi impostare in modo che i dati vengano sputati fuori a 16bit o a 32bit (nel primo caso con un migliore risultato dei 16bit pure, nel secondo caso peggiore).
Quindi impostando il path di rendering R300 su una scheda che però fa 16bit puro (come FX che fa sia 16 che 32) userà i 16bit.
Gatz1980
29-06-2004, 16:33
Grassie :)
KenMasters
29-06-2004, 17:26
techexpert la devi smettere di inquinare i thread della gente, tu stai bene solo in quei forum dove si parla solamente di schede ati. Se non la smetti "segnalerò ad un operatore il tuo malevolo tentativo di insulto" ahahaah nabrez rules :sofico:
KenMasters
29-06-2004, 17:50
Originariamente inviato da Jedi_Master
Ma scusate usare il path delle ATI non e' proprio quello
che aveva fatto hwupgrade nella rece delle x800
dove il banding c'era?? come ha fatto a scomparire??
no nella rece di hwupgrade è stato usato prima il path nv3x (quello riservato alle nvidia per intenderci) e poi è stato forzato l'fp32 con il path generico. Il problema esce fuori solo quando si fa uso del path predefinito che è ottimizzato in fp16...
Nino Grasso
29-06-2004, 18:54
quindi in teoria il banding si può evitare anche coi FP16 con le nVidia? Direi che cmq è una cosa normale dato che i ps di far cry non raggiungono per niente i limiti degli FP16 quindi ;)
cmq mi sa che si sapeva già si trattasse di un baco mi pare e non di un limite delle schede..
KenMasters
29-06-2004, 19:46
Originariamente inviato da Lestat.me
cmq mi sa che si sapeva già si trattasse di un baco mi pare e non di un limite delle schede..
si ma non c'erà ancora uno straccio di prova. :D
TechExpert
29-06-2004, 20:17
Ma quale tentativo di insulto ? io ho solo postato dei dati riguardo alle prestazioni su farcry
E un thread su far cry nel caso tu non l'abbia notato
p.s.
Mi spiegate chi e' kelly ?
Originariamente inviato da Lestat.me
quindi in teoria il banding si può evitare anche coi FP16 con le nVidia? Direi che cmq è una cosa normale dato che i ps di far cry non raggiungono per niente i limiti degli FP16 quindi ;)
cmq mi sa che si sapeva già si trattasse di un baco mi pare e non di un limite delle schede..
Se è così pretendo che venga risolto questo problema alla svelta, perchè non è possibile :rolleyes:
nVidia cheatta fisso, e per risolvere i veri problemi non patcha niente :(
Io Far Cry lo trovo assolutamente ingiocabile con la scheda che ho. :muro: :muro:
ronaldovieri
29-06-2004, 20:58
Originariamente inviato da TechExpert
Ma quale tentativo di insulto ? io ho solo postato dei dati riguardo alle prestazioni su farcry
E un thread su far cry nel caso tu non l'abbia notato
p.s.
Mi spiegate chi e' kelly ?
che hai un vuoto di memoria?:D
Originariamente inviato da MaBru
Allora kelly, stiamo ancora aspettando la foto... :asd:
Che foto? :oink:
Legolas84
30-06-2004, 01:25
Foto Foto! :D
KenMasters
30-06-2004, 11:59
vedo che siete tutti interessati all'argomento del 3d...:rolleyes: :D
Gladiator82
30-06-2004, 12:25
vabbè nvidia non ha risolto, ma dato che c'è un modo per non far renderizzare in fp32 per esempio il mare (immenso) e compagnia bella, che venga usato no? :D è la prova dunque che quello non fosse un limite della scheda... forse nvidia si sta cullando sul banding per poi mostrare differenze fra SM2.0 (con banding "truccato") e SM3.0 (miracolosamente senza banding)... non sarebbe nuova nel fare una cosa del genere:D :muro:
andreamarra
30-06-2004, 17:19
Originariamente inviato da Gladiator82
vabbè nvidia non ha risolto, ma dato che c'è un modo per non far renderizzare in fp32 per esempio il mare (immenso) e compagnia bella, che venga usato no? :D è la prova dunque che quello non fosse un limite della scheda... forse nvidia si sta cullando sul banding per poi mostrare differenze fra SM2.0 (con banding "truccato") e SM3.0 (miracolosamente senza banding)... non sarebbe nuova nel fare una cosa del genere:D :muro:
Impossibile. Che fanno, mettono dubbi sui loro ps2.0 (che si utilizzeranno ancora per molto tempo) solo per far vedere degli ipotetici ps3.0 migliori?
Io non prendo una GT proprio per paura di questo ipotetico banding fp16.
Dark Schneider
30-06-2004, 19:12
Originariamente inviato da Gladiator82
vabbè nvidia non ha risolto, ma dato che c'è un modo per non far renderizzare in fp32 per esempio il mare (immenso) e compagnia bella, che venga usato no? :D è la prova dunque che quello non fosse un limite della scheda... forse nvidia si sta cullando sul banding per poi mostrare differenze fra SM2.0 (con banding "truccato") e SM3.0 (miracolosamente senza banding)... non sarebbe nuova nel fare una cosa del genere:D :muro:
Non direi proprio. L'FP16 non produce banding con numero di istruzioni così "limitate". Se c'è il problema è nel software di utilizzo.......ma tra l'altro risolto.
superCippo
30-06-2004, 19:40
[ot]
io non riesco a capire xke dopo tutti questi casotti ke nvidia sta facendo con i ps etc etc cè ancora gente ke acquista i loro prodotti.... io quando acquisto un prodotto non acquisto una cosa solo xke simpatizzo x una o per l altra, ma solo xke ne vale la pena...difatti sono passato da una 5900xt a una 9800pro...per adesso ati è la migliore non c sono santi [ot]
TechExpert
30-06-2004, 22:05
Anche io non capisco come ci si possa schierare dalla parte di Nvidia quando fa degli errori grossi come questo del banding...
mah.
KenMasters
30-06-2004, 23:06
Originariamente inviato da superCippo
[ot]
io non riesco a capire xke dopo tutti questi casotti ke nvidia sta facendo con i ps etc etc cè ancora gente ke acquista i loro prodotti.... io quando acquisto un prodotto non acquisto una cosa solo xke simpatizzo x una o per l altra, ma solo xke ne vale la pena...difatti sono passato da una 5900xt a una 9800pro...per adesso ati è la migliore non c sono santi [ot]
spero tu sappia che le ati non sono affatto le schede migliori in assoluto... ti potrei fare molti esempi ma i + eclatanti sono le deludenti prestazioni in opengl e il supporto a linux tanto per dirne due. Secondo me per avere una buona scheda ci vorrebbe una fusione di una ati e una nvidia.
per fare una bella scheda ci vorrebbe ancora.....
http://www.3dfx.com/images/logo-all.jpg
:cry: :cry: ;)
visto che voi parlate di kelly :D
amd-novello
01-07-2004, 00:04
Originariamente inviato da superCippo
[ot]
io non riesco a capire xke dopo tutti questi casotti ke nvidia sta facendo con i ps etc etc cè ancora gente ke acquista i loro prodotti.... io quando acquisto un prodotto non acquisto una cosa solo xke simpatizzo x una o per l altra, ma solo xke ne vale la pena...difatti sono passato da una 5900xt a una 9800pro...per adesso ati è la migliore non c sono santi [ot]
allora compratela chi ti dice niente. io compro la + veloce e se la + veloce si chiama sarcazzo e mi piace la prendo. non mi interessa del nome, se fa schifo non la prendo, se la prossima versione è migliore me la acchiappo.
tu vuoi ati? prenditi ati.
Originariamente inviato da KenMasters
ti potrei fare molti esempi ma i + eclatanti sono le deludenti prestazioni in opengl e il supporto a linux tanto per dirne due.
Deludenti solo perchè inferiori ad Nvidia? Quindi Nvidia ha prestazioni deludenti in Dx?
Supporto a Linux per fare cosa? Se ci fai grafica professionale posso darti anche ragione, per il resto il supporto del Kde basta e avanza quindi il discorso linux scoppia come una bolla di sapone :)
Kelli.... ops TechExpert sarà fatto/a in un modo (vede solo Ati) ma qualcuno prima di accusarlo/a dovrebbe farsi un bell'esame di coscienza :)
superCippo
01-07-2004, 09:29
Originariamente inviato da amd-novello
allora compratela chi ti dice niente. io compro la + veloce e se la + veloce si chiama sarcazzo e mi piace la prendo. non mi interessa del nome, se fa schifo non la prendo, se la prossima versione è migliore me la acchiappo.
tu vuoi ati? prenditi ati.
ma porco caxxo ma leggete quando le gente scrive oppure scrivete con le fette d prosciutto davanti agli occhi.... :muro:
ragazzi i posso dire solo una cosa.
Quando avevo il vecchio P4 2400@3000 su ic7 e geppo 5800 installata da tempo con i vari forceware avevo dei cali mostruosi anche a 8 fps nei casi peggiori ma solo ed unicamente a farcry.
Altri giochi come VIETNAM, GTA, MAFIA, MOTOGP2, Splinter cell, tutti giocati a 1280x960 dettagli al massimo in maniera PERFETTA.
Un giorno faccio il formattone dopo aver messo su una P4C e un PRESCOT e reinstallo farcry convinto di avere anche dei cali a 4 fps visto il caso precedente.
Bene, non ci crederete ma FARCRY lo sto rigiocando a 1024 con dettagli al massimo escluso le ombre che sono su medie in maniera molto fluida.
Le cose sono due, o il sistema attuale ha paradossalmente sbloccato qualche incompatibilità che avevo prima o questa volta si è forzata da sola la modalità FP16 perchè va una meraviglia.
Secondo voi?
Dark Schneider
01-07-2004, 10:14
Originariamente inviato da superCippo
[ot]
io non riesco a capire xke dopo tutti questi casotti ke nvidia sta facendo con i ps etc etc cè ancora gente ke acquista i loro prodotti.... io quando acquisto un prodotto non acquisto una cosa solo xke simpatizzo x una o per l altra, ma solo xke ne vale la pena...difatti sono passato da una 5900xt a una 9800pro...per adesso ati è la migliore non c sono santi [ot]
Ti sfugge che il problema del banding non è un problema di nVidia. Non so se hai mai letto Fek, ma con istruzioni di quel tipo limitate non dovrebbero esserci nessuna differenza qualitativa ad occhio nudo nemmeno tra fp16 e fp24. Se c'è non è colpa della scheda. E' CryTek che non ha scritto lo shader alla perfezione. E' Fek è uno che gli shader li scrive ogni giorno...
Per di più è un problema risolto.
Originariamente inviato da sslazio
Le cose sono due, o il sistema attuale ha paradossalmente sbloccato qualche incompatibilità che avevo prima o questa volta si è forzata da sola la modalità FP16 perchè va una meraviglia.
Secondo voi?
Far Cry usa una path apposita sulle FX, un misto di precisione 16bit e 32bit (anche se dubito sul reale utilizzo dei 32bit) e di versioni precedente degli shader invece che dei 2.0, probabile che avendo il sistema incasinato questo non succedeva. Magari una volta avevi forzato l'uso dei 2.0 e non l'avevi più disattivato.
Jedi_Master
01-07-2004, 10:27
Originariamente inviato da sslazio
ragazzi i posso dire solo una cosa.
Quando avevo il vecchio P4 2400@3000 su ic7 e geppo 5800 installata da tempo con i vari forceware avevo dei cali mostruosi anche a 8 fps nei casi peggiori ma solo ed unicamente a farcry.
Altri giochi come VIETNAM, GTA, MAFIA, MOTOGP2, Splinter cell, tutti giocati a 1280x960 dettagli al massimo in maniera PERFETTA.
Un giorno faccio il formattone dopo aver messo su una P4C e un PRESCOT e reinstallo farcry convinto di avere anche dei cali a 4 fps visto il caso precedente.
Bene, non ci crederete ma FARCRY lo sto rigiocando a 1024 con dettagli al massimo escluso le ombre che sono su medie in maniera molto fluida.
Le cose sono due, o il sistema attuale ha paradossalmente sbloccato qualche incompatibilità che avevo prima o questa volta si è forzata da sola la modalità FP16 perchè va una meraviglia.
Secondo voi?
Il potere taumaturgico del formattone non deve
mai essere sottovalutato!!
:D
Tante ma tante volte si risolvono cosi' i problemi + complessi.
KenMasters
01-07-2004, 11:28
Originariamente inviato da DjLode
Deludenti solo perchè inferiori ad Nvidia? Quindi Nvidia ha prestazioni deludenti in Dx?
Supporto a Linux per fare cosa? Se ci fai grafica professionale posso darti anche ragione, per il resto il supporto del Kde basta e avanza quindi il discorso linux scoppia come una bolla di sapone :)
Kelli.... ops TechExpert sarà fatto/a in un modo (vede solo Ati) ma qualcuno prima di accusarlo/a dovrebbe farsi un bell'esame di coscienza :)
tornate in topic, non ho intenzione di mettermi a difendere nessuna bandiera. Ribadisco che ati è migliore in certe cose, nvidia in altre. La scheda perfetta non esiste. Punto.
Originariamente inviato da KenMasters
tornate in topic, non ho intenzione di mettermi a difendere nessuna bandiera. Ribadisco che ati è migliore in certe cose, nvidia in altre. La scheda perfetta non esiste. Punto.
Comodo tornare in topic quando pare a te dopo avere sparato :)
superCippo
01-07-2004, 11:37
Originariamente inviato da DjLode
Comodo tornare in topic quando pare a te dopo avere sparato :)
n1 :)
KenMasters
01-07-2004, 11:49
Originariamente inviato da DjLode
Comodo tornare in topic quando pare a te dopo avere sparato :)
ma leggete solo quello che volete leggere? e poi sarebbero gli altri a leggere col prosciutto agli occhi. Anche nel messaggio che mi hai quotato prima ho semplicemente fatto notare a qualcuno che considerava ati migliore di nvidia in tutto, che in realtà non è cosi. Non ho fatto nessuna sparata come dici tu. Ma io non lo so :rolleyes:
Prestazioni scadenti in OGL :sofico:
Supporto a linux su cui ti ho chiesto spiegazioni (che non ho avuto) :sofico:
superCippo
01-07-2004, 12:16
io non capisco xke bisogna negare l'evidenza.......
Originariamente inviato da Jedi_Master
Il potere taumaturgico del formattone non deve
mai essere sottovalutato!!
:D
Tante ma tante volte si risolvono cosi' i problemi + complessi.
eh già :D
Magie, magie, magie di Bill GAtes ahammm.....
andreamarra
01-07-2004, 15:01
Originariamente inviato da DjLode
Prestazioni scadenti in OGL :sofico:
Effettivamente, invece di andare adesso a 300 va a 280...
se fare così di meno vuol dire essere scadente... allora l'nvidia fa cagare in DX :asd: !!
Ciao ho appena scaricato da un sito tomequalcosa il direct3d9 wrapper per forzare il rendering a 32 bit su NV30 ed il path r300.
Beh, grazie anche al recente giga di ram (prima ne avevo solo 512mb) ed ai nuovi forceware 61.40 non mi gira male e si vede bene: ho guardato i 2 shot nel thread della x800 (quello fatto con NV40 da psyco e l'altro fatto con una x800pro da un'altro utente) fatti all'inizio del gioco e sono uguali a quello che ottengo io adesso ;)
Mi sa che la 6800 GT/X800pro la faccio aspettare ancora un pò ;)
Ciauz e grazie al creatore di questo thread ;)
Nino Grasso
03-07-2004, 16:05
i primi benchs di doom3 dicevano: fx5800u -> quasi 60fps; 9700pro -> circa 35...
no le nVidia non vanno meglio... ma va va...
KenMasters
03-07-2004, 21:23
Originariamente inviato da firmus
Ciao ho appena scaricato da un sito tomequalcosa il direct3d9 wrapper per forzare il rendering a 32 bit su NV30 ed il path r300.
Beh, grazie anche al recente giga di ram (prima ne avevo solo 512mb) ed ai nuovi forceware 61.40 non mi gira male e si vede bene: ho guardato i 2 shot nel thread della x800 (quello fatto con NV40 da psyco e l'altro fatto con una x800pro da un'altro utente) fatti all'inizio del gioco e sono uguali a quello che ottengo io adesso ;)
Mi sa che la 6800 GT/X800pro la faccio aspettare ancora un pò ;)
Ciauz e grazie al creatore di questo thread ;)
di niente. era un dubbio che dovevo assolutamente dissolvere. Ciao a te! :D
superCippo
04-07-2004, 10:07
Originariamente inviato da Lestat.me
i primi benchs di doom3 dicevano: fx5800u -> quasi 60fps; 9700pro -> circa 35...
no le nVidia non vanno meglio... ma va va...
:rolleyes:
andreamarra
04-07-2004, 11:11
Originariamente inviato da Lestat.me
i primi benchs di doom3 dicevano: fx5800u -> quasi 60fps; 9700pro -> circa 35...
no le nVidia non vanno meglio... ma va va...
Come è possibile? Manco se lo vedo con i miei occhi.
superCippo
04-07-2004, 11:36
Originariamente inviato da andreamarra
Come è possibile? Manco se lo vedo con i miei occhi.
ma digli d si cosi è contento :D
Originariamente inviato da Lestat.me
i primi benchs di doom3 dicevano: fx5800u -> quasi 60fps; 9700pro -> circa 35...
no le nVidia non vanno meglio... ma va va...
e se ti dicono che il ciuccio vola tu ci credi?
superCippo
04-07-2004, 12:40
Originariamente inviato da umile
e se ti dicono che il ciuccio vola tu ci credi?
looooooooooooooooooooooooooooooooool :D :D
D3 farà un uso estremo di PS2, quindi col cazzo nVidia andrà meglio di ATI...
GF6 esclusa ovviamente(probabilmente, non quanto bene siano implementati)...
Originariamente inviato da Lestat.me
i primi benchs di doom3 dicevano: fx5800u -> quasi 60fps; 9700pro -> circa 35...
no le nVidia non vanno meglio... ma va va...
... di cui tu fornirai un link al più presto vero? :)
Dubito che i dati su D3 siano veritieri....forse non c'erano manco i poligoni :D
Ciauz!
amd-novello
05-07-2004, 12:42
Originariamente inviato da firmus
Dubito che i dati su D3 siano veritieri....forse non c'erano manco i poligoni :D
Ciauz!
esagerato :sofico: :sofico: :sofico:
Beh dai...giuro che quando esce Doom3 lo installo sul mio PC e se la 5800Ultra che ho mi eroga 60fps non la cambio prima della 7800 Ultra :D
Ciauz!
amd-novello
05-07-2004, 13:06
si credo che 320*240 in wireframe dovresti farcela
:yeah: :yeah: :yeah: :fagiano: :fagiano:
superCippo
05-07-2004, 13:46
Originariamente inviato da amd-novello
si credo che 320*240 in wireframe dovresti farcela
:yeah: :yeah: :yeah: :fagiano: :fagiano:
loooooooooooooooooooool :sofico:
KenMasters
05-07-2004, 19:23
Originariamente inviato da amd-novello
si credo che 320*240 in wireframe dovresti farcela
:yeah: :yeah: :yeah: :fagiano: :fagiano:
quel divario mi sembra eccessivo, ma è risaputo che le nvidia vanno meglio in opengl. Inoltre d3 sfrutterà la tecnologia ultrashadow proprietaria nvidia. Un po meglio di ati dovrebbe girarci sicuramente.
amd-novello
05-07-2004, 20:09
beh una ha 3dc e l'altra si compra le software house :D
Thunder82
05-07-2004, 22:10
Originariamente inviato da KenMasters
quel divario mi sembra eccessivo, ma è risaputo che le nvidia vanno meglio in opengl. Inoltre d3 sfrutterà la tecnologia ultrashadow proprietaria nvidia. Un po meglio di ati dovrebbe girarci sicuramente.
guarda che anche le ati (9600-9800 e successive) hanno una tecnologia simile all'ultrashadow, solo che non gli hanno dato un nome altisonante come "ultrashadow"
Originariamente inviato da TechExpert
Sono tutte fregnacce, capirai se sbagliano la programmazione proprio sulle schede nvidia quando far cry e' un gioco sotto lo stemma the way it's meant to be played (nvidiaTM)
E invece e' proprio cosi', quel banding che si vede in far cry e' proprio dovuto ad un errore di programmazione. Praticamente hanno sbagliato lo shader.
Originariamente inviato da Thunder82
guarda che anche le ati (9600-9800 e successive) hanno una tecnologia simile all'ultrashadow, solo che non gli hanno dato un nome altisonante come "ultrashadow"
Magari "ShadowGTiV6" :D
Thunder82
05-07-2004, 22:30
Originariamente inviato da firmus
Magari "ShadowGTiV6" :D
http://www.hwupgrade.it/articoli/806/3.html
HyperZ III+
Le tecniche di gestione e ottimizzazione della bandwidth della memoria video sono state ulteriormente affinate nel chip R350, dando vita alla tecnologia HyperZ III+. In modo particolare è stata ottimizzato il funzionamento della Z Cache, per ottenere un boost prestazionale utilizzando le shadow volumes.
:)
fra l'altro molti non lo sanno ma la gestione dell'asse z della radeon 9600 è più evoluta di quella della radeon 9800. Infatti la 9800 ha una compressione lossless dell'asse z di 6:1 mentre la serie 9600 ha una compressione di 8:1
HyperZ III+ Gti
Se lo chiamassero così venderebbero molto di + :D
Scherzi a parte direi che ormai il thread si è esaurito...aspetto la prossima dritta da kenmasters :D
Sono arrivato fino a metà far cry con il rendering nv3x...ma questo rendering con fp32 è veramente bello...e soprattutto mi gira bene :D
Che dire raga son contento!
Alla prossima!
Byez!
Thunder82
05-07-2004, 22:36
Originariamente inviato da firmus
HyperZ III+ Gti
Se lo chiamassero così venderebbero molto di + :D
Scherzi a parte direi che ormai il thread si è esaurito...aspetto la prossima dritta da kenmasters :D
Sono arrivato fino a metà far cry con il rendering nv3x...ma questo rendering con fp32 è veramente bello...e soprattutto mi gira bene :D
Che dire raga son contento!
Alla prossima!
Byez!
eh sì, di nVidia bisogna dire che sa inventare bene le sigle :D
(FLAME MODE ON) solo quelle però :D (FLAME MODE OFF)
Originariamente inviato da firmus
HyperZ III+ Gti
Se lo chiamassero così venderebbero molto di + :D
Scherzi a parte direi che ormai il thread si è esaurito...aspetto la prossima dritta da kenmasters :D
Sono arrivato fino a metà far cry con il rendering nv3x...ma questo rendering con fp32 è veramente bello...e soprattutto mi gira bene :D
Che dire raga son contento!
Alla prossima!
Byez!
Pero' l'Hyper Z non c'entra nulla con l'Ultra Shadow :)
Originariamente inviato da Thunder82
(FLAME MODE ON) solo quelle però :D (FLAME MODE OFF)
Beh pure l'fx-flow era utile...io l'ho smontato e ora lo uso come phon per il gatto :D
Mentre la mia 5800ultra se ne sta a 50°C al max con tutt'altro sistema "casalingo" :D :D
Thunder82
05-07-2004, 22:45
Originariamente inviato da firmus
Beh pure l'fx-flow era utile...io l'ho smontato e ora lo uso come phon per il gatto :D
Mentre la mia 5800ultra se ne sta a 50°C al max con tutt'altro sistema "casalingo" :D :D
vedi che bravi, che pensano anche ai nostri poveri animali domestici? :D
KenMasters
05-07-2004, 22:48
Originariamente inviato da Thunder82
guarda che anche le ati (9600-9800 e successive) hanno una tecnologia simile all'ultrashadow, solo che non gli hanno dato un nome altisonante come "ultrashadow"
hehe fu proprio questo famoso hyperz III che mi fece scegliere la 9500 pro al posto della 9700 a suo tempo risparmiando tanti bei soldini...In pratica i 256 bit della 9700 risultavano utili solo in qualche gioco affamato di bandwith, per il resto avevano le stesse prestazioni. Cmq mi sa che ha ragione fek :D Diciamo che hanno entrambi il compito di migliorare le prestazioni ma fanno due cose ben diverse ;)
Thunder82
05-07-2004, 22:50
Originariamente inviato da KenMasters
hehe fu proprio questo famoso hyperz III che mi fece scegliere la 9500 pro al posto della 9700 a suo tempo risparmiando tanti bei soldini...In pratica i 256 bit della 9700 risultavano utili solo in qualche gioco affamato di bandwith, per il resto avevano le stesse prestazioni. Cmq mi sa che ha ragione fek :D Diciamo che hanno entrambi il compito di migliorare le prestazioni ma fanno due cose ben diverse ;)
cmq solo le 9800 hanno le ottimizzazioni per le ombre a quanto ho capito, le 9700 e le 9500pro no (come nVidia, le 5900 hanno ultrashadow, le 5800 no)
KenMasters
05-07-2004, 23:05
Originariamente inviato da Thunder82
cmq solo le 9800 hanno le ottimizzazioni per le ombre a quanto ho capito, le 9700 e le 9500pro no (come nVidia, le 5900 hanno ultrashadow, le 5800 no)
invece pare di si:
http://www.ati.com/products/radeon9700/radeon9700pro/specs.html
Features
Eight parallel rendering pipelines
Four parallel geometry engines
256-bit DDR memory interface
AGP 8X support
SMARTSHADER™ 2.0
Programmable pixel and vertex shaders
16 textures per pass
Pixel shaders up to 160 instructions with 128-bit floating point precision
Vertex shaders up to 1024 instructions with flow control
Multiple render target support
Shadow volume rendering acceleration
High precision 10-bit per channel frame buffer support
Supports DirectX® 9.0 and the latest version of OpenGL®
Non sapevo di questa feature, ho controllato proprio ora. E cmq è supportato anche dalla tua scheda e questo fa piacere anche a me visto che tra poco devo comprarne una...:)
Che sappiate R350 cos'ha di nuovo rispetto a R360(frequenze a parte)???
Io ho una 9800Pro con R360 e ho messo un BIOS della XT mantenedo le frequenze della Pro e overcloccando da win solo i giochi che mi servono(far cry??? :) ). A parità di frequenza mi ha guadagnato 400 punti al 3dm03(6000-6400). Ci sono delle ottimizzazioni sul chip che i driver adesso mi riconoscono perché la considera una XT??? :confused:
Originariamente inviato da Thunder82
http://www.hwupgrade.it/articoli/806/3.html
HyperZ III+
Le tecniche di gestione e ottimizzazione della bandwidth della memoria video sono state ulteriormente affinate nel chip R350, dando vita alla tecnologia HyperZ III+. In modo particolare è stata ottimizzato il funzionamento della Z Cache, per ottenere un boost prestazionale utilizzando le shadow volumes.
:)
fra l'altro molti non lo sanno ma la gestione dell'asse z della radeon 9600 è più evoluta di quella della radeon 9800. Infatti la 9800 ha una compressione lossless dell'asse z di 6:1 mentre la serie 9600 ha una compressione di 8:1
Sito ATI RADEON 9800 SERIES:
* HYPER Z™ III+
o 3-level Hierarchical Z-Buffer with early Z test
o Lossless Z-Buffer compression (up to 24:1)
o Fast Z-Buffer Clear
o Z cache optimized for real-time shadow rendering
Z-Buffer 24:1 lossless... :cool:
Thunder82
06-07-2004, 09:48
Originariamente inviato da Aryan
Sito ATI RADEON 9800 SERIES:
* HYPER Z™ III+
o 3-level Hierarchical Z-Buffer with early Z test
o Lossless Z-Buffer compression (up to 24:1)
o Fast Z-Buffer Clear
o Z cache optimized for real-time shadow rendering
Z-Buffer 24:1 lossless... :cool:
quella dev'essere un'altra cosa, avevo letto su un articolo di HWU che era appunto 6:1 per r350 e 8:1 per RV360
Originariamente inviato da Thunder82
quella dev'essere un'altra cosa, avevo letto su un articolo di HWU che era appunto 6:1 per r350 e 8:1 per RV360
Quindi è questa l'unica differenza tra R350 e R360??? :confused:
Thunder82
06-07-2004, 10:17
Originariamente inviato da Aryan
Quindi è questa l'unica differenza tra R350 e R360??? :confused:
l'RV 360 ha l'8:1 non so l'R360. Cmq l'R360 ha il sensore di temperatura integrato in più rispetto a R350.
Originariamente inviato da firmus
HyperZ III+ Gti
Se lo chiamassero così venderebbero molto di + :D
Scherzi a parte direi che ormai il thread si è esaurito...aspetto la prossima dritta da kenmasters :D
Sono arrivato fino a metà far cry con il rendering nv3x...ma questo rendering con fp32 è veramente bello...e soprattutto mi gira bene :D
Che dire raga son contento!
Alla prossima!
Byez!
raga ma mi spiegate come si fa a forzare il rendering con fp32?
Allora i wrapper li ho trovati sul sito di un tedesco cercando nel forum presente a questo link (http://www.nvnews.net/vbulletin/showthread.php?t=30854) .
Una volta che li hai scaricati basta che copi il wrapper all'interno della cartella bin32 di far cry ed il gioco è fatto..
Ciauz!
Originariamente inviato da fek
Pero' l'Hyper Z non c'entra nulla con l'Ultra Shadow :)
Mi sbaglierò ma non esistono neanche sulla stessa gpu :)
KenMasters
06-07-2004, 14:41
Originariamente inviato da DjLode
Mi sbaglierò ma non esistono neanche sulla stessa gpu :)
non ti sbagli. hyperz iii è proprietario ati, ultrashadow invece è di nvidia.
Originariamente inviato da firmus
Beh pure l'fx-flow era utile...io l'ho smontato e ora lo uso come phon per il gatto :D
Mentre la mia 5800ultra se ne sta a 50°C al max con tutt'altro sistema "casalingo" :D :D
io ho la 5800 liscia, leggermente overcloccata e devo dire che va una meraviglia veramente con tutto da un'anno e mezzo :D
Pagata 240 euro con una imprecisata quantità di giochi in bundle :D
Originariamente inviato da KenMasters
non ti sbagli. hyperz iii è proprietario ati, ultrashadow invece è di nvidia.
Comunque HyperZ e UltraShadow non sono neppure lontani parenti. Sono due cose completamente differenti.
Originariamente inviato da fek
Comunque HyperZ e UltraShadow non sono neppure lontani parenti. Sono due cose completamente differenti.
Ma infatti chi cacchio ha tirato fuori questa analogia? :)
Nino Grasso
06-07-2004, 19:31
ovviamente le prestazioni che intendevo prima erano senza filtri applicati... mi sembrano molto veritiere dato che io all'alpha ci giocavo a 25fps di media
ah e ricordo a chi, da grande intenditore, mi ha detto che fa un massiccio uso di PS2.0 che doom3 è programmato in OpenGL... vatti a vedere qualsiasi bench in OpenGL e poi ne riparliamo...
ovviamente si... tutti ciucci che volano... muah? :asd:
E quindi? Forse non sai che con l'OGL puoi usare cmq le caratteristiche HW delle schede e infatti D3 usa i PS2.0 :)
Micca sono una prerogativa delle dx, se esistono sulla scheda con l'ogl si usano, solo che nelle api di MS ci sono alcune chiamate per sfruttarle.
Originariamente inviato da Lestat.me
ah e ricordo a chi, da grande intenditore, mi ha detto che fa un massiccio uso di PS2.0 che doom3 è programmato in OpenGL... vatti a vedere qualsiasi bench in OpenGL e poi ne riparliamo...
Esiston l'estensioni ARB per sfruttare i PS2.0 in OGL.
Però adesso che ci penso l'alpha di doom3 ce l'ho anch'io e con la radeon 9000 pro che avevo mi andava da bestie mentre con la 5800 ultra gira fluidissima....
Però aspetto D3 vero e proprio ;)
PS: Ovviamente non confronto la 9000Pro con la 5800...dato che la 9000pro andava leggermente + veloce dell'altra mia asus Geforce2GTSPro....ben lungi dalla 5800ultra :)
Ciauz!
Cmq il mio NV30 con gli ultimi forceware ha fatto dei passi in avanti paurosi...sia per la qualità che per la velocità nei vari giochini (far cry,halo,nfsu,gta vc,etc...)..e per i 240€ che anch'io ho speso allora sono proprio soddisfatto.....:)
Thunder82
06-07-2004, 23:44
Originariamente inviato da firmus
Però adesso che ci penso l'alpha di doom3 ce l'ho anch'io e con la radeon 9000 pro che avevo mi andava da bestie mentre con la 5800 ultra gira fluidissima....
Però aspetto D3 vero e proprio ;)
PS: Ovviamente non confronto la 9000Pro con la 5800...dato che la 9000pro andava leggermente + veloce dell'altra mia asus Geforce2GTSPro....ben lungi dalla 5800ultra :)
Ciauz!
Cmq il mio NV30 con gli ultimi forceware ha fatto dei passi in avanti paurosi...sia per la qualità che per la velocità nei vari giochini (far cry,halo,nfsu,gta vc,etc...)..e per i 240€ che anch'io ho speso allora sono proprio soddisfatto.....:)
beh ma come hai detto tu non si può paragonare una 9000 con una 5800 :D
Si ovvio ;)
Però l'alpha mi gira molto bene...magari la versione definitiva sarà altrettanto buona....ma è tutto da vedere :)
Tanto se è tanto gioco 1-max 2 volte alla settimana....tutto il resto del tempo se lo prende il lavoro...e la ragazza :D
Quindi....come va va...
Notte!
Originariamente inviato da Lestat.me
ovviamente le prestazioni che intendevo prima erano senza filtri applicati... mi sembrano molto veritiere dato che io all'alpha ci giocavo a 25fps di media
ah e ricordo a chi, da grande intenditore, mi ha detto che fa un massiccio uso di PS2.0 che doom3 è programmato in OpenGL... vatti a vedere qualsiasi bench in OpenGL e poi ne riparliamo...
ovviamente si... tutti ciucci che volano... muah? :asd:
Beh quando atterri leggiti qualche post di chi ne sa più di te... :rolleyes: :muro:
Originariamente inviato da firmus
Boniii ;)
Il commento di Lestat.me mi sembrava degno della mia risposta e di quella degli altri... ;)
Originariamente inviato da Thunder82
beh ma come hai detto tu non si può paragonare una 9000 con una 5800 :D
Beh ma 9000 è più grosso di 5800, devi guardare qst!!! :cool:
:sofico:
Originariamente inviato da Maury
Beh ma 9000 è più grosso di 5800, devi guardare qst!!! :cool:
:D :D :D 9000 PRO poi.... :D
Originariamente inviato da Aryan
Quindi è questa l'unica differenza tra R350 e R360??? :confused:
A questo link http://www.hwupgrade.it/articoli/1049/index.html parlano di X800 e tra le altre cose mostrano una tabella con le caratteristiche HW della 9800XT dicendo che ha 4 unità di VS2 e 8 unità di PS2. Non è che R350 ne abbia un quantitativo diverso??? :confused:
Originariamente inviato da Aryan
A questo link http://www.hwupgrade.it/articoli/1049/index.html parlano di X800 e tra le altre cose mostrano una tabella con le caratteristiche HW della 9800XT dicendo che ha 4 unità di VS2 e 8 unità di PS2. Non è che R350 ne abbia un quantitativo diverso??? :confused:
No, anche l'R350 ha 4 unità VS e 8 PS come l'R360.
Originariamente inviato da MaBru
No, anche l'R350 ha 4 unità VS e 8 PS come l'R360.
Quindi l'unica differenza(freq a parte) è il fattore di compressione dello z buffer... :confused:
andreamarra
08-07-2004, 13:37
CMq, non so se è stato già detto...
i problemi di banding (e anche quello di luminosità dei ps) sono definitivamente dissolti con la patch 1.3
Originariamente inviato da andreamarra
CMq, non so se è stato già detto...
i problemi di banding (e anche quello di luminosità dei ps) sono definitivamente dissolti con la patch 1.3
Ma se non c'è manco la 1.2... :rolleyes:
andreamarra
08-07-2004, 13:44
Originariamente inviato da Aryan
Ma se non c'è manco la 1.2... :rolleyes:
Ok, allora "verranno dissolti!" :O :D
Ho letto questa cosa in diversi siti, compreso Tom's in italiano.
Effettivamente la nvidia fa valere la sua potenza sul mercato dei VG... la Crytech ha fatto una patch praticamente solo per NV40 e NV3X, manco fossero dei driver forceware :D
Originariamente inviato da andreamarra
Ok, allora "verranno dissolti!" :O :D
Ho letto questa cosa in diversi siti, compreso Tom's in italiano.
Effettivamente la nvidia fa valere la sua potenza sul mercato dei VG... la Crytech ha fatto una patch praticamente solo per NV40 e NV3X, manco fossero dei driver forceware :D
Sentivo nel forum parlare di dicembre come prob data di uscita della patch 1.3 :muro:
Originariamente inviato da andreamarra
Effettivamente la nvidia fa valere la sua potenza sul mercato dei VG... la Crytech ha fatto una patch praticamente solo per NV40 e NV3X, manco fossero dei driver forceware :D
D'altronde nvidia si è pappata 3dfx....i soldi ce li ha per ottenere i suoi risultati :)
Mah....rimango ancora indeciso tra x800pro e 6800 GT....per l'intanto finchè sto NV30 non crepa lo tiro finchè posso :)
Ciauz!
andreamarra
08-07-2004, 14:06
Originariamente inviato da Aryan
Sentivo nel forum parlare di dicembre come prob data di uscita della patch 1.3 :muro:
Cazz :eek:
Avevo capito che usciva dopo l'estate... :confused:
Effettivamente Dicembre è dopo l'estate... :confused:
Quindi anche DooMIII uscirà dopo l'estate... :eek: (magari a Maggio del prossimo anno... :asd: tanto è dopo l'estate :D )
andreamarra
08-07-2004, 14:07
Originariamente inviato da firmus
D'altronde nvidia si è pappata 3dfx....i soldi ce li ha per ottenere i suoi risultati :)
Mah....rimango ancora indeciso tra x800pro e 6800 GT....per l'intanto finchè sto NV30 non crepa lo tiro finchè posso :)
Ciauz!
Io francamente tra X800PRO e 6800GT sceglierei la seconda...
Tra X800XT e 6800Ultra credo la prima, ma soprattutto per il discorso del doppio molex (per quanto può importare)
Originariamente inviato da andreamarra
Quindi anche DooMIII uscirà dopo l'estate... :eek: (magari a Maggio del prossimo anno... :asd: tanto è dopo l'estate :D )
DoomIII dovrebbe uscire ad agosto... ;)
amd-novello
08-07-2004, 16:52
Originariamente inviato da Aryan
DoomIII dovrebbe uscire ad agosto... ;)
speriamo. e prego san carmack che possa andare a 1024 con tutti i dettagli al max.
Originariamente inviato da amd-novello
san carmack
:D...speriamo che esca sul serio :)
Qualcuno sa che fine ha fatto la patch 1.2 di FC?
Thunder82
08-07-2004, 23:05
Originariamente inviato da MaBru
Qualcuno sa che fine ha fatto la patch 1.2 di FC?
imho non esiste, era tutta una banfa creata da nVidia :D
Non esiste. Deve uscire a breve!
Salve raga Doom3 è uscito e solo ora l'ho preso :D
Al demo1 ottengo 42.5 fps a 1024x768 High noaa noaf.
Sono ai laboratori alfa e finora gioco benissimo senza scatti di alcun tipo....mentre in far cry ogni tanto qualche scatto c'era!
Doom3 sfrutta veramente bene l'nv30...e io che volevo pigliarmi una 6800Gt questo mese....mi sa che aspetta un bel pò :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.