View Full Version : Counter Strike Source - Stress Test Video
Ho fatto un pò di test a Counter Strike Source in varie modalità. Ho eseguito i test ovviamente con il mio pc tutto a default (P4 3Ghz - POV 6800 Ultra 400/1100).
Eseguiti con i ForceWare 66.81 WHQL !!!!!!
http://lanfste.altervista.org/public/CSS Test.JPG
Non male. Che ne dite ??
;)
Intel-Inside
07-11-2004, 11:40
Wow niente male... anke io mi diverto un pokino con Excel... ecco i miei risultati :
http://img115.exs.cx/img115/3383/SourceTest.gif
Default
Sistema in firma non okkato.
OverCLK
Sistema in firma okkato. CPU = 200x12; Ram = 1:1 (200MHz) 2-2-2-5; 9800Pro = 435/710MHz.
Strees Test, HQ Setting.
Buono !!
Mi sà che rifarò i test con gli aggiornamenti per CSS.
Sei il primo che ha postato dopo un bel pò. Complimenti !! :mano:
Originariamente inviato da lanfste
Ho fatto un pò di test a Counter Strike Source in varie modalità. Ho eseguito i test ovviamente con il mio pc tutto a default (P4 3Ghz - POV 6800 Ultra 400/1100).
Eseguiti con i ForceWare 66.81 WHQL !!!!!!
Non male. Che ne dite ??
;)
con una 9800pro e un p4 2,8 a 1024x768 (no aa e no af) faccio 10-12 fps meno di te...
possibile? forse è ancora cpu limited...
:)
Originariamente inviato da Manp
con una 9800pro e un p4 2,8 a 1024x768 (no aa e no af) faccio 10-12 fps meno di te...
possibile? forse è ancora cpu limited...
:)
Riproverò a fare i test con la fersione di CSS aggiornata. Ma penso che con il 3Ghz a default sia un pò limited a basse risoluzioni.
;)
Originariamente inviato da lanfste
Ho fatto un pò di test a Counter Strike Source in varie modalità. Ho eseguito i test ovviamente con il mio pc tutto a default (P4 3Ghz - POV 6800 Ultra 400/1100).
Eseguiti con i ForceWare 66.81 WHQL !!!!!!
http://lanfste.altervista.org/public/CSS Test.JPG
Non male. Che ne dite ??
;)
Ottimo!!!:D
Complimenti soprattutto per la scheda, anche se preferisco la X800XT PE personalmente!:)
la resa del motore di hl2 con le 6800ultra non mi sembra male, anzi. rimane un ottimo framerate anche ad alte risoluzioni con i filtri, quindi conferma che stavolta a Nvidia bisogna solo fare i complimenti.
Intel-Inside
07-11-2004, 20:42
Cmq si sà ... ATi & HL2 da una parte... DooM3 & nVIDIA dall'altra... ognuno tira l'acqua al suo mulino... ;)
Originariamente inviato da Intel-Inside
Cmq si sà ... ATi & HL2 da una parte... DooM3 & nVIDIA dall'altra... ognuno tira l'acqua al suo mulino... ;)
Secono me questa storia degli accordi è una grande fesseria, poiché Doom 3 è OpenGL e sfrutta particolare caratteristiche con cui le Nvidia si trovano bene.E poi si sa che ATI è un po' carente nel OGL.
Per quanto riguarda HF2, adesso Nvidia è sostanzialmente alla pari, quindi non vedo come avrebbero potuto favorire ATI.
Il reso è tutto fumo.
DarKilleR
07-11-2004, 21:13
insomma una X800 Pe @ default fa 170 fps allo stress test in HL2.
Cmq nessuno mi regala la sua 6800 Ultra???
davestas
08-11-2004, 12:03
Originariamente inviato da rera
la resa del motore di hl2 con le 6800ultra non mi sembra male, anzi. rimane un ottimo framerate anche ad alte risoluzioni con i filtri, quindi conferma che stavolta a Nvidia bisogna solo fare i complimenti.
io vorrei da tempo prendere la 6600gt pciexpress per il mio nuovo pc, ma cio' che mi frena è che ho visto che i bench con cs:source sono piuttosto scoraggianti anche rispetto a schede della generazione precedente senza aniso....:muro: :muro:
Originariamente inviato da davestas
io vorrei da tempo prendere la 6600gt pciexpress per il mio nuovo pc, ma cio' che mi frena è che ho visto che i bench con cs:source sono piuttosto scoraggianti anche rispetto a schede della generazione precedente senza aniso....:muro: :muro:
se posso darti un consiglio, non frenare solo perchè hai visto quel bench, devi valutare globalmente come si comporta quel prodotto, poi decidi.
ho visto nella recensione che comunque il framerate rimane alto, per essere una scheda di fascia media, anche con aa 4x e aniso 8x, quindi giocabilissimo (certo alle alte risoluzioni rispetto alle schede di fascia alta perde, ma è normale).
http://www.hwupgrade.it/articoli/1073/8.html
:)
BTinside
08-11-2004, 14:11
Per quanto riguarda HF2, adesso Nvidia è sostanzialmente alla pari, quindi non vedo come avrebbero potuto favorire ATI
Ma quando?:asd:
:nonsifa: non è così,
cosìccome Nvidia è avanti in Doom3 grazie all'uso da parte di Carmack dell'ultrashadow e ai driver OGL nvidia più efficienti ,
Ati è avanti in HF2 grazie all'architettura shader un po' più efficiente,
nonostante nvidia abbia rivoluzionato questa architettura, rispetto ad nv3x e l'abbia resa mooolto simile (ha scopiazzato letteralmente??:D ) a quella Ati in NV4x
Originariamente inviato da BTinside
Ma quando?:asd:
:nonsifa: non è così,
cosìccome Nvidia è avanti in Doom3 grazie all'uso da parte di Carmack dell'ultrashadow e ai driver OGL nvidia più efficienti ,
Ati è avanti in HF2 grazie all'architettura shader un po' più efficiente,
nonostante nvidia abbia rivoluzionato questa architettura, rispetto ad nv3x e l'abbia resa mooolto simile (ha scopiazzato letteralmente??:D ) a quella Ati in NV4x
Se ti vedi 2 benchmark, vedrai che Nvidia sta solo leggermente dietro ad ATI.
E che io sappia le architetture non sono così simili come vuoi fare credere.:rolleyes:
BTinside
08-11-2004, 14:35
E che io sappia le architetture non sono così simili come vuoi fare credere.
No che c'entra non fraintedere, io non mi riferivo alle due architetture nel complesso, che sono abbastanza dissimili (anche se di meno rispetto a R350 e NV3X), ma alla parte shader dell'architettura.
"Nvidia ha reso l'architettura shader di NV4X non troppo dissimile da quella di R420"
e te lo metto tra virgolette per farti capire che questa è proprio la frase che ho letto nella recensione in un sito.
;)
e poi riguardo alla scopiazzatura di nvidia ad ati scherzavo, bisogna ricordare che fu proprio nvidia con il GeForce 3 ad introdurre le prime unità programmabili, il "nfinite fx engine";)
Originariamente inviato da BTinside
No che c'entra non fraintedere, io non mi riferivo alle due architetture nel complesso, che sono abbastanza dissimili (anche se di meno rispetto a R350 e NV3X), ma alla parte shader dell'architettura.
"Nvidia ha reso l'architettura shader di NV4X non troppo dissimile da quella di R420"
e te lo metto tra virgolette per farti capire che questa è proprio la frase che ho letto nella recensione in un sito.
;)
e poi riguardo alla scopiazzatura di nvidia ad ati scherzavo, bisogna ricordare che fu proprio nvidia con il GeForce 3 ad introdurre le prime unità programmabili, il "nfinite fx engine";)
Mi puoi dare il link?
BTinside
08-11-2004, 17:33
Ciao DNA è tutto il pomeriggio che tento di ritrovare quell'articolo in tutto il web italiano, non lo trovo:mad:
ti giuro che c'era scritto così, quindi non prendertela con me ma con chi l'ha scritto,
non ho letto male e non dico fesserie,
d'altronde non sembra una cosa così impossibile
in quanto avendo nvidia sbagliato l'architettura shader di NV3X, non può essere che abbia preso spunto da quella Ati??
Originariamente inviato da BTinside
Ciao DNA è tutto il pomeriggio che tento di ritrovare quell'articolo in tutto il web italiano, non lo trovo:mad:
ti giuro che c'era scritto così, quindi non prendertela con me ma con chi l'ha scritto,
non ho letto male e non dico fesserie,
d'altronde non sembra una cosa così impossibile
in quanto avendo nvidia sbagliato l'architettura shader di NV3X, non può essere che abbia preso spunto da quella Ati??
Ciao.:)
Io faccio questo ragionamento: se Nvidia ha copiato l'architettura di ATI negli shaders, ne avrebbe guadagnato anche i pregi, e quindi è logico che adesso si trovi sostanzialmente alla pari in Half-Life 2.:)
Per il link non fa niente.
BTinside
08-11-2004, 18:00
Facciamo così, aspetta che mi vado a riguardare gli stress test di CS, perchè io ricordo un vantaggio sostanziale da parte di Ati.
Però bisogna anche tenere presente che quei frame che la 6800ultra fa in meno rispetto alla X800XT PE sono dovuti al fatto che la 6800 ha 120mhz di core in meno, 100 di ram in meno, circa 2000 megapixel e megatextel di fillrate in meno(cioè una 9600XT di fill rate in meno!!!!!), banda passante meno ampia di una X800XT , e per giunta se valutiamo le applicazioni dove stanno più o meno alla pari si potrebbe anche parlare di un efficienza dell'architettura nvidia leggermente superiore a quella R420.
BTinside
08-11-2004, 18:08
ecco i test
http://www.xbitlabs.com/articles/video/display/counterstrike-source_6.html
nel Pure Speed test solo a risoluzione 1600x1200 la X800XT (non PE però:D ) ha un vantaggio superiore ai 10fps
quà invece a 1600 ci sono ben 24,1 frame di differenza, con la X800XT non PE, non sono pochi eh
http://www.xbitlabs.com/articles/video/display/counterstrike-source_8.html
Si può dire in conclusione che stanno alla pari ma sicuro che anche se parliamo dello stesso motore grafico questa situazione si proietterà in Half-Life 2??
Originariamente inviato da BTinside
Si può dire in conclusione che stanno alla pari ma sicuro che anche se parliamo dello stesso motore grafico questa situazione si proietterà in Half-Life 2??
l'ultima domanda è interessante. vedremo, secondo me la situazione sarà all'incirca la stessa almeno all'inizio, poi dipenderà dai driver, come al solito.
:)
Originariamente inviato da BTinside
ecco i test
http://www.xbitlabs.com/articles/video/display/counterstrike-source_6.html
nel Pure Speed test solo a risoluzione 1600x1200 la X800XT (non PE però:D ) ha un vantaggio superiore ai 10fps
quà invece a 1600 ci sono ben 24,1 frame di differenza, con la X800XT non PE, non sono pochi eh
http://www.xbitlabs.com/articles/video/display/counterstrike-source_8.html
Si può dire in conclusione che stanno alla pari ma sicuro che anche se parliamo dello stesso motore grafico questa situazione si proietterà in Half-Life 2??
Ciao.:)
Leggendo l'articolo, ho capito che il motore usato non può essere considerato come indicativo delle reali prestazioni di HL2, però c'è da notare il divario tra le vecchie ATI e le vecchie FX, mentre adesso, tranne che in certi scenari estremi come 1600 con filtri, sono più o meno alla pari.
Per quanto riguarda Half-Life 2, IMHO, ci sarà un vantaggio per ATI, ma non così notevole come in Doom 3 per Nvidia, dato che quest'ultima ha recuperato molto del terreno perso.
BTinside
08-11-2004, 18:28
Per quanto riguarda Half-Life 2, IMHO, ci sarà un vantaggio per ATI, ma non così notevole come in Doom 3 per Nvidia, dato che quest'ultima ha recuperato molto del terreno perso.
La pensi così, mmh
io invece, osservando il divario fra Ati ed Nvdia nei test di half -life 2 e vedendo invece i progressi nei driver opengl Ati per Doom3, con conseguente allineamento di prestazioni tanto che, per esempio, una 9800XT addirittura va un po' più forte di una 5950Ultra inquesto gioco o alla pari,
credo che ci sia più divario fra Ati ed Nvidia in HL2 che in D3
Originariamente inviato da BTinside
La pensi così, mmh
io invece, osservando il divario fra Ati ed Nvdia nei test di half -life 2 e vedendo invece i progressi nei driver opengl Ati per Doom3, con conseguente allineamento di prestazioni tanto che, per esempio, una 9800XT addirittura va un po' più forte di una 5950Ultra inquesto gioco o alla pari,
credo che ci sia più divario fra Ati ed Nvidia in HL2 che in D3
Dato che ATI ha colmato il divario in Doom 3 grazie alla sostituzione di particolari shader tramite i driver,secondo me è più lodabile Nvidia, che si è avvicinata ad ATI in HL2 grazie esclusivamente all'architettura.
Originariamente inviato da DNA_RNA
Dato che ATI ha colmato il divario in Doom 3 grazie alla sostituzione di particolari shader tramite i driver,secondo me è più lodabile Nvidia, che si è avvicinata ad ATI in HL2 grazie esclusivamente all'architettura.
qui purtroppo entriamo nel campo minato dei cheat, Nv non è che si sia comportata meglio ai tempi di Nv3x, quindi meglio non toccare questo tasto.
sul fatto dell'architettura efficientissima di nv40 hai ragione.
Originariamente inviato da rera
qui purtroppo entriamo nel campo minato dei cheat, Nv non è che si sia comportata meglio ai tempi di Nv3x, quindi meglio non toccare questo tasto.
sul fatto dell'architettura efficientissima di nv40 hai ragione.
Perché nel campo dei cheat?
Le sostituzioni che fanno i driver di ATI sono perfettamente lecite: se non sbaglio sostituiscono le texture ops con le math ops con cui si trovano molto meglio, senza perdere nulla in qualità d'immagine. E poi va a tutto vantaggio delle prestazioni in game.
Poi, d'altronde, è risaputo che Nvidia e ATI usano i cheat, ma questo vale per i bench, quando si tratta di gonfiare il risultato, senza alcun vantaggio effettivo nei giochi.
Originariamente inviato da DNA_RNA
Perché nel campo dei cheat?
Le sostituzioni che fanno i driver di ATI sono perfettamente lecite: se non sbaglio sostituiscono le texture ops con le math ops con cui si trovano molto meglio, senza perdere nulla in qualità d'immagine. E poi va a tutto vantaggio delle prestazioni in game.
Poi, d'altronde, è risaputo che Nvidia e ATI usano i cheat, ma questo vale per i bench, quando si tratta di gonfiare il risultato, senza alcun vantaggio effettivo nei giochi.
da come era impostata la tua frase sembrava che tu stessi parlando di cheat, scusa se ho interpretato male :)
Originariamente inviato da rera
da come era impostata la tua frase sembrava che tu stessi parlando di cheat, scusa se ho interpretato male :)
Figurati!:D :)
La cosa che non mi spiego nel test postato da Dna è come è possibile che una x800 Pro abbia un svantaggio di un solo fotogrammo rispetto alla sorella maggiore?
Parliamo di due pianeti completamente diversi,pertanto credo che tale test non sia il riflesso del gioco stesso
BTinside
08-11-2004, 22:46
alla sostituzione di particolari shader
Cosa? ma perchè possono esse sostituiti gli shader via driver?
e che motivo avevano di farlo in Doom3 che di shader ne usa poco e niente:confused:
davestas
09-11-2004, 10:20
ragazzi voi la prendereste questa scheda, visto che è l'unica disponibile e con un prezzo accessibile pci-express dato che sto assemblando il pc nuovo anche in attesa di nforce4?
Ho visto dei bench in cui viene addirittura superata da schede di generazione precedente....:muro: :muro:
Originariamente inviato da BTinside
Cosa? ma perchè possono esse sostituiti gli shader via driver?
e che motivo avevano di farlo in Doom3 che di shader ne usa poco e niente:confused:
Non usa i PIXEL shader, ma di shader ne usa sempre.:)
Doom 3 usa soprattutto le texture ops con cui ATI si trova male, e allora le sostituisce semplicemente con le math ops, che digerisce meglio, facendo sì che aumentano le prestazioni.;)
BTinside
09-11-2004, 14:20
E qualìè il problema ognuno ci va come può,
l'importante è ke all'aumento di prestazioni non ti abbina un decadimento della qualità.
Se sapessi cosa combinano nei driver per fare andare le schede più forte, sopratutto nei bench, altro che cheats!! e di tutto ciò noi non ce ne accorgiamo.
Guarda invece XGI, lei si che è la regina dei cheats, ma non ci trovo nulla di male in Ati a sostituire ,a pari resa, uno shader con un altro più congeniale alle sue schede,
Nvidia in Doom3 dalla sua ha ultrashadow e driver opengl più efficienti quindi bisognava difendersi.
Non fate presto a dire che invece Nvidia ha quasi raggiunto Ati in Half-Life 2 solo grazie all'architettura nuova ed efficiente di NV40,
vi ricordo che in bench precedenti del motore grafico le 6800ultra erano parecchio indietro alle X800XT,
quindi quà c'è puzza di driver, o forse di cheats:D
ormai manca poco più di una settimana al lancio del gioco, poi sapremo tutto quello che c'è da sapere, adesso è inutile ricominciare con ATi vs NVidia.
:)
BTinside
09-11-2004, 14:24
Infatti si vedrà tutto all'uscita del gioco,
a quel punto prolifereranno per la rete i bench ufficiali su entrambe le architetture
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.