|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Prestazione nel gaming di Athlon64, Core 2 Duo, ed eventualmente Phenom
Buongiorno a tutti,
con questo thread volevo raccogliere informazioni sull'argomento, trito e ritrito, delle performance delle CPU nel Gaming, cercando di organizzare i dati derivanti da alcuni test mirati in maniera organica. Ovviamente, ogni singolo titolo può esibire un comportamento diverso, ragion per cui le valutazioni di seguito devono essere riferite al titolo in esame. Crysis Il titolo in questione si presta a questa analisi in quanto, oltre ad essere molto pesante per la GPU, lo è altrettanto per la CPU. Inoltre è provvisto di una modalità di benchmark che permette di ottenere risultati relativamente affidabili e ripetitivi. Tale modalità è basata su alcuni script dalla sintassi facilmente interpretabile, e ciò permette lo sviluppo di test ad hoc. Inoltre, anche la demo ha previsto un bench integrato, cosicchè anche chi non possiede il gioco può partecipare alla raccolta dati. Il confronto avviene tra il mio sistema: Blade9722 PC AMD Athlon64 X2 3800+ @ 2.7GHz 2 Nvidia 8800GTS 640MB in SLI @ 590/1350/990 MHz 6GB DDR2 e quello di Ghiltanas PC (che ringrazio per la pazienza dimostrata nell'esesguire tutte le prove) Intel Core 2 Duo e6400 @ 2.8GHz Nvidia 8800GT 512MB @ 660/1600/900 MHz 4GB DDR2 Ora, prima di procedere oltre, è opportuno stimare come si rapportano le prestazioni dei due sottosistemi grafici in questione. Le performance della 8800GT a default di ghiltanas, rispetto alle mie due 8800GTS in overclock, da una semplice frazione esiguita sui dati di specifica, è: - texture processing/texel fill rate: 65% - shader processing: 70% - rasterization throughput/pixel fill rate: 45% - memory bandwidth: 35% Purtroppo, non c'è una proporzione fissa. Osserviamo il comportamento del mio sistema su Windows XP - Very High trick 32bit version. Il test è stato eseguito, oltre che nell'usuale livello ISLAND del benchmark_GPU di default, anche al livello CORE, tramite uno script da me modificato. Il livello CORE è significativamente diverso dal quello ISLAND: è completamente all'interno, questo significa che la quantità di oggetti visibile è decisamente minore dei campi lunghi del livello ISLAND, con conseguente minore carico sulla CPU. Per contro, la gran quantità di effetti lo rende comunque pesante per la GPU. I seguenti grafici riportano il frame rate all'aumentare della risoluzione. Siccome fra il mio sistema e quello di Ghiltanas la risoluzione più alta è diversa (1600x1200 la mia, 1680x1050 la sua), ho riportato in ascissa i Megapixel. 0.48 = 800x600 1.92 = 1600x1200 Incominciamo con il mio sistema: ![]() Il comportamento delle dure curve è discordante: mentre in 1600x1200 i valori tendono ad allinearsi, al diminuire della risoluzione nel test ISLAND la CPU impone un massimo frame rate di 32.5 FPS, costante nel range 800x600 - 1280x1024. Per contro il livello CORE esibisce il classico comportamento GPU limited, con il frame rate che aumenta al diminuire della risoluzione. Solo intorno ad 800x600 si nota un certo appiattimento della curva. Vediamo invece il risultato di Ghiltanas: ![]() Le due curve hanno un andamento pressochè simile, due rette con una pendenza leggermente diversa. Il comportamento è tipico di un sistema GPU limited, e in entrambi i casi il frame rate in 800x600 (50FPS in CORE, 41 FPS in ISLAND) non sembra essere limitato dalla CPU, che dimostra di avere ancora margini di miglioramento. Altre testimonianze riportano, in 800x600, WinXP, Very High Trick: Kharonte85 PC Intel Core 2 Quad Q6600 @ 2.4GHz Nvidia 8800GTS 512MB @ 650/1625/970 - texture processing/texel fill rate: 75% - shader processing: 80% - rasterization throughput/pixel fill rate: 45% - memory bandwidth: 40% Ottiene 42FPS. Ora, se osservate rispetto a Ghiltanas la scheda è sensibilmente più veloce, mentre il processore ha una frequenza inferiore ma è un quad core. L'impatto dei due core aggiuntivi, come vedremo in seguito, sul test dell'isola è poco rilevante. Nonostante le maggiori prestazioni del sottosistema grafico, Kharonte raggiunge lo stesso risultato di Ghiltanas. Questo mi fa supporre che il risultato di 42 sia limitato dalla minore frequenza del processore, ma non avendo la curva con la risoluzione non ne posso essere sicuro. Altra testimonianza: Johnp1983 JohnP1983 PC - Intel Core 2 Duo E6600 @3.4Ghz - 8800Gts 512 @805\1996\1094 - texture processing/texel fill rate: 90% - shader processing: 100% - rasterization throughput/pixel fill rate: 55% - memory bandwidth: 45% In questo caso ottiene 60FPS. In virtù del pesante overclock, a livello di texture e shader processing la scheda di JohnP è equivalente alle mie due in SLI, mentre paga dazio nella rasterizzazione e nella banda di memoria, che però in 800x600 dovrebbero essere meno determinanti. Anche il questo caso non mi è possibile stabilire con certezza se il valore è CPU limited. YakuPC - Intel Core 2 Duo E6300 @2.45Ghz - 8800Gts 512 @675\1674\972 - texture processing/texel fill rate: 75% - shader processing: 80% - rasterization throughput/pixel fill rate: 45% - memory bandwidth: 40% Yaku ottiene in 800x600 39.5FPS, con una curva che si appiattisce, denotando il limite della CPU. Ad ogni modo, facendo un rapido calcolo: Ghiltanas (41/32.5)*(2.7/2.8)=1.21 Kharonte: (42/32.5)*(2.7/2.4)=1.45 JohnP1983 (60/32.5)*(2.7/3.4)=1.45 Yaku (39.5/32.5)*(2.7/2.45)=1.34 Si può già trarre un paio di conclusioni: 1) L'efficienza per clock di un Core Duo rispetto ad un Athlon64 in Crysis è fra il 35% e il 45% superiore. Un valore molto più elevato del 20-25% medio che di solito viene riportato. 2) In very high Ghiltanas non è mai CPU limited. Proseguiamo con la trattazione cercando di puntualizzare meglio le implicazioni delle precedenti valutazioni. Di seguito viene riportato il confronto diretta fra il mio sistema e quello di Ghiltanas nel test sull'isola. Sono gli stessi dati delle prime due immagini, ma raggruppati differentemente. ![]() Come potete vedere, a causa del limite della CPU alle risoluzioni di 800x600 e 1024x768 il mio sistema ottiene un risultato inferiore di quello di Ghiltanas. A risoluzioni superiori avviene il sorpasso, grazie alla maggior potenza di calcolo del mio sottosistema grafico. Alla risoluzione di 1680x1050 il guadagno del mio sistema è di circa il 40% in più, ed asintoticamente le curve si allontanano. Confrontando invece il risultato del livello CORE: ![]() Tranne che in 800x600, dove il mio sistema mostra il tipico appiattimento dato dalla CPU, le mie due schede non lasciano scampo alla povera 8800GT di Ghiltanas. Già in 1280x1024 il vantaggio è del 50%, che diventa quasi il 100% in 1680x1050. Il motivo di tale differenza è dato dalle inquadrature in campo lungo, ad esempio dove si vede una intera spiaggia: il gran numero di oggetti da processare, indipendentemente dalla loro complessità, grava pesantemente sull'engine di rendering della CPU. Un aspetto che era già emerso in un altro engine da spazi aperti, il GameBryo di Oblivion. Purtroppo tali inquadrature sono assai frequenti nel gioco, quindi lo scenario più tipico è quello del livello ISLAND. Un'aspetto di cui tutti i possessori di un sistema AMD devono tener conto, prima di buttarsi a capofitto ad acquistare una 9800GX2 o allestire un sistema SLI. Questo, ovviamente, se il loro obiettivo è incrementare le performance in Crysis, non si applica ad altri titoli Come ulteriore confronto, riporto invece i risultati di Ippo.g Ippo.g PC AMD Athlon64 X2 6400+ @ 3.2GHz Nvidia 8800GTS 512MB @ 650/1625/970 - texture processing/texel fill rate: 75% - shader processing: 80% - rasterization throughput/pixel fill rate: 45% - memory bandwidth: 40% ![]() Anche Ippo.g nel test dell'isola mostra l'appiattimento tipico del limite della CPU Nessuna sorpresa sul risultato: (32/26.5)*(2.7/3.2)=1.02 L'efficienza per clock della CPU di Ippo.g è la stessa. Altra testimonianza, di un utente che ha la mia stessa CPU, ma da un clock leggermente inferiore. davide brigante PC AMD Athlon64 X2 3800+ @ 2.5GHz Nvidia 8800GT 512MB Ottiene un limite della CPU nel test dell'isola su windows XP pari a 27FPS. Anche qui nulla di strano: (27*33)*(2.7/2.5)=0.88 sembra avere un'efficienza per clock inferiore di circa il 10%, in linea con la tolleranza di un test del genere. Confronto fra Athlon64 X2 e Phenom La nuova CPU AMD, derivata direttamente dall'architettura K8, oltre a raddoppiare il numero di Core, ha introdotto anche numerose ottimizzazioni. Le più rilevanti sono: - Introduzione di 2MB di cache L3. La cache L2 per singolo processore è però 512KB, quindi è la metà di quella dell'Athlon64 con cui verrà confrontato. - Redesign compreto dell'architettura relativa alle SIMD (SSE, etc), punto debole dell'architettura K8. Ora le prestazioni di tali istruzioni dovrebbero essere allineate con quelle dei processori Intel. Come vedremo più avanti, allo stato attuale il titolo della Crytek considera i quattro Core poco più che una presenza ornamentale. Per giustificare l'elevata efficienza del Core Duo, una ipotesi plausibile è che il titolo della Crytek faccia un uso intensivo delle SIMD, tallone d'achille dei K8. Sarà interessante, ai fini di avvallare la teoria, il confronto con il Phenom che vanta una efficienza comparabile. Il sistema di Riferimento è quello di Ross74: Ross 74 PC Phenom 9600 @ 2.6GHz 8800GTS 512MB @ 650/1625/970 MB ASUS M3A32 deluxe (AM2) 2GB RAM Windows XP 32 bit Driver 169.21 WHQL (da confermare) Crysis patch 1.1 Texture streaming on Cache MappingTable e CPU tweak su ON da BIOS (sono le impostazioni che dovrebbero garantire le massime performance). Il confronto è con il mio sistema, opportunamente configurato per il caso specifico Athlon64 X2 6400+ @ 2.6GHz 8800GTS 640MB @ 590/1500/990 6GB RAM Windows XP 64 bit Driver 169.21 WHQL Crysis Patch 1.1 Texture streaming on (per evitare di trarre vantaggio dal superiore quantitativo di RAM) Al fine di assicurare la più elevata accuratezza, la strategia di test rispetto a quello del Core 2 Duo è stata raffinata: i test vengono effettuati con la CPU alla stessa frequenza, ed inoltre con disattivato l'SLI per cercare di avere un sottosistema grafico il più possibile simile. Le performance della 8800GTS 512 MB, rispetto alla mia 640MB overcloccata, si rapportano come segue: - texture processing/texel fill rate: 145% - shader processing: 145% - rasterization throughput/pixel fill rate: 90% - memory bandwidth: 80% Di seguito il dettagli dei test, effettuati sull'isola sia in High che in Very High ![]() In tutti e quattro i casi si evidenzia l'appiattimento tipico del limite della CPU, e il Phenom a 2.&GHz non riporta risultati superiori a quelli dell'Athlon64 X2 di pari frequenza, anzi leggermente inferiori. Un altro confronto è con il sistema di karont3: Karont3 PC Phenom X4 9600 @ 3.0GHz ATI 3870X2 il confronto viene fatto con Athlon64 X2 6400+ @ 3.0GHz 8800GTS 640MB @ 590/1500/990 6GB RAM Windows XP 64 bit Driver 169.44 Crysis Patch 1.2 Texture streaming on (per evitare di trarre vantaggio dal superiore quantitativo di RAM) Single GPU. La ATI di karont3 ha dimostrato di trovare indigesto il Very High Trick, con risultati relativamente bassi completamente GPU-limited. Per questo motivo i test sono stati effettuati in High, dove per contro risulta assai brillante. ![]() Il risultato, probabilmente per via del sottosistema grafico completamente diverso, è in controtendenza con il caso precedente: il Phenom mostra performance leggermente superiori, inoltre la curva non è completamente piatta, lasciando intendere che abbia ancora birra. I due test in controtendenza rendono difficle una valutazione univoca. Se andate nella sezione dei test di efficienza Multi-Core, troverete che il Phenom mostra un'efficienza per clock superiore all'Athlon64 di circa il 15-20%, e quindi inferiore dello stesso valore di quella del Core 2 Duo. Appurato che il Core 2 Duo si comporta nettamente meglio, continuo la trattazione entrando più in dettaglio sulle performance della CPU che è più sofferente, l'Athlon64 (anche perchè quello ho....). Risultati aggiornati al 16/03/2008 Innanzitutto le prossime curve evidenziano il degrado di performance che si ha nel passaggio a Vista, nel mio sistema dopo la'aggiornamento della CPU: Athlon64 X2 6400+ @ 3.45GHz 2x 8800 GTS 640 MB 590/1500/900 MHz SLI 6GB RAM Forceware 169.44 Crysis v1.2 32bit Texture streaming on ![]() Come potete notare, perlomeno nel mio sistema, il calo di performance è dovuto al passaggio a Vista, e non alle DX10, che nel nuovo S.O. Microsoft assicurano le stesse performance delle DX9, addirittura superiori a bassa risoluzione. Qualcuno si ricorderà come in passato avessi evidenziato un leggero calo fra DX9 e DX10: era dovuto al fatto che i test erano effetuati con il texture streaming disattivato, impostazione che ho poi scoperto (vedi nota più sotto) dare molti problemi in DX10. Ippo.g, che ora ha un sistema analogo al mio ma a frequenze di default, ha riportato gli stedssi risultati sulla versione 1.1 di Cryisis. Aggiornamento del 23/03/2008: con le schede ATI sembra invece esserci un calo di performance significativo fra DX9 e DX10 in Vista Nota importante sulla versione a 64bit: con la patch 1.1 ha raggiunto le performance di quella a 32, consiglio a tutti coloro hanno un S.O. X64 e un adeguato quantitativo di RAM di provarla. Qualcuno ricorderà anche come avessi inizialmente evidenziato prestazioni deludenti in della versione a 64bit su windows XP. Ho scoperto il motivo: si è riconfermato un baco dei driver Nvidia su WinXP X64. I profili personalizzati non funzionano con le applicazioni a 64bit, perciò il valore deludente riscontrato in precedenza era dovuto al fatto che il test era stato eseguito con la GPU singola. Chi è in possesso di un sistema SLI e volesse utilizzare la versione a 64 bit del gioco su Win XP, dovrà utilizzare nHancer per caricare il profilo di Crysis come profilo globale. Il problema non sussiste su Vista x64. E per quanto riguarda lo sfruttamento Multi Core? La cosa non è molto chiara: i vari software di monitor, compreso il task manger di windows, lasciano intendere che il processo sia multi-threaded, ma i possessori di Quad Core non sembrano trarne molto giovamento, per contro chi possiede gli Athlon64 single Core non sembra così penalizzato. Anche alcuni miei test preliminari sembravano confermare come l'efficienza multi-core fosse molto bassa, quasi un fake. Una teoria interessante mi è stata fornita dall'utente davide155: secondo lui, l'engine software di rendering è single-thread, mentre lo sfruttamento multi-core è riservato al solo engine fisico. Per verificare la sua teoria, ho eseguito vari test lanciando l'eseguibile in modalità uniprocessore e confrontandoli con quelli in modalità multiprocessore. Ci sono vari modi per lanciare il gioco in modalità uniprocessore, il più semplice consiste nel cambiare l'affinità del processo dal task manager. Ma questo causa problemi sia per l'Alt-Tab, sia perchè il passaggio tende a causare crash vari. Un metodo più elegante consiste nello scaricare il vecchio comando imagecfg.exe qui: http://www.robpol86.com/pages/imagecfg.php ed utilizzarlo per impostare Crysis.exe in modalità uniprocessore (previo backup- non funziona su vista SP1) I risultati sono indicativi, con una premessa: i due benchmark_CPU non sono perfettamente ripetitivi in quanto a seconda dei casi vi ritroverete con un alieno che vi attacca, con il vostro personaggio che muore a causa di una esplosione, etc. In altre parole, lo script non gestisce ciò che accade attorno, che cambia di volta in volta. Tutti i test sono stati eseguiti in 800x600 per svincolarsi dalla GPU ![]() Mediando i vari risultati ottenuti, l'efficienza multi-core risulta: Benchmark_GPU: 10% Benchmark_CPU: 45% Benchmark_CPU2: 65% Man mano che l'engine fisico diventa preponderante rispetto a quello di rendering l'efficienza multi-core aumenta, ciò conferma la teoria di davide155. Una altra osservazione interessante riguarda il calo di performance medio fra WinXP e Vista: Benchmark_GPU: 20% Benchmark_CPU: 10% Benchmark_CPU2: 3.5% In questo caso il calo è sempre meno evidente all'aumentare del contributo della fisica. Ciò suggerisce che sia solo l'engine di rendering ad essere meno efficiente in Vista, e non quello fisico. Aggiornamento del 09/03/2008 per i test Multi Core Ho eseguito di nuovo i test, utilizzando lo script proposto nella sezione "raccolta dati". Rispetto ai primi, i test sono stati eseguiti con un sistema leggermente modificato. E' stata adottata una nuova strategia: oltre ad effettuare i test al massimo dettaglio, sono stati effettuati gli incroci dettagli massimo - fisica minimo, dettaglio minimo - fisica massimo. Questo allo scopo di estrapolare la differente efficienza multi-core fra il motore di rendering e quello fisico. Athlon 64 X2 Il sistema sotto esame è il seguente: Athlon64 X2 6400+ @ 3.45GHz 2x 8800 GTS 640 MB 590/1500/900 MHz SLI 6GB RAM Forceware 169.44 Crysis v1.2 32bit Texture streaming on Windows XP DX9 Very High benchmark_GPU (Multi FPS/Single FPS/Eff%): 40.9/36.17/13.1% benchmark_CPU (Multi FPS/Single FPS/Eff%): 38.25/24.86/53.8% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):19.87/12.38/60.5% Windows XP DX9 Very High - Physics Low benchmark_GPU (Multi FPS/Single FPS/Eff%): 40.63/35.97/12.9% benchmark_CPU (Multi FPS/Single FPS/Eff%): 46.52/40.04/16.1% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):38.91/30.01/29.6% Windows XP DX9 Low - Physics Very High GPU singola benchmark_GPU (Multi FPS/Single FPS/Eff%): 104.36/89.65/16.4% benchmark_CPU (Multi FPS/Single FPS/Eff%): 87.86/46.92/87.2% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):51.7/30.07/71.9% E' confermato come tutta l'efficienza multi-core sia da far risalire all'engine fisico, e non a quello di rendering. Vista DX9 Very High benchmark_GPU (Multi FPS/Single FPS/Eff%): 34.43/25.16/36.8% benchmark_CPU (Multi FPS/Single FPS/Eff%): 30.31/19.01/59.4% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):17.35/10.13/71.2% Vista DX9 Very High - Physics Low benchmark_GPU (Multi FPS/Single FPS/Eff%): 34.26/25.59/33.8% benchmark_CPU (Multi FPS/Single FPS/Eff%): 37.38/27.21/37.3% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):29.88/19.91/50% Vista DX9 Low - Physics Very High Single GPU benchmark_GPU (Multi FPS/Single FPS/Eff%): 93.29/68.36/36.4% benchmark_CPU (Multi FPS/Single FPS/Eff%): 73.94/39.93/85.1% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):50.23/25.64/95.9% L'ultimo test, con la fisica al massimo e i dettagli al minimo, è molto interessante, in quanto mostra come l'efficienza multi-core dell'engine fisico sia prossima al massimo teorico del 100% Un'altra osservazione è come in windows XP l'efficienza scenda fino al 13%, mentre su Vista sia sempre pari almeno al 33%. Sarebbe una buona notizia per il nuovo sistema operativo Microsoft, se non fosse che il frame rate è più elevato in XP. Osservando la perdita di prestazioni media: Very High (Multi/Single): -16.42%/-24.05% Very High - Physics Low (Multi/Single): -19.51%/-31.2% Low - Physics Very High (Multi/Single): -9.76%/-17.79% si può notare come sia maggiore laddove la fisica ha un peso inferiore. La mia interpretazione è che sia l'engine di rendering a soffrire maggiormente del passaggio a Vista, ma come conseguenza, il peso relativo della fisica dovrebbe risultare inferiore e tale anche l'efficienza multi-core. Al momento, non mi viene in mente nessuna ipotesi plausibile per giustificare il fenomeno. Vista DX9 High: Single GPU, per confronto con i test di Ghiltanas benchmark_GPU (Multi FPS/Single FPS/Eff%): 44.92/32.38/38.7% benchmark_CPU (Multi FPS/Single FPS/Eff%): 35.83/22.42/59.8% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):17.59/10.26/71.4% Vista DX9 High - Physics Low Single GPU, per confronto con i test di Ghiltanas benchmark_GPU (Multi FPS/Single FPS/Eff%): 45.30/33.24/36.2% benchmark_CPU (Multi FPS/Single FPS/Eff%): 46.31/35.19/31.5% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):28.72/22.45/27.9% Core 2 Duo test eseguiti sul sistema di ghiltanas Vista DX9 High benchmark_GPU (Multi FPS/Single FPS/Eff%): 44.2/31.47/40.4% benchmark_CPU (Multi FPS/Single FPS/Eff%): 40.43/25.13/60.8% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):20.92/12.33/69.6% Vista DX9 High - Physics Low benchmark_GPU (Multi FPS/Single FPS/Eff%): 43.87/31.73/38.2% benchmark_CPU (Multi FPS/Single FPS/Eff%): 50.51/36.36/38.9% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):31.61/24.06/31.3% Vista DX9 Low - Physics Very High benchmark_GPU (Multi FPS/Single FPS/Eff%): 96.71/70.07/38.0% benchmark_CPU (Multi FPS/Single FPS/Eff%): 80.6/48.62/65.7% benchmark_CPU2 (Multi FPS/Single FPS/Eff%): 50/29.37/70.2% Da un confronto con i test nel mio sistema, si conferma come l'efficienza per clock del Core Duo sia circa il 30-35% superiore, sia in single core che in dual core. Come si interpretano questi risultati?. Nel caso di processori dual Core, sono possibili cinque implementazioni: 1) Un unico thread per engine di rendering e fisico: in questo caso l'efficienza sarebbe prossima a zero in tutti gli scenari. 2) Un thread per l'engine di rendering e uno per quello fisico: in questo caso l'efficienza sarebbe elevata solo in quegli scenari, assai difficili da replicare, in cui rendering e fisica sono perfettamente bilanciati, e bassa in tutte le situazioni sbilanciate. 3) Due thread per l'engine di rendering e due thread per l'engine fisico (o volendo, due thread condivisi fra engine di rendering e fisico): in questo caso l'efficienza sarebbe elevata in tutte le condizioni. 4) Due thread per l'engine di rendering ed uno per quello fisico: efficienza elevata quando la fisica é poco rilevante. 5) Un thread per l'engine di rendering e due per quello fisico: efficienza elevata quando la scena é dominata dalla fisica. Dai risultati ottenuti appare evidente come l'implementazione del Crytek sia probabilmente la 5). Processori Quad Core Onde evitare equivoci, nel caso di processori Quad Core riporterò due valori percentuali: il guadagno di performance single-multi, definito come: FPS(multi)=FPS(single)*(1+Gain) a livello intuitivo: un 70% di guadagno significa che si passa da 10 FPS a 17FPS. l'efficienza multi-core è così definita: FPS(multi)=FPS(single)(1+(Ncore-1)*Eff) a livello intuitivo, un Quad core con il 33.3% di efficienza contribuisce con un incremento di tale valore per ogni core oltre il primo, per un totale del 100% di guadagno di performance. Phenom test eseguiti sul sitema di Karont3 XP DX9 High benchmark_GPU (Multi FPS/Single FPS/Gain%/Eff%): 46.67/42.18/10.6%/3.5% benchmark_CPU (Multi FPS/Single FPS/Gain%/Eff%): 49.57/29.24/69.5%/23.1% benchmark_CPU2 (Multi FPS/Single FPS/Gain%/Eff%):21.28/13.61/56.3%/18.7% XP DX9 High - Physics Low benchmark_GPU (Multi FPS/Single FPS/Gain%/Eff%): 46.9/42.3/10.8%/3.6% benchmark_CPU (Multi FPS/Single FPS/Gain%/Eff%): 55.73/50.07/11.3%/3.8% benchmark_CPU2 (Multi FPS/Single FPS/Gain%/Eff%):40.68/36.92/10.1%/3.7% XP DX9 High Low- Physics High benchmark_GPU (Multi FPS/Single FPS/Gain%/Eff%): 106.32/91.13/16.6%/5.6% benchmark_CPU (Multi FPS/Single FPS/Gain%/Eff%): 112.25/51.26/118.9%/39.6% benchmark_CPU2 (Multi FPS/Single FPS/Gain%/Eff%):60.45/35.28/71.3%/23.7% Il guadagno di 118.9% ottenuto nel test CPU low con fisica high conferma come l'engine fisico non sia limitato a due soli thread, ma ne avvii in numero pari a quello dei processori. Globalmente, i bassi valore evidenziano come sia difficile sfruttare i quattro con l'engine della Crytek XP DX9 High - test effettuati sul mio sistema, single GPU, per confronto performance benchmark_GPU (Multi FPS/Single FPS/Eff%): 49.95/43.57/14.6% benchmark_CPU (Multi FPS/Single FPS/Eff%): 44.72/27.65/61.7% benchmark_CPU2 (Multi FPS/Single FPS/Eff%):20.72/12.73/62.7% Mediando i valori, risulta un'efficienza per clock superiore all'Athlon64 di circa il 15-20%, sia in single che in multi-core.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test Ultima modifica di blade9722 : 23-03-2008 alle 09:12. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Lost Planet
Il titolo della Capcom non è proprio un giocone, comunque si presta ad effettuare test indicativi in quanto ha un bench integrato. Di seguito il risultato dei test alle varie risoluzioni, effettuati su Winxp in DX9 e su Vista in DX10, con il seguente sistema: Athlon64 X2 6400+ @ 3.45GHz 2x 8800GTS 640MB @ 590/1500/900MHz SLI 6GB RAM Impostazioni descritte nella sezione sulla raccolta dati ( a parte, ovviamente la risoluzione). ![]() Innanzitutto una precisazione: questo test inizialmente ha contribuito ad alimentare il falso mito per cui le G80 in DX10 fossero inadeguate. Ciò era dovuto al fatto che in DX10 era disponibile il settaggio High in Shadow Quality, disattivo in DX9, che dimezzava il frame rate con un incremento trascurabile sulla qualità video, cosa che con una certa leggerezza alcuni recensori avevano ignorato. Come potete osservare, non c'è nessun calo di performance fra DX9 e DX10 a parità di impostazioni, e la versione DX10 beneficia di motion blur ed effetti particellari (lievemente...) più convincenti. Dalla figura appare evidente come la scena Snow sia completamente GPU limited, mentre la scena Cave sia 100% CPU limited. Quest'ultima appare quindi interessante ai fini della trattazione. All'interno delle opzioni di gioco, è possibile impostare il numero di thread simultanei utilizzati. Essi dipendono da due parametri: concurrent operations: 2/1 (credo dipenda dal numero di Core) concurrent rendering: yes/no Athlon64 X2 Di seguito i risultati ottenuti nelle due scene. La sequenza concurrent operations e concurrent rendering è 2-yes/2-no/1-yes/1-no DX9 SNOW (2-yes/2-no/1-yes/1-no/Eff%): 147/117/108/86/70.9% CAVE (2-yes/2-no/1-yes/1-no/Eff%): 58/53/36/33/75.7% DX10 SNOW (2-yes/2-no/1-yes/1-no/Eff%): 146/124/110/87/67.8% CAVE (2-yes/2-no/1-yes/1-no/Eff%): 56/53/34/31/80.7% Forzando invece la modalità single-core con il comando Start /affinity, si ottengono risultati di 80/30 in DX9 e 88/30 in DX10, molto simili a quelli ottenuti con concurrent operations 1 e concurrent rendering no. Vista la relativa complessità per chi è meno esperto di scripting di questo approccio, non verrà preso in considerazione. Come si può vedere, l'efficienza multi-core nella scena CAVE si attesta intorno al 75-80% un risultato brillante. Sul mio sistema, anche la scena SNOW in 640x480 risulta CPU-limited come si può vedere dall'elevata efficienza multi-core anche in questa scena. Core 2 Duo test effettuati sul sistema di Ghiltanas (Core Duo a 2.8GHz) DX9 SNOW (2-yes/2-no/1-yes/1-no/Eff%): 127/124/107/99/28.2% (poco significativo perchè chiaramente limitato dalla GPU) CAVE (2-yes/2-no/1-yes/1-no/Eff%): 52/51/32/31/67.7% In questo caso: (52/58)*(3.45/2.8)=1.10 L'efficienza per clock è superiore all'Athlon64 solo del 10%, a conferma di come tale titolo non sia espressamente ottimizzato per un'architettura Phenom X4 Test effettuati nel sistema di Kharonte (Phenom X4 a 3.0 GHz): SNOW (4-yes/4-no/2-yes/1-no/Gain/Eff%): 105/97/105/71/47.8%/15.9%(poco significativo perchè chiaramente limitato dalla GPU) CAVE (4-yes/4-no/2-yes/1-no/Gain/Eff%): 89/73/64/37/140.5%/46.8% Come potete vedere, il guadagno di performance è del 140%, l'efficienza multi-core scende dal 72.9% con 2-yes al 46.8% con 4-yes, ma rimane comunque un valore di tutto rispetto. Confrontando i risultati con 2-yes e 1-no con i rispettivi dell'Athlon64 X2 e del Core 2 DUO, emerge: l'efficienza per core e per ciclo di clock del Phenom è il 25-30% superiore a quella dell'Athlon64 e del 10-15% superiore a quella del Core Duo. Si può dire che Lost Planet sia particolarmente favorevole alla nuova CPU AMD, come Crysis lo è per il Core 2 Duo. Da notare che il gioco della CAPCOM è uscito molto prima del Phenom, a dimostrazione che certi sbilanciamenti per un'architettura possono essere inconsapevoli ed involontari. Pentium 4 - Hyper threading Siccome con la nuova CPU Nehalem verrà rispolverato l'Hyper-threading, ho ritenuto utile riportare questi risultati come anteprima di ciò che tale tecnologia può permettere. Innanzitutto spendo un paio di parole sull' Hyper-threading. Se cercate in giro, probabilmente troverete una spiegazione del tipo che si tratta di un algoritmo per simulare 2 CPU avendone una sola. Spiegazione che risulta un po' oscura. Per spiegare meglio che cosa sia, faccio un passo indietro alla fine degli anni 80 - inizio anni 90. Ai tempi c'era una diatriba sul fatto che l'architettura x86 sarebbe stata abbandonata negli anni a venire, in quanto poneva limitazioni troppo grosse (set di istruzioni, basso numero di registri). Questo avrebbe però avuto un impatto pesantissimo sulla retrocompatibiltà dell' hardware sul software, obbligando le case produttrici a rilasciare patch o riscrivere completamente il codice per i nuovi prodotti. In realtà, i progettisti di CPU hanno risolto brillantemente la questione: le CPU moderne presentano un'architettura dedicata (i K7, K8, P5, P6, Netburst sono completamente diversi come approccio), e la compatibilità con le istruzioni x-86 è assicurata tramite una circuiteria che converte il codice chiamato "interprete x-86" oppure "architectural core". Ora, un Pentium 4 hyper Threading, presenta un unico Core interno (Netburst), ma due architectural core. L'idea di base era che la conversione delle istruzioni x-86 nelle microistruzioni interne comportasse tempi di inattività del Core interno pari al 20%. Aggiungendo un secondo interprete si poteva, tramite multi-threading o multi-processing, recuperare questa efficienza persa, al costo di un'incremento di area del silicio trascurabile. Il mio muletto ha un P4 3.4GHz Hyper-Treading e una scheda 6800GT. La scena SNOW risulta GPU limited anche in 640x480, e come tale non verrà presa in considerazione, invece la CAVE risulta CPU limited. Ecco il dettaglio del risultato: DX9 CAVE (2-yes/2-no/1-yes/1-no/Eff%): 22/21/18/17/29.4% Osservazioni: - confrontando il risultato single-thread, un Athlon64 ha un efficienza per clock superiore del 90%, mentre il Core Duo addirittura del 120%, a conferma di come il P4 non si trovi a suo agio con i titolo recenti. - tutto sommato, l'Hyper threading sembra mantenere le promesse, garantendo un boost quantificabile di prestazioni in applicazioni con elevata efficienza multi-core. 3DMARK2006 Si tratta di un benchmark sintetico, e come tale poco significativo, però si presta ad alcune valutazioni in quanto, come evidenziato in passato: http://www.hwupgrade.it/forum/editpo...ostid=20882274 le scene Proxycon, Firefly, Deep Freeze risultano CPU limited con schede a partire dalla G80 in su e impostazioni di default. Altre osservazioni sul bench: - le scene renderizzate risultano single core, solo i due CPU test risultano multri-threaded - l'unica scena che non è CPU limited è la Canyon Ho raccolto un po' di dati dall'ORB utilizzando la seguente metodologia: - ogni valore è ottenuto dalla mediazione dei risultati di 5 utenti diversi - ho preso in considerazione solo le scene CPU-limited. La scena canyon l'ho utilizzata per valutare se si trattava o meno di un sistema multi-GPU, in quanto l'indicazione "linked display adapters" è fallace. - per l'Athlon64 ho preso in considerazione frequenze fra 3.0 e 3.4GHz, per il Core 2 Duo intorno a 3.5 GHz, per il Phenom... quello che ho trovato (c'erano pochi risultati) - per estrarre l'efficienza per clock ho calcolato il rapporto fra FPS e frequenza, espresso in FPS/GHz. Dopodichè ho calcolato il valore medio e la deviazione standard (per verificare che non ci fossero troppe variazioni). Il sistema di riferimento è: Athlon64 + 2X 8800GTS 640MB SLI: Proxycon: 14.12 FPS/GHz Firefly: 14.49 FPS/GHz Deep Freeze: 17.75 FPS/GHz Dev. standard: 1.44% da cui ho calcolato l'efficienza per clock degli altri sistemi. Athlon64 + 2X HD3870 CF: Proxycon: 14.34 FPS/GHz Firefly: 14.63 FPS/GHz Deep Freeze: 18.15 FPS/GHz Dev. standard: 2.45% Eff./clock: +1.62% Athlon64 + HD3870 X2: Proxycon: 14.24 FPS/GHz Firefly: 14.46 FPS/GHz Deep Freeze: 17.95 FPS/GHz Dev. standard: 1.61% Eff./clock: +0.6% Phenom X4 + 2X 8800GTS 640MB SLI: Proxycon: 15.87 FPS/GHz Firefly: 16.25 FPS/GHz Deep Freeze: 20.24 FPS/GHz Dev. standard: 2.86% Eff./clock: +12.88% Phenom X4 + 2X HD3870 CF: Proxycon: 16.19 FPS/GHz Firefly: 17.06 FPS/GHz Deep Freeze: 20.58 FPS/GHz Dev. standard: 2.56% Eff./clock: +16.13% Phenom X4 + HD3870 X2: Proxycon: 17.07 FPS/GHz Firefly: 17.95 FPS/GHz Deep Freeze: 22.17 FPS/GHz Dev. standard: 9.15% Eff./clock: +23.24% Core 2 Duo + 2X 8800GTS 640MB SLI: Proxycon: 15.88 FPS/GHz Firefly: 16.55 FPS/GHz Deep Freeze: 20.5 FPS/GHz Dev. standard: 2.05% Eff./clock: +14.04% Core 2 Duo + 2X HD3870 CF: Proxycon: 16.76 FPS/GHz Firefly: 17.53 FPS/GHz Deep Freeze: 21.51 FPS/GHz Dev. standard: 2.14% Eff./clock: +20.28% Core 2 Duo + HD3870 X2: Proxycon: 17.02 FPS/GHz Firefly: 17.43 FPS/GHz Deep Freeze: 22.46 FPS/GHz Dev. standard: 3.66% Eff./clock: +22.45% Due parole: l'efficienza per clock del Phenom sembra avvicinarsi a quella del Core 2 Duo, inoltre sembra che in qualche modo la nuova cpu AMD si avvantaggi dei driver ATI. Il risultato brillante ottenuto con l'H3870X2 va preso con le pinze in quanto, come potete vedere, la deviazione standard è molto elevata. F.E.A.R. Ho approfittato dell'uscita di TGM di maggio per acquistare il gioco a basso prezzo. All'interno è presente un benchmark che permette di effettuare qualche interessante, e sorprendente valutazione. Come riferimento, ho preso sempre il mio sistema: Athlon64 X2 6400+ @ 3450 MHz 2x8800GTS 640MB SLI @ 590/1500/990 MHz. I test sono stati eseguiti nella seguente configurazione: Risoluzione 640x480x32 Dettaglio CPU: massimo Dettaglio scheda grafica: massimo, ma senza AA e con AF a 4x. Per ogni prova, il bench è stato eseguito tre volte ed il risultato è stato mediato. I risultati sono nella forma: FPS Minimo/Medio/Massimo Ho eseguito i test su windows XPed ho ottenuto: 56/150/373 Quindi ho impostato l'affinità in modo da eseguire il test in modalità uniprocessore, ed il risultato è rimasto invariato: 55/150/366 A questo punto ho eseguito il test su Vista, ed il risultato è stato sorprendente: 79/215/589 Un incremento superiore al 40% Ho impostato l'affinità in modo da eseguire il test in modalità uniprocessore, ed ho ottenuto un risultato simile a quello su XP: 47/147/403 Sembra che il gioco, aggiornato alla versione 1.08, sia single threaded su windows XP, ma multi-threaded su windows Vista! Tale incremento di prestazioni viene ridimensionato quando le prestazioni sono più sensibili alla GPU. Eseguendo il test in 1600x1200, AA4x AF16x ottengo: windows xp: 52/127/350 Vista: 72/141/390 però il guadagno di prestazioni sul frame rate minimo, più dipendente dalla CPU, rimane consistente. Per conferma, ho eseguito i test anche su muletto: Pentium Dual Core E2160 @ 1600 MHz Ati X1900GT 256MB @ 560/846 MHz Windows XP multi processore: 23/65/180 singolo processore: 25/66/182 Windows Vista multi processore: 33/88/226 singolo processore: 21/60/173 Confermato l'incremento del 40%, che viene meno quando si esegue il test in modalità uni-processore Test sul sistema di ghiltanas multi processore: 86/197/479 singolo processore: 51/125/295 Nel sistema di Ghiltanas il guadagno è addirittura di circa il 60%. Per quanto riguarda l'efficienza per clock, calcolata sul frame rate medio, è: (197/215)*(3.45/2.8)=1.12 L'efficienza per clock del Core 2 Duo risulta superiore di circa il 12% rispetto all'Athlon64, segno che F.E.A.R. è un titolo non espressamente ottimizzato nei confronti di una architettura.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test Ultima modifica di blade9722 : 16-05-2008 alle 23:22. |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Per chi vuole partecipare alla raccolta dei dati
Nota importante sui driver Nvidia: ai fini della raccolta dati, saranno ritenuti significativi solo i risultati ottenuti dai driver direttamente proposti dal sito Nvidia, anche beta. Non saranno presi in considerazioni risultati provenienti da: - driver modificati (x-treme G, Omega, etc.) - driver forceware provenienti dalla Nvidia ma proposti da siti come Guru3D, HWupgrade, e non linkati nel motore del sito ufficiale. Tipico esempio è la serie 17x.xx, sviluppata per le G94 (e come tale dalla Nvidia offerta solo ai possessori di 9600), ma utilizzabile, con effetti collaterali più meno evidenti, anche su G80 e G92. Questo, dopo che il sottoscritto, avendo verificato per lungo tempo come il risultato 100% CPU-limited a bassa risoluzione fosse independente dalla release del driver, ha installato i 174.16 X-treme G, e ha scoperto che facevano la "magia" Crysis Se il vostro monitor supporta le seguenti risoluzioni: 800x600 1024x768 1280x1024 1680x1050 Se invece le risoluzioni sono diverse, allora mandatemi un PM con l'elenco, od eventualmente modificate lo script, non è difficle. Impostate il gioco in High o Very High scaricate il seguente archivio: http://www.4shared.com/file/37158655...s_CPU_GPU.html In data 2 Marzo 2008 lo script è stato aggiornato alla versione 1.1, che introduce una pausa di 10 secondi fra un run e il successivo. Questo al fine di permettere una corretta chiusura dell'applicazione e migliorare l'affidabilità dei risultati.Per introdurre la pausa, ho usato il comando sleep.exe del resource kit di windows server 2003, non è un virus..... estraete il contenuto nella cartella \Crysis eventualmente fate una copia del vostro salvataggio all'inizio del livello CORE, perchè verrà sovrascritto Nella sottocartella \Crysis\Bin32 troverete lo script: CPU_GPU_limit.bat Lanciatelo e prendetevi un attimo di pausa. Lo script eseguirà una serie di test, e alla fine genererà il file: CPU_GPU_limit.txt Apritelo e riportate il contenuto in questo thread. Allo stato attuale, lo script non funziona con la versione a 64bit del gioco (a causa della gestione della SecurROM a 64bit) Se il gioco dovesse partire in finestra, specialmente su vista, dovrete selezionarlo con ALT-TAB e rimetterlo a schermo intero con ALT-INVIO Nota sul "texture streaming" Nel gioco la gestione della RAM di sistema può essere configurata attraverso una variabile: r_TexturesStreaming Per default tale variabile è impostata a 2, cioè in modalità automatica. Significa semplicemente che il textures streaming è attivo con la versione a 32bit, ma disattivato con la versione a 64bit. Ma cosa significa avere il textures streaming attivato? Che l'engine cercherà di conservare la RAM caricando le textures dall'hdd quando necessario, e scaricandole quando non più visibili. Disattivandolo, il motore riserverà una quantità di RAM come cache per le textures. In linea di principio andrebbe disattivato se si dispone di un buon quantitativo di memoria, da qui deriva l'idea di disattivarlo per default nella versione a 64bit. Purtroppo, molto tempo dopo aver finito il gioco ho scoperto che la disattivazione del textures streaming, mentre funziona egregiamente in DX9, in DX10 causa pesanti rallentamenti in alcuni scenari, come appare evidente da questo grafico del frame rate durante la cutscene iniziale del livello Reckoning ![]() Per disattivare il textures streaming occorre creare nella cartella Crysis un file di nomesystem.cfg con i seguenti comandi: con_restricted=0 r_TexturesStreaming=0 Mentre per forzarlo è sufficiente mettere la variabile a 1: con_restricted=0 r_TexturesStreaming=1 Trovere altre info sull'argomento qua: http://www.tweakguides.com/Crysis_11.html ed anche un metodo arguto per verificarne l'attivazione osservando la resa della montagna nel test dell'isola (la dicitura con R_displayinfo non è affidabile). Per effettuare i test di efficienza Multi-Core Scaricate il seguente archivio: http://www.4shared.com/file/40240326...Multicore.html estraete il contenuto nella cartella \Crysis Ci sono due versioni dello script - per chi utilizza Windows XP SP2: lanciare Uni_Multi_All_OS.bat - per chi utilizza Windows XP x64 o Vista: lanciare Uni_Multi_Vista_Xp64.bat NOTA IMPORTANTE: a causa di problemi nel forzare la modalità single thread in DX10, i test sono eseguiti in DX9 anche in Vista. Come conseguenza, le impostazioni very high verranno automaticamente abbassate ad high. Ricordatevi eventualmente di ripristinarle alla fine del test. E' comunque possibile effettuare i test in Very High usando il trick per XP. Consiglio per chi ha un Core 2 Duo: è importante che i test siano effettuati in codnizione di CPU_limit. Allo stato attuale, anche se possedete una G80, G92 o equivalente Ati, è improbabile che siate in tali condizioni con i dettagli Very High e una scheda singola. Si consiglia caldamente di effettuare i test in High. Sono necessari, ai fini di estrarre esaurientemente i dati, tre diversi run: 1) Tutti i dettagli su Very High (o High) 2) Tutti i dettagli su Very High (o High), ma fisica su Low 3) Tutti i dettagli su Low, ma fisica su Very High (o High) dopo ogni run dovete pubblicare il contenuto del file Uni_Multi.txt Attenzione che l'opzione "modifica tutte le impostazioni" non cambia il dettaglio degli oggetti (perlomeno con la patch 1.2) Lost Planet scaricate la demo da qua: http://www.lostplanetcommunity.com/demo/ Non importa se DX9 o DX10 Impostate i seguenti parametri: ANTI ALIAS: NONE HDR: HIGH TEXTURE FILTER: ANISOTROPIC 4X TEXTURE RESOLUTION: HIGH MODEL QUALITY: HIGH SHADOW QUALITY: MEDIUM (IMPORTANTE, IN DX10 C'E' ANCHE HIGH, NON ATTIVATELO, DIMEZZA IL FRAME RATE) SHADOW RESOLUTION: HIGH NOTION BLUR QUALITY: HIGH EFFECT RESOLUTION: HIGH EFFECT QUALITY: HIGH EFFECT VOLUME: HIGH LIGHTING QUALITY: HIGH DISPLAY RESOLUTION: 640X480 (O SIMILE....) DISPLAY FREQUENCY: DIPENDE DAL MONITOR FULL SCREEN: ON VERTICAL SYNC: OFF ASPECT CORRECTON: OFF CONCURRENT OPERATIONS: VEDI NOTA SOTTO CONCURRENT RENDERING: VEDI NOTA SOTTO MULTI GPU: ON/OFF A SECONDA SE SI POSSIEDE UN SISTEMA SLI/CROSSFIRE (per inciso: non cambia una mazza...) Il parametro "concurrent operation" indica il numero di thread contemporanei, e dovrebbe avere come massimo valore quello dei vostri core. Il parametro "concurrent rendering" ha invece solo le impostazioni yes/no. Eseguite il benchmark integrato, e riportate i risultati delle due scene nelle seguenti combinazioni: Processori Dual Core Concurrent operation: 2 Concurrent rendering: yes Concurrent operation: 2 Concurrent rendering: no Concurrent operation: 1 Concurrent rendering: yes Concurrent operation: 1 Concurrent rendering: no Processori Quad Core Concurrent operation: 4 Concurrent rendering: yes Concurrent operation: 4 Concurrent rendering: no Concurrent operation: 2 Concurrent rendering: yes Concurrent operation: 1 Concurrent rendering: no
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test Ultima modifica di blade9722 : 19-03-2008 alle 01:01. |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Dec 2005
Città: Provincia Di Lodi
Messaggi: 2446
|
MA usi xp con 6gb d ram, o hai anche altri SO installati per altri scopi
![]() |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Versione a 64bit, sia per Vista che per XP.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Feb 2005
Città: Roma
Messaggi: 1584
|
Molto utile ed interessante questo 3D !
__________________
Intel i5-4690 ![]() ![]() |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jan 2002
Messaggi: 1144
|
interessante il discorso del gpu limited
__________________
ex possessore di.. Intel E8400@4Ghz rock solid ![]() ![]() Ultima modifica di darklord77 : 02-02-2008 alle 12:55. |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Dec 2005
Città: guidonia(rm)
Messaggi: 3550
|
incritto!!mi pare una buona idea
__________________
AMD phenom2 925 @3.2ghz scheda video radeon hd4670 512mb- 2gb ram ddr2 800- hd maxtor 160gb 7200 rpm ubunto linux 8.4e windows 7 + xbox-ps2 slim e nintendo ds ![]() "Everything has chains, absolutely nothing changes"[/url] |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
gente per l'iscrizione ai thead c'è l'apposita funzione
![]() ps questo thread può diventare molto utile
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
blade solo un piccolo appunto sulla mia config:
io ho la gt della zotac che ha il core a 660 gli shader a 1600 e la memoria a 1800
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
confermo quanto detto sul disc vista 64 bit con exe a 64 bit in crysis. qui è dove si sono visti i maggiori miglioramenti con la patch, ho testato anch'io a fondo l'exe a 64bit con vista e posso dire che nella stragrande maggioranza dei casi ha raggiunto l'exe a 32.
Sono contento anche del disc nn cpu limited sotto xp, senza considerare che io sto col dissi stock e lo tengo a 2,8 solo per quello, altrimenti anche a portarlo a 3,2 nn ci vorrebbe molto.
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Quote:
P.S. teoricamente io potrei portare gli shader a 1500, ma mi tocca installare Rivatuner e il tool di overclock complicazione, alla fine preferisco usare nTune che è più affidabile ma non mi permette l'overclock separato degli shader.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
|
![]() |
![]() |
![]() |
#13 |
Bannato
Iscritto dal: Oct 2007
Città: un leccese (Melissano) a Napoli
Messaggi: 6781
|
![]() ![]() ![]() ![]() ![]() |
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: Nov 2002
Città: Budapest
Messaggi: 19133
|
Quote:
![]() PS per l'overclock degli shader, prova il tool di Gainward, Expertool ![]() bYeZ!
__________________
Improvise, adapt, overcome. |
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Quote:
Già provato, non funziona.... l'overclock dello shader in SLI su WinXP ha un inghippo, è un po' complicato da spiegare.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
|
![]() |
![]() |
![]() |
#16 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
ho messo su i 28 con xp (anche perchè ieri ho avuto un altro crash con oblivion
![]() ora rifaccio qualche prova con crysis per vedere c'è qualche cambiamento nel framerate
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
niente da fare mi sa, eseguito il test a 800*600 island ho ottenuto risultati identici ai precedenti...
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
#18 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
blade mi sa che io sono palesemente cpu limited...se nn sbaglio si è cpu limited quando aumentando la freq della gpu il frame rate nn cambia giusto? beh ho rifatto 3 test con gpu occata:
island 800*600 e 1280*1024 core 800*600 in tutti e 3 i casi ho avuto risultati quasi identici (cambiavano solo i valori decimali praticamente) ai test fatti con gpu a default
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
#19 | |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Quote:
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
|
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Sep 2006
Messaggi: 27814
|
allora la vga nn l'ho occata molto: 690/1680/950
driver 169.28, stesse imp di prima: island prima 800*600 e poi 1280*1024: ============================================================== TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s) !TimeDemo Run 0 Finished. Play Time: 55.84s, Average FPS: 35.82 Min FPS: 12.99 at frame 143, Max FPS: 53.77 at frame 1005 Average Tri/Sec: -24327454, Tri/Frame: -679249 Recorded/Played Tris ratio: -1.35 !TimeDemo Run 1 Finished. Play Time: 49.36s, Average FPS: 40.52 Min FPS: 12.99 at frame 143, Max FPS: 60.84 at frame 109 Average Tri/Sec: -27192836, Tri/Frame: -671079 Recorded/Played Tris ratio: -1.37 TimeDemo Play Ended, (2 Runs Performed) ============================================================== ============================================================== TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s) !TimeDemo Run 0 Finished. Play Time: 79.06s, Average FPS: 25.30 Min FPS: 10.23 at frame 1264, Max FPS: 31.27 at frame 963 Average Tri/Sec: -16937034, Tri/Frame: -669481 Recorded/Played Tris ratio: -1.37 !TimeDemo Run 1 Finished. Play Time: 72.35s, Average FPS: 27.64 Min FPS: 10.23 at frame 1264, Max FPS: 31.72 at frame 976 Average Tri/Sec: -18316470, Tri/Frame: -662600 Recorded/Played Tris ratio: -1.38 TimeDemo Play Ended, (2 Runs Performed) ============================================================== core 800*600: ============================================================== TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 118.86s) !TimeDemo Run 0 Finished. Play Time: 47.67s, Average FPS: 41.96 Min FPS: 3.95 at frame 1205, Max FPS: 65.13 at frame 620 Average Tri/Sec: 40740280, Tri/Frame: 970997 Recorded/Played Tris ratio: 0.72 !TimeDemo Run 1 Finished. Play Time: 38.89s, Average FPS: 51.42 Min FPS: 3.95 at frame 1205, Max FPS: 72.84 at frame 650 Average Tri/Sec: 49966772, Tri/Frame: 971664 Recorded/Played Tris ratio: 0.72 TimeDemo Play Ended, (2 Runs Performed) ============================================================== ho usato il bench gpu e lo script fatto da te per il livello core, nn ho usato quindi in bench tool
__________________
CPU: Ryzen 5700x COOLER: Noctua NH-D15S MOBO: Gigabyte b550 Professional RAM: 4x8 @3600 GPU: XfX Qick319 Rx6700XT ![]() |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 11:45.