|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Prestazioni delle schede high-end, limiti delle CPU attuali.
Buongiorno a tutti,
ho effettuato qualche prova con le mie 8800GTS 640MB, sia in configurazione single GPU, sia in SLI. In questo modo ho cercato di ricavare informazioni utili su tutte le schede video di fascia alta, e su quanto queste possano essere limitate dalle CPU odierne. Il mio sistema è: CPU: Athlon64 X2 3800+ AM2 @ 2700MHz GPU: 2x8800 GTS 640 MB SLI @ 590/1350/998 MHz RAM: 2x1GB DDR2 Innanzitutto anticipo che dai test sintetici (Fill-rate, vertex shaders, pixel shaders) le due schede il AFR SLI si comportano secondo le aspettative: un raddoppio secco delle prestazioni. I test nel 3dmark sono stati ripetuti 3 volte per assicurare la stabilità del risultato. 1) 3dmark2006: ricerca dei limiti della CPU Per cercare i limiti dati dalla CPU ho eseguito i test a risoluzioni più basse fino a quando gli FPS non hanno smesso di aumentare. Il risultato finale, ottenuto in 800x600, è il seguente: GT1 - Return To Proxycon 36,092 FPS GT2 - Firefly Forest 37,297 FPS HDR1 - Canyon Flight 80,030 FPS HDR2 - Deep Freeze 46,788 FPS 2) 3dmark2006 default settings (1280x1024 no AA) Single GPU: 3DMark Score 9218 3DMarks SM2.0 Score 4277 HDR/SM3.0 Score 4275 CPU Score 2071 GT1 - Return To Proxycon 34,778 FPS GT2 - Firefly Forest 36,501 FPS CPU1 - Red Valley 0,653 FPS CPU2 - Red Valley 1,051 FPS HDR1 - Canyon Flight 39,770 FPS HDR2 - Deep Freeze 45,735 FPS SLI: 3DMark Score 10234 3DMarks SM2.0 Score 4269 HDR/SM3.0 Score 6000 CPU Score 2065 GT1 - Return To Proxycon 34,572 FPS GT2 - Firefly Forest 36,573 FPS CPU1 - Red Valley 0,652 FPS CPU2 - Red Valley 1,047 FPS HDR1 - Canyon Flight 66,640 FPS HDR2 - Deep Freeze 46,064 FPS Appare evidente come, a parte la scena del Canyon (HDR1), con questi settaggi già una singola 8800GTS sia pesantemente limitata dalla CPU: i valori di 34.7 FPS (GT1), 36.5FPS (GT2), 46FPS (HDR2) sono quelli massimi dati dal limite della CPU 3) 3dmark 2006 1600x1200- AF 16x - AA 8x0 Single CPU: 3DMark Score 7220 3DMarks SM2.0 Score 3354 HDR/SM3.0 Score 2859 CPU Score 2065 Game Score N/A GT1 - Return To Proxycon 27,473 FPS GT2 - Firefly Forest 28,427 FPS CPU1 - Red Valley 0,652 FPS CPU2 - Red Valley 1,047 FPS HDR1 - Canyon Flight 26,870 FPS HDR2 - Deep Freeze 30,301 FPS SLI: 3DMark Score 9663 3DMarks SM2.0 Score 4427 HDR/SM3.0 Score 4707 CPU Score 2065 Game Score N/A GT1 - Return To Proxycon 36,155 FPS GT2 - Firefly Forest 37,635 FPS CPU1 - Red Valley 0,652 FPS CPU2 - Red Valley 1,047 FPS HDR1 - Canyon Flight 48,275 FPS HDR2 - Deep Freeze 45,872 FPS In questo caso la scheda singola non raggiunge i limiti della CPU, ed è correttamente sfruttata. Le due schede in SLI su tre scene su 4 invece sono tarpate dalla CPU. Si noti comi nella scena HDR1, l'unica che appare in grado di mettere alla frusta la GPU, le prestazioni in SLI si avvicinino di molto al raddoppio. Conclusioni sul benchmark 3dmark2006 I risultati parlano chiaro: in 1280x1024 senza filtri una singola 8800GTS è limitata dalla CPU in tre scene. In 1600x1200 con i filtri attivati la singola scheda invece è ben sfruttata, mentre le due schede in SLI necessitano di un processore più potente. L'unica scena che sembra sfruttare le schede in tutte le situazioni è quella del dragone nel Canyon (HDR1) ____________________________________________________________________________________________________ Lost planet demo: DX9 e DX10 Il demo di Lost Planet recentemente è stato preson in esame da tutte le riviste in quanto permette un confronto diretto fra DX9 e DX10. Come conseguenza, le DX10 sono subito state messe sotto accusa: le prestazioni sembrano calare vertiginosamente senza nessun guadagno nella qualità del rendering. Per questo motivo ho effettuato un confronto fra DX9 e DX10, oltre che fra single e multi GPU. 1280x960 16xAF 8xAA. Dettagli al massimo. Shadows quality: medium Ho effettuato direttamente i test con i filtri in quanto senza superavo facilmente 100 FPS. Single GPU DX9: Snow 35 FPS Cave 45 FPS DX10: Snow 31 FPS Cave 41 FPS SLI AFR DX9: Snow 65 FPS Cave 46 FPS DX10: Snow 60 FPS Cave 42 FPS La prima scena, Snow, sfrutta a dovere la scheda video (barre di carico sempre al massimo), ed in SLI si ha un raddoppio secco delle prestazioni. La seconda scena, Cave, è invece pesantemente CPU limited ed è inchiodata a 40-45 FPS in tutte le condizioni di test. Confronto DX9-DX10: perlomeno con la 8800GTS, il calo di prestazioni è trascurabile. Per quanto riguarda la qualità video, dagli screenshots è difficle vedere qualche differenza. Dinamicamente si può notare come in DX10 i particle effects (la bufera di neve e le esplosioni) siano più convincenti e volumetrici, e il motion blur sia più accentuato. In definitiva: un leggero miglioramento della qualità di alcuni effetti con un leggero calo di prestazioni. Ora attivo le shadows quality:high, possibile solo con DX10 In SLI ottengo: Snow 29 FPS Cave 36 FPS. La qualità massima delle ombre in DX10 dimezza le prestazioni!!! Probabilmente è questo che causava il calo vertiginoso descritto dai vari articoli. Conclusioni sui test di Lost Planet Anche in questo caso si conferma la tendenza del 3dmark: una scena (snow) sfrutta appieno sia la scheda singola che in SLI, mentre l'altra (Cave) è limitata completamente dalla CPU. Per quanto riguarda il confronto DX9-DX10, purchè si eviti di attivare la massima qualità delle ombre le DX10 offrono un paio di miglioramenti su alcuni effetti dinamici (particle e motion blur) al prezzo di un leggero calo di prestazioni. ________________________________________________________________________________________________________________ Ma i multi core servono? Il motivo di tali deludenti risultati va ricercato nell'evoluzione delle CPU negli ultimi anni. Se prendete un Athlon XP 3000+ del 2003 a 1.8 GHz, confrontate i risultati di un benchmark sintetico con un Athlon64 X2 o un Core Duo, vi renderete conto come, una volta disattivato il multi-core e le istruzioni SSE nelle CPU recenti, a parità di condizioni non risulti così lento. Esempio, usando RightMark CPULite su un Athlon XP 3000+, solo FPU e MMX Frames processed: 300 Solver FPS: 41.5081 Prerenderer FPS: 98.1367 Renderer FPS: 4.8718 Overall FPS: 4.1746 Su un Core Duo 1.86 GHz, singolo thread, solo FPU e MMX Frames processed: 300 Solver FPS: 30.0826 Prerenderer FPS: 99.2754 Renderer FPS: 6.2178 Overall FPS: 4.8985 A questo punto, se nel Core Duo il test viene effettuato in multi-thread e sfruttando SSE2/SSE3, la musica cambia: Frames processed: 300 Solver FPS: 41.5602 Prerenderer FPS: 243.1008 Renderer FPS: 15.8507 Overall FPS: 10.9573 In sintesi, a causa della cronica difficoltà, negli ultimi anni, ad incrementare le frequenze di clock dei processori, AMD e Intel hanno seguito la strategia vincente delle GPU, cioè il parallelismo. Tuttavia una applicazione deve essere sviluppata in modo specifico per sfruttare più core. Con le applicazioni single thread, che sono purtoppo ancora la maggioranza, le CPU attuali non sono poi così più veloci rispetto a quelle del passato, e questa sembra essere la ragione principale dei limit evidenziati Ritornando sui test effettuati in precedenza, ho notato che se un'applicazione non è veramente multi threaded, l'utilizzo della CPU si aggira intorno al 60% (50% per il rendering + 10% altri processi). Ora, il 3dmark2006 dimostra il tipico comportamento da single thread, con un carico sulla CPU intorno al 50-60%, e abbiamo visto quanto sia CPU limited. In Lost Planet è possibile attivare "concurrent rendering" e "concurrent operations", e l'occupazione della CPU risulta intorno al 90-95%. Ed infatti, almeno per quanto riguarda la scena SNOW, si ha un raddoppio secco delle prestazioni in SLI. Segno che le CPU odierne hanno cmunque un potenziale maggiore di quanto non venga attualmente sfruttato Ultima modifica di blade9722 : 01-02-2008 alle 22:40. |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: Feb 2007
Messaggi: 1630
|
Veramente interessante
E pensare che c'è gente che ancora afferma che il "CPU limited non esiste" In pratica con un e6600 a default (che al cpu score fa circa 2000 punti) e una 8800gts si è cpu limited. Che bella cosa.
__________________
Mobo: Gigabyte Z390 UD CPU: Intel i7 9700k SSD: Samsung 840 EVO 512gb VGA:Asus 1080 Ti Ram: 16gb GSkill TridentZ 3400 PSU: CoolerMaster 1300w SA: Asus Xonar Dx Speakers: Logitech z5500 Screen:3x Asus VG248QE IEM 1: Shure SE 535 IEM 2: BeyerDinamics Blue Bird EarBuds: Sennheiser MX471 Ultima modifica di IntoTrouble : 20-07-2007 alle 20:53. |
|
|
|
|
|
#3 |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Ho aggiornato la descrizione con i test sulla demo di lost planet
|
|
|
|
|
|
#4 |
|
Messaggi: n/a
|
l'ho sempre detto io... la sfumatura delle ombre in lost planet dimezza le prestazioni
che driver usi su Vista?? |
|
|
|
#5 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Quote:
Una volta che riesci a far partire il rendering 3d sono stabili. |
|
|
|
|
|
|
#6 | |
|
Messaggi: n/a
|
Quote:
Ultima modifica di Mister Tarpone : 20-07-2007 alle 21:50. |
|
|
|
|
#7 |
|
Senior Member
Iscritto dal: Jan 2006
Città: Bassano del Grappa
Messaggi: 2644
|
davvero interessante
ma perche' hai una cpu del genere con quelle 2 schede video? |
|
|
|
|
|
#8 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Quote:
Perchè ai tempi il Core Duo costava molto di più (e non cambia la vita....), e ho la speranza di fare un upgrade con le CPU AM2+/AM3 retrocompatibili AM2. E anche perchè non mi aspettavo che fosse così pesante C'è da dire che storicamente in 10 anni non ho mai speso più di 150€ / 300000 Lire per una CPU, confidando sempre sull'overclock, ma stavolta non è bastato. |
|
|
|
|
|
|
#9 | |
|
Senior Member
Iscritto dal: Jan 2006
Città: Bassano del Grappa
Messaggi: 2644
|
Quote:
|
|
|
|
|
|
|
#10 |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Ho aggiornato la descrizione con alcune valutazioni sulo multi-threading.
Ultima modifica di blade9722 : 26-07-2007 alle 18:52. |
|
|
|
|
|
#11 |
|
Senior Member
Iscritto dal: Feb 2005
Città: Tra LC e MB
Messaggi: 1615
|
Ciao blade, continuando il discorso dal topic del k10, ora ho capito meglio
Io pensavo che tu avessi come minimo un C2D, è ovvio che un athlon64 x2 non ce la faccia a stare dietro a una 8800gts per di più la versione da 640mb... Davo infatti per scontato che chiunque, per prendere una 8800gts (addirittura uno sli nel tuo caso) avesse un conroe o un quad per fare questi test. Imho è sbagliato anche il titolo del thread... la tua cpu infatti non è più "attuale": da 1 anno e qualche mese a questa parte tutto ciò che non è intel, nei benchmark non è più attuale Col tuo sistema MAX si abbina una 7900 o una ati x1900, la serie 8 nvidia è decisamente fuori luogo a meno che, come hai rilevato tu stesso, la si usi con risoluzioni e filtraggi altissimi!
__________________
Mercatino, ho concluso con: e chi si ricorda più ormai! |
|
|
|
|
|
#12 |
|
Bannato
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
|
può darsi che anche un futuro Phenom x2 sia un ottimo processore per le varie hd 2900 e 8800.
|
|
|
|
|
|
#13 | |
|
Senior Member
Iscritto dal: Feb 2005
Città: Tra LC e MB
Messaggi: 1615
|
Quote:
__________________
Mercatino, ho concluso con: e chi si ricorda più ormai! |
|
|
|
|
|
|
#14 | |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Quote:
Poi il 3dmark2006 enfatizza il fenomeno, ma é indicativo di ció che succede in alcuni scenari.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
|
|
|
|
|
|
#15 | |
|
Senior Member
Iscritto dal: Feb 2005
Città: Tra LC e MB
Messaggi: 1615
|
Quote:
Cmq ricordo che anche le 7900/x1900 all'epoca erano cpu limited nei vari bench... arrivarono allora 1 anno fa i c2d e finalmente le vga esprimevano il loro potenziale. Verso novembre 2006 uscirono le nvidia 8xxx e allora si fu nuovamente daccapo: vga che ruzza più del processore, il quale fatica a starle dietro, se non clockato@dyce o ln2
__________________
Mercatino, ho concluso con: e chi si ricorda più ormai! |
|
|
|
|
|
|
#16 |
|
Senior Member
Iscritto dal: Feb 2005
Città: Tra LC e MB
Messaggi: 1615
|
Riporto qui il post di dj sul topic del k10 che altrimenti sporcheremo
Quote:
La vga, sui test grafici, da praticamente sempre gli stessi punteggi se non impercettibilmente più alti dato che cmq la cpu è stata occata e pochissimo ma si sente. Per vedere una vga veramente limited bisogna guardare ai test di blade, in cui i risultati cambiano un casino
__________________
Mercatino, ho concluso con: e chi si ricorda più ormai! |
|
|
|
|
|
#17 |
|
Senior Member
Iscritto dal: Oct 2006
Città: in fondo al mar
Messaggi: 1735
|
secondo voi con il mio athlon64 3200+ e con una 8800gt sarei cpu limited a 18680x1050 e con filtri attivi?
__________________
Obama nei guai per la mosca uccisa in diretta tv |
|
|
|
|
|
#18 |
|
Senior Member
Iscritto dal: Mar 2007
Città: Bergamo
Messaggi: 4055
|
Secondo questo 3d e da quanto io ho capito...con un "infimo" Q6600 a 2,4ghz con la mia 8800gtx sono cpu limited?
Anche giocando a 1680x1050?
__________________
Asus P5Q Deluxe - Q6600 G0 3,6ghz OCZ Freze Zalman 9700 - 8gb TG Xtreem - HD4870 SD 1Gb - Enermax Galaxy 850W - 3.35Tb storage
CERCO ALIMENTATORE 700/800w DI MARCA SPEDITO O ZONA BG/MI |
|
|
|
|
|
#19 |
|
Senior Member
Iscritto dal: Aug 2007
Città: Roma
Messaggi: 8680
|
partendo dal fatto che un Athlon x2 3800+ è tutto meno che una cpu attuale....un cpu limited con i nuovi processori tipo E8xxx o Q6xxx o Q9xxx è veramente marginale e si manifesta principalmente a risoluzioni basse come 800x600....ma ci gioca ancora qualcuno a queste risoluzioni?
un Q6600 a 2.4ghz permette di giocare tutto e di sfruttare le schede in ambito GAME....ovvio che per quanto riguarda il 3Dmark l'aumento della frequenza porta a un'aumento del punteggio....ma ripeto è ovvio altrimenti non avrebbe alcun senso come test se a 2.4ghz o 4ghz i risultati fossero gli stessi. ma se in un gioco si ottengono gli stessi risultati tenendo la cpu a 2.4ghz o a 3.2ghz evidentemente qualcosa vorra dire no?
__________________
Case : CM690 II Advanced Nvidia Edition CPU : i7 950@4ghz Dissi : Noctua NH-U12P SE2 MOBO : Asus P6T Deluxe V2 RAM : Corsair Dominator 6gb DDr3 VGA : Gigabyte GTX 770 OC Version 4GB ALI : Enermax Infiniti 650Watt TV : Samsung UE40F8000SZ FullHD
|
|
|
|
|
|
#20 |
|
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9935
|
Questo thread è stato scritto un anno fa, come implicazioni è valido per il 3dmark2006. Se guardi il secondo link in firma ce ne è uno più aggiornato.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:47.















CPU : i7 950@4ghz Dissi : Noctua NH-U12P SE2 MOBO : Asus P6T Deluxe V2 RAM : Corsair Dominator 6gb DDr3 VGA : Gigabyte GTX 770 OC Version 4GB ALI : Enermax Infiniti 650Watt TV : Samsung UE40F8000SZ FullHD








