PDA

View Full Version : Prestazioni delle schede high-end, limiti delle CPU attuali.


blade9722
18-07-2007, 09:40
Buongiorno a tutti,

ho effettuato qualche prova con le mie 8800GTS 640MB, sia in configurazione single GPU, sia in SLI. In questo modo ho cercato di ricavare informazioni utili su tutte le schede video di fascia alta, e su quanto queste possano essere limitate dalle CPU odierne.

Il mio sistema è:

CPU: Athlon64 X2 3800+ AM2 @ 2700MHz
GPU: 2x8800 GTS 640 MB SLI @ 590/1350/998 MHz
RAM: 2x1GB DDR2

Innanzitutto anticipo che dai test sintetici (Fill-rate, vertex shaders, pixel shaders) le due schede il AFR SLI si comportano secondo le aspettative: un raddoppio secco delle prestazioni. I test nel 3dmark sono stati ripetuti 3 volte per assicurare la stabilità del risultato.

1) 3dmark2006: ricerca dei limiti della CPU

Per cercare i limiti dati dalla CPU ho eseguito i test a risoluzioni più basse fino a quando gli FPS non hanno smesso di aumentare. Il risultato finale, ottenuto in 800x600, è il seguente:

GT1 - Return To Proxycon 36,092 FPS
GT2 - Firefly Forest 37,297 FPS
HDR1 - Canyon Flight 80,030 FPS
HDR2 - Deep Freeze 46,788 FPS



2) 3dmark2006 default settings (1280x1024 no AA)

Single GPU:
3DMark Score 9218 3DMarks
SM2.0 Score 4277
HDR/SM3.0 Score 4275
CPU Score 2071
GT1 - Return To Proxycon 34,778 FPS
GT2 - Firefly Forest 36,501 FPS
CPU1 - Red Valley 0,653 FPS
CPU2 - Red Valley 1,051 FPS
HDR1 - Canyon Flight 39,770 FPS
HDR2 - Deep Freeze 45,735 FPS

SLI:
3DMark Score 10234 3DMarks
SM2.0 Score 4269
HDR/SM3.0 Score 6000
CPU Score 2065
GT1 - Return To Proxycon 34,572 FPS
GT2 - Firefly Forest 36,573 FPS
CPU1 - Red Valley 0,652 FPS
CPU2 - Red Valley 1,047 FPS
HDR1 - Canyon Flight 66,640 FPS
HDR2 - Deep Freeze 46,064 FPS



Appare evidente come, a parte la scena del Canyon (HDR1), con questi settaggi già una singola 8800GTS sia pesantemente limitata dalla CPU: i valori di 34.7 FPS (GT1), 36.5FPS (GT2), 46FPS (HDR2) sono quelli massimi dati dal limite della CPU

3) 3dmark 2006 1600x1200- AF 16x - AA 8x0

Single CPU:
3DMark Score 7220 3DMarks
SM2.0 Score 3354
HDR/SM3.0 Score 2859
CPU Score 2065
Game Score N/A
GT1 - Return To Proxycon 27,473 FPS
GT2 - Firefly Forest 28,427 FPS
CPU1 - Red Valley 0,652 FPS
CPU2 - Red Valley 1,047 FPS
HDR1 - Canyon Flight 26,870 FPS
HDR2 - Deep Freeze 30,301 FPS

SLI:
3DMark Score 9663 3DMarks
SM2.0 Score 4427
HDR/SM3.0 Score 4707
CPU Score 2065
Game Score N/A
GT1 - Return To Proxycon 36,155 FPS
GT2 - Firefly Forest 37,635 FPS
CPU1 - Red Valley 0,652 FPS
CPU2 - Red Valley 1,047 FPS
HDR1 - Canyon Flight 48,275 FPS
HDR2 - Deep Freeze 45,872 FPS


In questo caso la scheda singola non raggiunge i limiti della CPU, ed è correttamente sfruttata. Le due schede in SLI su tre scene su 4 invece sono tarpate dalla CPU. Si noti comi nella scena HDR1, l'unica che appare in grado di mettere alla frusta la GPU, le prestazioni in SLI si avvicinino di molto al raddoppio.

Conclusioni sul benchmark 3dmark2006

I risultati parlano chiaro: in 1280x1024 senza filtri una singola 8800GTS è limitata dalla CPU in tre scene. In 1600x1200 con i filtri attivati la singola scheda invece è ben sfruttata, mentre le due schede in SLI necessitano di un processore più potente. L'unica scena che sembra sfruttare le schede in tutte le situazioni è quella del dragone nel Canyon (HDR1)
____________________________________________________________________________________________________

Lost planet demo: DX9 e DX10

Il demo di Lost Planet recentemente è stato preson in esame da tutte le riviste in quanto permette un confronto diretto fra DX9 e DX10. Come conseguenza, le DX10 sono subito state messe sotto accusa: le prestazioni sembrano calare vertiginosamente senza nessun guadagno nella qualità del rendering.

Per questo motivo ho effettuato un confronto fra DX9 e DX10, oltre che fra single e multi GPU.

1280x960 16xAF 8xAA. Dettagli al massimo. Shadows quality: medium

Ho effettuato direttamente i test con i filtri in quanto senza superavo facilmente 100 FPS.

Single GPU

DX9: Snow 35 FPS Cave 45 FPS
DX10: Snow 31 FPS Cave 41 FPS

SLI AFR

DX9: Snow 65 FPS Cave 46 FPS
DX10: Snow 60 FPS Cave 42 FPS

La prima scena, Snow, sfrutta a dovere la scheda video (barre di carico sempre al massimo), ed in SLI si ha un raddoppio secco delle prestazioni. La seconda scena, Cave, è invece pesantemente CPU limited ed è inchiodata a 40-45 FPS in tutte le condizioni di test.

Confronto DX9-DX10: perlomeno con la 8800GTS, il calo di prestazioni è trascurabile. Per quanto riguarda la qualità video, dagli screenshots è difficle vedere qualche differenza. Dinamicamente si può notare come in DX10 i particle effects (la bufera di neve e le esplosioni) siano più convincenti e volumetrici, e il motion blur sia più accentuato. In definitiva: un leggero miglioramento della qualità di alcuni effetti con un leggero calo di prestazioni.

Ora attivo le shadows quality:high, possibile solo con DX10

In SLI ottengo:

Snow 29 FPS Cave 36 FPS.

La qualità massima delle ombre in DX10 dimezza le prestazioni!!!

Probabilmente è questo che causava il calo vertiginoso descritto dai vari articoli.

Conclusioni sui test di Lost Planet

Anche in questo caso si conferma la tendenza del 3dmark: una scena (snow) sfrutta appieno sia la scheda singola che in SLI, mentre l'altra (Cave) è limitata completamente dalla CPU.

Per quanto riguarda il confronto DX9-DX10, purchè si eviti di attivare la massima qualità delle ombre le DX10 offrono un paio di miglioramenti su alcuni effetti dinamici (particle e motion blur) al prezzo di un leggero calo di prestazioni.
________________________________________________________________________________________________________________
Ma i multi core servono?

Il motivo di tali deludenti risultati va ricercato nell'evoluzione delle CPU negli ultimi anni. Se prendete un Athlon XP 3000+ del 2003 a 1.8 GHz, confrontate i risultati di un benchmark sintetico con un Athlon64 X2 o un Core Duo, vi renderete conto come, una volta disattivato il multi-core e le istruzioni SSE nelle CPU recenti, a parità di condizioni non risulti così lento.

Esempio, usando RightMark CPULite su un Athlon XP 3000+, solo FPU e MMX

Frames processed: 300
Solver FPS: 41.5081
Prerenderer FPS: 98.1367
Renderer FPS: 4.8718
Overall FPS: 4.1746

Su un Core Duo 1.86 GHz, singolo thread, solo FPU e MMX

Frames processed: 300
Solver FPS: 30.0826
Prerenderer FPS: 99.2754
Renderer FPS: 6.2178
Overall FPS: 4.8985

A questo punto, se nel Core Duo il test viene effettuato in multi-thread e sfruttando SSE2/SSE3, la musica cambia:

Frames processed: 300
Solver FPS: 41.5602
Prerenderer FPS: 243.1008
Renderer FPS: 15.8507
Overall FPS: 10.9573

In sintesi, a causa della cronica difficoltà, negli ultimi anni, ad incrementare le frequenze di clock dei processori, AMD e Intel hanno seguito la strategia vincente delle GPU, cioè il parallelismo. Tuttavia una applicazione deve essere sviluppata in modo specifico per sfruttare più core. Con le applicazioni single thread, che sono purtoppo ancora la maggioranza, le CPU attuali non sono poi così più veloci rispetto a quelle del passato, e questa sembra essere la ragione principale dei limit evidenziati

Ritornando sui test effettuati in precedenza, ho notato che se un'applicazione non è veramente multi threaded, l'utilizzo della CPU si aggira intorno al 60% (50% per il rendering + 10% altri processi). Ora, il 3dmark2006 dimostra il tipico comportamento da single thread, con un carico sulla CPU intorno al 50-60%, e abbiamo visto quanto sia CPU limited. In Lost Planet è possibile attivare "concurrent rendering" e "concurrent operations", e l'occupazione della CPU risulta intorno al 90-95%. Ed infatti, almeno per quanto riguarda la scena SNOW, si ha un raddoppio secco delle prestazioni in SLI. Segno che le CPU odierne hanno cmunque un potenziale maggiore di quanto non venga attualmente sfruttato

IntoTrouble
20-07-2007, 20:47
Veramente interessante :)
E pensare che c'è gente che ancora afferma che il "CPU limited non esiste"

In pratica con un e6600 a default (che al cpu score fa circa 2000 punti) e una 8800gts si è cpu limited. Che bella cosa.

blade9722
20-07-2007, 21:20
Ho aggiornato la descrizione con i test sulla demo di lost planet

Mister Tarpone
20-07-2007, 21:30
l'ho sempre detto io... la sfumatura delle ombre in lost planet dimezza le prestazioni ;)

che driver usi su Vista??

blade9722
20-07-2007, 21:39
l'ho sempre detto io... la sfumatura delle ombre in lost planet dimezza le prestazioni ;)

che driver usi su Vista??

Gli ultimi beta per Vista x64. Molto instabili nel 2D, devi anche litigare per far partire la demo di CoJ alla risoluzione che vuoi te, ma quelli ufficiali non supportanto l'SLI in DX10.

Una volta che riesci a far partire il rendering 3d sono stabili.

Mister Tarpone
20-07-2007, 21:42
Gli ultimi beta per Vista x64. Molto instabili nel 2D, devi anche litigare per far partire la demo di CoJ alla risoluzione che vuoi te, ma quelli ufficiali non supportanto l'SLI in DX10.

Una volta che riesci a far partire il rendering 3d sono stabili.

ah bohh ;) io ho vista 32bit ...e il gioco mi gira meglio in dx10 che in dx9, a parità di dettagli. questo con i driver 163.11 beta ;)

Tidus.hw
20-07-2007, 22:08
davvero interessante :D

ma perche' hai una cpu del genere con quelle 2 schede video?

blade9722
20-07-2007, 22:22
davvero interessante :D

ma perche' hai una cpu del genere con quelle 2 schede video?


Perchè ai tempi il Core Duo costava molto di più (e non cambia la vita....), e ho la speranza di fare un upgrade con le CPU AM2+/AM3 retrocompatibili AM2.

E anche perchè non mi aspettavo che fosse così pesante:rolleyes:

C'è da dire che storicamente in 10 anni non ho mai speso più di 150€ / 300000 Lire per una CPU, confidando sempre sull'overclock, ma stavolta non è bastato.

Tidus.hw
20-07-2007, 22:47
Perchè ai tempi il Core Duo costava molto di più (e non cambia la vita....), e ho la speranza di fare un upgrade con le CPU AM2+/AM3 retrocompatibili AM2.

E anche perchè non mi aspettavo che fosse così pesante:rolleyes:

C'è da dire che storicamente in 10 anni non ho mai speso più di 150€ / 300000 Lire per una CPU, confidando sempre sull'overclock, ma stavolta non è bastato.

eh immagino, l'unico modo per sfruttare appieno 2 gts in sli e' avere un core 2 overclockato a dovere, qualsiasi cpu @def non basterebbe :D

blade9722
26-07-2007, 18:45
Ho aggiornato la descrizione con alcune valutazioni sulo multi-threading.

|ron
01-10-2007, 15:53
Ciao blade, continuando il discorso dal topic del k10, ora ho capito meglio :)
Io pensavo che tu avessi come minimo un C2D, è ovvio che un athlon64 x2 non ce la faccia a stare dietro a una 8800gts per di più la versione da 640mb...
Davo infatti per scontato che chiunque, per prendere una 8800gts (addirittura uno sli nel tuo caso) avesse un conroe o un quad per fare questi test.
Imho è sbagliato anche il titolo del thread... la tua cpu infatti non è più "attuale": da 1 anno e qualche mese a questa parte tutto ciò che non è intel, nei benchmark non è più attuale ;)
Col tuo sistema MAX si abbina una 7900 o una ati x1900, la serie 8 nvidia è decisamente fuori luogo a meno che, come hai rilevato tu stesso, la si usi con risoluzioni e filtraggi altissimi! ;)

Athlon 64 3000+
01-10-2007, 16:37
può darsi che anche un futuro Phenom x2 sia un ottimo processore per le varie hd 2900 e 8800.

|ron
01-10-2007, 16:38
può darsi che anche un futuro Phenom x2 sia un ottimo processore per le varie hd 2900 e 8800.

Questo penso proprio di sì, infatti non penso che andrà meno di un conroe... e se appunto andasse come un conroe già sarebbe un signor procio anche se mi aspetto di meglio da amd:p

blade9722
01-10-2007, 16:59
Ciao blade, continuando il discorso dal topic del k10, ora ho capito meglio :)
Io pensavo che tu avessi come minimo un C2D, è ovvio che un athlon64 x2 non ce la faccia a stare dietro a una 8800gts per di più la versione da 640mb...
Davo infatti per scontato che chiunque, per prendere una 8800gts (addirittura uno sli nel tuo caso) avesse un conroe o un quad per fare questi test.
Imho è sbagliato anche il titolo del thread... la tua cpu infatti non è più "attuale": da 1 anno e qualche mese a questa parte tutto ciò che non è intel, nei benchmark non è più attuale ;)
Col tuo sistema MAX si abbina una 7900 o una ati x1900, la serie 8 nvidia è decisamente fuori luogo a meno che, come hai rilevato tu stesso, la si usi con risoluzioni e filtraggi altissimi! ;)

C'é anche con il Core Duo, anche se in misura inferiore. Il problema principale é che ad oggi pochi giochi sono multi-threading.

Poi il 3dmark2006 enfatizza il fenomeno, ma é indicativo di ció che succede in alcuni scenari.

|ron
01-10-2007, 17:24
C'é anche con il Core Duo, anche se in misura inferiore. Il problema principale é che ad oggi pochi giochi sono multi-threading.

Poi il 3dmark2006 enfatizza il fenomeno, ma é indicativo di ció che succede in alcuni scenari.

Certo, riguardo alle tue considerazioni e i dati raccolti nulla da dire, anzi complimenti :)
Cmq ricordo che anche le 7900/x1900 all'epoca erano cpu limited nei vari bench... arrivarono allora 1 anno fa i c2d e finalmente le vga esprimevano il loro potenziale.
Verso novembre 2006 uscirono le nvidia 8xxx e allora si fu nuovamente daccapo: vga che ruzza più del processore, il quale fatica a starle dietro, se non clockato@dyce o ln2 :D

|ron
01-10-2007, 23:42
Riporto qui il post di dj sul topic del k10 che altrimenti sporcheremo ;)
Nel 3Dmark06 anche le schede video attuali possono essere limitate....
Es:
8800Ultra e Q6600.

1)Q6600@4032Ghz e 8800Ultra 665/1200Mhz!-----15.416

http://img112.imageshack.us/img112/9202/42968408gt8.th.jpg (http://img112.imageshack.us/my.php?image=42968408gt8.jpg)

Processore: 6322Punti.

2)Q6600@4050Ghz e 8800Ultra 665/1200Mhz!-----15.510

http://img222.imageshack.us/img222/6587/78116290ca4.th.jpg (http://img222.imageshack.us/my.php?image=78116290ca4.jpg)

Processore: 6387Punti.

3)Q6600@4104Ghz e 8800Ultra 665/1200Mhz!-----15.579

http://img222.imageshack.us/img222/7838/98709347wn0.th.jpg (http://img222.imageshack.us/my.php?image=98709347wn0.jpg)

Processore: 6545Punti.

Spero di aver chiarito!:)
Ciao;)

Dunque, a me pare che qui non ci sia niente di limited nella cpu, semplicemente l'unico punteggio che aumenta in modo apprezzabile tra i 3 screens è quello della cpu, perchè è l'unica che viene clockata sempre più.
La vga, sui test grafici, da praticamente sempre gli stessi punteggi se non impercettibilmente più alti dato che cmq la cpu è stata occata e pochissimo ma si sente.
Per vedere una vga veramente limited bisogna guardare ai test di blade, in cui i risultati cambiano un casino ;)

pierluigi86
06-11-2007, 09:36
secondo voi con il mio athlon64 3200+ e con una 8800gt sarei cpu limited a 18680x1050 e con filtri attivi?

albeganasa
21-05-2008, 18:29
Secondo questo 3d e da quanto io ho capito...con un "infimo" Q6600 a 2,4ghz con la mia 8800gtx sono cpu limited?
Anche giocando a 1680x1050?

robertino75
21-05-2008, 18:42
partendo dal fatto che un Athlon x2 3800+ è tutto meno che una cpu attuale....un cpu limited con i nuovi processori tipo E8xxx o Q6xxx o Q9xxx è veramente marginale e si manifesta principalmente a risoluzioni basse come 800x600....ma ci gioca ancora qualcuno a queste risoluzioni?
un Q6600 a 2.4ghz permette di giocare tutto e di sfruttare le schede in ambito GAME....ovvio che per quanto riguarda il 3Dmark l'aumento della frequenza porta a un'aumento del punteggio....ma ripeto è ovvio altrimenti non avrebbe alcun senso come test se a 2.4ghz o 4ghz i risultati fossero gli stessi.
ma se in un gioco si ottengono gli stessi risultati tenendo la cpu a 2.4ghz o a 3.2ghz evidentemente qualcosa vorra dire no?

blade9722
21-05-2008, 20:08
Secondo questo 3d e da quanto io ho capito...con un "infimo" Q6600 a 2,4ghz con la mia 8800gtx sono cpu limited?
Anche giocando a 1680x1050?

Questo thread è stato scritto un anno fa, come implicazioni è valido per il 3dmark2006. Se guardi il secondo link in firma ce ne è uno più aggiornato.

blade9722
21-05-2008, 20:17
partendo dal fatto che un Athlon x2 3800+ è tutto meno che una cpu attuale....un cpu limited con i nuovi processori tipo E8xxx o Q6xxx o Q9xxx è veramente marginale e si manifesta principalmente a risoluzioni basse come 800x600....ma ci gioca ancora qualcuno a queste risoluzioni?
un Q6600 a 2.4ghz permette di giocare tutto e di sfruttare le schede in ambito GAME....ovvio che per quanto riguarda il 3Dmark l'aumento della frequenza porta a un'aumento del punteggio....ma ripeto è ovvio altrimenti non avrebbe alcun senso come test se a 2.4ghz o 4ghz i risultati fossero gli stessi.
ma se in un gioco si ottengono gli stessi risultati tenendo la cpu a 2.4ghz o a 3.2ghz evidentemente qualcosa vorra dire no?

Partendo dal fatto che il thread è stato scritto un anno fa (18-07-2007), e allora un X2 3800+ era una CPU attuale......
Aggiungendo il fatto che la CPU è stata overcloccata a 2700MHz, con prestazioni simili ad un 5200+, che ai tempi era una CPU di fascia medio-alta....
Aggiungendo il fatto che il test a bassa risoluzione è stato effettuato, come chiaramente indicato, per trovare il limite della CPU, da confrontare con il valore di esercizio a 1280x1024....

Mi chiedo se prima di muovere le tue obiezioni ti sia preso la briga di leggere con attenzione il contenuto del post.

robertino75
21-05-2008, 20:23
Partendo dal fatto che il thread è stato scritto un anno fa (18-07-2007), e allora un X2 3800+ era una CPU attuale......
Aggiungendo il fatto che la CPU è stata overcloccata a 2700MHz, con prestazioni simili ad un 5200+, che ai tempi era una CPU di fascia medio-alta....
Aggiungendo il fatto che il test a bassa risoluzione è stato effettuato, come chiaramente indicato, per trovare il limite della CPU, da confrontare con il valore di esercizio a 1280x1024....

Mi chiedo se prima di muovere le tue obiezioni ti sia preso la briga di leggere con attenzione il contenuto del post.
io ho letto il contenuto del post...tu hai letto il mio?pare di no....cos'è che ti ha "colpito" personalmente?
ho fatto presente che il cpu limited si ha usando risoluzioni molto basse...forse a 1024x768 con processori "vecchi" si sente ancora....ma con i nuovi processori come quelli che ho menzionato non ha senso parlare di cpu limited IMHO.
cmq non avevo fatto caso alla data del topic....

blade9722
21-05-2008, 21:25
io ho letto il contenuto del post...tu hai letto il mio?pare di no....cos'è che ti ha "colpito" personalmente?
ho fatto presente che il cpu limited si ha usando risoluzioni molto basse...forse a 1024x768 con processori "vecchi" si sente ancora....ma con i nuovi processori come quelli che ho menzionato non ha senso parlare di cpu limited IMHO.
cmq non avevo fatto caso alla data del topic....

Se guardi il secondo thread in firma ti accorgerai che non è così.....

robertino75
21-05-2008, 21:33
Se guardi il secondo thread in firma ti accorgerai che non è così.....

cosa non è cosi?

albeganasa
21-05-2008, 21:49
CONSIGLIO VIVAMENTE A TUTTI DI VISITARE QUESTO 3D (http://www.hwupgrade.it/forum/showthread.php?t=1668487) CHE VALUTA LE PRESTAZIONI DELE NUOVE SCHEDE/PROCESSORI PER EVITARE DI FLAMMARE QUESTO!
GRAZIE

blade9722
21-05-2008, 22:09
cosa non è cosi?

Il fatto che un Q6600 a 2.4 GHz permetta di giocare a qualsiasi game e di sfruttare pienamente le attuali schede video..... A cominciare dal fatto che in uno scenario tipico due o tre dei quattro core sono poco più di una presenza ornamentale. Se ti prendi la briga di spendere un po' di tempo a leggere il thread troverai molto materiale (frutto di mesi di test) a riguardo.

P.S. è lo stesso thread che consiglia Albengasa.

robertino75
21-05-2008, 22:16
Il fatto che un Q6600 a 2.4 GHz permetta di giocare a qualsiasi game e di sfruttare pienamente le attuali schede video..... A cominciare dal fatto che in uno scenario tipico due o tre dei quattro core sono poco più di una presenza ornamentale. Se ti prendi la briga di spendere un po' di tempo a leggere il thread troverai molto materiale (frutto di mesi di test) a riguardo.

P.S. è lo stesso thread che consiglia Albengasa.

ma io non sto dicendo che il quad sia sfruttato....sto dicendo un'altra cosa...anchio ho fatto dei test e in molti giochi tenere un quad a 2.4ghz o a 3.2ghz con i giochi dà gli stessi risultati in termini di FPS...o con differenze cosi marginali da non essere considerate.
quindi nei giochi con un quad a 2.4ghz non si è limitati dalla CPU...era questo quello che volevo dire.
EDIT : mi scuso se prima posso essere sembrato strafottente...non era mia intenzione.

Mister Tarpone
21-05-2008, 22:20
Il fatto che un Q6600 a 2.4 GHz permetta di giocare a qualsiasi game e di sfruttare pienamente le attuali schede video..... A cominciare dal fatto che in uno scenario tipico due o tre dei quattro core sono poco più di una presenza ornamentale. Se ti prendi la briga di spendere un po' di tempo a leggere il thread troverai molto materiale (frutto di mesi di test) a riguardo.

P.S. è lo stesso thread che consiglia Albengasa.

Blade, ma quindi non esiste manco un gioco che sfrutta il quad core? attualmente nei games una cpu così è proprio inutile??

robertino75
21-05-2008, 22:23
per quanto ne sò io che sfruttano un pò il quad core c'è Supreme Commander e la scene cave di lost planet.....poi mi sà che per ora non ce ne sono altri....mi sà che il prossimo sarà Alan Wake.

blade9722
21-05-2008, 22:29
ma io non sto dicendo che il quad sia sfruttato....sto dicendo un'altra cosa...anchio ho fatto dei test e in molti giochi tenere un quad a 2.4ghz o a 3.2ghz con i giochi dà gli stessi risultati in termini di FPS...o con differenze cosi marginali da non essere considerate.
quindi nei giochi con un quad a 2.4ghz non si è limitati dalla CPU...era questo quello che volevo dire.
EDIT : mi scuso se prima posso essere sembrato strafottente...non era mia intenzione.


OK....

Però potresti dedicare quella mezzoretta di tempo a leggerti il thread, invece di continuare a sollevare obiezioni in maniera proattiva?

blade9722
21-05-2008, 22:37
Blade, ma quindi non esiste manco un gioco che sfrutta il quad core? attualmente nei games una cpu così è proprio inutile??

La migliore implementazione multi-threaded che ho trovato è quella di Lost Planet. Con la demo di UT3 non riesco ad ottenere risultati affidabili, comunque il frame rate è altissimo.

Bioshock, basato anch'esso sull' Unreal Engine 3, sembra sfruttare bene il dual core, ma non c'è un bench integrato.

Crysis ha quel comportamento descritto nel thread, per cui l'efficienza multi-core è buona solo se ti metti a distruggere tutto con il lanciarazzi....

F.E.A.R. ha quello strano comportamento per cui è multi-thread in Vista ma non in XP.

Oblivion e S.T.A.L.K.E.R. sono mestamente single thread, e il tuo mod di TESIV preferito, "Almost always visible when distant" l'unica CPU utilizzata la assassina.

.....Per altri giochi.... bisogna trovare il tempo per eseguire i test

robertino75
21-05-2008, 22:47
OK....

Però potresti dedicare quella mezzoretta di tempo a leggerti il thread, invece di continuare a sollevare obiezioni in maniera proattiva?

sto semplicemente dicendo la mia che è basata sulle prove che io ho fatto...qual'è il problema?io non sollevo obiezioni esprimo il mio punto di vista....non ci vedo niente di male....e cmq già conoscevo il tuo topic....