Entra

View Full Version : Che valore ha il processore nei videogames?


gtx90
20-05-2007, 12:49
Non ho mai capito quanto conta il processore nei giochi ad esempio, se io ora con fear faccio 30 fps con la x1600pro e athlon 64 3200+ con la stessa configurazione ma mettendo un 3800+ dual core gli fps aumentano oppure no? ultimamente ho provato lost planet e sui minimi ci vuole un dual core, forse è per questo che mi scatta. :confused:

demonbl@ck
20-05-2007, 12:52
da un E4300 a un X6800 @ 3.2 Ghz c'è una differenza di una manciata di fps... fai tu le debite proporzioni:eek:

dvdknight
20-05-2007, 12:55
Non ho mai capito quanto conta il processore nei giochi ad esempio, se io ora con fear faccio 30 fps con la x1600pro e athlon 64 3200+ con la stessa configurazione ma mettendo un 3800+ dual core gli fps aumentano oppure no? ultimamente ho provato lost planet e sui minimi ci vuole un dual core, forse è per questo che mi scatta. :confused:


Gli FPS aumentano, ma non di molto. La differenza sostanziale la senti solamente con le schede video di fascia alta, perchè in quel caso la CPU costituisce un limite.

Nei tuo caso aumenteresti max di 10 - 15 fps nelle risoluzioni più basse (tipo 800x600), mentre al salire delle risoluzioni gli effetti si attenuerebbero, perchè a quel punto è la scheda video che va al limite!

sv4
20-05-2007, 12:59
il collo di bottiglia con il procio lo si ha solo a risoluzioni basse

comunque, il passaggio al dual ti converrebbe non solo in ambito gaming, stai su socket 939?

gtx90
20-05-2007, 13:00
Gli FPS aumentano, ma non di molto. La differenza sostanziale la senti solamente con le schede video di fascia alta, perchè in quel caso la CPU costituisce un limite.

Nei tuo caso aumenteresti max di 10 - 15 fps nelle risoluzioni più basse (tipo 800x600), mentre al salire delle risoluzioni gli effetti si attenuerebbero, perchè a quel punto è la scheda video che va al limite!
Ok, ma il 3800x2 ha due core da 2000mhz giusto?
@sv4: no ho cambiato anche scheda madre con una am2 domani dovrei assemblarlo.

dvdknight
20-05-2007, 13:19
Ok, ma il 3800x2 ha due core da 2000mhz giusto?
@sv4: no ho cambiato anche scheda madre con una am2 domani dovrei assemblarlo.

Si è un 2 GHz:

http://www.amdcompare.com/us-en/desktop/details.aspx?opn=ADO3800IAA5CZ

gtx90
20-05-2007, 13:55
Secondo voi faccio una cavolata se compro anche una 8600gts?

sv4
20-05-2007, 14:01
dipende da quanto la paghi

×§ñåkê×
20-05-2007, 14:03
Secondo voi faccio una cavolata se compro anche una 8600gts?

si... ti dovresti buttare su una 8800 gts da 320 mb , è la fascia alta di nvidia, la trovi per 250€

gtx90
20-05-2007, 14:10
si... ti dovresti buttare su una 8800 gts da 320 mb , è la fascia alta di nvidia, la trovi per 250€

Eh lo so ma non ho questa disponibilità e mi accontento di giocare a 30fps non mi serve una scheda video che mi faccia fare 50-60fps, cmq la pago 170euro.

sv4
20-05-2007, 14:59
magari se puoi aspetta un po'

comunque 170€ mi sembra un prezzo abbastanza onesto

gtx90
20-05-2007, 15:01
Nessuno sa quanto verrà una HD x2600pro? xD

×§ñåkê×
20-05-2007, 15:06
Nessuno sa quanto verrà una HD x2600pro? xD

199$ mi pare quindi sui 200€

dvdknight
20-05-2007, 16:19
199$ mi pare quindi sui 200€


200 Dollari equivalgono a un po meno di 150 EURO.

beatl
20-05-2007, 16:35
Mi aggancio alla discussione per chiedere una cosa..

Secondo voi quando cominceranno ad ad uscire giochi che sfrutteranno i processori Multi-core? ho sentito che Alan Wake, ma anche HL2 episode2 e Bioshock riusciranno a "splittare" differenti parti di codice su più thread..
in questo caso un quad-core dovrebbe fare una bella differenza

gtx90
20-05-2007, 16:48
Mi aggancio alla discussione per chiedere una cosa..

Secondo voi quando cominceranno ad ad uscire giochi che sfrutteranno i processori Multi-core? ho sentito che Alan Wake, ma anche HL2 episode2 e Bioshock riusciranno a "splittare" differenti parti di codice su più thread..
in questo caso un quad-core dovrebbe fare una bella differenza
Veramente già ci sono, uno degli ultimi è lost planet.

beatl
20-05-2007, 16:55
Veramente già ci sono, uno degli ultimi è lost planet.

Ah.. ok..scusate.. non sono aggiornatissimo :stordita:
alloa un multi-core (dual o quad, forse meglio quad a questo punto, anche alla luce dei prossimi tagli di prezzi di Intel) potrebbe essere la scelta più azzeccata

Intendo dire che se un dual core cloccato a 3Ghz ora va di piu di un quad-core a 2,6 Ghz, quando un programma sfrutta tutti i 4 core le situazioni divrebbero invertirsi..

è cosi? :confused:

albortola
20-05-2007, 18:39
200 Dollari equivalgono a un po meno di 150 EURO.
in questo campo no.

albortola
20-05-2007, 18:40
Eh lo so ma non ho questa disponibilità e mi accontento di giocare a 30fps non mi serve una scheda video che mi faccia fare 50-60fps, cmq la pago 170euro.

a 30 fps i giochi scattano.

dvdknight
20-05-2007, 18:42
in questo campo no.

E perchè???

albortola
20-05-2007, 18:50
E perchè???

se in amierica qualcosa costa 300dollari, anche quà viene 300euro.
quando però il dollaro era + potente dell'euro non era così.:rolleyes:

Brutale910
20-05-2007, 19:04
a 30 fps i giochi scattano.

è vero, e poi se fai 30 fps a tipo 1024x768 non è come farli con una 8800 gts 320 a 1600x1200 con tt i filtri attivati, e con una 8600 gts nn celi fai..............

Ezechiele25,17
20-05-2007, 21:52
Una buona cpu ci vuole se metti una scheda video potente nel pc. Per il semplice fatto che una cpu "scarsetta" non consente alla vga di sfogarsi e di mettere "a terra" la propria potenza.

Tanto per dirti, passando da un Athlon 3.2 a un conroe e6600, la mia X1900XT ha cominciato ad offrire prestazioni nettamente superiori: ho guadagnato almeno 10 frames ad ogni gioco, senza contare che ora metto tutto al massimo e prima stavo attendo a smorzare qualcosa. Chiaramente il merito non è solo della cpu ma della scheda video che può lavorare senza problemi avendo una cpu che non gli impone "limiti".

vicomte
21-05-2007, 11:08
Intendo dire che se un dual core cloccato a 3Ghz ora va di piu di un quad-core a 2,6 Ghz, quando un programma sfrutta tutti i 4 core le situazioni divrebbero invertirsi..



Ma guarda che il quad non e' incloccabile :D

a 3 ghz porti anche quello.

Cmq si in teoria dovrebbe essere come dici...

Pero' (non c'entra molto ma faccio una considerazione personale...e non e' un NONDUM MATURA EST visto che ho comprato il q6600 una settimana fa)..
Se hai gia un procesore buono e funzionante non passerei mai a quad ora. Aspetterei tutta la vita i 1300...peryn.

beatl
21-05-2007, 13:14
beh certo un po' di overclock anche il mio quad-core se lo merita :)

ma il mio era un discorso di "peincipio"

Avevo un po id liquidità e sono passato alla mia attuale config. da un AMD64 3200+

rondinix
21-05-2007, 14:33
1. il guadagno passando da una CPU 3200+ a 3800+ con VGA identica è di 1,7 fps

2. il guadagno passando a un X2 4800+ dall 3800 con stessa VGA è di 7 fps

3. il guadagno passando dall X2 ad un E6600 è di 3,9 fps....

4. i test sono personali

5. i giochi a 30fps non scattano a meno che al posto delle pupille abbiate telecamere ad alta velocità

Murphy
21-05-2007, 14:45
a 30 fps i giochi scattano.

se fossero sempre costanti in ogni occasione i giochi andrebbero lisci!:D

Cmq ho giocato a indiana Jones( un vecchio action) e i frame erano limitati a 30! Potere della console!:rolleyes:

mazzoni.federic
21-05-2007, 15:29
ma aparita di scheda video (8800 GTX) pasare da un E4300 a un E6600 cambia qualcosa nei giochi?

Murphy
21-05-2007, 15:33
ma aparita di scheda video (8800 GTX) pasare da un E4300 a un E6600 cambia qualcosa nei giochi?

se lo lasci a default qualcosina in termini di frame, se lo porti a 2400mhz , sono uguali!

Brutale910
21-05-2007, 16:17
1. il guadagno passando da una CPU 3200+ a 3800+ con VGA identica è di 1,7 fps

2. il guadagno passando a un X2 4800+ dall 3800 con stessa VGA è di 7 fps

3. il guadagno passando dall X2 ad un E6600 è di 3,9 fps....

4. i test sono personali

5. i giochi a 30fps non scattano a meno che al posto delle pupille abbiate telecamere ad alta velocità

si intende 30 fps medi, quindi con picchi alti e bassi

Brutale910
21-05-2007, 16:18
se lo lasci a default qualcosina in termini di frame, se lo porti a 2400mhz , sono uguali!

un po più di qualcosina

Murphy
21-05-2007, 16:23
un po più di qualcosina

dipende dal gioco: in giochi come farcry molto dipende dalla cpu, il distacco e maggiore, in giochi come fear e nuovi è qualcosina!:)

E poi chi comprerebbe un E4300 per tenerlo a default?:D

IntoTrouble
21-05-2007, 17:38
1. il guadagno passando da una CPU 3200+ a 3800+ con VGA identica è di 1,7 fps

2. il guadagno passando a un X2 4800+ dall 3800 con stessa VGA è di 7 fps

3. il guadagno passando dall X2 ad un E6600 è di 3,9 fps....

4. i test sono personali

5. i giochi a 30fps non scattano a meno che al posto delle pupille abbiate telecamere ad alta velocità

Quotone.

Un upgrade di procio è sensato solo se quello che si ha non ci permette di sfruttare la vga. Ovviamente, se un gioco supporta i dual core e tu giochi con un single, vabè, ovvio che cambia molto. Passando da un P4 a 4Ghz a questo conroe, a STALKER avrò guadagnato, senza esagerare, 20-25 fps. Negli altri giochi invece siamo sui 10 fps (poichè CPU limited), ma si parla di un passaggio da un P4 ad un conroe... altro pianeta...

Cmq con un 4300 a default ed una 8800gtx saresti cpu limited

Superpelo
21-05-2007, 17:47
La differenza la fa soprttuttto l'architettura, non si puo' dire che non conti nulla il procio, ma prendendo esempio l'ultima generazione di proci, i core2duo, per un gamer il 4300, ovvero il piu' basso della sua categoria è gia sprecato. Io credo che chi prende adesso un core2duo e4300 o 6300 lo overclokka e lo porta a 2.4ghz(niente di che insomma) cambierà almeno un paio di schede video prima di cambiare il procio.

Superpelo
21-05-2007, 17:49
Quotone.


Cmq con un 4300 a default ed una 8800gtx saresti cpu limited


la barzelletta del secolo

IntoTrouble
21-05-2007, 17:54
la barzelletta del secolo

...che stai per raccontarci

Murphy
21-05-2007, 17:56
http://www.hwupgrade.it/articoli/cpu/1662/roundup-tra-processori-febbraio-2007_8.html


non è la 8800 ma si vede la dipendenza dalla cpu!


e poi con una 8800 si gioca minimo a 1280 o superiore , quindi la differenza di procio si sente meno!

Murphy
21-05-2007, 17:57
scusate doppio post

Brutale910
21-05-2007, 22:41
la barzelletta del secolo

nn è una barzelletta

@mattste
21-05-2007, 22:48
http://www.hwupgrade.it/articoli/cpu/1662/roundup-tra-processori-febbraio-2007_8.html


non è la 8800 ma si vede la dipendenza dalla cpu!


e poi con una 8800 si gioca minimo a 1280 o superiore , quindi la differenza di procio si sente meno!

cambia 1 fps a 1600......in parole povere nn cambia niente!!!

Superpelo
21-05-2007, 23:14
http://www.guru3d.com/article/Videocards/391/23/

8800gtc con core2duo dal 6300 al x6800@ 3.4ghz

mamma mia com'è cpulimited...:mc:

Murphy
22-05-2007, 00:26
cambia 1 fps a 1600......in parole povere nn cambia niente!!!

Infatti quello che pensavo io!;)

Brutale910
22-05-2007, 06:38
Con i filtri a 1280x1024 già si vedono le differenze, nn eccessive, ma ci sono

IntoTrouble
22-05-2007, 15:34
http://www.guru3d.com/article/Videocards/391/23/

8800gtc con core2duo dal 6300 al x6800@ 3.4ghz

mamma mia com'è cpulimited...:mc:

Se tu leggessi invece di guardare le immagini;

"Before we begin, I mislabeled the E6400 falsely in the charts, it's says E6300 it obviously should be E6400.

So above we have the GTS at work."

Quindi per prima cosa quello non è un e6300 ma un e6400. E c'è differenza. Secondo, i grafici dove si nota solo un leggera limitazione da cpu riguardano una 8800GTS.

Terzo, mi pare che in tutti gli altri grafici siano MOLTO cpu limited.

Quarto, la conclusione dell'articolo parla chiaro;

"The last result I wanted to show you today was on the GeForce 8800 GTX. Again we have the XGURU processor and look at 10x7, wow that's a 55 FPS differential. So to the question is the GeForce 8800 series CPU bound ? Yes, it most certainly is."

:mc: :mc:

Murphy
22-05-2007, 17:48
Se tu leggessi invece di guardare le immagini;

"Before we begin, I mislabeled the E6400 falsely in the charts, it's says E6300 it obviously should be E6400.

So above we have the GTS at work."

Quindi per prima cosa quello non è un e6300 ma un e6400. E c'è differenza. Secondo, i grafici dove si nota solo un leggera limitazione da cpu riguardano una 8800GTS.

Terzo, mi pare che in tutti gli altri grafici siano MOLTO cpu limited.

Quarto, la conclusione dell'articolo parla chiaro;

"The last result I wanted to show you today was on the GeForce 8800 GTX. Again we have the XGURU processor and look at 10x7, wow that's a 55 FPS differential. So to the question is the GeForce 8800 series CPU bound ? Yes, it most certainly is."

:mc: :mc:

si ma è riferito ad un gioco come farcry molto dipendete dalla cpu e a 1024*768! salendo con la risoluzione(i possessori di GTX non penso giochino a risoluzioni minori di 1280) e con i nuovi game la cpu non fa molto da tappo!IMHO

Superpelo
22-05-2007, 23:10
Se tu leggessi invece di guardare le immagini;

"Before we begin, I mislabeled the E6400 falsely in the charts, it's says E6300 it obviously should be E6400.

So above we have the GTS at work."

Quindi per prima cosa quello non è un e6300 ma un e6400. E c'è differenza. Secondo, i grafici dove si nota solo un leggera limitazione da cpu riguardano una 8800GTS.

Terzo, mi pare che in tutti gli altri grafici siano MOLTO cpu limited.

Quarto, la conclusione dell'articolo parla chiaro;

"The last result I wanted to show you today was on the GeForce 8800 GTX. Again we have the XGURU processor and look at 10x7, wow that's a 55 FPS differential. So to the question is the GeForce 8800 series CPU bound ? Yes, it most certainly is."

:mc: :mc:


Ma se in 1600*1200 non fa mezzo frame in piu'' in nessun gioco
Ma uno cosa compra il 6800@3ghz e la 8800gtx per giocare a farcry a 1024*768 a 200fps di media(contro i 140 del 6400, direi scattoso), o per giocarci (come minimo) in 1600*1200, dove il 6400 fa lo stesso identico numero di fps in qualsiasi gioco.
Poi con i giochi di adesso in dx10 come call of juarez in cui la 8800gtx fa 24fps in 1024 sai che gran problema la cpu..., il problema è che ste schede in dx10 fanno pena, c'è poco da dire
Ciao