View Full Version : 8800 GTX CPU limited con opteron?
Salve,
sto pensando di cambiare scheda video e pensavo ad una 8800 GTX che sostituirà la mia x800 gto2@x850xt pe (sigh).
La mia preoccupazione è che avendo un opteron 165 (tirato a 335x9), non riuscirò a sfruttare la nuova scheda video.
La mia domanda è: quanto riesco a sfruttare in percentuale (grossomodo) la scheda video abbinata alla cpu che ho?
Ho da poco preso sto opteron e non ho nessuna intenzione di passare ad intel, quindi se riuscirò a sfruttare la 8800 al 80%-85% allora ok, altrimenti se sono così tanto cpu limited da non poterla sfruttare più del 50% allora direi che non ne valga la pena cambiare scheda...
8800 GTX CPU limited con opteron?
no
damolition
15-07-2007, 19:28
Con il procio a default lo sarebbe??
Il Creativo
15-07-2007, 19:34
Con il procio a default lo sarebbe??
Per quel che ho visto io, col mio Opty 170 a default(2 Ghz) non è solo un pochino cpu limited ma direi anche troppo secondo i miei gusti, purtroppo questa scheda vuole frequenze alte, ma se hai portato il procio a quelle freq vai tranquillo, io l'ho presa a novembre e non ho ancora trovato nulla che la metta in ginocchio, il 90% delle volte gioco con AA 16X AF 16X!
Salve,
sto pensando di cambiare scheda video e pensavo ad una 8800 GTX che sostituirà la mia x800 gto2@x850xt pe (sigh).
La mia preoccupazione è che avendo un opteron 165 (tirato a 335x9), non riuscirò a sfruttare la nuova scheda video.
La mia domanda è: quanto riesco a sfruttare in percentuale (grossomodo) la scheda video abbinata alla cpu che ho?
Ho da poco preso sto opteron e non ho nessuna intenzione di passare ad intel, quindi se riuscirò a sfruttare la 8800 al 80%-85% allora ok, altrimenti se sono così tanto cpu limited da non poterla sfruttare più del 50% allora direi che non ne valga la pena cambiare scheda...
non è di certo un core 2 duo ma giocando a risoluzioni alte tutto a palla (non dovrebbe essere un problema con quella scheda :p ) direi che puoi tranquillamente evitare di preoccuparti
non è di certo un core 2 duo
è grosso modo l'equivalente di un E6600, quindi ha poco da invidiare anche ai core2duo
Ok, ottimo! Se alla fine non perdo tantissimo proseguo con i miei preventivi della gtx :D
Dai vari test che avevo fatto l'opterino che ho è effettivamente abbastanza simile ad un e6600 a default.
Grazie per le risposte ;)
è grosso modo l'equivalente di un E6600, quindi ha poco da invidiare anche ai core2duo
si ma l'e6600 gli dai una spintarella e gli da la polvere, era questo che intendevo
si ma l'e6600 gli dai una spintarella e gli da la polvere, era questo che intendevo
ma per giocare è inutile overclockare un E6600, i risultati sono gli stessi con quella scheda video
sommojames
15-07-2007, 21:22
No non sei assolutamente CPU limited.
Kharonte85
15-07-2007, 21:46
Salve,
sto pensando di cambiare scheda video e pensavo ad una 8800 GTX che sostituirà la mia x800 gto2@x850xt pe (sigh).
La mia preoccupazione è che avendo un opteron 165 (tirato a 335x9), non riuscirò a sfruttare la nuova scheda video.
La mia domanda è: quanto riesco a sfruttare in percentuale (grossomodo) la scheda video abbinata alla cpu che ho?
Ho da poco preso sto opteron e non ho nessuna intenzione di passare ad intel, quindi se riuscirò a sfruttare la 8800 al 80%-85% allora ok, altrimenti se sono così tanto cpu limited da non poterla sfruttare più del 50% allora direi che non ne valga la pena cambiare scheda...
tranquillo non sei cpu limited ;)
blade9722
17-07-2007, 11:22
Salve,
sto pensando di cambiare scheda video e pensavo ad una 8800 GTX che sostituirà la mia x800 gto2@x850xt pe (sigh).
La mia preoccupazione è che avendo un opteron 165 (tirato a 335x9), non riuscirò a sfruttare la nuova scheda video.
La mia domanda è: quanto riesco a sfruttare in percentuale (grossomodo) la scheda video abbinata alla cpu che ho?
Ho da poco preso sto opteron e non ho nessuna intenzione di passare ad intel, quindi se riuscirò a sfruttare la 8800 al 80%-85% allora ok, altrimenti se sono così tanto cpu limited da non poterla sfruttare più del 50% allora direi che non ne valga la pena cambiare scheda...
Si, giá una 8800GTS é CPU limited in molti scenari.
Da piú di una prova pratica mi sono ritrovato un aumento percentuale di FPS uguale all'overclock della CPU (la mia é un Athlon X2, cambia poco), mentre l'overclock della GPU mi dava incrementi piú marginali.
Per inciso, tutti quelli che dicono "no", in base a che cosa lo dicono?
Per inciso, tutti quelli che dicono "no", in base a che cosa lo dicono?
in base a tutti i test fatti da questo sito...
Kharonte85
17-07-2007, 11:32
Si, giá una 8800GTS é CPU limited in molti scenari.
Da piú di una prova pratica mi sono ritrovato un aumento percentuale di FPS uguale all'overclock della CPU (la mia é un Athlon X2, cambia poco), mentre l'overclock della GPU mi dava incrementi piú marginali.
Per inciso, tutti quelli che dicono "no", in base a che cosa lo dicono?
Il cpu limited dovrebbe essere un termine usato per indicare solo quando il processore non è proprio in grado di sfruttare la scheda (cioè prendendo una scheda meno potente si avrebbe lo stesso risultato)...cosa falsa in questo caso...ovvio poi che una cpu piu' potente dia vantaggi (soprattutto a risoluzioni basse e senza filtri). ;)
Mmm, opinioni contrastanti...
Dati test che ho visto (su siti), l'accoppiata amd 6000+ con una gtx si hanno praticamente le stesse prestazioni dell'accoppiata e6600 con una gts.
Quando l'avrò sotto mano vedrò di far subito i vari 3dmark per vedere l'ordine di grandezza dei risultati. Mal che vada vedrò di sostituirla con una gts :mc:
Kharonte85
17-07-2007, 11:51
Mmm, opinioni contrastanti...
Dati test che ho visto (su siti), l'accoppiata amd 6000+ con una gtx si hanno praticamente le stesse prestazioni dell'accoppiata e6600 con una gts.
Quando l'avrò sotto mano vedrò di far subito i vari 3dmark per vedere l'ordine di grandezza dei risultati. Mal che vada vedrò di sostituirla con una gts :mc:
Vai sicuro che con la 8800gtx non ti pentirai ;)
blade9722
17-07-2007, 12:19
OK,
allora spiego come normalmente procedo io per fare la valutazione.
Scelgo uno scenario di test (purtroppo il risultato puó variare non solo a seconda dell'applicazione, ma anche a seconda della scena).
Effettuo un primo benchmark alle frequenze di default.
Dopodiché innalzo la frequenza della CPU di un fattore fisso (es: 10%), rilancio il benchmark e registro il risultato.
Riporto la frequenza della CPU al valore di default e innalzo tutti i clock della GPU dello stesso fattore. Confronto il risultato ottenuto con quello precedente.
Se é maggiore il risultato con l'innalzamento dei clock della GPU allora sono GPU limited, altrimenti sono CPU limited.
Ho anche definito un parametro di merito con cui stabilisco quanto sono CPU o GPU limited, ma si va un po' troppo sul matematico.
Se per "CPU limited" intendete che cambiando scheda non si vedono miglioramenti, allora sono d'accordo sul fatto che comunque la configurazione descritta non rientra in questa categoria, ma mi sembra un caso un po' troppo estremo.
Kharonte85
17-07-2007, 12:37
Ti sei dimenticato che dipende anche dalla risoluzione...quindi a 1600 + filtri attivi stai sicuro che lui sara' meno cpu limited ;)
Hetfield75
17-07-2007, 13:13
Ti sei dimenticato che dipende anche dalla risoluzione...quindi a 1600 + filtri attivi stai sicuro che lui sara' meno cpu limited ;)
Quoto....Ovviamente.
nirwester
17-07-2007, 13:20
Se fosse una 8800 ultra praticamente non esisterebbero ancora processori che a default non la limiterebbero nemmeno leggermente.
Secondo me sarà lievemente limitata ma non tanto da non poter ''esprimersi''.
blade9722
17-07-2007, 13:26
Ti sei dimenticato che dipende anche dalla risoluzione...quindi a 1600 + filtri attivi stai sicuro che lui sara' meno cpu limited ;)
In genere non vado oltre 1280x1024.
E come filtri utilizzo AF 16X, ma non sono troppo avvezzo ad usare l'AA, lo considero buono solo per gli screenshot, dinamicamente non rende molto.
Dimenticavo: io uso due vecchi ma ottimi 19" CRT, che mi tengo ben stretti, la resa degli LCD non mi piace per giochi.
Comunque in linea di principio la valutazione va fatta nelle condizioni di utilizzo proprie.
blade9722
17-07-2007, 13:28
In genere non vado oltre 1280x1024.
E come filtri utilizzo AF 16X, ma non sono troppo avvezzo ad usare l'AA, lo considero buono solo per gli screenshot, dinamicamente non rende molto.
Dimenticavo: io uso due vecchi ma ottimi 19" CRT, che mi tengo ben stretti, la resa degli LCD non mi piace per giochi.
Giusto per curiositá, nel 3dmark2006 quando ho aggiunto la seconda 8800GTS 640 MB in SLI sono passato da 39fps a 67fps nella scena del canyon (barre di carico SLI sempre a paletta), ma nelle altre tre scene ho guadagnato pochi FPS (barre di carico al minimo). Di fatto é stata confermata la tendenza evidenziata con le prove di frequenza.
EDIT: sto comiciando a pibblicare i dati:
http://www.hwupgrade.it/forum/showthread.php?t=1514992
Primi test di 3dmark 06 conclusi con cpu a 330x9 e vga default (gpu 600, ram 1900, è una xfx extreme) esito 10300 con 2300 punti sulla cpu, driver ultimi ngo v215822. Appena ho iniziato a far i test la vga quando entrava nel 3d sentivo che fischiettava :mbe: e mi stavo preoccupando... il dissi era ustionante, poi mi sono accorto che la ventola era ferma al 25% in auto e la gpu segnava 72°.
Ora la ventola è al 100% in modalità manuale e non fischia più (strana sta scheda), temperatura gpu 54°.
blade9722
18-07-2007, 16:37
Primi test di 3dmark 06 conclusi con cpu a 330x9 e vga default (gpu 600, ram 1900, è una xfx extreme) esito 10300 con 2300 punti sulla cpu, driver ultimi ngo v215822. Appena ho iniziato a far i test la vga quando entrava nel 3d sentivo che fischiettava :mbe: e mi stavo preoccupando... il dissi era ustionante, poi mi sono accorto che la ventola era ferma al 25% in auto e la gpu segnava 72°.
Ora la ventola è al 100% in modalità manuale e non fischia più (strana sta scheda), temperatura gpu 54°.
Potresti pubblicare i dettagli delle singole scene, in modo da confrontarli con i miei?
Si eccoti lo screen.
Vedi sia l'opterino a quanto sta e sia la gtx ch'è a default.
Per i fischietti devo preoccuparmi?
Non ditemi ch'è l'ali perchè non ci credo :D un galaxy 850 mi sembra anche stra sovradimensionato per il mio sistema.
http://img479.imageshack.us/img479/3658/3d06zq8.th.jpg (http://img479.imageshack.us/my.php?image=3d06zq8.jpg)
Per quel che ho visto io, col mio Opty 170 a default(2 Ghz) non è solo un pochino cpu limited ma direi anche troppo secondo i miei gusti, purtroppo questa scheda vuole frequenze alte, ma se hai portato il procio a quelle freq vai tranquillo, io l'ho presa a novembre e non ho ancora trovato nulla che la metta in ginocchio, il 90% delle volte gioco con AA 16X AF 16X!
be forse nei bench si, ma nei giochi forse lo vedi se setti la risoluzione a 3000x3000.
i bench sono fatti per sfruttare l'hardware in maniera maniacale quindi i colli di bottiglia li noti bene, nei giochi invece non sfruttano ancora (per fortuna) l'hardware in maniera maniacale.
blade9722
18-07-2007, 17:21
Si eccoti lo screen.
Vedi sia l'opterino a quanto sta e sia la gtx ch'è a default.
Per i fischietti devo preoccuparmi?
Non ditemi ch'è l'ali perchè non ci credo :D un galaxy 850 mi sembra anche stra sovradimensionato per il mio sistema.
http://img479.imageshack.us/img479/3658/3d06zq8.th.jpg (http://img479.imageshack.us/my.php?image=3d06zq8.jpg)
Il link allo screen é visibile solo se fai quote... strano.
http://img479.imageshack.us/my.php?image=3d06zq8.jpg
Ah, OK:
Ora non posso vederlo, sono in ufficio e il malefico filtro degli URL mi blocca imageshack.
Per il fischio, é difficile rispondere senza poterlo sentire, comunque confermo che il galaxy é stradimensionato.
tinniz977
18-07-2007, 19:09
Mi spiace perchè non ho risposte sicure ma solo una domanda raga:cool:
Maaa io che ho un 4200+ (225*11) con xfx 8800gts 640 vado cpu limited:confused:
mentre sono a colin dirty noto poca differenza dà risoluzione a risoluzione 1680*1050 o più basse,anche se la cpu non lavora fissa al 100%:mc:
cmq noto che overcloccando la cpu guadagno effettivamente più punti che lavorando sulla gpu al 3d mark 06 e più frame a colin ma poco poco poco:stordita:
(così come sono faccio 8300punti non sono tantissimi al 3d mark)
quanti dovrei farne?
cosa dite,sono li li:mbe:
mentre credo che per il 3d mark invece il punteggio cambi perchè si misura la cpu da sola e li le INTEL siano avanti...
maaa:confused: :confused: :help:
blade9722
18-07-2007, 20:12
Ragazzi, ho aggiornato il topic andando alla ricerca dei limiti della CPU:
http://www.hwupgrade.it/forum/showthread.php?t=1514992
3FTeam: i tuoi risultati nelle scene GT1,GT2 e HDR2 sono allineati ai miei, cioè limitati dalla CPU (i miei sono leggermente inferiori per via della minore frequenza del mio Athlon64):
abbiamo 3 diverse configurazioni:
8800 GTS singola
8800 GTX singola
2x8800 GTS SLI
che riportano esattamente le stesse prestazioni in tre scene su 4.
tinniz977
18-07-2007, 20:36
:confused: :confused:
ma...
all'ora sono basso a 8300punti a 1280*1024:confused:
ma una cosa che non ho mai capito su il 3dmark,ma la qualità dell'immagine via driver la impostate su velocita o qualita.
a8n32 sli/1gb*2 cas2.5/8800 xfx 640 mb:confused:
blade9722
18-07-2007, 20:49
:confused: :confused:
ma...
all'ora sono basso a 8300punti a 1280*1024:confused:
ma una cosa che non ho mai capito su il 3dmark,ma la qualità dell'immagine via driver la impostate su velocita o qualita.
a8n32 sli/1gb*2 cas2.5/8800 xfx 640 mb:confused:
No, il risultato è plausibile: le scene sono CPU limited, in più hanno aggiunto nell'indice generale il CPU test.
Qualità dell'immagine: valore di default (qualità).
tinniz977
18-07-2007, 21:08
bene bene,
ero già sul bios per sfrazzare ma dopo tutto il tempo speso per ottimizzare i valori delle ram mi scazz....ava riniziare andando su con il bus(magari andando sui 230/240 o oltre i 300 abbassando i moltiplicatori con le ram a 166:fagiano: )
cmq alzando i valori vga sono arrivato a 8442 a 225 di bus
sm2.0 3901
hdr3.0 4121
cpu 1781 e qui casca l'asino:mc:
blade9722
18-07-2007, 21:10
bene bene,
ero già sul bios per sfrazzare ma dopo tutto il tempo speso per ottimizzare i valori delle ram mi scazz....ava riniziare andando su con il bus(magari andando sui 230/240 o oltre i 300 abbassando i moltiplicatori con le ram a 166:fagiano: )
cmq alzando i valori vga sono arrivato a 8442 a 225 di bus
sm2.0 3901
hdr3.0 4121
cpu 1781 e qui casca l'asino:mc:
IOnfatti, guarda che quelli che fanno più di 25K hanno il Core duo a 5 GHz nell'azoto liquido...
tinniz977
18-07-2007, 21:12
IOnfatti, guarda che quelli che fanno più di 25K hanno il Core duo a 5 GHz nell'azoto liquido...
cosa intendi per 25k:confused:
Il Creativo
18-07-2007, 21:21
be forse nei bench si, ma nei giochi forse lo vedi se setti la risoluzione a 3000x3000.
i bench sono fatti per sfruttare l'hardware in maniera maniacale quindi i colli di bottiglia li noti bene, nei giochi invece non sfruttano ancora (per fortuna) l'hardware in maniera maniacale.
E' vero che la differenza madornale(da 2 Ghz a 2.9) l'ho vista solo sul 3dMark 2006 ma non mi riferivo soltanto a quello, ho notato, per esempio in Oblivion, che con impostazioni al massimo, 1280x1024 AF 16x AA 16xQ V-sync On, il passaggio da 2 a 2.9 Ghz ha incrementato il framerate di pochissimi punti, quello che è stato migliorato enormemente è stata la stabilità degli fps, ovvero se a 2 Ghz il framerate oscillava molto, a 2.9 si è stabilizzato quasi sempre intorno ai 50 fps(con i primissimi driver, poi non l'ho più provato quindi ora non saprei). Per quanto riguarda le prestazioni delle schede video conviene non basarsi mai sui 3dMark che, a parer mio, sono solo(come si dice in gergo) Eyes Candy;) .
blade9722
18-07-2007, 21:32
cosa intendi per 25k:confused:
25000 punti
blade9722
18-07-2007, 21:38
E' vero che la differenza madornale(da 2 Ghz a 2.9) l'ho vista solo sul 3dMark 2006 ma non mi riferivo soltanto a quello, ho notato, per esempio in Oblivion, che con impostazioni al massimo, 1280x1024 AF 16x AA 16xQ V-sync On, il passaggio da 2 a 2.9 Ghz ha incrementato il framerate di pochissimi punti, quello che è stato migliorato enormemente è stata la stabilità degli fps, ovvero se a 2 Ghz il framerate oscillava molto, a 2.9 si è stabilizzato quasi sempre intorno ai 50 fps(con i primissimi driver, poi non l'ho più provato quindi ora non saprei). Per quanto riguarda le prestazioni delle schede video conviene non basarsi mai sui 3dMark che, a parer mio, sono solo(come si dice in gergo) Eyes Candy;) .
Oblivion è CPU limited verso il basso in quanto non è supporta l'occlusion culling (cioè la rimozione degli oggetti non visibili prima del rendering) ed ha la "infinite view distance" tramite distantLOD.
Ne sa qualcosa Jacko2, un modder americano che ha attivato tutte le rocce e gli edifici dalla distanza confidando sulle schede video, per poi ritrovarsi con 3FPS a causa della CPU.
Per quanto riguarda i giochi in generale, io ho trovato la conferma di ciò che avviene con il 3dmark2006: cioè nel 50% delle scene il carico sulla GPU (valutabile tramite le barre di carico SLI) è minimo e non guadagni nulla dalla seconda scheda, mentre nel restante 50% il carico è massimo e quasi raddoppi il frame rate.
Per la cronaca, ho abbassato la cpu a 290x9 e sempre al 3dmark06 mi ha finitosui 9000... :muro:
Inoltre qualcuno sa come tenere monitorizzata la temp della gpu e la memoria libera mentre si gioca? Quando avevo la x800
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.