PDA

View Full Version : [THREAD UFFICIALE] Geforce 8800 GTS 320 MB


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 [32] 33 34 35 36 37 38 39 40 41 42 43 44 45 46

Roman91
12-10-2007, 22:04
Che ne pensate http://www.tomshw.it/news.php?newsid=11658 non mi sembra eccezionale questa 8800gt:cool:
infatti fa skifo...TE nn la comprare:D

HeeK
12-10-2007, 22:12
64 con la ventola al 100%???:eek:
ma hai qualche ventola nel case?
si ho la ventola dell'alimentatore che spinge aria verso giù....
poi una ventola sul frontale del case, all'interno...
poi una ventola aggiuntiva 8x8 montata sul retro....

e poi ventola della cpu e della gpu ovviamente.....


si legge nel primo post di questo topic che le gefo 8800gts 320 scaldano molto in idle, dai 53 ai 65. però con la ventola al 60%

mi devo preoccupare??:(

Jioc0
12-10-2007, 22:58
Vai nel monitor (quel diagramma dove vedi le frequenze e le temperature di solito... In basso a dx->SETUP->data sources e selezioni le ram video che ti interessa (io personalmente ho messo quella totale, così vedo subito se "sforo" quella onboard, che è di 300mb), se nn c'è tra le opzioni clicca PLUGINS e selezione vidmem.dll->ok->ok ed è fatta!!

Perfetto, grazie. ;)

Marko#88
12-10-2007, 23:26
Che ne pensate http://www.tomshw.it/news.php?newsid=11658 non mi sembra eccezionale questa 8800gt:cool:



infatti fa skifo...TE nn la comprare:D

leggere prima di postare??

"Le prove, effettuate con il benchmark 3DMark 2006 (1280x1024, AA 4x e AF 8x"
9600 punti con un quad ma con aa4x e af16x...è più veloce della nostra gts e non vi sembra un granchè...:asd:

Roman91
12-10-2007, 23:28
leggere prima di postare??

"Le prove, effettuate con il benchmark 3DMark 2006 (1280x1024, AA 4x e AF 8x"
9600 punti con un quad ma con aa4x e af16x...è più veloce della nostra gts e non vi sembra un granchè...:asd:

bhè...con 1 quad core 9600 nn sono niente:D

spè..ma 3dmark a default sta a aa1x e af1x???

doom3.it
13-10-2007, 01:13
bhè...con 1 quad core 9600 nn sono niente:D

spè..ma 3dmark a default sta a aa1x e af1x???



ma il q6600 sta a 3.6ghz servirebbe un volontario in possesso di un q6600, che faccia un test con le stesse impostazionu su 8800gts x levarsi "la sete con il prosciutto"

doom3.it
13-10-2007, 01:15
si ho la ventola dell'alimentatore che spinge aria verso giù....
poi una ventola sul frontale del case, all'interno...
poi una ventola aggiuntiva 8x8 montata sul retro....

e poi ventola della cpu e della gpu ovviamente.....


si legge nel primo post di questo topic che le gefo 8800gts 320 scaldano molto in idle, dai 53 ai 65. però con la ventola al 60%

mi devo preoccupare??:(



la ventola dell'alimentatore che spinge aria in giu mi sembra strano solitamente e il contrario

crackman
13-10-2007, 01:16
solo x la cronaca, unreal tournament 3 gira che è una meraviglia sulla gts 320 :))
buon frag a todos!

Marko#88
13-10-2007, 07:31
bhè...con 1 quad core 9600 nn sono niente:D

spè..ma 3dmark a default sta a aa1x e af1x???

ti ripeto, il test è stato fatto con l'aa4x, fidati che influisce un tot...fai un test con aa4x e af16 e vedi quanto fai...ok, il quadcore influisce tanto ma 9600 con aa4x è tantino...la ultra fa 11000 per dirti...

Lorhan
13-10-2007, 10:14
ottimo...attiva quella e anche l'altra, relativa al clock degli shader...e buon divertimento..:D


intendi questa la voce "EnableLowPower3DControl" per avere il controllo del low-level?

fatto ora dovrebbe essere tutto ok.

ho messo core=650 Shader=1600 ram 1000(2000) e tutto fila liscio... 11400 al 3dmark con impostazioni default e temperatura massima che sfiora i 70 dopo 1 ora di ET quake war tutto al max.

Ora cerco un po di documentazione per caire a cosa serve aumentare "Shader" in quanto ho agito ad occhio ma mi infastidisce nonsapere il perchè delle cose :muro:

Capozz
13-10-2007, 10:56
eh si. Tra le 2 esperienze però c'è qualche decina di euro di differenza, per cui se dovessi scegliere nel dubbio saprei cosa fare ancora una volta.
di tutte le critiche mosse a 8800 meno blasonate, imho l'unica che regge è quella della garanzia a vita che solo certi produttori concedono. Quella delle frequenze direi proprio di no.

la mia pov l'ho pagata 248 euro, inoltre al negozio avevano solo quella quindi l'ho presa :D

FiSHBoNE
13-10-2007, 11:16
la mia pov l'ho pagata 248 euro, inoltre al negozio avevano solo quella quindi l'ho presa :D

hai fatto bene. Se ci sono 10 euro di differenza passi, avrei fatto anch'io come te. Sono le decine di euro di differenza che per me non valgono la pena. Poi oh, ognuno la pensi come gli pare, io più che portare un esempio di spesa bassa (Manli) e soddisfazione non posso fare.

wolf24
13-10-2007, 11:35
certo che volevo anche io prendere la 8800 gts da 3230mb, ma maledetta nvidia fa già uscire la sua generazione successiva e mi tocca attendere....:O

mistero1982
13-10-2007, 11:44
Raga ho testato stamani la mia 8800 320 della sparkle con 3dmark 2005. a default faccio 13000 punti è male? sono in linea? :confused:

SISTEMA
athlon x2 4800 2mb l2
2gb ddr 400@450 2.5 3 3 7
8800 gts sparkle gpu513 ram800 (mi pare di base sia 800 + o -..)

Dexther
13-10-2007, 11:45
Raga ho testato stamani la mia 8800 320 della sparkle con 3dmark 2005. a default faccio 13000 punti è male? :confused:

dipende dalla config ma in linea di massima : no :)

mistero1982
13-10-2007, 11:46
dipende dalla config ma in linea di massima : no :)

Quanto deve fare un'8800 320 di base?

FiSHBoNE
13-10-2007, 11:55
il 3d06 è un riferimento migliore.
col 3d06 di default si dovrebbe stare sui 8000/9000 con x2, sui 9000/10000 con c2d.

Marko#88
13-10-2007, 14:27
Raga ho testato stamani la mia 8800 320 della sparkle con 3dmark 2005. a default faccio 13000 punti è male? sono in linea? :confused:

SISTEMA
athlon x2 4800 2mb l2
2gb ddr 400@450 2.5 3 3 7
8800 gts sparkle gpu513 ram800 (mi pare di base sia 800 + o -..)

perfettamente in linea...:)

doom3.it
13-10-2007, 14:59
ti ripeto, il test è stato fatto con l'aa4x, fidati che influisce un tot...fai un test con aa4x e af16 e vedi quanto fai...ok, il quadcore influisce tanto ma 9600 con aa4x è tantino...la ultra fa 11000 per dirti...


fatto il test con le stesse inpostazioni ho alzato la gpu a 600mgz e gddr3 a 900mgz xche secondo http://www.tomshw.it/news.php?newsid=11574 con tutte le riserve del caso visto che si tratta di anticipazioni,e il risultato e'
http://www.hwupgrade.it/forum/attachment.php?attachmentid=53508&stc=1&d=1192280105
8800gt vs 8800gts1.jpg

la cpu core2 e6420 3.600mgz

Marko#88
13-10-2007, 15:18
fatto il test con le stesse inpostazioni ho alzato la gpu a 600mgz e gddr3 a 900mgz xche secondo http://www.tomshw.it/news.php?newsid=11574 con tutte le riserve del caso visto che si tratta di anticipazioni,e il risultato e'
http://www.hwupgrade.it/forum/attachment.php?attachmentid=53508&stc=1&d=1192280105
8800gt vs 8800gts1.jpg

la cpu core2 e6420 3.600mgz

a parte il fatto che hai occato la scheda mentre quel test dovrebbe essere con le frequenze default...e anche cos' fai meno punti...è inutile, è mooolto probabile che la 8800gt andrà più forte della nostra...

doom3.it
13-10-2007, 15:37
[QUOTE=Marko#88;19134099]a parte il fatto che hai occato la scheda mentre quel test dovrebbe essere con le frequenze default...e anche cos' fai meno punti...è inutile, è mooolto probabile che la 8800gt andrà più forte della nostra...



ho occato la scheda xche la 8800gt dovrebbe avere le stesse frequenze e poi non ho un q6600 comunque visto i 65nm la sheda in questione dovrebbe salire molto di piu della nostra almeno come gpu rimangono i 256bit contro i nostri 320bit non so' quanto possono ifluire sui risultati, stiamo sempre parlando di indiscrezioni bisogna vedere qualche rece seria

Marko#88
13-10-2007, 15:45
scusa cosa centrano le frequenze @default??le schede si paragonano alle frequenze stadard, non è che perchè quella è a frequenze più spinte allora per essere paragonabile dobbiamo occare la nostra...allora per confrontarla alla xt dobbiamo portare il core a 740mhz?? :doh:
alle frequenze standard (più alte per la gt pare ma sempre standard sono) SEMBRA che la 8800gt andrà più della nostra...amen, non è difficile...
oltretutto il quad influisce poco nei test della vga, influisce quasi solo nel punteggio de cpu test...

Smemo
13-10-2007, 15:52
imho se è vero che costerà poco meno di 200$ che diventaranno 200€ è improbabile che avrà 112 shader... quando le 320 costano mediamente 260/270€ in negozio e hanno 96 shader... a meno che quei 256bit di bus non la limitino parecchio le performance dei 112 shader abbastanza da farla andare uguale o poco meno una gts320mb che dal momento che costa di più attualmente deve rendere anche qualcosina in più... :mbe:

Marko#88
13-10-2007, 15:59
imho se è vero che costerà poco meno di 200$ che diventaranno 200€ è improbabile che avrà 112 shader... quando le 320 costano mediamente 260/270€ in negozio e hanno 96 shader... a meno che quei 256bit di bus non la limitino parecchio le performance dei 112 shader abbastanza da farla andare uguale o poco meno una gts320mb che dal momento che costa di più attualmente deve rendere anche qualcosina in più... :mbe:

costerà sui 200 euri...e avrà 112 shader e bus a 256bit...non sono opinioni, è così e basta....ma è tanto difficile da accettare il fatto che la gts verrà probabilmente battuta dalla 8800GT?:rolleyes:

Smemo
13-10-2007, 16:04
costerà sui 200 euri...e avrà 112 shader e bus a 256bit...non sono opinioni, è così e basta....ma è tanto difficile da accettare il fatto che la gts verrà probabilmente battuta dalla 8800GT?:rolleyes:

se avrà più shader non ha molto senso né per marketing né per logica... :mbe:

avrebbe più senso se ne avesse 64 e costasse 100€ :mbe:

mistero1982
13-10-2007, 16:06
costerà sui 200 euri...e avrà 112 shader e bus a 256bit...non sono opinioni, è così e basta....ma è tanto difficile da accettare il fatto che la gts verrà probabilmente battuta dalla 8800GT?:rolleyes:

No a me nn me ne frega molto, ma mi chiedo una cosa... un manciatina di shader in più valgono una riduzione del bus? Se la risposta è no allora andrà più la gts se è si, amen, andrà più la gt.
Ma c'è una cosa che mi puzza, da uando conosco nvidia, praticamente da quando è nata, la sigla gt è affibbiata ad una fascia di schede inferiori alla gts, ed in genre nn sono così "stupidi" da far costare di meno una scheda che va di più. Poi maggari mi sbaglio ma per adesso mi pare che sia così.

Smemo
13-10-2007, 16:09
No a me nn me ne frega molto, ma mi chiedo una cosa... un manciatina di shader in più valgono una riduzione del bus? Se la risposta è no allora andrà più la gts se è si, amen, andrà più la gt.
Ma c'è una cosa che mi puzza, da uando conosco nvidia, praticamente da quando è nata, la sigla gt è affibbiata ad una fascia di schede inferiori alla gts, ed in genre nn sono così "stupidi" da far costare di meno una scheda che va di più. Poi maggari mi sbaglio ma per adesso mi pare che sia così.

difatti GT è sempre sinonimo di inferiore a GTS.. è questione di scala gerarchica, sicuramente c'è un valore che ci sfugge (ci vogliono i benchmark) ma sono quasi sicuro che non vada di più della GTS... c'è la "fregatura" sotto... o sono core che non superano tipo i 500mhz con tutti quegli shader... o è bus non è a 256bit ma peggio... :eek:

ZiP!
13-10-2007, 16:14
la cosa che ti sfugge è che le gts attuali spariranno dal mercato per essere rimpiazzate dalle nuove versioni con 112 sp, quindi la gt sarà comunque inferiore alla gts.

Marko#88
13-10-2007, 16:16
difatti GT è sempre sinonimo di inferiore a GTS.. è questione di scala gerarchica, sicuramente c'è un valore che ci sfugge (ci vogliono i benchmark) ma sono quasi sicuro che non vada di più della GTS... c'è la "fregatura" sotto... o sono core che non superano tipo i 500mhz con tutti quegli shader... o è bus non è a 256bit ma peggio... :eek:

ma perchè non leggete prima di parlare....i bench si son visti, e in quelli la 8800gt pare andare più della gts...per quanto possano valere ovviamente...core che non superano i 500mhz...è a 600 di default...:rolleyes:
per quello che riguarda il bus ti faccio notare una cosa...la nostra a 1600mnh con bus a 320bit ha 64Gb/s di banda passante...con 256bit per avere la stessa banda ci vorrebbero 2000mhz che non sono poi esagerati....e poi il bus non è tutto, si vede bus a 256bit e si addita come merda...
ovviamente io non sono sicuro che la gt andrà più della gts, anche la sigla non promette cio infatti...ma basandoci sui bench usciti fin'ora invece sarà così, si vedrà...

Marko#88
13-10-2007, 16:19
la cosa che ti sfugge è che le gts attuali spariranno dal mercato per essere rimpiazzate dalle nuove versioni con 112 sp, quindi la gt sarà comunque inferiore alla gts.

no, la GT avrà 112 sp e 256bit, la nuova gts avrà forse 112 o forse 128 sp e sempre 320bit...;)

ZiP!
13-10-2007, 16:51
non ho capito quel "no"...

Smemo
13-10-2007, 17:13
ma perchè non leggete prima di parlare....i bench si son visti, e in quelli la 8800gt pare andare più della gts...per quanto possano valere ovviamente...core che non superano i 500mhz...è a 600 di default...:rolleyes:
per quello che riguarda il bus ti faccio notare una cosa...la nostra a 1600mnh con bus a 320bit ha 64Gb/s di banda passante...con 256bit per avere la stessa banda ci vorrebbero 2000mhz che non sono poi esagerati....e poi il bus non è tutto, si vede bus a 256bit e si addita come merda...
ovviamente io non sono sicuro che la gt andrà più della gts, anche la sigla non promette cio infatti...ma basandoci sui bench usciti fin'ora invece sarà così, si vedrà...

era una ipotesi, non avevo letto le frequenze anche xche è assurdo che abbiano review su schede ancora non uscite...

io vedo 2 immagini griffate nel link, aspetto che esca in commercio (anche x vedere i prezzi reali) e la gente la testi...

ha ancora meno senso che esca una GTS con 128 shader, che senso avrebbe la vecchia GTX? :mbe:


le news vanno prese per quello che sono, potrebbe essere un fake...


copiato e incollato dalla news ( http://www.tomshw.it/news.php?newsid=11658 )

I punteggi qui riportati sono quindi da ritenersi indicativi, ma non dimenticate che "la realtà" potrebbe essere alquanto differente. Attendiamo un nuovo 3DMark per ottenere risultati che rispecchino maggiormente le prestazioni in-game delle varie schede ATi e Nvidia.


anche la 2900XT con i suoi 320 shader doveva fare a pezzi la 8800 ultra, ma abbiamo visto come una gts 320 se la mangia... ok la situazione è diversa ma imho prima di giudicare bisogna aspettare che esca e la gente la copri e la provi... l'unica cosa realmente interessante sono le FPS nei giochi, nel 3dmark potrebbe anche fare 20.000 che la cosa non mi riguarderebbe per nulla... tra l'altro la scheda fa si 11000 e rotti ma con un Quad @3600MHz... bisogna vedere con un dual core a 3ghz quanto fa, imhoi se una gts 640 fa sui 10.000 a default con dual 3ghz quella farà sui 9000...


stiamo a vedere quando esce...

p.s. guardate su futurmark, con un quad @3600 un GTS tirata supera i 7000 sia su ps2 che su ps3.... dubito che quella GT superi i 5500/6000 se tirata... fate le vostre ipotesi...

Marko#88
13-10-2007, 18:55
non ho capito quel "no"...

da come avevi scritto avevo intuito che intendevi dire che le nuove gts avranno 112 sp e le gt meno, non so se ho inteso male io...:stordita:

era una ipotesi, non avevo letto le frequenze anche xche è assurdo che abbiano review su schede ancora non uscite...

io vedo 2 immagini griffate nel link, aspetto che esca in commercio (anche x vedere i prezzi reali) e la gente la testi...

ha ancora meno senso che esca una GTS con 128 shader, che senso avrebbe la vecchia GTX? :mbe:


le news vanno prese per quello che sono, potrebbe essere un fake...


copiato e incollato dalla news ( http://www.tomshw.it/news.php?newsid=11658 )

I punteggi qui riportati sono quindi da ritenersi indicativi, ma non dimenticate che "la realtà" potrebbe essere alquanto differente. Attendiamo un nuovo 3DMark per ottenere risultati che rispecchino maggiormente le prestazioni in-game delle varie schede ATi e Nvidia.


anche la 2900XT con i suoi 320 shader doveva fare a pezzi la 8800 ultra, ma abbiamo visto come una gts 320 se la mangia... ok la situazione è diversa ma imho prima di giudicare bisogna aspettare che esca e la gente la copri e la provi... l'unica cosa realmente interessante sono le FPS nei giochi, nel 3dmark potrebbe anche fare 20.000 che la cosa non mi riguarderebbe per nulla... tra l'altro la scheda fa si 11000 e rotti ma con un Quad @3600MHz... bisogna vedere con un dual core a 3ghz quanto fa, imhoi se una gts 640 fa sui 10.000 a default con dual 3ghz quella farà sui 9000...


stiamo a vedere quando esce...

p.s. guardate su futurmark, con un quad @3600 un GTS tirata supera i 7000 sia su ps2 che su ps3.... dubito che quella GT superi i 5500/6000 se tirata... fate le vostre ipotesi...

a parte il fatto che 128 sp non è vero che non avrebbero senso, la fascia media andrebbe quasi come la alta e nvidia ci guadagnerebbe di peso, senza contare che vorrebbe dire vedere una ipotetica fascia alta nuova non molto dopo...e poi tutto il resto del discorso non ha molto senso...cioè, è vero che i 3d mark sono solo indicativi...ma l'architettura fra 8800gts e gt è la stessa, indi se al 06 la prima fa di più vuol dire che va di più, punto. discorso diverso è per ati che va un casino nei bench e poi nei giochi non è tutta rose e fiori...e poi, riguardo al tuo ps...dove sta scritto che una gt tirata non può arrivare a quei punteggi? io ipotizzo basandomi su dei numeri che si possono leggere in giro per quanto debbano essere presi con le pinze...tu ti basi solo sulle tue di ipotesi che valgono molto meno di quei bench...
;)

Roman91
13-10-2007, 19:00
a parte il fatto che 128 sp non è vero che non avrebbero senso, la fascia media andrebbe quasi come la alta e nvidia ci guadagnerebbe di peso, senza contare che vorrebbe dire vedere una ipotetica fascia alta nuova non molto dopo...e poi tutto il resto del discorso non ha molto senso...cioè, è vero che i 3d mark sono solo indicativi...ma l'architettura fra 8800gts e gt è la stessa, indi se al 06 la prima fa di più vuol dire che va di più, punto. discorso diverso è per ati che va un casino nei bench e poi nei giochi non è tutta rose e fiori...e poi, riguardo al tuo ps...dove sta scritto che una gt tirata non può arrivare a quei punteggi? io ipotizzo basandomi su dei numeri che si possono leggere in giro per quanto debbano essere presi con le pinze...tu ti basi solo sulle tue di ipotesi che valgono molto meno di quei bench...
;)

bhè..quei bench nn sono altro che delle ipotes stesse.

halduemilauno
13-10-2007, 19:02
imho se è vero che costerà poco meno di 200$ che diventaranno 200€ è improbabile che avrà 112 shader... quando le 320 costano mediamente 260/270€ in negozio e hanno 96 shader... a meno che quei 256bit di bus non la limitino parecchio le performance dei 112 shader abbastanza da farla andare uguale o poco meno una gts320mb che dal momento che costa di più attualmente deve rendere anche qualcosina in più... :mbe:

la versione da 512 starà a 249$. questo significa che da noi starà sui 250 o poco + €. sui 200 invece la 256.

halduemilauno
13-10-2007, 19:03
bhè..quei bench nn sono altro che delle ipotes stesse.

ipotesi???
:boh:

Roman91
13-10-2007, 19:05
ipotesi???
:boh:

ma xkè è già uscita la 8800gt?:mbe:

Marko#88
13-10-2007, 19:08
bhè..quei bench nn sono altro che delle ipotes stesse.

ma xkè è già uscita la 8800gt?:mbe:

non è che perchè una vga non è in commercio allora non si può testare...:asd::asd:
e poi spiegami, cosa vuol dire che dei bench sono delle ipotesi???:mbe:

Roman91
13-10-2007, 21:04
non è che perchè una vga non è in commercio allora non si può testare...:asd::asd:
e poi spiegami, cosa vuol dire che dei bench sono delle ipotesi???:mbe:

aaa e dillo che sono usciti dei prototipi!!

non è che perchè una vga non è in commercio allora non si può testare...:asd::asd:
e poi spiegami, cosa vuol dire che dei bench sono delle ipotesi???:mbe:
che quei test sono falsi

Lorhan
13-10-2007, 21:24
Finalmente sono riuscito ad automatizzare la fan in base alle temperature...

Ora però non ci capisco veramente piu nulla... forse sto sbagliando tutto, vista la mia totale inesperienza, e tra poco brucio tutto, ma come fate a capire fino a quanto potete spingervi conl'overclok?

cerco di spiegarmi, sperando che ancora una volta voi esperti e pratici, possiate aiutarmi e magari dirmi dove sto sbagliando :muro:

premessa:

ho impostato la ventola (utilizzando iprofili come descritto nella guida) nel modo seguente
fno a 60° gira al 60%
da 60 a 70 giri al 70%
ed infinie oltre 70 scatti all'80%
ho fatto i profili per overclock in questo modo:
in modalità desktop (2D) il core e lo shader sono a default (513/1188) e le memorie overcloccate a 1000. Mentre mantengo entrambi i profili 3D (low e performance identici mano a mano che aumento l'overclock... giusto?


Ora il problema che sorge è il seguente...

mettendo tutto in OSD per controllare meglio se scatta l'OC e se in base alle temp la ventola aumenta i giri, lancio 3dmark con impostazioni a default:

le temerature aumentano e da 51 base salgono fino a far passare la ventola a 70% ma indipendentemente da quanto aumento il core e lo shader non oltrepassano mai i 68°

ho provato a lanciare piu volte in successione 3dmark ma nulla.. le temp APPARENTEMENTE non aumentano mai oltre....

l'ultimo test l'ho fatto a a 700/1800/1000 e comesempre letemp si sono mantenute sui 68°

come faccio a sapere se così è stabile.. se posso andare avanti o se sto facendo un casino totale?


grazie a chiunque puo aiutamri

Smemo
13-10-2007, 23:35
Finalmente sono riuscito ad automatizzare la fan in base alle temperature...

Ora però non ci capisco veramente piu nulla... forse sto sbagliando tutto, vista la mia totale inesperienza, e tra poco brucio tutto, ma come fate a capire fino a quanto potete spingervi conl'overclok?

cerco di spiegarmi, sperando che ancora una volta voi esperti e pratici, possiate aiutarmi e magari dirmi dove sto sbagliando :muro:

premessa:

ho impostato la ventola (utilizzando iprofili come descritto nella guida) nel modo seguente
fno a 60° gira al 60%
da 60 a 70 giri al 70%
ed infinie oltre 70 scatti all'80%
ho fatto i profili per overclock in questo modo:
in modalità desktop (2D) il core e lo shader sono a default (513/1188) e le memorie overcloccate a 1000. Mentre mantengo entrambi i profili 3D (low e performance identici mano a mano che aumento l'overclock... giusto?


Ora il problema che sorge è il seguente...

mettendo tutto in OSD per controllare meglio se scatta l'OC e se in base alle temp la ventola aumenta i giri, lancio 3dmark con impostazioni a default:

le temerature aumentano e da 51 base salgono fino a far passare la ventola a 70% ma indipendentemente da quanto aumento il core e lo shader non oltrepassano mai i 68°

ho provato a lanciare piu volte in successione 3dmark ma nulla.. le temp APPARENTEMENTE non aumentano mai oltre....

l'ultimo test l'ho fatto a a 700/1800/1000 e comesempre letemp si sono mantenute sui 68°

come faccio a sapere se così è stabile.. se posso andare avanti o se sto facendo un casino totale?


grazie a chiunque puo aiutamri

se non cambiano mai mi puzza, è abbastanza strano... ok che il 3dmark non fa scaldare la scheda al massimo come fa lost planet & Co, xro che stia fissa non è normale... :confused:

morfeus02
13-10-2007, 23:42
scarica atitools e avvia il test per check artefatti

Marko#88
13-10-2007, 23:45
aaa e dillo che sono usciti dei prototipi!!


che quei test sono falsi

ma è una cosa ovvia che ci sono già in giro, secondo te non le testano prima di venderle??:asd:

Lorhan
13-10-2007, 23:59
se non cambiano mai mi puzza, è abbastanza strano... ok che il 3dmark non fa scaldare la scheda al massimo come fa lost planet & Co, xro che stia fissa non è normale... :confused:

cambiano ma pochissimo... e quindi non sono ancora riuscito a vedere se funziona il settaggio perl'80% della fan in quanto non riesco a superare i 70°

in pratica dopo un paio d'ore (con OSD attivo) di vari game (Enemy Territory quake - Warhamer online - lost planet. la temp arriva a 69/70 e li rimane stazionaria.

se scendo di frequenza con il core scende in proporzione assestandosi su 1/2 gradi meno

In pratica vorrei capire da cosa dovrei accorgermi quando ho portato al limite il clock della scheda... senza attendere la nuvoletta di fumo ;)


esistono test tipo Orthos per la cpu che mettono sotto stress la scheda e consentono di capire che è in errore?

Smemo
14-10-2007, 00:11
cambiano ma pochissimo... e quindi non sono ancora riuscito a vedere se funziona il settaggio perl'80% della fan in quanto non riesco a superare i 70°

in pratica dopo un paio d'ore (con OSD attivo) di vari game (Enemy Territory quake - Warhamer online - lost planet. la temp arriva a 69/70 e li rimane stazionaria.

se scendo di frequenza con il core scende in proporzione assestandosi su 1/2 gradi meno

In pratica vorrei capire da cosa dovrei accorgermi quando ho portato al limite il clock della scheda... senza attendere la nuvoletta di fumo ;)


esistono test tipo Orthos per la cpu che mettono sotto stress la scheda e consentono di capire che è in errore?

esagerato ma quale nuvoletta di fumo :sofico:, non esiste qualcosa di equivalente a orthos, ma c'è atitool, e suo il famoso cubetto peloso di shader, quelli si che fa scaldare il core e nel giro di 5min lo porta ad alta temperatura... quando hai esagerato semplicemente si freeza il sistema dopo pochi minuti/secondi... puoi provare anche il demo di lost planet (li fai girare il benchmark)... ;)

p.s. riesci a tenere 70° a pieno carico ma con la ventola a che percentuale? es faccio 72/73 in two word già dopo pochi minuti se la tengo a 75%,a 85% guadagno 1 grado ma fa molto più casino...


cmq come temperature siamo li, sei nella norma-... non ti preoccupare per la temperatura, quando tornerà l'estate te li sogni 70° in fullload :stordita: (almeno 75 te li farà e ti sfiorerà anche gli 80 :muro: )

Lorhan
14-10-2007, 00:53
esagerato ma quale nuvoletta di fumo :sofico:, mon esiste qualcosa di equivalente a orthos, ma c'è atitool, e suo il famoso cubetto peloso di shader, quelli si che fa scaldare il core e nel giro di 5min lo porta ad alta temperatura... quando hai esagerato semplicemente si freeza il sistema dopo pochi minuti/secondi...


bene .. ora che mi hai detto che non c'è richio di fondere sono piu sollevato :)
ad ogni modo ho provato ad installare atitool ma all'avvio mi dice che non ho drive detonator installati e si chiude :confused:


puoi provare anche il demo di lost planet (li fai girare il benchmark)... ;)


ho il cd del gioc trovato nella scatola della scheda.. nel CD c'è il demo con il l'utility di benchemark?


p.s. riesci a tenere 70° a pieno carico ma con la ventola a che percentuale?


70% .. con il teorico (teorico perchè non sono ancora riuscito a farlo scattare) automatismo che fa passare ad 80% la fan appena la temperatura oltrepassa 70°


cmq come temperature siamo li, sei nella norma


thzzzz! :)

Roman91
14-10-2007, 09:34
ma è una cosa ovvia che ci sono già in giro, secondo te non le testano prima di venderle??:asd:

si, però nn pensavo che le schede fossero "testate" redattori di un forum:sbonk:
..ma dai tecnici nvidia..vabà:rolleyes:

Smemo
14-10-2007, 09:45
ad ogni modo ho provato ad installare atitool ma all'avvio mi dice che non ho drive detonator installati e si chiude :confused:

detonator? :mbe: hai l'ultima versione di rivatuner 2.05? casomai ti dice che non hai i forceware istallati, cmq se fà cosi è xche non hai istallato dei driver che riconosce, vau su www.nvidia.it e scarica gli ultimi ufficiali, istallali e riavvia il computer



ho il cd del gioc trovato nella scatola della scheda.. nel CD c'è il demo con il l'utility di benchemark?

lascia xdere i cd in dotazione, sono sempre troppo vecchi per servire a qualcosa


70% .. con il teorico (teorico perchè non sono ancora riuscito a farlo scattare) automatismo che fa passare ad 80% la fan appena la temperatura oltrepassa 70°

ti costa cosi tanto settare a mano la ventola a 70%? Cosi non rischi...

Roman91
14-10-2007, 09:47
ad ogni modo ho provato ad installare atitool ma all'avvio mi dice che non ho drive detonator installati e si chiude :confused:

detonator? :mbe: hai l'ultima versione di rivatuner 2.05? casomai ti dice che non hai i forceware istallati, cmq se fà cosi è xche non hai istallato dei driver che riconosce, vau su www.nvidia.it e scarica gli ultimi ufficiali, istallali e riavvia il computer



ho il cd del gioc trovato nella scatola della scheda.. nel CD c'è il demo con il l'utility di benchemark?

lascia xdere i cd in dotazione, sono sempre troppo vecchi per servire a qualcosa


70% .. con il teorico (teorico perchè non sono ancora riuscito a farlo scattare) automatismo che fa passare ad 80% la fan appena la temperatura oltrepassa 70°

ti costa cosi tanto settare a mano la ventola a 70%? Cosi non rischi...

se hai vista..lancia atitool con "Esegui come amministratore"

Lorhan
14-10-2007, 10:32
ad ogni modo ho provato ad installare atitool ma all'avvio mi dice che non ho drive detonator installati e si chiude :confused:

detonator? :mbe: hai l'ultima versione di rivatuner 2.05? casomai ti dice che non hai i forceware istallati, cmq se fà cosi è xche non hai istallato dei driver che riconosce, vau su www.nvidia.it e scarica gli ultimi ufficiali, istallali e riavvia il computer


ho rivaT 2.05 e i drive sono i 163.76
ora provo a fare come dici rimuovo questi e metto gli ultimi certiicati ;)


lascia xdere i cd in dotazione, sono sempre troppo vecchi per servire a qualcosa


non ho preso i drive dal cd, mi riferivo al gioco che indichi utile per eseguire un bench ;)


ti costa cosi tanto settare a mano la ventola a 70%? Cosi non rischi...[/I]

provato dal launcher e funziona... non avevo pensato all apossibilità di attivarla in manuale :muro:
ad ogni modo ho provato e con il test di 3dmark con filtri ed aa vari sono riuscito a salire fino a 71° per qualche secondo così da far scattare la ventola all'80%

se hai vista..lancia atitool con "Esegui come amministratore"

ho xp.. vista 32 mi creava problemi di stabilità nei test con orthos, risolti con una trial di vista 64 che però ho rimosso nuovamente in quanto ha problemi di compatibilità con alcune utility che utilizzo (TAT prima di tutti)... peccato perchè mi sarebbe piaciuto provare un po di giochi con le dx10 :(

Roman91
14-10-2007, 10:34
ho xp.. vista 32 mi creava problemi di stabilità nei test con orthos, risolti con una trial di vista 64 che però ho rimosso nuovamente in quanto ha problemi di compatibilità con alcune utility che utilizzo (TAT prima di tutti)... peccato perchè mi sarebbe piaciuto provare un po di giochi con le dx10 :(

anch'io ho dovuto rinunciare a tante utility passando a vista..xò ce ne stanno tante altre che possono sostituirle!

||Sonny||
14-10-2007, 11:08
Ma ragazzi una domanda,forse stupida,ma la versione 2.05 di rivatuner sarà compatibile con molti driver da qui in avanti? O già i prossimi non sono compatibili??

amenic
14-10-2007, 11:42
PC in sign.

660/1038
Spinge fino a 687 dopo di che si pianta atitool.
Per la ram arrivo fino a 1080

http://img264.imageshack.us/img264/663/3d06ocep5.th.jpg (http://img264.imageshack.us/my.php?image=3d06ocep5.jpg)

Con frequenze standard sono da 8990/9010.

Lorhan
14-10-2007, 12:35
io al max sono arrivato a questo con la configurazione in sign
oltre si freeza 3dmark2006 :(

http://img250.imageshack.us/img250/3851/screen2zk0.jpg

Roman91
14-10-2007, 12:41
io al max sono arrivato a questo con la configurazione in sign
oltre si freeza 3dmark2006 :(



porka paletta!!
11k e passa ti parono pocchi??
io ne faccio circa 8'000...:O

amenic
14-10-2007, 13:07
io al max sono arrivato a questo con la configurazione in sign
oltre si freeza 3dmark2006 :(



Eh belle freq..

Io a 687 di core ho un bel sistema bloccato... :mad:

Abbiamo la stessa CPU, come va @3ghz?
Stabile?

amenic
14-10-2007, 13:10
porka paletta!!
11k e passa ti parono pocchi??
io ne faccio circa 8'000...:O
Beh, ha 2 raptor e una cpu OC + performante della tua.
E' logico ;)

Roman91
14-10-2007, 13:18
Beh, ha 2 raptor e una cpu OC + performante della tua.
E' logico ;)

ma nel 3dmark anche gli hd mutano il punteggio?:mbe:

Extrema Ratio
14-10-2007, 13:26
Penso di avere un problemino alle temp della vga, in idle con stanza a 23° mi segna 68° mentre in gioco a volte arriva anche a 88°, ho una 8800gts320 della PoV e il case (Armor) credo sia ben ventilato (25cm laterale, 2 12cm davanti,1 12cm dietro e una 9 in alto). Il dubbio mi è venuto vedendo la GTS640 XfX di un mio amico che in idle stava a 57°. Cosa ne pensate?

Daniux
14-10-2007, 14:03
edit

JulioHw
14-10-2007, 14:11
FAi delle prove a case aperto e vedi se migliora, cmq il topic stracolmo di consigli a questi problemi, basta leggere un pò indietro ;)

Extrema Ratio
14-10-2007, 14:31
FAi delle prove a case aperto e vedi se migliora, cmq il topic stracolmo di consigli a questi problemi, basta leggere un pò indietro ;)

Col case aperto non cambia nulla, per le pagine indietro potresti anche avere ragione ma so 400................. nun me regge le pompa!!:D

JulioHw
14-10-2007, 14:39
Si è visto che le temperature di questa scheda sono MOLTO variabili.
C'è gente con 50°C in idle anche in piena estate, altri oltre i 70°C. Considera che la scheda è considerata fresca fino a 80°C infatti la ventola non aumenta di velocità se la lasci in automatico. Oltre i 92°C mi pare inizi a girare a pieno o quasi, quindi se superi questa soglia forse potresti iniziare a preoccuparti.
Le temperature che hai sono più che buone, stai tranquillo...

Extrema Ratio
14-10-2007, 14:44
Grazie!;)

doom3.it
14-10-2007, 14:50
ma perchè non leggete prima di parlare....i bench si son visti, e in quelli la 8800gt pare andare più della gts...per quanto possano valere ovviamente...core che non superano i 500mhz...è a 600 di default...:rolleyes:
per quello che riguarda il bus ti faccio notare una cosa...la nostra a 1600mnh con bus a 320bit ha 64Gb/s di banda passante...con 256bit per avere la stessa banda ci vorrebbero 2000mhz che non sono poi esagerati....e poi il bus non è tutto, si vede bus a 256bit e si addita come merda...
ovviamente io non sono sicuro che la gt andrà più della gts, anche la sigla non promette cio infatti...ma basandoci sui bench usciti fin'ora invece sarà così, si vedrà...

Scusa xche non te compri visto che ti piace cosi tanto, i bench si son visti ,dove? io ne ovisto uno. Inviaci qualche link


P.S. devi modificare la firma la Cpu: "A64 X2 4200+ @ 2750 mhz (Toledo) "
i l x2 4200 non e' un toledo .I toledo sono il 4400- 4800-opteronx2

Lorhan
14-10-2007, 16:43
Eh belle freq..

Io a 687 di core ho un bel sistema bloccato... :mad:

Abbiamo la stessa CPU, come va @3ghz?
Stabile?

con molti ad 8 e fsb a 400 va perfettamente senza alcun problema. ho comunque alzato il vcore di uno step per stare tranquillo dal momento che le temp, anche dopo ore di orthos e con dissipatore boxed, sono piu che accettabili... di poco superiori al pc di mia moglie.. identico (raid escluso) ma tutto a default.

Marko#88
14-10-2007, 17:28
Scusa xche non te compri visto che ti piace cosi tanto, i bench si son visti ,dove? io ne ovisto uno. Inviaci qualche link


P.S. devi modificare la firma la Cpu: "A64 X2 4200+ @ 2750 mhz (Toledo) "
i l x2 4200 non e' un toledo .I toledo sono il 4400- 4800-opteronx2

oh ma che cosa vuoi?? io ho solo espresso un dato di fatto, se non ti piace accettare il fatto che una vga più economica andrà probabilmente più della nostra non so che dirti, non ho mica detto che io la compro io e vi owno tutti, è solo un dato di fatto....
non è che piace a me, semplicemente PER ORA SEMBRA che la 8800gt si collocherà fra la nostra gts e la gtx...ma guarda questo oh...
ah, per la firma...prima di fare il saputello informati...:rolleyes:
alcuni 4200+ hanno core toledo, non sono tutti manchester...il mio è fra questi...altrimenti perchè l'avrei messo in firma secondo te??:rolleyes:

doom3.it
14-10-2007, 17:53
oh ma che cosa vuoi?? io ho solo espresso un dato di fatto, se non ti piace accettare il fatto che una vga più economica andrà probabilmente più della nostra non so che dirti, non ho mica detto che io la compro io e vi owno tutti, è solo un dato di fatto....
non è che piace a me, semplicemente PER ORA SEMBRA che la 8800gt si collocherà fra la nostra gts e la gtx...ma guarda questo oh...
ah, per la firma...prima di fare il saputello informati...:rolleyes:
alcuni 4200+ hanno core toledo, non sono tutti manchester...il mio è fra questi...altrimenti perchè l'avrei messo in firma secondo te??:rolleyes:


... ho solo espresso un dato di fatto.......voglio vedere i fatti benc, recensioni ,test ,ho mi devo fidare della tua parola



alcuni 4200+ hanno core toledo.....i toledo hanno 2mega di cache

Marko#88
14-10-2007, 18:04
... ho solo espresso un dato di fatto.......voglio vedere i fatti benc, recensioni ,test ,ho mi devo fidare della tua parola



alcuni 4200+ hanno core toledo.....i toledo hanno 2mega di cache

il dato di fatto l'ho espresso io, non tu...sei tu che attacchi con un bel "se ti piace tanto comprala"....:rolleyes:
comunque se non mi credi vai nel 3d di G92, qui siamo OT...

i manchester sono i core con 512*2 nativi, i toledo nascono con 1mb*2 e vengono castrati a livello di cache...non è la stessa cosa, i toledo in genere salgono meglio...;)

doom3.it
14-10-2007, 19:15
il dato di fatto l'ho espresso io, non tu...sei tu che attacchi con un bel "se ti piace tanto comprala"....:rolleyes:
comunque se non mi credi vai nel 3d di G92, qui siamo OT...

i manchester sono i core con 512*2 nativi, i toledo nascono con 1mb*2 e vengono castrati a livello di cache...non è la stessa cosa, i toledo in genere salgono meglio...;)


Non ho mai sentito parlare di toledo castrati , semmai di toledo con un core disattivato venduti come 3700 e' impossibile disattivare meta' cache x ogni core comunque se tu affermi che sia un toledo mi fido di te'

Marko#88
14-10-2007, 19:23
Non ho mai sentito parlare di toledo castrati , semmai di toledo con un core disattivato venduti come 3700 e' impossibile disattivare meta' cache x ogni core comunque se tu affermi che sia un toledo mi fido di te'

mi spiace dover andare OT....però eccoti qua...;)
non so bene la storia della cache, io la lessi così.....
(non guardare il delirio che c'è nel desktop...:asd:)
http://img137.imageshack.us/img137/9395/immaginetw3.th.jpg (http://img137.imageshack.us/my.php?image=immaginetw3.jpg)

ZiP!
14-10-2007, 20:16
i primi x2 erano tutti toledo, castrati o non, poi sono arrivati i manchester che hanno sostituito i toledo con 512k
si potrebbe pure finirla qui con l'ot..

Smemo
14-10-2007, 20:58
io al max sono arrivato a questo con la configurazione in sign
oltre si freeza 3dmark2006 :(

http://img250.imageshack.us/img250/3851/screen2zk0.jpg

vai benissimo, fai adderittura leggermente più di me :sofico:

Roman91
14-10-2007, 21:08
vai benissimo, fai adderittura leggermente più di me :sofico:

che schifo ste 640mb:D

Smemo
14-10-2007, 21:33
che schifo ste 640mb:D

HAHAHAHA :asd: era una battuta, ecco ti dedico questo 12000 e rotti :sofico:

http://img248.imageshack.us/img248/8893/120087021100qi5.th.jpg (http://img248.imageshack.us/my.php?image=120087021100qi5.jpg)

Roman91
14-10-2007, 21:54
che schifo ste 640mb:D
deja vù?:mbe:
HAHAHAHA :asd: era una battuta, ecco ti dedico questo 12000 e rotti :sofico:

http://img248.imageshack.us/img248/8893/120087021100qi5.th.jpg (http://img248.imageshack.us/my.php?image=120087021100qi5.jpg)

ma complimentz

morfeus02
14-10-2007, 21:56
oddio dai non ricominciamo...

comese il punteggio 3dmark avesse qualcosa a che fare con il quantitativo di mem della scheda :doh:

Smemo
14-10-2007, 22:12
oddio dai non ricominciamo...

comese il punteggio 3dmark avesse qualcosa a che fare con il quantitativo di mem della scheda :doh:

nessuno ha detto questo, sono entrambi ottimi punteggi, fine. ;)

Marko#88
14-10-2007, 22:21
nessuno ha detto questo, sono entrambi ottimi punteggi, fine. ;)

decisamente ottimi punteggio...io sono a quota 9500, per un amd X2 non è nemmeno troppo male...il procio ne avrebbe ancora ma la mobo non mi fa dare più voltaggio...:muro:
però nei giochi va da dio, quindi non mi lamento...certo è che se mi regalano la 640 a novembre almeno testerò con mano quanto siano utili quei 320mb in più a 1680*1050...probabilmente d'ora in poi faranno moooolto comodo a tale risoluzione...:)

Capozz
14-10-2007, 22:58
io col 5600+ e la scheda occata a 620/1900 sono arrivato a 9547 punti, che non se butta assolutamente via :D
http://service.futuremark.com/orb/resultanalyzer.jsp?projectType=14&XLID=0&UID=11440303
Stamattina ho provato anche ad occare un pò il procio ma arrivando a 3 ghz mi si è spento il pc di botto, quindi ho riportato a default ;)
PS qualche consiglio per cercare di occarlo un pò di più ?

Marko#88
15-10-2007, 06:55
io col 5600+ e la scheda occata a 620/1900 sono arrivato a 9547 punti, che non se butta assolutamente via :D
http://service.futuremark.com/orb/resultanalyzer.jsp?projectType=14&XLID=0&UID=11440303
Stamattina ho provato anche ad occare un pò il procio ma arrivando a 3 ghz mi si è spento il pc di botto, quindi ho riportato a default ;)
PS qualche consiglio per cercare di occarlo un pò di più ?

io 9500 l'ho fatto col procio a 2760 e la vga a 648/2016...per salire mi servirebbe la vmod sia alla vga che alla scheda madre ma alla fine me ne frego mi sa...:asd:

mistero1982
15-10-2007, 11:19
Io sono arrivato al max a 9000 punti con la seguente config:

Toledo x2 4400@4800 --> 2200@2400 di più non sò perchè non regge
Mobo Epox EP-9U1697 GLI
2gb ddr 450 2.5 3 3 8
8800 gts 320 @ gpu650 ram2000

Non mi sembrerebbe un ok della scheda malvagio ma non sò perchè non si schioda da 8900-9000 punti al 2006.... mi spiegate se è normale o no :confused:

Smemo
15-10-2007, 11:37
Io sono arrivato al max a 9000 punti con la seguente config:

Toledo x2 4400@4800 --> 2200@2400 di più non sò perchè non regge
Mobo Epox EP-9U1697 GLI
2gb ddr 450 2.5 3 3 8
8800 gts 320 @ gpu650 ram2000

Non mi sembrerebbe un ok della scheda malvagio ma non sò perchè non si schioda da 8900-9000 punti al 2006.... mi spiegate se è normale o no :confused:

con il processore che hai mi sembra abbastanza in linea...

Capozz
15-10-2007, 11:53
il 4400 supporta le ddrII 800mhz ?

wolf24
15-10-2007, 13:02
il 4400 supporta le ddrII 800mhz ?

di processore soltanto quanto fa il 5600+ al 3d mark

Nejiro
15-10-2007, 13:30
Ragazzi,scusatemi una domanda,come mai dal pannello di controllo NVidia non mi fa regolare la gamma?Ho una XFX.....
GRAZIE
Ragazzi per favore qualcuno potrebbe controllare se ha il mio stesso "problema"....Ho controllato la scheda che ho nell'HTPC(una 7600GT)e nemmeno li mi permette la regolazione del gamma....Possibile due NVidia su due PC diversi con lo stesso "difetto"?
GRAZIE

Marko#88
15-10-2007, 13:55
di processore soltanto quanto fa il 5600+ al 3d mark

il mio a 2760 fa sui 2100 punti...;)

Brutto
15-10-2007, 14:01
Ciao a tutti,
giorni fa avevo chiesto se i diversi progrmmi usati per fare OC della 8800 incidono sulla stabilità o sul MAX OC raggiungibile,qualcuno saprebbe rispondermi?
Una 8800 OC in IDLE scalda e consuma molto di piu' rispetto ad una 8800 default?




PS:il pc doveva arrivarmi oggi..niente! :muro: e non avro' XFX ma POV (con default piu' elevato) :mbe:

Brutto
15-10-2007, 14:04
il mio a 2760 fa sui 2100 punti...;)

Ah ragazzi,una domanda (sempre da profano):

Questo 3D mark 06, cosa testa esattamente?CPU,VGA,RAM,HD...o tutto il sistema contemporaneamente?
Se uso XP o Vista (non so quale mettere,penso entrambi altrimenti la 8800 come gli sfrutta gli effetti eccezziunali?!) cambia il punteggio?
Cambia il punteggio in base alla risoluzione video usata?

Che altro devo sapere prima di lanciare (quando avro' il pc...:fagiano: ) questo test?O non serve ad una mazza e son meglio (quali?) i benchmark dei giochi direttamente? :confused:


Ah dimenticavo:quando installero' il pc,meglio i driver dal sito di nvidia oppure quelli (suppongo) sul sito della marca della mia scheda? (pov dovrebbe essereprima xfx)

Roman91
15-10-2007, 14:29
---cut---
Ah dimenticavo:quando installero' il pc,meglio i driver dal sito di nvidia oppure quelli (suppongo) sul sito della marca della mia scheda? (pov dovrebbe essereprima xfx)

i driver sono uguali!
basta che trovi quelli ultimi(penso che il sito nvidia è aggiornato rispetto al sito pOv)

amenic
15-10-2007, 14:58
C'è qualcuno che usa un 22" collegato a questa scheda??

Perchè i 1440x900 del mio 19" wide mi sono un pò strettini.................. non vorrei però avere una risoluzione maggiore a discapito di un elevato calo di prestazioni/frame..................

mistero1982
15-10-2007, 16:11
Ehm ragazzi mi sono accorto di una cosa dell'adattatore con due molex della scheda... ho attaccato SOLO un molex all'alimentatore... me ne sono accorto solo adesso e nn gli avevo dato mai troppa importanza perchè la scheda funziona bene e l'ho anche overcloccata.... ho fatto male???

Ecco immagine allegata esplicativa http://img246.imageshack.us/img246/7897/molextopciexpress2wk6.th.jpg (http://img246.imageshack.us/my.php?image=molextopciexpress2wk6.jpg)

Roman91
15-10-2007, 16:32
Ehm ragazzi mi sono accorto di una cosa dell'adattatore con due molex della scheda... ho attaccato SOLO un molex all'alimentatore... me ne sono accorto solo adesso e nn gli avevo dato mai troppa importanza perchè la scheda funziona bene e l'ho anche overcloccata.... ho fatto male???

Ecco immagine allegata esplicativa http://img246.imageshack.us/img246/7897/molextopciexpress2wk6.th.jpg (http://img246.imageshack.us/my.php?image=molextopciexpress2wk6.jpg)

bhè...la risposta mi pare scontate....
se hanno messo 2 molex .2 ne devi attaccare e nn 1:)

mistero1982
15-10-2007, 16:46
bhè...la risposta mi pare scontate....
se hanno messo 2 molex .2 ne devi attaccare e nn 1:)

Uhm ho fatto un pò di confusione per nn dire peggio... dato che dentro al pc avevo questo adattatore http://img527.imageshack.us/img527/3245/molexx1900fq2.th.jpg (http://img527.imageshack.us/my.php?image=molexx1900fq2.jpg) e nn l'ho cambiato... ed ha solo un molex. Apparteneva ad una vecchia x1900 che possedevo sarà la stessa cosa??? :confused: è differente avere questo o l'altro? :mc:

Lo sò che ho fatto le cose di fretta e oltretutto non trovo più il vecchio adattatore, quindi mi consigliate di tenerla così o è male?

alcatraroz
15-10-2007, 16:59
C'è qualcuno che usa un 22" collegato a questa scheda??

Perchè i 1440x900 del mio 19" wide mi sono un pò strettini.................. non vorrei però avere una risoluzione maggiore a discapito di un elevato calo di prestazioni/frame..................

nessun prob...inoltre la res nativa di un 22" wide e' di 1680x1050 e da quel che ho letto in rete i 320 M di memoria bastano ampiamente fino alla res di 1600x1200 compresa e cominciano a nn essere piu' sufficienti da 1900 in poi..anche se qui mi pare che qualcuno affermi che gia' a 1600x1200 nn bastino piu'...io uso un HP w2207 da 3 mesi e x me funziona benissimo( e non sento neanche la necessita' di occarla se nn un pochino x giocare a top spin 2 e colin mcrae dirt che sono ottimizzati coi piedi.. mentre bioshock gira fluidissimo alla max res coi filtri attivi)

Marko#88
15-10-2007, 17:03
C'è qualcuno che usa un 22" collegato a questa scheda??

Perchè i 1440x900 del mio 19" wide mi sono un pò strettini.................. non vorrei però avere una risoluzione maggiore a discapito di un elevato calo di prestazioni/frame..................

io...con tutti gli ultimi giochi riesco a giocare a 1680*1050, ma in molti casi l'aa oltre 2x rischia di mandare in crisi la vga...non che sia così necessario a dire il vero.......

Brutto
15-10-2007, 17:14
nessun prob...inoltre la res nativa di un 22" wide e' di 1680x1050 e da quel che ho letto in rete i 320 M di memoria bastano ampiamente fino alla res di 1600x1200 compresa e cominciano a nn essere piu' sufficienti da 1900 in poi..anche se qui mi pare che qualcuno affermi che gia' a 1600x1200 nn bastino piu'...io uso un HP w2207 da 3 mesi e x me funziona benissimo( e non sento neanche la necessita' di occarla se nn un pochino x giocare a top spin 2 e colin mcrae dirt che sono ottimizzati coi piedi.. mentre bioshock gira fluidissimo alla max res coi filtri attivi)

Bioshock ti gira tuttol al max con filtri su dx10?
che differenza c'e' tra dx 9 e 10?

In ogni caso a 1680x1050 vai tranquillissimo coi 320mb,anche di piu' fino a 1920x1200,anche se a questa risoluzione iniziano le difficoltà coi filtri attivati.
Parlo solo per esperienza non diretta,recensioni e benchmark!In ogni caso tutti sono di questa opinione,dunque... :)

amenic
15-10-2007, 17:15
io...con tutti gli ultimi giochi riesco a giocare a 1680*1050, ma in molti casi l'aa oltre 2x rischia di mandare in crisi la vga...non che sia così necessario a dire il vero.......

Per "crisi" a che livelli...??

Brutto
15-10-2007, 17:16
io...con tutti gli ultimi giochi riesco a giocare a 1680*1050, ma in molti casi l'aa oltre 2x rischia di mandare in crisi la vga...non che sia così necessario a dire il vero.......

Anche io penso che non sia necessario andare oltre i 2x, in ogni caso penso tu sia cpu limited per sfruttare fino all'osso questa scheda!

Pero' credo che a questa risoluzione non avremo problemi a toglierci tutte le soddisfazioni! :)

mistero1982
15-10-2007, 17:16
Nessuno mi sa dare un aiuto? :confused:

Marko#88
15-10-2007, 17:21
Per "crisi" a che livelli...??

crisi nel senso che ad esempio con la demo di UT3 a 1680*1050 con tutto a palla e aa2x fa 50fps di media e non scende mai sotto i 40...con aa4x i mb di vram iniziano ad essere troppi e a volte cala anche a 25....;)

Anche io penso che non sia necessario andare oltre i 2x, in ogni caso penso tu sia cpu limited per sfruttare fino all'osso questa scheda!

Pero' credo che a questa risoluzione non avremo problemi a toglierci tutte le soddisfazioni! :)
il processore mi limita nei benchmark di sicuro...nei giochi, sopratutto a 1680*1050 coi filtri il procio non influisce ganchè, se la crisi è dovuta alla vram potreia nche avere un quad a 4GHZ che i fps resterebbero quelli....;)

morfeus02
15-10-2007, 17:23
devo dire che sta vga mi ha stupito in hl2 episode 2 e portal


con 16XQCSAA 16XAF mi fa 100+ fps :sbav:


a stock speeds (570/1700)

Brutto
15-10-2007, 17:32
crisi nel senso che ad esempio con la demo di UT3 a 1680*1050 con tutto a palla e aa2x fa 50fps di media e non scende mai sotto i 40...con aa4x i mb di vram iniziano ad essere troppi e a volte cala anche a 25....;)


il processore mi limita nei benchmark di sicuro...nei giochi, sopratutto a 1680*1050 coi filtri il procio non influisce ganchè, se la crisi è dovuta alla vram potreia nche avere un quad a 4GHZ che i fps resterebbero quelli....;)

Tu dici?:confused:
Sia qui sul forum sia il tipo dal quale ho preso il pc in arrivo( :mad: ) mi dicevano che con un core 2 duo leggermente pompato avrei sfruttato la 8800 al 100%,altrimentoi con un amd x2 (la mia prima scelta piu' economica) avrei sì giocato bene,ma in ogni caso sarei stato cpu limited... :boh:

amenic
15-10-2007, 17:47
crisi nel senso che ad esempio con la demo di UT3 a 1680*1050 con tutto a palla e aa2x fa 50fps di media e non scende mai sotto i 40...con aa4x i mb di vram iniziano ad essere troppi e a volte cala anche a 25....;)


il processore mi limita nei benchmark di sicuro...nei giochi, sopratutto a 1680*1050 coi filtri il procio non influisce ganchè, se la crisi è dovuta alla vram potreia nche avere un quad a 4GHZ che i fps resterebbero quelli....;)

La demo di UT a 1440x900, nn ricordo i setup gira a 62 e spiccioli, quasi da mal di stomaco.
Proverò meglio stasera....

Marko#88
15-10-2007, 18:10
Tu dici?:confused:
Sia qui sul forum sia il tipo dal quale ho preso il pc in arrivo( :mad: ) mi dicevano che con un core 2 duo leggermente pompato avrei sfruttato la 8800 al 100%,altrimentoi con un amd x2 (la mia prima scelta piu' economica) avrei sì giocato bene,ma in ogni caso sarei stato cpu limited... :boh:

sicuramente con un procio più veloce sfrutti meglio la vga anche se a parte casi estremi la differenza non è esagerata a risoluzioni del genere e con filtri....io però sto parlando di un'altra situazione, ossia quando le prestazioni calano per mancanza di vram...in qyel caso non è questione di processore, è la vram che servirebbe...;)

La demo di UT a 1440x900, nn ricordo i setup gira a 62 e spiccioli, quasi da mal di stomaco.
Proverò meglio stasera....

a 1680*1050 con tutto a palla senza aa fa 62 fissi anche da me...attivadno l'aa2x la media di un'intera partita l'ho misurata in circa 52fps, attivandolo a 4x invece c'era qualche calo di troppo...c'è da dire che è uno di quei giochi in cui l'aliasing si nota pochissimo, già a 2x l'immagine è perfetta...:)

Roman91
15-10-2007, 18:13
bhè...quello + che uno sparatutto mi pare un gioco di corse:Prrr:

doom3.it
15-10-2007, 19:27
usciti altri benc 8800gt http://www.dinoxpc.com/News/news.asp?ID_News=13295&What=News&tt=GeForce+8800+GT%3A+primi+benchmarks

provato stessa configurazione 3dmark 2005 stessa risoluzione frequenze default x vga. 600 punti a favore della 8800gt anche se non si capisce bene che procio hanno usato

Roman91
15-10-2007, 19:32
usciti altri benc 8800gt http://www.dinoxpc.com/News/news.asp?ID_News=13295&What=News&tt=GeForce+8800+GT%3A+primi+benchmarks

provato stessa configurazione 3dmark 2005 stessa risoluzione frequenze default x vga. 600 punti a favore della 8800gt anche se non si capisce bene che procio hanno usato
tocca vedere come se la cava nei giochi!

Nejiro
15-10-2007, 19:43
Ragazzi,scusatemi una domanda,come mai dal pannello di controllo NVidia non mi fa regolare la gamma?Ho una XFX.....
GRAZIE
Ragazzi per favore qualcuno potrebbe controllare se ha il mio stesso "problema"....Ho controllato la scheda che ho nell'HTPC(una 7600GT)e nemmeno li mi permette la regolazione del gamma....Possibile due NVidia su due PC diversi con lo stesso "difetto"?
GRAZIE
http://img156.imageshack.us/img156/7734/immaginejc4.jpg (http://imageshack.us)

xathanatosx
15-10-2007, 19:54
Nessuno mi sa dare un aiuto? :confused:

non va bene, ne hai bisogno di uno con doppio molex come quello nella foto prima e meglio se collegato da due cavi differenti che escono dall'alimentatore.

mistero1982
15-10-2007, 20:21
Cavolo il doppio molex lo posso avere solo tra qualche giorno... ci possono essere inconvenienti gravi? speravo di no perchè cmq l'adattatore che ho adesso appartiene ad una x1900xt che a quanto ho visto consuma quanto un'8800...

Smemo
15-10-2007, 21:23
Ragazzi per favore qualcuno potrebbe controllare se ha il mio stesso "problema"....Ho controllato la scheda che ho nell'HTPC(una 7600GT)e nemmeno li mi permette la regolazione del gamma....Possibile due NVidia su due PC diversi con lo stesso "difetto"?
GRAZIE
http://img156.imageshack.us/img156/7734/immaginejc4.jpg (http://imageshack.us)

modificalo da rivatuner sezione "Desktop and overlay color schemes" ;)

xathanatosx
15-10-2007, 21:58
Cavolo il doppio molex lo posso avere solo tra qualche giorno... ci possono essere inconvenienti gravi? speravo di no perchè cmq l'adattatore che ho adesso appartiene ad una x1900xt che a quanto ho visto consuma quanto un'8800...

non so ma se arriva meno corrente non penso che la scheda ne giovi!

alcatraroz
15-10-2007, 22:25
Bioshock ti gira tuttol al max con filtri su dx10?
che differenza c'e' tra dx 9 e 10?

In ogni caso a 1680x1050 vai tranquillissimo coi 320mb,anche di piu' fino a 1920x1200,anche se a questa risoluzione iniziano le difficoltà coi filtri attivati.
Parlo solo per esperienza non diretta,recensioni e benchmark!In ogni caso tutti sono di questa opinione,dunque... :)

si bioshock gira benissimo con filtri attivati e max res...nn ho controllato gli fps cmq sicuramente sempre piu' di 40 di media...differenze tra DX 10 E 9c nn ti so dire xche' l'ho giocato solo con vista ...si anche a me risultava che fino a 1920x1200 nn c'erano in sostanza differenze tra 320 e 640 M di vram...xo' in questo forum qualcuno affermava che gia' a 1680x1050 la vga cominciava ad andare in crisi...x le differenze tra DX 10 e 9 ho provato solo sega rally revo ma sono francamente impercettibili IMHO

Nol@n
15-10-2007, 23:01
Ciao a Tutti, ho un problema con questa scheda video...

I giochi, lo schermo ecc. ecc. va tutto bene, ma quando lancio i Video mi risultano essere molto molto chiari... ho provato a settare tramite il pannello la luminosità, ma il risultato è pessimo e vado a perdere un sacco di qualità video...

Come mai vedo benissimo i colori in internete nei giochi, ma nei video (DIVX) rimane molto chiaro? Ho provato sia WMP che VLC risultato identico

Nejiro
15-10-2007, 23:11
modificalo da rivatuner sezione "Desktop and overlay color schemes" ;)
Rivatuner cosa sono?Dei drive non ufficiali?Scusate la domanda ma non so cosa sono....Per installarli devo togliere i drive che ho?

amenic
15-10-2007, 23:23
Mi è sparita dalla traybar l'iconcina Nvida per i settaggi vari.

Non so perchè e sinceramente non ho idea di come farla riapparire...

Suggerimenti??!?!?:muro: :muro:

EDIT
Risolto..

Smemo
16-10-2007, 00:04
Rivatuner cosa sono?Dei drive non ufficiali?Scusate la domanda ma non so cosa sono....Per installarli devo togliere i drive che ho?

:doh:

è un conosciutissimo programma per gestire tutte le impostazioni delle schede video


qui c'è una guida dove spiega come aumentare la gamma con rivatuner

http://www.hwtweakers.net/article57-9.html

bye ;)

Brutto
16-10-2007, 00:28
si bioshock gira benissimo con filtri attivati e max res...nn ho controllato gli fps cmq sicuramente sempre piu' di 40 di media...differenze tra DX 10 E 9c nn ti so dire xche' l'ho giocato solo con vista ...si anche a me risultava che fino a 1920x1200 nn c'erano in sostanza differenze tra 320 e 640 M di vram...xo' in questo forum qualcuno affermava che gia' a 1680x1050 la vga cominciava ad andare in crisi...x le differenze tra DX 10 e 9 ho provato solo sega rally revo ma sono francamente impercettibili IMHO

Wow,tutto al max a 1680x1050?Inizio già a leccarmi i baffi!A default o con OC? ;)
In ogni caso ti chiedevo le differenze tra dx10 e 9c proprio con Bioshock,nel senso che con le dx10 sfrutti la 8800..ma per cosa esattamente?L'acqua meglio definita o c'e' dell'altro?
Non so se mettere Svista o tutti e due.. :mbe: so che Svista è piu' pesante da gestire,pero' la 8800 l'ho presa anche perchè è una delle poche schede dx10..se metto XP e basta allora che la sfrutto a fare?! :confused:
PEr quanto riguarda 320vs640, non ti preoccupare...Smemo ha tentato di fuorviarci,ma alla fine benchmarck (carta) canta! E se a 1600x1200 non c'e' differenza (figurarsi a 1680x1050 che è anche di meno), anche in altri giochi a 1900x1200 non c'e' differenza,anche se ad esser sinceri chi si puo' permettere un monitor con quelle risoluzioni di certo non si compra una gts 320 o 640 che sia,ma minimo una GTX!:read:

Marko#88
16-10-2007, 09:02
Wow,tutto al max a 1680x1050?Inizio già a leccarmi i baffi!A default o con OC? ;)
In ogni caso ti chiedevo le differenze tra dx10 e 9c proprio con Bioshock,nel senso che con le dx10 sfrutti la 8800..ma per cosa esattamente?L'acqua meglio definita o c'e' dell'altro?
Non so se mettere Svista o tutti e due.. :mbe: so che Svista è piu' pesante da gestire,pero' la 8800 l'ho presa anche perchè è una delle poche schede dx10..se metto XP e basta allora che la sfrutto a fare?! :confused:
PEr quanto riguarda 320vs640, non ti preoccupare...Smemo ha tentato di fuorviarci,ma alla fine benchmarck (carta) canta! E se a 1600x1200 non c'e' differenza (figurarsi a 1680x1050 che è anche di meno), anche in altri giochi a 1900x1200 non c'e' differenza,anche se ad esser sinceri chi si puo' permettere un monitor con quelle risoluzioni di certo non si compra una gts 320 o 640 che sia,ma minimo una GTX!:read:

per quel che riguarda bioshock le differenze fra dx9 e dx10 riguardano sostanzialmente acqua e fumo, differenze minime però...e fra l'altro già in dx9 sono fatte benissimo...fossi in te farei un dual boot se hai entrambi i so...per giocare usi xp che va meglio...vista lo usi per testare via via i nuovi dirver e quando ci saranno giochi che girano bene su vista in dx10 con una grafica migliore (ma sul serio, non come quelli d'ora) passi a vista definitivamente....
per quello che riguarda 320vs640 mi sono espresso poco fa, fino a 1280 anche con filtri non c'è differenza....già a 1680*1050 se si attivano i filtri è facile mettere in crisi la 320, meno facile con la 640...e lo dico da possessore di 320 (vabè, avrò la 640 fra 2 o 3 settimane ma non c'entra)...
;)

alcatraroz
16-10-2007, 09:48
Wow,tutto al max a 1680x1050?Inizio già a leccarmi i baffi!A default o con OC? ;)
In ogni caso ti chiedevo le differenze tra dx10 e 9c proprio con Bioshock,nel senso che con le dx10 sfrutti la 8800..ma per cosa esattamente?L'acqua meglio definita o c'e' dell'altro?
Non so se mettere Svista o tutti e due.. :mbe: so che Svista è piu' pesante da gestire,pero' la 8800 l'ho presa anche perchè è una delle poche schede dx10..se metto XP e basta allora che la sfrutto a fare?! :confused:
PEr quanto riguarda 320vs640, non ti preoccupare...Smemo ha tentato di fuorviarci,ma alla fine benchmarck (carta) canta! E se a 1600x1200 non c'e' differenza (figurarsi a 1680x1050 che è anche di meno), anche in altri giochi a 1900x1200 non c'e' differenza,anche se ad esser sinceri chi si puo' permettere un monitor con quelle risoluzioni di certo non si compra una gts 320 o 640 che sia,ma minimo una GTX!:read:
quando l'ho comprata io le gtx costavano un botto...( e un conto e' spendere 600 euro x il monitor + gts 320M un altro e' spendere 900 e passa euro x monitor piu' GTX) cmq ti posso assicurare che col processore che stai x comprare nn avrai problemi a 1680x1080 e fino a 1900x1200 ANCHE CON LA 320M ... le differenze tra le 2 versioni di gts si vedono a partire da 1600x1200 ma nn a risoluzione inferiori..anche coi filtri attivi ...fidati....vista nn e' affatto pesante se lo si ottimizza x bene e si tolgono la marea di servizi inutili che partono in automatico di default...proprio ora sto provando vista x64 con SP1 e ti devo dire che mi trovo benissimo il sistema e' molto veloce e responsivo e nn ho ancora trovato incompatibilita' con i programmi che usavo normalmente in xp...l'unico motivo x cui tengo ancora xp in dual boot e' PES6 xche' purtroppo in Vista non si puo' attivare il vSync dai forceware e cosi' nn si puo' togliere quella orrenda linea orizzontale che taglia il campo con vSync disabilitato...l'0C leggero lo uso solo per TOPSPIN2 e colin mcrae dirt che sono ottimizzati malissimo

Lorhan
16-10-2007, 09:58
.... Non so se mettere Svista o tutti e due.. :mbe: so che Svista è piu' pesante da gestire,pero' la 8800 l'ho presa anche perchè è una delle poche schede dx10..se metto XP e basta allora che la sfrutto a fare?! :confused:
...


beh il discorso xp/vista è relativo e non certo derterminante per la scelta della 8800gts ... anche con xp se vuoi una scheda performante di fascia medio-alta la 8800gts è la scelta migliore indipendentemente dalle dx10.

Ho provato alcuni giochi recenti (Lost Planet è anche ottimizzato per dx10) sia in dx9 che in dx10 su due computer identici (il mio con xp quello di mia moglie con vista ultimate 32) e sincermante non ho notato alcuna differenza sostanziale...
magari in furuto quando i giochi saranno realmente pensati ed ottimizzati per dx10 la differenza si farà sentire...ma per ora ... appesantire tutto il sistema e perdere 400mb di memoria (tanto si pappa vista) solo per le dx d10 mi sembra uno spreco inutile.

PS: (piccolo OT) leggo nella tua sign che abbiamo lo stesso procio.. ma a 3600 lo hai portato con il dissi boxed e lo tieni così per uso quotidiano? :eek: le temp come sono?

Brutto
16-10-2007, 11:15
quando l'ho comprata io le gtx costavano un botto...( e un conto e' spendere 600 euro x il monitor + gts 320M un altro e' spendere 900 e passa euro x monitor piu' GTX) cmq ti posso assicurare che col processore che stai x comprare nn avrai problemi a 1680x1080 e fino a 1900x1200 ANCHE CON LA 320M ... le differenze tra le 2 versioni di gts si vedono a partire da 1600x1200 ma nn a risoluzione inferiori..anche coi filtri attivi ...fidati....vista nn e' affatto pesante se lo si ottimizza x bene e si tolgono la marea di servizi inutili che partono in automatico di default...proprio ora sto provando vista x64 con SP1 e ti devo dire che mi trovo benissimo il sistema e' molto veloce e responsivo e nn ho ancora trovato incompatibilita' con i programmi che usavo normalmente in xp...l'unico motivo x cui tengo ancora xp in dual boot e' PES6 xche' purtroppo in Vista non si puo' attivare il vSync dai forceware e cosi' nn si puo' togliere quella orrenda linea orizzontale che taglia il campo con vSync disabilitato...l'0C leggero lo uso solo per TOPSPIN2 e colin mcrae dirt che sono ottimizzati malissimo

Son d'accordo con te, chi non ha una valanga di soldi da investire (o spendere?! ;) ) per i giochi deve pur ottimizzare quello che compra in funzione del budget..ed anche io l'ho fatto,500 euro per la gtx sono troppi per le mie tasche,meglio spenderne 250 e da qui a qualche tempo accontentarmi di quello che riesco a farne...in fin dei conti ora ho un xp1800+ con ati radeon 9800pro 128mb con dischi IDE...insomma penso che bene o male il pc che mi sto per prender andrà almeno al doppio! :stordita:
Stai usando Svista 64bit?Perchè è piu' ottimizzato del 32bit?Ho sentito che 64bit trovi un sacco di problemi di compatibilità..:boh:
Diciamo che Svista 32bit sarebbe piu' uno sifzio per vedere il SO nuovo,le nuove cosette che propone,le dx10 per i videogiochi..insomma,non una vera scelta di cuore,ma di curiosità...Magari col dual boot ho uno e l'altro,anche se appesantisco il tutto...non so che fare.. :cry: non vorrei che tra poco i giochi iniziassero a scattare per colpa di Svista che richiede maggiori risorse!
C'e' una guida su come togiere i servizi inutili che ciucciano una valanga di memoria?!Sul cesso di pc che ho adesso con XP partono 600mb all'avvio! :muro:

Brutto
16-10-2007, 11:20
beh il discorso xp/vista è relativo e non certo derterminante per la scelta della 8800gts ... anche con xp se vuoi una scheda performante di fascia medio-alta la 8800gts è la scelta migliore indipendentemente dalle dx10.

Ho provato alcuni giochi recenti (Lost Planet è anche ottimizzato per dx10) sia in dx9 che in dx10 su due computer identici (il mio con xp quello di mia moglie con vista ultimate 32) e sincermante non ho notato alcuna differenza sostanziale...
magari in furuto quando i giochi saranno realmente pensati ed ottimizzati per dx10 la differenza si farà sentire...ma per ora ... appesantire tutto il sistema e perdere 400mb di memoria (tanto si pappa vista) solo per le dx d10 mi sembra uno spreco inutile.

PS: (piccolo OT) leggo nella tua sign che abbiamo lo stesso procio.. ma a 3600 lo hai portato con il dissi boxed e lo tieni così per uso quotidiano? :eek: le temp come sono?

Dici?! :confused: Il mio dubbio è questo..e devo risolverlo entro un paio fi giorni visto che il pc mi arriva o oggi (difficile) o domani... :mad:

Per la CPU io non ho portato nulla! :stordita:
Il pc mi viene fornito cosi' settato da uno che vende solo roba OC in Ebay molto conosciuto,penso che faccia 444x8 (senza overvolt) ma non con il dissi standard,ma uno di qualità buona (senza essere il top ovviamente).
Per uso quotidiano avevo già chiesto ma mi pare di aver capito (ha risposto solo uno) che si abbassa da solo la frequenza con lo speed step :boh:
Per la temperatura invece non dovrebbe scaldare molto,sia perchè di suo scalda poco sia perchè ho comprato un case con il tunnel del vento per convogliare meglio l'aria su cpu (già con dissi cambiato) e ram!

Brutto
16-10-2007, 11:23
Ciao a tutti,
giorni fa avevo chiesto se i diversi progrmmi usati per fare OC della 8800 incidono sulla stabilità o sul MAX OC raggiungibile,qualcuno saprebbe rispondermi?
Una 8800 OC in IDLE scalda e consuma molto di piu' rispetto ad una 8800 default?




PS:il pc doveva arrivarmi oggi..niente! :muro: e non avro' XFX ma POV (con default piu' elevato) :mbe:

up


inoltre,se faccio OC della cpu come in firma, si ativa lo speed step ed in idle si abbassa la frequenza,temp e consumi o devo agire manualmente dal bios?




Altra domanda:
La VGA viene overcloccata direttamente dal pannello di controllo Nvidia,ricollegandomi alla prima domanda qui sopra,ci saranno differenze di overclock,temperatura e consumi rispetto un'altra utility per OC?! :confused:

Brutto
16-10-2007, 11:27
A proposito:il mio case puo' controllare fino a 4 ventole con la manopola centrale,2 del tunnel del vento per cpu (e ram credo), una frontale per immissione aria e..poi?!

Che altre ventole!?
Quella dell'alimentatore?
Della VGA?
Del dissipatore della CPU?!

Come cavolo funziona?! :confused: :mc:


E soprattutto con che programma "ufficiale" si controllano le temperature di HD,cpu,vga,velocità ventole etc? :boh:

Lorhan
16-10-2007, 12:08
up

inoltre,se faccio OC della cpu come in firma, si ativa lo speed step ed in idle si abbassa la frequenza,temp e consumi o devo agire manualmente dal bios?


nella mia mobo (p35-ds4) lo stpeedstep lo attivo direttamnte dal bios in qualsiasi momento (c1e) indipendentemente dall'OC fatto ed agisce commutando il molti a x6 anzichè x8


Altra domanda:
La VGA viene overcloccata direttamente dal pannello di controllo Nvidia,ricollegandomi alla prima domanda qui sopra,ci saranno differenze di overclock,temperatura e consumi rispetto un'altra utility per OC?! :confused:

Una 8800 OC in IDLE scalda e consuma molto di piu' rispetto ad una 8800 default?


io utilizzo rivatuner per occare la video, provando alcune soluzioni alla fine ho notato che l'aumento di temp in "idle" della gpu è di 1 grado tra scheda a default e scheda occata a 685/2050

alcatraroz
16-10-2007, 16:29
Son d'accordo con te, chi non ha una valanga di soldi da investire (o spendere?! ;) ) per i giochi deve pur ottimizzare quello che compra in funzione del budget..ed anche io l'ho fatto,500 euro per la gtx sono troppi per le mie tasche,meglio spenderne 250 e da qui a qualche tempo accontentarmi di quello che riesco a farne...in fin dei conti ora ho un xp1800+ con ati radeon 9800pro 128mb con dischi IDE...insomma penso che bene o male il pc che mi sto per prender andrà almeno al doppio! :stordita:
Stai usando Svista 64bit?Perchè è piu' ottimizzato del 32bit?Ho sentito che 64bit trovi un sacco di problemi di compatibilità..:boh:
Diciamo che Svista 32bit sarebbe piu' uno sifzio per vedere il SO nuovo,le nuove cosette che propone,le dx10 per i videogiochi..insomma,non una vera scelta di cuore,ma di curiosità...Magari col dual boot ho uno e l'altro,anche se appesantisco il tutto...non so che fare.. :cry: non vorrei che tra poco i giochi iniziassero a scattare per colpa di Svista che richiede maggiori risorse!
C'e' una guida su come togiere i servizi inutili che ciucciano una valanga di memoria?!Sul cesso di pc che ho adesso con XP partono 600mb all'avvio! :muro:

col pc che stai x fare nn avrai prob...tra l'altro vedo che hai preso anche una x me ottima p5k ...io ho tutte e due le versioni di vista aggiornate con SP1 (salvate come immagini ghost su un HDD esterno) cosi' che posso usare o l'una o l'altra sulla seconda partizione mentre sulla primaria di boot tengo fisso win xp.... e vista x64 SP1 che ho adesso e' quella con cui mi trovo meglio...incompatiibilita' nn ho trovate (funziona perfino freepops..oltre che i vari nero 8.1 power iso driver cleaner,babylon 5.5 ) al limite c'e' sempre l'opzione x far funzionare un eventuale programma in modalita' compatibile winxp sp2...come ti dicevo attualmente xp lo uso solo per giocare a Pes6...x tutto il resto uso vista...x ottimizzare vista ti consiglio yamicsoft vista manager vers 64 bit ...che e' molto semplice da usare e x me molto efficace

robygr
16-10-2007, 17:00
raga forse questa domanda sarà stata fatta milioni di volt ema vi espongo il mio problema..

Ho comprato i seguenti pezzi per farmi il pc nuovo:

520W Corsair CMPSU-520HXEU Modulare PFC-Attivo
96.00EUR


Thermaltake Armor Jr. VC3000BWS NERO
98.00EUR

DDRII 800Mhz 2GB GEIL ULTRA-KIT CL4 (2x1024mb)
78.00EUR

775 ASUS P5KC (P/S/SATAII/GBL/R/DDRII)
107.00EUR

INTEL CORE 2 DUO E6750 2.66 GHz 4MB BOX FSB1333
161.50EUR

e sono indeciso se prendere questa scheda oppure la versione da 640..

nel senso spendo 800€ non mi cambia nulla fare il tirchio per 50€ in piu..

voi che mi consigliate? come monitor ho un 19" wide appena preso.. lo so che forse basta la 320 ma voglio che basti ancora anche fra 1/2 anni..

grazie!

alcatraroz
16-10-2007, 17:40
se son 50 euro senz altro la 640 ma se son 100 x me conviene la 320

robygr
16-10-2007, 17:48
se son 50 euro senz altro la 640 ma se son 100 x me conviene la 320

in un notissimo shop online una costa 270 e l'altra 320€

ZiP!
16-10-2007, 18:01
up


inoltre,se faccio OC della cpu come in firma, si ativa lo speed step ed in idle si abbassa la frequenza,temp e consumi o devo agire manualmente dal bios?




Altra domanda:
La VGA viene overcloccata direttamente dal pannello di controllo Nvidia,ricollegandomi alla prima domanda qui sopra,ci saranno differenze di overclock,temperatura e consumi rispetto un'altra utility per OC?! :confused:

Se lo speedstep funziona correttamente e abbassa il voltaggio, in overclock puoi avere problemi di instabilità e sei costretto a disabilitarlo.
Se non abbassa il voltaggio come succede su molte schede madri puoi anche disattivarlo perchè comunque i consumi sono identici.

La seconda domanda è un pò sciocca, riflettici bene.
A determinare temperature e consumi è soprattutto il voltaggio, che comunque non è modificabile senza effettuare modifiche alla scheda, e le frequenze che comunque incidono in modo più limitato. Il programma che usi per overclockare non ha nulla a che vedere con questi fattori, l'unica limitazione che potresti trovare con uno o con un altro è il limite che ti impone perchè a suo avviso stai andando troppo oltre (esempio, non ti passa il test interno di rivatuner), ma sono protezioni disattivabili, e in genere la situazione è esattamente l'opposto, cioè che passi i test anche con frequenze che poi non sono per nulla stabili.

ZiP!
16-10-2007, 18:02
in un notissimo shop online una costa 270 e l'altra 320€

Se non hai fretta, la risposta migliore è aspettare meno di un mese per l'uscita della GT e delle nuove GTS.

Brutto
16-10-2007, 18:02
raga forse questa domanda sarà stata fatta milioni di volt ema vi espongo il mio problema..

Ho comprato i seguenti pezzi per farmi il pc nuovo:

520W Corsair CMPSU-520HXEU Modulare PFC-Attivo
96.00EUR


Thermaltake Armor Jr. VC3000BWS NERO
98.00EUR

DDRII 800Mhz 2GB GEIL ULTRA-KIT CL4 (2x1024mb)
78.00EUR

775 ASUS P5KC (P/S/SATAII/GBL/R/DDRII)
107.00EUR

INTEL CORE 2 DUO E6750 2.66 GHz 4MB BOX FSB1333
161.50EUR

e sono indeciso se prendere questa scheda oppure la versione da 640..

nel senso spendo 800€ non mi cambia nulla fare il tirchio per 50€ in piu..

voi che mi consigliate? come monitor ho un 19" wide appena preso.. lo so che forse basta la 320 ma voglio che basti ancora anche fra 1/2 anni..

grazie!

Ciao!
Fra 1/2 anni sarà quasi vecchia una gtx/ultra,figurati la gts :)
In ogni caso non sono 50 ma 80/100 euro in piu!
Se hai soldi che ti avanzano (tanti) prendi la gtx,
se hai soldi che ti avanzano (abbastanza) prenditi la 640
se hai soldi che ti avanzano (pochi) prenditi una 320

calcola che una 320 basta overcloccarla leggermente ed è piu' veloce di una 640 alla risoluzione del tuo monitor, quindi...forse faresti meglio ad investire 100 euro su un'altro componente!

ciao!

robygr
16-10-2007, 18:10
Se non hai fretta, la risposta migliore è aspettare meno di un mese per l'uscita della GT e delle nuove GTS.

i prezzi saranno in linea con queste?

se sono maggiori non mi interessano..se saranno uguali.. bene.. non ho fretta di farmi il pc..

Ciao!
Fra 1/2 anni sarà quasi vecchia una gtx/ultra,figurati la gts :)
In ogni caso non sono 50 ma 80/100 euro in piu!
Se hai soldi che ti avanzano (tanti) prendi la gtx,
se hai soldi che ti avanzano (abbastanza) prenditi la 640
se hai soldi che ti avanzano (pochi) prenditi una 320

calcola che una 320 basta overcloccarla leggermente ed è piu' veloce di una 640 alla risoluzione del tuo monitor, quindi...forse faresti meglio ad investire 100 euro su un'altro componente!

ciao!


su e-key la differenza fra le due versioni è 50€:)

Nol@n
16-10-2007, 18:45
Ciao a Tutti, ho un problema con questa scheda video...

I giochi, lo schermo ecc. ecc. va tutto bene, ma quando lancio i Video mi risultano essere molto molto chiari... ho provato a settare tramite il pannello la luminosità, ma il risultato è pessimo e vado a perdere un sacco di qualità video...

Come mai vedo benissimo i colori in internet e nei giochi, ma nei video (DIVX) rimane molto chiaro? Ho provato sia WMP che VLC risultato identico


Hey, qualcuno può aiutarmi per il mio problema?
:help:
Grazie ;)

Brutto
16-10-2007, 18:45
Se lo speedstep funziona correttamente e abbassa il voltaggio, in overclock puoi avere problemi di instabilità e sei costretto a disabilitarlo.
Se non abbassa il voltaggio come succede su molte schede madri puoi anche disattivarlo perchè comunque i consumi sono identici.

La seconda domanda è un pò sciocca, riflettici bene.
A determinare temperature e consumi è soprattutto il voltaggio, che comunque non è modificabile senza effettuare modifiche alla scheda, e le frequenze che comunque incidono in modo più limitato. Il programma che usi per overclockare non ha nulla a che vedere con questi fattori, l'unica limitazione che potresti trovare con uno o con un altro è il limite che ti impone perchè a suo avviso stai andando troppo oltre (esempio, non ti passa il test interno di rivatuner), ma sono protezioni disattivabili, e in genere la situazione è esattamente l'opposto, cioè che passi i test anche con frequenze che poi non sono per nulla stabili.


La cpu avrebbe il voltaggio a defaultmse mi abbassa il moltiplicatore e non il voltaggio,vuol dire che in idle un e6750 @ 2,66 consuma e scalda come un e6750 @ 3,6?

Invece per OC la vga che usi rivatuner o che usi l'utility di Nvidia,arrivero' agli stessi risultati dici? :confused:

Roman91
16-10-2007, 18:51
raga,
quali sono gli ultimi driver x vista 32bit(x86)

ZiP!
16-10-2007, 19:56
i prezzi saranno in linea con queste?

se sono maggiori non mi interessano..se saranno uguali.. bene.. non ho fretta di farmi il pc..




su e-key la differenza fra le due versioni è 50€:)

Le 8800gt usciranno da 256 e 512mb, hanno bus "solo" a 256bit ma 112 sp. I prezzi si parla di poco meno della attuale 320mb per la 256mb e poco di più per la 512mb, mentre le prestazioni saranno uguali se non superiori. Le gts nuove dovrebbero avere i prezzi allineati alla 640mb ma comunque sono cifre indicative, per qualcosa di più concreto si parla di fine mese o inizio novembre.

La cpu avrebbe il voltaggio a defaultmse mi abbassa il moltiplicatore e non il voltaggio,vuol dire che in idle un e6750 @ 2,66 consuma e scalda come un e6750 @ 3,6?

Invece per OC la vga che usi rivatuner o che usi l'utility di Nvidia,arrivero' agli stessi risultati dici? :confused:

Si, a parità di voltaggio il consumo è lo stesso, misurato di persona sul mio e6400 a 2.13 e 3.2 ghz, comunque sogna se speri di arrivarci con voltaggio default a 3.6 ghz :rolleyes: [nota, default e AUTO sono cose ben diverse]
Per la vga, la risposta è si. Inoltre l'ultima versione di rivatuner permette di modificare anche le frequenze degli shader, cosa che nessun altro programma fa (credo)

raga,
quali sono gli ultimi driver x vista 32bit(x86)

Da mesi che frequenti questo forum e ancora non sai dove cercare i driver?:
http://www.nvidia.com/Download/index.aspx?lang=en-us

Roman91
16-10-2007, 20:08
Da mesi che frequenti questo forum e ancora non sai dove cercare i driver?:
http://www.nvidia.com/Download/index.aspx?lang=en-us

grazie x l'aiuto:)
anche se quelli nn sono gli ultimi driver:D
gli ultimi sono 163.75

ZiP!
16-10-2007, 20:16
grazie x l'aiuto:)
anche se quelli nn sono gli ultimi driver:D
gli ultimi sono 163.75

devo quotare il mio ultimo messaggio?
quelli sono gli ultimi driver stabili, se vuoi i beta c'è il link un paio di cm più in basso

Roman91
16-10-2007, 20:17
devo quotare il mio ultimo messaggio?
quelli sono gli ultimi driver stabili, se vuoi i beta c'è il link un paio di cm più in basso

hai ragione:D

Lorhan
16-10-2007, 20:22
... Inoltre l'ultima versione di rivatuner permette di modificare anche le frequenze degli shader, cosa che nessun altro programma fa (credo)


ciao Zip
mi sai dire a grandi linee cosa sono gli shader e come influiscono sul tuning?

ho capito il clock del core e delle ram (beh è semplice) ma il fatto di avere lo shader non piu in sincro con il clock del core ma indipendente cosa comporta?

non capisco cosa sono e vorrei capire per agire con coerenza :)

Brutto
17-10-2007, 01:29
Si, a parità di voltaggio il consumo è lo stesso, misurato di persona sul mio e6400 a 2.13 e 3.2 ghz, comunque sogna se speri di arrivarci con voltaggio default a 3.6 ghz :rolleyes: [nota, default e AUTO sono cose ben diverse]
Per la vga, la risposta è si. Inoltre l'ultima versione di rivatuner permette di modificare anche le frequenze degli shader, cosa che nessun altro programma fa (credo)

Ma va?Pensavo che in OC consumasse di piu'...mistero! :)
PEr il voltaggio di default,questo è quello che mi è stato promesso..ora vediamo quando arriva se è vero!
A proposito..il voltaggio di default è 1.45v e lo trovo solo nel bios?

Bello anche che una vga OC in idle consuma come una VGA a default..ma allora perchè certe persone dicono che con rivatuner mettono all'avvio un downclock a 350/700 se poi il consumo e la temperatura non cambiano rispetto il default?! :confused:

Brutto
17-10-2007, 09:39
i prezzi saranno in linea con queste?

se sono maggiori non mi interessano..se saranno uguali.. bene.. non ho fretta di farmi il pc..




su e-key la differenza fra le due versioni è 50€:)

Dicci cosa hai già preso (e dunque amen!) e quello che hai/devi ancora prendere,cosi' magari riusciamo a consigliarti meglio per questi 50euro + ss di differenza! :sofico:

Alzatan
17-10-2007, 13:12
raga una cosina la volo per tranquillizzare tutti.... Unreal Tournament 3 tutto al max occupa 230mb di ram video, 1280x1024 texture e world al massimo... ciao!

Marko#88
17-10-2007, 13:45
raga una cosina la volo per tranquillizzare tutti.... Unreal Tournament 3 tutto al max occupa 230mb di ram video, 1280x1024 texture e world al massimo... ciao!

questo la demo...si dice che il gioco finale sarà parecchio più pesante...comunque la demo a 1680*1050 con tutto a palla e aa2x af16x occupa circa 310mb...;)

Brutto
17-10-2007, 14:07
Mi è arrivato il pc nuovoooooooooooooooooooooooooo :sbav:


Solo che devo risolvere un paio di disguidi col tipo,ad esempio il dissipatore è circolare,sotto pieno di lamelle,sopra una ventola nera con scritto intel...è quello standard?!
Ho una parte della confezione della cpu con scritto il seriale etc,per la garanzia di 3(?) anni basta quello?
Nella confezione della 8800 POV non ci sono cd rom coi driver,qualcuno sa dirmi se ci devono essere come scritto nel manuale ma NON sulla scatola esterna?
Oggi pomeriggio vado in città a prendermi l'alimentatore in firma se è arrivato,altrimenti me ne danno uno sostitutivo adeguato fino a che non arriva.Inoltre mi prendo l'HD sata2 nuovo (fino ora solo IDE!) penso un seagate barracuda 7200.10 NCQ tra i 320 ed i 500GB (70-100euro),pensavo di mettere su 2 partizioni XP e Vista 32bit ultimate..e speriamo bene!

PS:è vero che con la asus P5K il raid puo' essere fatto solo (jmircron) tra disco interno e E-sata e non tra 2 duschi sata interni?!Bella notizia del mio amico di oggi..non che ora mi serva ma in futuro... :boh:


:ops:

halduemilauno
17-10-2007, 14:12
Mi è arrivato il pc nuovoooooooooooooooooooooooooo :sbav:


Solo che devo risolvere un paio di disguidi col tipo,ad esempio il dissipatore è circolare,sotto pieno di lamelle,sopra una ventola nera con scritto intel...è quello standard?!
Ho una parte della confezione della cpu con scritto il seriale etc,per la garanzia di 3(?) anni basta quello?
Nella confezione della 8800 POV non ci sono cd rom coi driver,qualcuno sa dirmi se ci devono essere come scritto nel manuale ma NON sulla scatola esterna?
Oggi pomeriggio vado in città a prendermi l'alimentatore in firma se è arrivato,altrimenti me ne danno uno sostitutivo adeguato fino a che non arriva.Inoltre mi prendo l'HD sata2 nuovo (fino ora solo IDE!) penso un seagate barracuda 7200.10 NCQ tra i 320 ed i 500GB (70-100euro).


:ops:

che ci fai con il cd dei driver? stai navigando scaricati gli ultimi. poi magari accendi il pc e gia te li hanno messi.
;)

Lorhan
17-10-2007, 15:26
Mi è arrivato il pc nuovoooooooooooooooooooooooooo :sbav:


Solo che devo risolvere un paio di disguidi col tipo,ad esempio il dissipatore è circolare,sotto pieno di lamelle,sopra una ventola nera con scritto intel...è quello standard?!
:ops:


si è il dissi boxed...
non è male io ci sto andando tranquillo a 3200 con temp in full intorno a 50° ... ho solo sotituito la pasta-schifezza che c'era con la ilver artic 5 - oltre scalda molto nonostante che il ninehundred abbia un'ottima ventilazione finchè non mi arriva il noctua nonmi azzardo a tenerlo piu alto di così con il boxed

tieni d'occhio le temp con TAt se ti ha fatto l'OC da 3600 con i dissi boxed....

Brutto
17-10-2007, 15:49
Duqnue,per i driver mi sono scaricato gli ultimi driver WHQL,non penso mi abbia messo qualcosa lui visto che l'hd lo vado a comprare adesso :)
PEr il dissi di stock grazie per l'info,TAT lo trovo su google?
A parte che di questa faccenda gli devo parlare molto chiaramente,mi ha detto che tutto è a posto anche con le temp..in ogni caso appena monto il pc stasera avro' maggiori notizie!

Lorhan
17-10-2007, 16:23
Tat lo trovi anche qui su Hw nella sezione download ... è una semplice utility di intel che ti rivela le temp dei core molto attendibile

xathanatosx
17-10-2007, 21:19
Allora...problematica...perche se ho il mio procio a 3600 mhz riesco a fare 11682 3DMARK e se lo mando a 3700 mhz mi scende a 11580 3DMARK?

Ho trovato il mio max stabile a GPU 660 - Shader 1700 - Ram 1000:mad:
A qualcun'altro è capitata la stessa cosa?

Ho fatto anche caso che bisogna alzare gpu e shader in maniera proporzionale e non alzare troppo o l'uno o l'altro a casaccio.
http://www.pctuner.info/up/results/_200710/th_20071017211917_vga.jpg (http://www.pctuner.info/up/image.php?src=_200710/20071017211917_vga.jpg)

Marko#88
18-10-2007, 00:01
che strano, mai capitato...io man mano che alzo vedo i punteggi aumentare...hai fatto il bench alle stesse identiche condizioni vero?

xathanatosx
18-10-2007, 00:22
che strano, mai capitato...io man mano che alzo vedo i punteggi aumentare...hai fatto il bench alle stesse identiche condizioni vero?

si. ma non mi tornano tanto le cose. Anche ad un mio amico/conoscente succede la stessa cosa.

Roman91
18-10-2007, 00:41
si. ma non mi tornano tanto le cose. Anche ad un mio amico/conoscente succede la stessa cosa.

prova a dare + volt alla cpu

ZiP!
18-10-2007, 01:16
lo strap della scheda madre, anche io ho prestazioni migliore a 3.2 ghz piuttosto che a 3.4, in ogni caso è un pò ot anche questo..

xathanatosx
18-10-2007, 07:48
prova a dare + volt alla cpu

la cpu e rock solid.

g!o
18-10-2007, 21:45
raga una domanda
secondo voi posso mantenerla 560/840 daily use?

Roman91
18-10-2007, 21:54
raga una domanda
secondo voi posso mantenerla 560/840 daily use?

la puoi tenere anche + tirata!
basta che non supera 85°C in full

Marko#88
18-10-2007, 21:55
raga una domanda
secondo voi posso mantenerla 560/840 daily use?

certo che si se è stabile (e direi proprio di si viste le frequenze)...io la tengo in daily a 650/2000...

comunque piccolo aggiornamento: ho cambiato case...ho preso l'antec nine hundred...a livello di ventilazione è pauroso, con ventola al 60% e vga a frequenze standard non arriva a 50 in idle...ventola al 60 specifico....


http://img88.imageshack.us/img88/7897/immagineme9.th.jpg (http://img88.imageshack.us/my.php?image=immagineme9.jpg)

g!o
18-10-2007, 21:56
la puoi tenere anche + tirata!
basta che non supera 85°C in full
nn penso ci sia problema
tengo la ventola sempre al 100%

cmq grazie x la dritta

neo27
19-10-2007, 01:01
incuriosito dalle vostre performance velocistiche ho overcloccato anche io, diversamente da quello che mi ha fatto credere un utente l'alimantatore streuso ovvero q-tec 550 con voltaggi tutti sballati..............:cry: :cry: :cry: :D :D :D ha miracolosamente retto anche giocando diverse ore a bioshock:ciapet: :ciapet: :ciapet:
ecco i miei risultati che ne pensate? chi dà una mano a spingere il procio?

http://www.pctuner.info/up/results/_200710/th_20071019012317_suproc.JPG (http://www.pctuner.info/up/image.php?src=_200710/20071019012317_suproc.JPG)

Marko#88
19-10-2007, 06:52
incuriosito dalle vostre performance velocistiche ho overcloccato anche io, diversamente da quello che mi ha fatto credere un utente l'alimantatore streuso ovvero q-tec 550 con voltaggi tutti sballati..............:cry: :cry: :cry: :D :D :D ha miracolosamente retto anche giocando diverse ore a bioshock:ciapet: :ciapet: :ciapet:
ecco i miei risultati che ne pensate? chi dà una mano a spingere il procio?

http://www.pctuner.info/up/results/_200710/th_20071019012317_suproc.JPG (http://www.pctuner.info/up/image.php?src=_200710/20071019012317_suproc.JPG)

bel risultato ma per il procio qui saremmo troppo ot...;)

Jaguar64bit
19-10-2007, 13:51
La mia 8800 gts xfx extreme edition si overclocca che è un piacere, sono arrivato a 660 core 990 ram :D


già si overcloccano bene le XFX non extreme , figurati la tua extreme come sale.. c'è gente che la tiene anche 700/1100.

Marko#88
19-10-2007, 13:56
La mia 8800 gts xfx extreme edition si overclocca che è un piacere, sono arrivato a 660 core 990 ram :D

praticamente come la stragrande maggioranza delle gts320, ecco perchè le versioni occate di fabbrica sono inutili...:asd:

Jaguar64bit
19-10-2007, 13:58
Tu come la tieni???


650/950 ma di mem sale anche a 1000 , il core a dire il vero non l'ho mai tirato al max.

Jaguar64bit
19-10-2007, 14:03
in full con la vga occata , di media 76-78 gradi , max ma proprio max 80 gradi , ma ricordo solo una volta di aver visto quella temp.

Jaguar64bit
19-10-2007, 14:07
e allora sei ok.

Lorhan
19-10-2007, 14:38
io al momento ho fatto due profili uno a default ed uno che si attiva con l'accelerazione hw e passa a 690/2025 (shader 1620)... oltre questo limite si freeza il test di atitool.

le temp sono
52° ventola a 60% (sia in OC che a default)
65/68° giochi (ventola a 60%)
69/72° test di atitool (a 70° la ventola passa a 70% ma dopo pochi istanti la temp torna sotto 70° e la fan rallenta)

mircocatta
19-10-2007, 15:49
ragazz come la considerate la versione fatal1ty? è buona? meglio di qualsiasi 320 e 640?

morfeus02
19-10-2007, 15:57
ragazz come la considerate la versione fatal1ty? è buona? meglio di qualsiasi 320 e 640?

no

costa solo di piu...

lamia xfx per esempio è solo un extreme edition e si overclocka di piu della fatality che hanno preso come test su guru3d (lamia arriva a 700mhz di core senza overvolt quellaa 670 si piantava e in generale sopra i 650 dava artefatti)

l'unica differenza della fatality è che ha 650mhz core e 1000 sulle memorie e un bell'adesivo con la faccia di quel nerd sul dissi

non vale la spesa

morfeus02
19-10-2007, 16:04
sai che ti dico mi hai fatto venir voglia... mi scarico nibitor e nvflash e trasformola mia extreme in fatality, così non devo usare rivatuner, gliimposto le frequenze direttamente dal bios

mircocatta
19-10-2007, 16:09
sai che ti dico mi hai fatto venir voglia... mi scarico nibitor e nvflash e trasformola mia extreme in fatality, così non devo usare rivatuner, gliimposto le frequenze direttamente dal bios

wow, ho poteri sovrannaturai :asd:

morfeus02
19-10-2007, 16:13
wow, ho poteri sovrannaturai :asd:

:asd:

Lorhan
19-10-2007, 16:16
sai che ti dico mi hai fatto venir voglia... mi scarico nibitor e nvflash e trasformola mia extreme in fatality, così non devo usare rivatuner, gliimposto le frequenze direttamente dal bios

in questo modo la scheda rimane overcloccata di default a quelle frequenze? quali vantaggi porta rispetto al normale oc via software con rt?
mi suggerisci una guida ben fatta per flashare?

grasssie :)

morfeus02
19-10-2007, 16:18
in questo modo la scheda rimane overcloccata di default a quelle frequenze? quali vantaggi porta rispetto al normale oc via software con rt?
mi suggerisci una guida ben fatta per flashare?

grasssie :)

non porta vantaggi,

anzi bè ne porta il vantaggio è che non devi overclockare con rivatuner l'overclock è direttamente dal boot del pc :)

per flashare se non sei esperto e non vuoi rischiare te lo sconsiglio :asd:

cmq se cerchi su google ci sovrebbero essere caterbe di guide

si usa il prog nibitor per modificare il bios e nvflash per caricarlo nella vga

morfeus02
19-10-2007, 16:21
la fatality e 650 core 1600 shader 1000 (x2) mem

tutto il resto uguale, ho controllato il suo bios


a vi consiglio se avete intenzione di fare un bios mod, di mettere gli shader su 1500 non 1600, che è il valore standard

morfeus02
19-10-2007, 16:44
ok fatto, eccomi felice possessore di una fatality edition

XD

bios mod concluso con successo :)
http://img263.imageshack.us/img263/4046/immagineqm4.jpg (http://imageshack.us)

mircocatta
19-10-2007, 16:51
non porta vantaggi,

anzi bè ne porta il vantaggio è che non devi overclockare con rivatuner l'overclock è direttamente dal boot del pc :)

per flashare se non sei esperto e non vuoi rischiare te lo sconsiglio :asd:

cmq se cerchi su google ci sovrebbero essere caterbe di guide

si usa il prog nibitor per modificare il bios e nvflash per caricarlo nella vga

scusa un attimo, ma rivatuner non occa ad ogni avvio automaticamente?


morpeus come ti gira la beta di crysis con la tua 8800gts 320 ?

morfeus02
19-10-2007, 17:29
scusa un attimo, ma rivatuner non occa ad ogni avvio automaticamente?


morpeus come ti gira la beta di crysis con la tua 8800gts 320 ?

si mi gira bene

a 1280*1024 tutto al max sta sui 33fps average


cmq si overclocka ad ogni avvio automaticamente, ma devi avere rivatuner installato :asd:

e cmq in ogni caso driver level overclocking è diverso da hardware level

non ti saprei dire se cambia qualcosa a livello prestazionale, so che è piu stabile, e piu comodo :D

morfeus02
19-10-2007, 17:38
ho fatto un test con Lost Planet Dx10

nel test Snow che a quanto pare è il piu impegnativo
ho avuto un incremento da 34.3fps average a 40,6fps average

passando da 570mhz core a 650 e da 1700mhz mem a 2000 (da 1300 a 1500 shader)

direi che non è un piccolo incremento XD

mircocatta
19-10-2007, 17:40
si mi gira bene

a 1280*1024 tutto al max sta sui 33fps average


cmq si overclocka ad ogni avvio automaticamente, ma devi avere rivatuner installato :asd:

e cmq in ogni caso driver level overclocking è diverso da hardware level

non ti saprei dire se cambia qualcosa a livello prestazionale, so che è piu stabile, e piu comodo :D
intendi dire ke via software è più stabile o via hardware?

morfeus02
19-10-2007, 17:43
intendi dire ke via software è più stabile o via hardware?

via hardware ;)

Marko#88
19-10-2007, 19:24
ok fatto, eccomi felice possessore di una fatality edition

XD

bios mod concluso con successo :)
http://img263.imageshack.us/img263/4046/immagineqm4.jpg (http://imageshack.us)

io tengo 648/1620/1008...:)

morfeus02
19-10-2007, 21:28
io tengo 648/1620/1008...:)

la porto con rivatuner a 690, a volte, se mi serve:asd: (cioè mai :asd:)

ma non mi fido a lasciarlo come settaggio base del bios

lo shader lo lascio come andrebbe se le clocks fossero linked.

non so perchè, mi ispira di più :asd:

morfeus02
19-10-2007, 23:46
Ho moddato anke io il bios a fatality edition :D come mai gli shader e meglio a 1500 e non a 1600???

questione di gusti

a parte che alzando gli shader sembra che non si abbia nessun risultato visibile

preferisco 1500 invece di 1600 perchè si mantiene il ratio rops/shader originale della scheda

tutto qui :)

Brutto
20-10-2007, 01:03
ciao a tutti!
finalmente ho il pc nuovo!
E siccome non vorrei fondere tutto in OC,subito una domanda:
con gpu z 0.0.8 di default ho 513/792/1188
con rivatuner diciamo che usando il tasto TEST mi dice che non ci son problemi fino a 660/951/1528 (anche con con gpuz)
Shader sempre linked al core clock
se abilito la barra degli shader,scompare il tasto TEST e posso applicare direttamente fino a 675/982/non mi ricordo (linked)
questa ultima cosa mi spaventa..prima con gli avvisi si fermava a 665,ora senza avvisi 675 e poi..mi son fermato e son tornato a 660.
Fondo tutto?!
Prima senza barra degli shader almeno avevo qualcuno che mi dava un limite,ora con la barra degli shader vado avanti a 675 ed oltre..ma senza limiti fondo tutto?! aiutoooooooooooooo!


PS:la cpu devo ancora occarla,cosi' come la ram
PPS:per provare 3Dmark2006 devo scaricare 576mb di test?Per eseguirlo e comparare i risultati (sui 9000punti dovrei fare?) devo lasciare i parametri a default come la risoluzione video?Ho XP sp2!

Marko#88
20-10-2007, 07:24
questione di gusti

a parte che alzando gli shader sembra che non si abbia nessun risultato visibile

preferisco 1500 invece di 1600 perchè si mantiene il ratio rops/shader originale della scheda

tutto qui :)

gli shader influiscono invece, io ho fatto varie prove e le prestazioni aumentano...aumentano più alzando gli shader che la ram ad esempio....
e comunque vai tranquillo che non è importante che rimanga il rapporto originale...;)

alcatraros
20-10-2007, 09:41
ciao a tutti!
finalmente ho il pc nuovo!
E siccome non vorrei fondere
questa ultima cosa mi spaventa..prima con gli avvisi si fermava a 665,ora senza avvisi 675 e poi..mi son fermato e son tornato a 660.
Fondo tutto?!
Prima senza barra degli shader almeno avevo qualcuno che mi dava un limite,ora con la barra degli shader vado avanti a 675 ed oltre..ma senza limiti fondo tutto?! aiutoooooooo
PS:la cpu devo ancora occarla,cosi' come la ram
PPS:per provare 3Dmark2006 devo scaricare 576mb di test?Per eseguirlo e comparare i risultati (sui 9000punti dovrei fare?) devo lasciare i parametri a default come la risoluzione video?Ho XP sp2!



nn fondi niente solo al max si blocca il pc e la vga...si x il 3d mark e procurati un num seriale se puoi se no ti devi collegare ad internet sempre x vedere i risultati... va lasciato tutto a def ma dal pannello forceware metti massime prestazioni...dovresti fare a def tra i 9300 e 9800 IMHO

Lorhan
20-10-2007, 09:55
ciao a tutti!
finalmente ho il pc nuovo!


bene! :) ed ora buon divertimento ;)
com'è andata poi la questione del dissi? sei a default per ora? se posso darti un consiglio portala tranquillo a 400x8 ... così da avere una base certa da cui partire per sperimentare ;)


Prima senza barra degli shader almeno avevo qualcuno che mi dava un limite,ora con la barra degli shader vado avanti a 675 ed oltre..ma senza limiti fondo tutto?! aiutoooooooooooooo!


oltre a 3dmark 2006 ti consiglio di utilizzare anche atitool con test artefatti e test 3d. In genere 3dmark ti fa passare i test ma ati è molto piu severo, infatti con 3dmark passavo tranqulliamente il test a 700 mapoi nei giochi arrivava implacabile il freeze... ati mi ferma a 690 mna funziona senza problemi ;)

ciao

Brutto
20-10-2007, 10:32
nn fondi niente solo al max si blocca il pc e la vga...si x il 3d mark e procurati un num seriale se puoi se no ti devi collegare ad internet sempre x vedere i risultati... va lasciato tutto a def ma dal pannello forceware metti massime prestazioni...dovresti fare a def tra i 9300 e 9800 IMHO

Ciao!
Ho fatto come mi hai detto il 3d mark 2006 ed ho messo il codice senza toccare alcuna impostazione ed ho ottenuto 8980
sm2 score 3989
hdr/sm3 score 3899
cpu score 2385

tutto a default...fa schifo?! :rolleyes:
PEro' devo dire che da bios è tutto settato in automatico e la ram è vista come ddr2 800mhz pc6400 quindi dovrei portarla a 1066mhz come c'e' scritto sulla confezione (in realtà è un puntino a pennarello indicante la frequenza tra le 5 proposte!) :stordita:

Come mi hai detto ho aperto il pannello di controllo nvidia cliccando tasto dx sull'icona nvidia vicino all'orologio e poi pannello di controllo invidia,poi regola le impostazioni delle immagini con anteprima,usa la mia preferenza mettendo in rislato prestazioni.Giusto?

Brutto
20-10-2007, 10:38
bene! :) ed ora buon divertimento ;)
com'è andata poi la questione del dissi? sei a default per ora? se posso darti un consiglio portala tranquillo a 400x8 ... così da avere una base certa da cui partire per sperimentare ;)



oltre a 3dmark 2006 ti consiglio di utilizzare anche atitool con test artefatti e test 3d. In genere 3dmark ti fa passare i test ma ati è molto piu severo, infatti con 3dmark passavo tranqulliamente il test a 700 mapoi nei giochi arrivava implacabile il freeze... ati mi ferma a 690 mna funziona senza problemi ;)

ciao

Ciao!
Grazie per l'augurio! :) ho messo quake wars e bioshock (MOHA devo ancor provarlo) e tutto di default con ram a 800mhz tutti i dettagli alti va che è una goduria!
Povero il mio vecchio pc...tutta un'altra solfa! :rolleyes:

Per ora non ho risolto niente col tipo perchè non sono riuscito a contattarlo :mbe: ed ho il dissi standard,dici che da bios tocco solo i valori 400x8= @ 3200 e sto tranquillo?Niente altro?

Grazie per la dritta,provero' anche atitool!Quale versione usi? :)

halduemilauno
20-10-2007, 10:40
Ciao!
Ho fatto come mi hai detto il 3d mark 2006 ed ho messo il codice senza toccare alcuna impostazione ed ho ottenuto 8980
sm2 score 3989
hdr/sm3 score 3899
cpu score 2385

tutto a default...fa schifo?! :rolleyes:
PEro' devo dire che da bios è tutto settato in automatico e la ram è vista come ddr2 800mhz pc6400 quindi dovrei portarla a 1066mhz come c'e' scritto sulla confezione (in realtà è un puntino a pennarello indicante la frequenza tra le 5 proposte!) :stordita:

Come mi hai detto ho aperto il pannello di controllo nvidia cliccando tasto dx sull'icona nvidia vicino all'orologio e poi pannello di controllo invidia,poi regola le impostazioni delle immagini con anteprima,usa la mia preferenza mettendo in rislato prestazioni.Giusto?

la scheda è a default ma pure il procio? o è quel 3600? perchè se è quello hai fatto poco. anche se da cpu score non pare che è oc.
;)

Brutto
20-10-2007, 11:07
la scheda è a default ma pure il procio? o è quel 3600? perchè se è quello hai fatto poco. anche se da cpu score non pare che è oc.
;)

no tutto a default come scritto! :)

Invece ora ho cambiato da bios SOLO la ram e l'ho messa a 1066..ed indvinate un po?!

5064 :confused:

sm2 1999
hdr/sm3 1937
cpu 2428


come mai?! Gli fps si sono quasi dimezzati..orco mondo! :mc:

Con cpu z vedo che il core della cpu "saltella", è a 2003.8 moltiplicatore a 6x,a volte per frazioni 8x

E' lo speed step vero?
Pero' in automatico dovrebbe andarmi a 2600 e 8x con il 3d mark quindi non influisce sui test vero?

Idee? :help:

Brutto
20-10-2007, 11:25
Ehm..posso rispondermi da solo?! :mc:

Ho impostato all'avvio rivatuner con frequenze 260/400 !!! :stordita:
Ehm...sono un novellino! :stordita:
Infatti dai 63.4gb di banda passante a quella freuqnza arrivo a 40gb,quasi la metà :)

A proposito...carino cpu z, la banda passante non la mostra riva?!

In ogni caso,ecco i test con tutto a default + ram 1066 (che è a default pure questa!)

9003

sm2 4000
sm3 3890
cpu 2403

ecco,diciamo che questo è con tutto di default..ora devo appena iniziare l'OC... pauuuura! :help:

Brutto
20-10-2007, 11:34
nn fondi niente solo al max si blocca il pc e la vga...si x il 3d mark e procurati un num seriale se puoi se no ti devi collegare ad internet sempre x vedere i risultati... va lasciato tutto a def ma dal pannello forceware metti massime prestazioni...dovresti fare a def tra i 9300 e 9800 IMHO

Sono decisamente sotto.. :cry:

Marko#88
20-10-2007, 12:01
Ehm..posso rispondermi da solo?! :mc:

Ho impostato all'avvio rivatuner con frequenze 260/400 !!! :stordita:
Ehm...sono un novellino! :stordita:
Infatti dai 63.4gb di banda passante a quella freuqnza arrivo a 40gb,quasi la metà :)

A proposito...carino cpu z, la banda passante non la mostra riva?!

In ogni caso,ecco i test con tutto a default + ram 1066 (che è a default pure questa!)

9003

sm2 4000
sm3 3890
cpu 2403

ecco,diciamo che questo è con tutto di default..ora devo appena iniziare l'OC... pauuuura! :help:

la banda passante è un calcolo semplicissimo, bus/8*frequenza memorie...
320/8*1600 (def) = 64Gb/s...;)

Brutto
20-10-2007, 12:25
la banda passante è un calcolo semplicissimo, bus/8*frequenza memorie...
320/8*1600 (def) = 64Gb/s...;)

Mica lo sapevo, grazie :)
Pero' questo numeretto che imdica la "forza bruta" di una scheda,potevano mettercelo in riva no?!

In ogni caso col pc che avevo prima ossia xp1800+ e radeon 9800 pro 128mb, non credo che arrivavo nemmeno alla metà della frequenza piu' bassa che posso mettere adesso! (40gb/s) :D

Per il resto?Mi servono bei consigli! :)

A proposito:non ho toccato la ventola...sul pannello di riva mi dice che è al 100% giusto?

le ventole del case sono al minimo

morfeus02
20-10-2007, 12:53
gli shader influiscono invece, io ho fatto varie prove e le prestazioni aumentano...aumentano più alzando gli shader che la ram ad esempio....
e comunque vai tranquillo che non è importante che rimanga il rapporto originale...;)

sicuro?

ok allora li alzo a 1600 :) come la fatality

non piu su xche non voglio tirarla troppo :)

halduemilauno
20-10-2007, 12:59
Mica lo sapevo, grazie :)
Pero' questo numeretto che imdica la "forza bruta" di una scheda,potevano mettercelo in riva no?!

In ogni caso col pc che avevo prima ossia xp1800+ e radeon 9800 pro 128mb, non credo che arrivavo nemmeno alla metà della frequenza piu' bassa che posso mettere adesso! (40gb/s) :D

Per il resto?Mi servono bei consigli! :)

A proposito:non ho toccato la ventola...sul pannello di riva mi dice che è al 100% giusto?

le ventole del case sono al minimo


la banda passante non indica la forza bruta di una scheda.
;)

halduemilauno
20-10-2007, 13:00
Ehm..posso rispondermi da solo?! :mc:

Ho impostato all'avvio rivatuner con frequenze 260/400 !!! :stordita:
Ehm...sono un novellino! :stordita:
Infatti dai 63.4gb di banda passante a quella freuqnza arrivo a 40gb,quasi la metà :)

A proposito...carino cpu z, la banda passante non la mostra riva?!

In ogni caso,ecco i test con tutto a default + ram 1066 (che è a default pure questa!)

9003

sm2 4000
sm3 3890
cpu 2403

ecco,diciamo che questo è con tutto di default..ora devo appena iniziare l'OC... pauuuura! :help:

ok. ora riporta il procio a 3600 e rifai il test. poi oc la scheda e rifai il test.
;)

Marko#88
20-10-2007, 13:01
Mica lo sapevo, grazie :)
Pero' questo numeretto che imdica la "forza bruta" di una scheda,potevano mettercelo in riva no?!

In ogni caso col pc che avevo prima ossia xp1800+ e radeon 9800 pro 128mb, non credo che arrivavo nemmeno alla metà della frequenza piu' bassa che posso mettere adesso! (40gb/s) :D

Per il resto?Mi servono bei consigli! :)

A proposito:non ho toccato la ventola...sul pannello di riva mi dice che è al 100% giusto?

le ventole del case sono al minimo


quel 100 che vedi non è esatto, la sezione della ventola è da un'altra parte...a default è al 60% comunque...comunque attento, la banda passante è solo un numero, è indicativo di una scheda ma non è certo l'unica cosa da guardare...;)

sicuro?

ok allora li alzo a 1600 :) come la fatality

non piu su xche non voglio tirarla troppo :)

si, gli shader influiscono sulle prestazioni...comunque fai varie prove, io fino a 1620 li ho perfetti, a 1674 ho qualche artefatto di tanto in tanto quindi li tengo a 1620...magari i tuoi reggono oltre, chissà...

Alzatan
20-10-2007, 14:02
Ma si possono alzare i shader via software per provare??? senza fare subito un flash del bios???

certo, basta avere rivatuner 2.05 e dei driver aggiornati... attivi la funzionalità (su xp devi mettere nvapiusagebehavior su 1 nel power user, su vista nn serve) e poi setti gli shader alla frequenza che vuoi da rivatuner

Inlogitech
20-10-2007, 14:29
scusate ho da montare una POV 8800GTS 320mb, quali driver consigliate?

So pure che alcuni hanno avuto probl derivanti da un presunto bug, con l' ultima versione dei drivers questo probl è stato superato?

tnx:)

spazzolone76
20-10-2007, 14:40
scusate ho da montare una POV 8800GTS 320mb, quali driver consigliate?

So pure che alcuni hanno avuto probl derivanti da un presunto bug, con l' ultima versione dei drivers questo probl è stato superato?

tnx:)

scarica gli ultimi dal sito nvidia;
se giochi sempre dal sito invidia scarica quelli beta

Ciao

Inlogitech
20-10-2007, 14:47
scarica gli ultimi dal sito nvidia;
se giochi sempre dal sito invidia scarica quelli beta

Ciao


tnx :)

Brutto
20-10-2007, 15:19
Ciao,
ho installato atitool e sto facendo le prove col cubetto peloso per trovare artefatti..siamo sicuri che funziona?!

con rivatuner mi dice che il test lo passa fino a 660/950,
qui con atitool sono a 700/1000.
circa 81 gradi,la ventola..boh immagino sia in automatico,non ho toccato nulla!
Sto muovendo solo le ultime 2 barre, quelle delle 3d performance.
Oppure devo linkarle e muoverle tutte e 6 contemporaneamente?

Se clicco su un'altra finestra immediatamente le frequenze (ad es 700/1000) mi tornano a default!

Dove sto sbagliando!? :boh:


edit:sicuramente sto sbagliando qualcosa,sono andato ben oltre i 700 e quel cubo peloso mi continua a scriver no errors for...e non credo sia fattibile..

Smemo
20-10-2007, 17:49
Ciao,
ho installato atitool e sto facendo le prove col cubetto peloso per trovare artefatti..siamo sicuri che funziona?!

con rivatuner mi dice che il test lo passa fino a 660/950,
qui con atitool sono a 700/1000.
circa 81 gradi,la ventola..boh immagino sia in automatico,non ho toccato nulla!
Sto muovendo solo le ultime 2 barre, quelle delle 3d performance.
Oppure devo linkarle e muoverle tutte e 6 contemporaneamente?

Se clicco su un'altra finestra immediatamente le frequenze (ad es 700/1000) mi tornano a default!

Dove sto sbagliando!? :boh:


edit:sicuramente sto sbagliando qualcosa,sono andato ben oltre i 700 e quel cubo peloso mi continua a scriver no errors for...e non credo sia fattibile..

aumenta la ventola a 75% o meglio ancora a 85% quando overclokki, altrimenti cominci a rischiare seriamente... :muro:

fquintan
20-10-2007, 18:10
chi mi spiega...
ho appena montato la POV 8800gts 320mb
l'ho provata con medal of honor airborne
poi con la demo di call of duty4

li ho eseguiti ed ho messo tutto al massimo 1280x1024 compreso texture e AA 4x
i giochi vanno una bomba giocabilissimi tanto che ho pensato di stare sopra i 30fps

quindi per curiosita' ho eseguito fraps...sorpresa.. non va oltre 25 fps nei momenti piu' critici.... ma io lo vedo fluido!
con gli stessi frame se stavo ancora con la 7800gt era scattoso e fastidioso..
ba non capisco cmq anche se so bene di stare cpu limited..sono soddisfattissimo cosi per ora ;)

Alzatan
20-10-2007, 18:47
Ciao,
ho installato atitool e sto facendo le prove col cubetto peloso per trovare artefatti..siamo sicuri che funziona?!

con rivatuner mi dice che il test lo passa fino a 660/950,
qui con atitool sono a 700/1000.
circa 81 gradi,la ventola..boh immagino sia in automatico,non ho toccato nulla!
Sto muovendo solo le ultime 2 barre, quelle delle 3d performance.
Oppure devo linkarle e muoverle tutte e 6 contemporaneamente?

Se clicco su un'altra finestra immediatamente le frequenze (ad es 700/1000) mi tornano a default!

Dove sto sbagliando!? :boh:


edit:sicuramente sto sbagliando qualcosa,sono andato ben oltre i 700 e quel cubo peloso mi continua a scriver no errors for...e non credo sia fattibile..

ma per quanto tempo lo fai girare??? Poi, sei sicuro che le frequenze che imposti siano applicate?? da rivatuner, nell'hardware monitoring, che frequenze segna???

Marko#88
20-10-2007, 18:49
chi mi spiega...
ho appena montato la POV 8800gts 320mb
l'ho provata con medal of honor airborne
poi con la demo di call of duty4

li ho eseguiti ed ho messo tutto al massimo 1280x1024 compreso texture e AA 4x
i giochi vanno una bomba giocabilissimi tanto che ho pensato di stare sopra i 30fps

quindi per curiosita' ho eseguito fraps...sorpresa.. non va oltre 25 fps nei momenti piu' critici.... ma io lo vedo fluido!
con gli stessi frame se stavo ancora con la 7800gt era scattoso e fastidioso..
ba non capisco cmq anche se so bene di stare cpu limited..sono soddisfattissimo cosi per ora ;)

ci sono giochi che a parità di fps sembrano più fluidi di altri...evidentemente moha e cod4 sono giocabilissimi anche a 25 per te (imho no ma son pareri)...comunque, leva l'aa a 4x e mettilo a 2x...cambia poco in grafica ma molto in prestazioni...

fquintan
20-10-2007, 19:17
ci sono giochi che a parità di fps sembrano più fluidi di altri...evidentemente moha e cod4 sono giocabilissimi anche a 25 per te (imho no ma son pareri)...comunque, leva l'aa a 4x e mettilo a 2x...cambia poco in grafica ma molto in prestazioni...

prima di tutto grazie per la risposta!

la cosa bella che ho provato sia con AA4x che direttamente senza!
e i fps sono praticamente gli stessi!
non so che dire...

Lorhan
20-10-2007, 19:23
Ciao,
ho installato atitool e sto facendo le prove col cubetto peloso per trovare artefatti..siamo sicuri che funziona?!

con rivatuner mi dice che il test lo passa fino a 660/950,
qui con atitool sono a 700/1000.
circa 81 gradi,la ventola..boh immagino sia in automatico,non ho toccato nulla!
Sto muovendo solo le ultime 2 barre, quelle delle 3d performance.
Oppure devo linkarle e muoverle tutte e 6 contemporaneamente?

Se clicco su un'altra finestra immediatamente le frequenze (ad es 700/1000) mi tornano a default!

Dove sto sbagliando!? :boh:


edit:sicuramente sto sbagliando qualcosa,sono andato ben oltre i 700 e quel cubo peloso mi continua a scriver no errors for...e non credo sia fattibile..

considera che per avere una buona stabilità devi fare i 3 preset UGUALI così da non avere problemi e togliere l'automatismo low/performance dei drive.

Segui la guida che c'è qui su hw e vedrai che ti chiarisce ogni dubbio ;)

non ci capivo un H fino a due giorni fa ma la lettura della guida a chiarito ogni dubbio, fidati... è ben fatta e dopo riesci a farti i profili a doc sia per overclock che per 2d (idem per le fan e la velocità, che puoi impostare in automatico in base alle temp)

http://www.hwupgrade.it/forum/showthread.php?t=1465227

Marko#88
20-10-2007, 19:26
prima di tutto grazie per la risposta!

la cosa bella che ho provato sia con AA4x che direttamente senza!
e i fps sono praticamente gli stessi!
non so che dire...

non avevo visto la tua firma...allora è normalissimo, sei cpu limited da far paura...è per quello che senza aa va come con aa...;)

morfeus02
20-10-2007, 19:45
non avevo visto la tua firma...allora è normalissimo, sei cpu limited da far paura...è per quello che senza aa va come con aa...;)

confermo

cod4 sembra adorare le cpu dual core

Marko#88
20-10-2007, 20:14
confermo

cod4 sembra adorare le cpu dual core

anche medal of honor, ho l'X2 che spesso e volentieri mi va con entrambi i core al 95/100%...;)

fquintan
20-10-2007, 20:18
a vabbè allora è per via del processore!
cmq lo cambierò dopo natale
grazieeee

Inlogitech
21-10-2007, 15:21
avevo aperto un 3d apposito...poi mi sono ricordato di questo già aperto :D


cmq ho montato la 8800gts 320 della pov la ventola gira sempre al 60% con temp di circa 50°-52°C, è normale? La % di giri della ventola aumenta in base al carico (quando si gioca ect) ovvero devo settare qualcosa io per farla andare al max?


tnx

Marko#88
21-10-2007, 15:27
avevo aperto un 3d apposito...poi mi sono ricordato di questo già aperto :D


cmq ho montato la 8800gts 320 della pov la ventola gira sempre al 60% con temp di circa 50°-52°C, è normale? La % di giri della ventola aumenta in base al carico (quando si gioca ect) ovvero devo settare qualcosa io per farla andare al max?


tnx

tramite rivatuner puoi impostare la ventola come meglio credi...di base la ventola resta al 60% fino ad alte temperature tipo 80 e passa...poi aumenta...imho è meglio non arrivarci così in alto, ti consiglio di dare una letta qui
http://www.hwupgrade.it/forum/showthread.php?t=1465227
;)

morfeus02
21-10-2007, 19:42
leakati i drivers della 8800gt (g92)
167.26
inf modificato


http://forums.guru3d.com/showthread.php?p=2465514#post2465514

provateli e fatemi sapere :D

Marko#88
21-10-2007, 19:49
leakati i drivers della 8800gt (g92)
167.26
inf modificato


http://forums.guru3d.com/showthread.php?p=2465514#post2465514

provateli e fatemi sapere :D

download lentissimo, si lamentano anche li...va a 1kb/s..:(

morfeus02
21-10-2007, 19:50
download lentissimo, si lamentano anche li...va a 1kb/s..:(

c'è il link rapishare poco sotto, per vista

Marko#88
21-10-2007, 19:52
c'è il link rapishare poco sotto, per vista

l'ho visto, ma ho xp...cioè, ho anche vista ma non lo uso...;)

morfeus02
21-10-2007, 19:56
l'ho visto, ma ho xp...cioè, ho anche vista ma non lo uso...;)

lol

io spero in dei miglioramenti in dx10(molto probabili) appena lo uploadano da un altraparte li provo (non posso scaricare da rapishare a causa del nat fastweb :( )

Marko#88
21-10-2007, 20:00
lol

io spero in dei miglioramenti in dx10(molto probabili) appena lo uploadano da un altraparte li provo (non posso scaricare da rapishare a causa del nat fastweb :( )

si, è probabile che i miglioramenti siano visibili più in dx10 che in dx9...
vista non mi convince ancora, le prestazioni sono ancora troppo sotto xp...a vista passerò stabilmente poi staltr'anno quando ci saranno vga più potenti, quando avrò il quad e sopratutto quando le dx10 serviranno a qualcosa, non come ora che sono solo marketing...;)

halduemilauno
21-10-2007, 20:27
download lentissimo, si lamentano anche li...va a 1kb/s..:(

ftp://61.172.177.245/phk/167.26.rar
;)

Marko#88
21-10-2007, 20:36
ftp://61.172.177.245/phk/167.26.rar
;)

parecchio lento anche lui...vabè amen, non ho fretta...:)

Lorhan
21-10-2007, 21:12
ma questi drive possono essere utilizzati anche per la 8800gts? O_o

Marko#88
21-10-2007, 21:47
ma questi drive possono essere utilizzati anche per la 8800gts? O_o

si, hanno sono modificati per andare anche sulle nostre vga...;)

Li ho scaricati, ma qualcuno li ha provati??? se e si come vanno??? io li provo dopo la partita della juve :D

io sono ancora a metà dal download, mi va lentissimo...se li provi dicci come vanno...:)

Lorhan
21-10-2007, 22:23
ho leto un po di interventi nel forum del link ma sembra che non consentano l'uso di software per OC e negli ultimi post c'è chi lamenta bsod e problemi vari.. qualcuno qui li ha provati?

Marko#88
21-10-2007, 22:28
ho leto un po di interventi nel forum del link ma sembra che non consentano l'uso di software per OC e negli ultimi post c'è chi lamenta bsod e problemi vari.. qualcuno qui li ha provati?

a sto punto non li provo nemmeno, meglio aspettare che escano "sul serio"...;)

morfeus02
21-10-2007, 22:36
a sto punto non li provo nemmeno, meglio aspettare che escano "sul serio"...;)

si confermo


danno problemi :D

fquintan
22-10-2007, 11:12
scusate se mi intrometto!
ma usare le directx10 su XP è ancora impossibile?

Lorhan
22-10-2007, 11:46
scusate se mi intrometto!
ma usare le directx10 su XP è ancora impossibile?

ufficialmente msoft non rilascerà mai dx10 per xp... però ho letto di un progetto di "adattamento" e pubblicazione parallela di una versione dx10 modificata per xp... ma non credo sia ultimata

fquintan
22-10-2007, 12:06
ufficialmente msoft non rilascerà mai dx10 per xp... però ho letto di un progetto di "adattamento" e pubblicazione parallela di una versione dx10 modificata per xp... ma non credo sia ultimata

k allora c'è solo da aspettare hehe :O

Brutto
22-10-2007, 14:03
Ciao a tutti!

allora sono inesperto per quello ho impegato un po' di tempo per raccogliere qualche dato!
Intanto..TAT serve per vedere le temperature,ma non lo trovo sul sito..perchè atitool,nvidia monitor e riva non sono attendibili?
asus probe II è attendibile sui valori anche di Vcore etc etc?


I risultati del 3d mark 06

9375 cpu @ 3200 gpu @ default
11065 cpu @ 3200 gpu @ 660/951/1528
11217 cpu @ 3360 gpu @ 660/951/1528

come sono i risultati?Fanno schifo?
La cpu devo ancora tirarla,nel senso che DOVREBBE arrivare a 3600...

Il dubbio è nelle RAM

sono kingston 1066 garantite fino a 1200, il tipo del negozio mi ha detto di mettere la ram 1:1,Vcore 1,40 ed iniziare con l'OC della CPU.
Pero' @3360 la ram va a 420 di bus * 2 = 860...non capisco, ed i 1200?
Se metto subito la ram da bios a 1066 o 1200 e poi sposto il FSB, la ram aumenta e mi "sballa" l'OC della CPU?
una volta ho messo la ram a 1200 (o era 1066?!) e cpu z mi diceva FSB:DRAM 5:6 frequenza 580mhz mi pare...non ci capisco nulla!

:help:



PS:per testare la stabilità di un sistema, che programma si usa?nvidia test di stabilità?3dmark 06? altro? :boh:

neo1987
22-10-2007, 14:18
Sarà una domanda che vi avran già fatto milioni di volte... ma come siete a temperature? :)

A case aperto faccio 55 in idling, 70 in full. Rispettivamente 65 e 80 a case chiuso. Abituato alla mia vecchia sk video... direi che siamo nella norma. :p

ZiP!
22-10-2007, 14:20
Per l'overclock della cpu e della ram usa ORTHOS e fallo girare almeno due ore, se fila tutto liscio sei ok (Più ore lo fai girare meglio è) e SUPER PI (fai il test da 32Mb se lo passa sei ok), per la scheda video atitool va più che bene (Una mezz'oretta senza artefatti e sei ok, 1 ora sei ok il doppio :D ) Preciso che il 3d mark 2006 non è un test di stabilità, capita anche che nel 3d mark non dia artefatti ma con atitool si, attieniti ad ati tool :D

Super pi è un benchmark, non è affatto utile per testare la stabilità di un sistema. Orthos è decisamente più adatto, ma con due ore non hai la certezza di essere stabile, ne servono almeno 8.
Per la scheda video, il 3dmark può essere utile come test preliminare, ma se è veramente stabile lo vedi solamente con una sessione di un paio d'ore di gioco a qualcosa di pesante

Marko#88
22-10-2007, 15:10
Il SUPER PI sarà anche un benchmark come dici te, ma se hai valori sballati non te lo passa, cmq sono d'accordo sul fatto di orthos per essere sicuri al 100% ne servono 24 di ore:D

24 ore è da malati, dopo 5 o 6 ore si può tranquillamente dire di avere un sistema RS...;)

ZiP!
22-10-2007, 15:37
24 ore è da malati, dopo 5 o 6 ore si può tranquillamente dire di avere un sistema RS...;)

Ti assicuro che mi sono capitati errori dopo oltre 6 ore.
A quel punto il sistema è abbastanza stabile, ma rock solid significa un'altra cosa
comunque ot...

Inlogitech
22-10-2007, 16:20
domanda veloce veloce....


quali sono le temperature ottimali di una 8800gts 320mb @ default e dissy standard in idle e full load?


tnx

neo1987
22-10-2007, 16:55
domanda veloce veloce....


quali sono le temperature ottimali di una 8800gts 320mb @ default e dissy standard in idle e full load?


tnx

Eheh... l'ho chiesto anche io poco sopra. Non ho avuto risposta! :cry:

Inlogitech
22-10-2007, 17:16
Eheh... l'ho chiesto anche io poco sopra. Non ho avuto risposta! :cry:



la risposta la si trova in prima pagina, l'ho trovata dopo che avevo scritto il mio intervento....... cmq l' unica cosa che nn è riportata è il fatto che se vuoi che la ventola giri + del 60% devi adoperarti tu con il rivatuner, altrimenti sia che vada a 50°C sia che vada a 80°C sempre al 60% girerà la venotla della vga

ZiP!
22-10-2007, 17:46
la faq in prima pagina più che altro era riferita alle temperature estive..
diciamo che si va dai 45 ai 65 in idle, dipende decisamente da troppi fattori, l'importante è che comunque non si superino i 90°C, in quel caso sarebbe meglio agire sulla velocità della ventola (che comunque a quella temperatura già dovrebbe essere abbastanza alta)

Marko#88
22-10-2007, 19:27
Ti assicuro che mi sono capitati errori dopo oltre 6 ore.
A quel punto il sistema è abbastanza stabile, ma rock solid significa un'altra cosa
comunque ot...

osta!!:eek:
io gli ho fatto fare poco più di 8 ore, le temperature erano stabili da un pezzo e nessun errore...quindi l'ho ritenuto a posto...per il futuro mi ricorderò di questo, magari ne farò di più..:)

xathanatosx
23-10-2007, 00:44
Cmq aggiornamenti sull'overclock: 650 core 1000 memorie 1550 shader :D

non ti sembra un po bassino lo shader a 1550?

xathanatosx
23-10-2007, 00:45
24 ore è da malati, dopo 5 o 6 ore si può tranquillamente dire di avere un sistema RS...;)

nel treath della p5b delux, per ottenere il RS abbiamo fatto almeno 12 ore di orthos ma sarebbe meglio 24 orette e sei a cavallo.

redkiller
23-10-2007, 09:00
io ho una gainward Bliss GeForce 8800 GTS , nelle specifiche c'è scritto cooling 2-Slot Fan,, che vuol dire????????

Capozz
23-10-2007, 10:16
che ha il raffreddamento a due slot come tutte le 8800 e tutte le ati 2900, ovvero il dissipatore alto il doppio, che prende due slot posteriori :D