PDA

View Full Version : [THREAD UFFICIALE] Geforce 8800 GTS 640 MB


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33

gianlu75xp
15-09-2007, 15:55
anche io prima di avere il 24 pollici avevo piu o meno le tue temperature(anzi un pochino di più perchè non usavo rivaturner)

adesso sto provando all'80% e mi tiene 64 in idle e i 71/72 in full....a discapito della silenziosità ovviamente :D :D :D

cosi le temperature possono andar bene o rischio sempre di rovinami la scheda?? (sempre considerando che uso una risoluzione pari a 1920*1200 :oink: :oink: :oink:)

Può andare bene... è comunque la temperatura in idle che preoccupa di più, quella in full è invece ottima ;)
Per provare ad abbassare di qualche grado potresti crearti 2 profili con Rivatuner, uno per il 2D ed uno per 3D. Quello 2D dovresti settarlo con frequenze inferiori a quelle @ default (es. 350/700) mentre quello in 3D con le frequenze normali oppure overcloccate, come preferisci tu.

Qui è spiegato come fare, puoi scegliere se affidare al programma lo switch 2D/3D oppure farlo tu manualmente :)

http://www.hwupgrade.it/forum/showthread.php?t=1465227

sommojames
15-09-2007, 18:32
Per caso qualcuno con questa scheda è riuscito a mettere le sue mani sulla beta di Crysis che è in distribuzione da qualche giorno su fileplanet?

madpunx
15-09-2007, 18:34
mmmm..ho un problema molto strano cn la mia 8800xxx da 320(l'ho presa da poco)
ho instaalto rivatuner e nella sezione fan dove c'è da settare le ventole...nn posso mettere valori che voglio..cioè...m fa mettere solo 25% e 100% però la ventola non cambia.
mentre se vado nella sezione fan(della prima casella...cioè low sistem settings) la posso alzare come voglio e si sente che gira più veloce.
questo però è scomodo perchè non posso selezionare(come nella sezione prima)i valori della ventola nelle applicazioni 3d/2d...
qualcuno ha lo stesos problema?
ho provato anche cn ntunes..ma le opzioni ventola..sn grigie nn le posso modificare..!

javiersousa
15-09-2007, 20:15
Ciao raga, cosa usate per monitorare le temperature? io usi everest solo che ci sono tante voci per la scheda video e non so qual'è quella per la GPU, aiutatemi voi.....ciao.

gianlu75xp
15-09-2007, 21:03
mmmm..ho un problema molto strano cn la mia 8800xxx da 320(l'ho presa da poco)
ho instaalto rivatuner e nella sezione fan dove c'è da settare le ventole...nn posso mettere valori che voglio..cioè...m fa mettere solo 25% e 100% però la ventola non cambia.
mentre se vado nella sezione fan(della prima casella...cioè low sistem settings) la posso alzare come voglio e si sente che gira più veloce.
questo però è scomodo perchè non posso selezionare(come nella sezione prima)i valori della ventola nelle applicazioni 3d/2d...
qualcuno ha lo stesos problema?
ho provato anche cn ntunes..ma le opzioni ventola..sn grigie nn le posso modificare..!

target adapter - customize - low level system settings - fan - spunta enable low lewel fan control - spunta fixed e metti la percentuale che vuoi

se vuoi che parta con la percentuale che hai scelto spunta anche apply fan settings at Windows start up

gianlu75xp
15-09-2007, 21:03
Ciao raga, cosa usate per monitorare le temperature? io usi everest solo che ci sono tante voci per la scheda video e non so qual'è quella per la GPU, aiutatemi voi.....ciao.

Rivatuner 2.03 :)

Go!tta
15-09-2007, 21:11
la temperatura da tenere sottocchio è quella del diodo gpu!!!!!;)

metal78
16-09-2007, 10:22
Può andare bene... è comunque la temperatura in idle che preoccupa di più, quella in full è invece ottima ;)
Per provare ad abbassare di qualche grado potresti crearti 2 profili con Rivatuner, uno per il 2D ed uno per 3D. Quello 2D dovresti settarlo con frequenze inferiori a quelle @ default (es. 350/700) mentre quello in 3D con le frequenze normali oppure overcloccate, come preferisci tu.

Qui è spiegato come fare, puoi scegliere se affidare al programma lo switch 2D/3D oppure farlo tu manualmente :)

http://www.hwupgrade.it/forum/showthread.php?t=1465227


ciao sto seguendo come mi hai indicato tu... il metodo del clock dinamico con il metodo manuale....giusto per abbassare un po' di piu le temperature dell' 8800...:D :D

ho usato questi settaggi....
ovvero per il profilo underclock ho messo GPU:300/RAM:450 e per quello overclock GPU:400/RAM:800
mi consigli questi o altri? grazzzziee:sofico: :sofico:

solo che non mi fa modificare "low powered 3D"...lo imposta in automatico a seconda dei valori che metto su standard2D e performance 3D...spero non sia un problema...:oink:

PS: con l'underclock sono a 60/61.......non so se mi posso spingere oltre...ho paura di spaccare la scheda:cool: :cool:

Go!tta
16-09-2007, 10:37
leggi bene la guida.....devi mettere anche il low power level sugli stessi valori, altrimenti nn funziona....sulla guida c'è scritto come sbloccarlo!!!!;)
comunque nn ti sembra poco gpu 400 per l'overclock????? questa scheda regge almeno 600 mentre il clock standard sarebbe 500!!!!;)

metal78
16-09-2007, 11:01
leggi bene la guida.....devi mettere anche il low power level sugli stessi valori, altrimenti nn funziona....sulla guida c'è scritto come sbloccarlo!!!!;)
comunque nn ti sembra poco gpu 400 per l'overclock????? questa scheda regge almeno 600 mentre il clock standard sarebbe 500!!!!;)


ehehehehe hai ragione non ho letto il primo quesito e sono passato subito al secondo :oink: :oink: :oink:

si non sono un overcloccatore di solito:D :D cmq l'ho portata a 450 per ora vediamo poi se ho problemi di temperature:)

in underclock comunque sono a 60/61 gradi...dici che posso tirare un pò più indietro o va bene cosi??? considerando che uso una risoluzione 1920*1200 mi sembra buona comunque.. :sofico:


PS: sto usando gli ultimi driver(163.67) spero non sia un problema...visto che non sono ancora supportati da RT.:cool:

Amon 83
16-09-2007, 11:06
ehehehehe hai ragione non ho letto il primo quesito e sono passato subito al secondo :oink: :oink: :oink:

si non sono un overcloccatore di solito:D :D cmq l'ho portata a 450 per ora vediamo poi se ho problemi di temperature:)

in underclock comunque sono a 60/61 gradi...dici che posso tirare un pò più indietro o va bene cosi??? considerando che uso una risoluzione 1920*1200 mi sembra buona comunque.. :sofico:


PS: sto usando gli ultimi driver(163.67) spero non sia un problema...visto che non sono ancora supportati da RT.:cool:

secondo me potresti provare a scendere ancora in 2d per il 3d mi sembrano ancora altine ma la ventola a quanto l'hai impostata?

metal78
16-09-2007, 11:52
secondo me potresti provare a scendere ancora in 2d per il 3d mi sembrano ancora altine ma la ventola a quanto l'hai impostata?

ho appena testato i due profili che ho segnalato prima .....con la ventola fissa all'85%

allora in underclock 60/61
e in overclock sono sui 70/71 (bioshock massimo dettaglio per intenderci)

PS: ho provato a testare per mia curisoità in underclock con sempre con bioshock mi fa 65...mi sa però che si rovina la scheda a giocare cosi con quei valori:D

madpunx
16-09-2007, 14:43
ragazzi ma a voi quanto scalda?prima avevo la 7800glh della gaiward e, nello stesso posto..cn scheda tv a fianco arrivava al max a 63 64 in full..
ora cn la 8800xxx(580mhz e 1800mhz d ram clock d fabvbrica)
ma arriva a 57 in idle...e quasi 71 73 in fulll! cn ventola impostata a 75...è tanto o poco?m devo preoccupare?
xchè il cacse è arieggiato..quindi..dentro l'aria c'è..
è della xfx(so che scaldicchiano...ma spero nn si rovini!)

FRN2003
16-09-2007, 15:25
ragazzi ma a voi quanto scalda?prima avevo la 7800glh della gaiward e, nello stesso posto..cn scheda tv a fianco arrivava al max a 63 64 in full..
ora cn la 8800xxx(580mhz e 1800mhz d ram clock d fabvbrica)
ma arriva a 57 in idle...e quasi 71 73 in fulll! cn ventola impostata a 75...è tanto o poco?m devo preoccupare?
xchè il cacse è arieggiato..quindi..dentro l'aria c'è..
è della xfx(so che scaldicchiano...ma spero nn si rovini!)

temp normalissime secondo me, non devi paragonarle a una scheda come avevi, per me sono ok.
ciao

gianlu75xp
16-09-2007, 16:40
C'è poco da fare, la scheda scalda. Oltre a qualche accorgimento sull'underclcock e sulla regolazione della ventola il resto è il case che lo decide, quindi meglio se ben areato.

:)

gianlu75xp
16-09-2007, 16:46
ehehehehe hai ragione non ho letto il primo quesito e sono passato subito al secondo :oink: :oink: :oink:

si non sono un overcloccatore di solito:D :D cmq l'ho portata a 450 per ora vediamo poi se ho problemi di temperature:)

in underclock comunque sono a 60/61 gradi...dici che posso tirare un pò più indietro o va bene cosi??? considerando che uso una risoluzione 1920*1200 mi sembra buona comunque.. :sofico:


PS: sto usando gli ultimi driver(163.67) spero non sia un problema...visto che non sono ancora supportati da RT.:cool:

La 8800 GTS di default ha il core a 513, se lo imposti a 450 nel profilo overclock sei comunque underclock, non hai alzato di 1 mhz e quindi non stai facendo nessun overclock... la scheda va più piano rispetto alle impostazioni di fabbrica! :p
Alza pure il core gpu almeno a 575 (le frequenze della GTX) senza problemi e le memorie a 900.... sei in piena sicurezza.
Rileggiti la guida comunque ;)

wiltord
16-09-2007, 17:21
finalmente sali un pò di clock eh :D

metal78
16-09-2007, 18:15
La 8800 GTS di default ha il core a 513, se lo imposti a 450 nel profilo overclock sei comunque underclock, non hai alzato di 1 mhz e quindi non stai facendo nessun overclock... la scheda va più piano rispetto alle impostazioni di fabbrica! :p
Alza pure il core gpu almeno a 575 (le frequenze della GTX) senza problemi e le memorie a 900.... sei in piena sicurezza.
Rileggiti la guida comunque ;)

eheheh si si non erano definitivi i settaggi stavo facendo dei testss:D :D
la guida l'ho letta bene spero:cool: :cool:

cmq penso di tenere questi come definitivi

- Profilo Underclock ho messo GPU:290/RAM:450 e
- Profilo Overclock GPU:550/RAM:850 (per ora :sofico: :oink:)

per quanto riguarda le temperature sono sui 60 massimo 61 con il profilo Underclock in idle

invece mettendo il profilo overclock in idle sono sui 62 massimo e facendo partire bioshock al massimo dettaglio diciamo 70 masismo 71....non riesco a fare scendere di piu le temperature in Underclock...anche perchè mi sa che abbassare di più mi sa che si rischia ... o posso darci dentro ancora un pò???:D

Go!tta
16-09-2007, 19:16
le temperature vanno benissimo....finchè rimani sotto gli 80° in full allorava tutto bene!!!!! ;)

metal78
16-09-2007, 22:17
le temperature vanno benissimo....finchè rimani sotto gli 80° in full allorava tutto bene!!!!! ;)

a bhe allora non dovevo preoccuparmi quando in idle faceva 71 gradi :D :D :D :D

cmq a parte gli scherzi grazie alle regolazioni fatte con rivaturner sono riuscito a recuperare almeno una decina di gradi direi che siamo apposto ...:sofico: :sofico:

gianlu75xp
17-09-2007, 06:56
finalmente sali un pò di clock eh :D

Yep, stasera posto il mio score nel thread del 3D Mark 06 :) :p

gianlu75xp
17-09-2007, 07:01
eheheh si si non erano definitivi i settaggi stavo facendo dei testss:D :D
la guida l'ho letta bene spero:cool: :cool:

cmq penso di tenere questi come definitivi

- Profilo Underclock ho messo GPU:290/RAM:450 e
- Profilo Overclock GPU:550/RAM:850 (per ora :sofico: :oink:)

per quanto riguarda le temperature sono sui 60 massimo 61 con il profilo Underclock in idle

invece mettendo il profilo overclock in idle sono sui 62 massimo e facendo partire bioshock al massimo dettaglio diciamo 70 masismo 71....non riesco a fare scendere di piu le temperature in Underclock...anche perchè mi sa che abbassare di più mi sa che si rischia ... o posso darci dentro ancora un pò???:D

Uhm... non saprei quanto puoi abbassarti con la frequenza del core, io mi sono fermato a 350 in underclock. Per quanto riguarda le temperature non posso lamentarmi, sono a 48° in idle... ma il merito è del case (mi teneva la X1900 a 40° :eek: )

kolba
17-09-2007, 08:12
salve,
ho letto in giro sui forum stranieri che le rev. a3 del chip g80 dovrebbero salire molto di piu' in overclock anche senza vmod.
io vi posto la mia esperienza sono arrivato a 684/1000 e regge tutto benissimo. Certo la temp si alza parecchio, pero' è ancora sotto gli 80°.
Qualcun altro con chip rev a3 che mi fa compagnia?
ps. per vedere che versione di chip avete senza smontare la scheda.....basta guardare in rivatuner nella prima schermata, dove dice "320-bit g80 (A3,96sp)"
quell' A3..è la rev del chipset....
byeee

wiltord
17-09-2007, 08:38
Yep, stasera posto il mio score nel thread del 3D Mark 06 :) :p

presi i 10k vero? :)

gianlu75xp
17-09-2007, 10:36
presi i 10k vero? :)

Si superati, 105XX e rotti allo '06 e 17780 allo '05 con le impostazioni in firma. Magari ti chiedo qualche delucidazione sul vcore ed il vmod della P5B con mp :)

wiltord
17-09-2007, 10:39
Si superati, 105XX e rotti allo '06 e 17780 allo '05 con le impostazioni in firma. Magari ti chiedo qualche delucidazione sul vcore ed il vmod della P5B con mp :)

quando vuoi ;)

MaxWrt
17-09-2007, 13:26
e uscito rivatuner 2.04 abilitera i rop e gli streaming processor mancanti nella gts?? qualcuno sa nulla?

gianlu75xp
17-09-2007, 13:34
e uscito rivatuner 2.04 abilitera i rop e gli streaming processor mancanti nella gts?? qualcuno sa nulla?

preso dal forum ufficiale, note di rilascio vers. 2.04

Version 2.04, wat's new:

* Updated databases for Detonator and ForceWare drivers. Added database for ForceWare 163.67.
* Added Catalyst 7.9 drivers detection.
* Updated Catalyst 7.9 certified SoftR9x00 parch script (for Windows 2000/XP drivers only).
* Added new ForceWare 163.67 overclocking interfaces support. Please take a note that by design of new NVIDIA drivers ForceWare's NVAPI overclocking interfaces no longer scale shader domain clock when raster domain clock is changed on G8x graphics processors and provides completely independent shader domain clock adjustment interface instead. It means that all overclocking tools supporting traditional overclocking interfaces (e.g. RivaTuner, ATITool or PowerStrip) change raster domain core clock only when overclocking core with these drivers. Now RivaTuner is the only third party overclocking tool supporting new independent shader domain clock adjustment interface too and able to overclock it with these drivers. Currently shader domain overclocking in RivaTuner is available for power users only and is exposed as user adjustable shader/ROP domain clock ratio represented by ShaderClockRatio registry entry. The next version of RivaTuner will provide independent shader domian clock control directly via overclocking GUI. Please take a note that by default it applies to Vista ForceWare 163.67 only, however Windows XP owners may also force RivaTuner to use Vista-specific NVAPI overclocking interfaces by setting NVAPIUsageBehavior registry entry to 1.
* Updated RivaTunerStatisticsServer v2.4.1 bundled utility:
o Added OSD coordinates bounds checking to Direct3D10 OSD rendering code. This feature is provided as a workaround for some early Direct3D10 drivers not performing internal bounds checking of supplied data and tending to work improperly when OSD is rendered outside the screen.
o Improved race condition preventing algorithm in the hooking system. New algorithm improves compatibility with multithreaded rendering engines (e.g. Bioshock) calling frame presentation routine concurrently from different threads.
* Updated D3DOverrider v1.5 bundled utility:
o Considering that triple buffering is normally being used in conjunction with vertical synchronization, now D3DOverrider gives you options for forcing VSync for DirectDraw, Direct3D8, Direct3D9 and Direct3D10 applications. Similar to triple buffering forcing options, new VSync forcing options are fully hardware and OS independent and can be used to force VSync under any OS on both NVIDIA and ATI GPU based display adapters.
o Similar to triple buffering forcing events, VSync forcing events are also automatically sent to RivaTuner's event history panel. Please take a note that it applies only to Direct3D8 and Direct3D9 VSync forcing events which are performed once per application lifetime. DirectDraw and Direct3D10 VSync forcing events are performed at per-frame due to specifics of DirectDraw and Direct3D10 API so they are not reflected into event history panel.
o Improved race condition preventing algorithm in the hooking system. New algorithm improves compatibility with multithreaded rendering engines (e.g. Bioshock) calling frame presentation routine concurrently from different threads.
* Improved hardware monitoring module:
o Improved event history panel. Now event history panel's tooltips are able to display text for multiple application specific even markers registered in the same time (e.g. triple buffering and VSync forcing events sent to event history panel by D3DOverrider).
* Added Vista power broadcast messages support. Now suspended mode related features like pausing monitoring module in suspended mode and restoring various settings after suspended mode are also available under Vista.
* Improved installer. Now the installer allows altering PunkBuster related protective options, so you can easily disable the protections completely if you don't play and games with PunkBuster or you can reduce protection level if you use some security related software products blocking protected processes activity.
* Added update installation logging feature. Now RivaTuner fully documents process of each update installation into Updates.log file in the application folder.
* Minor UI changes and improvements.

MaxWrt
17-09-2007, 13:37
preso dal forum ufficiale, note di rilascio vers. 2.04 quindi li attiva? o sono laser cut? non si capisce bene...

gianlu75xp
17-09-2007, 13:43
quindi li attiva? o sono laser cut? non si capisce bene...

ma sono mancanti o sono dormienti (es.6800 liscia/6800 GT)?

MaxWrt
17-09-2007, 13:45
ma sono mancanti o sono dormienti (es.6800 liscia/6800 GT)? non capisco!! con i vecchi rivatuner li faceva attivare ma in realta poi non si attivavano... qualuno dice che sono isolati dal laser in fabbrica e qualcuno no!! non so sinceramente...

Arradgiato
18-09-2007, 00:30
nuovo risultato all@def...coi 163.67

http://www.pctuner.info/up/results/_200709/th_20070918013020_Nuovaimmagine.jpg (http://www.pctuner.info/up/image.php?src=_200709/20070918013020_Nuovaimmagine.jpg)

Deviad
18-09-2007, 15:58
Scusate ragazzi,
secondo voi, giacché sto con una X1800XL, e da quello che ho capito praticamente le schede veramente cazzute oramai le vedremo nella primavera del 2008, stavo pensando di prendere una scheda video adesso visto che praticamente, facendo un esempio, ET: Quakewars lo devo giocare come giocavo a Quake III Arena dopo che però me l'ero gustato: mipmap al minimo, dettagli quasi inesistenti, texture quasi di un unico colore per vedere i nemici chiaramente.
Però, prima di fare tutto ciò il gioco me l'ero gustato un 4 - 5 volte insingle prima, perciò poi passato il priscio per la grafica, all'epoca straordinaria, ho pensato a fraggare online e basta.

Ora, un conto è fare ciò per quel motivo un conto è doverlo fare perchè la scheda video che hai non regge... perdi tutto il priscio iniziale dell'ambientazione ecc.

Il monitor che ho è un Viewsonic vx922, 2 ms, 75 Hz, 1280x1024.
Processore e6400@3 GHz, 2 GB RAM, Windows XP (appena esce l'SP1 di Vista passo a quello con la licenza x gli studenti).

Ora, giacché leggo che è possibile sbloccare ROP e via discorrendo (come praticamente si faceva all'epoca con le ati e gli omega drivers) e giacché non ho mai avuto una scheda senza che questa venisse overclockata, se faccio tutto ciò posso avere dei risultati simili a quelli che dà una 8800GTX oppure per altre questioni tecniche ciò non è possibile? Perché se i risultati si avvicinano, per 5 - 6 fps in meno che faccio non vale la pena x me prendere una 8800GTX visto che in primavera la cambierei.

Rimango in attesa di una vostra risposta esaustiva.

MakenValborg
18-09-2007, 18:19
Ciao a tutti raga, posto result dopo aggiornamento procetto :)


Q6600@3950mhz
PC6400 TeamExtreme@ 876 mhz 4 4 4 10
POV8800GTS640MB @ 702 2088
Driver 163.44

05' 21942

http://forum.nexthardware.com/gallery/images/7291/medium/1_Q6600_3950_05.JPG (http://forum.nexthardware.com/gallery/file.php?n=4020&w=o)

06' 15114

http://forum.nexthardware.com/gallery/images/7291/medium/1_Q6600_3950_06.JPG (http://forum.nexthardware.com/gallery/file.php?n=4021&w=o)

Direi che sono soddisfatto :stordita:

@ Davide: me lo aggiorni in prima? grazie bello ;)

Ciaooooo

Deviad
18-09-2007, 18:38
X overclock, non volendo smenare soldi, almeno inizialmente su un dissipatore after market, che ditta mi consigliate che monti buone ram e un buon dissipatore?

Amon 83
18-09-2007, 18:59
Ciao a tutti raga, posto result dopo aggiornamento procetto :)


Q6600@3950mhz
PC6400 TeamExtreme@ 876 mhz 4 4 4 10
POV8800GTS640MB @ 702 2088
Driver 163.44

05' 21942

http://forum.nexthardware.com/gallery/images/7291/medium/1_Q6600_3950_05.JPG (http://forum.nexthardware.com/gallery/file.php?n=4020&w=o)

06' 15114

http://forum.nexthardware.com/gallery/images/7291/medium/1_Q6600_3950_06.JPG (http://forum.nexthardware.com/gallery/file.php?n=4021&w=o)

Direi che sono soddisfatto :stordita:

@ Davide: me lo aggiorni in prima? grazie bello ;)

Ciaooooo

gran bei result! ;) mi stai facendo venire voglia di metterla a liquido.....:stordita:

MakenValborg
18-09-2007, 19:01
gran bei result! ;) mi stai facendo venire voglia di metterla a liquido.....:stordita:

E che aspetti?!?!?:Prrr:

Amon 83
18-09-2007, 19:03
E che aspetti?!?!?:Prrr:

te!:ciapet: cosi tu ti prendi il wb che mi dicevi e io il tuo! :D

Deviad
18-09-2007, 19:19
qualcuno può rispondere alla mia domanda?
visto che avete tutti la scheda perché non provate il discorso delle ROP ecc. con rivatuner e mi dite se funziona?
Io la scheda la devo ancora acquistare.

Imrahil
18-09-2007, 22:30
Da oggi felice possessore di una GTS 640 MB della XFX, Extreme edition :D a breve qualche bench ;)

MaxWrt
18-09-2007, 22:32
Da oggi felice possessore di una GTS 640 MB della XFX, Extreme edition :D a breve qualche bench ;)
se il procio e quello n firma credo che tu abbia necessita di cambiarlo.. non otterrai un grande punteggio..

Poty...
19-09-2007, 02:00
Scusate ragazzi,
secondo voi, giacché sto con una X1800XL, e da quello che ho capito praticamente le schede veramente cazzute oramai le vedremo nella primavera del 2008, stavo pensando di prendere una scheda video adesso visto che praticamente, facendo un esempio, ET: Quakewars lo devo giocare come giocavo a Quake III Arena dopo che però me l'ero gustato: mipmap al minimo, dettagli quasi inesistenti, texture quasi di un unico colore per vedere i nemici chiaramente.
Però, prima di fare tutto ciò il gioco me l'ero gustato un 4 - 5 volte insingle prima, perciò poi passato il priscio per la grafica, all'epoca straordinaria, ho pensato a fraggare online e basta.

Ora, un conto è fare ciò per quel motivo un conto è doverlo fare perchè la scheda video che hai non regge... perdi tutto il priscio iniziale dell'ambientazione ecc.

Il monitor che ho è un Viewsonic vx922, 2 ms, 75 Hz, 1280x1024.
Processore e6400@3 GHz, 2 GB RAM, Windows XP (appena esce l'SP1 di Vista passo a quello con la licenza x gli studenti).

Ora, giacché leggo che è possibile sbloccare ROP e via discorrendo (come praticamente si faceva all'epoca con le ati e gli omega drivers) e giacché non ho mai avuto una scheda senza che questa venisse overclockata, se faccio tutto ciò posso avere dei risultati simili a quelli che dà una 8800GTX oppure per altre questioni tecniche ciò non è possibile? Perché se i risultati si avvicinano, per 5 - 6 fps in meno che faccio non vale la pena x me prendere una 8800GTX visto che in primavera la cambierei.

Rimango in attesa di una vostra risposta esaustiva.

guarda posso dirti che a me quake enemy territory mi gira a 1280 con i dettagli su ultra con filtri e ha un frame rate che sembra quake 3 arena:D
che io sappia gli shader sulle GTS sono tagliati al laser quindi non credo si potranno sbloccare (il fatto del nuovo rivaturner è la possibilità di clokkare la frequenza degli shader indipendentemente dalla freq. del core che io cmq non sono riuscito a fare)
posso dirti cmq che se devi tenerla a 1280 x 1024 è una scheda perfetta ti stupirà davvero!!è mostruosamente potente
e non credo che poi vorrai cambiarla quando vedrai che tutti i giochi girano a palla;)

ugo71
19-09-2007, 02:55
credevo fosse normale la cosa degli shader che aumentano con la gpu usando riva attuale e precedente, anche se metendo 600 va @594 shader 1400, snza raggiungere i 70° a 3d 2006 su vista faccio 11500;)

james_het
19-09-2007, 08:54
credevo fosse normale la cosa degli shader che aumentano con la gpu usando riva attuale e precedente, anche se metendo 600 va @594 shader 1400, snza raggiungere i 70° a 3d 2006 su vista faccio 11500;)

forse lui si riferiva alò fatto che si potrebbe portare una gts@gtx, ma nn è possibile....gli shaders aumentano di freq insieme alla gpu se nn erro, per lo meno a me riva mi rileva che gli shaders salgono insieme con la gpu, poi nn saprei :confused:

Scrambler77
19-09-2007, 09:15
Ragazzi date un'occhiata al 3d delle GTS320. Coi nuovi forceware beta e rivatuner 2.04 è possibile cloccare core e shaders indipedentemente.

Da noi (gtx) si arriva ad oltre 1700MHz con guadagni 3dm'05 di oltre 1500 punti. ;)

Link (http://www.hwupgrade.it/forum/showpost.php?p=18767847&postcount=13958)

MakenValborg
19-09-2007, 09:22
Ragazzi date un'occhiata al 3d delle GTS320. Coi nuovi forceware beta e rivatuner 2.04 è possibile cloccare core e shaders indipedentemente.

Da noi (gtx) si arriva ad oltre 1700MHz con guadagni 3dm'06 di oltre 1500 punti. ;)

Link (http://www.hwupgrade.it/forum/showpost.php?p=18767847&postcount=13958)

e come si fà?? :ciapet:

Scrambler77
19-09-2007, 09:23
Errata corrige: il 3dmark è il '05. Cmq l'utente ha ripetuto il test. Ha raggiunto i 2000 punti di incremento (circa 900 quindi al '06).

e come si fà?? :ciapet:

http://forums.guru3d.com//showthread.php?t=238083

MakenValborg
19-09-2007, 09:26
Errata corrige: il 3dmark è il '05. Cmq l'utente ha ripetuto il test. Ha raggiunto i 2000 punti di incremento (circa 900 quindi al '06).



http://forums.guru3d.com//showthread.php?t=238083

Grazie per la info ! :D

james_het
19-09-2007, 09:32
Errata corrige: il 3dmark è il '05. Cmq l'utente ha ripetuto il test. Ha raggiunto i 2000 punti di incremento (circa 900 quindi al '06).



http://forums.guru3d.com//showthread.php?t=238083

scusate ma sono l'unico che nn riesce a trovare le info per capire come si fa??? in quei post, che poi sono anche nel 3d di rivatuner qui sul forum, c'è solo scritto che si può fare questa cosa, ma nn c'è una guida passo-passo che mi dica come si fa e dove devo andare esattamente......:mc:

Scrambler77
19-09-2007, 09:42
scusate ma sono l'unico che nn riesce a trovare le info per capire come si fa??? in quei post, che poi sono anche nel 3d di rivatuner qui sul forum, c'è solo scritto che si può fare questa cosa, ma nn c'è una guida passo-passo che mi dica come si fa e dove devo andare esattamente......:mc:

"You can find everything you need in Release notes, context help for ShaderClockRatio and this thread:

http://forums.guru3d.com/showthread.php?t=237145

If you still don't understand how to use it after reading all these things, I strongly recommend you to stay away from shader clock adjustment. "

Oppure -> 1a Pagina di http://www.hwupgrade.it/forum/showthread.php?t=1465227&highlight=riva+turner

MakenValborg
19-09-2007, 09:44
"You can find everything you need in Release notes, context help for ShaderClockRatio and this thread:

http://forums.guru3d.com/showthread.php?t=237145

If you still don't understand how to use it after reading all these things, I strongly recommend you to stay away from shader clock adjustment. "

ahahah

se non capisci questa è meglio che eviti :sofico:

james_het
19-09-2007, 09:52
ahahah

se non capisci questa è meglio che eviti :sofico:

grazie tante....che ca**o ci sta da ridere, lì c'è scritto che va editata una chiave di registro e precisamente "NVAPIUsageBehavior = 1", ma nn la trovo nel registro, ho poi trovato la chiave nel TAB power user di rivatuner per moddare il clockratio, ma se nn edito prima la chiave di registro questa nn serve a nulla, vero??

MArCoZ_46
19-09-2007, 09:54
grazie tante....che ca**o ci sta da ridere
Non credo ridesse di te, la risata era sicuramente riferita alla frase che ha tradotto ;)

MakenValborg
19-09-2007, 09:55
grazie tante....che ca**o ci sta da ridere, lì c'è scritto che va editata una chiave di registro e precisamente "NVAPIUsageBehavior = 1", ma nn la trovo nel registro, ho poi trovato la chiave nel TAB power user di rivatuner per moddare il clockratio, ma se nn edito prima la chiave di registro questa nn serve a nulla, vero??

Ci stà da ridere perchè in modo velato fanno capire che se non ci capisci è meglio che non tocchi nulla prima di far danni :mbe: :Prrr:

Simpatia portami via eh? :rolleyes:

james_het
19-09-2007, 10:05
Ci stà da ridere perchè in modo velato fanno capire che se non ci capisci è meglio che non tocchi nulla prima di far danni :mbe: :Prrr:

Simpatia portami via eh? :rolleyes:

infatti come cercavo di dire, ho modificato il valore dello shaderclockraio a 2.7, ma nn è cambiato nulla, il valore nel 3d è sempre lo stesso di default, ovvero 2.32/2.36 ........ dove trovo l'altra chiaver per poter modificare il rapporto rop/shader?

james_het
19-09-2007, 10:09
vabbeh se qualkuno fosse tanto gentile da scrivere passo-passo ciò che va fatto lo gradirei tanto, senza linkare per la 100° volta a quei 3d sopra, altrimenti amen mi tengo il mio rapporto di rop/shader fino a riva 2.05 che avraà lo slider anche per gli shader......:muro:

Imrahil
19-09-2007, 10:09
se il procio e quello n firma credo che tu abbia necessita di cambiarlo.. non otterrai un grande punteggio..

Difatti ho un E6420 sulla scrivania :D in attesa di mobo e ram :)

MArCoZ_46
19-09-2007, 10:21
vabbeh se qualkuno fosse tanto gentile da scrivere passo-passo ciò che va fatto lo gradirei tanto, senza linkare per la 100° volta a quei 3d sopra, altrimenti amen mi tengo il mio rapporto di rop/shader fino a riva 2.05 che avraà lo slider anche per gli shader......:muro:
Io non mi sto interessando alla cosa, poiché da qualche mese ho editato direttamente il bios alle frequenze di 621/1512/999 per core, shaders e memorie, togliendomi il problema dell'overclock via drivers. :)

james_het
19-09-2007, 11:24
Io non mi sto interessando alla cosa, poiché da qualche mese ho editato direttamente il bios alle frequenze di 621/1512/999 per core, shaders e memorie, togliendomi il problema dell'overclock via drivers. :)

quindi nessuno che mi può aiutare...fa nulla aspetterò la nuova rev di rivatuner, grazie lo stesso

MaxWrt
19-09-2007, 11:30
Difatti ho un E6420 sulla scrivania :D in attesa di mobo e ram :)
beh allora e un'altra cosa!:D io senza fare il lavoro dello shader clock prima con il mio sistema in overclock con nvidia 680 si mobo (adesso ho p35) al 3d mark 05 facevo 20100 punti con una gts voglio vedere dove arrivo adesso!:D

halduemilauno
19-09-2007, 11:35
gli ultimi drivers.
http://www.nvidia.it/object/winvista_x86_163.69_it.html
;)

Scrambler77
19-09-2007, 11:38
Dunque. Premetto che sono su Vista64.

Non è stato necessario fare alcuna modifica al registro.
Ciò che ho fatto io è stato installare i drv (whql) 163.69 (ma i beta per XP sono lo stesso) e RivaTuner 2.04.

La voce "ShaderClockRatio" che permette di overcloccare separatamente le SU si trova nel divisore "Power User" in "RivaTuner \ NVIDIA \ Overclocking".

Impostato a 2.xx in base alla frequenza voluta rispetto alla freq del core. Per rendere effettivi i cambiamenti è necessario tornare nel pannello dell'overclock e variare (anche solo di 1MHz) lo slide del clock del core e applicare.

Aprite il monitoraggio di Rivatuner per verificare che le SU passino alla frequenza voluta.

Io ho 621 di core e 2.6 di Ratio, pertanto le SU arrivano a circa 1620.

E' tutto chiaro adesso?

Zannawhite
19-09-2007, 11:45
A breve dovrei appartenere anche io al vostro club :sofico: con una 8800GTS 640Mb. Gainward

james_het
19-09-2007, 12:10
Dunque. Premetto che sono su Vista64.

Non è stato necessario fare alcuna modifica al registro.
Ciò che ho fatto io è stato installare i drv (whql) 163.69 (ma i beta per XP sono lo stesso) e RivaTuner 2.04.

La voce "ShaderClockRatio" che permette di overcloccare separatamente le SU si trova nel divisore "Power User" in "RivaTuner \ NVIDIA \ Overclocking".

Impostato a 2.xx in base alla frequenza voluta rispetto alla freq del core. Per rendere effettivi i cambiamenti è necessario tornare nel pannello dell'overclock e variare (anche solo di 1MHz) lo slide del clock del core e applicare.

Aprite il monitoraggio di Rivatuner per verificare che le SU passino alla frequenza voluta.

Io ho 621 di core e 2.6 di Ratio, pertanto le SU arrivano a circa 1620.

E' tutto chiaro adesso?

anche su XP c'è quella voce, il mio prob è che dovrei modificare la voce del registro che però nn trovo....impostando il ratio degli shader a 2.7 nn ha alcun effetto....:muro:

Scrambler77
19-09-2007, 12:26
A breve dovrei appartenere anche io al vostro club :sofico: con una 8800GTS 640Mb. Gainward

Ricordo che all'uscita di R600 eri scettico sul passare ad 8800. Ritenevi che i drv ati fossero responsabili dei cali con i filtri AA applicati.

Cmq benvenuto nel club di G80! :mano:

anche su XP c'è quella voce, il mio prob è che dovrei modificare la voce del registro che però nn trovo....impostando il ratio degli shader a 2.7 nn ha alcun effetto....:muro:

Nel pomeriggio provo anche io su XP e ti faccio sapere.

In ogni caso, hai fatto almeno un cambio di overclock prima di verificare la nuova velocità delle SU? Perchè impostare solo il numerino "2.7" non è sufficiente a cambiare l'overclock.

james_het
19-09-2007, 12:47
Ricordo che all'uscita di R600 eri scettico sul passare ad 8800. Ritenevi che i drv ati fossero responsabili dei cali con i filtri AA applicati.

Cmq benvenuto nel club di G80! :mano:



Nel pomeriggio provo anche io su XP e ti faccio sapere.

In ogni caso, hai fatto almeno un cambio di overclock prima di verificare la nuova velocità delle SU? Perchè impostare solo il numerino "2.7" non è sufficiente a cambiare l'overclock.

dunque ho settato il valore 2.7 nel ratio mentre la gpu era a 600 e le ram a 1006, quindi ho dato OK, poi ho impostato a 604 la gpu e ancora OK, ma nulla è cambiato.....

Scrambler77
19-09-2007, 12:52
dunque ho settato il valore 2.7 nel ratio mentre la gpu era a 600 e le ram a 1006, quindi ho dato OK, poi ho impostato a 604 la gpu e ancora OK, ma nulla è cambiato.....

Quindi a quanto hai le SU?

james_het
19-09-2007, 13:06
Quindi a quanto hai le SU?

la freq selle SU nn è cambiata rispetto ai normali valori e 600 GPU ----> 1404 SU

Zannawhite
19-09-2007, 13:18
Ricordo che all'uscita di R600 eri scettico sul passare ad 8800. Ritenevi che i drv ati fossero responsabili dei cali con i filtri AA applicati.

Cmq benvenuto nel club di G80! :mano:..La cosa che mi ha fatto decidere è stato l'annuncio della G92 con prestazioni inferiori alle 8800

Queste Gpu dovrebbero coprire l'attuale fascia occupata dalle 7900/7950

Quindi vendo ancora longevità nella serie 8800.
Comunque ciò non toglie che Ati abbia fatto dei modesti miglioramenti sulla sua HD2900XT.

Scrambler77
19-09-2007, 14:04
Comunque ciò non toglie che Ati abbia fatto dei modesti miglioramenti sulla sua HD2900XT.

Vero... ma rispetto ai "miracoli" che alcuni preveggevano... soprattutto in dx10... ;)

Go!tta
19-09-2007, 14:16
quindi nessuno che mi può aiutare...fa nulla aspetterò la nuova rev di rivatuner, grazie lo stesso

vai sul topic della guida a rivatuner.....là di sicuro qualcuno trovi che ti risponde come ha fatto.........

Zannawhite
19-09-2007, 14:21
Non vorrei andare troppo OT ma la mia sensazione (da ignorante) è che prima di vedere un gioco con delle DX10 ben fatte che sfruttino in maniera intelligente le risorse/peculiarità delle VGA si dovrà attendere un bel pezzo.

Questo non toglie che Ati sulla carta doveva essere un mostro di potenza e si è rivelata un agnellino, non riesco a capire dove ci sia il problema o collo di bottiglia. R600 in confronto a G80 ha delle autostrade per fare girare le informazioni mentre G80 ha delle superstrade, però è il mezzo di trasporto che frega Ati.

rob-roy
19-09-2007, 15:12
Ho modificato anche io il valore ShaderClockRatio a 2.5 ma non è cambiato nulla.

Ho XP e i driver 163.67

Frequenza GPU: 610 MEM: 880

Gli shader vanno a 1400 Mhz....nessun incremento variando quel parametro..:(

Imrahil
19-09-2007, 15:24
beh allora e un'altra cosa!:D io senza fare il lavoro dello shader clock prima con il mio sistema in overclock con nvidia 680 si mobo (adesso ho p35) al 3d mark 05 facevo 20100 punti con una gts voglio vedere dove arrivo adesso!:D

Speriamo di divertirci con questa schedozza :D

Scrambler77
19-09-2007, 15:28
Speriamo di divertirci con questa schedozza :D

E' un anno che ci divertiamo :sofico:

Deviad
19-09-2007, 16:24
Scusate, ma le bfg 8800 GTS 640 OC a parte essere overclockate hanno ram migliori, dissipatore migliore o sono identiche a quelle non overclockate ed hanno solo modificato i valori di clock dal bios? O_o

Go!tta
19-09-2007, 16:27
anche su XP c'è quella voce, il mio prob è che dovrei modificare la voce del registro che però nn trovo....impostando il ratio degli shader a 2.7 nn ha alcun effetto....:muro:

ti passo un quote di uno che ha risposto sul topic di questo forum dedicato a rivatuner....:

quale?? NVAPIUsageBehavior?? la trovi in Power user / Rivatuner \ system ;)


Scusate, ma le bfg 8800 GTS 640 OC a parte essere overclockate hanno ram migliori, dissipatore migliore o sono identiche a quelle non overclockate ed hanno solo modificato i valori di clock dal bios? O_o

se leggi ovunque nel forum si dice che tutte le marche sono uguali......

kolba
19-09-2007, 16:38
Scusate, ma le bfg 8800 GTS 640 OC a parte essere overclockate hanno ram migliori, dissipatore migliore o sono identiche a quelle non overclockate ed hanno solo modificato i valori di clock dal bios? O_o

Ciao, io ho esattamente quella scheda, ti posso solo dire che è una rev. a3 del chip g80 e sale fino a 684/1000 senza problemi, con il giusto raffreddamento arriva anche a 702.
la differenza di temp che puoi trovare tra le varie 8800 dipende anche da come hanno assemblato il dissipatore e dal contatto con il core.
bye

james_het
19-09-2007, 17:10
ti passo un quote di uno che ha risposto sul topic di questo forum dedicato a rivatuner....:


grazie tante Go!tta, ma come temevo nn è servito lo stesso, ho impostato il valore di quella stringa su 1 e il ratio a 2.7 ma nn è cambiato nulla...nn so cosa sto sbagliando....

TigerTank
19-09-2007, 17:12
Per chi ha problemi con Nhancer e i nuovi drivers:

Dipende da dei nuovi valori inseriti nel file xml dei drivers relativo ai profili
QUI (http://www.nvnews.net/vbulletin/showpost.php?p=1380558&postcount=40) c'è la soluzione sperando nell'uscita di una nuova versione visto che questo ottimo programmino è fermo ad Aprile.

Mister Tarpone
19-09-2007, 17:24
grazie tante Go!tta, ma come temevo nn è servito lo stesso, ho impostato il valore di quella stringa su 1 e il ratio a 2.7 ma nn è cambiato nulla...nn so cosa sto sbagliando....

anche a me non fungeva!!! poi ho iniziato ad impostare le frequenze del core prima in "standard 2D", poi in "performance 3D".

prova così!!! ;)

Scrambler77
19-09-2007, 17:31
anche a me non fungeva!!! poi ho iniziato ad impostare le frequenze del core prima in "standard 2D", poi in "performance 3D".

prova così!!! ;)

Dovrebbe funzionare comunque, perchè il Ratio funziona anche sulle frequenze 2D. Cmq è strano...

Mister Tarpone
19-09-2007, 17:36
Dovrebbe funzionare comunque, perchè il Ratio funziona anche sulle frequenze 2D. Cmq è strano...

però impostando i valori solo su performance 3D non mi potevo regolare perchè nell'HW Monitoring i valori non cambiavano per niente!!! quindi per fare i vari test e vedere i cambiamenti mi sono messo a regolare anche la frequenza del core in 2D!!

ugo71
19-09-2007, 17:50
a me non va neanche più l'oc normale, ultimi driver ufficiali + tuner 204= casino totale:mad:

edit: non sapevo la novità degli shader , senza modificare in power u. non saliva più di 580 circa e gli shader restavano fissi..

davide22
19-09-2007, 19:53
se a qualkuno interessa vi posto uno score al 3dmark06 con gli utlimi drivers e il piccì in-sign:


http://img504.imageshack.us/img504/7762/88001sv6.th.jpg (http://img504.imageshack.us/my.php?image=88001sv6.jpg)



a me viene +/- lo stesso score che con i driver 163.44 :mbe:

nuovo risultato all@def...coi 163.67

http://www.pctuner.info/up/results/_200709/th_20070918013020_Nuovaimmagine.jpg (http://www.pctuner.info/up/image.php?src=_200709/20070918013020_Nuovaimmagine.jpg)

Ciao a tutti raga, posto result dopo aggiornamento procetto :)


Q6600@3950mhz
PC6400 TeamExtreme@ 876 mhz 4 4 4 10
POV8800GTS640MB @ 702 2088
Driver 163.44

05' 21942

http://forum.nexthardware.com/gallery/images/7291/medium/1_Q6600_3950_05.JPG (http://forum.nexthardware.com/gallery/file.php?n=4020&w=o)

06' 15114

http://forum.nexthardware.com/gallery/images/7291/medium/1_Q6600_3950_06.JPG (http://forum.nexthardware.com/gallery/file.php?n=4021&w=o)

Direi che sono soddisfatto :stordita:

@ Davide: me lo aggiorni in prima? grazie bello ;)

Ciaooooo

Aggiornato tutto in prima...;)
Complimenti a Maken :eek:

MakenValborg
19-09-2007, 20:16
Aggiornato tutto in prima...;)
Complimenti a Maken :eek:

Grazie bello:sofico:

norbertom
19-09-2007, 20:21
Qualcuno l'ha provata con crysis?? Sto finendo di scaricare la beta ma mentre aspettavo volevo sapere le impressioni di chi l'ha già provata... (sono OT?)

Go!tta
19-09-2007, 20:28
comunque leggendo la guida di riva credo che bisogni impostare tutti e tre i valori ovvero "2d" "3d lower performance" e "3d high performance" o una cosa del genere allo stesso valore di oc e poi ti fai i vari profili per il 2d ed il 3d.........

Deviad
19-09-2007, 20:37
Io ho appena acquistato la Sparke 8800 GTS 640 MB a 360 €.
Mi arriva martedì. :P

MaxWrt
19-09-2007, 20:46
Aggiornato tutto in prima...;)
Complimenti a Maken :eek:

beh il 3dmark e da prendere con le molle visto che hai un quad core e logico che hai certi risultati! escludi la prova della cpu e fai solo la grafica vedrai che cambia tutto!!! il 3dmark soprattutto lo 06 e ottimizzato per il quad!!!;)

keizer
19-09-2007, 20:54
Scusate per una differenza di 10 euro, meglio la zotac o la xfx?

MaxWrt
19-09-2007, 20:56
Scusate per una differenza di 10 euro, meglio la zotac o la xfx? lo chiedi anche???????????? XFX!!!!!!!!!!!!!!!

MakenValborg
19-09-2007, 20:57
beh il 3dmark e da prendere con le molle visto che hai un quad core e logico che hai certi risultati! escludi la prova della cpu e fai solo la grafica vedrai che cambia tutto!!! il 3dmark soprattutto lo 06 e ottimizzato per il quad!!!;)

A parte che lo 05 riporta un punteggio senza contarte quello cpu e lo 06 se non fai anche quello cpu non ti dà il result.
Vai in prima pagina e guarda i miei punteggi con un modestissimo e6400 con 2 mega di cache che magari eviti di fare il saputello ;)

Amon 83
19-09-2007, 20:58
beh il 3dmark e da prendere con le molle visto che hai un quad core e logico che hai certi risultati! escludi la prova della cpu e fai solo la grafica vedrai che cambia tutto!!! il 3dmark soprattutto lo 06 e ottimizzato per il quad!!!;)

guarda che il quad non aiuta solo nei bench ma in tutti e dico tutti gli applicativi e lo 06 è molto indicativo dato che simula la reazione che ha il sistema con applicazioni grafiche di un certo peso (quindi molto simili ai giochi).

MaxWrt
19-09-2007, 21:01
A parte che lo 05 riporta un punteggio senza contarte quello cpu e lo 06 se non fai anche quello cpu non ti dà il result.
Vai in prima pagina e guarda i miei punteggi con un modestissimo e6400 con 2 mega di cache che magari eviti di fare il saputello ;)
guarda che il saputello lo vuoi fare tu mi sa perche io con un 6400 overcloccato a dovere si intende... ho fatto 20300 punti senza nemmeno overcloccare gli shader!! poi il 3d 06 puoi fare i test anche separatamente!!!! impara prima di chiaccherare!!!:)

MakenValborg
19-09-2007, 21:05
guarda che il saputello lo vuoi fare tu mi sa perche io con un 6400 overcloccato a dovere si intende... ho fatto 20300 punti senza nemmeno overcloccare gli shader!! poi il 3d 06 puoi fare i test anche separatamente!!!! impara prima di chiaccherare!!!:)

certo che puoi farlo, ma non ti dà i punti!! lo 06 và fatto completo per avere il punteggio!!! inoltre cosa cavolo vuol dire sto commento?

beh il 3dmark e da prendere con le molle visto che hai un quad core e logico che hai certi risultati!

Alla Scoperta dell'acqua calda??? :mbe:


Vorrei capire lo scopo di certe postate! :muro:

MaxWrt
19-09-2007, 21:06
guarda che il quad non aiuta solo nei bench ma in tutti e dico tutti gli applicativi e lo 06 è molto indicativo dato che simula la reazione che ha il sistema con applicazioni grafiche di un certo peso (quindi molto simili ai giochi). si lo so ma se fai sm2 e sm3 separatamente vedi il comportamento della sola scheda grafica poi e logico che influisce sulla velocita anche la cpu che hai ma perlomeno non fa la somma con il result della cpu!!! senno chi ha un dual e vede quei risultati si spaventa ma poi ni realta magari va di piu la sua!!! quindi per fare un paragone un po piu diretto si fa sm2 e sm3 score separatamente!:)

MakenValborg
19-09-2007, 21:09
si lo so ma se fai sm2 e sm3 separatamente vedi il comportamento della sola scheda grafica poi e logico che influisce sulla velocita anche la cpu che hai ma perlomeno non fa la somma con il result della cpu!!! senno chi ha un dual e vede quei risultati si spaventa ma poi ni realta magari va di piu la sua!!! quindi per fare un paragone un po piu diretto si fa sm2 e sm3 score separatamente!:)

I tuoi post sono semplicemente agghiaccianti...
vuoi per caso affermare che il result totale è sm2 +2m3 +cpu?

dimmi di no perpiacere...anche perchè sennò il mio punteggio sarebbe di 18000 :mbe:

Ps.: ora me ne vò a letto a dormire, perchè fra stanchezza e nozioni di interpretazioni 3Dmark di stasera sono propio esausto...

Amon 83
19-09-2007, 21:17
si lo so ma se fai sm2 e sm3 separatamente vedi il comportamento della sola scheda grafica poi e logico che influisce sulla velocita anche la cpu che hai ma perlomeno non fa la somma con il result della cpu!!! senno chi ha un dual e vede quei risultati si spaventa ma poi ni realta magari va di piu la sua!!! quindi per fare un paragone un po piu diretto si fa sm2 e sm3 score separatamente!:)

obbiettivamente .....non ho parole :confused:

I tuoi post sono semplicemente agghiaccianti...
vuoi per caso affermare che il result totale è sm2 +2m3 +cpu?

dimmi di no perpiacere...anche perchè sennò il mio punteggio sarebbe di 18000 :mbe:

do pienamente ragione al socio e direi che è ora di chiudere l'ot in modo che
MaxWrt possa meditare su quello che ha detto ciao

MaxWrt
19-09-2007, 21:23
I tuoi post sono semplicemente agghiaccianti...
vuoi per capo affermare che il result totale è sm2 +2m3 +cpu?

dimmi di no perpiacere...anche perchè sennò il mio punteggio sarebbe di 18000 :mbe:
http://www.pctuner.info/up/results/_200709/20070919221849_6dm2_4x.gif http://www.pctuner.info/up/results/_200709/20070919221932_6dm4_4x.gif http://www.pctuner.info/up/results/_200709/20070919222011_6dm_total.gif il total score fa la somma quindi e logico che il risultato finale con un quad e superiore con la mia gts se guardo il total score di un quad sono sotto ma se guardo sm2 o sm3 sono piu alto come mai???? dimmelo tu!

MakenValborg
19-09-2007, 21:29
http://www.pctuner.info/up/results/_200709/20070919221849_6dm2_4x.gif http://www.pctuner.info/up/results/_200709/20070919221932_6dm4_4x.gif http://www.pctuner.info/up/results/_200709/20070919222011_6dm_total.gif il total score fa la somma quindi e logico che il risultato finale con un quad e superiore con la mia gts se guardo il total score di un quad sono sotto ma se guardo sm2 o sm3 sono piu alto come mai???? dimmelo tu!

Che i 3 grafici che hai postato non avvalorano minimamente quello che affermi lo sai vero?che non centrano niente lo sai?

Mi sta venedo sempre più freddo....:eek:

Ma quindi io che faccio:

Sm2: 6068
Sm3:5989
CPU:6144

Quanti punti faccio? la somma?

vorrei ricordarti che fra il mio result allo 06 con il dual e con il quad ci sono 1900 punti, ma la differenza cpu è 3000.. come la mettiamo?

ps.: sono su candid camera vero?mi stai prendendo per il culo vero?:mbe:


Cmq ora ti saluto, vorrei anche chiudere l'ot sul funzionamento del 3dmark, e se devi ancora postare per piacere con cognizione di causa... notte

james_het
19-09-2007, 21:31
comunque leggendo la guida di riva credo che bisogni impostare tutti e tre i valori ovvero "2d" "3d lower performance" e "3d high performance" o una cosa del genere allo stesso valore di oc e poi ti fai i vari profili per il 2d ed il 3d.........

io nn voglio i profili, vorrei solo che gli shader si overclokkassero....cmq su vista funziona tutto bene anche se devo dire che a 1600 gli shader nn reggono, strano :cry:

Deviad
19-09-2007, 21:49
http://www.pctuner.info/up/results/_200709/20070919221849_6dm2_4x.gif http://www.pctuner.info/up/results/_200709/20070919221932_6dm4_4x.gif http://www.pctuner.info/up/results/_200709/20070919222011_6dm_total.gif il total score fa la somma quindi e logico che il risultato finale con un quad e superiore con la mia gts se guardo il total score di un quad sono sotto ma se guardo sm2 o sm3 sono piu alto come mai???? dimmelo tu!

Io do pienamente ragione a MaxWrt, nei test che si fanno bisognerebbe eliminare ai fini del confronto di 2 schede, il risultato ottenuto dalla CPU.
Se poi uno vuole fare lo sborone per far vedere che c'ha lo score + alto nella classifica dell'universo allora è un altro discorso.

MaxWrt
19-09-2007, 21:59
quello che voglio dire e che per fare un confronto diretto con altri utenti per quanto riguarda la geforce e non tutto il pc e di confrontare i punteggi sm3 e hdr sm3 questo volevo dire!!!! perche e inutile fare confronti quando poi si hanno 10 cpu!!!!! i 21000 sono una somma che fa il 3dmark e non sono sommati in precisione tipo 2+2 = 4 ma la cpu conta perche puo darsi che uno che con un quad fa 21000 ed io faccio 19000 con un dual ma pero io ad esempio con il dual ho gli sm piu alti e logico che la grafica piu veloce e la mia!!!! avete capito adesso?? spero di essere stato chiaro!! http://www.pctuner.info/up/results/_200709/20070919225247_Cattura.JPG

Scrambler77
19-09-2007, 22:13
In tal caso benchate col '05. Certo un minimo di differenza si ha comunque al cambio della cpu (la grafica è strettamente connessa anche alla velocità delle ram, le latenze, la velocità del quad-pumped, la vel del pci-e ecc...)

Fare un confronto assoluto fra 2 gpu si può fare solo a parità di configurazione.

Ad esempio, cambiando le sole ram, da 667 a 800mhz, si ha circa il 3% di vantaggio anche sulla scheda video (nei bench e nei games) a parità di cpu.

james_het
19-09-2007, 22:25
scusate, ma a che servirebbe confrontare fra loro 2 schede uguali? ovvio che quella con freq maggiore su gpu e ram va + veloce.....il 3d mark serve per valutare in particolar modo la gpu, ma in generale tutto ol piccì, nn è che serva solo la gpu per giocare ;)

MaxWrt
20-09-2007, 03:23
In tal caso benchate col '05. Certo un minimo di differenza si ha comunque al cambio della cpu (la grafica è strettamente connessa anche alla velocità delle ram, le latenze, la velocità del quad-pumped, la vel del pci-e ecc...)

Fare un confronto assoluto fra 2 gpu si può fare solo a parità di configurazione.

Ad esempio, cambiando le sole ram, da 667 a 800mhz, si ha circa il 3% di vantaggio anche sulla scheda video (nei bench e nei games) a parità di cpu.
quello che dici tu e vero! allora e inutile anche postare un risultato in 3dmark se e per questo ma se proprio si deve fare un confronto e bene guardare i risultati di sm perche anche se sono legati a cpu e ram lo sono perlomeno in parte minore ed e piu facile capire il guadagno visto che qui si parla di 8800 e non di sistemi!

MakenValborg
20-09-2007, 07:13
@ MaxWrt : penso di aver capito dove vuoi andare a parare.

TU dici che se ciccio fà 12000 punti allo 06 e bimbogigi ne fà 13000 ma ciccio ha gli sm2 e 3 più alti di bimbogigi che ha il quad chiaramente ciccio ha una vga prestazionalmente superiore.

Ma tu (e quelli che ti danno ragione :rolleyes: :muro: ) con cosa giochi/giocate?? con la sola VGA o con tutto il sistema? cosa fate, i giochi li installate nel dissipatore della vga? :mbe:? tieni conto che i giochi al giorno d'oggi sfruttano moltissimo il processore.motivo per cui colin mcrae dirt con il dualcore overcloccato con grafica al max ogni tanto mi scattava mentre ora col quad non fà una piega:O

è qui che io non capisco la tua polemica, tra l'altro di un'inutilità mostruosa :Prrr: dove cavolo vuoi arrivare?:mad:

Cmq nel mio caso a parità di vga, come puoi ben vedere sono aumentati anche i punti sm2 e sm3.

http://img264.imageshack.us/img264/516/06dualoh3.png http://img216.imageshack.us/img216/5141/06quadia5.jpg


Quindi se io avessi una vga prestazionalmente inferiore come la tua ( una a caso :Prrr: a livello di overclock intendo),mantenendo i sistemi che abbiamo noi due, IL MIO SISTEMA é GRAFICAMENTE SUPERIORE AL TUO perchè ricordo SI GIOCA E SI FANNO I TEST CON TUTTO IL PC SENNO' A COSA AZZZ SERVE? :muro: :muro: :muro: :muro: :muro: :muro: :muro:


Ma se propio volete, nello screen sono ben visibili tutti e 3 i risultati sm2 sm3 e cpu ( dato che se non li fai tutti e 3 il punteggio finale non esce, escono solo gli sm2 e sm3 separati). quindi cosa cavolo vuoi dimostrare ?!?!!? maledizioneeeeeeeeeeeeee!!!

Iantikas
20-09-2007, 07:35
è anke vero ke cmq con queste skede d solito nn ci gioki a 1280x1024 senza filtri (ke son invece le impo usate d def al 3dmark06)...

...secondo me è preferibile il test farlo tutto ma farlo a ris tipo 1680x1050 o 1600x1200 con 4xAA/16xAF (minimo 1280x1024 con filtri se magari il monitor nn permette d'impostare ris + elevate)...in questo modo s'incentra maggiormente il test sulla GPU cmq stressando l'intero sistema...

qui dei risultati a 1280x1024...1600x1200...1920x1200 con filtri... http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_21.html#sect0 ...


...ciao

MakenValborg
20-09-2007, 07:41
è anke vero ke cmq con queste skede d solito nn ci gioki a 1280x1024 senza filtri (ke son invece le impo usate d def al 3dmark06)...

...secondo me è preferibile il test farlo tutto ma farlo a ris tipo 1680x1050 o 1600x1200 con 4xAA/16xAF (minimo 1280x1024 con filtri se magari il monitor nn permette d'impostare ris + elevate)...in questo modo s'incentra maggiormente il test sulla GPU cmq stressando l'intero sistema...

qui dei risultati a 1280x1024...1600x1200...1920x1200 con filtri... http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_21.html#sect0 ...


...ciao

Questo ha già più senso.
Il problema è che il test lo fanno tutti con le stesse impo (senza filtri) e così và fatto, preso con le molle chiaramente rimane indicativo delle prestazioni.quando uscirà un eventuale 3d mark o7, probabilmente implementeranno anche i filtri nel test di base.;)
Il discorso di cui sopra vale comunque però, filtri o no con quad farai sempre più punti che col dual :) e avrai un sistema da game più prestazionale. (il mio esempio di colin ,mcrae del mio post sopra)
Ps.: il mio tv più della 1360 nun fà...

Scrambler77
20-09-2007, 08:31
Scusate se mi intrometto...


TU dici che se ciccio fà 12000 punti allo 06 e bimbogigi ne fà 13000 ma ciccio ha gli sm2 e 3 più alti di bimbogigi che ha il quad chiaramente ciccio ha una vga prestazionalmente superiore.


In effetti è così.

Ma tu (e quelli che ti danno ragione :rolleyes: :muro: ) con cosa giochi/giocate?? con la sola VGA o con tutto il sistema? cosa fate, i giochi li installate nel dissipatore della vga? :mbe:? tieni conto che i giochi al giorno d'oggi sfruttano moltissimo il processore.motivo per cui colin mcrae dirt con il dualcore overcloccato con grafica al max ogni tanto mi scattava mentre ora col quad non fà una piega:O

Questo centra poco col bench. Se parliamo di bench è un conto, se parliamo di giochi è un altro. Quì si parlava di bench se non ho capito male.

In ogni caso, i giochi (almeno per ora) sfruttano pochissimo il multi-threading, pertanto paradossalmente per un videogame è meglio un dualcore superspinto che un quad@default. Col 3dMark'06 le cose cambiano al contrario, pertanto state paragonando 2 tipologie di software che tra loro hanno poco in comune.

Coi videogames, se col quad ora "non fa una piega" non significa nulla: una cosa è il framerate costantemente incrementato, ed un'altra è "ogni tanto mi scattava" che invece indica un problema legato ad altri fattori (ad es. software in background che prendevano possesso dei core per brevi frazioni di tempo). E' noto che (ad oggi) per incrementare il framerate è necessario incrementare le frequenze (di cpu e gpu), non il numero di cores. Se Ciccio overcloccasse il suo dual, avrebbe prestazioni grafiche (e videoludiche) più elevate di quelle di Bimbogigi.

Cmq nel mio caso a parità di vga, come puoi ben vedere sono aumentati anche i punti sm2 e sm3.


Questo è ovvio poichè, nei test sm2 e sm3, con il quad hai 2 threads in più da dedicare alle altre "faccende" relative all'OS e ai processi (e servizi) in background. Con un dual, parte del loro tempo viene "sprecato" dall'OS. Ancora peggio con un single-core. Infatti tu stesso hai notato un leggerissimo miglioramento, non un "raddoppio" delle prestazioni SM.

Quindi se io avessi una vga prestazionalmente inferiore come la tua ( una a caso :Prrr: a livello di overclock intendo),mantenendo i sistemi che abbiamo noi due, IL MIO SISTEMA é GRAFICAMENTE SUPERIORE AL TUO perchè ricordo SI GIOCA E SI FANNO I TEST CON TUTTO IL PC SENNO' A COSA AZZZ SERVE? :muro: :muro: :muro: :muro: :muro: :muro: :muro:

Ancora una volta, se ti riferisci alla pura potenza grafica, ciò che dici non è esatto, poichè montando la sua scheda sul tuo PC avresti prestazioni superiori a quelle che ottieni adesso. In 3dMark, apparte il cpumark, la sua sk video è "castrata" dal dual-core, mentre la tua è avvantaggiata dal quad-core, ma solo per gli aspetti che ti ho descritto.

Se invece ti riferisci allo scenario dei videogames, il tuo Pc è più veloce per le motivazioni che ho pocanzi descritto.

In base al punto di vista, avete ragione (e torto) entrambi.

Questo ha già più senso.
Il problema è che il test lo fanno tutti con le stesse impo (senza filtri) e così và fatto, preso con le molle chiaramente rimane indicativo delle prestazioni.quando uscirà un eventuale 3d mark o7, probabilmente implementeranno anche i filtri nel test di base.;)
Il discorso di cui sopra vale comunque però, filtri o no con quad farai sempre più punti che col dual :) e avrai un sistema da game più prestazionale. (il mio esempio di colin ,mcrae del mio post sopra)
Ps.: il mio tv più della 1360 nun fà...

Per avere un termine di paragone assoluto, i test (teoricamente) vanno fatti coi filtri tutti attivi ed alle risoluzioni più alte, onde evitare di trovarsi in situazioni cpu-limited (se si vuole benchare la sk. video).

P.S: belli i nomi "ciccio" e "bimbogigi" :asd:

TigerTank
20-09-2007, 08:37
ma che vi frega dei bench?!? Giocate, fate video editing, guardatevi i porno, godetevi i soldi spesi senza perdere ore davanti a dei numeretti ;)
Io ad esempio ieri sera ero stanco morto e siccome non avevo voglia di 3dmark o ore di Prime mi sono fatto per la prima volta una partita ai giochini inclusi con Vista senza pensare ad AA,risoluzioni,overclock e compagnia :D
Mi attizzano gli scacchi e il Majhong di Vista.

Ciccio e Bimbogigi....:rotfl:

Scrambler77
20-09-2007, 08:39
è anke vero ke cmq con queste skede d solito nn ci gioki a 1280x1024 senza filtri (ke son invece le impo usate d def al 3dmark06)...


Questo è il motivo per cui sul 3dMark la 2900XT è davanti alla GTX ma nei bench dei videogames si verifica il contrario.

Scrambler77
20-09-2007, 08:40
ma che vi frega dei bench?!? Giocate, fate video editing, guardatevi i porno, godetevi i soldi spesi senza perdere ore davanti a dei numeretti ;)
Io ad esempio ieri sera ero stanco morto e siccome non avevo voglia di 3dmark o ore di Prime mi sono fatto per la prima volta una partita ai giochini inclusi con Vista senza pensare ad AA,risoluzioni,overclock e compagnia :D
Mi attizzano gli scacchi e il Majhong di Vista.

Avrai avuto un bravo psicologo e sei guarito! :asd:

Non è facile uscire dal tunnel! :D

MakenValborg
20-09-2007, 08:41
non ti quoto se no viene un macello :eek:

Non concordo ( non del tutto ) sulla questione che non venga sfruttato in game, anche perchè col dual mica ci giocavo a dafault e gli scatti c'erano lo stesso....inoltre ora col quad, a parte l'assenza totale di crolli nel suddetto game, il framerate massimo è anche aumentato, il che vuol dire che anche se di poco il quad mi avvantaggia in game.
Poi mettici tutto quello che vuoi, SO che rompe le balle con applicativi in background ecc, stà di fatto che col quad và di più.

Sulla questione se bombogigi cloccasse di più il dual ti stoppo ancora, in quanto il punteggio sm2 e sm3 fatto con l'e6400 a 3750 con ram a 1111 o giu di lì in cas 5 e comunque più basso di quello che faccio ora con il q6600 a 3600 mhz.


Inoltre, se metto su la sua vga che si clocca meno della mia ( 702 2088 ) come posso fare più punti di adesso?

I nomi mi sono venuti in un'attimo di delirio :Prrr:
Risottolineo il bench non è il game , ma più punti in benc vogliono dire anche migliori prestazioni in game,magari non così marcate come nel benc ma comunque migliori prestazioni

TigerTank
20-09-2007, 08:42
Avrai avuto un bravo psicologo e sei guarito! :asd:

Non è facile uscire dal tunnel! :D

Al momento dello psicologo non ho bisogno e faccio volentieri a meno, bastano un paio di colleghi rompiballe a farti desiderare un pò di tranquillità ogni tanto :D
Ah preciso che non è che ho la 8800 per giocare ai giochini di Vista, solo che ieri sera non ne avevo su ancora nessuno e non avevo voglia di installare.

Scrambler77
20-09-2007, 08:51
Sulla questione se bombogigi cloccasse di più il dual ti stoppo ancora, in quanto il punteggio sm2 e sm3 fatto con l'e6400 a 3750 con ram a 1111 o giu di lì in cas 5 e comunque più basso di quello che faccio ora con il q6600 a 3600 mhz.


Beh... Tu mi "stoppi" ma senza contare i 150 MHz di differenza a fronte di 6Mb di cache in più (nel tuo esempio), io avevo specificato "quad@default". Ovvio che i risultati sono più alti se clocchi anche il quad, ma prova a portare il quad@default e ripeti il test. Ti accorgerai che (sia nei videogame che nei bench SM) è meglio un dual overcloccato che un quad, nonostante il quad abbia il doppio dei cores disponibili.

Al momento dello psicologo non ho bisogno e faccio volentieri a meno, bastano un paio di colleghi rompiballe a farti desiderare un pò di tranquillità ogni tanto :D
Ah preciso che non è che ho la 8800 per giocare ai giochini di Vista, solo che ieri sera non ne avevo su ancora nessuno e non avevo voglia di installare.

Ehi sia chiaro che stavo scherzando... era una battuta quella dello psicologo (anche se per me ci vorrebbe :asd: ). Io ho preso la GTX per giocare al mame! :P

MakenValborg
20-09-2007, 08:57
Beh... Tu mi "stoppi" ma senza contare i 150 MHz di differenza a fronte di 6Mb di cache in più (nel tuo esempio), io avevo specificato "quad@default". Ovvio che i risultati sono più alti se clocchi anche il quad, ma prova a portare il quad@default e ripeti il test. Ti accorgerai che (sia nei videogame che nei bench SM) è meglio un dual overcloccato che un quad, nonostante il quad abbia il doppio dei cores disponibili.



A default???????????????
Ma che eresie stai dicendo?

un procio a default non lo terrei mai :D

Sia i mono che i dual che i quad io li ho sempre usati overcloccati.

e pio che senso avrebbe paragonare un dual overcloccato con un quad @default?

nel senso, io cerco sempre di avere un sistema performante in modo di sfruttare al max le mie risorse..il che implica overclock, motivo per cui sia vga che cpu le tengo a liquido.

TigerTank
20-09-2007, 09:00
A default???????????????
Ma che eresie stai dicendo?

un procio a default non lo terrei mai :D

Sia i mono che i dual che i quad io li ho sempre usati overcloccati.

e pio che senso avrebbe paragonare un dual overcloccato con un quad @default?

Ciao maken...looooooool stai tranquillo :D
Tu hai provato quella storia di Rivatuner e degli shader?

MakenValborg
20-09-2007, 09:01
Ciao maken...looooooool stai tranquillo :D
Tu hai provato quella storia di Rivatuner e degli shader?

Macchè!
tornato dalla palestra, il tempo di mangiare e rerano già le 21.. giretto in internet, ed era già ora di andarsene a letto... non ho più tempo per niente :muro:

MakenValborg
20-09-2007, 09:07
Beh... Tu mi "stoppi" ma senza contare i 150 MHz di differenza a fronte di 6Mb di cache in più (nel tuo esempio), io avevo specificato "quad@default". Ovvio che i risultati sono più alti se clocchi anche il quad, ma prova a portare il quad@default e ripeti il test. Ti accorgerai che (sia nei videogame che nei bench SM) è meglio un dual overcloccato che un quad, nonostante il quad abbia il doppio dei cores disponibili.




Appunto, in più sul dual :mbe: :Prrr:

Scrambler77
20-09-2007, 09:16
A default???????????????
Ma che eresie stai dicendo?

un procio a default non lo terrei mai :D

Sia i mono che i dual che i quad io li ho sempre usati overcloccati.

e pio che senso avrebbe paragonare un dual overcloccato con un quad @default?

nel senso, io cerco sempre di avere un sistema performante in modo di sfruttare al max le mie risorse..il che implica overclock, motivo per cui sia vga che cpu le tengo a liquido.

No, la vera domanda è "che senso ha paragonare un dual a un quad"!

Ci rinuncio... :asd:

MakenValborg
20-09-2007, 09:23
No, la vera domanda è "che senso ha paragonare un dual a un quad"!

Ci rinuncio... :asd:

Chiedilo a MaxWrt che ha un e6850 cloccato a bestia e gli rode il :ciapet: fare meno punti al 3dmark :rotfl: :rotfl: :rotfl: :rotfl:

sennò uno certe uscite le evita :


beh il 3dmark e da prendere con le molle visto che hai un quad core e logico che hai certi risultati! escludi la prova della cpu e fai solo la grafica vedrai che cambia tutto!!! il 3dmark soprattutto lo 06 e ottimizzato per il quad!!!;)

non ti pare? :Prrr:

ps.: ho ancora una siringa di coollaboratory a casa...il link che hai in firma mi ha stuzzicato una certa idea..

Scrambler77
20-09-2007, 09:39
Chiedilo a MaxWrt che ha un e6850 cloccato a bestia e gli rode il :ciapet: fare meno punti al 3dmark :rotfl: :rotfl: :rotfl: :rotfl:

sennò uno certe uscite le evita :




non ti pare? :Prrr:

ps.: ho ancora una siringa di coollaboratory a casa...il link che hai in firma mi ha stuzzicato una certa idea..

Eddai però non flammare... altrimenti ci andiamo di mezzo tutti. ;)

Coollaboratory è ottima, ma non va bene se cambi spesso cpu/dissipatori (come nel caso mio). L'ho abbandonato.

MakenValborg
20-09-2007, 09:43
Eddai però non flammare... altrimenti ci andiamo di mezzo tutti. ;)

Coollaboratory è ottima, ma non va bene se cambi spesso cpu/dissipatori (come nel caso mio). L'ho abbandonato.

E lo sò, ma quando ci vuole ci vuole, visto che è partito tutto da quell'irritante commento..

bè per quello una volta messo il wb non lo tolgo più finchè la cambio.
ora sono i idle a 39-43 gradi e in ful max 45...magari qualche grado ancora lo recupero.

MaxWrt
20-09-2007, 10:28
Chiedilo a MaxWrt che ha un e6850 cloccato a bestia e gli rode il :ciapet: fare meno punti al 3dmark :rotfl: :rotfl: :rotfl: :rotfl:

sennò uno certe uscite le evita :




non ti pare? :Prrr:

ps.: ho ancora una siringa di coollaboratory a casa...il link che hai in firma mi ha stuzzicato una certa idea.. a me non mi rode proprio nulla !!! forse non hai capito e ti ricordo che con la maggiorparte dei giochi che non sfruttano il quadcore il dual e piu veloce (in giro c'e un confronto 6850 q6600) poi ti ricordo che a 640 x 480 la cpu ha una certa influenza ma piu sali di risoluzione e piu dipendi dalla GPU!!!!! lo so che i test li fa tutti e tre ma se te vedi bene nell'immagine che hai postato gli sm cambiano si ma di poco e la cpu e il risultato finale cambia molto!! quindi chi guarda il tuo punteggio finale potrebbe spaventarsi ma poi non e cosi.... poi a me non rode nulla!!! e ti ripeto che con un 6400 e senza shader overcloccati facevo un punteggio molto vicino al tuo!!!!! e qui non voglio fare a chi ce l'ha piu duro!! fai anche un 3dmark 05 che come metro di paragone e piu giusto in quanto non e ottimizzato per il quad! anche se e logico che influenza lo steso..... NON SONO GELOSO DEL SISTEMA DEGLI ALTRI!!!:read:

MakenValborg
20-09-2007, 10:33
a me non mi rode proprio nulla !!! forse non hai capito e ti ricordo che con la maggiorparte dei giochi che non sfruttano il quadcore il dual e piu veloce (in giro c'e un confronto 6850 q6600) poi ti ricordo che a 640 x 480 la cpu ha una certa influenza ma piu sali di risoluzione e piu dipendi dalla GPU!!!!! lo so che i test li fa tutti e tre ma se te vedi bene nell'immagine che hai postato gli sm cambiano si ma di poco e la cpu e il risultato finale cambia molto!! quindi chi guarda il tuo punteggio finale potrebbe spaventarsi ma poi non e cosi.... poi a me non rode nulla!!! e ti ripeto che con un 6400 e senza shader overcloccati facevo un punteggio molto vicino al tuo!!!!! e qui non voglio fare a chi ce l'ha piu duro!! fai anche un 3dmark 05 che come metro di paragone e piu giusto in quanto non e ottimizzato per il quad! anche se e logico che influenza lo steso..... NON SONO GELOSO DEL SISTEMA DEGLI ALTRI!!!:read:


:rotfl: :rotfl: :rotfl: :rotfl: come si incazzaaaaaa :Prrr: :Prrr:

Ps.: io gli shader non li ho mai overclokkati indipendentemente, magari provo e vediamo il result...tanto tu non sei Nvidioso :Prrr:

MaxWrt
20-09-2007, 10:42
:rotfl: :rotfl: :rotfl: :rotfl: come si incazzaaaaaa :Prrr: :Prrr:

Ps.: io gli shader non li ho mai overclokkati indipendentemente, magari provo e vediamo il result...tanto tu non sei Nvidioso :Prrr:
GUARDA CHE NON MI INCAZZO!! e che per utenti inesperti che si impauriscono e non capiscono come uno possa raggiungere certi punteggi e giusto che ne siano al corrente.... per quanto mi riguarda il mio sistema e perfetto cosi (almeno per me) :)

MakenValborg
20-09-2007, 10:45
GUARDA CHE NON MI INCAZZO!! e che per utenti inesperti che si impauriscono e non capiscono come uno possa raggiungere certi punteggi e giusto che ne siano al corrente.... per quanto mi riguarda il mio sistema e perfetto cosi (almeno per me) :)

Bè, per il bene degli altri utenti và anche bene :D
Almeno il nostro teatrino è servito a qualcosa :mano: :cincin:

vorrei ben vedere che il tuo sistema ti và bene! praticamente ci puoi fare di tutto senza problemi ;)

Ps.: mi incuriosice il termalright che hai montato sulla vga.. quante ventole ci stanno sopra volendo?

MaxWrt
20-09-2007, 10:48
Bè, per il bene degli altri utenti và anche bene :D
Almeno il nostro teatrino è servito a qualcosa :mano: :cincin:

vorrei ben vedere che il tuo sistema ti và bene! praticamente ci puoi fare di tutto senza problemi ;)

Ps.: mi incuriosice il termalright che hai montato sulla vga.. quante ventole ci stanno sopra volendo?
spero di si! :)

Zannawhite
20-09-2007, 10:53
Comunque questa generazioni di dissipatori delle 8800 creano problemi di rumorosità?

MaxWrt
20-09-2007, 10:55
spero di si! :)
per il thermalright ci sta una ventola da 92..

MakenValborg
20-09-2007, 10:57
Comunque questa generazioni di dissipatori delle 8800 creano problemi di rumorosità?

Dipende dalle tue orecchie, io il dissy stock l'ho usato per una settimana circa, e non è poi così rumoroso..poi dipende a che rumori sei abituato..

MakenValborg
20-09-2007, 10:57
doppio post......

TigerTank
20-09-2007, 11:02
Comunque questa generazioni di dissipatori delle 8800 creano problemi di rumorosità?

Il dissi delle 8800 è il migliore di tutte le vga che ho mai avuto, sia Ati che Nvidia. Il problema è sempre quello schifo di pasta che ci piazzano sotto...
Non capisco perchè non usano della AS5 piazzata bene...maggiorerbbe il prezzo di 1 €?!?
Certo poi il liquido è ancora meglio :Perfido:

MaxWrt
20-09-2007, 11:07
Il dissi delle 8800 è il migliore di tutte le vga che ho mai avuto, sia Ati che Nvidia. Il problema è sempre quello schifo di pasta che ci piazzano sotto...
Non capisco perchè non usano della AS5 piazzata bene...maggiorerbbe il prezzo di 1 €?!?
Certo poi il liquido è ancora meglio :Perfido:
scusa se mi intrometto ma io dal dissi originale che sfioravo gli 80 gradi :eek: a un thermalright sono sceso a 50!! avevo cambiato la pasta ma ho preso 3 gradi! conviene sostituirlo.....

Zannawhite
20-09-2007, 11:08
Il dissi delle 8800 è il migliore di tutte le vga che ho mai avuto, sia Ati che Nvidia. Il problema è sempre quello schifo di pasta che ci piazzano sotto...
Non capisco perchè non usano della AS5 piazzata bene...maggiorerbbe il prezzo di 1 €?!?
Certo poi il liquido è ancora meglio :Perfido:Ok, quindi appena mi arriva faccio 2 modifiche, pasta termica con AS5 e mentre è smontato taglio quella griglia del cavolo a fine VGA che occupa lo slot sottostante le DVI per fare evacuare meglio il flusso d'aria calda all'esterno.
Infine chiuderò quelle insignificanti feritoie quasi al termine del carter della VGA.

Una domanda, moduli DDR3 sono con pasta o senza? :mbe:

MakenValborg
20-09-2007, 11:11
Ok, quindi appena mi arriva faccio 2 modifiche, pasta termica con AS5 e mentre è smontato taglio quella griglia del cavolo a fine VGA che occupa lo slot sottostante le DVI per fare evacuare meglio il flusso d'aria calda all'esterno.
Infine chiuderò quelle insignificanti feritoie quasi al termine del carter della VGA.

Una domanda, moduli DDR3 sono con pasta o senza? :mbe:

Se vuoi mandare a puttane l agaranzia e precluderti ogni possibilità di venderla prego :O

Piuttosto compra un termalrigt o uno zalman degli ultimi usciti :D

I moduli sono appoggiadi con dei pad "gommosi"

Scrambler77
20-09-2007, 11:36
Se vuoi mandare a puttane l agaranzia e precluderti ogni possibilità di venderla prego :O

Piuttosto compra un termalrigt o uno zalman degli ultimi usciti :D

I moduli sono appoggiadi con dei pad "gommosi"

Quei pad sono grassi, non gommosi... una vera schifezza! :doh:

MaxWrt
20-09-2007, 11:37
Ok, quindi appena mi arriva faccio 2 modifiche, pasta termica con AS5 e mentre è smontato taglio quella griglia del cavolo a fine VGA che occupa lo slot sottostante le DVI per fare evacuare meglio il flusso d'aria calda all'esterno.
Infine chiuderò quelle insignificanti feritoie quasi al termine del carter della VGA.

Una domanda, moduli DDR3 sono con pasta o senza? :mbe: attenzione!!!! non puoi nella 8800 smontare il dissi e cambiare semplicemente la pasta con della artic!! le ram e la gpu non sono livellate uguali!! infatti sulle ram la pasta originale e piu spessa!!! anzi sono pad termici quindi attento perche senno ti trovi con una vga nuova che non puoi usare... occhio!

Iantikas
20-09-2007, 12:32
Questo è il motivo per cui sul 3dMark la 2900XT è davanti alla GTX ma nei bench dei videogames si verifica il contrario.


la situazione è un pò + complessa d come la descrivi tu...

...rimanendo nell'ambito 3dmark06 se guardi il link postato prima li ci sono anke i test con i filtri attivi (4xAA/16xAF)...

...puoi vedere ke nei test sm2.0 ke pongono maggiore enfasi sull'operazioni con le texture la hd2900xt se senza filtri è quasi alla pari con la GTX con i filtri va peggio di una GTS...

...nei test sm3.0 ke pnogono maggiore enfasi sulle operazioni con gli shader (sopratutto il secondo) vedrai ke senza filtri è superiore e rimane superiore anke una volta attivati i filtri...


...ora il 3dmark06 nn'è cmq un gioco ma tale test da unindicazione su come, a seconda d com'è fatto il motore del gioco e del rapporto ALU/TEX ke possiede, lo scenario possa essere molto diverso com'è normale k sia x due arkitetture diverse...

...detto questo cmq va precisato ke con i (canonici 4xAA/16xAF) filtri abilitati uno scenario ke vede la HD2900XT superiore alla GTX è molto raro e si presenta solo in gioki dal rapporto ALU/TEX molto elevato...nella maggior parte dei gioki odierni (e con buona probabilità anke nella maggior parte d quelli prox futuri) ciò cmq nn si verifica...

...questo xkè a fronte d un lieve vantaggio sulle operazioni con gli shader la HD2900XT è decisamente meno potente x quanto riguarda le operazioni con le texture (nei confronti della GTX)...ma daltronde se nn fosse stato così nn l'avrebbero messa in competizione con la GTS ke invece sempre dal punto di vista teorico ha un eguale potenziale con le texture e decisamente inferiore con gli shader...

...ciao

TigerTank
20-09-2007, 13:02
Ok, quindi appena mi arriva faccio 2 modifiche, pasta termica con AS5 e mentre è smontato taglio quella griglia del cavolo a fine VGA che occupa lo slot sottostante le DVI per fare evacuare meglio il flusso d'aria calda all'esterno.
Infine chiuderò quelle insignificanti feritoie quasi al termine del carter della VGA.

Una domanda, moduli DDR3 sono con pasta o senza? :mbe:

Fossi in te io prenderei questo, prima del liquido io mi sono trovato sempre bene con Zalman.

http://www.zalman.co.kr/upload/product/vf1000_f_p.jpg

MaxWrt
20-09-2007, 13:05
la situazione è un pò + complessa d come la descrivi tu...

...rimanendo nell'ambito 3dmark06 se guardi il link postato prima li ci sono anke i test con i filtri attivi (4xAA/16xAF)...

...puoi vedere ke nei test sm2.0 ke pongono maggiore enfasi sull'operazioni con le texture la hd2900xt se senza filtri è quasi alla pari con la GTX con i filtri va peggio di una GTS...

...nei test sm3.0 ke pnogono maggiore enfasi sulle operazioni con gli shader (sopratutto il secondo) vedrai ke senza filtri è superiore e rimane superiore anke una volta attivati i filtri...


...ora il 3dmark06 nn'è cmq un gioco ma tale test da unindicazione su come, a seconda d com'è fatto il motore del gioco e del rapporto ALU/TEX ke possiede, lo scenario possa essere molto diverso com'è normale k sia x due arkitetture diverse...

...detto questo cmq va precisato ke con i (canonici 4xAA/16xAF) filtri abilitati uno scenario ke vede la HD2900XT superiore alla GTX è molto raro e si presenta solo in gioki dal rapporto ALU/TEX molto elevato...nella maggior parte dei gioki odierni (e con buona probabilità anke nella maggior parte d quelli prox futuri) ciò cmq nn si verifica...

...questo xkè a fronte d un lieve vantaggio sulle operazioni con gli shader la HD2900XT è decisamente meno potente x quanto riguarda le operazioni con le texture (nei confronti della GTX)...ma daltronde se nn fosse stato così nn l'avrebbero messa in competizione con la GTS ke invece sempre dal punto di vista teorico ha un eguale potenziale con le texture e decisamente inferiore con gli shader...

...ciao quello che dici puo essere vero anche se la 2900 sembra inferiore inqualita visiva ovvero i driver ati sono stati compilati in modo da avere piu prestazioni e meno qualita per questo apparentemente va di piu di una gts questo tutto di default naturalmente ma se si fa un overclock per quanto sale una 2900 cioe pochissimo e una gts vedi anche 7xx e 2xxx rispettivamente core e memorie la gts diventa nettamente superiore anche se ripeto che la 2900 qualitativamente e peggiore... anche se in alcuni siti di hardware e inferiore anche come prestazioni... http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=646&p=3 http://www.hwupgrade.it/articoli/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_5.html

Johncook
20-09-2007, 14:40
Ragazzi...ho un problema con la mia 8800 gts da 640...vi spiego..nel bel mezzo di un gioco o di qualsiasi altro applicativo si blocca completamente il sistema..:muro: a volte si riavvia da solo il pc,ed a volte devo fare il reset forzato..sto usando rivatuner 2.04 per regolare la temperatura..ora ho duvuto settare la ventola gpu al100% perchè diversamente con le impostazioni di default il pc si blocca piu spesso..
Puo essere solo un problema di temperatura che fa bloccare la scheda o è qualcos'altro?che ventole mi consigliate di mettere nel case?vi premetto che ho un cooler master 632...
aliment termaltoke 650w,asus p5n-sli,in attesa di asus striker extreme,quad q6600,2gb corsaire dominator 800mhz,samsung 500lj 500gb..
grazie in anticipo

MakenValborg
20-09-2007, 14:42
Ragazzi...ho un problema con la mia 8800 gts da 640...vi spiego..nel bel mezzo di un gioco o di qualsiasi altro applicativo si blocca completamente il sistema..:muro: a volte si riavvia da solo il pc,ed a volte devo fare il reset forzato..sto usando rivatuner 2.04 per regolare la temperatura..ora ho duvuto settare la ventola gpu al100% perchè diversamente con le impostazioni di default il pc si blocca piu spesso..
Puo essere solo un problema di temperatura che fa bloccare la scheda o è qualcos'altro?che ventole mi consigliate di mettere nel case?vi premetto che ho un cooler master 632...
aliment termaltoke 650w,asus p5n-sli,in attesa di asus striker extreme,quad q6600,2gb corsaire dominator 800mhz,samsung 500lj 500gb..
grazie in anticipo


<non centra con la tua domanda, ma se vuoi fare oc e sei ancora in tempo disdici la asus striker e comprati una qualsiasi intel P35

Johncook
20-09-2007, 14:52
perchè cos'è che nn va alla striker extreme?nn sai dirmi ulla riguardo il mio problema con la gts?

Iantikas
20-09-2007, 14:56
quello che dici puo essere vero anche se la 2900 sembra inferiore inqualita visiva ovvero i driver ati sono stati compilati in modo da avere piu prestazioni e meno qualita per questo apparentemente va di piu di una gts questo tutto di default naturalmente ma se si fa un overclock per quanto sale una 2900 cioe pochissimo e una gts vedi anche 7xx e 2xxx rispettivamente core e memorie la gts diventa nettamente superiore anche se ripeto che la 2900 qualitativamente e peggiore... anche se in alcuni siti di hardware e inferiore anche come prestazioni... http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=646&p=3 http://www.hwupgrade.it/articoli/skvideo/1726/ati-radeon-hd-2900-xt-hdr-e-directx-10_5.html


rimango allibito sul discorso qualità...xkè leggere queste cose alle 15:47 del 20 settembre 2007 da parte di un utente ke mi linka anke rece e pare quindi ke s'informi è scioccante...

...questi sono alcuni tra i + importanti siti a livello mondiale...

www.anandtech.com
www.techreport.com
www.xbitlabs.com
www.pcper.com
www.beyond3d.com
www.bit-tech.net
www.hardware.fr

...se mi torvi d grazia dov'è ke s'afferma un qualcosa d simile la 2900 sembra inferiore inqualita visiva ovvero i driver ati sono stati compilati in modo da avere piu prestazioni e meno qualita te ne sarei grato...


...poi ridurre sempre ogni discussione a "ki cè l'ha + lungo" è quanto mai svilente sia x la discussione in se ke x noi stessi...

...ciao

_Aenea_
20-09-2007, 14:59
perchè cos'è che nn va alla striker extreme?nn sai dirmi ulla riguardo il mio problema con la gts?

Non ha senso prendersi una mobo col chipset della striker, quando sono usciti mobo molto performanti col chipset P35, che è... più moderno! Prenditi una bella DFI lanparty....

...e comunque siamo OT:O , ti consiglio di postare il problema nella sezione apposita!

MakenValborg
20-09-2007, 15:05
perchè cos'è che nn va alla striker extreme?nn sai dirmi ulla riguardo il mio problema con la gts?

la striker con i quad ha un bloccoattorno ai 300 di fsb.


prima di aggiungere ventole o altro, prova ad usarlo a case aperto,se a case aperto ti si blocca ancoa, non era un problema di ventole:O

ugo71
20-09-2007, 15:59
se si spegne sembra pun problema di di alimentazione o temp, l'alimentazione non dovrebbe essere un problema nel tuo caso ma...
la temp della vga adefoult?

ugo71
20-09-2007, 16:16
forse dovrei postare nell'ottimo thread su riva.. cmq : la ram video in oc resta sempre uguale, non scende seguendo i profili come gpu e shader, bisogna creare un profilo apposta?
Ps sono 8 mesi che ho sta vga ma l'oc non lo ritenevo opportuno fino a un mese fà ma ritoccando un pò la ventilazione e con gli shader sbloccati vale la pena:D

Johncook
20-09-2007, 16:26
La temperatura a default è di 58°,mentre facendo girare la ventola gpu al 100% arriva a 53°-54°...cmq sia anche a case aperto si blocca...cosa puo essere?

_Aenea_
20-09-2007, 16:34
A 58 °C a default?!?! :eek:

Non è un pochetto altina?

Arradgiato
20-09-2007, 16:50
A 58 °C a default?!?! :eek:

Non è un pochetto altina?

no anzi..è in linea con le temperature ambiente di questo periodo..poi stiamo parlando sempre di una 8800..comunque il problema non è la temp in idle ma quella in full..dovresti postare un grafico delle temp mentre giochi..

ugo71
20-09-2007, 17:00
A 58 °C a default?!?! :eek:

Non è un pochetto altina?

dipende da dalla t.amb. ma è normale io per un periodo (estivo) avevo 60°in idle a defoult e 80° sotto stress, poi ho aggiunto 2 piccole ventoline in esrtazione e portato la ventola a +10% e con l'oc in firma na temp max durante il 3dm06 è 72°;) cmq sotto stress anche 85° non sono un problema per la gpu ma per tutto quello che sta la intorno sì se non c'è areazione nel case:)

Cuore Radioso
20-09-2007, 20:05
Ciao sono nuovo, mi sono iscritto perchè ho un problema con la scheda video 8800 gts 640 mb. almeno penso:) . durante il gioco compaiono strane forme di vari colori durante. mentre all'acccensione appaiono punti paralleli in verticale fino al caricamento di windows xp.alla fine appare una schermata blu che scompare subito con un riavvio del sistema

Ho letto che the_max_80 ha già esperienza in questi fatti. Gradirei un tuo aiuto. qualunque altra persona però è accettata volentieri.

Scrambler77
20-09-2007, 20:15
Ciao sono nuovo, mi sono iscritto perchè ho un problema con la scheda video 8800 gts 640 mb. almeno penso:) . durante il gioco compaiono strane forme di vari colori durante. mentre all'acccensione appaiono punti paralleli in verticale fino al caricamento di windows xp.alla fine appare una schermata blu che scompare subito con un riavvio del sistema

Ho letto che the_max_80 ha già esperienza in questi fatti. Gradirei un tuo aiuto. qualunque altra persona però è accettata volentieri.

Io farei RMA e me la farei sostituire.

Smemo
20-09-2007, 23:21
Ciao sono nuovo, mi sono iscritto perchè ho un problema con la scheda video 8800 gts 640 mb. almeno penso:) . durante il gioco compaiono strane forme di vari colori durante. mentre all'acccensione appaiono punti paralleli in verticale fino al caricamento di windows xp.alla fine appare una schermata blu che scompare subito con un riavvio del sistema

Ho letto che the_max_80 ha già esperienza in questi fatti. Gradirei un tuo aiuto. qualunque altra persona però è accettata volentieri.

Come già postato fattela sostituire SUBITO, a volte capitano le schede video uscite male di fabbrica... :mbe:

Arradgiato
20-09-2007, 23:25
Ciao sono nuovo, mi sono iscritto perchè ho un problema con la scheda video 8800 gts 640 mb. almeno penso:) . durante il gioco compaiono strane forme di vari colori durante. mentre all'acccensione appaiono punti paralleli in verticale fino al caricamento di windows xp.alla fine appare una schermata blu che scompare subito con un riavvio del sistema

Ho letto che the_max_80 ha già esperienza in questi fatti. Gradirei un tuo aiuto. qualunque altra persona però è accettata volentieri.

che driver usi? hai formattato il sistema quando hai messo su la 8800? sei sicuro del buon funzionamento delle tue ram?

Eye of the tiger
21-09-2007, 00:19
Scusate, visto che devo comprare l'hardware per assemblarmi un PC mi chiedevo se è meglio una Point of view 8800 GTS 320mb extreme overclock oppure una Zotac 8800 GTS 640mb.
Sulla rete e nei vari forum ho sentito che per le varie marche cambia solo il dissipatore (che tanto devo cambiare) quindi per 40 € in più mi conviene la versione da 640 mb ?
E secondo voi anche se è off topic che alimentatore andrebbe bene per un 8800 con un Q6600 ?

Poty...
21-09-2007, 01:46
Scusate, visto che devo comprare l'hardware per assemblarmi un PC mi chiedevo se è meglio una Point of view 8800 GTS 320mb extreme overclock oppure una Zotac 8800 GTS 640mb.
Sulla rete e nei vari forum ho sentito che per le varie marche cambia solo il dissipatore (che tanto devo cambiare) quindi per 40 € in più mi conviene la versione da 640 mb ?
E secondo voi anche se è off topic che alimentatore andrebbe bene per un 8800 con un Q6600 ?

stai paragonando due VGA diverse seppur uguali(scusa il gioco di parole:D )
la 640 ora come ora è la vga più conveniente per le prestazioni che ofre e l'overclock che ti permette di fare se è per 40€ e te lo puoi permettere prendi assolutamente la 640 e ti posso assicurare che non te ne pantirai è la vga migliore che io abbia mai avuto;)
il dissipatore delle 8800 gts è per tutte uguali (salvo rari casi ma sono veramente poche) al max tra le due cambia l'adesivo che c'è attaccato sopra;)
spero di esserti stato d'aiuto

james_het
21-09-2007, 08:38
vi segnalo uno strano prob: da quando ho messo su gli ultimi driver con rivatuner 2.04 nn posso + completare il 3dmark06, mi si pianta sempre al secondo test, la cosa strana è che se eseguo tutti i test singolarmente vanno benissimo, anche il firefly forest (2°), se invece eseguo il test completo si pianta, e poi si pianta sempre nello stesso identico punto....:muro: :muro: :muro:


vabbeh cmq per confrontare i vari score e il vantaggio degli shader confronterò i singoli punteggi sul browser, avendo la versione del 3dmark06 bundle della commando :)

gianlu75xp
21-09-2007, 08:58
vi segnalo uno strano prob: da quando ho messo su gli ultimi driver con rivatuner 2.04 nn posso + completare il 3dmark06, mi si pianta sempre al secondo test, la cosa strana è che se eseguo tutti i test singolarmente vanno benissimo, anche il firefly forest (2°), se invece eseguo il test completo si pianta, e poi si pianta sempre nello stesso identico punto....:muro: :muro: :muro:


vabbeh cmq per confrontare i vari score e il vantaggio degli shader confronterò i singoli punteggi sul browser, avendo la versione del 3dmark06 bundle della commando :)

con Rivatuner 2.03 e i 163.69 tutto ok

P.S. che brutto avatar :banned: :asd:

Cuore Radioso
21-09-2007, 19:15
Grazie per le tante risposte. il pc che ho appena comprato. lo formattato io e uso gli ultimi driver trovati sul sito ufficiale della nvidia. Come può essere un problema di RAM? Come faccio a saperlo?
Mi consigliate di sostituire la SV? Non si può risolvere il problema? Il fatto è che non va sempre male, alcuni giorni funziona normalmente!

Vi informo che sono disponibile solo dalle 18:30 alle 20:30 ora italiana ovvio.

Arradgiato
22-09-2007, 00:10
Grazie per le tante risposte. il pc che ho appena comprato. lo formattato io e uso gli ultimi driver trovati sul sito ufficiale della nvidia. Come può essere un problema di RAM? Come faccio a saperlo?
Mi consigliate di sostituire la SV? Non si può risolvere il problema? Il fatto è che non va sempre male, alcuni giorni funziona normalmente!

Vi informo che sono disponibile solo dalle 18:30 alle 20:30 ora italiana ovvio.

scarica la iso di memtest86 masterizzala su un cd e fai partire il pc da questo cd-rom..se la ram completa almeno due cicli del test allora non è la ram..

Scrambler77
22-09-2007, 10:13
scarica la iso di memtest86 masterizzala su un cd e fai partire il pc da questo cd-rom..se la ram completa almeno due cicli del test allora non è la ram..

Penso si riferisse alla ram della scheda video. In ogni caso, se a default gli da problemi di visualizzazione, meglio sostituire la scheda.

james_het
22-09-2007, 12:51
Penso si riferisse alla ram della scheda video. In ogni caso, se a default gli da problemi di visualizzazione, meglio sostituire la scheda.

ricordo che avevo problemi di visualizzazione anche a default con la vecchia x1800xt, e alla fine scoprii che era l'alimentatore, o meglio la vga nn era ben alimentata, nn tanto per l'ali stesso che era un enermax 600, ma perchè usavo l'adattatore 4pin--->6pin che evidentemente nn faceva bene contatto e succedeva un casino, magari è quello anche per lui, anche lui usa l'adattatore intendo ;) ........

Arradgiato
22-09-2007, 13:32
Penso si riferisse alla ram della scheda video. In ogni caso, se a default gli da problemi di visualizzazione, meglio sostituire la scheda.

no penso si riferisse alla ram di sistema perchè io una pagina addietro gli avevo chiesto se della ram era sicuro..perchè anche quella se è spu**anata fa casini inaspettati!!

Cuore Radioso
22-09-2007, 14:37
scrambler mi riferivo alla ram di sistema

Cuore Radioso
22-09-2007, 14:38
come faccio a sapere se l'alimentatore non va bene?

Scrambler77
22-09-2007, 17:00
scrambler mi riferivo alla ram di sistema

Ok sorry.

Arradgiato
22-09-2007, 17:27
come faccio a sapere se l'alimentatore non va bene?

che ali hai? quanti anni ha?

Cuore Radioso
23-09-2007, 08:26
L'alimentatore dato insieme al case.:fagiano:

ITEK ATX + P4 POWER SUPPLY
____________________________________
AC INPUT 115/230V 5/2.5A 50/60Hz | |
------------------------------------------------------------
DC OUTPUT | +5V | +12V | -5V | -12V | +3.3V | +5VSB |
-------------------------------------------------------------
ATX-450ATX | 45A | 12A | 0.5A | 0.8A | 26A | 2A |
-----------------------------------------------------------

Questa è l'etichetta dell'alimentatore

meglio di così non so cosa fare!:D

nagashadow
23-09-2007, 08:53
raga è normale che con la mia 8800 gts 640 al 3d mark 06 faccio 6500 punti??
ho un amd dual core 3600+ e ram a 667

FRN2003
23-09-2007, 09:11
raga è normale che con la mia 8800 gts 640 al 3d mark 06 faccio 6500 punti??
ho un amd dual core 3600+ e ram a 667
a quanto è il procio in mhz? se sei a default direi di si, io con il mio a default (2000mhz) faccio 8500, in overclock a 2700 faccio 9500......se poi tiro anche la vga arrivo a 10000 punti, non male per un socket 939.....sono stracontento!!!!

Smemo
23-09-2007, 09:52
L'alimentatore dato insieme al case.:fagiano:

ITEK ATX + P4 POWER SUPPLY
____________________________________
AC INPUT 115/230V 5/2.5A 50/60Hz | |
------------------------------------------------------------
DC OUTPUT | +5V | +12V | -5V | -12V | +3.3V | +5VSB |
-------------------------------------------------------------
ATX-450ATX | 45A | 12A | 0.5A | 0.8A | 26A | 2A |
-----------------------------------------------------------

Questa è l'etichetta dell'alimentatore

meglio di così non so cosa fare!:D

se devi alimentare una 8800GTs ordina almeno un 550W lcpower ;)

Go!tta
23-09-2007, 10:02
Ciao sono nuovo, mi sono iscritto perchè ho un problema con la scheda video 8800 gts 640 mb. almeno penso:) . durante il gioco compaiono strane forme di vari colori durante. mentre all'acccensione appaiono punti paralleli in verticale fino al caricamento di windows xp.alla fine appare una schermata blu che scompare subito con un riavvio del sistema

Ho letto che the_max_80 ha già esperienza in questi fatti. Gradirei un tuo aiuto. qualunque altra persona però è accettata volentieri.

come faccio a sapere se l'alimentatore non va bene?

L'alimentatore dato insieme al case.:fagiano:

ITEK ATX + P4 POWER SUPPLY
____________________________________
AC INPUT 115/230V 5/2.5A 50/60Hz | |
------------------------------------------------------------
DC OUTPUT | +5V | +12V | -5V | -12V | +3.3V | +5VSB |
-------------------------------------------------------------
ATX-450ATX | 45A | 12A | 0.5A | 0.8A | 26A | 2A |
-----------------------------------------------------------

Questa è l'etichetta dell'alimentatore

meglio di così non so cosa fare!:D


mistero risolto!!!!!

con 12A sul 12V è normale che la scheda ti crashi!!!!;)

se vuoi spendere poco comprati un nuovo ali della lc Power, altrimenti con un 100 di euro ti prendi un bel corsair e stai a posto!!!!;)

MArCoZ_46
23-09-2007, 10:45
mistero risolto!!!!!

con 12A sul 12V è normale che la scheda ti crashi!!!!;)

se vuoi spendere poco comprati un nuovo ali della lc Power, altrimenti con un 100 di euro ti prendi un bel corsair e stai a posto!!!!;)
E' normale? Sarebbe normale se non partisse ma...
Per me quell'alimentatore è un prodigio, è un mostro, ha fatto partire il sistema e a volte gli funziona anche nonostante quegli amperaggi;
per cui tanto di cappello, mi genufletto di fronte a un Highlander degli Ali!! :sofico:

james_het
23-09-2007, 11:40
E' normale? Sarebbe normale se non partisse ma...
Per me quell'alimentatore è un prodigio, è un mostro, ha fatto partire il sistema e a volte gli funziona anche nonostante quegli amperaggi;
per cui tanto di cappello, mi genufletto di fronte a un Highlander degli Ali!! :sofico:

prendi un ali della Tagan o altre marche come ti hanno detto qui, da almeno 550W e con buoni amperaggi sulle linee +12, perchè di linee +12 dovrebbe averne almeno 3/4 un buol ali moderno ;)

norbertom
23-09-2007, 12:03
ragazzi qualcuno ha l'accoppiata 8800gts 640 ed ali Enermax liberty 620w ???
no perché sto diventando matto :cry: :cry: :cry: :cry:
un ronzio che non finisce più... forse è l'eccessivo carico dato dal sistema+8800 acceso notte e giornO???

Scrambler77
23-09-2007, 12:39
forse è l'eccessivo carico dato dal sistema+8800 acceso notte e giornO???

Con un enermax? Non ci credo manco se lo vedo... Da dove proviene il ronzio?

Go!tta
23-09-2007, 13:09
piuttosto è probabile che si sia usurato l'ali......da quanti hanni l'hai?????

norbertom
23-09-2007, 14:35
ce l'ho da dicembre scorso... comunque credo che manderò questo in garanzia, e me ne prendo di un'altra marca. Il ronzio dovrebbe essere quello del relé, che prima lo faceva solo all'accensione, ora fino a quando non spengo il pc.. ho staccato gli hd e non lo fa, forse non regge più il carico... Lo aumenta quando muovo il mouse (usb) e quando la cpu lavora in full...
Tra l'altro non sono il primo che ha di questi problemi con l'enermax... E calcolando che cambierò scheda tra qualche mese, se non regge adesso, figurarsi dopo.

Arradgiato
23-09-2007, 14:50
ce l'ho da dicembre scorso... comunque credo che manderò questo in garanzia, e me ne prendo di un'altra marca. Il ronzio dovrebbe essere quello del relé, che prima lo faceva solo all'accensione, ora fino a quando non spengo il pc.. ho staccato gli hd e non lo fa, forse non regge più il carico... Lo aumenta quando muovo il mouse (usb) e quando la cpu lavora in full...
Tra l'altro non sono il primo che ha di questi problemi con l'enermax... E calcolando che cambierò scheda tra qualche mese, se non regge adesso, figurarsi dopo.

allora se vai sul 3d ufficiale ci sono alcuni utenti che con la serie liberty hanno avuto questo problema...si è proprio il relè del circuito pfc che è andato..ma non dipende da fattori inerenti al carico sull'ali ma da fattori esterni quali tensione in ingresso e forma dell'onda in ingresso..avrai mica usato un normale ups con questo ali??

norbertom
23-09-2007, 14:57
no. non ho un ups.. lo sto vedendo questi giorni.. Credo mi prendo un APC... Comunque Grazie e fine OT

Nos89
23-09-2007, 15:06
Con un enermax? Non ci credo manco se lo vedo... Da dove proviene il ronzio?

anche il mio Enermax Coolergiant 535W in Full dopo molto tempo emmette un ronzio...si chiama rumore elettrico...e normale non succede nulla a l'ali:)

per quel pazzo che voleva alimentare la 8800 con quel cos:D bhe fossi in te lo cambierei subito prima che ti scoppia nel case;)

pikerunner
23-09-2007, 15:57
Usavo un Enermax Liberty da 620 e un ups, ma la mia (vecchia,ormai venduta) 8800gts640 mai dato problemi. Controllerei la presa elettrica IMHO.

Eye of the tiger
23-09-2007, 23:54
Raga fra qualche giorno farò l'ordine e devo decidere se prendere una 8800 GTS 640 mb o una ati x2900xt.
Sono indecisissimo perchè ovunque cerchi ci sono pareri di parte e non ci sono testi oggettivi e "puliti".
Sono indeciso per via del prezzo anche se ci sono una trentina di € trà l'una e l'altra e perchè ho letto che nei test l'ati è più performante ma nei giochi la nvidia ha una migliore grafica.
:help: :help: :help:

Nos89
23-09-2007, 23:55
Raga fra qualche giorno farò l'ordine e devo decidere se prendere una 8800 GTS 640 mb o una ati x2900xt.
Sono indecisissimo perchè ovunque cerchi ci sono pareri di parte e non ci sono testi oggettivi e "puliti".
Sono indeciso per via del prezzo anche se ci sono una trentina di € trà l'una e l'altra e perchè ho letto che nei test l'ati è più performante ma nei giochi la nvidia ha una migliore grafica.
:help: :help: :help:

se posti qui tutti ti diranno 8800GTS me compreso:O

MaxWrt
23-09-2007, 23:57
Raga fra qualche giorno farò l'ordine e devo decidere se prendere una 8800 GTS 640 mb o una ati x2900xt.
Sono indecisissimo perchè ovunque cerchi ci sono pareri di parte e non ci sono testi oggettivi e "puliti".
Sono indeciso per via del prezzo anche se ci sono una trentina di € trà l'una e l'altra e perchè ho letto che nei test l'ati è più performante ma nei giochi la nvidia ha una migliore grafica.
:help: :help: :help: non e ne migliore di grafica e ne piu performante!! in overclock sale molto poco...

Zannawhite
24-09-2007, 06:24
Raga fra qualche giorno farò l'ordine e devo decidere se prendere una 8800 GTS 640 mb o una ati x2900xt.
Sono indecisissimo perchè ovunque cerchi ci sono pareri di parte e non ci sono testi oggettivi e "puliti".
Sono indeciso per via del prezzo anche se ci sono una trentina di € trà l'una e l'altra e perchè ho letto che nei test l'ati è più performante ma nei giochi la nvidia ha una migliore grafica.
:help: :help: :help:I punti a favore di nVidia si possono riassumere in 5 :


Più performante nei videogiochi, tantissimi bench lo dimostrano
Capacità di un Overclock decisamente più spinto che Ati
Scalda di meno e quindi è meno rumorosa
Consuma in termini di assorbimento meno Watt che Ati
Se poi ti vuoi avvicinare al mondo Linux, la risposta è nVidia


Ammetto che Ati ha fatto molti miglioramenti per la sua HD2900 , ma è ancora purtroppo sotto tono rispetto una 8800 GTS.

Scrambler77
24-09-2007, 08:54
Raga fra qualche giorno farò l'ordine e devo decidere se prendere una 8800 GTS 640 mb o una ati x2900xt.
Sono indecisissimo perchè ovunque cerchi ci sono pareri di parte e non ci sono testi oggettivi e "puliti".
Sono indeciso per via del prezzo anche se ci sono una trentina di € trà l'una e l'altra e perchè ho letto che nei test l'ati è più performante ma nei giochi la nvidia ha una migliore grafica.
:help: :help: :help:

ATI è più performante senza filtri attivi. Attiva i filtri (come si fa di solito se ci si compra una vga high-end) e vedrai che sono più o meno allo stesso livello.
Diventa quindi una questione di consumi (la gts consuma meno), di costo (la gts costa meno), di drivers (per G80 sono più "maturi").

Io ti consiglierei invece di aspettare novembre, con l'uscita di nuove top di gamma lo scenario (soprattutto economico) cambierà un pochino.

se posti qui tutti ti diranno 8800GTS me compreso:O

:asd:

Zannawhite
24-09-2007, 09:05
.....
Io ti consiglierei invece di aspettare novembre, con l'uscita di nuove top di gamma lo scenario (soprattutto economico) cambierà un pochino....:asd:Forse ti sei perso un passaggio, ma a Novembre esce la Gpu G92, che non andrà a scalzare le performance della serie 8800, ma bensì andrà a sostituire l'attuale fascia di mercato della serie 7900GT/7950GT

Scrambler77
24-09-2007, 09:20
Forse ti sei perso un passaggio, ma a Novembre esce la Gpu G92, che non andrà a scalzare le performance della serie 8800, ma bensì andrà a sostituire l'attuale fascia di mercato della serie 7900GT/7950GT

Di questo passaggio ne sapevo... ma non sapevo fosse certo. :(

Come non detto allora.

MakenValborg
24-09-2007, 09:24
Forse ti sei perso un passaggio, ma a Novembre esce la Gpu G92, che non andrà a scalzare le performance della serie 8800, ma bensì andrà a sostituire l'attuale fascia di mercato della serie 7900GT/7950GT

Di questo passaggio ne sapevo... ma non sapevo fosse certo. :(

Come non detto allora.

In realtà avevo capito che facevano un restilyng della 8800 a 55 nanometri perchè produrla adesso costa troppo..

Zannawhite
24-09-2007, 09:24
Di questo passaggio ne sapevo... ma non sapevo fosse certo. :(
Come non detto allora.Infatti è dopo questo comunicato con i valori che ho deciso finalmente di passare a 8800GTS


Link (http://www.hwupgrade.it/news/skvideo/nvidia-g92-e-g98-in-arrivo-in-autunno_22351.html)

Leggi i post sotto, sono molto esaustivi e chiariscono la news ;)

gianlu75xp
24-09-2007, 09:42
Infatti è dopo questo comunicato con i valori che ho deciso finalmente di passare a 8800GTS


Link (http://www.hwupgrade.it/news/skvideo/nvidia-g92-e-g98-in-arrivo-in-autunno_22351.html)

Leggi i post sotto, sono molto esaustivi e chiariscono la news ;)

non te ne pentirai... Bioshock al massimo dettaglio, per fare un esempio, è spettacolare

se ero un po' dubbioso sul reale beneficio del passaggio dalla X1900 alla 8800 GTS ad oggi non lo sono più :)

Alzatan
24-09-2007, 10:02
Infatti... ragazzi secondo me è naturale che all'orizzonte ci sia sempre un gioco più esoso di risorse o una vga più potente in uscita... tutto sta a decidere quando fare il passo: o uno compra una vga matura (le 8800 adesso) e si gode al massimo i giochi attuali (bioshock ne è l'esempio lampante), o uno aspetta e prende una vga "nextgen" APPENA ESCE (con i relativi oneri economici :D) e spera che riesca a spremere i giochi del futuro... Tanto ormai ci siao abituati ad una vga in uscita (o ati o nvidia) ogni 6 mesi... Quindi sono questi gli intervalli di tempo in gioco: 6 MESI!! Ma siamo matti??? Io quando spendo 300€ di vga me la tengo per almeno 2 anni, abbassando via via i dettagli per adeguarmi alle crescenti risorse dei giochi, fino a che sono costretto a fare un upgrade...
CIAO!

Eye of the tiger
24-09-2007, 10:25
Infatti... ragazzi secondo me è naturale che all'orizzonte ci sia sempre un gioco più esoso di risorse o una vga più potente in uscita... tutto sta a decidere quando fare il passo: o uno compra una vga matura (le 8800 adesso) e si gode al massimo i giochi attuali (bioshock ne è l'esempio lampante), o uno aspetta e prende una vga "nextgen" APPENA ESCE (con i relativi oneri economici :D) e spera che riesca a spremere i giochi del futuro... Tanto ormai ci siao abituati ad una vga in uscita (o ati o nvidia) ogni 6 mesi... Quindi sono questi gli intervalli di tempo in gioco: 6 MESI!! Ma siamo matti??? Io quando spendo 300€ di vga me la tengo per almeno 2 anni, abbassando via via i dettagli per adeguarmi alle crescenti risorse dei giochi, fino a che sono costretto a fare un upgrade...
CIAO!
Ben detto, è per questo che stò per comprare un pc abbastanza prestante per questo momento anche se so che fra qualche mese sarà sempre prestante per l'uso che ne faccio ma non sarà niente in confronto alle nuove uscite; ma ciò avverrà anche con le nuove uscite e fra due-tre mesi con le G9x in commercio si parlerà di un G10 ecc.......................

dave77
24-09-2007, 19:20
ragazzi qualcuno ha l'accoppiata 8800gts 640 ed ali Enermax liberty 620w ???
no perché sto diventando matto :cry: :cry: :cry: :cry:
un ronzio che non finisce più... forse è l'eccessivo carico dato dal sistema+8800 acceso notte e giornO???

..Osta io ho questa accoppiata...e da poco che quando accendo, emette un ronzio(sembra una ventola che striscia da qualche parte) poi smette subito..

tony89
25-09-2007, 14:46
avendo una 8800 gts 640 mb quanti pollici dovrebbe avere il mio monitor?

gianlu75xp
25-09-2007, 15:02
avendo una 8800 gts 640 mb quanti pollici dovrebbe avere il mio monitor?

io ho un 22'' e mi trovo bene, gioco a risoluzione nativa a tutti i giochi usciti fino ad oggi
ti consiglierei di non scegliere uno schermo con risoluzione inferiore a 1440*900... ma se la vuoi tenere per parecchio tempo forse ti puoi accontentare di un normale 19'' 4/3 con risoluzione 1280*1024, i giochi di prossima uscita avranno un framerate più elevato a quella risoluzione
:)
comunque il non plus utra, con titoli recenti e 8800 GTS si ha imho con un 22'', risoluzione 1680*1050

Zannawhite
25-09-2007, 15:08
Io sono dell'idea di mantenere il mio 19" 1280x1024 per un bel pezzo, mi permette di giocare a un livello di dettaglio decisamente spinto senza avere delle cadute di fps.

Quindi per godere di una VGA e della sua longevità io consiglierei una risoluzione non troppo elevata. Questa non significa che si giochi male, che sia troppo piccolo.

james_het
25-09-2007, 15:15
Io sono dell'idea di mantenere il mio 19" 1280x1024 per un bel pezzo, mi permette di giocare a un livello di dettaglio decisamente spinto senza avere delle cadute di fps.

Quindi per godere di una VGA e della sua longevità io consiglierei una risoluzione non troppo elevata. Questa non significa che si giochi male, che sia troppo piccolo.


beh guarda io il monitor lo prenderei + ampio possibile, infatti quando ci saranno 27" decenti ne prenderò 1 e quello sarà il mio ultimo monitor, anche perchè cmq puoi scegliere di impostare una res minore per giocare proprio agli ultimissimi giochi, rimanendo su un pannello grande che ti permette di goderti davvero un bel gioco :sofico:

TigerTank
25-09-2007, 15:17
avendo una 8800 gts 640 mb quanti pollici dovrebbe avere il mio monitor?

Ehm...ma che domanda è?!?
Cmq se devi prendere anche un monitor se puoi fatti un bel 22" in modo da giocare alla grande su alte risoluzione specialmente con l'arrivo di tanti titoli basati sul motore Unreal che non include il settaggio dell'antialiasing.

Zannawhite
25-09-2007, 16:18
.......anche perchè cmq puoi scegliere di impostare una res minore per giocare proprio agli ultimissimi giochi.....Vedi, questo discorso calza se tu usassi dei monitor CRT.
Con gli LCD è caldamente consigliabile utilizzare la risoluzione nativa, perchè è la migliore risoluzione per avere nitidezza di immagini.

Guarda solo i caratteri del desktop o di una pagina web visualizzati a risoluzione nativa, oppure a una risoluzione più bassa ;)

Prova un gioco a risoluzione nativa, poi abbassi la risoluzione e mantieni gli stessi identici dettagli e poi mi dici quale preferisci. ;)

MArCoZ_46
25-09-2007, 16:28
Vedi, questo discorso calza se tu usassi dei monitor CRT.
Con gli LCD è caldamente consigliabile utilizzare la risoluzione nativa, perchè è la migliore risoluzione per avere nitidezza di immagini.

Guarda solo i caratteri del desktop o di una pagina web visualizzati a risoluzione nativa, oppure a una risoluzione più bassa ;)

Prova un gioco a risoluzione nativa, poi abbassi la risoluzione e mantieni gli stessi identici dettagli e poi mi dici quale preferisci. ;)
Si possono usare le bande laterali su monitor così grandi, conservando la qualità dell'immagine ;)

Zannawhite
25-09-2007, 16:31
Si possono usare le bande laterali su monitor così grandi, conservando la qualità dell'immagine ;)Non stiamo parlando di resize da 4:3 a 16:9

ma di risoluzione nativa dei monitor LCD.

MArCoZ_46
25-09-2007, 16:38
Non stiamo parlando di resize da 4:3 a 16:9

ma di risoluzione nativa dei monitor LCD.

.......anche perchè cmq puoi scegliere di impostare una res minore per giocare proprio agli ultimissimi giochi.....
Magari lui si riferiva proprio al fatto che, avendo un monitor molto grande, puoi utilizzare le bande laterali diminuendo la risoluzione senza perdere la qualità, come invece avviene spalmando l'immagine a schermo intero ;)

beppe8682
25-09-2007, 19:36
raga oggi ho visto in una vetrina di uno shop la 8800gts 640mb della xfx e ho notato 2 cosucce:
1 la ventola mi sembra + "aperta" ovvero di diametro + grande rispetto alle altre versioni (io ho una asus da - di un mesetto)

2 c'era su un etichetta sulla calotta del dissi(per intenderci dove si trova il disegno)che diceva di rimuovere la pellicola trasparente prima dell'uso..ecco io nella mia asus non ho rimosso niente, mi pare che la pellicola ci sia, la domanda è: è solo una pellicola trasparente?va rimossa?perchè asus non specificava niente...

3 è più cazzuto lo stiling delle xfx:D :sofico:

DISCORSO MONITOR: io ho un 22" e lo uso alla risoluzione nativa, se usato ad altre risoluzioni comunque non rende alla perfezione, anzi...consigliatissimo perchè è proprio un altro pianeta rispetto al mio vecchio 17 ctr, ciauz!!!

Smemo
25-09-2007, 20:05
raga oggi ho visto in una vetrina di uno shop la 8800gts 640mb della xfx e ho notato 2 cosucce:
1 la ventola mi sembra + "aperta" ovvero di diametro + grande rispetto alle altre versioni (io ho una asus da - di un mesetto)

2 c'era su un etichetta sulla calotta del dissi(per intenderci dove si trova il disegno)che diceva di rimuovere la pellicola trasparente prima dell'uso..ecco io nella mia asus non ho rimosso niente, mi pare che la pellicola ci sia, la domanda è: è solo una pellicola trasparente?va rimossa?perchè asus non specificava niente...

3 è più cazzuto lo stiling delle xfx:D :sofico:

DISCORSO MONITOR: io ho un 22" e lo uso alla risoluzione nativa, se usato ad altre risoluzioni comunque non rende alla perfezione, anzi...consigliatissimo perchè è proprio un altro pianeta rispetto al mio vecchio 17 ctr, ciauz!!!

la mia XFX aveva la pellicola, se nn la togli penso rischi che si sciolga mentre stai giocando, va tolta SUBITO ... cosi mi disse il negoziante quando l'ho comprata, evidentemente non è resistente ad alte temperature :sofico:


p.s. un consiglio, hai la firma molto irregolare diminisci subito la dimensione prima che un mod se ne accorga :D

Deviad
25-09-2007, 22:27
Salve,
ho appena finito di rimontare tutto.
Per quanto concerne il core rivatuner mi limita a 770 per il core. Come faccio togliere questo limite?

quinn
25-09-2007, 22:49
ragazzi attualmente come è la situazione Radeon HD 2900 Xt 512 vs Geforce 8800 GTS 640 ? come vi trovate con quest'ultima ? è più performante ? e a livello di filtri quale è la migliore ? però datemi un giudizio obiettivo e non soggettivo perchè possedete la scheda per difendere l'acquisto fatto. Faccio questa domande perchè sono indeciso su quale delle due puntare in termini di acquisto. Visto che entrambe viaggiano sullo stesso prezzo mi piacerebbe avere qualche giudizio e consiglio in merito :)

grazie

Poty...
26-09-2007, 00:09
obiettivamente parlando sembra che sia un pelo più potente la 2900xt a volte
ma anche obbiettivamente parlando non guardo solo i 5 frame per giudicare una vga...
perchè...
1:quanto si overclokka una 2900xt senza ricorrere a rafreddamenti disumani e consumi spropositati e temperature alle stelle?
2:vorrei vedere un test di comparativa tra la mia gts640 e una x2900xt clokkata perchè sono sicuro che alle mie frequenze cioè 675 core, 1620 shader, e 2000 memorie, una 2900 per tenere il mio passo credo proprio che bisogna stirargli il collo non poco....
3:per overclokkare una 2900 devo pure inventarmi un connettore perchè se no non la posso clokkare ma per favore...
4: a mio parere è una vga tirata fuori in fretta in furia...tanto si vede che adesso che ha più calma AMD sta pensando alle 2950pro e si spera XT con fetures nuove ecc per rientrare in gioco
5: fosse stata una vga nel complesso superiore alla 8800GTS non avrei esitato a cambiare la mia per la 2900
6:invece sono stra contento della mia GTS perchè non c'è un gioco che scatti o che abbia problemi vanno tutti al max a 1280 8X AA e 16aniso

io ricomrperei la GTS;)
fidati sono un tipo molto abiettivo compro quello che ritengo migliore seguendo ragionamenti son stato su intel come su amd e tornerei ad amd se facesse una piattaforme degna di questo nome ma purtopo la vedo dura....

gianlu75xp
26-09-2007, 01:08
Salve,
Per quanto concerne il core rivatuner mi limita a 770 per il core. Come faccio togliere questo limite?

Scusa ma hai la scheda sotto azoto liquido? :asd:

MakenValborg
26-09-2007, 07:17
Salve,
ho appena finito di rimontare tutto.
Per quanto concerne il core rivatuner mi limita a 770 per il core. Come faccio togliere questo limite?

perchè?
sei arrivato a usarla a 770 di frequenza core?


salvo raffreddamenti particolari la frequenza raggiungibile ad aria sta dai 700 in giù...:mbe:

quinn
26-09-2007, 07:31
ragazzi ma se uno non overclokka la gts da 640 risulta inferiore alla HD 2900 xt da 512 ? perchè io non vorrei overclokkarla. Però mi interessava eventualmente prendere una base gts o una base HD 2900. Io intendevo quale è la più potente senza overclock così com'è a livello base.

gianlu75xp
26-09-2007, 08:04
ragazzi ma se uno non overclokka la gts da 640 risulta inferiore alla HD 2900 xt da 512 ? perchè io non vorrei overclokkarla. Però mi interessava eventualmente prendere una base gts o una base HD 2900. Io intendevo quale è la più potente senza overclock così com'è a livello base.

La differenza prestazionale fra le 2 schede lisce è riassumibile alla voce "quisquilie".
Io ho scelto la GTS perchè consuma meno, scalda meno, puoi eventualmente giocare a risoluzione minore con bande nere laterali e qualità 1:1 nel caso ce ne fosse la necessità (cosa che i Catalyst al momento non permettono) ed è facilmente overcloccabile, ma se scelgli la 2900 XT fai comunque un ottimo affare, caschi in piedi in entrambi i casi.

quinn
26-09-2007, 09:06
c'è molta differenza tra le due schede per quanto riguarda il calore ?

Zannawhite
26-09-2007, 09:09
c'è molta differenza tra le due schede per quanto riguarda il calore ?Esiste una recensione su HWupgrade decisamente molto esaustiva per quello che chiedi ;)

james_het
26-09-2007, 09:37
Esiste una recensione su HWupgrade decisamente molto esaustiva per quello che chiedi ;)

magari linkala così la trova subito....;)

Hidron
26-09-2007, 09:40
di nulla, facci sapere come ti trovi, a me è piaciuto tantissimo.



@metal78: le temp sono buone così, ma dato che tra la ventola a 80% e al 90% nn c'è molta differenza in termini di rumore prova a salire ancora con i giri, magari risparmi gradi e tanto di guadagnato ;)

L'alimentatore è una favola dove l'ho comprato avevano finito il 600W quindi ho preso il 700W :D silenziosissimo adesso ha in carico la mia nuova 8800 provato per una intera serata nn ha dato nessun problema :cool:

Ora devo aumentare la ram al mio pc per farlo stare dietro alla scheda video visto che il limite secondo me è dettato dalla scheda madre e processore che nn sono nuovissimi e che nn sfruttano la scheda a dovere e prossimamente dovrò rifrugarmi in tasca per aggiornare il tt :rolleyes: (provata con il gioco rfactor "simulatore di guida" e la qualità grafica è decisimente aumentata ma gli fps nn troppo).

E devo anche trovare na settimana libera per leggere tt i post per capire come configurare la 8800 :D

Iantikas
26-09-2007, 10:35
obiettivamente parlando sembra che sia un pelo più potente la 2900xt a volte
ma anche obbiettivamente parlando non guardo solo i 5 frame per giudicare una vga...
perchè...
1:quanto si overclokka una 2900xt senza ricorrere a rafreddamenti disumani e consumi spropositati e temperature alle stelle?
3:per overclokkare una 2900 devo pure inventarmi un connettore perchè se no non la posso clokkare ma per favore...


tralasciando gli altri punti ke son tuoi pareri e nn'è mia intenzione farti cambiare idea, mi soffermo solo su questi due poikè rispettivamente son info di dominio publico e errati...

1) col dissi styock con regime d rotazione d def. mediamente si clokka intorno agli 840/2000...le temp a freq. originali (sempre col regime d def.) son sui 50° in idle e sui 70° in load...clokkata come scritto pocanzi aumentano d circa 5° in load...(tenendo presente ke agli utenti ke presentano uno scenario d questo tipo si aggiunge un'altro gruppo d'utenti ke invece ottiene temp in load intorno agli 80°)...

2) la HD2900XT si alimenta perfettamente anke con una config 6/6...e usando prog d terze parti tipo rivatuner o atitool la si può overclokkare senza il minimo problema...

...una config 6/8 porta solo alla comparsa dell'overdrive nei CCC...tale funzionalità è cmq inutile poikè pone dei limiti in freq ke limitano le potenzialità in oc della skeda (mentre tramite prog d terze parti nn si hanno limiti se nn quelli propri della skeda)...inoltre è stato appurato ke nn vi è nessuna differenza nelle max freq supportate dalle skeda sia ke si usi una config 6/6 sia una 6/8...una config 6/8 nn porta nessun beneficio in oc sia xkè il lmite d 75W x ogni cavetto 6pin è un limite solo sulla carta (dal cavetto possono passare tanti A quanti sono quelli ke l'ali rende disponibili sulla linea ove è presente e prova d ciò la si ha anke nelle varie rece dove testano gli ali con un load tester dove dal cavetto 6pin fanno passare anke + d 10A) e sia xkè il consumo d picco rilevato strumentalmente della HD2900XT è d 160W, ben lontani dai 225W ke secondo specifike può offrire una config "6/6 + slot 16x"...


...io la tengo clokkata a 870/980 e son soddisfatto delle perfomance ke offre (nn c'è stato gioco finora ke m'abbia costretto a scendere sotto la 1680x1050 nativa del mio monitor), anke se cmq ho sempre avuto la curiosità d sapere quali fossero le perfomance offerte da una GTS ben clokkata ank'essa, tipo sui 650/2000...

...ciao

Poty...
26-09-2007, 12:27
tralasciando gli altri punti ke son tuoi pareri e nn'è mia intenzione farti cambiare idea, mi soffermo solo su questi due poikè rispettivamente son info di dominio publico e errati...

1) col dissi styock con regime d rotazione d def. mediamente si clokka intorno agli 840/2000...le temp a freq. originali (sempre col regime d def.) son sui 50° in idle e sui 70° in load...clokkata come scritto pocanzi aumentano d circa 5° in load...(tenendo presente ke agli utenti ke presentano uno scenario d questo tipo si aggiunge un'altro gruppo d'utenti ke invece ottiene temp in load intorno agli 80°)...

2) la HD2900XT si alimenta perfettamente anke con una config 6/6...e usando prog d terze parti tipo rivatuner o atitool la si può overclokkare senza il minimo problema...

...una config 6/8 porta solo alla comparsa dell'overdrive nei CCC...tale funzionalità è cmq inutile poikè pone dei limiti in freq ke limitano le potenzialità in oc della skeda (mentre tramite prog d terze parti nn si hanno limiti se nn quelli propri della skeda)...inoltre è stato appurato ke nn vi è nessuna differenza nelle max freq supportate dalle skeda sia ke si usi una config 6/6 sia una 6/8...una config 6/8 nn porta nessun beneficio in oc sia xkè il lmite d 75W x ogni cavetto 6pin è un limite solo sulla carta (dal cavetto possono passare tanti A quanti sono quelli ke l'ali rende disponibili sulla linea ove è presente e prova d ciò la si ha anke nelle varie rece dove testano gli ali con un load tester dove dal cavetto 6pin fanno passare anke + d 10A) e sia xkè il consumo d picco rilevato strumentalmente della HD2900XT è d 160W, ben lontani dai 225W ke secondo specifike può offrire una config "6/6 + slot 16x"...


...io la tengo clokkata a 870/980 e son soddisfatto delle perfomance ke offre (nn c'è stato gioco finora ke m'abbia costretto a scendere sotto la 1680x1050 nativa del mio monitor), anke se cmq ho sempre avuto la curiosità d sapere quali fossero le perfomance offerte da una GTS ben clokkata ank'essa, tipo sui 650/2000...

...ciao

bè guarda se mi dici che poi tutto questo calore non lo facciano ben venga!
la sfida è aperta la mia 8800 675/1620/2000 contro la tua ;)
cmq allora non capisco che bisogno ci sia stato di fare un connettore 8/6....marcheting di vendita alimentatori??
cmq sia per quanto riguarda performances a default siamo li (ed era ora)
in overclock vorrei xò vedere la differenza di resa
mi è dispiaciuto parecchio che la 2900 si è piazzata in questa categoria di prezzo,perchè se era superiore o uguale alla GTX e costava 350€ io l'avevo già nel case;)

Go!tta
26-09-2007, 14:31
.....cut......
mi è dispiaciuto parecchio che la 2900 si è piazzata in questa categoria di prezzo,perchè se era superiore o uguale alla GTX e costava 350€ io l'avevo già nel case;)

ti ricordo che il prezzo lo fanno dopo aver visto le prestazioni......se andava come una gtx te l'avrebbero fatta pagare come una gtx anche se il suo prezzo commerciale è 350 euro...anzi su quel prezzo ci devono e ci guadagnano lo stesso uno sproposito......quindi ti faccio pensare alla fine quanto ci spennano sti produttori di vga....una gtx secondo me a loro costa sui 250-300 euro.....tutto il resto è guadagno IMHO......

quinn
26-09-2007, 15:49
che cosa sono le PCI-E 2.0 ? è il nuovo attacco che sostituirà il PCI-E x16 ?

Iantikas
26-09-2007, 19:35
bè guarda se mi dici che poi tutto questo calore non lo facciano ben venga!
la sfida è aperta la mia 8800 675/1620/2000 contro la tua ;)
cmq allora non capisco che bisogno ci sia stato di fare un connettore 8/6....marcheting di vendita alimentatori??
cmq sia per quanto riguarda performances a default siamo li (ed era ora)
in overclock vorrei xò vedere la differenza di resa
mi è dispiaciuto parecchio che la 2900 si è piazzata in questa categoria di prezzo,perchè se era superiore o uguale alla GTX e costava 350€ io l'avevo già nel case;)

se la XT fosse stata in generale superiore alla GTX nn l'avrebbero fatta costare 350€...dato ke ripeterei + o - le stesse cose faccio un copia/incolla di un post appena fatto in un altro 3d

nn credo succederanno miracoli (tipo sorpasso GTX)...anke tra 3/4 nuove versioni d driver...ci sarà (come già ora) qualke titolo in cui andrà uguale o anke un filino meglio ma in generale la GTX è una skeda + performante grazie alle potenzialità d gran lunga superiori nelle operazioni con le texture e d poco inferiori nelle operazioni con gli shader (lieve inferiorità nelle operazioni con gli shader ke vien oltretutto smorzata anke dal fatto ke x la GTX è + facile lavorare al max delle sue potenzialità rispetto alla XT)...nn x niente infatti costa 100€ in +...

...x quanto riguarda la "sfida" + ke d sfida parlerei di scambio di info e suggerirei d farlo tramite pvt x nn sporcare il 3d...x poi magari una volta finiti tutti i test postare i risultati nei rispettivi 3d appositi dato ke possono essere utili x ki ha o è interessato ad aquistare queste skede...

...ciao

p.s.: se ti va contattami in pvt fornendomi un elenco dei gioki ke hai installati sul pc (e di quelli ke, se nn ti scoccia, cmq hai e potresti installare)...

MakenValborg
27-09-2007, 12:59
Ecco i miei nuovi score per questa fantastica scheda!! :sofico:

Q6600@4000mhz
RAM@1112 mhz 5 5 5 15
VGA: 720 2106

22449 3DMark05

http://forum.nexthardware.com/gallery/images/7291/medium/1_4000_05_720_1053.JPG (http://forum.nexthardware.com/gallery/file.php?n=4234&w=o)



Q6600@4000mhz
RAM@1112 mhz 5 5 5 15
VGA: 720 2106

15427 3DMark06

http://forum.nexthardware.com/gallery/images/7291/medium/1_4000_06_720_1053.JPG (http://forum.nexthardware.com/gallery/file.php?n=4235&w=o)

Chiedo l'inserimento nella classifica :)

Grazie Davide ;)

Cuore Radioso
27-09-2007, 20:23
mistero risolto!!!!!

con 12A sul 12V è normale che la scheda ti crashi!!!!;)

se vuoi spendere poco comprati un nuovo ali della lc Power, altrimenti con un 100 di euro ti prendi un bel corsair e stai a posto!!!!;)



Raga non so cosa dirvi, non ho avuto più tempo per rispondervi e comprare l'ali ma vi ringrazio 100 volte. Vi Faccio sapere se ho risolto il problema:ave:

Spero non funzioni così però!! :lamer:

:D

Kyrandia
28-09-2007, 00:04
raga 76 gradi mente gioco (bioshock 1680 AA16x ecc ) sono tanti ?

Alzatan
28-09-2007, 11:23
no... se poi ne vuoi meno alza la ventola... ma 76 è ok!

Smemo
28-09-2007, 12:25
raga 76 gradi mente gioco (bioshock 1680 AA16x ecc ) sono tanti ?

nella norma ma viste le frequenze che stai usando (ma sei a liquido?) setta la ventola almeno a 75% all'avvio da rivatuner per stare più tranquillo ;)

Kyrandia
28-09-2007, 12:36
ok grazie ragazzi, no aria dissi stock..ok alzo un po piu la ventola da default :)

Johnny Ramone
28-09-2007, 14:16
ragà qualcuno ha provato il nuovo rivatuner??

http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a

norbertom
28-09-2007, 19:11
no, ma ho letto che ora è stato implementato l'oc degli shader direttamente nel menu.
una domanda
ma con le vecchie versioni, overcloccando la memoria e la gpu, gli shader rimanevano alla stessa frequenza???

mi pare di capire che gli shader siano più influenti sulle prestazioni, quindi si avrà un bel boost?

Go!tta
28-09-2007, 19:51
no prima gli shader salivano assieme alla gpu secondo un moltiplicatore che a default mi sembra che sia a 2.31.......

Iantikas
28-09-2007, 20:08
no, ma ho letto che ora è stato implementato l'oc degli shader direttamente nel menu.
una domanda
ma con le vecchie versioni, overcloccando la memoria e la gpu, gli shader rimanevano alla stessa frequenza???

mi pare di capire che gli shader siano più influenti sulle prestazioni, quindi si avrà un bel boost?

gli shader finora con l'oc son sempre saliti insieme al core...ma salivano con un rapporto fisso nei confronti del core (ke nella GTS è pari a 2.24) e a step d 54mhz la volta...con l'ultimo rivatuner si muovono sempre a step d 54mhz ma è possibile modificare il rapporto e x questo alzarne o abbassrne la freq a piacimento...inoltre siccome nel 99% dei casi era il core a raggiungere x primo il limite ora invece è possibile occare fino al limite anke gli shader x spremere al max le potenzialità della skeda...

...l'oc degli shader cmq, a differenza di quello del core (ke porta sempre o quasi ad un incremento delle performance), porta ad incrementi degni d nota solo in quegli scenari dove son gli shader a far da collo d bottiglia...al momento nella maggior parte dei titoli un oc degli shader anke di 200mhz porta ad incrementi marginali... http://www.legionhardware.com/document.php?id=687 ...qui una rece ma nn ci son molti test...se fai qualke giro sui forum dei + famosi siti stranieri trovi molte + info in merito...ciao

Johnny Ramone
28-09-2007, 20:26
con rivatuner 2.05 e i forceware 163.71 non riesco più a far funzionare i profili "underclock" e "overclock"

praticamente quando entro in un'applicazione 3d e quando la chiudo mi compare questo messaggio:
http://img408.imageshack.us/img408/78/catturady7.jpg


qualcuno ha riscontrato lo stesso problema?

james_het
28-09-2007, 20:33
ragà qualcuno ha provato il nuovo rivatuner??

http://downloads.guru3d.com/downloadget.php?id=163&file=5&evp=2d213e528fb556c354432a3976bff55a

scusate ma io nn ho visto nessuna riga per gli shader....c'è uno spazio vuoto dove dovrebbe stare la riga, ma nulla.....

Johnny Ramone
28-09-2007, 20:44
scusate ma io nn ho visto nessuna riga per gli shader....c'è uno spazio vuoto dove dovrebbe stare la riga, ma nulla.....

occorrono almeno i forceware 163.71, tu quale usi?

james_het
28-09-2007, 22:46
occorrono almeno i forceware 163.71, tu quale usi?

proprio quelli, ma in versione BETA......:(

FRN2003
29-09-2007, 07:10
quando gioco su vista con lost planet mi succede una cosa strana.....praticamente io uso dei profili creati con rivatuner per overclock, e capita appunto con quel gioco che improvvisamente la ventola si mette a girare al 36%.....tenendo conto che a frequenze sto a 650/2100 capirete che quando me ne accorgo dal rumore della ventola le temp stanno già sui 95 gradi.....
su xp con dirt o altri giochi mi sembra che non mi ha mai fatto.....
i driver che uso su vista sono i 163.69 certificati e rivatuner alla versione 2.04 che in teoria non dovrebbe supportare quei driver, ma li riconosce tranq però.....che sia cmq quello il probl? ciao

Go!tta
29-09-2007, 13:29
scusate ma io nn ho visto nessuna riga per gli shader....c'è uno spazio vuoto dove dovrebbe stare la riga, ma nulla.....

certo che andare a guardare il topic di rivatuner su questo forum è fatica è????????

comunque ti quoto quà la risposta.........

Power User>Rivatuner\System>NVAPIUsageBehavior set value to 1

james_het
29-09-2007, 13:57
certo che andare a guardare il topic di rivatuner su questo forum è fatica è????????

comunque ti quoto quà la risposta.........

hmmm fatto ma nn vedo lo stesso la riga degli shader nel pannello di OC.....:cry:

Cuore Radioso
29-09-2007, 14:05
mistero risolto!!!!!

con 12A sul 12V è normale che la scheda ti crashi!!!!;)

se vuoi spendere poco comprati un nuovo ali della lc Power, altrimenti con un 100 di euro ti prendi un bel corsair e stai a posto!!!!;)

Ho comprato l'alimentatore da 570W ma ho ancora gli stessi problemi :mc: :muro:

nervoteso
29-09-2007, 14:27
ragazzi increibilmente la vga mi sta dando problemi , mi causa schermate blu a ripetizione, non è il procio perchè anche a default me lo fa, se metto la vga a default invece risolvo. ora ho abbassato l'verclock a 570 per il cock e 820 per le memorie e sembra no ndarmi più problemi. però strano perchè l'0ho sempre tenuta a 615. comunque è strabnamente alta la temp, sta a 60 in idle, prima mi stava a 54. esiste un dissipatore per le 8800? se s' quale?

ugo71
29-09-2007, 14:32
hmmm fatto ma nn vedo lo stesso la riga degli shader nel pannello di OC.....:cry:

ma puoi vedre se sono saliti dal monitoraggio di riva nel quale un'interfaccia per quella roba lì degli shader verrà forse nelle versioni successive alla 2.04.. che mi pare ci sia ma...topic (http://www.hwupgrade.it/forum/showthread.php?t=1465227)

Iantikas
29-09-2007, 15:08
ragazzi increibilmente la vga mi sta dando problemi , mi causa schermate blu a ripetizione, non è il procio perchè anche a default me lo fa, se metto la vga a default invece risolvo. ora ho abbassato l'verclock a 570 per il cock e 820 per le memorie e sembra no ndarmi più problemi. però strano perchè l'0ho sempre tenuta a 615. comunque è strabnamente alta la temp, sta a 60 in idle, prima mi stava a 54. esiste un dissipatore per le 8800? se s' quale?



HR03+ della ThermalRight...almeno su questo ti consiglio di puntare io (io ho il modello x R600 e ne son pienamente soddisfatto...con una silenziosa 92mm a 1600rpm ho 20° in meno sul coe e 10° in meno sulla ram rispetto al dissi stock...e da vari utenti e rece il miglioramento ke si ottiene anke su G80 è all'incirca quello)...

...altrimenti potresti puntare sul nuovo Zalman VF1000 prendendo il modulo a parte x G80...ciao

FRN2003
29-09-2007, 16:02
quando gioco su vista con lost planet mi succede una cosa strana.....praticamente io uso dei profili creati con rivatuner per overclock, e capita appunto con quel gioco che improvvisamente la ventola si mette a girare al 36%.....tenendo conto che a frequenze sto a 650/2100 capirete che quando me ne accorgo dal rumore della ventola le temp stanno già sui 95 gradi.....
su xp con dirt o altri giochi mi sembra che non mi ha mai fatto.....
i driver che uso su vista sono i 163.69 certificati e rivatuner alla versione 2.04 che in teoria non dovrebbe supportare quei driver, ma li riconosce tranq però.....che sia cmq quello il probl? ciao

nessun parere?

ugo71
29-09-2007, 16:23
nessun parere?

:boh: io ho messo fixed 70%(che dovrebbe cmq aumentare in caso di necessità) e resta sempre a 70, in pratica ho un solo profilo tanto vista all'avvio mi chiede cmq se caricare o no rt e poi a70 non si sente il rumore ma butta fuori caldo:D