PDA

View Full Version : [THREAD UFFICIALE] Geforce 8800GTX


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 [65] 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89

appleroof
29-11-2007, 21:21
Più esattamente queste ?

http://img152.imagevenue.com/loc884/th_69848_GTX-2_122_884lo.JPG (http://img152.imagevenue.com/img.php?image=69848_GTX-2_122_884lo.JPG)

Ciauz;)

hai ragione me le ero dimenticate :p cmq il grosso dell'aria esce da dietro, provato appena adesso "empiricamente" visto che mi hai fatto venire il dubbio, ed il principio di far circolare l'aria più fresca vicino alla ventola della gtx rimane...:)

I soliti sospetti
29-11-2007, 22:03
giusto ;)





p.s.: perdonami la battuta(ccia) :D : la cosa bella è che con la gtx non ti deprimi mai :D :stordita:
:D
Si, ma oltre a buttare fuori l' aria per dietro, l' aria caldfa la butta anche dentro.

Ciauz;)
Eccolo!!
Scusate ma questo utente mi perseguita!!:sofico: :ciapet: :D

ilcose
29-11-2007, 23:03
hai ragione me le ero dimenticate :p cmq il grosso dell'aria esce da dietro, provato appena adesso "empiricamente" visto che mi hai fatto venire il dubbio, ed il principio di far circolare l'aria più fresca vicino alla ventola della gtx rimane...:)

io la ventola l'ho messa proprio li sotto! in idle guadagno 3-4 gradi ma in full una decina quasi!. evita ke l'aria calda ke esce da li ristagni e finisca di nuovo nella ventola del dissi.

halduemilauno
30-11-2007, 06:34
http://www.tomshw.it/news.php?newsid=12176
febbraio. pare.
;)

gwwmas
30-11-2007, 09:15
hai ragione me le ero dimenticate :p cmq il grosso dell'aria esce da dietro, provato appena adesso "empiricamente" visto che mi hai fatto venire il dubbio, ed il principio di far circolare l'aria più fresca vicino alla ventola della gtx rimane...:)

Fidati, se ci fosse una ventola che in quella zona prende l' aria calda e la butta fuori guadagneresti un bel po' di gradi.
Purtroppo, l' aria uscendo da li sotto, e trovandosi la scheda stessa in mezzo, fa fatica a salire e quindi ristagna.

:D

Eccolo!!
Scusate ma questo utente mi perseguita!!:sofico: :ciapet: :D

:ciapet: :ciapet: :ciapet: :sofico:

io la ventola l'ho messa proprio li sotto! in idle guadagno 3-4 gradi ma in full una decina quasi!. evita ke l'aria calda ke esce da li ristagni e finisca di nuovo nella ventola del dissi.

Ti quoto in pieno.:)

Ciauz;)

kiefer
30-11-2007, 09:20
http://www.tomshw.it/news.php?newsid=12176
febbraio. pare.
;)

Ma é il g100?ciaoo;)

marco a
30-11-2007, 09:53
Ma é il g100?ciaoo;)

no è sempre basato su tecnologia g80 65nm con quelche modifica per shader 4.1 e clock pompato diciamo che andrà un pò di più di una 8800ultra.. ma non certamente il doppio ...

il vero cambio generazionale si avrà a giugno

Mainas
30-11-2007, 09:58
invece io sapevo che D9E è quello che chiamavamo G100

kiefer
30-11-2007, 10:39
invece io sapevo che D9E è quello che chiamavamo G100

Infatti poiché per il D9E parlano di serie 9000 pensavo si riferissero
al G100...ma evidentemente mi sbagliavo..grazie cmq...ciaoo;)

Mainas
30-11-2007, 10:45
o forse sbaglia marco a :confused:

dato che hanno cambiato la nomenclatura dei processori grafici, io ho capito che quello che si chiamava G100 ora è diventato D9E...

kiefer
30-11-2007, 12:48
o forse sbaglia marco a :confused:

dato che hanno cambiato la nomenclatura dei processori grafici, io ho capito che quello che si chiamava G100 ora è diventato D9E...

Aspettiamo che interviene Halduemilauno che di solito é molto informato:)

appleroof
30-11-2007, 13:44
io la ventola l'ho messa proprio li sotto! in idle guadagno 3-4 gradi ma in full una decina quasi!. evita ke l'aria calda ke esce da li ristagni e finisca di nuovo nella ventola del dissi.

Fidati, se ci fosse una ventola che in quella zona prende l' aria calda e la butta fuori guadagneresti un bel po' di gradi.
Purtroppo, l' aria uscendo da li sotto, e trovandosi la scheda stessa in mezzo, fa fatica a salire e quindi ristagna.



:ciapet: :ciapet: :ciapet: :sofico:



Ti quoto in pieno.:)

Ciauz;)

ottimo, proverò senz'altro, questa non la sapevo grazie ;)

http://www.tomshw.it/news.php?newsid=12176
febbraio. pare.
;)

febbario.




















:sbav: :sbav: :sbav: :sbav: :sbav: :sbav: :sbav:

^Memphis^
30-11-2007, 19:26
Ragazzi per febbraio si parla di una D9E? Sarà il nuovo top di gamma nvidia? o si deve attendere ancora molto? Giusto per farmi 1 idea :D :D :D

halduemilauno
30-11-2007, 19:31
Ragazzi per febbraio si parla di una D9E? Sarà il nuovo top di gamma nvidia? o si deve attendere ancora molto? Giusto per farmi 1 idea :D :D :D

D9E si nuovo top di gamma nvidia.
;)

WaaBho
02-12-2007, 12:56
Gente...io sarei seriamente intenzionato ad acquistare il monitor Dell 2707 a 27" ma secondo voi conviene?
Con la configurazione che ho ora e il 19 pollici arrivo a 30 fps con The Witcher in 1280x1024...Riuscirei a godermelo con risoluzioni maggiori?...e poi vista l'uscita di Crysis per ora quasi nessuno puó osare i 1600x1200 o piú....Che faccio?:confused:

Alexkidd85
02-12-2007, 15:49
Gente...io sarei seriamente intenzionato ad acquistare il monitor Dell 2707 a 27" ma secondo voi conviene?
Con la configurazione che ho ora e il 19 pollici arrivo a 30 fps con The Witcher in 1280x1024...Riuscirei a godermelo con risoluzioni maggiori?...e poi vista l'uscita di Crysis per ora quasi nessuno puó osare i 1600x1200 o piú....Che faccio?:confused:

Premesso che sono pareri e ognuno spende i soldi come vuole :D
Però io,massimo rispetto per il dellone da 27",gran monitor,però un 37" full hd o anche un 40" a sto punto...per quel prezzo a me andrebbe benissimo :asd:

Tornando a noi,con quel procio sei limitatisimo,30fps a the witcher,sicuramente sei limitato dal procio e hai attivato un po di AA.

Se mi ricordo bene,apple gioca con un dellone e gioca bene,penso che con un procio che ti sblocchi la potenza della vga,sei ok ;)

@danieleok@
02-12-2007, 17:57
Ragazzi una domandina. Mi sta per arrivare una gtx della xfx. Mi potreste spiegare un po bene cosa è quel terzo valore che si deve aumentare nel clock? GPU, RAM e shader? Quali sono, diciamo, i valori medi che si possono raggiungere ad aria con quetse vga? Giusto per darmi una regolata :)

WaaBho
02-12-2007, 18:21
Premesso che sono pareri e ognuno spende i soldi come vuole :D
Però io,massimo rispetto per il dellone da 27",gran monitor,però un 37" full hd o anche un 40" a sto punto...per quel prezzo a me andrebbe benissimo :asd:

Tornando a noi,con quel procio sei limitatisimo,30fps a the witcher,sicuramente sei limitato dal procio e hai attivato un po di AA.

Se mi ricordo bene,apple gioca con un dellone e gioca bene,penso che con un procio che ti sblocchi la potenza della vga,sei ok ;)

Eh si :D C'è solo un piccolo problema....che dovrei spendere un altra barcata di soldi per mobo ram e cpu nuove....non è molto conveniente :sofico:

Mainas
02-12-2007, 18:26
non è nemmeno conveniente (e sensato a parere mio :) ) prendere un monitor da 1400 e passa € se già sei cpu limitated ora con il 19"...
piuttosto prendi il 24", ha la stessa risoluzione, è "sufficientemente" grande (27" secondo me è pure troppo), e con i 900€ che risprmi ti aggiorni il sistema :D

WaaBho
02-12-2007, 18:38
non è nemmeno conveniente (e sensato a parere mio :) ) prendere un monitor da 1400 e passa € se già sei cpu limitated ora con il 19"...
piuttosto prendi il 24", ha la stessa risoluzione, è "sufficientemente" grande (27" secondo me è pure troppo), e con i 900€ che risprmi ti aggiorni il sistema :D

In realtà il 27" posso averlo a 980 euro...Ma per aggiornare tutto il resto ce ne vorrebbero altri 900 :(

Mainas
02-12-2007, 18:45
e il 24" a quanto lo porteresti a casa?
resta il fatto che se sei limitato con il 19", il 24"/27" lo ucciderebbero proprio... io aggiornerei il sistema e posticiperei il cambio monitor a quando potrei sfruttarlo...io ho il 24" e a giocarci a meno di 1600x1200 c'è da perderci la vista :D

Alexkidd85
02-12-2007, 18:54
In realtà il 27" posso averlo a 980 euro...Ma per aggiornare tutto il resto ce ne vorrebbero altri 900 :(

Ah beh,in listino sta a 1400 minimo quindi il mioconsiglioe ra su quel prezzo...se lo prendi a meno.... :D

Comunque Mainas ha ragione e te l'ho detto anche io..con quella cpu sei limiteddissimo :asd:

baila
02-12-2007, 18:58
e il 24" a quanto lo porteresti a casa?
resta il fatto che se sei limitato con il 19", il 24"/27" lo ucciderebbero proprio... io aggiornerei il sistema e posticiperei il cambio monitor a quando potrei sfruttarlo...io ho il 24" e a giocarci a meno di 1600x1200 c'è da perderci la vista :D

Ma la risoluzione nativa non è più alta?

Mainas
02-12-2007, 19:07
la risoluzione nativa è 1920x1200, ma se a 1600x1200 (credo sia la risoluzione del tuo 19") sei limitato già ora non credo che con crysis tu possa arrivare alla stessa risoluzione... su un pannello generoso come il 24 o il 27 tenere una risoluzione bassa con rescaling del monitor decade in qualità drasticamente, e mantenere un rapporto 1:1 significa giocare su un francobollo

appleroof
02-12-2007, 19:10
la risoluzione nativa è 1920x1200, ma se a 1600x1200 (credo sia la risoluzione del tuo 19") sei limitato già ora non credo che con crysis tu possa arrivare alla stessa risoluzione... su un pannello generoso come il 24 o il 27 tenere una risoluzione bassa con rescaling del monitor decade in qualità drasticamente, e mantenere un rapporto 1:1 significa giocare su un francobollo

2 cose :D : 19" max può avere 1280x1024, con il rapporto 1:1 se metti appunto 1280x1024 giochi come su un 19" con le bande nere ai lati, non è un francobollo

;)

Mainas
02-12-2007, 19:14
1280? allora ancora peggio...
si, certo, un francobollo rapportato alle misure del pannello :D
prendere un 27 per giocare come su un 19... ho già espresso la mia opinione

appleroof
02-12-2007, 19:23
1280? allora ancora peggio...
si, certo, un francobollo rapportato alle misure del pannello :D
prendere un 27 per giocare come su un 19... ho già espresso la mia opinione

si certo, sono d'accordo a meno che uno lo prende anche per giocare, ma se quello è il fine esclusivo non ha senso....;)

Kharonte85
02-12-2007, 19:32
si certo, sono d'accordo a meno che uno lo prende anche per giocare, ma se quello è il fine esclusivo non ha senso....;)
Altrimenti fate come faccio io...17 rulez cosi' sono monitor limited e mi accorgo piu' difficilmente di quanto faccia schifo la mia condizione...:asd:

PS e OT: sn in fase di cambiamento è gia' tutto avviato...:D

appleroof
02-12-2007, 19:33
Altrimenti fate come faccio io...17 rulez cosi' sono monitor limited e mi accorgo piu' difficilmente di quanto faccia schifo la mia condizione...:asd:

PS e OT: sn in fase di cambiamento è gia' tutto avviato...:D


vorrei sapere qualcosa sul pc rinnovato....:D

Kharonte85
02-12-2007, 19:34
vorrei sapere qualcosa sul pc rinnovato....:D
:fiufiu:






Ti pvitizzo...;)

appleroof
02-12-2007, 19:35
:fiufiu:






Ti pvitizzo...;)

yesssss ;)

WaaBho
02-12-2007, 21:14
e il 24" a quanto lo porteresti a casa?
resta il fatto che se sei limitato con il 19", il 24"/27" lo ucciderebbero proprio... io aggiornerei il sistema e posticiperei il cambio monitor a quando potrei sfruttarlo...

Il 24" a 700 euro...ma è il modello HC affetto da ghosting...
Non voglio rischiare di prendere un signor monitor per poi vedermi dimezzati gli fps...
Il problema è che se mi prendo un buon procio Intel da 400 euri, una mobo da 250 e delle ram da 200 ho un buon sistema(con una 8800Gtx)...però non si sa quanto duri...basti pensare a Crysis...chissà i giochi del prox anno che esigenze avranno...dovrò rinunciare a un monitor con le risoluzioni maggiori di 1280x1024 mi sa....

Alexkidd85
02-12-2007, 21:42
Il 24" a 700 euro...ma è il modello HC affetto da ghosting...
Non voglio rischiare di prendere un signor monitor per poi vedermi dimezzati gli fps...
Il problema è che se mi prendo un buon procio Intel da 400 euri, una mobo da 250 e delle ram da 200 ho un buon sistema(con una 8800Gtx)...però non si sa quanto duri...basti pensare a Crysis...chissà i giochi del prox anno che esigenze avranno...dovrò rinunciare a un monitor con le risoluzioni maggiori di 1280x1024 mi sa....

Aspetti feb con le nuove top di gamma e ti prendi un quad a 230 euro e non 400,un mb anche di 140 euro (250 sta la mia e altre poche mb magari dd3) e delle ram stanno anche a 120/130 euro non 200. che pc ti volevi fare!? :asd:

WaaBho
02-12-2007, 22:16
Aspetti feb con le nuove top di gamma e ti prendi un quad a 230 euro e non 400,un mb anche di 140 euro (250 sta la mia e altre poche mb magari dd3) e delle ram stanno anche a 120/130 euro non 200. che pc ti volevi fare!? :asd:

Una configurazione che mi faccia stare al passo coi tempi per almeno un paio d'anni...Vabbè aspettiamo qualche mese ancora intanto racimoliamo un pò di soldini e godiamoci i game a 1280x1024 (che poi è lo stesso del 1920x1200 basta stare più vicini al monitor :ciapet: )

Mainas
02-12-2007, 22:46
Il 24" a 700 euro...ma è il modello HC affetto da ghosting...
Non voglio rischiare di prendere un signor monitor per poi vedermi dimezzati gli fps...
Il problema è che se mi prendo un buon procio Intel da 400 euri, una mobo da 250 e delle ram da 200 ho un buon sistema(con una 8800Gtx)...però non si sa quanto duri...basti pensare a Crysis...chissà i giochi del prox anno che esigenze avranno...dovrò rinunciare a un monitor con le risoluzioni maggiori di 1280x1024 mi sa....

700€? ma se non arriva a 600 di listino... prova a cercare un 2405 come il mio, mi trovo benissimo... intel a 400€? il Q660 G0 sta a meno di 250€ e anche una buona mobo la trovi sotto i 200€...

al limite come già ti hanno detto puoi aspettare marzo e vedere le nuove gpu, ma non mi farei tanti problemi (infatti io sto aspettando gli ultimi pezzi la prox settimana)...

Kharonte85
03-12-2007, 09:23
Ebbene si', sta per andare in pensione :)

8800GTX end of life is January

Written by Fuad Abazovic


8800GTS 640MB as well

Nvidia plans to kill the 8800 GTX and 8800 GTS 640MB cards at end of January. This is an obviously sign that it plans to launch a new product that will take the place of the 8800 GTX.

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

The Geforce 8800GTX and GTS 640MB, together with 8800 Ultra are the only cards that can support Triple SLI, but we don’t think that Nvidia will have a mainstream success with this expensive setup and the new dual G92 based D8E is coming just weeks later. Tri SLI would be much better if it launched back in October / November, like the company originally planned.

This will mean that the highly successful G80 chip is approaching its retirement day.

Scheda davvero eccezionale...

I soliti sospetti
03-12-2007, 10:07
Ebbene si', sta per andare in pensione :)

8800GTX end of life is January

Written by Fuad Abazovic


8800GTS 640MB as well

Nvidia plans to kill the 8800 GTX and 8800 GTS 640MB cards at end of January. This is an obviously sign that it plans to launch a new product that will take the place of the 8800 GTX.

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

The Geforce 8800GTX and GTS 640MB, together with 8800 Ultra are the only cards that can support Triple SLI, but we don’t think that Nvidia will have a mainstream success with this expensive setup and the new dual G92 based D8E is coming just weeks later. Tri SLI would be much better if it launched back in October / November, like the company originally planned.

This will mean that the highly successful G80 chip is approaching its retirement day.

Scheda davvero eccezionale...
Pensa... io la inizio ad usare proprio oggi alla faccia di chi la da per morta!!:tie:
Sicuramente le nuove saranno più performanti ma... qanto costano e quando saranno realmente disponibili?
Poi... problemi di gioventù non ci saranno??
Penso che la GTX ancora farà un bel po' di strada! ;)

Dexther
03-12-2007, 10:14
andrà pur in pensione ma è risultata una delle VGA più longeve di sempre :p

Alexkidd85
03-12-2007, 12:06
Pensa... io la inizio ad usare proprio oggi alla faccia di chi la da per morta!!:tie:
Sicuramente le nuove saranno più performanti ma... qanto costano e quando saranno realmente disponibili?
Poi... problemi di gioventù non ci saranno??
Penso che la GTX ancora farà un bel po' di strada! ;)

Penso proprio che invece le nuove costeranno se non meno,tanto quanto...
Non ho capito benissimo,ma si parla della solita soluzione in sli su unica scheda,con processo produttivo a ??? 65nm ovviamente... o 55!?

betha
03-12-2007, 12:08
Una configurazione che mi faccia stare al passo coi tempi per almeno un paio d'anni...Vabbè aspettiamo qualche mese ancora intanto racimoliamo un pò di soldini e godiamoci i game a 1280x1024 (che poi è lo stesso del 1920x1200 basta stare più vicini al monitor :ciapet: )

esiste? solo se ci si accontenta:)

smoicol
03-12-2007, 14:35
ciao a tutti,
sono da poco in possesso di 2 gtx 8800 xfx,
ho provato ad alzare un pò il core della gpu e la frequenza delle memorie, rispettivamente a 705\1053, ma non trovo come aumentare gli shader e in più come posso sapere se va bene? con che programma posso testarla? e le temp posso fidarmi di quelle di ntune? sono a liquido, accetto consigli, grazie attualmente ne ho montata solo una.

appleroof
03-12-2007, 17:24
ciao a tutti,
sono da poco in possesso di 2 gtx 8800 xfx,
ho provato ad alzare un pò il core della gpu e la frequenza delle memorie, rispettivamente a 705\1053, ma non trovo come aumentare gli shader e in più come posso sapere se va bene? con che programma posso testarla? e le temp posso fidarmi di quelle di ntune? sono a liquido, accetto consigli, grazie attualmente ne ho montata solo una.

rivatuner 206 ;)


in generale: fud le sparerà pure, per qualcuno, ma quanta verità in questo...

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

:asd: :asd:

DanyDo
03-12-2007, 17:31
rivatuner 206 ;)


in generale: fud le sparerà pure, per qualcuno, ma quanta verità in questo...

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

:asd: :asd:

Quoto...la gtx presa un anno fa è stato l'affare del secolo...e pensare che venivo da una geforce 4 mx con duron 700...super old....e persino cpu limited!!!

halduemilauno
03-12-2007, 17:32
rivatuner 206 ;)


in generale: fud le sparerà pure, per qualcuno, ma quanta verità in questo...

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

:asd: :asd:

ma tanto vera quanto ovvia. nel senso che tale realtà è sotto gli occhi di tutti.
;)

appleroof
03-12-2007, 17:33
Quoto...la gtx presa un anno fa è stato l'affare del secolo...e pensare che venivo da una geforce 4 mx con duron 700...super old....e persino cpu limited!!!

mamma mia che salto! :eek: :)

ma tanto vera quanto ovvia. nel senso che tale realtà è sotto gli occhi di tutti.
;)

tranne di chi non vuol proprio ma proprio vedere...:D

mrt75
03-12-2007, 17:34
rivatuner 206 ;)


in generale: fud le sparerà pure, per qualcuno, ma quanta verità in questo...

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

:asd: :asd:

Io posterei la notizia in un noto thread ove ci si puo' esprimere liberamente e tranquillamente :asd:

halduemilauno
03-12-2007, 17:34
mamma mia che salto! :eek: :)



tranne di chi non vuol proprio ma proprio vedere...:D

ok. sotto gli occhi di quasi tutti.
;)

Alexkidd85
03-12-2007, 17:34
rivatuner 206 ;)


in generale: fud le sparerà pure, per qualcuno, ma quanta verità in questo...

The Geforce 8800 GTX will probably be remembered as one of the most successful products in Nvidia's history and if you got one a year ago, you are a happy man even now, more than a year after it launched. This card still plays all top games at top settings.

:asd: :asd:

Parole sante...mi ricordo che quando JOSH la prese,gli dissi "ah guarda io aspetto r600" ....è inutile dire che me la sono presa ....a male (:ciapet: ) quando ho scoperto le potenzialità di r600 che sia chiaro,non è un bidone,ma non è g80 :asd:
Mi toccò rimediare.... :O

Alexkidd85
03-12-2007, 17:36
tranne di chi non vuol proprio ma proprio vedere...:D

ok. sotto gli occhi di quasi tutti.
;)

Io posterei la notizia in un noto thread ove ci si puo' esprimere liberamente e tranquillamente :asd:

Ovviamente stiamo parlando del thread dell'ageia no!? :stordita:
:asd:

appleroof
03-12-2007, 17:37
Io posterei la notizia in un noto thread ove ci si puo' esprimere liberamente e tranquillamente :asd:

questo? :asd: :asd: qui c'è gente più rilassata mi sa...;)

Ovviamente stiamo parlando del thread dell'ageia no!? :stordita:
:asd:

:D :D

Parole sante...mi ricordo che quando JOSH la prese,gli dissi "ah guarda io aspetto r600" ....è inutile dire che me la sono presa ....a male (:ciapet: ) quando ho scoperto le potenzialità di r600 che sia chiaro,non è un bidone,ma non è g80 :asd:
Mi toccò rimediare.... :O

r600 è, tutto sommato, agli antipodi di g80 in tutto e per tutto....se solo mi ricordo quanti atisti agognavano la situazione r300/nv30 in occasione del nuovo cambio di librerie...:asd:

Alexkidd85
03-12-2007, 19:13
r600 è, tutto sommato, agli antipodi di g80 in tutto e per tutto....se solo mi ricordo quanti atisti agognavano la situazione r300/nv30 in occasione del nuovo cambio di librerie...:asd:

E già... :asd:

Roberto7627
03-12-2007, 19:46
Con Rivatuner se metto la velocita della ventola in automatico , la regola in base alla sua temperatura ?

Cristallo
03-12-2007, 19:50
ciao a tutti,
sono da poco in possesso di 2 gtx 8800 xfx,
ho provato ad alzare un pò il core della gpu e la frequenza delle memorie, rispettivamente a 705\1053, ma non trovo come aumentare gli shader e in più come posso sapere se va bene? con che programma posso testarla? e le temp posso fidarmi di quelle di ntune? sono a liquido, accetto consigli, grazie attualmente ne ho montata solo una.

Ciao,

guarda che gli shader si alzano da soli secondo una schema a soglia sulla base della frequenza della GPU. L'ho verificato sulla mia vecchia 8800GTX. Non sono arrivatoa 705 ma a 610 ho visto gli shader alire a 1500 e rotti.

Ciao

Cristallo

appleroof
03-12-2007, 20:20
Con Rivatuner se metto la velocita della ventola in automatico , la regola in base alla sua temperatura ?

no, devi farlo tu manualmente ;)

Ciao,

guarda che gli shader si alzano da soli secondo una schema a soglia sulla base della frequenza della GPU. L'ho verificato sulla mia vecchia 8800GTX. Non sono arrivatoa 705 ma a 610 ho visto gli shader alire a 1500 e rotti.

Ciao

Cristallo

da un paio di release di driver a questa parte, puoi occare gli shader indipendentemente dalla gpu, se vuoi puoi lasciare la gpu defualt e gli shader a 1700, per dire ;)


p.s.: direi che si può fare pure con la 8800gt...

I soliti sospetti
03-12-2007, 21:23
Provata al volo... ammazza che bestia!!:eek:
Non sarò abituato a ste cose ma fa impressione!!
Questo default:

http://www.pctunerup.com/up/results/_200712/th_20071203222213_3DMark06GTXDef..jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071203222213_3DMark06GTXDef..jpg)

Questo leggermente occata:

http://www.pctunerup.com/up/results/_200712/th_20071203222304_3DMark06GTX60014001890.jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071203222304_3DMark06GTX60014001890.jpg)

... mo provo a 650/1600/2000 :D

appleroof
03-12-2007, 21:38
Provata al volo... ammazza che bestia!!:eek:
Non sarò abituato a ste cose ma fa impressione!!
Questo default:

http://www.pctunerup.com/up/results/_200712/th_20071203222213_3DMark06GTXDef..jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071203222213_3DMark06GTXDef..jpg)

Questo leggermente occata:

http://www.pctunerup.com/up/results/_200712/th_20071203222304_3DMark06GTX60014001890.jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071203222304_3DMark06GTX60014001890.jpg)

... mo provo a 650/1600/2000 :D

ottimi punteggi ;)

Er Paulus
03-12-2007, 21:39
oggi ho montato l'HR-03 Plus ... che dire.. in idle senza ventola sta a 46°C.... se la spremo nel 3D massimo che arriva sono 92°C

appleroof
03-12-2007, 21:41
oggi ho montato l'HR-03 Plus ... che dire.. in idle senza ventola sta a 46°C.... se la spremo nel 3D massimo che arriva sono 92°C

azz in idle hai una temp eccellente, io direi che però una ventolina anche da 80 gliela devi mettere in full è troppo 92...

I soliti sospetti
03-12-2007, 21:47
azz in idle hai una temp eccellente, io direi che però una ventolina anche da 80 gliela devi mettere in full è troppo 92...

Dove hai letto il 92?:confused:
Cmq non avevo settato la fan...
Questo a 650/1500/2000 fatto al volo con fan fixata a 80%:

http://www.pctunerup.com/up/results/_200712/th_20071203224703_3DMark06GTX65015002000.jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071203224703_3DMark06GTX65015002000.jpg)

...:D ... che ne dici?
Ci siamo?

Edit: non dicevi a me il 92... l'ho visto ora.

Er Paulus
03-12-2007, 21:49
azz in idle hai una temp eccellente, io direi che però una ventolina anche da 80 gliela devi mettere in full è troppo 92...

sì pensavo di metterci una da 92 da pochi db sul dissi e un'altra verso le heat pipe... giusto per smaltire il calore

appleroof
03-12-2007, 21:51
Dove hai letto il 92?:confused:
Cmq non avevo settato la fan...
Questo a 650/1500/2000 fatto al volo con fan fixata a 80%:

http://www.pctunerup.com/up/results/_200712/th_20071203224703_3DMark06GTX65015002000.jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071203224703_3DMark06GTX65015002000.jpg)

...:D ... che ne dici?
Ci siamo?

Edit: non dicevi a me il 92... l'ho visto ora.

dico che 700 punti e più con quell'oc rispetto al precedente sono un ottimo risultato ;) adesso daje con i giochi, vedrai quante soddisfazioni ti dà questa scheda (sono tentato pure di resistere a g100 dopo aver giocato cod4 :asd: :asd: :asd: ) :)

sì pensavo di metterci una da 92 da pochi db sul dissi e un'altra verso le heat pipe... giusto per smaltire il calore

direi che se "abbatti" le temp in full e migliori ancor più quelle in idle sei davvero a posto così, meglio c'è solo il liquido ;)

I soliti sospetti
03-12-2007, 21:53
dico che 700 punti e più con quell'oc rispetto al precedente sono un ottimo risultato ;) adesso daje con i giochi, vedrai quante soddisfazioni ti dà questa scheda (sono tentato pure di resistere a g100 dopo aver giocato cod4 :asd: :asd: :asd: ) :)
Ora passo ai giochi ma devo dire che la scheda è mostruosa!!:eek:
Bella... bella... bella!!:D

halo
03-12-2007, 22:00
ragazzi mi dite per quale arcano motivo tutte le volte che @ la vga mi ritrovo i valori di dfeault?
uso ntune.
il bello è che lo fa anche se @ un solo mhz.
come mai?

Er Paulus
03-12-2007, 22:01
ho installato RivaTuner 2.06 su vista a 64 bit
e mi da il seguente errore "cannot load riva tuner64.sys driver"

subito dopo mi dice che i driver "signing enforcement"devono essere disabilitati e per farlo riavviare il SO
ovviamente riavviando, il problema non si risolve.
cosa devo fare?

grazie

gwwmas
04-12-2007, 07:09
Ora passo ai giochi ma devo dire che la scheda è mostruosa!!:eek:
Bella... bella... bella!!:D

Naaaaaah, io adesso prenderei una ATI nuova................

muahahahahahah :ciapet:

N.B.
Ragazzi, sto solo scherzando.
Era per prendere per il :ciapet: "sospetti" che non voleva credere alle potenzialità di questa schedozza :D

P.S.
Sospetti, adesso è veramente arrivata l' ora di divertirsi.:p

Ciauz;)

I soliti sospetti
04-12-2007, 09:06
Naaaaaah, io adesso prenderei una ATI nuova................

muahahahahahah :ciapet:

N.B.
Ragazzi, sto solo scherzando.
Era per prendere per il :ciapet: "sospetti" che non voleva credere alle potenzialità di questa schedozza :D

P.S.
Sospetti, adesso è veramente arrivata l' ora di divertirsi.:p

Ciauz;)

Infatti... credo che una Ati nel mio case ci entrerà mooooooooolto difficilmente!!:D

illidan2000
04-12-2007, 10:50
Infatti... credo che una Ati nel mio case ci entrerà mooooooooolto difficilmente!!:D

problemi con le misure ? :D

smoicol
04-12-2007, 13:21
ciao ragazzi,
per non rovinare il thread vorrei che qualcuno in prv mi chiarisse alcune cose perchè non riesco ad ottimizzare sta scheda, per adesso posso dire che son contento, ma vorrei poterla overclokkare per un dayli use.

jeck999
04-12-2007, 13:25
Infatti... credo che una Ati nel mio case ci entrerà mooooooooolto difficilmente!!:D

ma non hai letto ancora questo (http://games-ware.blogspot.com/2007/12/ati-hd-4xxx.html) :D

Alexkidd85
04-12-2007, 14:07
ciao ragazzi,
per non rovinare il thread vorrei che qualcuno in prv mi chiarisse alcune cose perchè non riesco ad ottimizzare sta scheda, per adesso posso dire che son contento, ma vorrei poterla overclokkare per un dayli use.

Chiedo venia,ma le tue che stanno a 700mhz (quindi doppio culo immane e mi sembra supestrano :p) sono normali o ULTRA!?
E che ci devi ottimizzare più di quello!?

Alexkidd85
04-12-2007, 14:09
ma non hai letto ancora questo (http://games-ware.blogspot.com/2007/12/ati-hd-4xxx.html) :D

Si...dunque...quindi.... babbo natale esiste e sua moglie è la befana!!:O

Super Bufala...per me ;)

smoicol
04-12-2007, 14:18
Chiedo venia,ma le tue che stanno a 700mhz (quindi doppio culo immane e mi sembra supestrano :p) sono normali o ULTRA!?
E che ci devi ottimizzare più di quello!?


beh si stanno a 705\2300 ma vorrei poter capire come posso sapere se sono stabile a quelle fraquenze, perchè una cosa è overclokkare e un'altra sapere e capire se si è stabili, per questo chiedevo come poter ottimizzare, non per aumentare le frequenze, anzi potrei anche abbassarle, ma poter capire quale programma usare per avere la certezza di essere RS.

I soliti sospetti
04-12-2007, 14:21
problemi con le misure ? :D
:rotfl:
ma non hai letto ancora questo (http://games-ware.blogspot.com/2007/12/ati-hd-4xxx.html) :D
Guarda... quando le vedo e vedo i test fatti da gente del forum ne parliamo altrimenti: :tie: :D
Si...dunque...quindi.... babbo natale esiste e sua moglie è la befana!!:O

Super Bufala...per me ;)

:asd:

I soliti sospetti
04-12-2007, 14:22
beh si stanno a 705\2300 ma vorrei poter capire come posso sapere se sono stabile a quelle fraquenze, perchè una cosa è overclokkare e un'altra sapere e capire se si è stabili, per questo chiedevo come poter ottimizzare, non per aumentare le frequenze, anzi potrei anche abbassarle, ma poter capire quale programma usare per avere la certezza di essere RS.
Fatti un paio di ore con Crysis... se non hai blocchi e artefatti sei ok secondo me. ;)

smoicol
04-12-2007, 14:25
crysis nn c'è l'ho, pensavo qualche 3dmark o qualche benchmark, che mi consigliate?

Alexkidd85
04-12-2007, 14:26
beh si stanno a 705\2300 ma vorrei poter capire come posso sapere se sono stabile a quelle fraquenze, perchè una cosa è overclokkare e un'altra sapere e capire se si è stabili, per questo chiedevo come poter ottimizzare, non per aumentare le frequenze, anzi potrei anche abbassarle, ma poter capire quale programma usare per avere la certezza di essere RS.

ah ma tu sei per la serie "io intanto le ho fixate a 700"!? Senza un secondo di 3dmark o di crysis come ti hanno consigliato!?

fai 3dmark06 facciamo 2 loop,abilita filtri...
Poi bioshock,gioco super sensibile all'oc
e poi fatti crysis

se sei stabile a 700 con entrambe,dimmi il negozio dove le hai prese :asd:

Alexkidd85
04-12-2007, 14:27
crysis nn c'è l'ho, pensavo qualche 3dmark o qualche benchmark, che mi consigliate?

Il 3dmark è leggero,se lo passi fatti qualche gioco,vedi il mio post o sennò prova qualche gioco pesante o qualche benchmark pesante

smoicol
04-12-2007, 14:29
Alex per questo chiedevo, è stato facile salire......è un'altra storia starci li a 705\2300

smoicol
04-12-2007, 14:31
postatemi un benchmark pesante cosi non abbiamo dubbi, grazie raga

appleroof
04-12-2007, 17:36
ho installato RivaTuner 2.06 su vista a 64 bit
e mi da il seguente errore "cannot load riva tuner64.sys driver"

subito dopo mi dice che i driver "signing enforcement"devono essere disabilitati e per farlo riavviare il SO
ovviamente riavviando, il problema non si risolve.
cosa devo fare?

grazie

riavvia e bona ;)

Alexkidd85
04-12-2007, 18:00
Alex per questo chiedevo, è stato facile salire......è un'altra storia starci li a 705\2300

postatemi un benchmark pesante cosi non abbiamo dubbi, grazie raga

Fai 2 loop di 3dmark06 per ora ;)

mrt75
04-12-2007, 18:22
Originariamente inviato da Er Paulus
ho installato RivaTuner 2.06 su vista a 64 bit
e mi da il seguente errore "cannot load riva tuner64.sys driver"

subito dopo mi dice che i driver "signing enforcement"devono essere disabilitati e per farlo riavviare il SO
ovviamente riavviando, il problema non si risolve.
cosa devo fare?

grazie
riavvia e bona ;)

Ma non ha detto che riavviando il problema rimane? :stordita:

I soliti sospetti
04-12-2007, 18:24
Vi capita mai che con gli ultimi driver beta in overclock si blocchi il 3D Mark 06?:confused:

appleroof
04-12-2007, 18:30
Originariamente inviato da Er Paulus
ho installato RivaTuner 2.06 su vista a 64 bit
e mi da il seguente errore "cannot load riva tuner64.sys driver"

subito dopo mi dice che i driver "signing enforcement"devono essere disabilitati e per farlo riavviare il SO
ovviamente riavviando, il problema non si risolve.
cosa devo fare?

grazie


Ma non ha detto che riavviando il problema rimane? :stordita:

azz. non avevo letto bene :doh:

cmq è capitato anche a me: risolto (sembra assurdo ma è così) scaricando riva da guru3d (la prima volta l'avevo scaricato da questo sito)

appleroof
04-12-2007, 18:30
Vi capita mai che con gli ultimi driver beta in overclock si blocchi il 3D Mark 06?:confused:

cioè a partià di frequenza con i driver whql non si blocca e con quelli beta si?

I soliti sospetti
04-12-2007, 18:36
cioè a partià di frequenza con i driver whql non si blocca e con quelli beta si?

Giusto!
Ora scarico l'ultima release del 3D Mark 06 e provo ;)

P.S. ieri non si bloccava però... boh :confused:

vicius80
05-12-2007, 11:39
raga ma la 8800gtx come si comporta con CRYSIS. vorrei comprarlo ma aspetto vostre delucidazioni.....

Mainas
05-12-2007, 12:20
raga ma la 8800gtx come si comporta con CRYSIS. vorrei comprarlo ma aspetto vostre delucidazioni.....

considerando che NESSUNA scheda video attuale ce la fa ad elevate risoluzioni e dettagli pieni, e che la GTX, nel parco schede attuale è seconda solo alla Ultra, direi che si comporta egregiamente...

in ogni caso reputo poco sensato valutare un acquisto sulla base di un solo gioco... un gioco pesantissimo, poco ottimizzato e giovane, quando con qualsiasi altro titolo questa scheda è un mostro

;)

Er Paulus
05-12-2007, 12:27
mi sapreste consigliare un programma per monitorare la temp della gpu a parte RivaTuner?

grazie

Saso21
05-12-2007, 12:35
mi sapreste consigliare un programma per monitorare la temp della gpu a parte RivaTuner?

grazie

prova everest.. ti da tutte le temperature!

Alexkidd85
05-12-2007, 12:36
mi sapreste consigliare un programma per monitorare la temp della gpu a parte RivaTuner?

grazie

Everest ;)

illidan2000
05-12-2007, 12:45
in ogni caso reputo poco sensato valutare un acquisto sulla base di un solo gioco... un gioco pesantissimo, poco ottimizzato e giovane,
;)

e che ha deluso anche molti redattori che lo hanno visto e giudicato.
ancora io nn ho potuto metterci le mani sopra

Colasante 5
05-12-2007, 12:52
Raga qualcuno ha provato i beta 169.13? :confused:

169.13 Vista 32bit (http://www.nvidia.it/object/winvista_x86_169.13_it.html)

169.13 Vista 64bit (http://www.nvidia.it/object/winvista_x64_169.13_it.html)

169.13 XP 32bit (http://www.nvidia.it/object/winxp_169.13_it.html)

169.13 XP 64bit (http://www.nvidia.it/object/winxp64_169.13_it.html)

Er Paulus
05-12-2007, 13:01
prova everest.. ti da tutte le temperature!

sì già lo uso.. però non mi da il grafico con le temperature in una arco di tempo; cosa che rivatuner fa...

vicius80
05-12-2007, 13:28
considerando che NESSUNA scheda video attuale ce la fa ad elevate risoluzioni e dettagli pieni, e che la GTX, nel parco schede attuale è seconda solo alla Ultra, direi che si comporta egregiamente...

in ogni caso reputo poco sensato valutare un acquisto sulla base di un solo gioco... un gioco pesantissimo, poco ottimizzato e giovane, quando con qualsiasi altro titolo questa scheda è un mostro

;)

io DEVO giocarci a 1280x1024 (il mio monitor arriva li...) però vorrei usare i dettagli al massimo almeno....che dici?

ISOLA
05-12-2007, 13:30
raga ma la 8800gtx come si comporta con CRYSIS. vorrei comprarlo ma aspetto vostre delucidazioni.....

secondo me crysis lo puoi buttare nel cesso.
io DEVO giocarci a 1280x1024 (il mio monitor arriva li...) però vorrei usare i dettagli al massimo almeno....che dici?
io a 1440*900 gioco a Crysis con tutto ma proprio tutto a palla...tutto su massimo in directx10.
No filtri ovviamente e a 1440 è fluido in ogni schema con la GTX.

a 1680 la storia cambia.

Infatti di solito uso 1680 e 1440 quanto la situation si fa critica.

Mainas
05-12-2007, 13:39
io DEVO giocarci a 1280x1024 (il mio monitor arriva li...) però vorrei usare i dettagli al massimo almeno....che dici?

con tutto tutto al max non saprei... ma sicuramente te lo riesci a godere alla grande... io ritiro tutto stasera quindi devo ancora metterci mano :sbav:

illidan2000
05-12-2007, 13:43
secondo me crysis lo puoi buttare nel cesso.

io a 1440*900 gioco a Crysis con tutto ma proprio tutto a palla...tutto su massimo in directx10.
No filtri ovviamente e a 1440 è fluido in ogni schema con la GTX.

a 1680 la storia cambia.

Infatti di solito uso 1680 e 1440 quanto la situation si fa critica.

quale è la tua config ? (ed eventuale overclock)

ISOLA
05-12-2007, 13:50
E6850
2giga di ram corasir dominator CM2X1024
asus PK5 premium
ge-force 8800GTX
Creative x-fi---->tolta e lasciato onboard sound visto che uso vista.
Samsung 2232bw


L'unica cosa occata è la geffo di pochissimo anzi adesso è in default(non esiste che occo una GTX per un giocazzo come Crysis. quando tutto il resto va a tutto busso @ default)

Sulla portaerei la situazione a 16850 si fa critica e infatti mi metto a 1440 ed è ultra giocabile.

L'unica cosa che non tengo su MASSIMO (a 1440) è il suono che tengo su elevato visto che uso la onboard.

Cmq Crysis l'ho abbandonato per un COD4 molto ma molto meglio come gioco in multy....non c'è paragone.
Crysis mi rigioco qualche spezzone singleplayer.

_Menno_
05-12-2007, 13:54
secondo me crysis lo puoi buttare nel cesso.io continuo a non capire queste affermazioni... :mbe:

ISOLA
05-12-2007, 13:59
io continuo a non capire queste affermazioni... :mbe:

gioco programmato col sedere e che in multy è un gran bel flop se confrontato con altri titoli.:rolleyes:

YANEZ84
05-12-2007, 14:09
oi ragazzi avete provato i 169.13?

ISOLA
05-12-2007, 14:16
oi ragazzi avete provato i 169.13?

io no dal momento che ha aportato mgliorie a Crysis e alla 8800GT da quello he ho letto..

trentemoller
05-12-2007, 14:56
gioco programmato col sedere e che in multy è un gran bel flop se confrontato con altri titoli.:rolleyes:

flop? ma ci hai giocato? che hai fatto l'instant action? il power strugle da solo?

giocaci in gruppo collegati su TS, fai tattiche poi vedrai che flop.. mah

Alexkidd85
05-12-2007, 14:58
Beh ero uno di quelli che non dava lodi a CRYSIS perché dicevo "è inutile dire che è il primo della classe,sbaragliando la concorrenza,(tutti diceva SI BIOSHOCK,ma non è CRYSIS o SI LOST PLANET,ma non è CRYSIS)senza che neanche fosse uscito. Era una specie di "eletto" senza che nessuno l'avesse provato in via ufficiale.
Poi lo provai e allora si che non ci sono "cagaxxxxx di Minxxia":mi sonodovuto ricredere...ho abbandonato bioshock e lost planet e a 1680 2x di AA e 8x AF me lo sono goduto sulla media dei 22 fps e come detto con apple,pochissime(tipo 2 o 3) scatti minimi in tutto il gioco (vedi qualche rara esplosione a 2 passi).
Non chidetemi perché o per come,ma Crysis a 19 fps o 18,non scattava.
E vi dirò di più,ritornando a giocare a Bioshock e Lost Planet,mi sembravano giochi vecchi anni. E non scherzo.

Quindi non sono del tutto d'accordo. Fatto con i piedi? Forse si ma forse no,sfido a giocare a 18 fps senza scazzarsi degli scatti,a qualsiasi gioco(e parlo anche su consolle :asd:)
Far Cry era pesantissimo,si ma che grafica :D
E' inutile dirlo,sti ragazzi hanno fatto un capolavoro e per me,nel complesso,è IL gioco per eccellenza che probabilmente sarà la punta di un iceberg,però è una gran bella punta.

Non ho provato in multiplayer però giocando ho detto "cavolo con ste nanotute sarà un bello spasso in multi" però....non ho provato in effetti

Questa è la mia ;) (leggasi IMHO :asd:)

_Menno_
05-12-2007, 15:02
Beh ero uno di quelli che non dava lodi a CRYSIS perché dicevo "è inutile dire che è il primo della classe,sbaragliando la concorrenza,(tutti diceva SI BIOSHOCK,ma non è CRYSIS o SI LOST PLANET,ma non è CRYSIS)senza che neanche fosse uscito. Era una specie di "eletto" senza che nessuno l'avesse provato in via ufficiale.
Poi lo provai e allora si che non ci sono "cagaxxxxx di Minxxia":mi sonodovuto ricredere...ho abbandonato bioshock e lost planet e a 1680 2x di AA e 8x AF me lo sono goduto sulla media dei 22 fps e come detto con apple,pochissime(tipo 2 o 3) scatti minimi in tutto il gioco (vedi qualche rara esplosione a 2 passi).
Non chidetemi perché o per come,ma Crysis a 19 fps o 18,non scattava.
E vi dirò di più,ritornando a giocare a Bioshock e Lost Planet,mi sembravano giochi vecchi anni. E non scherzo.

Quindi non sono del tutto d'accordo. Fatto con i piedi? Forse si ma forse no,sfido a giocare a 18 fps senza scazzarsi degli scatti,a qualsiasi gioco(e parlo anche su consolle :asd:)
Far Cry era pesantissimo,si ma che grafica :D
E' inutile dirlo,sti ragazzi hanno fatto un capolavoro e per me,nel complesso,è IL gioco per eccellenza che probabilmente sarà la punta di un iceberg,però è una gran bella punta.

Non ho provato in multiplayer però giocando ho detto "cavolo con ste nanotute sarà un bello spasso in multi" però....non ho provato in effetti

Questa è la mia ;) (leggasi IMHO :asd:)concordo, e aggiungo che il multi, se giocato seriamente e organizzati, è veramente bello, coinvolgente e sopratutto tattico :)

per questo mi chiedevo come ancora ci fosse in giro chi dice che crysis è da buttare :mbe:

appleroof
05-12-2007, 15:03
Beh ero uno di quelli che non dava lodi a CRYSIS perché dicevo "è inutile dire che è il primo della classe,sbaragliando la concorrenza,(tutti diceva SI BIOSHOCK,ma non è CRYSIS o SI LOST PLANET,ma non è CRYSIS)senza che neanche fosse uscito. Era una specie di "eletto" senza che nessuno l'avesse provato in via ufficiale.
Poi lo provai e allora si che non ci sono "cagaxxxxx di Minxxia":mi sonodovuto ricredere...ho abbandonato bioshock e lost planet e a 1680 2x di AA e 8x AF me lo sono goduto sulla media dei 22 fps e come detto con apple,pochissime(tipo 2 o 3) scatti minimi in tutto il gioco (vedi qualche rara esplosione a 2 passi).
Non chidetemi perché o per come,ma Crysis a 19 fps o 18,non scattava.
E vi dirò di più,ritornando a giocare a Bioshock e Lost Planet,mi sembravano giochi vecchi anni. E non scherzo.

Quindi non sono del tutto d'accordo. Fatto con i piedi? Forse si ma forse no,sfido a giocare a 18 fps senza scazzarsi degli scatti,a qualsiasi gioco(e parlo anche su consolle :asd:)
Far Cry era pesantissimo,si ma che grafica :D
E' inutile dirlo,sti ragazzi hanno fatto un capolavoro e per me,nel complesso,è IL gioco per eccellenza che probabilmente sarà la punta di un iceberg,però è una gran bella punta.

Non ho provato in multiplayer però giocando ho detto "cavolo con ste nanotute sarà un bello spasso in multi" però....non ho provato in effetti

Questa è la mia ;) (leggasi IMHO :asd:)

quoto tutto, anche per me crysis è un gran bel gioco ;)

illidan2000
05-12-2007, 15:37
E6850
2giga di ram corasir dominator CM2X1024
asus PK5 premium
ge-force 8800GTX
Creative x-fi---->tolta e lasciato onboard sound visto che uso vista.
Samsung 2232bw


L'unica cosa occata è la geffo di pochissimo anzi adesso è in default(non esiste che occo una GTX per un giocazzo come Crysis. quando tutto il resto va a tutto busso @ default)

Sulla portaerei la situazione a 16850 si fa critica e infatti mi metto a 1440 ed è ultra giocabile.

L'unica cosa che non tengo su MASSIMO (a 1440) è il suono che tengo su elevato visto che uso la onboard.

Cmq Crysis l'ho abbandonato per un COD4 molto ma molto meglio come gioco in multy....non c'è paragone.
Crysis mi rigioco qualche spezzone singleplayer.

peccato tenere quel processore senza OC, e pure la ram.
penso che un po' guadagni ovunque.
che vuoi dire con "Sulla portaerei la situazione a 16850" ?

appleroof
05-12-2007, 15:38
peccato tenere quel processore senza OC, e pure la ram.
penso che un po' guadagni ovunque.
che vuoi dire con "Sulla portaerei la situazione a 16850" ?

immagino intendesse l'ultimo livello ("sulla portaerei") a 1680 come risoluzione...:stordita:

Alexkidd85
05-12-2007, 15:39
peccato tenere quel processore senza OC, e pure la ram.
penso che un po' guadagni ovunque.
che vuoi dire con "Sulla portaerei la situazione a 16850" ?

è un 1680 scivolato drasticamente sulle decine di migliaia per una risoluzione da pauraaaaa :asd:

ISOLA
05-12-2007, 15:52
flop? ma ci hai giocato? che hai fatto l'instant action? il power strugle da solo?

giocaci in gruppo collegati su TS, fai tattiche poi vedrai che flop.. mah

stai scherzando?vainel topic di Crysis e lo scopri se ci ho giocto o meno.
L'ho preso il day one crysis.....istant action è una porcata di proporzioni epiche,o almeno è una modalità scaccia pensieri sopportabile se ci sono molte altre modalità in multy,invece in crysis o c'è istant action o power struggle.

Power struggle è già meglio è qualcosa di un pò più ragionato un pò più complesso ma sinceramente trovo molto migliore enemy territory o battlefield2 rispetto a sta modalità senza contare che l'ho trovata decisamente dispersiva.

Ma poi non ho capito cosa gioco a power struggle(che è la più decente ecco pur non essendo niente di chissà cosa) a rotella??
Mha sinceramente ho trovato molto meglio COD4 senza contare la quantità infinita di server e modi di gioco di cod4 rispetto a Crysis.

Altra cosa Crysis doveva avere sti server con la fisica,qualcosa di senzazionale e almeno fino a quando ci giocavo io (una settimana e mezzo fa) il 99% erano tutti directx9 ovvero senza un briciolo di fisica mentre qualche server tipo 3-4 server (power struggle) eran directx10.
Non sto assolutamente dicendo che fa schifo in multy ma insomma davanti ad altri prodotti proprio la scelta è semplice,davanti a cod4,oppure a orange box la scelta neanche si pone IMHO.

Per la risoluzione,ovviamente intendevo 1680 :asd: dai capitemi è stato un errore di battitura.

per illidan non sento la minima necessità di overcloccare sinceramente,quando iniziero a beccare dei giochi che mi arrancano ci penserò sù...di sicuro non per 1 gioco tral'altro ottimizzato da cani.:D

Sta scheda fa volare qualsiasi cosa a cui io abbia messo mano,tabula rasa,cod4,company of heroes(directx10),world in conflict(directx10)......sta scheda pompa a palla,quelli della crytek invece dovrebbero imparare a ottimizzare.
Poi non ho preso il q6600 anche perchè nono sono un grande estimatore dell'OC

Tutto rigorosamente IMHO.

Alexkidd85
05-12-2007, 15:58
sta scheda pompa a palla,quelli della crytek invece dovrebbero imparare a ottimizzare.
Tutto rigorosamente IMHO.

Beh,ottimizzeranno qualcosa,indubbiamente,ma ti rendi conto che stiamo parlando di un gioco diverse spanne sopra qualsiasi gioco!? Fino ad un anno fa,le texture in lontananza di oblivion con il mega pack,erano il terrore anche dei primi driver della gtx,ora i dettagli di crysis sono molte volte superiori ai dettagli lontani di oblivion e le texture di oblivion sono inferiori a quelle di crysis e sono qua a giocarci...
per la serie...lo ottimizzeranno....ma rendiamoci conto che è un gioco che ora non ha confronti e sono pronto a scommettere che motori grafici come questo,per quest'anno...non ce ne saranno ;)
E intendo 2008 :D

ISOLA
05-12-2007, 16:04
Beh,ottimizzeranno qualcosa,indubbiamente,ma ti rendi conto che stiamo parlando di un gioco diverse spanne sopra qualsiasi gioco!? Fino ad un anno fa,le texture in lontananza di oblivion con il mega pack,erano il terrore anche dei primi driver della gtx,ora i dettagli di crysis sono molte volte superiori ai dettagli lontani di oblivion e le texture di oblivion sono inferiori a quelle di crysis e sono qua a giocarci...
per la serie...lo ottimizzeranno....ma rendiamoci conto che è un gioco che ora non ha confronti e sono pronto a scommettere che motori grafici come questo,per quest'anno...non ce ne saranno ;)
E intendo 2008 :D

io invece scommetto che vedremo giochi con grafica paragonabile a crysis ma con un 20-30% più fluidi.
Come fu per farcry poi....
Poi o può essere il gioco di DIO ma se non va da dio su schede di ultima generazione da 600 euro non so veramente che dire....non tiriamo fuori lo SLI perchè fare SLI di GTX o Ultra è una cosa per pochi.
Poi io parlo da una posizione privilegiata,non vorrei essere un povero cristo con una 8600...

Una delle cos emi ha lasciato schifato sono cmq i moltissimi video PRE release di far cry che girava ad occhio a 40 fps insomma fluidissimo su sistemi normali...mha...poi o vediamo la prossima patch,per me non ci sarà manco 1 fps di guadagno.

Alexkidd85
05-12-2007, 16:22
io invece scommetto che vedremo giochi con grafica paragonabile a crysis ma con un 20-30% più fluidi.
Come fu per farcry poi....
Poi o può essere il gioco di DIO ma se non va da dio su schede di ultima generazione da 600 euro non so veramente che dire....non tiriamo fuori lo SLI perchè fare SLI di GTX o Ultra è una cosa per pochi.
Poi io parlo da una posizione privilegiata,non vorrei essere un povero cristo con una 8600...

Una delle cos emi ha lasciato schifato sono cmq i moltissimi video PRE release di far cry che girava ad occhio a 40 fps insomma fluidissimo su sistemi normali...mha...poi o vediamo la prossima patch,per me non ci sarà manco 1 fps di guadagno.

Si infatti,anche secondo me,servirà a poco.
Anche se ottimizzando meglio il processore,forse qualche boost (anche con driver appropriati) si avrà

Sai che è!? E' che vedendo i titoli per il 2008,non vedo quali possano avere la stessa grafica se non quelli che vorranno il motore di crysis(che a sto punto farei pagare caro :asd:

ISOLA
05-12-2007, 16:27
mass effect ha una grafica fuori parametro,soprattutto facciale ,oserei dir emigliore di Crysis egira su una xbox360,non c'è bisgno secondo me di fare motori grafici nuovi,per dire l'unreal engine 3 che sarà ,ed è gi, il nuovo motore più usato da tutte le software house conoscere una evoluzione ed ottimizzazione senza precedenti secondo me.
ID come si sa sta lavorando sul nuovo motore grafico che a quanto pare è una bomba.....insomma le alternative ci saranno,stiamo a vedere.

I soliti sospetti
05-12-2007, 16:40
Ho riprovato nuovamente il 3D Mark 06 con la GTX a 650/1500/2000 e l'ho fatto girare ben 5 volte senza crash e con temp non oltre i 70°... il problema infatti era quello... per reggere l'overclock così ho dovuto alzare la ventola al 90% anche se non è rumorosa secondo me.
La mia domanda da ignorante è questa: l'overclock dipende dalle temp?Nel senso... i driver si fermano quando la temp arriva poco oltre gli 80°?
Io ho notato questo ogni volta che si bloccava... se è così come si può ovviare?Si possono modificare da software i parametri? Mi conviene cambiare dissy con un thermalright o lascio così?
Altra domanda: il voltaggio della scheda fino a quale frequenze tiene?Avete provato a editare il bios?Se si come?
Grazie per le vostre eventuali risposte...cercate di capire... ho sempre e solo utilizzato ATI :D

P.S. Crysis... gran bel gioco ma... non può un motore grafico strapazzare una vga come la GTX o la Ultra e tenere le cpu nemmeno al 50%!! Ci devono lavorare su... un sistema per giocare non è fatto solo di scheda grafica...altrimenti è un peccato... ovviamente IMHO ;)

mrt75
05-12-2007, 17:41
Si infatti,anche secondo me,servirà a poco.
Anche se ottimizzando meglio il processore,forse qualche boost (anche con driver appropriati) si avrà

Sai che è!? E' che vedendo i titoli per il 2008,non vedo quali possano avere la stessa grafica se non quelli che vorranno il motore di crysis(che a sto punto farei pagare caro :asd:

Non deve uscire far cry 2?

Alexkidd85
05-12-2007, 17:49
mass effect ha una grafica fuori parametro,soprattutto facciale ,oserei dir emigliore di Crysis egira su una xbox360,non c'è bisgno secondo me di fare motori grafici nuovi,per dire l'unreal engine 3 che sarà ,ed è gi, il nuovo motore più usato da tutte le software house conoscere una evoluzione ed ottimizzazione senza precedenti secondo me.
ID come si sa sta lavorando sul nuovo motore grafico che a quanto pare è una bomba.....insomma le alternative ci saranno,stiamo a vedere.

Mah,si è bellino come motore,l'ho visto,però mi sembra sempre distante da crysis,ed anche le espressioni facciali,io sono scioccato quando psycho ascoltava la coreana(che mi faceva un sangue tremendo :asd: ) e mi guardava come per dire "cazzo,guarda che sta succedendo" e si notava nel volto un espressione del tipo "ora gli faccio un culo enorme" e nello stesso tempo "stai sentendo che cosa sta dicendo!?".
Cioé anche alla crytek hanno vantato molto il loro motion facciale anche nei video ed in realtà non mi hanno deluso.
L'UE IMHO era il "cry engine" dei tempi d'oro...ora è un ottimo motore,il più usato e il più diffuso ma molti punti sotto il cry engine...non dimentichiamo che la fisica del cry engine,fa paura sotto ogni aspetto ;)

Ho riprovato nuovamente il 3D Mark 06 con la GTX a 650/1500/2000 e l'ho fatto girare ben 5 volte senza crash e con temp non oltre i 70°... il problema infatti era quello... per reggere l'overclock così ho dovuto alzare la ventola al 90% anche se non è rumorosa secondo me.
La mia domanda da ignorante è questa: l'overclock dipende dalle temp?Nel senso... i driver si fermano quando la temp arriva poco oltre gli 80°?
Io ho notato questo ogni volta che si bloccava... se è così come si può ovviare?Si possono modificare da software i parametri? Mi conviene cambiare dissy con un thermalright o lascio così?
Altra domanda: il voltaggio della scheda fino a quale frequenze tiene?Avete provato a editare il bios?Se si come?
Grazie per le vostre eventuali risposte...cercate di capire... ho sempre e solo utilizzato ATI :D

P.S. Crysis... gran bel gioco ma... non può un motore grafico strapazzare una vga come la GTX o la Ultra e tenere le cpu nemmeno al 50%!! Ci devono lavorare su... un sistema per giocare non è fatto solo di scheda grafica...altrimenti è un peccato... ovviamente IMHO ;)

L'overvolt lo puoi fare da bios ma a che pro!? per metterci tutti i mezzi per perdere la garanzia o recuperare 2 fps con crysis!? :D
Il dissi è un ottimo dissi quello stock imho...anzi,molto silenzioso per i miei standard. E si,da ignorante(tecnicamente),l'oc dipende dalle temp. Non ti scendo nel dettaglio sennò dico caxxate perché sono profano ma...se non fosse come dico io,non si spiegherebbe come con il liquido e come con l'azoto,si occa a bestia (per la serie "basta che la macchina cammina,il motore,in questo caso,lo lascio studiare a chi lo vuole studiare :asd: )
Ah,non penso siano i driver il "blocco"

Bye

Alexkidd85
05-12-2007, 17:51
Non deve uscire far cry 2?

Bastaaaaaaa :rotfl:
Gia Far Cry passa,crysis...strapassa,ma se continuano far cry e crysis poi è la stessa minestra ben condita e arricchita :D
Ci vuole innovazione...

L'unico "contro" che do a crysis infatti è di essere una stupenda(ho già detto "IL MIGLIORE") minestra riscaldata e condita con qualche cosa in più rispetto a far cry(leggasi alieni,nave e montagna aliena) però siamo sempre li: IL GIOCONE :D

appleroof
05-12-2007, 17:54
Beh,ottimizzeranno qualcosa,indubbiamente,ma ti rendi conto che stiamo parlando di un gioco diverse spanne sopra qualsiasi gioco!? Fino ad un anno fa,le texture in lontananza di oblivion con il mega pack,erano il terrore anche dei primi driver della gtx,ora i dettagli di crysis sono molte volte superiori ai dettagli lontani di oblivion e le texture di oblivion sono inferiori a quelle di crysis e sono qua a giocarci...
per la serie...lo ottimizzeranno....ma rendiamoci conto che è un gioco che ora non ha confronti e sono pronto a scommettere che motori grafici come questo,per quest'anno...non ce ne saranno ;)
E intendo 2008 :D

concordo

poi cmq ognuno ha i suoi gusti :p per esempio alcune implementazioni dell'ut3 non mi piacciono, grafica troppo "slavata" per i miei gusti, ad esempio gow (ma anche lo stesso ut3) pur essendo un bellissimo gioco ha una grafica a mio modo di vedere peggiore (tutto sommato) rispetto a crysis, non c'è dubbio per me

I soliti sospetti
05-12-2007, 18:06
L'overvolt lo puoi fare da bios ma a che pro!? per metterci tutti i mezzi per perdere la garanzia o recuperare 2 fps con crysis!? :D
Il dissi è un ottimo dissi quello stock imho...anzi,molto silenzioso per i miei standard. E si,da ignorante(tecnicamente),l'oc dipende dalle temp. Non ti scendo nel dettaglio sennò dico caxxate perché sono profano ma...se non fosse come dico io,non si spiegherebbe come con il liquido e come con l'azoto,si occa a bestia (per la serie "basta che la macchina cammina,il motore,in questo caso,lo lascio studiare a chi lo vuole studiare :asd: )
Ah,non penso siano i driver il "blocco"

Bye
Ho capito... però... xché se lascio default con Crysis e la ventola la gestisce il driver mi arriva anche a 80° e non ho blocchi mentre se vado a 650/1500/2000 con la ventola gestita dal driver arriva a 80° e più e fa artefatti?Mentre fixando la fan a 90% tutto fila liscio?
Non ci vedo chiaro... cmq... non volevo aumentare il voltaggio... tranquillo che non me l'hanno regalata la vga... anzi!!:D

P.S. in overclock con Crysis o no non è mica che si fanno tutti sti fps in più!!Si nota al 3D Mark la differenza ma nel gioco... boh :confused:

appleroof
05-12-2007, 18:20
Ho capito... però... xché se lascio default con Crysis e la ventola la gestisce il driver mi arriva anche a 80° e non ho blocchi mentre se vado a 650/1500/2000 con la ventola gestita dal driver arriva a 80° e più e fa artefatti?Mentre fixando la fan a 90% tutto fila liscio?
Non ci vedo chiaro... cmq... non volevo aumentare il voltaggio... tranquillo che non me l'hanno regalata la vga... anzi!!:D

P.S. in overclock con Crysis o no non è mica che si fanno tutti sti fps in più!!Si nota al 3D Mark la differenza ma nel gioco... boh :confused:

perchè scalda troppo, se fai overclock devi alzare la ventola per raffreddare meglio la scheda

I soliti sospetti
05-12-2007, 18:38
perchè scalda troppo, se fai overclock devi alzare la ventola per raffreddare meglio la scheda
Grazie per il pvt ;)
Cmq si... ventola fixata al 90% a 650/1600/2000... idle 55° e full max 75° grado più grado meno... questo è un 3D Mark 06 fatto ora dove li le temp max sono un po' meno... 70°
http://www.pctunerup.com/up/results/_200712/th_20071205193729_3DMark06GTX65016002000.jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071205193729_3DMark06GTX65016002000.jpg)

... direi che ci siamo no?
Salvato profilo :D

appleroof
05-12-2007, 18:40
Grazie per il pvt ;)
Cmq si... ventola fixata al 90% a 650/1600/2000... idle 55° e full max 75° grado più grado meno... questo è un 3D Mark 06 fatto ora dove li le temp max sono un po' meno... 70°
http://www.pctunerup.com/up/results/_200712/th_20071205193729_3DMark06GTX65016002000.jpg (http://www.pctunerup.com/up/image.php?src=_200712/20071205193729_3DMark06GTX65016002000.jpg)

... direi che ci siamo no?
Salvato profilo :D

si, le temp sono giuste...se crasha nei giochi (come non ti auguro) allora significa che devi abbassare una o più tra core, shaders, ram...;)

Alexkidd85
05-12-2007, 18:43
P.S. in overclock con Crysis o no non è mica che si fanno tutti sti fps in più!!Si nota al 3D Mark la differenza ma nel gioco... boh :confused:

Stica :asd: con il mio oc prendo la bellezza di 6 fps a crysis,facendomi stabilizzare nella soglia del "giocabile tranquillamente" ai settaggi che impostai io.

perchè scalda troppo, se fai overclock devi alzare la ventola per raffreddare meglio la scheda

Ecco...;)
Aggiungo,lasciala fixata al 100% quando attivi l'oc...IO e dico IO sento più il surround che la ventola :asd:
Forse in qualche altro 3D,non è così :fagiano:
Scherzo....

I soliti sospetti
05-12-2007, 18:51
si, le temp sono giuste...se crasha nei giochi (come non ti auguro) allora significa che devi abbassare una o più tra core, shaders, ram...;)
No... regge bene... almeno sembra. ;)
Stica :asd: con il mio oc prendo la bellezza di 6 fps a crysis,facendomi stabilizzare nella soglia del "giocabile tranquillamente" ai settaggi che impostai io.
Beh... mo non ci ho guardato però 6 fps per una tirata di collo non mi sembrano molti però... ci si attacca a tutto :sofico: :D



Ecco...;)
Aggiungo,lasciala fixata al 100% quando attivi l'oc...IO e dico IO sento più il surround che la ventola :asd:
Forse in qualche altro 3D,non è così :fagiano:
Scherzo....
Tu scherzi ma con il volume mica si sente davvero e poi sta vga ha una ventola veramente inudibile!;)

vicius80
05-12-2007, 20:19
raga qualcuno mi può dire avendo rivatuner 2.05 come si occa la schedozza? premetto che attualmente ho 50° con ventola a 100% e driver 169.09. Grazie;)

Alexkidd85
05-12-2007, 23:01
No... regge bene... almeno sembra. ;)

Beh... mo non ci ho guardato però 6 fps per una tirata di collo non mi sembrano molti però... ci si attacca a tutto :sofico: :D

Beh 6 fps sono il giusto,alla fine se fai un rapporto di quanto umenti,sono anche il giusto :D


Tu scherzi ma con il volume mica si sente davvero e poi sta vga ha una ventola veramente inudibile!;)
No no..non scherzavo :p
E' incredibilmente silenziosa :D

@danieleok@
06-12-2007, 10:57
Mi è arrivata finalmente!!!
L'ho messa dentro... ed ho fatto partire tutto il pc in def compresa cpu(senza formattare, solo driver cleaner) e al 05 ho fatto 12500:eek: pochissimo!
Allora ho alzato il procio a 2500... ho preso 2000 punti ... ho poi cloccato la vga, ma ogni volta che clocco non aumenta un cavolo in punteggio!!! Credo che quando aumento il clock della vga ridivendo paurosamente cpu limited...ho dedotto bene?

illidan2000
06-12-2007, 11:35
Mi è arrivata finalmente!!!
L'ho messa dentro... ed ho fatto partire tutto il pc in def compresa cpu(senza formattare, solo driver cleaner) e al 05 ho fatto 12500:eek: pochissimo!
Allora ho alzato il procio a 2500... ho preso 2000 punti ... ho poi cloccato la vga, ma ogni volta che clocco non aumenta un cavolo in punteggio!!! Credo che quando aumento il clock della vga ridivendo paurosamente cpu limited...ho dedotto bene?

cpu limited. palese

appleroof
06-12-2007, 13:50
qualcuno ha provato i 169.13?

YANEZ84
06-12-2007, 14:10
qualcuno ha provato i 169.13?


io gli ho provati e devo dire che giocando a 1600x1200 a effetti elevati a crysis gioco sulla media dei 35 fps

appleroof
06-12-2007, 14:15
io gli ho provati e devo dire che giocando a 1600x1200 a effetti elevati a crysis gioco sulla media dei 35 fps

azz....mi sà che li provo, grazie ;)

YANEZ84
06-12-2007, 14:27
azz....mi sà che li provo, grazie ;)

prego :D

I soliti sospetti
06-12-2007, 14:34
azz....mi sà che li provo, grazie ;)

Mi sa che li provo pure io :sofico: :D

Alexkidd85
06-12-2007, 14:39
io gli ho provati e devo dire che giocando a 1600x1200 a effetti elevati a crysis gioco sulla media dei 35 fps

Siamo nella norma comunque,senza AA e AF senza sbloccare i very high,gli fps sono dai 30 ai 32... ;)

Alexkidd85
06-12-2007, 14:53
OT un secondino....che vale anche come consiglio.

La riassumo in breve: Avevo 80 gb liberi


Gioco a Crysis un paio di giorni fa...stacco e guardo l'hd e vedo "40 gb liberi" e la mia faccia era questa ---->:stordita:
Dico: "ricordo male io"

Mi completo Crysis,continuo Bioshock e arrivati negli ultimi livelli scatticchia e già mi era preso il nervoso,vado per salvare velocemente....errore sul salvataggio e siamo qua ---->:doh:

Meno male che faccio sempre salvataggi di backup ma la faccia in ogni caso era ovviamente questa -----> :mad:

Esco e mi trovo un iconcina gialla nella barra detta in maniera comune "dell'orologio" che ovviamente è la simpatica iconcina gialla con il punto esclamativo che mi avverte "spazio su disco insufficente"
A questo punto siamo qua ----->:eek:

Penso in maniera molto ma molto vaga che bioshock aveva dati temporanei grandissimi e che riavviando il problema si risolveva ma niente.
Disinstallo 2 giochi,rigioco e 10 gb in mezz'oretta vanna via.... --->:rolleyes:
Controllo bene le cartelle,specie "programmi" e vedi 119gb...mah... --->:mbe:
Ancora 2 giochi alla gogna...

Rigioco,ancora spazio su disco insufficente....

Sclero totale e incomincio a spulciare..
Alteratissimo rivado su programmi,se c'è qualche temporaneo non cancellato stavolta lo becco...controllo "129 gb"....
dico "inkia"..."qua sei!!"
Seleziono tutti giochi che erano rimasti :30 gb.....nella norma.....l'inghippo non è qua.
Allora a 4 a 4 seleziono le cartelle...........


.... FRAPS 80GB!! :eek:

Morale: cambiate il tasto di salvataggio video perché avevo tanti figlioletti da 4 gb a testa che riprendevano le mie imprese eroiche a crysis e bioshock :sofico:

I soliti sospetti
06-12-2007, 15:07
Siamo nella norma comunque,senza AA e AF senza sbloccare i very high,gli fps sono dai 30 ai 32... ;)
Ma giochi su XP quindi?
OT un secondino....che vale anche come consiglio.

La riassumo in breve: Avevo 80 gb liberi


Gioco a Crysis un paio di giorni fa...stacco e guardo l'hd e vedo "40 gb liberi" e la mia faccia era questa ---->:stordita:
Dico: "ricordo male io"

Mi completo Crysis,continuo Bioshock e arrivati negli ultimi livelli scatticchia e già mi era preso il nervoso,vado per salvare velocemente....errore sul salvataggio e siamo qua ---->:doh:

Meno male che faccio sempre salvataggi di backup ma la faccia in ogni caso era ovviamente questa -----> :mad:

Esco e mi trovo un iconcina gialla nella barra detta in maniera comune "dell'orologio" che ovviamente è la simpatica iconcina gialla con il punto esclamativo che mi avverte "spazio su disco insufficente"
A questo punto siamo qua ----->:eek:

Penso in maniera molto ma molto vaga che bioshock aveva dati temporanei grandissimi e che riavviando il problema si risolveva ma niente.
Disinstallo 2 giochi,rigioco e 10 gb in mezz'oretta vanna via.... --->:rolleyes:
Controllo bene le cartelle,specie "programmi" e vedi 119gb...mah... --->:mbe:
Ancora 2 giochi alla gogna...

Rigioco,ancora spazio su disco insufficente....

Sclero totale e incomincio a spulciare..
Alteratissimo rivado su programmi,se c'è qualche temporaneo non cancellato stavolta lo becco...controllo "129 gb"....
dico "inkia"..."qua sei!!"
Seleziono tutti giochi che erano rimasti :30 gb.....nella norma.....l'inghippo non è qua.
Allora a 4 a 4 seleziono le cartelle...........


.... FRAPS 80GB!! :eek:

Morale: cambiate il tasto di salvataggio video perché avevo tanti figlioletti da 4 gb a testa che riprendevano le mie imprese eroiche a crysis e bioshock :sofico:
Tu fai il comico vero??Dillo!!:D

Alexkidd85
06-12-2007, 15:17
Ma giochi su XP quindi?

Aimé....vista non mi si installa mi fa un errore da quando ho cambiato sistema. Comunque ora che ho completato Crysis e Bioshock posso perderci la testa qualche altro giorno per sto problema.
GOW,COD4 e Lost Planet possono aspettare...i primi 2 no :p

Tu fai il comico vero??Dillo!!:D

Hai presente "pino dei palazzi!?" ...sono io :asd:

Booyaka
06-12-2007, 15:26
Morale: cambiate il tasto di salvataggio video perché avevo tanti figlioletti da 4 gb a testa che riprendevano le mie imprese eroiche a crysis e bioshock :sofico:

:sbonk:

Cmq la possima volta magari usa "Cerca" e metti le cartelle in ordine di grandezza

Tornando IT, mi spiegate come fanno ad aumentarvi gli FPS con i nuovi Beta?

- Beta driver for GeForce 6, 7, and 8 series GPUs.
- Increased SLI performance in Crysis (official Crysis patch much also be installed).
- Fixes a resume from Sleep/Hibernate issue with GeForce 8800 GT.

Niente SLI (almeno fino al 2008 poi appena esce la 9800 mi sa che metto su un'altra GTX :O ), la GT la lasciamo al gatto...mi sa che resto con i 169.09

Cmq, 169.03, 09, 12, 13 tutti Beta per Crysis...madò che mafia che ci deve essere dietro ad Crytek e Nvidia :asd:

appleroof
06-12-2007, 15:57
OT un secondino....che vale anche come consiglio.

La riassumo in breve: Avevo 80 gb liberi


Gioco a Crysis un paio di giorni fa...stacco e guardo l'hd e vedo "40 gb liberi" e la mia faccia era questa ---->:stordita:
Dico: "ricordo male io"

Mi completo Crysis,continuo Bioshock e arrivati negli ultimi livelli scatticchia e già mi era preso il nervoso,vado per salvare velocemente....errore sul salvataggio e siamo qua ---->:doh:

Meno male che faccio sempre salvataggi di backup ma la faccia in ogni caso era ovviamente questa -----> :mad:

Esco e mi trovo un iconcina gialla nella barra detta in maniera comune "dell'orologio" che ovviamente è la simpatica iconcina gialla con il punto esclamativo che mi avverte "spazio su disco insufficente"
A questo punto siamo qua ----->:eek:

Penso in maniera molto ma molto vaga che bioshock aveva dati temporanei grandissimi e che riavviando il problema si risolveva ma niente.
Disinstallo 2 giochi,rigioco e 10 gb in mezz'oretta vanna via.... --->:rolleyes:
Controllo bene le cartelle,specie "programmi" e vedi 119gb...mah... --->:mbe:
Ancora 2 giochi alla gogna...

Rigioco,ancora spazio su disco insufficente....

Sclero totale e incomincio a spulciare..
Alteratissimo rivado su programmi,se c'è qualche temporaneo non cancellato stavolta lo becco...controllo "129 gb"....
dico "inkia"..."qua sei!!"
Seleziono tutti giochi che erano rimasti :30 gb.....nella norma.....l'inghippo non è qua.
Allora a 4 a 4 seleziono le cartelle...........


.... FRAPS 80GB!! :eek:

Morale: cambiate il tasto di salvataggio video perché avevo tanti figlioletti da 4 gb a testa che riprendevano le mie imprese eroiche a crysis e bioshock :sofico:

:D :D :D

Aimé....vista non mi si installa mi fa un errore da quando ho cambiato sistema. Comunque ora che ho completato Crysis e Bioshock posso perderci la testa qualche altro giorno per sto problema.
GOW,COD4 e Lost Planet possono aspettare...i primi 2 no :p

sono 2 giochi stupendi, per un motivo o per l'altro, io ho giocato prima cod4 e adesso gli stò dando con gow, che cmq superato lo sconcerto iniziale è forse ancora più bello di cod4, perchè ha diciamo così, più "spessore" non so se mi spiego :p

inutile dire che con la nostra vga volano: gow 1920x1200 tutto max aass4x af16x non scende mai sotto 50 fps :)

Hai presente "pino dei palazzi!?" ...sono io :asd:

:D :D c'hai na ssssigaretta?? :D :D

Alexkidd85
06-12-2007, 16:22
:sbonk:

Cmq la possima volta magari usa "Cerca" e metti le cartelle in ordine di grandezza

Tornando IT, mi spiegate come fanno ad aumentarvi gli FPS con i nuovi Beta?

- Beta driver for GeForce 6, 7, and 8 series GPUs.
- Increased SLI performance in Crysis (official Crysis patch much also be installed).
- Fixes a resume from Sleep/Hibernate issue with GeForce 8800 GT.

Niente SLI (almeno fino al 2008 poi appena esce la 9800 mi sa che metto su un'altra GTX :O ), la GT la lasciamo al gatto...mi sa che resto con i 169.09

Cmq, 169.03, 09, 12, 13 tutti Beta per Crysis...madò che mafia che ci deve essere dietro ad Crytek e Nvidia :asd:

Con le cartelle non ordina niente :D
Più che mafia è "collaborazione" ... :p

:D :D :D



sono 2 giochi stupendi, per un motivo o per l'altro, io ho giocato prima cod4 e adesso gli stò dando con gow, che cmq superato lo sconcerto iniziale è forse ancora più bello di cod4, perchè ha diciamo così, più "spessore" non so se mi spiego :p

inutile dire che con la nostra vga volano: gow 1920x1200 tutto max aass4x af16x non scende mai sotto 50 fps :)



:D :D c'hai na ssssigaretta?? :D :D

Ah beh,quello si....però GOW con tuti quei bug mi ha fatto passar la voglia e COD4 sarà il prossimo ad essere giocato,anche se ripeto,mi sembra tutto vecchio :(

appleroof
06-12-2007, 16:25
Con le cartelle non ordina niente :D
Più che mafia è "collaborazione" ... :p



Ah beh,quello si....però GOW con tuti quei bug mi ha fatto passar la voglia e COD4 sarà il prossimo ad essere giocato,anche se ripeto,mi sembra tutto vecchio :(

bè sicuramente dopo aver giocato crysis quelli ti sembrano vecchi di sicuro graficamente (più gow che cod4 secondo me), però sono dei gioconi cmq e meritano di essere giocati secondo me ;)

Alexkidd85
06-12-2007, 16:41
bè sicuramente dopo aver giocato crysis quelli ti sembrano vecchi di sicuro graficamente (più gow che cod4 secondo me), però sono dei gioconi cmq e meritano di essere giocati secondo me ;)

Saranno i prossimi infatti...LOST PLANET,COD4 e GOW in ordine...
Lost planet mi intriga la storia,il gameplay non è niente di che....però ormai sono a metà e lo continuo :)

PS
Forza altri tre e :ubriachi: :asd:

I soliti sospetti
06-12-2007, 16:57
Saranno i prossimi infatti...LOST PLANET,COD4 e GOW in ordine...
Lost planet mi intriga la storia,il gameplay non è niente di che....però ormai sono a metà e lo continuo :)

PS
Forza altri tre e :ubriachi: :asd:

Lost Planet me lo hanno dato con la scheda... quasi quasi lo provo:D
Certo... a 650/1620/2000 mi regge anche con Crysis dopo un paio di ore... però... ammazza come scalda cavolo con quel gioco!!:rolleyes:

I soliti sospetti
06-12-2007, 17:26
Scusate... ma i driver di cui parlate sono i 169.13?Dove li prendete?:confused:

EDIT: trovati :fagiano: :D

The-Revenge
07-12-2007, 13:04
ragazzi vi volevo fare una domanda, volevo sapere i migliori parametri da impostare nell pannello principale di nvidia, attualmente ho il vsync disattivato, e AA e AF li ho lasciati scegliere dall'applicazione...
se avete qualcosa importante da conisgliarmi di cambiare fatelo pure
grazie

appleroof
07-12-2007, 13:32
ragazzi vi volevo fare una domanda, volevo sapere i migliori parametri da impostare nell pannello principale di nvidia, attualmente ho il vsync disattivato, e AA e AF li ho lasciati scegliere dall'applicazione...
se avete qualcosa importante da conisgliarmi di cambiare fatelo pure
grazie

la 8800gtx ha una gestione del filtro anisotropico eccellente, per cui direi che ti conviene metterlo fisso a 16x piuttosto che lasciarlo default (inutilizzato nel 99% dei casi, visto che in game raramente hai l'opzione per attivarlo, a differenza dell'aa) poi l'aa io ho settato quello "correzione gamma" attivato quando l'ho comprata e non lo mai più tolto :D mentre gli altri settaggi di aa li segli in base al gioco

cmq se clicchi sulla singola impostazione ti esce una descrzione dell'impostazione stessa che ti può aiutare a scegliere il settaggio più adatto alle tue esigenze ;)

Mainas
07-12-2007, 13:41
ieri sera ho provato ad eseguire giochi per la prima volta... giusto per partire ho messo Half Life 2 e Half Life 2: Episode 1, 1920x1200 tutto al massimo, una fluidità esagerata... che goduria :D

appena avrò ritirato e installato sistema operativo giusto si farà sul serio :D

The-Revenge
07-12-2007, 13:48
la 8800gtx ha una gestione del filtro anisotropico eccellente, per cui direi che ti conviene metterlo fisso a 16x piuttosto che lasciarlo default (inutilizzato nel 99% dei casi, visto che in game raramente hai l'opzione per attivarlo, a differenza dell'aa) poi l'aa io ho settato quello "correzione gamma" attivato quando l'ho comprata e non lo mai più tolto :D mentre gli altri settaggi di aa li segli in base al gioco

cmq se clicchi sulla singola impostazione ti esce una descrzione dell'impostazione stessa che ti può aiutare a scegliere il settaggio più adatto alle tue esigenze ;)
ok...allora l'AF lo rimesso a 16, il gamma correction era già su ON...per la descrizione , hai ragione che c'è, ma siccome non mastico l'inglese ho provato a leggere ma non ci ho capito nulla :cry:

appleroof
07-12-2007, 13:56
ok...allora l'AF lo rimesso a 16, il gamma correction era già su ON...per la descrizione , hai ragione che c'è, ma siccome non mastico l'inglese ho provato a leggere ma non ci ho capito nulla :cry:

prova a mettere i driver che trovi sul sito nvidia.it, sono appunto in italiano ;)

The-Revenge
07-12-2007, 14:10
prova a mettere i driver che trovi sul sito nvidia.it, sono appunto in italiano ;)
ok bene...ora ci provo...un altra cosa, sapete dirmi dove si forza il v-sync sul pannello di controllo? lo devi forzare per un gioco ma non lo trovo...grazie

vicius80
07-12-2007, 14:19
raga qualcuno mi può dire avendo rivatuner 2.05 come si occa la schedozza? premetto che attualmente ho 50° con ventola a 100% e driver 169.09. Grazie;)

Non c'è nessuno che mi può aiutare???:help:

The-Revenge
07-12-2007, 15:12
ok bene...ora ci provo...un altra cosa, sapete dirmi dove si forza il v-sync sul pannello di controllo? lo devi forzare per un gioco ma non lo trovo...grazie
raga oltre a questa domanda volevo anche sapere quali sono gli ultimi driver per windows XP 32...sul sito porta i 163.75 però rilasciati a novembre..sono questi? contengono anche, per caso, il pannello di nvidia in italiano?
grazie ciao

illidan2000
07-12-2007, 15:55
raga oltre a questa domanda volevo anche sapere quali sono gli ultimi driver per windows XP 32...sul sito porta i 163.75 però rilasciati a novembre..sono questi? contengono anche, per caso, il pannello di nvidia in italiano?
grazie ciao
ci sono pure i beta di ieri, se ti va di fare prove

bellerofonte1986
07-12-2007, 17:49
ragazzi ho appena finito di montare il mio nuovo pc in sign e volevo sapere se queste temperature sono nella norma (prese da everest):

GPU1: GPU 67 °C
GPU1: Diodo GPU 79 °C
GPU1: Memoria GPU 67 °C
GPU1: Ambiente GPU 54 °C


GPU2: GPU 72 °C
GPU2: Diodo GPU 74 °C
GPU2: Memoria GPU 72 °C
GPU2: Ambiente GPU 68 °C

volevo sapere una cosa ma la temperatura giusta della gpu è
- GPU
- diodo GPU ?

sono tutte temperature a default........

grazie a tutti

trentemoller
07-12-2007, 18:28
OT un secondino....che vale anche come consiglio.

La riassumo in breve: Avevo 80 gb liberi


Gioco a Crysis un paio di giorni fa...stacco e guardo l'hd e vedo "40 gb liberi" e la mia faccia era questa ---->:stordita:
Dico: "ricordo male io"

Mi completo Crysis,continuo Bioshock e arrivati negli ultimi livelli scatticchia e già mi era preso il nervoso,vado per salvare velocemente....errore sul salvataggio e siamo qua ---->:doh:

Meno male che faccio sempre salvataggi di backup ma la faccia in ogni caso era ovviamente questa -----> :mad:

Esco e mi trovo un iconcina gialla nella barra detta in maniera comune "dell'orologio" che ovviamente è la simpatica iconcina gialla con il punto esclamativo che mi avverte "spazio su disco insufficente"
A questo punto siamo qua ----->:eek:

Penso in maniera molto ma molto vaga che bioshock aveva dati temporanei grandissimi e che riavviando il problema si risolveva ma niente.
Disinstallo 2 giochi,rigioco e 10 gb in mezz'oretta vanna via.... --->:rolleyes:
Controllo bene le cartelle,specie "programmi" e vedi 119gb...mah... --->:mbe:
Ancora 2 giochi alla gogna...

Rigioco,ancora spazio su disco insufficente....

Sclero totale e incomincio a spulciare..
Alteratissimo rivado su programmi,se c'è qualche temporaneo non cancellato stavolta lo becco...controllo "129 gb"....
dico "inkia"..."qua sei!!"
Seleziono tutti giochi che erano rimasti :30 gb.....nella norma.....l'inghippo non è qua.
Allora a 4 a 4 seleziono le cartelle...........


.... FRAPS 80GB!! :eek:

Morale: cambiate il tasto di salvataggio video perché avevo tanti figlioletti da 4 gb a testa che riprendevano le mie imprese eroiche a crysis e bioshock :sofico:

per curiosità sono andato a controllare, cartella FRAPS 16,4GB tutti video di crysis che mi erano partiti così.. grazie cmq :D

Alexkidd85
07-12-2007, 18:41
per curiosità sono andato a controllare, cartella FRAPS 16,4GB tutti video di crysis che mi erano partiti così.. grazie cmq :D

;)
A mo' di minchiata che mi è successa...mi sa che un bel po controlleranno :D

martinez1983
07-12-2007, 20:06
ragazzi ho appena finito di montare il mio nuovo pc in sign e volevo sapere se queste temperature sono nella norma (prese da everest):

GPU1: GPU 67 °C
GPU1: Diodo GPU 79 °C
GPU1: Memoria GPU 67 °C
GPU1: Ambiente GPU 54 °C


GPU2: GPU 72 °C
GPU2: Diodo GPU 74 °C
GPU2: Memoria GPU 72 °C
GPU2: Ambiente GPU 68 °C

volevo sapere una cosa ma la temperatura giusta della gpu è
- GPU
- diodo GPU ?

sono tutte temperature a default........

grazie a tutti

Non ti so dire esattamente qual' è quella giusta da prendere,però in generale direi che siamo un po alti in generale!!!!!!
Le mie due segnano in questo momento 50 e 51 gradi con l'aria esterna alcase di 17,4.

Ma hai messo almeno una ventola diretta alle 2 schede?????

@danieleok@
07-12-2007, 20:11
Ragazzi perchè non vedo gli shader da cloccare col riva 2.06? Prima di formattare e reinstallare tutto li vedevo :( :cry: :cry: :cry:

@danieleok@
08-12-2007, 12:11
Ragazzi perchè non vedo gli shader da cloccare col riva 2.06? Prima di formattare e reinstallare tutto li vedevo :( :cry: :cry: :cry:

Risolto!!

I soliti sospetti
08-12-2007, 12:27
Risolto!!

Meglio ;)

P.S. cos'era?

@danieleok@
08-12-2007, 12:48
Meglio ;)

P.S. cos'era?

I driver :D Ho esso su gli ultimi e adesso me li da senza spuntare nulla. Misteri :O


PS mi sono accorto che sono tremendamente cpu limited ragazzi. Al 3d mark 2006 faccio 8890 punti... che schifo... con cpu a 2300 mhz perchè non so il motivo , non mi regge piu nulla :cry:
Comunque mi rimaneva solamente di scartare il cpu test ed analizzare le performance della vga:
Smart2.0= 3666
Smart3.0/HDR= 4727

Direi che sono in linea per i 3.0 ma i 2.0 mi sembrano bassini...dovuto alla cpu credo vero?

Alexkidd85
08-12-2007, 13:01
I driver :D Ho esso su gli ultimi e adesso me li da senza spuntare nulla. Misteri :O


PS mi sono accorto che sono tremendamente cpu limited ragazzi. Al 3d mark 2006 faccio 8890 punti... che schifo... con cpu a 2300 mhz perchè non so il motivo , non mi regge piu nulla :cry:
Comunque mi rimaneva solamente di scartare il cpu test ed analizzare le performance della vga:
Smart2.0= 3666
Smart3.0/HDR= 4727

Direi che sono in linea per i 3.0 ma i 2.0 mi sembrano bassini...dovuto alla cpu credo vero?

Ovvio,limiti la vga anche.
Con un opty a 2900 facevo 10500....;) Per regolarti...

bellerofonte1986
08-12-2007, 13:12
salve ragazzi....... avrei un problemino......... vorrei vedere le temp delle vga mentre gioco o mentre è in esecuzione il 3dmark sul display della G15 ma rivatuner non funziona mi dice che devo disabilitare la firma driver ma non so come fare...........:help:

ho letto in giro che esiste un fix per rivatuner ma non lo trovo.....

oppure bisogna disinstallare due aggiornamenti microsoft........

che dite ntune va bene uguale ma con quello non ho la possibilità di vedere le info sul display.............

ovviamente ho vista ultimate x64

Alexkidd85
08-12-2007, 13:43
salve ragazzi....... avrei un problemino......... vorrei vedere le temp delle vga mentre gioco o mentre è in esecuzione il 3dmark sul display della G15 ma rivatuner non funziona mi dice che devo disabilitare la firma driver ma non so come fare...........:help:

ho letto in giro che esiste un fix per rivatuner ma non lo trovo.....

oppure bisogna disinstallare due aggiornamenti microsoft........

che dite ntune va bene uguale ma con quello non ho la possibilità di vedere le info sul display.............

ovviamente ho vista ultimate x64

Ah con vista a 64 non ti so dire...puoi usare everest e lasciarlo in esecuzione al massimo....non penso che ad un quad gli dia fastidio :asd:
Ed ha la visualizzazione sulla nostra amata G15 ;)

bellerofonte1986
08-12-2007, 20:31
Ah con vista a 64 non ti so dire...puoi usare everest e lasciarlo in esecuzione al massimo....non penso che ad un quad gli dia fastidio :asd:
Ed ha la visualizzazione sulla nostra amata G15 ;)

si ma le gpu con che programma le overclocco????????:rolleyes: :confused: :muro:

cmq credo che tolgo i due aggiornamenti microsoft che obbligano al firma digitale e poi giù di overclock........:cool:

cmq ora le temp sono di 60-65 gradi rispetto ai 70-75 di ieri.......... oggi ho fatto tre sessioni di 3dmark06 e credo che piano piano si sta adattando la pasta termica che c'è sulle gpu...........:D

parlando di 3dmark06: mi viene fuori un punteggio di 13000 e rotti punti, non vi sembrano alquanto pochi per uno sli di gtx + un q6600...... parliamo di tutto a default ma credo che dovrei stare sui 15000-16000.......

forse mi sbaglio.

voi quanto fate con:
- GTX @ default
- GTX @ overclock
- SLI GTX @ default

più che altro per curiosità non che mi faccia problemi il 3dmark ma coem detto solo per curiosità............

un'altra cosa come faccio a vedere se mi funziona anche la seconda gtx in sli o se invece rimane ferma (sempre giocando o eseguendo un benchk)......??

Alexkidd85
08-12-2007, 21:38
si ma le gpu con che programma le overclocco????????:rolleyes: :confused: :muro:

cmq credo che tolgo i due aggiornamenti microsoft che obbligano al firma digitale e poi giù di overclock........:cool:

cmq ora le temp sono di 60-65 gradi rispetto ai 70-75 di ieri.......... oggi ho fatto tre sessioni di 3dmark06 e credo che piano piano si sta adattando la pasta termica che c'è sulle gpu...........:D

parlando di 3dmark06: mi viene fuori un punteggio di 13000 e rotti punti, non vi sembrano alquanto pochi per uno sli di gtx + un q6600...... parliamo di tutto a default ma credo che dovrei stare sui 15000-16000.......

forse mi sbaglio.



voi quanto fate con:
- GTX @ default
- GTX @ overclock
- SLI GTX @ default

più che altro per curiosità non che mi faccia problemi il 3dmark ma coem detto solo per curiosità............

un'altra cosa come faccio a vedere se mi funziona anche la seconda gtx in sli o se invece rimane ferma (sempre giocando o eseguendo un benchk)......??

Ho frettissima non ho letto le frequenze e i risultati con attenzione....

Per la firma
cito "Andare a prompt dei comandi con diritti amministrativi e digitare

bcdedit /set loadoptions DDISABLE_INTEGRITY_CHECKS

e fare un reboot"

;) try it

bellerofonte1986
09-12-2007, 16:31
Ho frettissima non ho letto le frequenze e i risultati con attenzione....

Per la firma
cito "Andare a prompt dei comandi con diritti amministrativi e digitare

bcdedit /set loadoptions DDISABLE_INTEGRITY_CHECKS

e fare un reboot"

;) try it

grazie di tutto ma cmq non ho risolto..........

sono entrato come amministratore nei prompt ho scritto la stringa...... mi dice accesso eseguito ma vado per riaprire rivatuner ma nulla (senza riavviare)...... ora provo riavviando....... ma non credo funziona........

anche io avevo visto questa stringa ma ho letto che funziona solo se non si ha installato le due parch microsoft che dicevo prima........ una volta installate le patch (soprattutto una) ti toglie l'accesso al kernel da parte di driver senza firma digitale........

quindi l'unica è disinstallare le due patch....... e credo proprio che farò così

cmq ancora grazie e quando hai un po di tempo (senza urgenza) mi potresti verificare anche le altre cose che avevo chiesto:
- punteggio 3dmark06
- verificare le temperature a default e in idle
- come posso verificare l'effettiva funzionalità della seconda gtx in sli

ancora grazie mille.:D

ISOLA
09-12-2007, 20:57
cavolo a me company of heroes opposing fronts(l'espansione) mi crasha con gli ultimi driver beta 169.13....ho letot che ci sono i 169.17 adesso provo a installarli,porca miseria....che rosik.

Ho letto un pò in giro,con gli ultimi driver beta,direi dai 169.02 in poi company of heroes in directx10 è un pò sputtanato...io spero facciano uscire driver decenti per tutti i giochi nn solo ottimizzati per crysis....speriamo

Alexkidd85
09-12-2007, 21:49
grazie di tutto ma cmq non ho risolto..........

sono entrato come amministratore nei prompt ho scritto la stringa...... mi dice accesso eseguito ma vado per riaprire rivatuner ma nulla (senza riavviare)...... ora provo riavviando....... ma non credo funziona........

anche io avevo visto questa stringa ma ho letto che funziona solo se non si ha installato le due parch microsoft che dicevo prima........ una volta installate le patch (soprattutto una) ti toglie l'accesso al kernel da parte di driver senza firma digitale........

quindi l'unica è disinstallare le due patch....... e credo proprio che farò così

cmq ancora grazie e quando hai un po di tempo (senza urgenza) mi potresti verificare anche le altre cose che avevo chiesto:
- punteggio 3dmark06
- verificare le temperature a default e in idle
- come posso verificare l'effettiva funzionalità della seconda gtx in sli

ancora grazie mille.:D

Ora comunque devo installarlo anche io il riva tuner su vista...

Le temperature non le ricordo ma io sono anomalo avevo tutte le ventole per uno stacker,lo stacker che già di suo tiene fresco ed il crossflow...quindi non so dirti.
Penso che tutto a default sei di poco sotto ma neanche tanto,dovresti fare sui 14000.
Con 2 vga e la cpu ancora a 2.4 penso che le stai comunque troncando tanto su quel test. Sono trocate le nostre,pensa le tue :asd:
Dai potenza al procio e alla gpu con mem e guarda come tocchi i 18000 ;)

cavolo a me company of heroes opposing fronts(l'espansione) mi crasha con gli ultimi driver beta 169.13....ho letot che ci sono i 169.17 adesso provo a installarli,porca miseria....che rosik.

Ho letto un pò in giro,con gli ultimi driver beta,direi dai 169.02 in poi company of heroes in directx10 è un pò sputtanato...io spero facciano uscire driver decenti per tutti i giochi nn solo ottimizzati per crysis....speriamo

Basta betaaaaaaaa :D

ISOLA
09-12-2007, 22:24
Ora comunque devo installarlo anche io il riva tuner su vista...

Le temperature non le ricordo ma io sono anomalo avevo tutte le ventole per uno stacker,lo stacker che già di suo tiene fresco ed il crossflow...quindi non so dirti.
Penso che tutto a default sei di poco sotto ma neanche tanto,dovresti fare sui 14000.
Con 2 vga e la cpu ancora a 2.4 penso che le stai comunque troncando tanto su quel test. Sono trocate le nostre,pensa le tue :asd:
Dai potenza al procio e alla gpu con mem e guarda come tocchi i 18000 ;)



Basta betaaaaaaaa :D

hai ragione hai ragione

Infatti con i penultimi ufficiali,quali erano i 163.75?andavo bene con OF

Però ho un prob,quando disinstallavo i driver ufficiali ,il pc mi si frezzava,black screen e l'ultima volta si riavviava da solo (win vista 32bit) mentre se disinstallo i beta nn succede nulla,ovvero mi chiede normalmente se voglio riavviare o meno.

Alexkidd85
09-12-2007, 22:50
hai ragione hai ragione

Infatti con i penultimi ufficiali,quali erano i 163.75?andavo bene con OF

Però ho un prob,quando disinstallavo i driver ufficiali ,il pc mi si frezzava,black screen e l'ultima volta si riavviava da solo (win vista 32bit) mentre se disinstallo i beta nn succede nulla,ovvero mi chiede normalmente se voglio riavviare o meno.

No non hai capito .... :D
Vanno benissimo i beta. sono sempre migliorie anche se a volte non lo sono :)
E' che uno non fa in tempo ad installarli che il giorno dopo escono i nuovi :mad:

tony73
10-12-2007, 09:18
PS mi sono accorto che sono tremendamente cpu limited ragazzi. Al 3d mark 2006 faccio 8890 punti... che schifo...

Direi che sono in linea per i 3.0 ma i 2.0 mi sembrano bassini...dovuto alla cpu credo vero?


Ma con la scheda a default vero? almeno 9300 li dovresti fare a 2,7ghz, io almeno li facevo (adesso a 3,1Ghz faccio 11K punti, tantissimo per un opty), cmq non ti preoccupare nei giochi la differenza con intel non è come nei bench fortunatamente, a pari frequenza ovviamente.

@danieleok@
10-12-2007, 11:37
Ma con la scheda a default vero? almeno 9300 li dovresti fare a 2,7ghz, io almeno li facevo (adesso a 3,1Ghz faccio 11K punti, tantissimo per un opty), cmq non ti preoccupare nei giochi la differenza con intel non è come nei bench fortunatamente, a pari frequenza ovviamente.


L'ho messo su a 2500 mhz....sono balzato da 8 e rotti a 9580 :O :O :O
attendo ordine q6600 :D:D :D :D :D

Beseitfia
10-12-2007, 12:43
Ragazzi mi dareste una mano a overclockare la mia 8800 GTX della XFX?? Ho scaricato l ultima versione di Riva Tuner e Everest. Premetto che il dissi e la ventola montate sulla scheda sono quelli originali e quindi non so se convenga molto overclockare....Comunque aprendo riva tuner , che devo fare ?? Cambiare anche il rendering 2d?? O solo performance 3d?? Poi come faccio ad impostare la ventola?? Non mi fa cambiare la velocita'....

Alexkidd85
10-12-2007, 13:05
Ragazzi mi dareste una mano a overclockare la mia 8800 GTX della XFX?? Ho scaricato l ultima versione di Riva Tuner e Everest. Premetto che il dissi e la ventola montate sulla scheda sono quelli originali e quindi non so se convenga molto overclockare....Comunque aprendo riva tuner , che devo fare ?? Cambiare anche il rendering 2d?? O solo performance 3d?? Poi come faccio ad impostare la ventola?? Non mi fa cambiare la velocita'....

Conviene che ti leggi una guida. googla "riva tuner guida" e te la leggi...poi semai torni e ci chiedi info. ;)

bellerofonte1986
10-12-2007, 19:18
Ora comunque devo installarlo anche io il riva tuner su vista...

Le temperature non le ricordo ma io sono anomalo avevo tutte le ventole per uno stacker,lo stacker che già di suo tiene fresco ed il crossflow...quindi non so dirti.
Penso che tutto a default sei di poco sotto ma neanche tanto,dovresti fare sui 14000.
Con 2 vga e la cpu ancora a 2.4 penso che le stai comunque troncando tanto su quel test. Sono trocate le nostre,pensa le tue :asd:
Dai potenza al procio e alla gpu con mem e guarda come tocchi i 18000 ;)

bene quindi metti vista anche tu?? che versione 32 o 64 bit? secondo me non te ne pentirai....... io non tornerei per nulla al mondo su xp........

allora riassumendo:
- secondo te la seconda gtx in sli funziona ma viene troncata molto dalla frequenza del processore (così come la prima)........... quindi dovrei prima aumentare la freq della cpu e della gpu (gpu - ram - shader)............... e poi come dici dovrei toccare quota 18000-19000. giusto? ho capito bene

non che mi freghi molto del punteggio del 3dmark ma il mio era solo un modo per verificare SOPRATTUTTO se la seconda gtx funziona e anche le temperature........

non le vorrei spremere tanto in questi giorni ma un poco per volta in quanto appena prese le ho montate e avevo delle temp di 70-75 (prima e seconda gtx) ora dopo aver fatto 2 3dmark06 sono scese a 60-65....... quindi deduco che mano a mano e poco per volta si stia assestando la pasta termica.... giusto? o sto dicendo una marea di ca***te

una domanda: quando sarò riuscito finalmente ad usare rivatuner su vista x64 come si fa ad overcloccare le due gtx insieme .......... cioè se overclocco una gtx anche l'altra avrà le stesse frequenze (gpu - ram - shader) oppure c'è un menù per tutte e due separate........ scusa ma vengo da una bliss 7800gs+ su agp quindi sono poco pratico di sli...........:D

mille grazie per la tua pazienza e per le info utilissime.:D :sofico:

Alexkidd85
10-12-2007, 19:40
bene quindi metti vista anche tu?? che versione 32 o 64 bit? secondo me non te ne pentirai....... io non tornerei per nulla al mondo su xp........

allora riassumendo:
- secondo te la seconda gtx in sli funziona ma viene troncata molto dalla frequenza del processore (così come la prima)........... quindi dovrei prima aumentare la freq della cpu e della gpu (gpu - ram - shader)............... e poi come dici dovrei toccare quota 18000-19000. giusto? ho capito bene

non che mi freghi molto del punteggio del 3dmark ma il mio era solo un modo per verificare SOPRATTUTTO se la seconda gtx funziona e anche le temperature........

non le vorrei spremere tanto in questi giorni ma un poco per volta in quanto appena prese le ho montate e avevo delle temp di 70-75 (prima e seconda gtx) ora dopo aver fatto 2 3dmark06 sono scese a 60-65....... quindi deduco che mano a mano e poco per volta si stia assestando la pasta termica.... giusto? o sto dicendo una marea di ca***te

una domanda: quando sarò riuscito finalmente ad usare rivatuner su vista x64 come si fa ad overcloccare le due gtx insieme .......... cioè se overclocco una gtx anche l'altra avrà le stesse frequenze (gpu - ram - shader) oppure c'è un menù per tutte e due separate........ scusa ma vengo da una bliss 7800gs+ su agp quindi sono poco pratico di sli...........:D

mille grazie per la tua pazienza e per le info utilissime.:D :sofico:

Non so dirti molto. Mai avuto uno sli ma solo crossfire. Mi sembra che dal pannello nvidia abiliti lo sli e probabilmente con il pannello nvidia puoi gestire l'overclock.
La pasta termica è messa in una maniera incredibilmente orrenda quindi conviene che la rimetti bene(occhio alla garanzia che mi sa che la perdi ma fattelo confermare,non sono sicuro) per guadagnare temp. Comunque reggono anche gli 80° quindi vano bene. E poi scusa ora che è inverno un poco di caldo fa sempre comodo :asd:

Si sei molto troncato dal processore ora e se le fai salire penso che i 18000 li tocchi. Faccio quasi 16000mila io.

PS
Vista lo ebbi all'inizio poi lo lasciai. Xp resta ancora nel mio pc il principale :D
Vista già mi ha fatto incazzare troppe volte ...vedi wireless immaturo :mad:

khael
10-12-2007, 21:03
salve a tutti =)
secondo voi, ha senso acquistare questa vga a buon prezzo rispetto ad una 8800gt? (mi piacer per il fatto del dual slot!)
l'ali, un recom rc 450 (26a su 12v, 28a 3,3, 32a 5v) ce la farà?
resto sistema:
amd 5200+
2gb di ram
scheda tv
1 hd e un mast dvd!
Tks =)

appleroof
10-12-2007, 21:18
salve a tutti =)
secondo voi, ha senso acquistare questa vga a buon prezzo rispetto ad una 8800gt? (mi piacer per il fatto del dual slot!)
l'ali, un recom rc 450 (26a su 12v, 28a 3,3, 32a 5v) ce la farà?
resto sistema:
amd 5200+
2gb di ram
scheda tv
1 hd e un mast dvd!
Tks =)

solo per il dual slot? :doh:

khael
10-12-2007, 22:39
beh ovviamente no,
per il fatto che come prezzo ci siamo, per il fatto che e' superiore alla gts e per il fatto che ha piu' ram che in un futuro con risoluzione fulhd mi potrebbe fare piu' comodo =)
che dite ora?

@danieleok@
10-12-2007, 23:13
Io dico che in futuro su un FULL HD ci sta meglio una gtx ;) Regge meglio i filtri ad alte risoluzioni ;)
E poi la X finale fa pandane con EXTREME che dice la sua in quanto a potenza di nome HAHAHAHAHAHAHAHAAHAHAHHAH!!! ( naturalmente scherzo :D )

Alexkidd85
11-12-2007, 01:54
beh ovviamente no,
per il fatto che come prezzo ci siamo, per il fatto che e' superiore alla gts e per il fatto che ha piu' ram che in un futuro con risoluzione fulhd mi potrebbe fare piu' comodo =)
che dite ora?

Dovresti esserci a pelo. Sei molto limited con quel procio in fullhd. L'alimentatore ha i molex 6 pin su canali separati o sullo stesso canale!? Penso che se li ha sullo stesso canale quando la porti a casa con una mano tieni la scatola e con l'altra ti tocchi il :ciapet: ....per la serie "ti puoi tenere il culs con 2 mani e sperare che il ramo ce la faccia :asd:" :D

Beseitfia
11-12-2007, 06:50
Mi consigliate un buon programma per monitorare la temperatura della scheda?? Con everest mi da 55° in idle e 68 sotto sforzo (crysis) con Riva tuner invece mi da 65° in idle e 75° sotto sforzo...Mi sembra strana la cosa..Secondo voi sono temperature accettabili per overclockare??

illidan2000
11-12-2007, 09:53
Mi consigliate un buon programma per monitorare la temperatura della scheda?? Con everest mi da 55° in idle e 68 sotto sforzo (crysis) con Riva tuner invece mi da 65° in idle e 75° sotto sforzo...Mi sembra strana la cosa..Secondo voi sono temperature accettabili per overclockare??

un pochetto puoi occare

khael
11-12-2007, 10:07
Dovresti esserci a pelo. Sei molto limited con quel procio in fullhd. L'alimentatore ha i molex 6 pin su canali separati o sullo stesso canale!? Penso che se li ha sullo stesso canale quando la porti a casa con una mano tieni la scatola e con l'altra ti tocchi il :ciapet: ....per la serie "ti puoi tenere il culs con 2 mani e sperare che il ramo ce la faccia :asd:" :D

l'ali è da cambiare da qnt ho lett...
gia' con la gts faticava un po'!
Per il fatto della cpu, sto aspettando che escano delle cpu amd a 65nm con freq. elevate che scaldino meno dell'attuale windsor! (tdp 89w)

Alexkidd85
11-12-2007, 14:44
Comunque....GTX ancora su VS GTS OC ;)

Quando le sigle fanno anche le differenze :asd:

nicola001
11-12-2007, 14:57
ragazzi, secondo voi con un ALi Enermax da 460w con 32A su i +12v potrei montare una 8800GTX o magari un Ultra?

Sto cercando di prendermi un VGA nuova(tipo la 8800gts o gt) o una GTX o Ultra usata x sostituire la mia gloriosa 6800@gttina.., da montarla sul sistema che vedete in sign su una DFI Lan party ultra-d(nforce4)

ps: naturalmete più in là poi cambierei cpu-ram-mb- e ali se necessario..

Grazie anticipatamente a tutti..

bob10
11-12-2007, 15:04
ciao a tutti vista l'uscita della gt e della nuova gts 512, ma un calo di prezzo pe la gtx è previsto ?
perche mi sarebbe piaciuto uno sli di pov exo ma co sto andazzo mi sa che lascia' perdere ..

Evangelion01
11-12-2007, 15:26
Come godo, la 8800gtx regge l' assalto delle cugine a 65nm in maniera egregia...
mai acquisto fu più azzeccato.. :D

marco a
11-12-2007, 15:34
Come godo, la 8800gtx regge l' assalto delle cugine a 65nm in maniera egregia...
mai acquisto fu più azzeccato.. :D

esatto contando anche che zitti zitti quelli di hwupgrade hanno testato delle 8800 gts 65 nm ovecloccate di fabbrica quindi il divario a favore della gtx aumenta con le schede a frequenza default... Certo che a questo punto potevano paragonare una 8800 gtx evga ko2 con la gts overcloccata...

appleroof
11-12-2007, 17:32
Come godo, la 8800gtx regge l' assalto delle cugine a 65nm in maniera egregia...
mai acquisto fu più azzeccato.. :D

;)

halduemilauno
11-12-2007, 17:52
Come godo, la 8800gtx regge l' assalto delle cugine a 65nm in maniera egregia...
mai acquisto fu più azzeccato.. :D

perchè le cugine a 65 sono di fascia medioalta. ma praticamente oggi è cmq morta visto che la 8800gts512 la eguaglia pur costando anche 150€ di meno. e con essa(e a maggior ragione, visto il prezzo)la ultra.
http://www.hardware.fr/articles/697-14/dossier-nvidia-geforce-8800-gts-512.html
;)

marco a
11-12-2007, 17:57
perchè le cugine a 65 sono di fascia medioalta. ma praticamente oggi è cmq morta visto che la 8800gts512 la eguaglia pur costando anche 150€ di meno. e con essa(e a maggior ragione, visto il prezzo)la ultra.
http://www.hardware.fr/articles/697-14/dossier-nvidia-geforce-8800-gts-512.html
;)

sarà pure morta ma va molto bene ha 256 mb di ram in più e supporta il triple sli rimane una fascia alta mentre la gts medio alta
e4 non si sa mai che qualche sveglione ora la vende per prendersi la gts e me ne prendo una terza per farmi il triple sli a 4 soldi

halduemilauno
11-12-2007, 18:03
sarà pure morta ma va molto bene ha 256 mb di ram in più e supporta il triple sli rimane una fascia alta mentre la gts medio alta
e4 non si sa mai che qualche sveglione ora la vende per prendersi la gts e me ne prendo una terza per farmi il triple sli a 4 soldi

"La GeForce 8800 GTS 512 MB è interessante sotto alcuni punti di vista. Tenendo conto solo della differenza di "forza bruta" del G92, il 24% superiore a quella della GeForce 8800 GT, potremmo dire che questa scheda può prendere il posto della GeForce 8800 GTX; in alcuni casi è superiore (Age of Empires III, Crysis). Spesso però è inferiore (Test Drive Unlimited, STALKER, Unreal Tournament 3, Call of Duty 4), o è alla pari (Supreme Commander, Oblivion, World In Conflict). Tutto dipende dal gioco e dai suoi effetti shader. Dal punto di vista della memoria, nulla è cambiato rispetto alla GeForce 8800 GT, poiché il guadagno è superiore solo dell'otto percento.

Considerando il prezzo, di 300-350 euro, la scelta tra questa scheda e una 8800 GTX cade in ogni caso chiaramente a favore della nuova GTS, malgrado la GTX sia l'unica a mantenere il supporto per il Triple SLI. Tuttavia, c'è da dire che la 8800 GTX è ormai alla fine della sua carriera, e presto scomparirà dagli scaffali. D'altro canto, il carattere leggermente sbilanciato della nuova 8800 GTS che conta solo sulla forza bruta per offrire prestazioni superiori alla 8800 GT 512 MB mostra i suoi limiti: quest'ultima è più lenta del 10%, ma il suo prezzo è inferiore di circa il 20% . Il rapporto prezzo - prestazioni è ancora a favore della 8800 GT, e la differenza di velocità tra le due schede è troppo limitata per essere realmente significativa.

Insomma, con la GeForce 8800 GTS 512 MB Nvidia presenta una buona scheda da affiancare alla 8800 GT a completamento dell'offerta di fascia media e medio alta. Rispetto alla precedente 8800 GTS, i miglioramenti sono vistosi, pari al 31% in media se confrontiamo con la versione da 640 MB. Per quanto riguarda la disponibilità, Nvidia ha promesso un'elevata quantità di schede. Valuteremo nei prossimi giorni la veridicità di questa affermazione.

Pro

Prestazioni quasi equivalenti a quelle della 8800 GTX a un prezzo nettamente inferiore."

molti l'hanno gia comprata a 289€.
http://www.tomshw.it/graphic.php?guide=20071211
;)

marco a
11-12-2007, 18:15
"La GeForce 8800 GTS 512 MB è interessante sotto alcuni punti di vista. Tenendo conto solo della differenza di "forza bruta" del G92, il 24% superiore a quella della GeForce 8800 GT, potremmo dire che questa scheda può prendere il posto della GeForce 8800 GTX; in alcuni casi è superiore (Age of Empires III, Crysis). Spesso però è inferiore (Test Drive Unlimited, STALKER, Unreal Tournament 3, Call of Duty 4), o è alla pari (Supreme Commander, Oblivion, World In Conflict). Tutto dipende dal gioco e dai suoi effetti shader. Dal punto di vista della memoria, nulla è cambiato rispetto alla GeForce 8800 GT, poiché il guadagno è superiore solo dell'otto percento.

Considerando il prezzo, di 300-350 euro, la scelta tra questa scheda e una 8800 GTX cade in ogni caso chiaramente a favore della nuova GTS, malgrado la GTX sia l'unica a mantenere il supporto per il Triple SLI. Tuttavia, c'è da dire che la 8800 GTX è ormai alla fine della sua carriera, e presto scomparirà dagli scaffali. D'altro canto, il carattere leggermente sbilanciato della nuova 8800 GTS che conta solo sulla forza bruta per offrire prestazioni superiori alla 8800 GT 512 MB mostra i suoi limiti: quest'ultima è più lenta del 10%, ma il suo prezzo è inferiore di circa il 20% . Il rapporto prezzo - prestazioni è ancora a favore della 8800 GT, e la differenza di velocità tra le due schede è troppo limitata per essere realmente significativa.

Insomma, con la GeForce 8800 GTS 512 MB Nvidia presenta una buona scheda da affiancare alla 8800 GT a completamento dell'offerta di fascia media e medio alta. Rispetto alla precedente 8800 GTS, i miglioramenti sono vistosi, pari al 31% in media se confrontiamo con la versione da 640 MB. Per quanto riguarda la disponibilità, Nvidia ha promesso un'elevata quantità di schede. Valuteremo nei prossimi giorni la veridicità di questa affermazione.

Pro

Prestazioni quasi equivalenti a quelle della 8800 GTX a un prezzo nettamente inferiore."

molti l'hanno gia comprata a 289€.
http://www.tomshw.it/graphic.php?guide=20071211
;)

si sicuramente a chi deve comprarla nuova conviene quel che mi chiedo è come mai ci sono prestazioni così discordanti tra la recensione di hwupgrade e quella di tomshw
in quella di hwupgrade la gts nonostante sia overcloccata di fabbrica va quasi in tutto meno della gtx http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_9.html (poi però powerview non vende schede gts overcloccate e già questo deve far riflettere ) Penso che anche tomshw abbia una versione oc sol oche ha omesso il particolare ..
Avrebbero dovuto confrontate la gts oc con la gtx ko2 evga overcloccatqa di fabbrica e li allora saremmo stati alla resa dei conti ...
indubbiamente è un ottima scheda a un buon prezzo, ma mi sa tanto che per spingerla sul mercato come sostituta della gtx si sta giocando sporco...
Secondo me a frequenza di fabbrica si scosterebbe troppo poco dalla gt e un pò più dalla gtx (tanto da non essere percepita come una reale sostituta)

ISOLA
11-12-2007, 18:21
Come godo, la 8800gtx regge l' assalto delle cugine a 65nm in maniera egregia...
mai acquisto fu più azzeccato.. :D
eggià!:cool:


Una cosa è sicura,tra poco uscirà dagli scaffali,però tiene testa di brutto alle nuove nate e anzi in molti casi è avanti!

si sicuramente a chi deve comprarla nuova conviene quel che mi chiedo è come mai ci sono prestazioni così discordanti tra la recensione di hwupgrade e quella di tomshw
in quella di hwupgrade la gts nonostante sia overcloccata di fabbrica va quasi in tutto meno della gtx http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_9.html (poi però powerview non vende schede gts overcloccate e già questo deve far riflettere ) Penso che anche tomshw abbia una versione oc sol oche ha omesso il particolare ..
Avrebbero dovuto confrontate la gts oc con la gtx ko2 evga overcloccatqa di fabbrica e li allora saremmo stati alla resa dei conti ...
indubbiamente è un ottima scheda a un buon prezzo, ma mi sa tanto che per spingerla sul mercato come sostituta della gtx si sta giocando sporco...
Secondo me a frequenza di fabbrica si scosterebbe troppo poco dalla gt e un pò più dalla gtx (tanto da non essere percepita come una reale sostituta)

Probabilmente la GTX sta davanti alla GTS e anche nelle rece di TOm's nella maggior parte dei casi sta davanti in particolare quando c'è bisogno di banda ma la GTX rimane cmq fuori mercato anche se sta davanti,il divario nelle rece di tom's non è così marcato da giustificare il prezzo superiore della GTx.

Mia opinione...poi anche io ho la GTX e una Ultra nel picchio di mio fratello quindi :)

halduemilauno
11-12-2007, 18:42
si sicuramente a chi deve comprarla nuova conviene quel che mi chiedo è come mai ci sono prestazioni così discordanti tra la recensione di hwupgrade e quella di tomshw
in quella di hwupgrade la gts nonostante sia overcloccata di fabbrica va quasi in tutto meno della gtx http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_9.html (poi però powerview non vende schede gts overcloccate e già questo deve far riflettere ) Penso che anche tomshw abbia una versione oc sol oche ha omesso il particolare ..
Avrebbero dovuto confrontate la gts oc con la gtx ko2 evga overcloccatqa di fabbrica e li allora saremmo stati alla resa dei conti ...
indubbiamente è un ottima scheda a un buon prezzo, ma mi sa tanto che per spingerla sul mercato come sostituta della gtx si sta giocando sporco...
Secondo me a frequenza di fabbrica si scosterebbe troppo poco dalla gt e un pò più dalla gtx (tanto da non essere percepita come una reale sostituta)


guarda che la 8800gts512 usata per fare la rece ha un oc blandissimo. è semplicemente una versione con le frequenze arrotondate e poco +. un vero oc avrebbe sdraiato la gtx. lo dico perchè alcuni utenti hanno mostrato cosa hanno ottenuto. 800/1800/2200. e parlo con il dissi standard.
;)

marco a
11-12-2007, 18:57
guarda che la 8800gts512 usata per fare la rece ha un oc blandissimo. è semplicemente una versione con le frequenze arrotondate e poco +. un vero oc avrebbe sdraiato la gtx. lo dico perchè alcuni utenti hanno mostrato cosa hanno ottenuto. 800/1800/2200. e parlo con il dissi standard.
;)

be non penso proprio dato che comunque il chip g92 ha meno rops e a parità di freqeunza va molto ma molto meno!
Nella rece di hwupgrade è sempre dietro alla gtx e ha un clock di 120 mhz in più il chip grafico. e ben 200 mhz 9in più di memoria ...
una gtx la si overclocca facilmente a 650 mhz per il core a pieni rops e gl ishader a 1650 e memoria a 2050 mhz ma con bus a 384 bit e a quel punto non c'è storia per la gts anche overcloccata e ti sto dando dati di oc alla portata di tutti con dissy stock....
a liquido c'è gente che arriva a 700 710 mhz di core sempre con 24 rops e non 16 come la gts nuova

halduemilauno
11-12-2007, 19:01
be non penso proprio dato che comunque il chip g92 ha meno rops e a parità di freqeunza va molto ma molto meno!
Nella rece di hwupgrade è sempre dietro alla gtx e ha un clock di 120 mhz in più il chip grafico. e ben 200 mhz 9in più di memoria ...
una gtx la si overclocca facilmente a 650 mhz per il core a pieni rops e gl ishader a 1650 e memoria a 2050 mhz ma con bus a 384 bit e a quel punto non c'è storia per la gts anche overcloccata e ti sto dando dati di oc alla portata di tutti con dissy stock....
a liquido c'è gente che arriva a 700 710 mhz di core sempre con 24 rops e non 16 come la gts nuova

a pari frequenze. ti risulta che hanno pari frequenze?

appleroof
11-12-2007, 19:05
io credo, leggendo le varie rece, che la gtx mantenga tutto il suo significato sopratutto da 1600x1200 in su, quindi a megarisoluzioni, sotto (compresa la 1680x1050) è meglio prendere la gts65 che va come la gtx ma con margini di oc maggiori, quindi prestazioni potenzialmente migliori...

sarebbe molto interessante vedere un confornto diretto tra le due a 1280x1024 a default e con l'oc max ottenibile con dissi stock e senza altri maneggi, con i filtri sparati al max...

marco a
11-12-2007, 19:09
a pari frequenze. ti risulta che hanno pari frequenze?

non hanno pari frequanza perchè il g92 va molto meno a pari frequanza e per questo le schede gt hanno frequenza superiore come le gts detto questo un g80 a 650 mhz con shadre a 1600 va più di un g92 a 800 mhz con shader a 1700

marco a
11-12-2007, 19:11
io credo, leggendo le varie rece, che la gtx mantenga tutto il suo significato sopratutto da 1600x1200 in su, quindi a megarisoluzioni, sotto (compresa la 1680x1050) è meglio prendere la gts65 che va come la gtx ma con margini di oc maggiori, quindi prestazioni potenzialmente migliori...

sarebbe molto interessante vedere un confornto diretto tra le due a 1280x1024 a default e con l'oc max ottenibile con dissi stock e senza altri maneggi, con i filtri sparati al max...

be te che hai una singola scheda potresti fare qualche bench che so a lost planet ? e poi confrontarti con qualcuno che ha una gts gt..
io avendo lo sli le sto tenendo bassine come clock 630 il core e 1600 gli shader e 2000 le memorie

Beseitfia
11-12-2007, 19:19
Secondo voi quanto posso overclockare?? Le temperature 55° in idle e 67° in full su everest e 59° in idle 72° in full su riva tuner... per ora sto a 575/1350/900

marco a
11-12-2007, 19:24
Secondo voi quanto posso overclockare?? Le temperature 55° in idle e 67° in full su everest e 59° in idle 72° in full su riva tuner... per ora sto a 575/1350/900

parti con 1500 620 2000 e poi sali

Beseitfia
11-12-2007, 19:28
parti con 1500 620 2000 e poi sali



Allora core clock 620 shader clock 2000 ??? Il memory clock sta a 900 devo cambiare pure questo?? Ma come faccio a mettere la ventola a 100% ?? Non mi fa cambiare l'impostazione in riva tuner..Scusate le domande ma sono un niubbo su ste cose:D

marco a
11-12-2007, 19:40
Allora core clock 620 shader clock 2000 ??? Il memory clock sta a 900 devo cambiare pure questo?? Ma come faccio a mettere la ventola a 100% ?? Non mi fa cambiare l'impostazione in riva tuner..Scusate le domande ma sono un niubbo su ste cose:D

no shader parti da 1500 clock gpu 620 e memory 1000

halduemilauno
11-12-2007, 19:55
non hanno pari frequanza perchè il g92 va molto meno a pari frequanza e per questo le schede gt hanno frequenza superiore come le gts detto questo un g80 a 650 mhz con shadre a 1600 va più di un g92 a 800 mhz con shader a 1700

ma la scheda è stata concepita cosi. che discorsi fai? cmq gli shader della gts512 gia vanno a 1625 a default il loro oc sta sull'ordine dei 1850/1900 non 1700.
;)

halduemilauno
11-12-2007, 19:57
io credo, leggendo le varie rece, che la gtx mantenga tutto il suo significato sopratutto da 1600x1200 in su, quindi a megarisoluzioni, sotto (compresa la 1680x1050) è meglio prendere la gts65 che va come la gtx ma con margini di oc maggiori, quindi prestazioni potenzialmente migliori...

sarebbe molto interessante vedere un confornto diretto tra le due a 1280x1024 a default e con l'oc max ottenibile con dissi stock e senza altri maneggi, con i filtri sparati al max...

si può dire che la gtx è ancora fatta per quei pochi che hanno monitor superiori ai 24 pollici. fermo restando che uno può cmq farsi l'altra mettendo nel calderone della scelta i 150€ in + che dovrebbe sborsare.
apple sono usciti i 169.21.
;)

appleroof
11-12-2007, 20:19
be te che hai una singola scheda potresti fare qualche bench che so a lost planet ? e poi confrontarti con qualcuno che ha una gts gt..
io avendo lo sli le sto tenendo bassine come clock 630 il core e 1600 gli shader e 2000 le memorie

sai cosa? riva mi segna 650 di core, gpu-z 640 (ecco forse spiegto perchè molti mi dicevano che sono particolarmente fortunato a tenere senza problemi 650) chissà dove la verità, di riva mi fido, e cmq 10mhz in più o meno fanno poca differenza....non lo so...

per il resto sarei ben disposto a fare prove che mi divertono, ma non ho lost planet, si potrebbe fare con il bench di lp al limite...

si può dire che la gtx è ancora fatta per quei pochi che hanno monitor superiori ai 24 pollici. fermo restando che uno può cmq farsi l'altra mettendo nel calderone della scelta i 150€ in + che dovrebbe sborsare.
apple sono usciti i 169.21.
;)

corro :D

marco a
11-12-2007, 20:23
sai cosa? riva mi segna 650 di core, gpu-z 640 (ecco forse spiegto perchè molti mi dicevano che sono particolarmente fortunato a tenere senza problemi 650) chissà dove la verità, di riva mi fido, e cmq 10mhz in più o meno fanno poca differenza....non lo so...

per il resto sarei ben disposto a fare prove che mi divertono, ma non ho lost planet, si potrebbe fare con il bench di lp al limite...



corro :D

lost planet ti serve la demo la trovi sia su hwupgrade che su guru3d

è più accurato rivatuner gpu-z non mi trova manco lo sli... .

appleroof
11-12-2007, 20:40
lost planet ti serve la demo la trovi sia su hwupgrade che su guru3d

è più accurato rivatuner gpu-z non mi trova manco lo sli... .

riva anche secondo me è più affidabile, mi dai un'altra conferma ;)

Beseitfia
11-12-2007, 20:41
Ho messo la ventola a 100% sia in 2d low perf che performance 3d...secondo voi va bene o rischio qualcosa?? Le temperature si sono abbassate notevolmente!

appleroof
11-12-2007, 20:50
Ho messo la ventola a 100% sia in 2d low perf che performance 3d...secondo voi va bene o rischio qualcosa?? Le temperature si sono abbassate notevolmente!

non rischi nulla, semmai il contrario ;)

Beseitfia
11-12-2007, 20:56
allora ho messo performance 3d a: core clock 620 shader clock 1500 memory clock 1000 sembra stabile...
Pero' cambiando queste frequenze ho cambiato tutto anche in low perf e perf 2d ...Come mi conviene settarle??

@danieleok@
11-12-2007, 21:12
Piu gioco co sta scheda e piu mi sento fortunato ad averla :D quanto mi piace!!!!:cincin: :cincin: :cincin: :cincin: Non vedo l'ora che mi arrivi il monitor nuovo :sofico:

tony73
12-12-2007, 00:05
Testata oggi pomeriggio una GTS al negozio di un mio amico...mi tengo stretta la mia GTX, con i filtri e ad alte risoluzioni non c'è proprio storie; i ROPS mancanti si vedono tutti ;) certo per CHI NON HA UNA GTX/ULTRA è un acquisto a dir poco eccellente, ma noi abbiamo di meglio :D

tony73
12-12-2007, 00:09
ma la scheda è stata concepita cosi. che discorsi fai? cmq gli shader della gts512 gia vanno a 1625 a default il loro oc sta sull'ordine dei 1850/1900 non 1700.
;)

Si ma non è la stessa cosa..i 1625 di una GTS valgono come i 1350 di una GTX, fidati provato con mano :) tutto il resto della bonta' della GPU è grazie ai 65nm che fa' aumentare il valore aggiunto ne + ne -

Alexkidd85
12-12-2007, 03:14
sarà pure morta ma va molto bene ha 256 mb di ram in più e supporta il triple sli rimane una fascia alta mentre la gts medio alta
e4 non si sa mai che qualche sveglione ora la vende per prendersi la gts e me ne prendo una terza per farmi il triple sli a 4 soldi

E insomma.... :D Qua è da vedere se è più sveglione chi se la vende o te che ti fai il triple sli :asd:
Che poi con che MB!? Con qualche MB a 3 pci con uno a 4x o magari ad 1x!? :rolleyes:
Più che triple sli sarebbe uno 2 e 1/2 sli :D

io credo, leggendo le varie rece, che la gtx mantenga tutto il suo significato sopratutto da 1600x1200 in su, quindi a megarisoluzioni, sotto (compresa la 1680x1050) è meglio prendere la gts65 che va come la gtx ma con margini di oc maggiori, quindi prestazioni potenzialmente migliori...

sarebbe molto interessante vedere un confornto diretto tra le due a 1280x1024 a default e con l'oc max ottenibile con dissi stock e senza altri maneggi, con i filtri sparati al max...

E infatti ragazzi,non ci sono caxxi che tengano. Contento di avere una gtx ma stiamo parlando di un 65nm con un 90nm! Il gap di overclock è maggiore per i 65nm anche se le memorie le abbiamo ancora meglio noi,non so sulla gts ma sulla gt sono molto meno performarti(latenze minori!? :confused: )
Prezzo alla mano,margine di overclock e bypassando il numero di rops,la ram e il bus con l'enorme divario in overclock che ste bestioline prendono (se hanno montato memorie che tirano anche come le nostre gtx,ancora meglio),io credo che a parita di CPU,il divario di 10/15% che c'è sulla gtx viene colmato e nei punti dove sono in vantaggio,prendono almeno un buon 10%.
Felice di essere smentito ma ne dubito....

UNA sola cosa è ottima fermo restando che non sono informato:
E SE magari nel primo quarto dell'anno prossimo le nuove gtx siano a 55nm con gddr4 elastiche in overclock!?
IMHO riammazzano un mercato :sofico:

Alexkidd85
12-12-2007, 03:15
Edit : Causa manutenzione delle 4 di notte mi dava errore solo nella pagina di post quindi pensavo che fosse problema di linea :p

Alexkidd85
12-12-2007, 03:17
Edit : Causa manutenzione delle 4 di notte mi dava errore solo nella pagina di post quindi pensavo che fosse problema di linea :p

Alexkidd85
12-12-2007, 03:18
Edit : Causa manutenzione delle 4 di notte mi dava errore solo nella pagina di post quindi pensavo che fosse problema di linea :p

Alexkidd85
12-12-2007, 03:20
Edit : Causa manutenzione delle 4 di notte mi dava errore solo nella pagina di post quindi pensavo che fosse problema di linea :p

Alexkidd85
12-12-2007, 03:21
Edit : Causa manutenzione delle 4 di notte mi dava errore solo nella pagina di post quindi pensavo che fosse problema di linea :p

marco a
12-12-2007, 08:42
si può dire che la gtx è ancora fatta per quei pochi che hanno monitor superiori ai 24 pollici. fermo restando che uno può cmq farsi l'altra mettendo nel calderone della scelta i 150€ in + che dovrebbe sborsare.
apple sono usciti i 169.21.
;)

guarda crysis a dettagli very high e risoluzione 1680x1050 occupa ben 768 mb di memroia video quindi non credo che lgtx sia solo per chi ha monitor superiori a 24 pollici ... io ho un 22

marco a
12-12-2007, 08:53
E insomma.... :D Qua è da vedere se è più sveglione chi se la vende o te che ti fai il triple sli :asd:
Che poi con che MB!? Con qualche MB a 3 pci con uno a 4x o magari ad 1x!? :rolleyes:
Più che triple sli sarebbe uno 2 e 1/2 sli :D



E infatti ragazzi,non ci sono caxxi che tengano. Contento di avere una gtx ma stiamo parlando di un 65nm con un 90nm! Il gap di overclock è maggiore per i 65nm anche se le memorie le abbiamo ancora meglio noi,non so sulla gts ma sulla gt sono molto meno performarti(latenze minori!? :confused: )
Prezzo alla mano,margine di overclock e bypassando il numero di rops,la ram e il bus con l'enorme divario in overclock che ste bestioline prendono (se hanno montato memorie che tirano anche come le nostre gtx,ancora meglio),io credo che a parita di CPU,il divario di 10/15% che c'è sulla gtx viene colmato e nei punti dove sono in vantaggio,prendono almeno un buon 10%.
Felice di essere smentito ma ne dubito....

UNA sola cosa è ottima fermo restando che non sono informato:
E SE magari nel primo quarto dell'anno prossimo le nuove gtx siano a 55nm con gddr4 elastiche in overclock!?
IMHO riammazzano un mercato :sofico:


be intanto per il triple sli era un modo di dire... resto comunque in attesa per vedere come va... se dovesse andare veramente bene un pensierino ce lo farei... magari quando esce g100 (quando tuttti avrete la fregola di comprarvi g100)

visto che hai la gtx ti consiglierei di andare a vedere i valori che ottieni con gpu-z e poi valli a confrontare con quelli che ottiene una gts nuova qui http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_3.html e potrai notare comme la nostra gtx sia superiore in tutto... poi l'oc della gts come si fa a dire che gli shader andrannoa 1900 e il core a 900 mhz ..? non ci s0ono bench in oc sicuramente adnrà meno della gt dato che è scalda molto di più

nicola001
12-12-2007, 10:17
ragazzi scusatemi, dovrei prendere una vga e sto vagliando se prendere una GTX o ULTRA usata, o una GTS nuova(G92), da abbinare x il momento al sistema che vedete in sign, naturalmente cambiando MB con una DFI ultra-D(nforce4) e mi chiedevo se con il mio ali(enermax 460w con 32A su +12v ) riuscivo a far girare una bestia come la GTX o ULTRA(sto cercando di trovarla usata in america a prezzi ragionevoli, ma non mi fido tanto di prezzi troppo bassi..)

ps:premetto che ho un monitor lcd da 17 e quindi risoluzione max 1280x1024

marco a
12-12-2007, 10:21
ragazzi scusatemi, dovrei prendere una vga e sto vagliando se prendere una GTX o ULTRA usata, o una GTS nuova(G92), da abbinare x il momento al sistema che vedete in sign, naturalmente cambiando MB con una DFI ultra-D(nforce4) e mi chiedevo se con il mio ali(enermax 460w con 32A su +12v ) riuscivo a far girare una bestia come la GTX o ULTRA(sto cercando di trovarla usata in america a prezzi ragionevoli, ma non mi fido tanto di prezzi troppo bassi..)

ps:premetto che ho un monitor lcd da 17 e quindi risoluzione max 1280x1024

be meglio una gtx usata hai più memoria e con giochi come crysis è molto utile... ma dovrai spendere 60 € inpiù che una gts nuova per l'usato...

nicola001
12-12-2007, 10:31
be meglio una gtx usata hai più memoria e con giochi come crysis è molto utile... ma dovrai spendere 60 € inpiù che una gts nuova per l'usato...

dici?
Ma x l'ali quindi non dovrei avere problemi?

ps: un amico si sta sbattendo x trovarmi una ULTRA usata che pare venga a costare intorno alle 350 euro, della Asus, ma se poi devo cambiare anche ALi allora spenderei troppo..

marco a
12-12-2007, 10:53
dici?
Ma x l'ali quindi non dovrei avere problemi?

ps: un amico si sta sbattendo x trovarmi una ULTRA usata che pare venga a costare intorno alle 350 euro, della Asus, ma se poi devo cambiare anche ALi allora spenderei troppo..

be il tuo amico si puo sbattere quanto vuole ma secondo me o trova un MONGOXXXXX o nessuno è tatnto pazzo da vendertela a quel prezzo...
a quel prezz onon prendi manco una gtx usata sul mercatino dove si fanno grandi affari!!.. Per l'ali va bene

eccoti qui un esempio di scheda affare http://www.hwupgrade.it/forum/showthread.php?t=1614257&highlight=8800ultra non mi sembra che come cifra sia paragonabile a quella che richiedi te

vicius80
12-12-2007, 12:36
edit

vicius80
12-12-2007, 12:37
raga qualcuno mi può dire avendo rivatuner 2.05 come si occa la schedozza? premetto che attualmente ho 50° con ventola a 100% e driver 169.09. Grazie

Non c'è nessuno che mi può aiutare???:help:


help help help:D

Alexkidd85
12-12-2007, 12:45
be intanto per il triple sli era un modo di dire... resto comunque in attesa per vedere come va... se dovesse andare veramente bene un pensierino ce lo farei... magari quando esce g100 (quando tuttti avrete la fregola di comprarvi g100)

visto che hai la gtx ti consiglierei di andare a vedere i valori che ottieni con gpu-z e poi valli a confrontare con quelli che ottiene una gts nuova qui http://www.hwupgrade.it/articoli/skvideo/1861/geforce-8800gts-nome-vecchio-scheda-nuova_3.html e potrai notare comme la nostra gtx sia superiore in tutto... poi l'oc della gts come si fa a dire che gli shader andrannoa 1900 e il core a 900 mhz ..? non ci s0ono bench in oc sicuramente adnrà meno della gt dato che è scalda molto di più

Dissento. Come detto,la riduzione di processo produttivo da elasticità all'overclock in tutto (il controller che regola anche il clock degli shader ne beneficia,correggetemi se sbaglio), Il doppio slot di dissipazione credo che assesti le temperature a default anche sotto la nostra gtx e in overclock se non uguale,meglio della nostra gtx sempre ipotizzando che siamo a 65nm e vedendo gli ottimi risultati del dissi nvidia e cosiderando che è un figlio dell g80(Qualcuno avrebbe potuto dire se non considerassi questo "anche r600 è a processo produttivo inferiore ma scalda di più).
Queste considerazioni,aggiungendo anche il bus maggiore e sempre paragonando la 8800gt come elasticità(ram a parte) di overclock,migliore di una gtx,mi fanno("ci fanno" a quanto ho capito) dedurre che la 8800gts @65nm abbia,in overclock, e a parità di configurazione,prestazioni superiori ad una gtx.

PS
Continuo a pensare che il triple sli,se non hai il bus a 16x o anche a 8x(ma già è ammazzato) è solo "castrare una scheda" ;)
Hai prestazioni da rosicarti i maroni come una castoro :asd:

Alexkidd85
12-12-2007, 12:55
dici?
Ma x l'ali quindi non dovrei avere problemi?

ps: un amico si sta sbattendo x trovarmi una ULTRA usata che pare venga a costare intorno alle 350 euro, della Asus, ma se poi devo cambiare anche ALi allora spenderei troppo..

L'ali ha i molex 6 pin pci-e su un unico ramo!? se si,non me la sentirei di dirti che ce la fa,se li ha separati,puoi sperare. Con il mio ne ho 35 ma sono linee separate. Comunque gtx supersprecata,scusa se te lo dico. Con quel sistema e a quelle risoluzioni anche una 1950xtx o al massimo una 8800gt che comunque è sprecata(intendo,limitata). ;)

help help help:D
Googla sempre "guida rivatuner" e poi chiedi consiglio qua...trovi un ottima guida ;)
Compà dire come si occa,ma più che altro come sbloccare tutti i controlli per usare bene il riva tuner,è più facile a leggerlo preparato che a startelo qua a spiegartelo :D

vicius80
12-12-2007, 14:10
ok 'mpare cerco qualche guida su google ed eventualmente mi faccio risentire per chiarimenti....
PS: Curiosità, Le frequenze alle quali si riesce ad arrivare abitualmente quali sono??;)

Alexkidd85
12-12-2007, 15:15
ok 'mpare cerco qualche guida su google ed eventualmente mi faccio risentire per chiarimenti....
PS: Curiosità, Le frequenze alle quali si riesce ad arrivare abitualmente quali sono??;)

650/1600/2100 direi ;)

appleroof
12-12-2007, 16:28
guarda crysis a dettagli very high e risoluzione 1680x1050 occupa ben 768 mb di memroia video quindi non credo che lgtx sia solo per chi ha monitor superiori a 24 pollici ... io ho un 22

be si su questo hai ragione tu, fatto anche io la prova...

marco a
12-12-2007, 19:32
Dissento. Come detto,la riduzione di processo produttivo da elasticità all'overclock in tutto (il controller che regola anche il clock degli shader ne beneficia,correggetemi se sbaglio), Il doppio slot di dissipazione credo che assesti le temperature a default anche sotto la nostra gtx e in overclock se non uguale,meglio della nostra gtx sempre ipotizzando che siamo a 65nm e vedendo gli ottimi risultati del dissi nvidia e cosiderando che è un figlio dell g80(Qualcuno avrebbe potuto dire se non considerassi questo "anche r600 è a processo produttivo inferiore ma scalda di più).
Queste considerazioni,aggiungendo anche il bus maggiore e sempre paragonando la 8800gt come elasticità(ram a parte) di overclock,migliore di una gtx,mi fanno("ci fanno" a quanto ho capito) dedurre che la 8800gts @65nm abbia,in overclock, e a parità di configurazione,prestazioni superiori ad una gtx.

PS
Continuo a pensare che il triple sli,se non hai il bus a 16x o anche a 8x(ma già è ammazzato) è solo "castrare una scheda" ;)
Hai prestazioni da rosicarti i maroni come una castoro :asd:


dunque, si la scheda sale di più per via del processo 65nm, ma proprio per il fatto che ha i 16 rops contro 24 della gtx e controller memoria troncato a 256 mbit, asnche a frequanza superiore va meno della gtx vedi le veriosni testate da hwupgrade 1700 shader 700 processore grafico e 2000 le memorie in molti bench va meno della gtx standard con clock 1350 gli shader 580 il core e 1800 le memorie ciò vuol dire che anche overcloccando a 1900 gli shader della e 800 il chip grafico della gts non può competere con un 8800 overcloccata a 1650 gli shader 650 chip grafico e 2100 le memorie

Alexkidd85
12-12-2007, 20:02
dunque, si la scheda sale di più per via del processo 65nm, ma proprio per il fatto che ha i 16 rops contro 24 della gtx e controller memoria troncato a 256 mbit, asnche a frequanza superiore va meno della gtx vedi le veriosni testate da hwupgrade 1700 shader 700 processore grafico e 2000 le memorie in molti bench va meno della gtx standard con clock 1350 gli shader 580 il core e 1800 le memorie ciò vuol dire che anche overcloccando a 1900 gli shader della e 800 il chip grafico della gts non può competere con un 8800 overcloccata a 1650 gli shader 650 chip grafico e 2100 le memorie

Non credo...ma vedremo. felice di essere smentito. Dovrebbero già girare i primi test e 3dmark fatti dagli utenti...

I soliti sospetti
12-12-2007, 20:18
Ragazzi avrei bisogno di un consiglio... visto che ho inserito il Raptor nel case che scalda... ora ho giocato a Cryisis per qualche ora ed ho visto aumentare le temp e arrivare circa a 78°... ora... ovviamente in alcuni casi ho avuto qualche artefatto seppur minimo e sporadico stando con le frequenze che ho in sign... vorrei cambiare il dissy con un Thermalright HR-03 plus... che ne dite?
Sul thread dei dissipatori mi è stato detto che si ha un calo di temperature di circa 15° che mi sembrano una marea per 40 euro di dissy... confermate? Ne vale la pena?
Grazie come sempre e... aggiungo... non lasciate la GTX per la nuova GTS che è una cavolata!! ;)

ISOLA
12-12-2007, 20:27
non lasciate la GTX per la nuova GTS che è una cavolata!! ;)
Chi è il pazzo che lo farebbe?:rotfl:

Alexkidd85
12-12-2007, 20:47
Ragazzi avrei bisogno di un consiglio... visto che ho inserito il Raptor nel case che scalda... ora ho giocato a Cryisis per qualche ora ed ho visto aumentare le temp e arrivare circa a 78°... ora... ovviamente in alcuni casi ho avuto qualche artefatto seppur minimo e sporadico stando con le frequenze che ho in sign... vorrei cambiare il dissy con un Thermalright HR-03 plus... che ne dite?
Sul thread dei dissipatori mi è stato detto che si ha un calo di temperature di circa 15° che mi sembrano una marea per 40 euro di dissy... confermate? Ne vale la pena?
Grazie come sempre e... aggiungo... non lasciate la GTX per la nuova GTS che è una cavolata!! ;)

Vuoi risparmiare!? Smonta pulisci la porcheria di pasta(gli cali gli spaghetti :asd: ) e rimonti con artic 5 o simili di ottime prestazioni...semai ricorri a nuovi dissipatori o aggiusti il ciclo(magari metti un assorbente) dell'aria all'interno del case

Scusate per le cazzate ma è sereta di minxxate! :D
Chi è il pazzo che lo farebbe?:rotfl:

E infatti :asd:

I soliti sospetti
12-12-2007, 20:52
Vuoi risparmiare!? Smonta pulisci la porcheria di pasta(gli cali gli spaghetti :asd: ) e rimonti con artic 5 o simili di ottime prestazioni...semai ricorri a nuovi dissipatori o aggiusti il ciclo(magari metti un assorbente) dell'aria all'interno del case

Ma ammettiamo che non voglio risparmiare... se ci monto quello no?
Per quanto riguarda il ricircolo non posso fare meglio di così... tu dici di smontare e cambiare solo la pasta? Poi devo cambiare i pad termici sul dissy stock?
Illuminami che le vga non le ho mai smontate.
Grazie :)

Alexkidd85
12-12-2007, 21:40
Ma ammettiamo che non voglio risparmiare... se ci monto quello no?
Per quanto riguarda il ricircolo non posso fare meglio di così... tu dici di smontare e cambiare solo la pasta? Poi devo cambiare i pad termici sul dissy stock?
Illuminami che le vga non le ho mai smontate.
Grazie :)

metti l'as5 nella gpu e lascia quella "coperta" sulle ram,solo puliscile bene ai lati con cura,dovresti recuperare un 5 gradi. Occhio però,c'è chi ne ha dovuto mettere un bel po di pasta,sennò non fa contatto con il dissipatore,quindi non la lasciare proprio a filo ma non gliene mettere neanche 3kg :asd:
Sennò prova qualche soluzione che raffredda solo la gpu e metti dei pad bioadesivi,io ho recuperato ben 100mhz sulle ram facendole respirare con quei pad. ;)

I soliti sospetti
12-12-2007, 21:52
metti l'as5 nella gpu e lascia quella "coperta" sulle ram,solo puliscile bene ai lati con cura,dovresti recuperare un 5 gradi. Occhio però,c'è chi ne ha dovuto mettere un bel po di pasta,sennò non fa contatto con il dissipatore,quindi non la lasciare proprio a filo ma non gliene mettere neanche 3kg :asd:
Sennò prova qualche soluzione che raffredda solo la gpu e metti dei pad bioadesivi,io ho recuperato ben 100mhz sulle ram facendole respirare con quei pad. ;)
Ho capito... a te non piace proprio il Thermalright vero?:D
Cmq... tanto l'ho preso ma la prova con il dissy stock la voglio proprio fare... certo... utilizzo il metodo che utilizzo con la cpu... gli stendo un velo sottilissimo su tutta la superficie e ci lascio il chicco di riso al centro... dovrebbe andare no?
Ovviamente controllo anche la planarità visto che smonto tutto ;)
Una cosa... lascio i pad termici del dissy stock tu dici?
Per pulire che intendi? Le ram?Con cosa le posso pulire?
Grazie ;)

Evangelion01
12-12-2007, 22:38
Chi è il pazzo che lo farebbe?:rotfl:

Io no di certo.. :)
Senza contare che la ram in più farà sempre più la differenza con l' avanzare del tempo e dei giochi. :D

Alexkidd85
12-12-2007, 22:47
Ho capito... a te non piace proprio il Thermalright vero?:D
Cmq... tanto l'ho preso ma la prova con il dissy stock la voglio proprio fare... certo... utilizzo il metodo che utilizzo con la cpu... gli stendo un velo sottilissimo su tutta la superficie e ci lascio il chicco di riso al centro... dovrebbe andare no?
Ovviamente controllo anche la planarità visto che smonto tutto ;)
Una cosa... lascio i pad termici del dissy stock tu dici?
Per pulire che intendi? Le ram?Con cosa le posso pulire?
Grazie ;)

Mah,preferisco Zalman o TT o AC ma anche la TR è buona.
No i dissi dico di tagliarli meglio...vabé smontala e capirai,spiegarlo è un bordello :asd:

ISOLA
12-12-2007, 22:48
se avessi una 1950pro o schede del genere prenderei la GTS perchè costaun botto in meno di sicuro...ma se ho la GTX me la tengo stretta :asd:

I soliti sospetti
12-12-2007, 22:59
Mah,preferisco Zalman o TT o AC ma anche la TR è buona.
No i dissi dico di tagliarli meglio...vabé smontala e capirai,spiegarlo è un bordello :asd:

ok... tanto non sono le ram il problema... è la gpu... in pratica ho lasciato shader a 1620 e ram a 2000 e ho calato il core a 625 e reggeva bene dopo ore di Crysis quindi è quella da raffreddare meglio... non so... mo domani cambio la pasta alla gpu e vedo altrimenti ci monto il TR ;)

P.S. le ram e i mosfet con cosa si puliscono?