PDA

View Full Version : [THREAD UFFICIALE] Geforce 8800 GT/9800 GT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 [100] 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144

Tpplay
06-03-2008, 12:36
è tutto molto soggettivo...ma oggettivamente crysis tutto su high gira a una media di 30fps che non è affatto male....per avere di piu bisogna aspettare le schede di nuova gen.

o non giocare + a crisys:Prrr:

Tpplay
06-03-2008, 12:41
Salve a tutti :) non so se c'è qualke pessomane 2008 su questo forum ma da quando sn passato dalla hd3850 a questa jetway (che va da Dio in qualsiasi gioco a frequenze occate come 725/1850/1060:read: con temperature accettabili) nella modalità online nn si è capito + niente. Ogni tanto l'immagine si blocca e mi dà velocità di gestione rallentata e perdo la partita.:mad: Il fatto assurdo è che la skeda è downcloccata a 450/1125/600 (ho fatto un profilo 2d/bassa3d/performance3d in rivatuner solo per pes) cn ventola al 100%. La temp in full è di 52°. Non so ke fare...sarà un problema di impostazioni 3D?Qualcuno ha qualke soluzione? :rolleyes:
Un altro problema che nn capisco è ke pur tenendo il vsync attivo nel rivatuner nel pannelo nvidia e nelle impostazioni di pes continuo a vedere sta caspita di linea in ogni partita online :doh: mentre nell'offline tutto ok. Boh:rolleyes:

quello da te descritto è un problema di rete, non di vga. Anke a me è successo velocità di gestione dati rallentata, disconnesso; ma solo quando ho ridotto il gioko a icona.
x il vsync non so di solito se lo forzi dal pannello di controllo va a posto. prova a cambiare driver

Tpplay
06-03-2008, 12:53
la me invece non risulta che crysis sia stato progettato per le configurazioni attuali...è una sorta di benchmark per i pc di oggi...e ricordiamoci sempre che Crysis ancora non sfrutta i shader model 4....che a detta dei cryteck verranno inseriti tramite patch....e cosa secondo me grave non sfrutta i quad core...cosa che avrebbe sicuramente reso il gioco piu stabile.
non sfrutta bene nemmeno i dual core

guarda io gioco con la 360 e la ps3 su hdtv...a 1280x768 che sarà una risoluzione base per il pc...ma questo non centra niente con il discorso FPS....ripeto i film girano a 25fps mi vuoi dire che sono scattosi?ti invito nuovamente a fare una ricerca per vedere qual'è la soglia di fps sotto la quale l'occhio umano percepisce lo scatto...ed è 20fps.
gow su pc gira a 60fps su 360 a 30fps in entrambi i casi il gioco non scatta.
e non capisco io perchè dici che su 360 fà pena...sotto quale aspetto?
25fps in un film sono normali, in un gioco la sensazione è tutt'altra!
poi dipende anke dai giochi, ad identico framerate non corrisponde spesso un'identica sensazione di fluidità.Io non generalizzerei come fai tu dicendo se a 25fps un film è fluido allora a 25fps tutto va fluido

luX0r.reload
06-03-2008, 12:56
25 non è il max della vita, dai
Io con il bench GPU ora faccio 46fps di media... non è male.
Appena faccio la vmod alla 8800gt penso che si potranno raggiungere tranquillamente i 50fps di media. Tutto su high a 1280x1024 oppure 1440x900:oink:

acethor
06-03-2008, 13:04
ciao a tutti dopo molte ati tra cui quella in signa x1900xt flashata @xtx ,eccomi con una fiammante 8800gt devo dire che che la differenza con la gloriosa ati ,in direct x9 naturalmente,non e' poi tanta,ma il futuro gia' presente sono le directx10 quindi il passaggio e' quasi obbligato, e questa 8800 gt mi sembra un ottimo compromesso qualita' prezzo.
Detto questo vorrei chiedervi consigli,visto che la mia storia gpu e' marchiata ati, su quali software utlizzare per l'overc. e se c'e' possibilita' di flasharla con qualche bios piu' performante.
tenete conto che utilizzo vista x64
grazie

robertino75
06-03-2008, 13:40
non sfrutta bene nemmeno i dual core

eppure c'è chi ha detto che con la patch 1.1 crysis ha l'opzione per i multicore cosa che io non ho affatto visto...a questo punto sono curioso di sapere dove sarebbe presente questa opzione su crysis che mi permette di attivare l'uso dei multicore.


25fps in un film sono normali, in un gioco la sensazione è tutt'altra!
poi dipende anke dai giochi, ad identico framerate non corrisponde spesso un'identica sensazione di fluidità.Io non generalizzerei come fai tu dicendo se a 25fps un film è fluido allora a 25fps tutto va fluido

allora...io ho detto una cosa precisa...i giochi a 25fps non scattano perchè lo scatto non è dato da il numero degli fps a meno che questo non sia inferiore ai 20fps....mi sembra un discorso chiaro....se fraps mi segna che un gioco va a 25fps...se questi sono costanti il gioco non scatta è RALLENTATO per la ovvia raggione che 25fotogrammi non sono 60....e quindi c'è un aggiornamento dell'immagine piu lento..non scattoso....lo scatto lo si percepesce o sotto una certa soglia o quando c'è un salto improvviso da una quantità di fotogrammi a un'altra...può essere da 30 a 20...da 40 a 30...da 50 a 40...ecc...ecc...fate questa prova...giocate e tenete fraps aperto e vedete che quando c'è lo scatto nel gioco i fotogrammi saltano da tot a tot.
poi tutto il discorso sui 50hz....60hrz...io gow su 360 lo giocavo a 60hz su tvhd...quindi secondo il ragionamento di Samoht essendo pal il segnale io lo gioco a 60fps...perchè 30fps interlacciati quindi 60hz.

Io con il bench GPU ora faccio 46fps di media... non è male.
Appena faccio la vmod alla 8800gt penso che si potranno raggiungere tranquillamente i 50fps di media. Tutto su high a 1280x1024 oppure 1440x900:oink:

il bench della gpu di crysis non conta nulla....se vuoi vedere quanto fai in crysis prova a fare il test Assault harbor che è una parte ingame con esplosioni..spari..ecc..ecc...vedrai che la media degli fps è piu bassa....

Dankac
06-03-2008, 13:46
http://img502.imageshack.us/img502/8025/immagine3es8.th.jpg (http://img502.imageshack.us/my.php?image=immagine3es8.jpg)

luX0r.reload
06-03-2008, 13:47
Ho la demo... non penso che possa fare il bench che dici tu.
Oltretutto Crysis lo uso solo ed esclusivamente come bench... il gioco di per se non mi piace affatto. Ho gusti più altolocati io del solito fps spara, spara :D :ciapet: :sofico:

robertino75
06-03-2008, 13:53
Ho la demo... non penso che possa fare il bench che dici tu.
Oltretutto Crysis lo uso solo ed esclusivamente come bench... il gioco di per se non mi piace affatto. Ho gusti più altolocati io del solito fps spara, spara :D :ciapet: :sofico:

assault_harbor è un test del benchmark di crysis come il test gpu e il test cpu....non credo che serva il gioco completo per farlo...
http://www.pctunerup.com/up/results/_200803/th_20080306135549_harbor.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080306135549_harbor.JPG)

robertino75
06-03-2008, 14:00
http://img502.imageshack.us/img502/8025/immagine3es8.th.jpg (http://img502.imageshack.us/my.php?image=immagine3es8.jpg)

anche tu hai una tvhd 16:9?:D
prova il 3Dmark06 perchè posti i risultati con lo 05?:p

acethor
06-03-2008, 14:05
ciao a tutti dopo molte ati tra cui quella in signa x1900xt flashata @xtx ,eccomi con una fiammante 8800gt devo dire che che la differenza con la gloriosa ati ,in direct x9 naturalmente,non e' poi tanta,ma il futuro gia' presente sono le directx10 quindi il passaggio e' quasi obbligato, e questa 8800 gt mi sembra un ottimo compromesso qualita' prezzo.
Detto questo vorrei chiedervi consigli,visto che la mia storia gpu e' marchiata ati, su quali software utlizzare per l'overc. e se c'e' possibilita' di flasharla con qualche bios piu' performante.
tenete conto che utilizzo vista x64
grazie
...cioe' grazie per la considerazione....ma avete ragione e' tutto in prima pagina!:asd:

robertino75
06-03-2008, 14:09
...cioe' grazie per la considerazione....ma avete ragione e' tutto in prima pagina!:asd:

riva turner...penso che vada bene anche per vista64.

Dankac
06-03-2008, 14:21
anche tu hai una tvhd 16:9?:D
prova il 3Dmark06 perchè posti i risultati con lo 05?:p


formattato il pc appena ho un attimo lo rimetto!!!La tv è un samsung 40" HDready 1300*768: il 3dm06 devo farlo a 1330*768 perchè con il cavo vga a 1280*1024 la tv non mi vede il formato!!!!;)

Tpplay
06-03-2008, 14:29
allora...io ho detto una cosa precisa...i giochi a 25fps non scattano perchè lo scatto non è dato da il numero degli fps a meno che questo non sia inferiore ai 20fps....mi sembra un discorso chiaro....se fraps mi segna che un gioco va a 25fps...se questi sono costanti il gioco non scatta è RALLENTATO per la ovvia raggione che 25fotogrammi non sono 60....e quindi c'è un aggiornamento dell'immagine piu lento..non scattoso....lo scatto lo si percepesce o sotto una certa soglia o quando c'è un salto improvviso da una quantità di fotogrammi a un'altra...può essere da 30 a 20...da 40 a 30...da 50 a 40...ecc...ecc...fate questa prova...giocate e tenete fraps aperto e vedete che quando c'è lo scatto nel gioco i fotogrammi saltano da tot a tot.
poi tutto il discorso sui 50hz....60hrz...io gow su 360 lo giocavo a 60hz su tvhd...quindi secondo il ragionamento di Samoht essendo pal il segnale io lo gioco a 60fps...perchè 30fps interlacciati quindi 60hz.


quelli che tu chiami rallentamenti qualcuno potrebbe chiamarli "scatti" e cmnq
la cosa è piuttosto soggettiva.fluidi si gioca di solito con un framerate minimo sopra i 40 fps(per i miei gusti personali).
che su pc si giochi con una qualità e fluidità maggiore rispetto alle console è risaputo

Tpplay
06-03-2008, 14:30
formattato il pc appena ho un attimo lo rimetto!!!La tv è un samsung 40" HDready 1300*768: il 3dm06 devo farlo a 1330*768 perchè con il cavo vga a 1280*1024 la tv non mi vede il formato!!!!;)

beh ovvio che a 1280x1024 non la piglia un wide..

robertino75
06-03-2008, 14:55
quelli che tu chiami rallentamenti qualcuno potrebbe chiamarli "scatti" e cmnq
la cosa è piuttosto soggettiva.fluidi si gioca di solito con un framerate minimo sopra i 40 fps(per i miei gusti personali).
che su pc si giochi con una qualità e fluidità maggiore rispetto alle console è risaputo

qui non ci capiamo proprio mi sà...non esiste soggettività in questo....
se tu chiami scattoso una scena rallentata stai semplicemente usando un termine errato o non sai cosa significa scattoso e rallentato.
lo scatto è la perdita di fotogrammi a video...uno sbalzo che ti fà perdere dei fotogrammi...questo sempre in base ai fotogrammi di base....lo scatto è passare in 1 secondo da 30 a 20...l'immagine perde 10 fotogrammi e l'occhio percepisce un vuoto....un'immagine rallentata è semplicemente formata da meno fotogrammi ma cmq costanti.
che poi un gioco a 60 sia piu fluido alla vista di uno da 30 è appurato....ma non era questo il punto.
i giochi a 30fps non sono scattosi e ripeto non c'è soggettività in questo è un dato di fatto.
poi pensatela come volete.

acethor
06-03-2008, 15:06
riva turner...penso che vada bene anche per vista64.
flashare conviene?

major1977
06-03-2008, 15:12
Io con il bench GPU ora faccio 46fps di media... non è male.
Appena faccio la vmod alla 8800gt penso che si potranno raggiungere tranquillamente i 50fps di media. Tutto su high a 1280x1024 oppure 1440x900:oink:

ciao..ho visto che abbiamo praticamente la stessa config anche come OC della cpu!...il bench come lo imposti..tutto su high?...te lo chiedo xchè con la scheda in sign nel bench a 1280 tutto high senza AA faccio 43fps!

Un'ultima cosa..la vmod come la fai?io che ho una rev 1 dici che è meglio nn farla?

Samoht
06-03-2008, 15:56
qui non ci capiamo proprio mi sà...non esiste soggettività in questo.... se tu chiami scattoso una scena rallentata stai semplicemente usando un termine errato o non sai cosa significa scattoso e rallentato. lo scatto è la perdita di fotogrammi a video...uno sbalzo che ti fà perdere dei fotogrammi...questo sempre in base ai fotogrammi di base....lo scatto è passare in 1 secondo da 30 a 20...l'immagine perde 10 fotogrammi e l'occhio percepisce un vuoto....un'immagine rallentata è semplicemente formata da meno fotogrammi ma cmq costanti. che poi un gioco a 60 sia piu fluido alla vista di uno da 30 è appurato....ma non era questo il punto.
i giochi a 30fps non sono scattosi e ripeto non c'è soggettività in questo è un dato di fatto. poi pensatela come volete.Chiudiamo qui l'argomento perchè a parte che siamo :ot: da bestia, è evidente non stiamo parlando delle stesse cose.

La mia domanda è "perchè chiamare un gioco next-gen quando non lo si può giocare come si dovrebbe, con la tecnologia next-gen secondo la quale è stato sviluppato?"

E poi forse ti sta sfuggendo una cosa: Crysis l'ho giocato e finito, e mi è anche piaciuto - peccato che è durato poco. Questo è stato qualche tempo fa, infatti ho scritto "se non ricodo male" di aver visto una voce, nei menù iniziali, dove c'era una casella da spuntare con qualcosa come "ottimizza per cpu multiple" con la patch 1.1 - ma potrei confondermi con qualcos'altro, visto che di giochi ultimamente ne ho testati e ne sto testando una caterva...

robertino75
06-03-2008, 15:59
ciao..ho visto che abbiamo praticamente la stessa config anche come OC della cpu!...il bench come lo imposti..tutto su high?...te lo chiedo xchè con la scheda in sign nel bench a 1280 tutto high senza AA faccio 43fps!

Un'ultima cosa..la vmod come la fai?io che ho una rev 1 dici che è meglio nn farla?

che driver usi?

x Samoht : per quanto mi riguarda la discussione era chiusa dal messaggio precendente.

Tpplay
06-03-2008, 16:05
qui non ci capiamo proprio mi sà...non esiste soggettività in questo....
se tu chiami scattoso una scena rallentata stai semplicemente usando un termine errato o non sai cosa significa scattoso e rallentato.
lo scatto è la perdita di fotogrammi a video...uno sbalzo che ti fà perdere dei fotogrammi...questo sempre in base ai fotogrammi di base....lo scatto è passare in 1 secondo da 30 a 20...l'immagine perde 10 fotogrammi e l'occhio percepisce un vuoto....un'immagine rallentata è semplicemente formata da meno fotogrammi ma cmq costanti.
che poi un gioco a 60 sia piu fluido alla vista di uno da 30 è appurato....ma non era questo il punto.
i giochi a 30fps non sono scattosi e ripeto non c'è soggettività in questo è un dato di fatto.
poi pensatela come volete.

si va beh come vuoi è solo una questione di termini in effetti. poi anke io la penso come te. però i giochi a 30fps non saranno scattosi ma a me non piacciono:rolleyes:

robertino75
06-03-2008, 16:17
si va beh come vuoi è solo una questione di termini in effetti. poi anke io la penso come te. però i giochi a 30fps non saranno scattosi ma a me non piacciono:rolleyes:

miiiiiiii quanto sei salito con i shader con la tua scheda ma come hai fatto?:D

johnkr88
06-03-2008, 16:29
qualkuno sa ke bios posso mettere alla mia xfx 8800gt ke è x098 ?

robertino75
06-03-2008, 16:29
Io con il bench GPU ora faccio 46fps di media... non è male.
Appena faccio la vmod alla 8800gt penso che si potranno raggiungere tranquillamente i 50fps di media. Tutto su high a 1280x1024 oppure 1440x900:oink:

stavo facendo delle prove...tu fai 46fps di media a 1280x1024 con scheda a def?
io faccio 43fps a 1280x1024 con OC a 740-1800-2100....a def faccio 38fps....tu come fai a farne 46?

Samoht
06-03-2008, 16:32
http://www.anandtech.com/video/showdoc.aspx?i=3183

http://thisistech.org/2007/12/12/crysis-triple-sli-benchmark/

http://www.hwupgrade.it/articoli/skvideo/1863/nvidia-l-ora-di-triple-sli_4.html

http://ve3d.ign.com/articles/news/35807/Triple-SLI-Performance-in-Crysis

ma si potrebbe continuare pressochè all'infinito - se ne deducono 2 cose principalmente:

1) La tecnologia SLi, così come il CrossFire, non "scala" come in teoria avrebbe dovuto fare almeno sulla carta, soprattutto con le nuove applicazioni;

2) Sono tecnologie troppo dipendenti dal software, che se non è studiato appositamente, non ci si cava un ragno dal buco.

Ricordo che le gpu di nunova generazione (che sfruttano SM4 e a shaders programmabili unificati) possono anche essere impiegate per la gestione della fisica ad esempio - cosa che nessun engine grafico di nessun titolo di mia conoscenza ancora fa (ma veramente nessun engine sfrutta nemmeno le cpu multi-core per scopi differenti).

E poi resto fiducioso: dopotutto, è solo la 1a patch di crysis che esce ;)

oclla
06-03-2008, 16:38
Ricordo che le gpu di nunova generazione (che sfruttano SM4 e a shaders programmabili unificati) possono anche essere impiegate per la gestione della fisica ad esempio - cosa che nessun engine grafico di nessun titolo di mia conoscenza ancora fa (ma veramente nessun engine sfrutta nemmeno le cpu multi-core per scopi differenti).


Abbi pazienza (http://punto-informatico.it/p.aspx?i=2192770)
;)

Samoht
06-03-2008, 16:47
Si l'avevo letto dell'Ageia acquisita da Nvidia... chissà :rolleyes:

major1977
06-03-2008, 16:53
che driver usi?

.


i 169.21..comunque mi ero dimenticato di un piccolissimo particolare...il post processing era su medium..:stordita:

oclla
06-03-2008, 17:31
Si l'avevo letto dell'Ageia acquisita da Nvidia... chissà :rolleyes:

Ma la notizia è che, poichè la serie 8 di geforce ha la possibilità di gestirla, con un upgrade software le nostre schedine gestiranno anche la fisica

luX0r.reload
06-03-2008, 17:47
stavo facendo delle prove...tu fai 46fps di media a 1280x1024 con scheda a def?
io faccio 43fps a 1280x1024 con OC a 740-1800-2100....a def faccio 38fps....tu come fai a farne 46?
Procio e scheda oc, rispettivamente 3.3Ghz per il procio e 750/1816/2000 per la GT. 4GB di RAM, XP SP2 "pulito" che uso solo per giocare. "Pulito" vuol dire che ho disabilitato tutto... ho lasciato solo il necessario per giocare. DA task manager avrò 8processi attivi e in services.msc ho 6 servizi attivi. Solo lo stretto necessario. Se vai qualche pagine indietro troverai già dei miei post con lo screen del bench.

Spero tu non faccia i test con antivirus&co. Attivi.
Qui nel forum c'era un utente che faceva i test con messenger, antivirus, skype, etc attivi... chissà perchè faceva meno fps di me:D

Tpplay
06-03-2008, 17:48
miiiiiiii quanto sei salito con i shader con la tua scheda ma come hai fatto?:D

ho fatto la vmod da bios e ho avuto:ciapet:

luX0r.reload
06-03-2008, 17:52
Sta vmod mi toccherà farla anche a me ora che ho montato lo Zalman vf900:cool:

Tpplay... ti sfido a singolar tenzone!!! :sofico:

Dai se accetti la sfida vediamo chi di noi fa bruciare prima la scheda:ciapet:

(grat, grat)

Tpplay
06-03-2008, 17:55
qualkuno sa ke bios posso mettere alla mia xfx 8800gt ke è x098 ?
Dicono questo (http://rapidshare.de/files/38033662/evga_8800gt.zip.html)sia il migliore ma io non l'ho ancora provato perchè non mi fido + di tanto che vada bene e son soddisfatto di come tengo la scheda.
L'ho aperto con nibitor e ho visto che ha settato nei voltaggi 1.22v nella casella extra, mentre io quando ho fatto la vmod ho potuto settare come max 1.1v coi risultati che vedete in sign.
Leggevo poi che non è detto che funzioni su tutte x098.. 1.22v in realtà potrebbe non prenderli mai
comunque ogni info l'ho letta qui (http://www.hwupgrade.it/forum/showthread.php?t=1614536)

Tpplay
06-03-2008, 17:56
Sta vmod mi toccherà farla anche a me ora che ho montato lo Zalman vf900:cool:

Tpplay... ti sfido a singolar tenzone!!! :sofico:

Dai se accetti la sfida vediamo chi di noi fa bruciare prima la scheda:ciapet:

(grat, grat)

:asd: :asd: :asd:

robertino75
06-03-2008, 17:59
Procio e scheda oc, rispettivamente 3.3Ghz per il procio e 750/1816/2000 per la GT. 4GB di RAM, XP SP2 "pulito" che uso solo per giocare. "Pulito" vuol dire che ho disabilitato tutto... ho lasciato solo il necessario per giocare. DA task manager avrò 8processi attivi e in services.msc ho 6 servizi attivi. Solo lo stretto necessario. Se vai qualche pagine indietro troverai già dei miei post con lo screen del bench.

Spero tu non faccia i test con antivirus&co. Attivi.
Qui nel forum c'era un utente che faceva i test con messenger, antivirus, skype, etc attivi... chissà perchè faceva meno fps di me:D

ahhhhhhhhhh non stai a def...pensavo stessi a def ^^
quindi dici di chiudere tutto quando si fà il test della gpu con crysis?non pensavo che influisse tenere antivirus...msn...skype accesi :p

Tpplay
06-03-2008, 18:03
Qui nel forum c'era un utente che faceva i test con messenger, antivirus, skype, etc attivi... chissà perchè faceva meno fps di me:D

io ho provato per curiosità a fare il 3dmerd 2006 con antivirus messenger fraps ecc attivi e non attivi e il punteggio è sempre stato uguale. poi nei giochi non lo so.. certo sicuramente sei hai 8 processi invece di me che ad es ne ho 40 hai un pc più veloce a parità di hw. Solo che per adesso a parte quella merdaccia di crisys non ho mai avuto il minimo problema coi giochi e non ho voglia di sbattermi per ottimizzare un po' il sistema ma sicuramente tra un po' lo farò..

pl[U]s.NOXx
06-03-2008, 18:06
ragazzi problemino. dopo aver superato i 700/1645/950 i giochi crashano (l'audio funziona ma si blocca tutto) potrebbe essere colpa dei voltaggi troppo bassi (un utente avev gli stessi problemi e ha risolto tirando a 1.1v) come potrei fare a mandarli su? vorrei sfruttare sto termaltake hr-03gt :D

cristch
06-03-2008, 18:11
s.NOXx;21441340']ragazzi problemino. dopo aver superato i 700/1645/950 i giochi crashano (l'audio funziona ma si blocca tutto) potrebbe essere colpa dei voltaggi troppo bassi (un utente avev gli stessi problemi e ha risolto tirando a 1.1v) come potrei fare a mandarli su? vorrei sfruttare sto termaltake hr-03gt :D

ahahah e ti lamenti?io ho gli stessi problemi superato i 666/1680/980:muro: e pure qui ogni tanto si freezano i giochi l'unica differenza e che dopo qualche secondo si sblocca da solo senza dover riavviare il pc

luX0r.reload
06-03-2008, 18:12
io ho provato per curiosità a fare il 3dmerd 2006 con antivirus messenger fraps ecc attivi e non attivi e il punteggio è sempre stato uguale. poi nei giochi non lo so.. certo sicuramente sei hai 8 processi invece di me che ad es ne ho 40 hai un pc più veloce a parità di hw. Solo che per adesso a parte quella merdaccia di crisys non ho mai avuto il minimo problema coi giochi e non ho voglia di sbattermi per ottimizzare un po' il sistema ma sicuramente tra un po' lo farò..
Quando fanno i testi per provare le prestazioni delle schede video e/o dei giochi, partono sempra da un sistema appena formattato... con solo i drivers:read:

Tpplay
06-03-2008, 18:17
Quando fanno i testi per provare le prestazioni delle schede video e/o dei giochi, partono sempra da un sistema appena formattato... con solo i drivers:read:

si ho capito ma siccome non ho problemi me ne frego:D
tutto lì.. un giorno formatterò e sistemerò tutto

luX0r.reload
06-03-2008, 18:23
Beh ti invidio... io sono maniacale e "perfettino" porca la vacca.
Non riesco... NON RIESCO:mc:

noshalans
06-03-2008, 19:46
Chi possiede una SPARKLE, può gentilmente dirmi se ha il PCB di colore verde o blu? Grazie ;)

cristch
06-03-2008, 21:16
Chi possiede una SPARKLE, può gentilmente dirmi se ha il PCB di colore verde o blu? Grazie ;)

azz io c'è l'ho ma non ci ho fastto molto caso..mi sembra blue

noshalans
06-03-2008, 22:02
azz io c'è l'ho ma non ci ho fastto molto caso..mi sembra blue

ma te per caso hai fatto la vmod dal bios?

perchè ho una Sparkle e volevo mettere il bios con vid 1,22 ma con nibitor ho scoperto che non è ne una 0xC098 ne una 0xC128 ma una 0xC150 :confused:

quindi mi stò documentando prima che butto tutto nel secchio per capire se è una normale Sparkle oppure qualche revisione che non è stata presa in considerazione.

Su mvtech ho scaricato i bios delle tre revisioni della Sparkle e sono due 0xC128 e uno 0xC098. Il mio non c'è ma riporta la data più aggiornata di tutti gli altri...

boh... :rolleyes:

tyco74
06-03-2008, 22:11
Vorrei porvi una domanda.

Sto per prendermi una 8800gt ma dalla vostra esperienza sono tutte uguali o cambia qualcosa tra una marca e l'altra?
Parlo di schede con reference board.

Cioè tra una Twintech, una POV, una Gigabite, una Sparkle, etc cambia qualcosa?

Grazie

Samoht
06-03-2008, 22:49
Chi possiede una SPARKLE, può gentilmente dirmi se ha il PCB di colore verde o blu? Grazie ;) Due Sparkle 8800GT identiche, PCB verde.

noshalans
06-03-2008, 23:00
Due Sparkle 8800GT identiche, PCB verde.

ecco: perchè io ce l' ho con il pcb blu? :confused:

(non è passiva)

M/N: SF-PX88GT512D3-HP

se hai la scatola mi potresti controllare se la sigla è la stessa? grazie

-andrea-
06-03-2008, 23:32
ragassi su win vista 64 bit riva tuner nn va! mi dice che ha bisogno del driver sys.64! come posso ovviare!
devo aumentare la velocita di rotazione della ventola!!!!!!!!!!:(

cristch
06-03-2008, 23:59
ma te per caso hai fatto la vmod dal bios?

perchè ho una Sparkle e volevo mettere il bios con vid 1,22 ma con nibitor ho scoperto che non è ne una 0xC098 ne una 0xC128 ma una 0xC150 :confused:

quindi mi stò documentando prima che butto tutto nel secchio per capire se è una normale Sparkle oppure qualche revisione che non è stata presa in considerazione.

Su mvtech ho scaricato i bios delle tre revisioni della Sparkle e sono due 0xC128 e uno 0xC098. Il mio non c'è ma riporta la data più aggiornata di tutti gli altri...

boh... :rolleyes:

Due Sparkle 8800GT identiche, PCB verde.

ecco: perchè io ce l' ho con il pcb blu? :confused:

(non è passiva)

M/N: SF-PX88GT512D3-HP

se hai la scatola mi potresti controllare se la sigla è la stessa? grazie

oh mi avete fatto venire il dubbio doamni smonto il case e vedo di che colore è:fagiano:
cmq ha il bios originale...c'è l'ho da meno di una settimana:-)

IlNiubbo
07-03-2008, 09:09
Vorrei porvi una domanda.

Sto per prendermi una 8800gt ma dalla vostra esperienza sono tutte uguali o cambia qualcosa tra una marca e l'altra?
Parlo di schede con reference board.

Cioè tra una Twintech, una POV, una Gigabite, una Sparkle, etc cambia qualcosa?

Grazie

hahaha!!!! l'avevo detto io di fare la sezione FAQ :p

Sono tutte uguali cambia solo il dissipatore: quelle dualslot raffreddano meglio e fanno meno casino.

Samoht
07-03-2008, 10:10
ragassi su win vista 64 bit riva tuner nn va! mi dice che ha bisogno del driver sys.64! come posso ovviare!Heheheh è da un pezzo che lo dico... e non va nemmeno Nibitor: volevo fare la Vmod anch'io ma non c'è verso...devo aumentare la velocita di rotazione della ventola!!!!!!!!!!:(Se hai una scheda sola, nTune dovrebbe funzionare. Praticamente aggiunge alcune funzionalità al pannello di controllo Nvidia, quali velocità della ventola, clock di gpu e vram. E se hai una scheda madre basata su chipset Nvidia *potrebbe* darti il controllo su altri parametri della scheda stessa direttamente da Windows. Dico *potrebbe* perchè io che ho la Striker Extreme (basata su Nforce 680i) riesco a modificare solo alcuni parametri come freq. della cpu/ram, freq. dei bus spp ed mcp, timings delle ram (ma non è consigliabile modificarli mentre il sistema è in esecuzione, pena il freeze immediato :rolleyes:). Non posso mettere mano invece sul controllo delle ventole installate e sulle tensioni, e non capisco perchè.

noshalans
07-03-2008, 12:40
ragazzi, basta con questo mito che tutte le 8800 GT sono uguali ed è consigliabile quella con il prezzo più basso.

io ho questa cavolo di Sparkle con il PCB blu che in OC non sale una mazza! :muro: Hanno aspettato che in rete tutte le recensioni parlassero bene della Sparkle, che era costruita come la reference board ecc. ecc. e poi adesso le fanno a caxxo di cane!

La pasta termica sembrava calce spalmata da un muratore con la cazzeruola! :mad:

madò quanto stò a scapoccià, non sale nemmeno con la vmod!

e ciò speso pure i soldi per un TT DuOrb che inoltre fa un casino della malora :muro: :muro: :muro:

Tpplay
07-03-2008, 12:54
ragazzi, basta con questo mito che tutte le 8800 GT sono uguali ed è consigliabile quella con il prezzo più basso.

io ho questa cavolo di Sparkle con il PCB blu che in OC non sale una mazza! :muro: Hanno aspettato che in rete tutte le recensioni parlassero bene della Sparkle, che era costruita come la reference board ecc. ecc. e poi adesso le fanno a caxxo di cane!

La pasta termica sembrava calce spalmata da un muratore con la cazzeruola! :mad:

madò quanto stò a scapoccià, non sale nemmeno con la vmod!

e ciò speso pure i soldi per un TT DuOrb che inoltre fa un casino della malora :muro: :muro: :muro:

beh capitano utenti che non salgono con le asus.. e utenti che con la sparkle arrivano 800 di core. la pasta è spalmata male su tutte..
che il duorb fa casino non sapevo.. però prima di prenderlo potevi vedere quanto saliva e se ne valeva la pena.

tyco74
07-03-2008, 12:59
hahaha!!!! l'avevo detto io di fare la sezione FAQ :p

Sono tutte uguali cambia solo il dissipatore: quelle dualslot raffreddano meglio e fanno meno casino.

Grazie ma leggere 1440 e + pagine è da pazzo assatanato! :eek:

Comunque sto per prendermi una Pow con Zalman vf900 + per diminuire il rumore che per altro.
Tanto non overclocco le Vga. Mi sembra una scemenza sforzare la scheda e soprattutto avere più casino dalla ventola per un 5% di fps in più.

noshalans
07-03-2008, 13:00
beh capitano utenti che non salgono con le asus.. e utenti che con la sparkle arrivano 800 di core. la pasta è spalmata male su tutte..
che il duorb fa casino non sapevo.. però prima di prenderlo potevi vedere quanto saliva e se ne valeva la pena.

avevo temperature di 62° in idle con ventola a 35%, come potevo pensare di permettermi un oc con questi valori? :rolleyes:

Tpplay
07-03-2008, 13:07
avevo temperature di 62° in idle con ventola a 35%, come potevo pensare di permettermi un oc con questi valori? :rolleyes:
in effetti erano altine.. sei stato un po' sfortunato a me è capitato con la 8600gts che avevo prima ed era una asus!
l'oc sfugge a qualsiasi regola.. a volte con una dissipazione eccellente non sali lo stesso

megajuventino
07-03-2008, 13:08
avevo temperature di 62° in idle con ventola a 35%, come potevo pensare di permettermi un oc con questi valori? :rolleyes:

strano la mia e' identica e ho provato a tirarla e raggiungere 780 core e 1050 memorie...

Samoht
07-03-2008, 13:14
ragazzi, basta con questo mito che tutte le 8800 GT sono uguali ed è consigliabile quella con il prezzo più basso.Le schede sono tutte uguali: vengono vendute per svolgere un compito, che di fatto fanno tutte allo stesso modo, con impostazioni default.io ho questa cavolo di Sparkle con il PCB blu che in OC non sale una mazza!Il fatto che una scheda salga di più e un'altra di meno, è un altro discorso. Anche se prendi due schede identiche, è probabile che una salga e l'altra no. Vero è che pur essendo il reference lo stesso, chi assembla può scegliere componentistica diversa (ma non poi tantissimo) risultando poi che una abbia margini di oc maggiore rispetto ad un'altra, ma non credere poi che cambi il mondo passando da 600mhz default a 700mhz di gpu (cosa che più o meno quasi tutte le 8800gt riescono a fare).Hanno aspettato che in rete tutte le recensioni parlassero bene della Sparkle, che era costruita come la reference board ecc. ecc. e poi adesso le fanno a caxxo di cane!L'unica differenza che forse vale la pena prendere in considerazione è la soluzione di raffreddamento proposta dai diversi costruttori.. ma ahimè, a parte la Asus e la Sapphire, nessuno esce quasi mai con idee veramente innovative che potrebbero fare la differenza in questo caso.La pasta termica sembrava calce spalmata da un muratore con la cazzeruola!Questo è un problema risaputo: tutte le schede sono fatte così. E quando dico tutte, intendo il 100%.e ciò speso pure i soldi per un TT DuOrb che inoltre fa un casino della maloraQui però è colpa tua :asd:avevo temperature di 62° in idle con ventola a 35%, come potevo pensare di permettermi un oc con questi valori? :rolleyes:Questo argomento viene trattato più volte in quasi tutti i 3ad delle vga in generale: le ventole al 35% fanno sì poco rumore... ma servono anche a poco: @default, a mio parere, il regime di rotazione delle ventole dovrebbe oscillare da 40% e aumentare fino al 100% (si, se l'hanno fatto, vuol dire che alla ventola può essere dato il 100% dei suoi 12V e andare al massimo dei giri) quando la temperatura lo richiede. Lo so che fa rumore... è una ventola: cosa vi aspettate? D'altra parte, gli aspirapolveri che non fanno il minimo rumore, non li hanno ancora inventati... :asd:

jeremj
07-03-2008, 13:18
avevo temperature di 62° in idle con ventola a 35%, come potevo pensare di permettermi un oc con questi valori? :rolleyes:

Beh io al contrario con la mia SPARKLE rev.2 sono rinato e giocando con COD4 per molto tempo, parlo almeno più di 1 ora e mezza la temp non va oltre i 58°.
Il problema risiede nella 1° serie di schede video che tutti o almeno buona parte si lamentano dell'alta temperatura in full.

major1977
07-03-2008, 13:36
Beh io al contrario con la mia SPARKLE rev.2 sono rinato e giocando con COD4 per molto tempo, parlo almeno più di 1 ora e mezza la temp non va oltre i 58°.
Il problema risiede nella 1° serie di schede video che tutti o almeno buona parte si lamentano dell'alta temperatura in full.

la mia è una rev 1 ma non x questo mi smazzo Crysis un paio di ore e la temp nn mi va oltre i 78°..(testata con hwmonitor dove rimane visibile la temp piu' alta) e ventola al 55%!

Samoht
07-03-2008, 13:39
No scusate... ma i driver BETA 171.20 per Vista 64, da dove li han tirati fuori i ragazzi di Hwupgrade?? sul sito di Nvidia non ci sono...

Tpplay
07-03-2008, 13:44
No scusate... ma i driver BETA 171.20 per Vista 64, da dove li han tirati fuori i ragazzi di Hwupgrade?? sul sito di Nvidia non ci sono...

è gia un po' che escono driver non presenti sul sito nvidia... non so

Tpplay
07-03-2008, 13:45
quando la temperatura lo richiede. Lo so che fa rumore... è una ventola: cosa vi aspettate? D'altra parte, gli aspirapolveri che non fanno il minimo rumore, non li hanno ancora inventati... :asd:

però i dissipatori e le ventole silenziose esistono dai.. se prendi l'accelero con le sue due ventoline non fa rumore.
sul resto del tuo post quoto

Samoht
07-03-2008, 14:07
ragassi su win vista 64 bit riva tuner nn va! mi dice che ha bisogno del driver sys.64! come posso ovviare! devo aumentare la velocita di rotazione della ventola!!!!!!!!!!:(Sembra uscita la versione 2.07 di RivaTuner, che dovrebbe supportare Vista64... ho provato a scaricarla, ma ho paura ad installarla... ricordo che l'ultima volta mi ha piantato il pc :mbe:però i dissipatori e le ventole silenziose esistono dai.. se prendi l'accelero con le sue due ventoline non fa rumore. Sul resto del tuo post quotoMi riferivo alle ventole di serie ;)

jeremj
07-03-2008, 14:15
la mia è una rev 1 ma non x questo mi smazzo Crysis un paio di ore e la temp nn mi va oltre i 78°..(testata con hwmonitor dove rimane visibile la temp piu' alta) e ventola al 55%!

Appunto mi dimenticavo che la ventola mia rimane ferma al 29%.:D

Lino P
07-03-2008, 14:47
Le schede sono tutte uguali: vengono vendute per svolgere un compito, che di fatto fanno tutte allo stesso modo, con impostazioni default.Il fatto che una scheda salga di più e un'altra di meno, è un altro discorso. Anche se prendi due schede identiche, è probabile che una salga e l'altra no. Vero è che pur essendo il reference lo stesso, chi assembla può scegliere componentistica diversa (ma non poi tantissimo) risultando poi che una abbia margini di oc maggiore rispetto ad un'altra, ma non credere poi che cambi il mondo passando da 600mhz default a 700mhz di gpu (cosa che più o meno quasi tutte le 8800gt riescono a fare).L'unica differenza che forse vale la pena prendere in considerazione è la soluzione di raffreddamento proposta dai diversi costruttori.. ma ahimè, a parte la Asus e la Sapphire, nessuno esce quasi mai con idee veramente innovative che potrebbero fare la differenza in questo caso.Questo è un problema risaputo: tutte le schede sono fatte così. E quando dico tutte, intendo il 100%.Qui però è colpa tua :asd:Questo argomento viene trattato più volte in quasi tutti i 3ad delle vga in generale: le ventole al 35% fanno sì poco rumore... ma servono anche a poco: @default, a mio parere, il regime di rotazione delle ventole dovrebbe oscillare da 40% e aumentare fino al 100% (si, se l'hanno fatto, vuol dire che alla ventola può essere dato il 100% dei suoi 12V e andare al massimo dei giri) quando la temperatura lo richiede. Lo so che fa rumore... è una ventola: cosa vi aspettate? D'altra parte, gli aspirapolveri che non fanno il minimo rumore, non li hanno ancora inventati... :asd:

Quoto il discorso dell'impossibilità di stabilire quale marca consenta maggiori margini di oc, però quanto alla pasta di scarsa qualità e spalmata da cani, devo dire che ASUS sulla rev2 ha fatto davvero le cose in grande.
Vabbè le ram sono scoperte, però guardando la vga di profilo si scorge il punto di contatto tra core e dissy, e ti assicuro che non si vede un filo di pasta trasbordante...
Peccato però che non salga un mazza e viste anche le temp glaciali, ho ipotizzato che rispetto alla rev1, le nuove asus siano downvoltate da bios, perchè non può essere che fa i capricci già a 650 (magari anche meno).

mircocatta
07-03-2008, 15:02
qualcuno ha provato i nuovi driver?

-noxius-
07-03-2008, 15:16
Quoto il discorso dell'impossibilità di stabilire quale marca consenta maggiori margini di oc, però quanto alla pasta di scarsa qualità e spalmata da cani, devo dire che ASUS sulla rev2 ha fatto davvero le cose in grande.
Vabbè le ram sono scoperte, però guardando la vga di profilo si scorge il punto di contatto tra core e dissy, e ti assicuro che non si vede un filo di pasta trasbordante...
Peccato però che non salga un mazza e viste anche le temp glaciali, ho ipotizzato che rispetto alla rev1, le nuove asus siano downvoltate da bios, perchè non può essere che fa i capricci già a 650 (magari anche meno).

E' possibile .

Samoth, le gt NON SONO tutte uguali ! Perchè ?

- componenti utilizzati , quali ad esempio condensatori , mosfets , alimentazione (Gigabyte, Zotac ..)
- eventuali chip aggiuntivi on board (Gigabyte)
- voltaggio effettivo (Zotac AMP! , EVGA SSC , EVGA KO ..)
- bios utilizzato (tutte)
- dissipazione (Asus, ECS ..)
- parametri per il controllo della ventola
- bundle (XfX , EVGA ..)
- assistenza , DURATA garanzia e CLAUSOLE per l'RMA (EVGA, XfX , BFG ..)

Come facciamo a non evidenziare questi fattori ? Suvvia , qui mi sembra che stiate generalizzando troppo e sicuramente ne ho dimenticati molti altri ..

Samoht
07-03-2008, 15:38
noxius, leggi bene il mio post... non ho detto che le vga sono tutte uguali quando si parla di OC... ma quelle della stessa famiglia @ default è ovvio che lo sono.

"bundle"? ho letto bene? secondo te a cosa serve il bundle? se io e te vendiamo vga, e le nostre schede sono uguali come caratteristiche, come fai tu a rendere la tua offerta più "appetitosa"? Ci metti dentro un bel cd con un bel giochino... Il "bundle" è una trovata commerciale, non centra con la qualità di un prodotto ;)però quanto alla pasta di scarsa qualità e spalmata da cani, devo dire che ASUS sulla rev2 ha fatto davvero le cose in grande. Vabbè le ram sono scoperte, però guardando la vga di profilo si scorge il punto di contatto tra core e dissy, e ti assicuro che non si vede un filo di pasta trasbordante...Guarda, ti dico la verità... se le vga venissero montate con almeno il core del dissi in rame e una goccia di CoolLateral Liquid metal, si guadagnerebbe qualcosa che va dai 3 ai 5 °C in meno, per le aziende a costo irrisorio (cosa vuoi che influisca), come soluzione default. E magari se vuoi fare lo sborone come azienda e far vedere che metti la qualità dappertutto, metti il liquidmetal pad sui chip della ram e mosfets. Solo con questi piccolissimi accorgimenti, un'azienda sbaraglierebbe il mercato... ma da quanto ho letto su alcuni forum stranieri, forse qualcuno ha recepito l'idea...qualcuno ha provato i nuovi driver?Ho scaricato i 171.20 per Vista64 (forse WHQL), non so se fare la cazzata di provare ad installarli o meno, così come RivaTuner 2.07 :rolleyes:

-noxius-
07-03-2008, 15:41
Scusa ma cosa intendi ''a default '' ?

Escluso l'OC , a default restano le seguenti cose :

- componenti utilizzati , quali ad esempio condensatori , mosfets , alimentazione (Gigabyte, Zotac ..)
- bios utilizzato (tutte)
- dissipazione (Asus, ECS ..)
- parametri per il controllo della ventola
- bundle (XfX , EVGA ..)
- assistenza , DURATA garanzia e CLAUSOLE per l'RMA (EVGA, XfX , BFG ..)

-andrea-
07-03-2008, 15:46
Heheheh è da un pezzo che lo dico... e non va nemmeno Nibitor: volevo fare la Vmod anch'io ma non c'è verso...Se hai una scheda sola, nTune dovrebbe funzionare. Praticamente aggiunge alcune funzionalità al pannello di controllo Nvidia, quali velocità della ventola, clock di gpu e vram. E se hai una scheda madre basata su chipset Nvidia *potrebbe* darti il controllo su altri parametri della scheda stessa direttamente da Windows. Dico *potrebbe* perchè io che ho la Striker Extreme (basata su Nforce 680i) riesco a modificare solo alcuni parametri come freq. della cpu/ram, freq. dei bus spp ed mcp, timings delle ram (ma non è consigliabile modificarli mentre il sistema è in esecuzione, pena il freeze immediato :rolleyes:). Non posso mettere mano invece sul controllo delle ventole installate e sulle tensioni, e non capisco perchè.
azzzzzzzzz


qualcuno è riuscito ad ovviare a questo problemino?

petru916
07-03-2008, 15:56
Scusa ma cosa intendi ''a default '' ?

Escluso l'OC , a default restano le seguenti cose :

- componenti utilizzati , quali ad esempio condensatori , mosfets , alimentazione (Gigabyte, Zotac ..)
- bios utilizzato (tutte)
- dissipazione (Asus, ECS ..)
- parametri per il controllo della ventola
- bundle (XfX , EVGA ..)
- assistenza , DURATA garanzia e CLAUSOLE per l'RMA (EVGA, XfX , BFG ..)

guarda, io ho una xfx ke ho pagato 210€ appena uscita, potevo scegliere tra bfg, zotac e asus e ho scelto quella che costa meno xkè

-i componenti utilizzati sono gli stessi poichè sono ordinati da nvidia
-del bios nn me ne frega niente, nn faccio overvolt xkè nn mi va di friggere 210€...
-all'inizio i 3/4 delle gt erano tutte versioni reference
-il controllo della ventola lo si fa o da riva tuner o dai software proprietari come x esempio nelle gigabyte o nelle asus mi sembra.....
-company of heroes nn l' ho nemmeno installato
-qui in calabria nn ci sta nemmeno un punto d' assistenza.... la vga io la tengo al max 1 anno quindi nn mi tange + di tanto questa opzione....

spero di aver kiarito i motivi x cui x me e ci tengo a sottolinearlo tra bfg, xfx, zotac e pincopallino io scelgo quella ke costa meno :D :D

Samoht
07-03-2008, 16:08
Scusa ma cosa intendi ''a default '' ?

Escluso l'OC , a default restano le seguenti cose :

- componenti utilizzati , quali ad esempio condensatori , mosfets , alimentazione (Gigabyte, Zotac ..)
- bios utilizzato (tutte)Questi sono elementi che influiscono per lo più sull'oc della scheda. I componenti, come dice qualcuno, possono essere variati, ma devono rispettare nei parametri che danno complessivamente, le direttive di nVidia.- dissipazione (Asus, ECS ..)Qui, se hai letto bene, ho detto che è il punto in cui si potrebbe fare la differenza. Forse non ricordi, ma qualche tempo fa la Sapphire stava uscendo con un sistema esotico di raffreddamento a "metallo liquido", silenzioso ed efficace - lo montavano sulle X1900 se non sbaglio, modello "Blizzard". Si sono accorti che era costoso e han deciso di ritirarlo dal mercato. Mossa sbagliata, perchè quello di cui non si sono accorti è che, nonostante il prezzo, la gente stava diventando matta per trovare quelle schede.- parametri per il controllo della ventolaCome dice qualcuno, TivaTuner insegna...- bundle (XfX , EVGA ..)Già risposto.- assistenza , DURATA garanzia e CLAUSOLE per l'RMA (EVGA, XfX , BFG ..)Beh qui dipende, non si può generalizzare: due schede identiche della stessa casa mandate in rma può capitare che tornino una dopo due mesi e l'altra dopo quattro...guarda, io ho una xfx ke ho pagato 210€ appena uscita, potevo scegliere tra bfg, zotac e asus e ho scelto quella che costa meno xkè

-i componenti utilizzati sono gli stessi poichè sono ordinati da nvidia
-del bios nn me ne frega niente, nn faccio overvolt xkè nn mi va di friggere 210€...
-all'inizio i 3/4 delle gt erano tutte versioni reference
-il controllo della ventola lo si fa o da riva tuner o dai software proprietari come x esempio nelle gigabyte o nelle asus mi sembra.....
-company of heroes nn l' ho nemmeno installato
-qui in calabria nn ci sta nemmeno un punto d' assistenza.... la vga io la tengo al max 1 anno quindi nn mi tange + di tanto questa opzione....

spero di aver kiarito i motivi x cui x me e ci tengo a sottolinearlo tra bfg, xfx, zotac e pincopallino io scelgo quella ke costa meno :D :Dhai detto tutto. I responsabili di marketing lo sanno che il mercato "mainstream" è quello che cerca di scegliere il prodotto con il miglior rappoto prezzo/prestazioni. E sapendolo, lavorano su questo punto, anche tramite i "bundle" di cui parlavi sopra.

-noxius-
07-03-2008, 16:10
Samoth , qui non è che dobbiamo stare a controbattere per ogni cosa , ci mancherebbe ! Vuoi però negare che esistano differenze fra le varie case e quindi i modelli inerenti ? Come abbiamo visto , mi sembra evidente che esistano ed è in base a questa che dobbiamo valutare il rapporto prezzo-prestazoni . Non ci veniamo a lamentare se poi magari prendiamo adesso una gt a 180-190 euro e poi quando arriva constatiamo che è una rev 1 magari pure con ram difettose (nell'eventualità che ..) !

Bhè , non tutti i materiali utilizzati sono uguali ! Gigabyte e zotac per quanto ho visto hanno mosfets e condensatori migliori rispetto ad altri modelli ''low cost'' e magari pure rev1 ; che poi i miglioramenti siano marginali questo è un'altro discorso ma non possiamo generalizzare livellando tutti i modelli , altrimenti che senso avrebbe l'esistenza stessa di tutte queste versioni differenti ?

- il bios a molte persone interessa anche se c'è da dire che flasharlo richiede un minimo di esperienza e quindi non è una pratica comune
- all'inizio ma di acqua sotto i ponti ne è passata mi sembra ;)
- non tutti conoscono rivatuner , per non parlare dei più generali e ''banali'' software di OC-monitoraggio temperature ; io stesso a novembre dell'anno scorso non sapevo nemmeno che esistesse rivatuner .. Questo significa che molte persone dentro un case hanno ancora una bella stufetta da 90 gradi e passa (non oso pensare in estate che succederà ..)
- però te lo hanno messo in bundle ..
- i punti di assistenza non servono ,puoi anche rimandarla indietro al venditore , il quale a sua volta la rimanda nel centro di assistenza in europa .
L' assistenza si paga , datti una letta alle modalità di RMA tra le varie case e ti ricrederai .

bronzodiriace
07-03-2008, 16:13
ragazzi chiedo uno mano a voi per la mia 8800gt


i miglior drivers per giocare a crysis

-noxius-
07-03-2008, 16:20
171.12 -169.21

bronzodiriace
07-03-2008, 16:30
171.12 -169.21

ed i 169.44 da abbinare alla patch 1.2?

Samoht
07-03-2008, 16:39
Samoth , qui non è che dobbiamo stare a controbattere per ogni cosa , ci mancherebbe ! Vuoi però negare che esistano differenze fra le varie case e quindi i modelli inerenti ? Come abbiamo visto , mi sembra evidente che esistano ed è in base a questa che dobbiamo valutare il rapporto prezzo-prestazoni . Non ci veniamo a lamentare se poi magari prendiamo adesso una gt a 180-190 euro e poi quando arriva constatiamo che è una rev 1 magari pure con ram difettose (nell'eventualità che ..) !

Bhè , non tutti i materiali utilizzati sono uguali ! Gigabyte e zotac per quanto ho visto hanno mosfets e condensatori migliori rispetto ad altri modelli ''low cost'' e magari pure rev1 ; che poi i miglioramenti siano marginali questo è un'altro discorso ma non possiamo generalizzare livellando tutti i modelli , altrimenti che senso avrebbe l'esistenza stessa di tutte queste versioni differenti ?

- il bios a molte persone interessa anche se c'è da dire che flasharlo richiede un minimo di esperienza e quindi non è una pratica comune
- all'inizio ma di acqua sotto i ponti ne è passata mi sembra ;)
- non tutti conoscono rivatuner , per non parlare dei più generali e ''banali'' software di OC-monitoraggio temperature ; io stesso a novembre dell'anno scorso non sapevo nemmeno che esistesse rivatuner .. Questo significa che molte persone dentro un case hanno ancora una bella stufetta da 90 gradi e passa (non oso pensare in estate che succederà ..)
- però te lo hanno messo in bundle ..
- i punti di assistenza non servono ,puoi anche rimandarla indietro al venditore , il quale a sua volta la rimanda nel centro di assistenza in europa .
L' assistenza si paga , datti una letta alle modalità di RMA tra le varie case e ti ricrederai .Hai ragione, su tutto.

7stars
07-03-2008, 17:10
Hai ragione, su tutto.
ed invece non è vero perchè alcune ram sono "difettose" occate e quindi soprattutto i modelli non standard...le suddette ram non sono difettose a default qui soprattutto ci si è lamentati delle rev1 di alcune marche che le occavano di fabbrica quindi non si può fare un processo alle rev1 piuttosto alle aziende che le hanno vendute in quel modo...se uno poi vuole per forza occare o prende la scheda occata di fabbrica è un altro discorso.
con questo voglio dire che io l'oc di fabbrica non lo concepisco...anzi lo vieterei,lasciamole agli utenti queste cose...

il Caccia
07-03-2008, 17:18
l'rma si paga?? magari si pagano le spese di spedizione per mandare la scheda in rma, ma che si paghi l'rma, ovvero l'assistenza entro i termini della garanzia mi suona proprio come novità!io non ho mai pagato..e ne ho cambiate di schede e mandate in rma almeno un paio..sostituite, riparate, mai pagato..

diciamo che anche noxius ha le sue ragioni per dire quel che dice, è evidente che le schede non siano tutte uguali, a partire dalla componentistica per arrivare al bundle attraversando il livello di qualità dell'assistenza (non certo pagando un rma), ma decisamente sono dalla parte di samoht, perchè se la scheda piu' cazzuta ed economica mettiamo così per dire la 8800gt della piiik (...), bene, se tenuta a default, scaldi anche a 90° (cosa a cui non credo..) sia pure brutta, ma svolga il suo lavoro e rispetti le caratteristiche che dichiara e per la quale sia stata acquistata allora qual è il problema per una persona a cui il gioco in bundle non interessa, non deve fare oc, neanche ov, che non conosca e se ne freghi altamente di cosa sia rivatuner o magari non sappia nemmeno da che parte si apra il case, embhè? la scheda va scusa, e va come una 8800gt, ovvero quel che è!
se poi anche a default, anche magari dopo tre ore di crysis si frigge, se non si avvia il pc a causa sua, se la pasta è di qualità e distribuzione vergognosa e si frigge, insomma se non fa quello per cui è stata progettata beh allora sarebbe veramente il caso di attivare una class action o insomma metterci tutti d'accordo e denunciare quella casa, perchè sarebbe una truffa..ma prima credo che la denuncerebbe la nvidia scusate eh..

-noxius-
07-03-2008, 17:40
l'rma si paga?? magari si pagano le spese di spedizione per mandare la scheda in rma, ma che si paghi l'rma, ovvero l'assistenza entro i termini della garanzia mi suona proprio come novità!io non ho mai pagato..e ne ho cambiate di schede e mandate in rma almeno un paio..sostituite, riparate, mai pagato..

diciamo che anche noxius ha le sue ragioni per dire quel che dice, è evidente che le schede non siano tutte uguali, a partire dalla componentistica per arrivare al bundle attraversando il livello di qualità dell'assistenza (non certo pagando un rma), ma decisamente sono dalla parte di samoht, perchè se la scheda piu' cazzuta ed economica mettiamo così per dire la 8800gt della piiik (...), bene, se tenuta a default, scaldi anche a 90° (cosa a cui non credo..) sia pure brutta, ma svolga il suo lavoro e rispetti le caratteristiche che dichiara e per la quale sia stata acquistata allora qual è il problema per una persona a cui il gioco in bundle non interessa, non deve fare oc, neanche ov, che non conosca e se ne freghi altamente di cosa sia rivatuner o magari non sappia nemmeno da che parte si apra il case, embhè? la scheda va scusa, e va come una 8800gt, ovvero quel che è!
se poi anche a default, anche magari dopo tre ore di crysis si frigge, se non si avvia il pc a causa sua, se la pasta è di qualità e distribuzione vergognosa e si frigge, insomma se non fa quello per cui è stata progettata beh allora sarebbe veramente il caso di attivare una class action o insomma metterci tutti d'accordo e denunciare quella casa, perchè sarebbe una truffa..ma prima credo che la denuncerebbe la nvidia scusate eh..

Non ci siamo capiti , intendevo dire ''si paga'' nel senso che una gt della EVGA, mettiamo ''a default'' , la paghi magari 20-30 euro in più rispetto alle altre marche ! Non è che devi pagare l'rma , hehe ... sarebbe paradossale ;)

Certo , se vuoi una scheda liscia senza fare OC e fregandotene di tutto sei libero di prendertela ! Però dopo non veniamoci a lamentare se mancano i sensori della temperatura, se per tagliare sui costi le rilasciano buggate a causa di un basso livello di controlli , se hanno un rumore pari a quello di una turbina di un aereo , se sentiamo schicchere elettriche nel case a causa di condensatori non proprio eccellenti , se quando la mandiamo in RMA devono passare 3 mesi senza che ci supportano nel mentre , se ci mettono 10 anni per rispondere alle mail , se superano i 90 gradi nel case , se le dobbiamo downcloccare per rendere stabili , se non possiamo fare OC , se ,se ,se ....

Insomma , SE vuoi qualcosa in più lo paghi ;) . Le versioni OC secondo me ci possono stare MA , con le dovute condizioni (NON come , per esempio , alcuni modelli rev1 della XfX alpha dog edition .. )

Tra parentesi , 7stars , hanno anche rilasciato modelli di GT le cui ram dovevano essere downcloccate a causa di instabilità ed artefatti a DEFAULT .

Per i test che ho fatto essenzialmente credo che dipenda dall'accoppiata temperatura-voltaggi del singolo banco di ram ; ad esempio le quimonda 1ns dovrebbero stare a 1.8 ed invece stanno a 2 e passa con il risultato che se le downvolti hai un maggiore OC (si ringrazia watnias per i test ed i suggerimenti ) , ma guarda un pò :rolleyes:

il Caccia
07-03-2008, 17:47
Non ci siamo capiti , intendevo dire ''si paga'' nel senso che una gt della EVGA, mettiamo ''a default'' , la paghi magari 20-30 euro in più rispetto alle altre marche ! Non è che devi pagare l'rma , hehe ... sarebbe paradossale ;)

ad esempio le quimonda 1ns dovrebbero stare a 1.8 ed invece stanno a 2 e passa con il risultato che se le downvolti hai un maggiore OC (si ringrazia watnias per i test ed i suggerimenti ) , ma guarda un pò :rolleyes:


Si ero un po' ironico sull'rma :) ci mancherebbe che lo si dovesse pagare..

le quimonda sbaglio o sono quelle che monta anche la 8800gt della pov versione exo? no perchè volevo prendere proprio quella, cè qualcosa da sapere in merito?mica problemi?

alenter
07-03-2008, 17:57
Le versioni OC secondo me ci possono stare MA , con le dovute condizioni (NON come , per esempio , alcuni modelli rev1 della XfX alpha dog edition .. )



Ciao scusa per curiosita' cos'hanno alcune di queste alpha dog edition? :confused: ;)

-noxius-
07-03-2008, 18:13
Ciao scusa per curiosita' cos'hanno alcune di queste alpha dog edition? :confused: ;)

Le rev 2 AD sono ottime schede , le rev1 AD sembrava di no ;)

Poi è ovvio , dipende dai casi e dalla fortuna in quanto c'è anche gente che con le rev1 alpha dog non ha avuto problemi .

Ad ogni modo un motivo per fare una seconda revisione , e sostituire completamente fino ad esaurimento quella precedente, evidentemente c'èra ;)

Dovrebbe , se non quimonda sono samsung-hynix ma è uguale .

noshalans
07-03-2008, 19:32
Samoth, adesso ho letto tutto un po veloce perchè sono tornato dall' università e sono un po stanco..

ma le schede non sono di certo tutte uguali:

non puoi dirmi che una XFX è uguale a una Peak e quindi mi dici fatti la Peak perchè costa di meno ma è alla pari dell XFX :rolleyes:

Per tutti gli altri che dicono di avere una Sparkle e non hanno nessun problema, soprattutto in oc, vi dico beati voi! Ma se adesso mi è capitata una 8800GT che è differente dalle altre Sparkle di sicuro penso che se avrei puntato su marche tipo XFX, POV o Zotac di sicuro non avrei avuto questo problema e sarei stato sicuro di godermi una 8800GT come TUTTE le altre standard.

River Phoenix
08-03-2008, 10:11
Salve

Ho smontato il dissi (standard) della mia pny 8800 gt volendo sostituirlo con un vf900 + 8 lunzini x ram ma ho notato che con il dissi originale vengono dissipati anche altre parti della vga (penso mosfet).....

Che dite? Io quelli non avrei da dissiparli visto che ho solo 8 lunzini, come dovrei fare?
Se non metto nulla rischio di bruciare la vga?

Grazie

-noxius-
08-03-2008, 11:36
Se non fai OC forse addirittura ti conviene anche evitare di metterli ;)
Non bruci nulla ,stai tranquillo ; l'unica accortezza sarebbe quella di misurare le temperature con rivatuner (guarda in prima pagina) ;)

Tpplay
08-03-2008, 11:43
Salve

Ho smontato il dissi (standard) della mia pny 8800 gt volendo sostituirlo con un vf900 + 8 lunzini x ram ma ho notato che con il dissi originale vengono dissipati anche altre parti della vga (penso mosfet).....

Che dite? Io quelli non avrei da dissiparli visto che ho solo 8 lunzini, come dovrei fare?
Se non metto nulla rischio di bruciare la vga?

Grazie

io i mosfet non li ho dissipati vai tranquillo non succede niente puoi anche fare oc

River Phoenix
08-03-2008, 11:45
Tu hai il mio stesso modello (600 di core) ?

Anche tu avevi le striscie termoconduttive proprio sopra i mosfet?

Thx

Tpplay
08-03-2008, 11:55
Tu hai il mio stesso modello (600 di core) ?

Anche tu avevi le striscie termoconduttive proprio sopra i mosfet?

Thx

ho la pny rev1 600 di core, si avevo le strisce termoconduttive sopra i mosfet

River Phoenix
08-03-2008, 12:11
ho la pny rev1 600 di core, si avevo le strisce termoconduttive sopra i mosfet

Si penso sia la stessa che ho io...presa al mediaw@rld....

Tpplay
08-03-2008, 13:33
Si penso sia la stessa che ho io...presa al mediaw@rld....

esatto!

Lino P
08-03-2008, 14:14
noxius, leggi bene il mio post... non ho detto che le vga sono tutte uguali quando si parla di OC... ma quelle della stessa famiglia @ default è ovvio che lo sono.

"bundle"? ho letto bene? secondo te a cosa serve il bundle? se io e te vendiamo vga, e le nostre schede sono uguali come caratteristiche, come fai tu a rendere la tua offerta più "appetitosa"? Ci metti dentro un bel cd con un bel giochino... Il "bundle" è una trovata commerciale, non centra con la qualità di un prodotto ;)Guarda, ti dico la verità... se le vga venissero montate con almeno il core del dissi in rame e una goccia di CoolLateral Liquid metal, si guadagnerebbe qualcosa che va dai 3 ai 5 °C in meno, per le aziende a costo irrisorio (cosa vuoi che influisca), come soluzione default. E magari se vuoi fare lo sborone come azienda e far vedere che metti la qualità dappertutto, metti il liquidmetal pad sui chip della ram e mosfets. Solo con questi piccolissimi accorgimenti, un'azienda sbaraglierebbe il mercato... ma da quanto ho letto su alcuni forum stranieri, forse qualcuno ha recepito l'idea...Ho scaricato i 171.20 per Vista64 (forse WHQL), non so se fare la cazzata di provare ad installarli o meno, così come RivaTuner 2.07 :rolleyes:

sono d'accordo, però considera che il marketing lavora per la massa, non per la nicchia di appassionati...
L'80% dei clienti dei vari partner nVIDIA, sono utenti comuni, che non capiscono una mazza di qualità di assemblaggio, dei componenti, di sistemi di dissipazione, ecc... Dunque la percentuale di utenti che percepirebbe il valore di certi accorgimenti, sarebbe decisamente bassa...
Da persona specializzata in marketing e comunicazione, ti assicuro che l'impresa guarda al profitto, e mira ad assecondare il target "massa", se la massa non capisce una mazza di assemblaggio, l'azienda non investe su canoni scarsamente diffusi e percepiti...
Se fossi il responsabile marketing e comunicazione per nVIDIA o uno dei suoi partner (è il mio sogno lo confesso), mi guarderei bene dal puntare sulle chicche..
Non a caso, la maggior tiratura di VGA, la fanno registrare sapphire per ATI, e POW, sparkle e qualcun altro per nVIDIA, cioè i brand con pochi fronzoli, e tanta sostanza...;)

Ovvio che da appassionato, convengo con te che un pizzico di accortezza in + in sede di assemblaggio sarebbe piacevole riscontrala...:)

robertino75
08-03-2008, 16:29
regà un info....ma quali sono i migliori driver da usare?io con tutti questi driver che ci sono tra quelli ufficiali...le beta...e quelli modificati non ci sto capendo piu niente...io ora ho X-Treme G 174.16....meglio questi o i 174.12?visto che i 174.16 dovrebbero essere per 9600gt?

overjet
08-03-2008, 17:14
Io ho messo gli ultimi che hanno segnalato su hwupgrade i Forceware 169.44.
Mentre installavo mi ha chiesto di sovraschivere dei files già esistenti che erano più recenti...

Cmq c'è un po' di confusione con tutti questi drivers...

overjet
08-03-2008, 17:18
Questi ultimi sono segnalati anche sul sito nvidia nella sezione dei drivers beta.

ForceWare Release 169 BETA 169.44 March 6, 2008

Release Highlights:

Beta driver for GeForce FX, 6, 7, and 8 series GPUs.
Recommended for use with Crysis Patch v1.2
Users without US English operating systems can select their language and download the International driver here. http://www.nvidia.com/Download/index.aspx

noshalans
08-03-2008, 17:22
Qualcuno che ha avuto modo di provare diversi driver (soprattutto le ultime beta), sa dirmi quali sono i migliori per benchare?

bronzodiriace
08-03-2008, 17:44
mi potreste linkare le directx 9 più aggiornate cortesemente ^_^

robertino75
08-03-2008, 19:06
Questi ultimi sono segnalati anche sul sito nvidia nella sezione dei drivers beta.

ForceWare Release 169 BETA 169.44 March 6, 2008

Release Highlights:

Beta driver for GeForce FX, 6, 7, and 8 series GPUs.
Recommended for use with Crysis Patch v1.2
Users without US English operating systems can select their language and download the International driver here. http://www.nvidia.com/Download/index.aspx

ho scaricato e installato i 169.44....
e apparte il fatto che non sono supportati da rivaturner....
poi ho provato a fare il bech di crysis(ho installato la patch 1.2)e non solo il gioco non gira meglio....ma gira peggio che con i 174.16...e fortuna che questi sono consigliati per chi ha installato la patch 1.2 di crysis :doh:

GIAMPI87
08-03-2008, 20:39
Salve ragazzi voglio portarmi la mia esperienza: Ho una ASUS 8800 GT ed ho sostituito il dissipatore stock con lo Zalman GV 1000. Oggi ho fatto un po’ di test per vedere come si comportava in overclock la mia scheda.

Attraverso Riva turner 0.26 ho impostato:

Core: 700
Shaker: 1700
Memory: 2000

Per testare la stabilità e le temperature ho effettuato 30 minuti del “test per cercare artefatti” di Atitool, poi ho giocato per circa 1 ora a PES 2008, poi ho effettuato 3 volte consecutive il 3D Mark 2006, ed infine ho giocato a crysis in vari livelli per circa 2 ore (1280x1024 con il fix per very high sotto xp e AA 2X).

Durante l’esecuzione di questi test non vi è stato nessun artefatto, crash, freez e via dicendo tutto liscio come l’olio. Per quanto riguarda le temp in idle stavo a 28°C e alla fine di tutti i test (appena uscito da 2 ore di crysis) avevo solo 47°C !!!!!!!!! (bisogna dire che regolo la velocità della ventola con la manopola del Fanmate in dotazione ed era regolato al minimo: 1650 rpm, praticamente inudibile).

Non ho postato screen perché purtroppo nella mia zona ancora non c’è l’ADSL e avrei perso troppo tempo. A chi aveva problemi di temperature elevate non posso che sconsigliare questo Zalman è un po’ caro (io l’ho preso 45 €) ma è efficiente, silenzioso ed anche molto bello !!!!!! Spero di essere stato utile a qualcuno. ;)

robertino75
08-03-2008, 21:05
Salve ragazzi voglio portarmi la mia esperienza: Ho una ASUS 8800 GT ed ho sostituito il dissipatore stock con lo Zalman GV 1000. Oggi ho fatto un po’ di test per vedere come si comportava in overclock la mia scheda.

Attraverso Riva turner 0.26 ho impostato:

Core: 700
Shaker: 1700
Memory: 2000

Per testare la stabilità e le temperature ho effettuato 30 minuti del “test per cercare artefatti” di Atitool, poi ho giocato per circa 1 ora a PES 2008, poi ho effettuato 3 volte consecutive il 3D Mark 2006, ed infine ho giocato a crysis in vari livelli per circa 2 ore (1280x1024 con il fix per very high sotto xp e AA 2X).

Durante l’esecuzione di questi test non vi è stato nessun artefatto, crash, freez e via dicendo tutto liscio come l’olio. Per quanto riguarda le temp in idle stavo a 28°C e alla fine di tutti i test (appena uscito da 2 ore di crysis) avevo solo 47°C !!!!!!!!! (bisogna dire che regolo la velocità della ventola con la manopola del Fanmate in dotazione ed era regolato al minimo: 1650 rpm, praticamente inudibile).

Non ho postato screen perché purtroppo nella mia zona ancora non c’è l’ADSL e avrei perso troppo tempo. A chi aveva problemi di temperature elevate non posso che sconsigliare questo Zalman è un po’ caro (io l’ho preso 45 €) ma è efficiente, silenzioso ed anche molto bello !!!!!! Spero di essere stato utile a qualcuno. ;)

28 gradi in idle?e che temperatura ambiente hai dentro la stanza?:eek:
mai sentita una temperatura in idle cosi bassa ad aria...

7stars
08-03-2008, 21:17
28 gradi in idle?e che temperatura ambiente hai dentro la stanza?:eek:
mai sentita una temperatura in idle cosi bassa ad aria...
non è poi tanto una novità...con uno zalman anch'io ho 28° anche dopo che il pc è stato acceso per 3 giorni... :asd:

noshalans
08-03-2008, 21:21
ho scaricato e installato i 169.44....
e apparte il fatto che non sono supportati da rivaturner....
poi ho provato a fare il bech di crysis(ho installato la patch 1.2)e non solo il gioco non gira meglio....ma gira peggio che con i 174.16...e fortuna che questi sono consigliati per chi ha installato la patch 1.2 di crysis :doh:

Quindi i 174.14 vanno meglio dei 169.44? E per quanto riguarda i 169.21 WHQL, noti miglioramenti con quelli beta?

robertino75
08-03-2008, 21:22
non è poi tanto una novità...con uno zalman anch'io ho 28° anche dopo che il pc è stato acceso per 3 giorni... :asd:

si....nel frigorifero :asd:

robertino75
08-03-2008, 21:25
Quindi i 174.14 vanno meglio dei 169.44? E per quanto riguarda i 169.21 WHQL, noti miglioramenti con quelli beta?

non mi ricordo quanto facevo con i 169.21 :boh:
cmq è tutto troppo incasinato...troppi driver....e non si riesce a capire quali portino effettivamente dei vantaggi...

7stars
08-03-2008, 21:30
si....nel frigorifero :asd:
no quale frigorifero...nel mio studio non fa nè caldo nè freddo :asd:

GIAMPI87
08-03-2008, 21:44
28 gradi in idle?e che temperatura ambiente hai dentro la stanza?:eek:
mai sentita una temperatura in idle cosi bassa ad aria...

http://img208.imageshack.us/img208/3469/71073114lz3.jpg

robertino75
08-03-2008, 21:56
http://img208.imageshack.us/img208/3469/71073114lz3.jpg

per curiosità...mi dici quant'è la temperatura ambientale?

petru916
08-03-2008, 22:00
per curiosità...mi dici quant'è la temperatura ambientale?

tra i -25 e i -50 :asd: parlando seriamente....complimentoni!28° la mi skeda nn li tiene manco quando ho il pc spento!cmq la tua è una skeda ke secondo me in overvolt farebbe faville!;) facci un pensierino eh!^^

GIAMPI87
08-03-2008, 22:04
tra i -25 e i -50 :asd: parlando seriamente....complimentoni!28° la mi skeda nn li tiene manco quando ho il pc spento!cmq la tua è una skeda ke secondo me in overvolt farebbe faville!;) facci un pensierino eh!^^

Nella mia stanza ci saranno un 18-20 gradi circa cmq il case è ben ventilato ho una ventola 12x12 posteriormente ed una 8x8 davanti alla scheda video. Per ilfatto dell'overvolt non so come fare sai indicarmi qualche guida :sofico:

robertino75
08-03-2008, 22:07
tra i -25 e i -50 :asd: parlando seriamente....complimentoni!28° la mi skeda nn li tiene manco quando ho il pc spento!cmq la tua è una skeda ke secondo me in overvolt farebbe faville!;) facci un pensierino eh!^^

:asd:
riva turner a me segna 30 gradi di temperatura ambientale e 41 sul core che poi sale fino a 54gradi circa in full...
quello che dico è che per avere 28 gradi bisogna avere per forza una temperatura ambientale piu bassa o no?:D

robertino75
08-03-2008, 22:10
Nella mia stanza ci saranno un 18-20 gradi circa cmq il case è ben ventilato ho una ventola 12x12 posteriormente ed una 8x8 davanti alla scheda video. Per ilfatto dell'overvolt non so come fare sai indicarmi qualche guida :sofico:

miiiiiiiiiiiiiiii 18-20 gradi....ma non senti freddo?:D
riva turner quanti gradi ti segna sotto la voce temperatura ambientale?:D

petru916
08-03-2008, 22:11
Nella mia stanza ci saranno un 18-20 gradi circa cmq il case è ben ventilato ho una ventola 12x12 posteriormente ed una 8x8 davanti alla scheda video. Per ilfatto dell'overvolt non so come fare sai indicarmi qualche guida :sofico:

allora x l' overvolt dovresti vedere nel thread tecnico della gt, cmq anke io voglio le tue ventole!!!!:fagiano: me le regali???*_* :sofico: :asd: ^^

:asd:
riva turner a me segna 30 gradi di temperatura ambientale e 41 sul core che poi sale fino a 54gradi circa in full...
quello che dico è che per avere 28 gradi bisogna avere per forza una temperatura ambientale piu bassa o no?:D

beh io se metto la skeda in frigo sta cmq sopra i 40° U_U mi ci gioco quelle cose lì :asd:

PS: ripensandoci nn me le gioco, sn importanti U_U :D :D

Genocide85
08-03-2008, 22:15
wow, un delta di meno di 10° è roba di raffreddamento a liquido:eek:

robertino75
08-03-2008, 22:17
allora x l' overvolt dovresti vedere nel thread tecnico della gt, cmq anke io voglio le tue ventole!!!!:fagiano: me le regali???*_* :sofico: :asd: ^^

perchè non hai le ventole nel case?^^
io ne ho una 14x14 in aspirazione nella parte frontale del case...una 8x8 in aspirazione nel pannello laterale e una 12x12 in espulsione nella parte posteriore...cosa che penso hanno bene o male tutti i case ^^


beh io se metto la skeda in frigo sta cmq sopra i 40° U_U mi ci gioco quelle cose lì :asd:

PS: ripensandoci nn me le gioco, sn importanti U_U :D :D
quelle e sempre meglio non giocarsele...non si sà mai :asd:

GIAMPI87
08-03-2008, 22:19
Per le ventole le ho prese della Zalman 20 € tutte e due con led blu e silenziose. Per la temp ambientale in effetto oggi fa un pò più freddo del solito, non sò come si fa a vedere con riva turner. Puoi dirmelo :rolleyes:

petru916
08-03-2008, 22:24
perchè non hai le ventole nel case?^^
io ne ho una 14x14 in aspirazione nella parte frontale del case...una 8x8 in aspirazione nel pannello laterale e una 12x12 in espulsione nella parte posteriore...cosa che penso hanno bene o male tutti i case ^^


quelle e sempre meglio non giocarsele...non si sà mai :asd:
il mio case varrà si e no una ventina d' eurozzi :asd: cmq io mi sn appena ritirato, ho capito la caxxata ke avevo fatto....e poi diciamoci la verità....sono giovine e ancora ho tutta la vita d'avanti, mi servono! XDXD :sofico:

Per le ventole le ho prese della Zalman 20 € tutte e due con led blu e silenziose. Per la temp ambientale in effetto oggi fa un pò più freddo del solito, non sò come si fa a vedere con riva turner. Puoi dirmelo :rolleyes:

dovresti riuscire ad abilitare la visualizzazione di tale temperatura dal setup di quella finestra

robertino75
08-03-2008, 22:24
Per le ventole le ho prese della Zalman 20 € tutte e due con led blu e silenziose. Per la temp ambientale in effetto oggi fa un pò più freddo del solito, non sò come si fa a vedere con riva turner. Puoi dirmelo :rolleyes:

c'è il grafico della temperatura ambiente...come c'è quello della temperatura della gpu....

http://www.pctunerup.com/up/results/_200803/th_20080308222338_riva.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080308222338_riva.JPG)

le mie sono della thermaltake...purtroppo apparte quella dello sportello del case le altre non hanno i led blu :cry:

GIAMPI87
08-03-2008, 22:30
c'è il grafico della temperatura ambiente...come c'è quello della temperatura della gpu....

http://www.pctunerup.com/up/results/_200803/th_20080308222338_riva.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080308222338_riva.JPG)

le mie sono della thermaltake...purtroppo apparte quella dello sportello del case le altre non hanno i led blu :cry:

nel mio menù di riva turner si ferma alla voceHardware\acceleratio open gl e l'ultima voce non so perchè:muro:

ganzo999
08-03-2008, 22:36
non è poi tanto una novità...con uno zalman anch'io ho 28° anche dopo che il pc è stato acceso per 3 giorni... :asd:


:ops2: sisi anch'io la tengo a 28°, ma mi riesce difficile sedermi davanti al PC, la sedia è sempre occupata.....sti c@zzi di pinguini non mi fanno lavorare :sofico:

robertino75
08-03-2008, 22:59
:ops2: sisi anch'io la tengo a 28°, ma mi riesce difficile sedermi davanti al PC, la sedia è sempre occupata.....sti c@zzi di pinguini non mi fanno lavorare :sofico:

io invece i pinguini ce l'ho nel frigo...i kinder pinguì :asd:

Pola_88
09-03-2008, 00:30
Ciao raga! sto per acquistare una zotac 8800gt!! voi come vi siete trovati? rispetto alle altre marche disponibili come'??? e poi, la versione AMP conviene comprarla oppure e' meglio prendere la standard e occarla per benino??

-noxius-
09-03-2008, 01:12
Ottima scheda video ma per la piccola differenza ti consiglierei la amp ;) (a meno che tu non sia già capace ad overvoltare da bios riflashandola , se così fosse prendi la liscia che è = )

rizzotti91
09-03-2008, 10:28
Ragazzi, rifaccio la domanda, perche ne ho letto di tutti i tipi come risposta :(

Io downclocco la scheda video quando gioco a giochi poco esigenti, quando lascio il pc acceso a non fare niente etc... ho visto che le temp calano di 2-3 gradi e credo che il consumo cali di qualche watt... non sono però riuscito a capire se il downclock fa male alla scheda... una volta per tutte, sfatiamo questo mito? :D

Grazie.

P.S con la nuova versione di rivatuner la temp delle asus viene rilevata senza il plugin g92 :D

petru916
09-03-2008, 10:38
Ciao raga! sto per acquistare una zotac 8800gt!! voi come vi siete trovati? rispetto alle altre marche disponibili come'??? e poi, la versione AMP conviene comprarla oppure e' meglio prendere la standard e occarla per benino??

la migliore^^ sale benissimo in oc!;)

petru916
09-03-2008, 10:40
Ragazzi, rifaccio la domanda, perche ne ho letto di tutti i tipi come risposta :(

Io downclocco la scheda video quando gioco a giochi poco esigenti, quando lascio il pc acceso a non fare niente etc... ho visto che le temp calano di 2-3 gradi e credo che il consumo cali di qualche watt... non sono però riuscito a capire se il downclock fa male alla scheda... una volta per tutte, sfatiamo questo mito? :D

Grazie.

P.S con la nuova versione di rivatuner la temp delle asus viene rilevata senza il plugin g92 :D

nn fa assolutamente niente, altrimenti cm farebbero le skede ati ke stanno nel 2d a frequenze bassissime e in 3d salgono alle frequenze standard??^^ nn ti preoccupare, si può fare ;)

rizzotti91
09-03-2008, 10:52
nn fa assolutamente niente, altrimenti cm farebbero le skede ati ke stanno nel 2d a frequenze bassissime e in 3d salgono alle frequenze standard??^^ nn ti preoccupare, si può fare ;)

OK grazie, spero di non leggere più che il downclock fa male :D

petru916
09-03-2008, 11:02
OK grazie, spero di non leggere più che il downclock fa male :D

lo spero anke io xkè lo faccio sempre :asd: e la skeda ancora funge benone :asd::asd:

RoUge.boh
09-03-2008, 11:46
ragazzi... help me please....:cry: :cry: :cry: :cry: nn riesco in nessun modo a vedere le teperature della mia scheda video.... connessun programma GPU-Z everest ntune.....
guardate:
http://www.pctunerup.com/up/results/_200803/th_20080309114305_schedavideo.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080309114305_schedavideo.JPG)
http://www.pctunerup.com/up/results/_200803/th_20080309114317_scheda2.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080309114317_scheda2.JPG)
nel pannello di controllo..nn manca una voce? quello riferito alle temperature....
sono con gli ultimi driver... nn so proprio cosa fare....

johnkr88
09-03-2008, 11:58
ragà voi dite ke è pericoloso tenere la freq pci-ex a 108mhz ?

petru916
09-03-2008, 12:07
ragazzi... help me please....:cry: :cry: :cry: :cry: nn riesco in nessun modo a vedere le teperature della mia scheda video.... connessun programma GPU-Z everest ntune.....
guardate:
\cut\
sono con gli ultimi driver... nn so proprio cosa fare....

riva tuner???

RoUge.boh
09-03-2008, 12:10
riva tuner???

provato niente...e come se nn avesse il sensore..o qualche cosa installato male...xke su ntune su impostazione temperature GPU....vado...applica...ok... nn fa niente..ritorno...e lo trovo disattivato..

johnkr88
09-03-2008, 12:16
ragà voi dite ke è pericoloso tenere la freq pci-ex a 108mhz ?

?:confused:

petru916
09-03-2008, 12:26
ragà voi dite ke è pericoloso tenere la freq pci-ex a 108mhz ?
mi sa ke dovrebbe stare su 101
provato niente...e come se nn avesse il sensore..o qualche cosa installato male...xke su ntune su impostazione temperature GPU....vado...applica...ok... nn fa niente..ritorno...e lo trovo disattivato..

mmmm....mi sembra ke la asus abbia un software proprietario, prova a vedere lì...

davide155
09-03-2008, 13:45
Ciao raga! sto per acquistare una zotac 8800gt!! voi come vi siete trovati? rispetto alle altre marche disponibili come'??? e poi, la versione AMP conviene comprarla oppure e' meglio prendere la standard e occarla per benino??

Ottima scheda video ma per la piccola differenza ti consiglierei la amp ;) (a meno che tu non sia già capace ad overvoltare da bios riflashandola , se così fosse prendi la liscia che è = )

Quoto........ho una Zotac amp edition e mi trovo strabenissimo.
E' una vera bestia questa scheda, silenziosissima e non scalda una mazza per via del dissipatore maggiorato ;)

RoUge.boh
09-03-2008, 13:51
mi sa ke dovrebbe stare su 101


mmmm....mi sembra ke la asus abbia un software proprietario, prova a vedere lì...

mmm provo a vedere nel cd allora...:mc:

RoUge.boh
09-03-2008, 14:16
mmm provo a vedere nel cd allora...:mc:

nada niente.....nn mi da neinte....nessuna temperatura..... :cry: :cry:

Genocide85
09-03-2008, 14:18
in prima pagina c'è il link al software per le asus.....

noshalans
09-03-2008, 14:32
ragà voi dite ke è pericoloso tenere la freq pci-ex a 108mhz ?

finchè non superi i 115mhz puoi stare tranquillo ;)

se vai oltre potresti riscontrare qualche problema non solo per quanto riguarda la vga

robertino75
09-03-2008, 14:37
finchè non superi i 115mhz puoi stare tranquillo ;)

se vai oltre potresti riscontrare qualche problema non solo per quanto riguarda la vga

ma serve a qualcosa tenerlo a 108 invece che a 100-101?da quello che ho capito no....mi sbaglio?

Lino P
09-03-2008, 15:05
nada niente.....nn mi da neinte....nessuna temperatura..... :cry: :cry:

Scarica il plug in di riva per la ASUS, ed installalo come illustrato in questa guida:
http://www.baila-it.net/news.php?item.27.1

In alternativa, puoi usare la versione 5.08 di smartdoctor...
Saluti

-noxius-
09-03-2008, 15:06
finchè non superi i 115mhz puoi stare tranquillo ;)

se vai oltre potresti riscontrare qualche problema non solo per quanto riguarda la vga

MICA TANTO ! Appurato il fatto che aumentare il bus del PCI-E sulle 8800 NON SERVE A NULLA , è testato anche il fatto che salire di bus porta più problemi che altro (anche seri tipo perdita dati HD) ..

Poi fate voi .. E' sulle 9600gt che funziona ma alla fine aumenta di poco anche lì , per quello che serve (3dmark ?) .

Servirebbe con frequenze intorno a 130-140 ma già a 115 ti può creare seri fastidi dato che non è supportato dalla mobo . Le 580i lo supportavano, sulle 7900GTX (o 7800..)

johnkr88
09-03-2008, 15:21
ma allora una volta x tutte diciamolo la vga si rovina mettendo freq basse o no ?

YordanRhapsody
09-03-2008, 15:44
salve, sono un nuovo 8800gt-user

ho da poco installato una asus en8800gt 512 ddr3, il computer al momento necessità di una certa ventata di novità, ancora viaggio con un p4 d930 su asus p5ld2

ho fatto un test con 3dmark2006 ed ho notato che i valori son bassi, poco sopra la metà dei vostri, può essere solo per colpa del processore?

sm2: 2576
sm3: 3498
cpu: 1290

tot: 6311

vedo che anche i valori relativi al test della scheda video son molto al di sotto della media... cambiando processore aumentano pure quelli o solo i valori relativi alla cpu? in caso dovrei preoccuparmi giusto?

robertino75
09-03-2008, 15:48
salve, sono un nuovo 8800gt-user

ho da poco installato una asus en8800gt 512 ddr3, il computer al momento necessità di una certa ventata di novità, ancora viaggio con un p4 d930 su asus p5ld2

ho fatto un test con 3dmark2006 ed ho notato che i valori son bassi, poco sopra la metà dei vostri, può essere solo per colpa del processore?

sm2: 2576
sm3: 3498
cpu: 1290

tot: 6311

vedo che anche i valori relativi al test della scheda video son molto al di sotto della media... cambiando processore aumentano pure quelli o solo i valori relativi alla cpu? in caso dovrei preoccuparmi giusto?

cambiano anche quelli della scheda video...figurati che cambiano anche modificando la frequenza della stessa cpu che ho io...figurati usandone una a un core solo....in pratica quel test ti sta castrando la scheda video per colpa del processore...perchè il 3Dmark06 è CPU dipendente.

bronzodiriace
09-03-2008, 15:56
credo che i 16k si possano prendere con la mia 8800gt ^_^

http://xs125.xs.to/xs125/08100/8800quad700.jpg

robertino75
09-03-2008, 16:03
con la cpu a 3.8ghz....se aumenti un'altro po li prendi di sicuro 16mila :asd:

RoUge.boh
09-03-2008, 16:08
Scarica il plug in di riva per la ASUS, ed installalo come illustrato in questa guida:
http://www.baila-it.net/news.php?item.27.1

In alternativa, puoi usare la versione 5.08 di smartdoctor...
Saluti

grazie c'e l'ho fatta.... grazie 10000 ma ragazzi mi cosniglaiti si smotnare il dissi lapparlo e meterci la mx-2
adesso a risposo la temp e a 43 gradi

rizzotti91
09-03-2008, 16:29
ragazzi... help me please....:cry: :cry: :cry: :cry: nn riesco in nessun modo a vedere le teperature della mia scheda video.... connessun programma GPU-Z everest ntune.....
guardate:
http://www.pctunerup.com/up/results/_200803/th_20080309114305_schedavideo.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080309114305_schedavideo.JPG)
http://www.pctunerup.com/up/results/_200803/th_20080309114317_scheda2.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080309114317_scheda2.JPG)
nel pannello di controllo..nn manca una voce? quello riferito alle temperature....
sono con gli ultimi driver... nn so proprio cosa fare....

Ciao, per leggere la temperatura con rivatuner, se usi la 2.06 devi installare il plugin g92.dll e poi in fornitore dati (ci arrivi da imposta su temperatura core) seleziona g92.dll, se usi l'ultima versione, basta che in fornitore dati selezioni NVThermalDiode
;)

7stars
09-03-2008, 16:34
ma allora una volta x tutte diciamolo la vga si rovina mettendo freq basse o no ?
che vuol dire??? :asd:

7stars
09-03-2008, 16:38
... ancora viaggio con un p4 d930

o hai un pentium 4 o un pentium D...deciditi :asd:

RoUge.boh
09-03-2008, 16:38
Ciao, per leggere la temperatura con rivatuner, se usi la 2.06 devi installare il plugin g92.dll e poi in fornitore dati (ci arrivi da imposta su temperatura core) seleziona g92.dll, se usi l'ultima versione, basta che in fornitore dati selezioni NVThermalDiode
;)

grazie 10000 x le risp!!! c'e l'ho fatta finalmente!! secodno voi 43 gradi a riposo e tanto? contando acneh che c'e uan ventola che gli butta aria affianco..

YordanRhapsody
09-03-2008, 16:40
cambiano anche quelli della scheda video...figurati che cambiano anche modificando la frequenza della stessa cpu che ho io...figurati usandone una a un core solo....in pratica quel test ti sta castrando la scheda video per colpa del processore...perchè il 3Dmark06 è CPU dipendente.

quindi cambiando processore avrei un raddoppio delle prestazioni in 3dmark ma non avrò un egual miglioramento nei giochi, giusto?

robertino75
09-03-2008, 16:40
Ciao, per leggere la temperatura con rivatuner, se usi la 2.06 devi installare il plugin g92.dll e poi in fornitore dati (ci arrivi da imposta su temperatura core) seleziona g92.dll, se usi l'ultima versione, basta che in fornitore dati selezioni NVThermalDiode
;)

invece la temperatura rilevata tramite ADT7473.dll:0/4 cos'è?
perchè selezionando questo fornitore la temperatura è 9 gradi piu bassa...

7stars
09-03-2008, 16:41
quindi cambiando processore avrei un raddoppio delle prestazioni in 3dmark ma non avrò un egual miglioramento nei giochi, giusto?
no raddoppio no ma ti assicuro che la differenza c'è e si vede :D

rizzotti91
09-03-2008, 16:42
invece la temperatura rilevata tramite ADT7473.dll:0/4 cos'è?
perchè selezionando questo fornitore la temperatura è 9 gradi piu bassa...

Non ne ho idea...

robertino75
09-03-2008, 16:49
quindi cambiando processore avrei un raddoppio delle prestazioni in 3dmark ma non avrò un egual miglioramento nei giochi, giusto?

cambiando processore sicuramente hai un incremento delle prestazioni...visto che vai a sfruttare di piu anche la scheda video....ma l'incremento maggiore ce l'hai con il 3Dmark...e questo perchè è l'unico che sfrutta realmente i processori...per farti capire :
passare da un singole core a un dual porta sicuramente benefici sui giochi...ma avrai dei miglioramenti piu grandi solo con il 3Dmark...stessa cosa se si passa a un quad...calcola che da un dual a un quad c'è quasi un raddoppio dei risultati ottenuti con il test cpu di 3Dmark io a 3.2ghz faccio 5000 punti di cpu....ma poi nei giochi non è cosi...perchè i giochi sfruttano a malapena un dual figurati quanto possano sfruttare un quad :)
e pensa che con un quad a 2.4ghz o a 3.2ghz nei giochi si ottengono gli stessi risultati...un esempio è Gears of war che a 2.4ghz gira a 60fps e a 3.2ghz sempre a 60fps gira...eppure nel 3Dmark ottengo 1200punti in meno di cpu tenendola a 2.4ghz...questo per farti capire che non solo le cpu multi core sono poco sfruttate...ma anche le frequenze delle cpu lo sono...tant'è che 2.4ghz sono piu che sufficienti per far girare i giochi a 60fps.

Lino P
09-03-2008, 17:26
grazie c'e l'ho fatta.... grazie 10000 ma ragazzi mi cosniglaiti si smotnare il dissi lapparlo e meterci la mx-2
adesso a risposo la temp e a 43 gradi

io lo sconsiglio, il glaciator è una bomba...

Lino P
09-03-2008, 17:29
grazie 10000 x le risp!!! c'e l'ho fatta finalmente!! secodno voi 43 gradi a riposo e tanto? contando acneh che c'e uan ventola che gli butta aria affianco..

in perfetta media...

noshalans
09-03-2008, 17:40
credo che i 16k si possano prendere con la mia 8800gt ^_^

http://xs125.xs.to/xs125/08100/8800quad700.jpg

ma la vga a quanto è occata?

EDIT: letto male, bello score ;)

7stars
09-03-2008, 17:57
ma la vga a quanto è occata?

EDIT: letto male, bello score ;)
come a quanto è occata? :asd: se ce l'ha scritto tina turner :D
cmq complimenti per il nick

noshalans
09-03-2008, 18:04
come a quanto è occata? :asd: se ce l'ha scritto tina turner :D
cmq complimenti per il nick

ciai ragione! :doh:

stò proprio alla frutta! Ieri notte me so messo a benchare fino alle 4. :stordita:



Comunque ammazza Crysis quanto è sensibile all oc! Il mio limite (purtroppo) con la vga è 680/1700/1000 e mi riesce sempre a chiudere il 3dmark06 e con FurRendering mai un artefatto; ma Crysis mi crasha sempre dopo 5-10min di gioco :(

7stars
09-03-2008, 18:08
...ammazza Crysis quanto è sensibile all oc!
si crysis in realtà è sensibile solo all'oc :asd:
pure se c'hai 250 core + quad sli non cambia niente

RoUge.boh
09-03-2008, 18:14
in perfetta media...

ok allora va bene..fino a quando + arrivare come temperatature consigliate?

cmq avello letto questo e guadato questa foto:
http://www.pctuner.net/Sezione%20Hardware/Schede_Video/ASUS_GeForce_8800GS_TOP/gs5.jpg

"Sgradita sorpresa, il trasferimento del calore da GPU a dissipatore è affidato ad un pessimo pad termoconduttivo: sostituirlo con della pasta è sicuramente consigliato."

questa e di una 8800gs..ma hanno lo stesso dissipatore e allora....

noshalans
09-03-2008, 18:33
Eccovi il mio daily use tranquillo tranquillo :asd:

http://img515.imageshack.us/img515/4856/punteggio3dmark06320068zh6.jpg



Ho avuto un incremento di 155pt aumentando le ram da 1000 a 1050. Non credevo influenzasse così tanto lo score ;)

-noxius-
09-03-2008, 18:56
quindi cambiando processore avrei un raddoppio delle prestazioni in 3dmark ma non avrò un egual miglioramento nei giochi, giusto?

Dipende dai giochi ma a basse risoluzioni la differenza può anche essere del 60% ad esempio contro un quad a 3.0GHz . Poi dipende anche dai giochi , se usano molto la cpu o meno .

Morale della favola , se vuoi migliori prestazioni ed usare realmente questa bestiola, CAMBIA processore.

-noxius-
09-03-2008, 18:58
cambiando processore sicuramente hai un incremento delle prestazioni...visto che vai a sfruttare di piu anche la scheda video....ma l'incremento maggiore ce l'hai con il 3Dmark...e questo perchè è l'unico che sfrutta realmente i processori...per farti capire :
passare da un singole core a un dual porta sicuramente benefici sui giochi...ma avrai dei miglioramenti piu grandi solo con il 3Dmark...stessa cosa se si passa a un quad...calcola che da un dual a un quad c'è quasi un raddoppio dei risultati ottenuti con il test cpu di 3Dmark io a 3.2ghz faccio 5000 punti di cpu....ma poi nei giochi non è cosi...perchè i giochi sfruttano a malapena un dual figurati quanto possano sfruttare un quad :)
e pensa che con un quad a 2.4ghz o a 3.2ghz nei giochi si ottengono gli stessi risultati...un esempio è Gears of war che a 2.4ghz gira a 60fps e a 3.2ghz sempre a 60fps gira...eppure nel 3Dmark ottengo 1200punti in meno di cpu tenendola a 2.4ghz...questo per farti capire che non solo le cpu multi core sono poco sfruttate...ma anche le frequenze delle cpu lo sono...tant'è che 2.4ghz sono piu che sufficienti per far girare i giochi a 60fps.

Però devi mettere in conto che il 3dmark ''sfrutta'' le potenzialità del combo cpu-gpu quindi è un buon indice appunto delle ''potenzialità'' ;)

luX0r.reload
09-03-2008, 19:11
Salve

Ho smontato il dissi (standard) della mia pny 8800 gt volendo sostituirlo con un vf900 + 8 lunzini x ram ma ho notato che con il dissi originale vengono dissipati anche altre parti della vga (penso mosfet).....

Che dite? Io quelli non avrei da dissiparli visto che ho solo 8 lunzini, come dovrei fare?
Se non metto nulla rischio di bruciare la vga?

Grazie
Ciao, anche io ho montato da qualche giorno vf900 e, oltre agli 8 lunzini forniti, ne ho comprati altri 8 e ho coperto le zone che copriva il dissy originale. Sono tutti i chip targati Qxx (almeno per la Zotac)... ho pensato che fossero gli shaders e li ho coperti.
Tra l'altro anche nel forum nVidia consigliano di dissipare tali chipset.
Per 7€ che costano i dissy della Zalman, ti consiglio di metterli... sicuramente male alla scheda non fa:D

Pola_88
09-03-2008, 19:16
Ragazzi mi consigiate uno store online dove poter acquistare la 880gt amp???

robertino75
09-03-2008, 19:28
Però devi mettere in conto che il 3dmark ''sfrutta'' le potenzialità del combo cpu-gpu quindi è un buon indice appunto delle ''potenzialità'' ;)

si certo...ma di una potenzialità non espressa poi nei giochi che ci sono ora....quindi è inutile ;)
che poi un domani farà la differenza ok...ma oggi con lost planet...gears of war...kane and lynch...Lost...Crysis....un quad a 2.4ghz si ottengono gli stessi risultati.
quindi alla domanda se serve overclokkare la cpu(che sia dual core o quad core)e portarla oltre i 2.4ghz per avere prestazioni migliori nei giochi...la risposta è ovviamente no :)

Pola_88
09-03-2008, 19:46
ok allora va bene..fino a quando + arrivare come temperatature consigliate?

cmq avello letto questo e guadato questa foto:
http://www.pctuner.net/Sezione%20Hardware/Schede_Video/ASUS_GeForce_8800GS_TOP/gs5.jpg

"Sgradita sorpresa, il trasferimento del calore da GPU a dissipatore è affidato ad un pessimo pad termoconduttivo: sostituirlo con della pasta è sicuramente consigliato."

questa e di una 8800gs..ma hanno lo stesso dissipatore e allora....

Quali sono le schede ad avere questo paddino???

Poi ripeto gia' che ci sono, mi dite dove acquistare una 8800 gt amp ???

-noxius-
09-03-2008, 19:47
si certo...ma di una potenzialità non espressa poi nei giochi che ci sono ora....quindi è inutile ;)
che poi un domani farà la differenza ok...ma oggi con lost planet...gears of war...kane and lynch...Lost...Crysis....un quad a 2.4ghz si ottengono gli stessi risultati.
quindi alla domanda se serve overclokkare la cpu(che sia dual core o quad core)e portarla oltre i 2.4ghz per avere prestazioni migliori nei giochi...la risposta è ovviamente no :)

No, per lost planet c'è un fix in giro per la rete che ti fa aumentare le prestazioni del 40% con un quad ;) .. Anche crysis , seppur di poco , risente del quad ; il fatto è che NON sono questi i giochi che potete usare come parametro per i quad ! Provate rome tw con 24000 unità sul campo , provate medieval 2 con 16000 unità sul campo , provate supreme commander con 6000 unità ... QUESTI dovrebbero essere i parametri di valutazione tra un quad ed un dual , e lo dico per esperienza ;)

Fare OC serve ! Considera che , esempio stupido ma efficace , da 10 secondi mi è passato a 6 quando spengo il computer (da 2.4 a 3.5) , oltre a questo pure nelle operazioni di installazione ,backup dei dati , scandisk, defrag , ottimizzazione shaders ..

robertino75
09-03-2008, 19:52
No, per lost planet c'è un fix in giro per la rete che ti fa aumentare le prestazioni del 40% con un quad ;) .. Anche crysis , seppur di poco , risente del quad ; il fatto è che NON sono questi i giochi che potete usare come parametro per i quad ! Provate rome tw con 24000 unità sul campo , provate medieval 2 con 16000 unità sul campo , provate supreme commander con 6000 unità ... QUESTI dovrebbero essere i parametri di valutazione tra un quad ed un dual , e lo dico per esperienza ;)

allora...io il fix per lost planet non l'ho utilizzato e sinceramente non saprei neanche dove trovarlo....ma ti posso dire che nel test cave faccio 62fps e 59fps nel test snow...e questo tenendo la cpu a 2.4ghz.
io poi non ho fatto un confronto tra dual core e quad core...non sò dove l'hai letto...ovvio che supreme commander che sfrutta il quad giri meglio su quad che su dual core...ma io parlavo di frequenze....non di numero di core...a pari scheda video un processore a 2.4ghz o a 3.2ghz con i giochi odierni non ti fà ottenere nulla di piu...semplicemente perchè queste frequenze non sono sfruttate dai giochi....hai capito?è un discorso "leggermente" diverso da quello che hai fatto tu ;)
scusa ma si parlava di aumento di prestazioni nei giochi....non in quanto tempo si spegne il pc...

RoUge.boh
09-03-2008, 20:30
Quali sono le schede ad avere questo paddino???

Poi ripeto gia' che ci sono, mi dite dove acquistare una 8800 gt amp ???

ma penso tute le scheda asus..con quel dissipatore....

-noxius-
09-03-2008, 21:01
allora...io il fix per lost planet non l'ho utilizzato e sinceramente non saprei neanche dove trovarlo....ma ti posso dire che nel test cave faccio 62fps e 59fps nel test snow...e questo tenendo la cpu a 2.4ghz.
io poi non ho fatto un confronto tra dual core e quad core...non sò dove l'hai letto...ovvio che supreme commander che sfrutta il quad giri meglio su quad che su dual core...ma io parlavo di frequenze....non di numero di core...a pari scheda video un processore a 2.4ghz o a 3.2ghz con i giochi odierni non ti fà ottenere nulla di piu...semplicemente perchè queste frequenze non sono sfruttate dai giochi....hai capito?è un discorso "leggermente" diverso da quello che hai fatto tu ;)
scusa ma si parlava di aumento di prestazioni nei giochi....non in quanto tempo si spegne il pc...

Scusami non ho capito allora per quale motivo hai tirato in ballo i quad core ..
Che senso ha allora fare comparazioni tra dual e quad a parità di frequenza quando non si considerano i 2 core in più ? :mbe:

robertino75
09-03-2008, 22:03
Scusami non ho capito allora per quale motivo hai tirato in ballo i quad core ..
Che senso ha allora fare comparazioni tra dual e quad a parità di frequenza quando non si considerano i 2 core in più ? :mbe:

ho tirato in ballo il quad perchè ho il quad....
e non hai ancora capito :p
io non ho fatto nessun paragone tra quad e dual.
io la comparazione l'ho fatta sulle frequenze....un quad a 2.4ghz e uno a 3.2ghz danno gli stessi risultati...che tradotto significa....i GIOCHI girano uguali...e anche con un dual core(visto che il 99% non supporta il quad)la situazione dovrebbe essere la stessa....a 2.4ghz o a 3.2ghz i giochi girano uguali....la differenza la fà la scheda video.
io poi non avendo il dual non ho la certezza che i giochi a 2.4ghz siano sufficienti per mandare i giochi a 60fps...però posso dirlo su quad...con i giochi di oggi una frequenza piu alta di 2.4ghz non serve...hai capito ora cosa volevo dire?:)

-noxius-
09-03-2008, 22:18
cambiando processore sicuramente hai un incremento delle prestazioni...visto che vai a sfruttare di piu anche la scheda video....ma l'incremento maggiore ce l'hai con il 3Dmark...e questo perchè è l'unico che sfrutta realmente i processori...per farti capire :
passare da un singole core a un dual porta sicuramente benefici sui giochi...ma avrai dei miglioramenti piu grandi solo con il 3Dmark...stessa cosa se si passa a un quad...calcola che da un dual a un quad c'è quasi un raddoppio dei risultati ottenuti con il test cpu di 3Dmark io a 3.2ghz faccio 5000 punti di cpu....ma poi nei giochi non è cosi...perchè i giochi sfruttano a malapena un dual figurati quanto possano sfruttare un quad

ho tirato in ballo il quad perchè ho il quad....
e non hai ancora capito :p io non ho fatto nessun paragone tra quad e dual .


Avrò capito male .. :rolleyes: (1 pagina fa ..)

Cmq ti ripeto che cambia da gioco a gioco , non si può testare un quad ed un dual oppure un quad ed un quad a differenti frequenze con un FPS che sfrutta marginalmente l'IA e la fisica (e ti credo che non viene sfruttato ! ) , sono ben altre le applicazioni con cui puoi farlo ..

robertino75
09-03-2008, 22:37
Avrò capito male .. :rolleyes: (1 pagina fa ..)

Cmq ti ripeto che cambia da gioco a gioco , non si può testare un quad ed un dual oppure un quad ed un quad a differenti frequenze con un FPS che sfrutta marginalmente l'IA e la fisica (e ti credo che non viene sfruttato ! ) , sono ben altre le applicazioni con cui puoi farlo ..

li stavo parlando del del 3Dmark....e mettendo in evidenza che il salto maggiore che sia da single a dual o a quad è molto piu marcato sul 3Dmark che con i giochi veri e propri....visto che i quad sono sfruttati nell'1% dei giochi.
io ho testato un quad a 2.4ghz e poi a 3.2ghz(a pari OC della scheda video)e su Crysis...lost planet....gears of war....Lost....Kane and Lych non si ottengono migliori risultati portando la cpu a 3.2ghz...mi sembra un concetto molto semplice da capire :)
e ripeto nuovamente....stiamo parlando di giochi....che poi ci siano altre cose che sfruttano piu ghz ci posso credere...ma se uno vuole SOLO giocarci e vuole sapere se i giochi girano meglio con l'overclock io dico che secondo la mia esperienza con quei titoli....no 2.4ghz sono piu che sufficienti....
posso dirti di fare delle prove...prova il bench di crysis...quello di lost planet....e vedi se AVG è diverso....

Roman91
09-03-2008, 22:38
li stavo parlando del del 3Dmark....e mettendo in evidenza che il salto maggiore che sia da single a dual o a quad è molto piu marcato sul 3Dmark che con i giochi veri e propri....visto che i quad sono sfruttati nell'1% dei giochi.
io ho testato un quad a 2.4ghz e poi a 3.2ghz(a pari OC della scheda video)e su Crysis...lost planet....gears of war....Lost....Kane and Lych non si ottengono migliori risultati portando la cpu a 3.2ghz...mi sembra un concetto molto semplice da capire :)
e ripeto nuovamente....stiamo parlando di giochi....che poi ci siano altre cose che sfruttano piu ghz ci posso credere...ma se uno vuole SOLO giocarci e vuole sapere se i giochi girano meglio con l'overclock io dico che secondo la mia esperienza con quei titoli....no 2.4ghz sono piu che sufficienti....

invece per i dual, quale sarebbe la frequenza per non essere minimamente cpu limited?

-noxius-
09-03-2008, 22:40
li stavo parlando del del 3Dmark....e mettendo in evidenza che il salto maggiore che sia da single a dual o a quad è molto piu marcato sul 3Dmark che con i giochi veri e propri....visto che i quad sono sfruttati nell'1% dei giochi.
io ho testato un quad a 2.4ghz e poi a 3.2ghz(a pari OC della scheda video)e su Crysis...lost planet....gears of war....Lost....Kane and Lych non si ottengono migliori risultati portando la cpu a 3.2ghz...mi sembra un concetto molto semplice da capire :)
e ripeto nuovamente....stiamo parlando di giochi....che poi ci siano altre cose che sfruttano piu ghz ci posso credere...ma se uno vuole SOLO giocarci e vuole sapere se i giochi girano meglio con l'overclock io dico che secondo la mia esperienza con quei titoli....no 2.4ghz sono piu che sufficienti....

Io mi stavo riferendo al tuo discorso di prima infatti non me ne''fregava nulla'' (con tutto il rispetto,ci mancherebbe ;) ) della differenza di prestazioni tra 2.4 e 3.2 in quanto se non sfrutta 4 core a 2,4 mi sembra evidente che non ne sfrutta altrettanti 4 a 3.2 (considerando appunto la mancanza di incremento a causa del mancato supporto) ;)

robertino75
09-03-2008, 22:42
Io mi stavo riferendo al tuo discorso di prima infatti non me ne''fregava nulla'' (con tutto il rispetto,ci mancherebbe ;) ) della differenza di prestazioni tra 2.4 e 3.2 in quanto se non sfrutta 4 core a 2,4 mi sembra evidente che non ne sfrutta altrettanti 4 a 3.2 (considerando appunto la mancanza di incremento a causa del mancato supporto) ;)

allora sono io che non ho capito a quale discorso di prima ti riferisci :D

-noxius-
09-03-2008, 22:46
allora sono io che non ho capito a quale discorso di prima ti riferisci :D

aiutino .. Ad ogni modo le soddisfazioni di quando lo porti da 2.4 a 3.6 non le vuoi mettere in conto ? ..
Considera che sta diventando un gioco migliore di crysis e compagnia bella ... c' è maggiore coinvolgimento e smadonnamenti vari , nella maggior parte dei casi in un periodo molto ristretto di tempo :D

cambiando processore sicuramente hai un incremento delle prestazioni...visto che vai a sfruttare di piu anche la scheda video....ma l'incremento maggiore ce l'hai con il 3Dmark...e questo perchè è l'unico che sfrutta realmente i processori...per farti capire :
passare da un singole core a un dual porta sicuramente benefici sui giochi...ma avrai dei miglioramenti piu grandi solo con il 3Dmark...stessa cosa se si passa a un quad...calcola che da un dual a un quad c'è quasi un raddoppio dei risultati ottenuti con il test cpu di 3Dmark io a 3.2ghz faccio 5000 punti di cpu....ma poi nei giochi non è cosi...perchè i giochi sfruttano a malapena un dual figurati quanto possano sfruttare un quad :)

Roman91
09-03-2008, 22:50
siete OT:O


:banned:

-noxius-
09-03-2008, 22:57
segnalami :rolleyes:

robertino75
09-03-2008, 22:59
aiutino .. Ad ogni modo le soddisfazioni di quando lo porti da 2.4 a 3.6 non le vuoi mettere in conto ? ..
Considera che sta diventando un gioco migliore di crysis e compagnia bella ... c' è maggiore coinvolgimento e smadonnamenti vari , nella maggior parte dei casi in un periodo molto ristretto di tempo :D

se il mio interesse è overclokkare per giocare meglio...beh overclokkare oggi il quad è inutile perchè non ci guadagno neanche mezzo fps.
in quella parte che hai quotato non vedo cosa ci sia di strano in quello che ho detto....le differenze maggiori si hanno con il 3Dmark...con un dual si fanno 2800punti con un quad 5000punti...questo lo riscontri nei giochi di adesso?no nella stragrande maggioranza dei casi....ripeto si sta sempre parlando di giochi.
e poi la domanda era : si raddoppiano le prestazioni passando da un single a un dual? la risposta è no...figuriamoci con un quad che è meno usato di un dual...questo è quello che ho detto :D

Roman91
09-03-2008, 23:02
segnalami :rolleyes:

se mi provochi stai sicuro che ti segnalo :D

-noxius-
09-03-2008, 23:23
se il mio interesse è overclokkare per giocare meglio...beh overclokkare oggi il quad è inutile perchè non ci guadagno neanche mezzo fps.
in quella parte che hai quotato non vedo cosa ci sia di strano in quello che ho detto....le differenze maggiori si hanno con il 3Dmark...con un dual si fanno 2800punti con un quad 5000punti...questo lo riscontri nei giochi di adesso?no nella stragrande maggioranza dei casi....ripeto si sta sempre parlando di giochi.
e poi la domanda era : si raddoppiano le prestazioni passando da un single a un dual? la risposta è no...figuriamoci con un quad che è meno usato di un dual...questo è quello che ho detto :D

Ti ripeto , dipende dai giochi che prendi in considerazione .

Con quelli che ti ho detto l'aumento è notevole quindi .. Certo , se prendi i FirstPersonShooter la differenza in FramesPerSecond è irrisoria ma quello che ti volevo far notare è che questi FPS (i primi..) non sono un termine di paragone adatto ;)

noshalans
09-03-2008, 23:29
Dai ragazzi, state a fa 2 pagine di off-topic...

:nono:

robertino75
09-03-2008, 23:30
Ti ripeto , dipende dai giochi che prendi in considerazione .

Con quelli che ti ho detto l'aumento è notevole quindi .. Certo , se prendi i FirstPersonShooter la differenza in FramesPerSecond è irrisoria ma quello che ti volevo far notare è che questi FPS (i primi..) non sono un termine di paragone adatto ;)

proverò supreme commander per vedere questa differenza che dici di aver trovato :p
io ho riportato solo una mia esperienza con determinati giochi ovviamente...e ho fatto un paragone con il 3Dmark...che poi oh non è che nel 3Dmark ci sono i giochi stile quelli che dici tu...guarda un po c'è uno shooter....:asd:
cmq devo provare supreme commander...sono curioso di vederlo sul quad e con la 8800gt...me l'aveva prestato un amico ma al tempo avevo un dual amd e una x1950xt :asd:

robertino75
09-03-2008, 23:31
Dai ragazzi, state a fa 2 pagine di off-topic...

:nono:

scusa ma si sta parlando sempre di pc e di schede grafiche...non hai altro da dire oltre al fatto che per te siamo OT?pensi che il tuo intervento sia meno OT del nostro?:D

-noxius-
09-03-2008, 23:52
La gt supreme commander se lo mangia, poi con un quad in OC va da dio con tutto al max ed a tappo con le unità persino su internet ! ;) Prova pure rome tw con 27k unità sul campo ..
Già ...belle discussioni di uncinetto che ci siamo fatti ... :rolleyes:

robertino75
09-03-2008, 23:58
La gt supreme commander se lo mangia, poi con un quad in OC va da dio con tutto al max ed a tappo con le unità persino su internet ! ;) Prova pure rome tw con 27k unità sul campo ..
Già ...belle discussioni di uncinetto che ci siamo fatti ... :rolleyes:

ritorniamo a parlare di questa stupenda scheda...che regala tante soddisfazioni a noi utenti :sofico:

noshalans
10-03-2008, 00:22
Ma voi riuscite a giocare a Crysis con le stesse frequenze con la quale chiudete un 3dmark? Perchè a me crasha dopo poco :fagiano:

robertino75
10-03-2008, 00:40
Ma voi riuscite a giocare a Crysis con le stesse frequenze con la quale chiudete un 3dmark? Perchè a me crasha dopo poco :fagiano:

mmmmmmmmmmmmmm è possibile chiudere un 3Dmark06 con una frequenza che poi non è retta da crysis e da altri giochi....com'è possibile fare 30minuti del test degli artefatti di ati tool...far partire il 3Dmark03 e vedere che crasha dopo 5 secondi contati :asd:
insomma...il 3Dmark06 è poco affidabile per vedere se regge o meno l'oc una scheda...a meno che l'oc non sia cosi spinto da essere praticamente fuori dal suo "limite"...o a meno che il test del 3Dmark06 non sia ripetuto per parecchie volte....una volta sola non basta se l'oc non è particolarmente spinto.
cmq almeno dalle prove che ho fatto è preferibile usare 3Dmark03(cosa che mi è stata consigliata da un'utente di questo forum)perchè stressa di piu la gpu...e rileva errori di stabilità in maniera piu precisa.
ti dirò...io ho chiuso a 756mhz di core un 3Dmark06....ho superato 30minuti di stress con ati tool ma non ho retto neanche 10 secondi di 3Dmark03....

7stars
10-03-2008, 00:45
ti dirò...io ho chiuso a 756mhz di core un 3Dmark06....ho superato 30minuti di stress con ati tool ma non ho retto neanche 10 secondi di 3Dmark03....
il che significa che quelli di futuremark invece di andare avanti vanno indietro :asd: no dai rilassiamole queste gpu...poverine

Pola_88
10-03-2008, 08:14
Ragazzi lo chiedero' per la terza volta e chissa'...forse stavolta ricevero' una risposta...mi dite il nome di uno store online dove comprare una 8800gt amp? su tecnocomputer e runstore non ce l hanno...

halduemilauno
10-03-2008, 08:24
Ragazzi lo chiedero' per la terza volta e chissa'...forse stavolta ricevero' una risposta...mi dite il nome di uno store online dove comprare una 8800gt amp? su tecnocomputer e runstore non ce l hanno...

cerca qui.
http://www.trovaprezzi.it/categoria.aspx?libera=8800gt512&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)

johnkr88
10-03-2008, 12:19
ragà secondo voi con 4gb di ram è consigliabile disattivare il file di paging di vista per aumentare le prestazioni del disco ?

e poi è giusto il punteggio 11800 al 3dmark 2006 con il procio oc a 3600 mhz a 1.5v ?
faccio come punteggio cpu score : 2750

xgeneralex
10-03-2008, 13:36
Qualcuno ha una JETWAY 8800 Gt con Windows Vista 32 bit e Pes 2008 con la possibilità di giocare online?? Per favore è per una giusta causa...:(

noshalans
10-03-2008, 13:42
ragà secondo voi con 4gb di ram è consigliabile disattivare il file di paging di vista per aumentare le prestazioni del disco ?

e poi è giusto il punteggio 11800 al 3dmark 2006 con il procio oc a 3600 mhz a 1.5v ?
faccio come punteggio cpu score : 2750

che processore hai? io faccio 2885 con un E6750 a 3200mhz

Tpplay
10-03-2008, 13:59
Qualcuno ha una JETWAY 8800 Gt con Windows Vista 32 bit e Pes 2008 con la possibilità di giocare online?? Per favore è per una giusta causa...:(

vai sul 3d di pes2008 se nn riesci a giokare online nn credi c'entri la scheda video

Tpplay
10-03-2008, 14:03
invece per i dual, quale sarebbe la frequenza per non essere minimamente cpu limited?

credo che 2.8ghz vadano + che bene.. magari coi gioki di oggi a 2ghz sei già cpu limited, ma dipende da titolo a titolo credo

johnkr88
10-03-2008, 14:13
ho come process il E6850 forse tu fai di + per la ram a 1066 ?
e poi ke mi sapete dire del discorso ram ?

Lino P
10-03-2008, 14:34
ok allora va bene..fino a quando + arrivare come temperatature consigliate?

cmq avello letto questo e guadato questa foto:
http://www.pctuner.net/Sezione%20Hardware/Schede_Video/ASUS_GeForce_8800GS_TOP/gs5.jpg

"Sgradita sorpresa, il trasferimento del calore da GPU a dissipatore è affidato ad un pessimo pad termoconduttivo: sostituirlo con della pasta è sicuramente consigliato."

questa e di una 8800gs..ma hanno lo stesso dissipatore e allora....

certo, il pad non sarà il massimo, ma ti assicuro che le temp restano accettabili anche così. Imho non ha senso metter mano al dissy per guadagnare qualche grado. In senso assoluto, questo è ovvio, una ripastata con un prodotto di qualità, genera un risultato complessivamente migliore..

Samoht
10-03-2008, 14:43
certo, il pad non sarà il massimo, ma ti assicuro che le temp restano accettabili anche così. Imho non ha senso metter mano al dissy per guadagnare qualche grado. In senso assoluto, questo è ovvio, una ripastata con un prodotto di qualità, genera un risultato complessivamente migliore..I pad e la pasta "di fabbrica" sono adatti se non gli si tira il collo... anche secondo me è meglio sostituire i pad e la pasta originali con qualcosa di più performante.

Roman91
10-03-2008, 14:44
I pad e la pasta "di fabbrica" sono adatti se non gli si tira il collo... anche secondo me è meglio sostituire i pad e la pasta originali con qualcosa di più performante.

poi quando succede qualcosa alla scheda oppure se la devi vendere cosa fai?

johnkr88
10-03-2008, 14:58
ho come process il E6850 forse tu fai di + per la ram a 1066 ?
e poi ke mi sapete dire del discorso ram ?

up:read:

robertino75
10-03-2008, 15:07
up:read:

che vuoi sapere?

johnkr88
10-03-2008, 15:18
avevo chiesto se era normale ke con un e6850 a 3.1mhz faccio 2500 punti come cpu score al 3dmark06 e a 3600mhz ne faccio 2750 ?

xgeneralex
10-03-2008, 15:22
vai sul 3d di pes2008 se nn riesci a giokare online nn credi c'entri la scheda video

No sn andato sul thread di pes ma nessuno mi ha risposto. E cmq penso sia proprio la scheda la causa del mio problema visto che cn la scheda che avevo prima andava tutto bene.

Ps. a qualcuno è capitato di installare i driver successivi ai 169.25 su Vista e aver avuto problemi con lo spegnimento del monitor che va in modalità Risparmi energetico? Insomma non posso fare un upgrade di driver...

robertino75
10-03-2008, 15:26
avevo chiesto se era normale ke con un e6850 a 3.1mhz faccio 2500 punti come cpu score al 3dmark06 e a 3600mhz ne faccio 2750 ?

penso di si...io con un quad passando da 3.2ghz a 3.6ghz guadagno circa 500punti...tu con un dual 250...mi sembra normale...visto che hai la metà dei core.

rizzotti91
10-03-2008, 15:37
Certo che avere un processore a 3.1 mhz non è da tutti!!! :asd: :sbonk:

Samoht
10-03-2008, 15:40
poi quando succede qualcosa alla scheda oppure se la devi vendere cosa fai?è ovvio che non butti via il dissipatore originale... lo rimonti e lo mandi in rma.

... non credere che, quando arriva in assitenza, la scheda venga smontata per vedere se hai combinato qualcosa: è già tanto se la montano su un sistema per vedere se funziona. A me è stata sostituita senza fiatare una 7800GS alla quale era stata fatta una vmod (riconvertita prima di essere mandata in rma).

Samoht
10-03-2008, 15:43
Ps. a qualcuno è capitato di installare i driver successivi ai 169.25 su Vista e aver avuto problemi con lo spegnimento del monitor che va in modalità Risparmi energetico? Insomma non posso fare un upgrade di driver...Stessa cosa... installati i beta e non andava più lo SLI (mi chiedeva di riavviare per attivarlo quando si puà attivarlo direttamente, e al riavvio non lo abilitava cmq) e poi lo schermo che si spegneva... anzi a me è successo di peggio: non riuscivo più a installare quelli vecchi: ho dovuto reinstallare tutto da capo...:muro:

xgeneralex
10-03-2008, 15:50
Stessa cosa... installati i beta e non andava più lo SLI (mi chiedeva di riavviare per attivarlo quando si puà attivarlo direttamente, e al riavvio non lo abilitava cmq) e poi lo schermo che si spegneva... anzi a me è successo di peggio: non riuscivo più a installare quelli vecchi: ho dovuto reinstallare tutto da capo...:muro:

Ok allora questo mi rassicura...perchè ho messo i 169.44=spegnimento monitor, omega drivers=spegnimento monitor, poi invece ho rimesso i 169.25 ed è andato tutto in ordine. Ho tolto il service pack rc per vista ed è la stessa cosa...forse l'unica cosa che mi viene in mente è che il sistema non voglia driver che non siano WHQL...boh:rolleyes:

cristch
10-03-2008, 15:58
ragazzi domandina per chi usa RT 2.07, io ho un problemino che imputo alla nuova scheda 8800gt, ho settato 3 profili uno 2d , uno 3d medio e uno 3d spinto, ora negli ultimi due profili nessun problema, invece nel 2d qualche volta mi si spegne e riavvia il pc a dà delle stecche pazzesche come se andasse via la corrente (ma non è questo il problema perchè se no andrebbe via la luce per almeno un mezzo secondo) e con la vecchia scheda grafica 3850 non mi dava questo problema
il profilo 2d è settato 320/700/800 l'ho settata troppo down?

Samoht
10-03-2008, 16:02
...mi si spegne e riavvia il pc a dà delle stecche pazzesche come se andasse via la corrente... :eek: :eekk:

noshalans
10-03-2008, 16:34
avevo chiesto se era normale ke con un e6850 a 3.1mhz faccio 2500 punti come cpu score al 3dmark06 e a 3600mhz ne faccio 2750 ?

secondo me con procio a 3600mhz dovresti fare circa 3000pt al cpu score..

com' è possibile sennò che io faccio 2885 a 3200mhz? :mbe:

...e ti dico che con le ram ho provato varie impostazioni (800mhz 4-4-4-12, 1066mhz 5-5-5-15) ma il punteggio non influisce sulla cpu. Mi è sembrato invece che ho guadagnato nel sm2 score e un centinaio di punti sul totale

johnkr88
10-03-2008, 16:53
ma forse tu hai xp ?

petru916
10-03-2008, 17:25
ragazzi domandina per chi usa RT 2.07, io ho un problemino che imputo alla nuova scheda 8800gt, ho settato 3 profili uno 2d , uno 3d medio e uno 3d spinto, ora negli ultimi due profili nessun problema, invece nel 2d qualche volta mi si spegne e riavvia il pc a dà delle stecche pazzesche come se andasse via la corrente (ma non è questo il problema perchè se no andrebbe via la luce per almeno un mezzo secondo) e con la vecchia scheda grafica 3850 non mi dava questo problema
il profilo 2d è settato 320/700/800 l'ho settata troppo down?

forse, prova a settala 400/850/500*2 cm ho fatto io ^^

Tpplay
10-03-2008, 17:40
No sn andato sul thread di pes ma nessuno mi ha risposto. E cmq penso sia proprio la scheda la causa del mio problema visto che cn la scheda che avevo prima andava tutto bene.

Ps. a qualcuno è capitato di installare i driver successivi ai 169.25 su Vista e aver avuto problemi con lo spegnimento del monitor che va in modalità Risparmi energetico? Insomma non posso fare un upgrade di driver...

Ma con la vga di prima usavi vista?io gioko online a pes2008 ma sotto xp

nTia89
10-03-2008, 18:35
quanti punti fate al 3dmark06 con la vostra 8800gt???????

default & overclocked

robertino75
10-03-2008, 18:42
quanti punti fate al 3dmark06 con la vostra 8800gt???????

default & overclocked

default

http://www.pctunerup.com/up/results/_200803/th_20080310184553_3DMark20068800gtGPU600mhze900mhzCPU3.2GHZ1280x1024-1-.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080310184553_3DMark20068800gtGPU600mhze900mhzCPU3.2GHZ1280x1024-1-.JPG)

Overclock

http://www.pctunerup.com/up/results/_200803/th_20080310190430_3DMark20068800gtGPU740mhz-1800-1050mhzCPU3.2GHZ1280x1024.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080310190430_3DMark20068800gtGPU740mhz-1800-1050mhzCPU3.2GHZ1280x1024.JPG)

nTia89
10-03-2008, 19:02
default

http://www.pctunerup.com/up/results/_200803/th_20080310184014_3DMark20068800gtGPU600mhze900mhzCPU3.2GHZ1280x1024.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080310184014_3DMark20068800gtGPU600mhze900mhzCPU3.2GHZ1280x1024.JPG)

Overclock

http://www.pctunerup.com/up/results/_200803/th_20080310184553_3DMark20068800gtGPU600mhze900mhzCPU3.2GHZ1280x1024-1-.JPG (http://www.pctunerup.com/up/image.php?src=_200803/20080310184553_3DMark20068800gtGPU600mhze900mhzCPU3.2GHZ1280x1024-1-.JPG)

ma sono uguali?!?!??!?!

robertino75
10-03-2008, 19:05
ma sono uguali?!?!??!?!

ops...hai ragione :D
ho editato...edita anche tu.

noshalans
10-03-2008, 19:10
ma forse tu hai xp ?

è già :rolleyes:

robertino75
10-03-2008, 19:17
è già :rolleyes:

il quad fà solo 1000 punti in piu del dual vero?:sofico:
:Prrr:

noshalans
10-03-2008, 20:41
il quad fà solo 1000 punti in piu del dual vero?:sofico:
:Prrr:

:D hai ragione. L' ho sparata un po a cavolo:ops:

...maledetti quad core :rolleyes:

cristch
10-03-2008, 20:42
forse, prova a settala 400/850/500*2 cm ho fatto io ^^

fatto ma fa lo stesso difetto...:muro: ma fosse l'alimentatore?ho un lcpower 550v, però dovrebbe farmelo quando sto sotto oc e non quando sono in doenclock:rolleyes:

nitro89
10-03-2008, 20:51
Circa 16kpts in oc pesante ;)

petru916
10-03-2008, 21:05
fatto ma fa lo stesso difetto...:muro: ma fosse l'alimentatore?ho un lcpower 550v, però dovrebbe farmelo quando sto sotto oc e non quando sono in doenclock:rolleyes:

mmmmm....infatti....prova ad alzare ancora un pò le frequenze.....

cristch
10-03-2008, 21:08
mmmmm....infatti....prova ad alzare ancora un pò le frequenze.....

ora ho messo la versione nuova di RT la 2.08 e sembra tenere...

noshalans
10-03-2008, 21:28
quelli della Guru3d staranno a smadonnà contro nvidia co tutti sti driver che stanno a uscì.. :asd:

nTia89
10-03-2008, 21:32
possibile che ho fatto solo 6000 punti al 3dmark06 col pc in firma??!?!?!?!??!?!??!:confused: :confused: :confused:

sono un po' preoccupato

pl[U]s.NOXx
10-03-2008, 21:36
possibile che ho fatto solo 6000 punti al 3dmark06 col pc in firma??!?!?!?!??!?!??!:confused: :confused: :confused:

sono un po' preoccupato

è possibile si con quel "coso" che c'è nel socket. mi dispiace ma o cambi o di piu non fai

Tpplay
10-03-2008, 21:48
s.NOXx;21500964']è possibile si con quel "coso" che c'è nel socket. mi dispiace ma o cambi o di piu non fai

invece è basso lo stesso.. dovrebbe arrivare almneno a 7500

luX0r.reload
10-03-2008, 22:49
Ieri ho effettuato la vmod da bios... e oggi ho fatto un po' di test:D
... per ora stabile alle freq in allegato (crysis bench, 5 loop di 3dMark2006 e circa due ore di Oblivion). La GPU e gli shader sono al limite. Se aumento di un ulteriore step si freeza, ma le memorie salgono che è una meraviglia... :sofico:
Che ne dite? :oink: :ciapet: :Prrr:

luX0r.reload
10-03-2008, 22:54
Ecco l'allegato:mbe:

xgeneralex
10-03-2008, 22:58
Ma con la vga di prima usavi vista?io gioko online a pes2008 ma sotto xp

Si sempre su Vista 32 bit...Ho pensato che l'unica causa possa essere il service pack rc e l'ho tolto...ora vedremo...devo fare delle prove..comunque grazie lo stesso...:)

noshalans
10-03-2008, 23:07
provato il Crysis Benchmark Tool:

benchmark gpu
1680x1050
AA=2x
Vsync=Enabled
Tutto su High

AVERAGE FPS= 27.32

che ve ne pare?

Pola_88
10-03-2008, 23:27
Mi permetto di osservare che AntiAlising 2x e' un po pochino?

robertino75
10-03-2008, 23:36
Mi permetto di osservare che AntiAlising 2x e' un po pochino?

con qualsiasi altro gioco ti direi che hai ragione...ma crysis già senza AA è un mattone di gioco....io l'AA non la metterei proprio figurati piu di 2xAA....

*andr3a*
10-03-2008, 23:47
provato il Crysis Benchmark Tool:

benchmark gpu
1680x1050
AA=2x
Vsync=Enabled
Tutto su High

AVERAGE FPS= 27.32

che ve ne pare?

dx9 vero? sennò mi inchino :eek:

robertino75
10-03-2008, 23:51
dx9 vero? sennò mi inchino :eek:

è directx9 altrimenti non era tutto su high ma tutto su very high :D

7stars
10-03-2008, 23:55
è directx9 altrimenti non era tutto su high ma tutto su very high :D
cmq secondo me a 1680x1050 con aa è buono :asd: con crysis eh... :D e soprattutto anche col v-sync abilitato

robertino75
11-03-2008, 00:00
cmq secondo me a 1680x1050 con aa è buono :asd: con crysis eh... :D e soprattutto anche col v-sync abilitato

penso di si...non lo metto in dubbio perchè i monitor che ho a casa arrivano max a 1280x1024...quindi non potrei neanche fare una prova a 1680x1050 :D
figurati che poi lo schermo che uso è 1280x768 :asd:

Pola_88
11-03-2008, 00:34
Be' io gioco a crysis con il mio vecchio amd 2500+ occato a 2.2gh 512 ram ddr 2-2-2-6 e powercolor ati radeon 9800pro occata...ovviamente tutto su low e 1024x768 :D a volte non e' fluisissimo pero'...qualcuno mi spiega il motivo? :confused: :D :D


(OT :ciapet: )

Abbiate pazienza che mi sto rifacendo il sistema :sofico:

7stars
11-03-2008, 00:41
...qualcuno mi spiega il motivo? :confused: :D :D

e che c'è da spiegare??? :asd:
piuttosto vorrei sapere da voi...togliendo di mezzo crysis :asd: non è diventata + conveniente la 9600gt ora che è uscita se si gioca al max a 1280x1024??

noshalans
11-03-2008, 00:41
tornato adesso da una bella partita a Crysis :D

si comunque i dettagli del bench che ho riportato prima sono in dx9 ;)

adesso voglio provare varie configurazioni, tipo levare l' AA e mettere i fix per i dettagli very high, o provare con l' AF ;)




comunqe pensavo che Crysis fosse tutta grafica e gameplay pietoso.. però adesso che ci stò giocando devo dire che è un bel giochetto: le ambientazioni sono immense e la fisica è qualcosa di spettacolare :eek:

troppo bello tirare le bombe nelle torrette e crolla tutta la baracca :D

Zilloboch
11-03-2008, 00:47
provato il Crysis Benchmark Tool:

benchmark gpu
1680x1050
AA=2x
Vsync=Enabled
Tutto su High

AVERAGE FPS= 27.32

che ve ne pare?

il bench tool falsa un po i risultati su xp,se vuoi qlc di affidabile fai il gpu test

io con i fix (very high) 1440*900 29 fps