PDA

View Full Version : [THREAD UFFICIALE] Geforce GTX280


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

Errik89
24-07-2008, 13:09
no è più facile che sei te che ti rifiuti :asd:


un atlon xp ;) :sbonk:




scherzo.. :D
un celeron 566mhz basta e avanza... :D

Scrambler77
24-07-2008, 13:11
a me pare che sia nvidia quella che sta svendendo le GTX non ATI... ;)
RV770 costa 1/4 rispetto a GT200 eppure 4870 e GTX260 sono quasi allo stesso prezzo... :read:

Ma sei il figlio di Paolo Trombin (TG5)? :asd:

nVidia gode di 2 anni di predominio assoluto durante i quali ha rimpinzato le casse e pompato il bilancio.

Rumors nelle sale di borsa dicono che AMD stia per essere acquisita. Tra le altre "voci", la vendita delle FAB AMD per capitalizzare e diventare un'azienda fabless.

Il confronto sullo stato di salute delle 2 aziende non regge... Ritenta, sarai più fortunato. ;)

Errik89
24-07-2008, 13:13
Ma sei il figlio di Paolo Trombin (TG5)? :asd:

nVidia gode di 2 anni di predominio assoluto durante i quali ha rimpinzato le casse e pompato il bilancio.

Rumors nelle sale di borsa dicono che AMD stia per essere acquisita. Tra le altre "voci", la vendita delle FAB AMD per capitalizzare e diventare un'azienda fabless.

Il confronto non regge... ;)
Ma lol!! :asd:

Comunque il fatto che AMD sia in crisi finanziaria mentre NVIDIA goda di piena salute non c'entra con il fatto che RV770 sia venduto con buoni ricavi mentre GT200 sia venduto con scarsi ricavi se non con quasi nulli ricavi (GTX260)... :read:

Scrambler77
24-07-2008, 13:15
Ma lol!! :asd:

Comunque il fatto che AMD sia in crisi finanziaria mentre NVIDIA goda di piena salute non c'entra con il fatto che RV770 sia venduto con buoni ricavi mentre GT200 sia venduto con scarsi ricavi se non con quasi nulli ricavi (GTX260)... :read:

:rotfl:

Ci rinuncio... :doh:

Errik89
24-07-2008, 13:16
:rotfl:

Ci rinuncio... :doh:
Anche io! :asd: ;)

zorco
24-07-2008, 13:18
Ma sei il figlio di Paolo Trombin (TG5)? :asd:

:rotfl:

Scrambler77
24-07-2008, 13:21
Anche io! :asd: ;)

Fai bene. Basta guardare le quotazioni in borsa di AMD dell'ultimo mese per accorgersi che nonostalte questa fantomatica 4870... non convince poi tanto, proprio come le nuove GTX. ;)

http://finance.google.com/finance?q=amd

http://news.moneycentral.msn.com/provider/providerarticle.aspx?feed=AP&date=20080722&id=8912262

Fai come dice l'amico mr.tarpone: fatti una partitina a lost-planet. :asd:

ippo.g
24-07-2008, 13:26
basta anche un buon e8400 e 85500 over 3,8 ghz ....anzi nei giochi a volte va pure meglio del quad di delly,provare per credere ;) (sto parlando in ambito puramente videoludico,ovviamente la situazione si ribalta se renderizziamo scene o multitaskiamo come matti...imho per un videogiocatore attualmente il processore e 8400 o e8500 sono la scelta ottimale) :)

grazie sei l'unica persona seria qui dentro,:eek: addirittura a 3,8 :mc:

Scrambler77
24-07-2008, 13:28
grazie sei l'unica persona seria qui dentro,:eek: addirittura a 3,8 :mc:

Beh, in effetti... se avessi la cpu di Delly non mi preoccuperei granchè di un dual a 3.8... ;)

Defragg
24-07-2008, 13:39
:rotfl:

Ci rinuncio... :doh:

Non so quantificare il guadagno sia di AMD che di NVIDIA, ma c'è da dire che AMD produce un chip più piccolo e con rese migliori, ma vende le sue schede quasi allo stesso prezzo della concorrenza (sbagliando a mio avviso, ma d'altronde devono pur recuperare in qualche modo i due anni di supremazia NVIDIA) guadagnando così di più.

Giustaf
24-07-2008, 13:40
grazie sei l'unica persona seria qui dentro,:eek: addirittura a 3,8 :mc:

3,8Ghz mi sembra troppo..però non posso provarlo..:) ..penso che la differenza di fps tra un dual a 3,8ghz con sli e un dual a 3,6Ghz con sli sia più o meno nell'ordine di 1 o 2 fps massimo..però ripeto..non ho un dual e non posso testarlo! :)

Scrambler77
24-07-2008, 13:46
3,8Ghz mi sembra troppo..però non posso provarlo..:) ..penso che la differenza di fps tra un dual a 3,8ghz con sli e un dual a 3,6Ghz con sli sia più o meno nell'ordine di 1 o 2 fps massimo..però ripeto..non ho un dual e non posso testarlo! :)

Dipende dal gioco e dalle impostazioni video...

Errik89
24-07-2008, 13:48
Fai bene. Basta guardare le quotazioni in borsa di AMD dell'ultimo mese per accorgersi che nonostalte questa fantomatica 4870... non convince poi tanto, proprio come le nuove GTX. ;)

http://finance.google.com/finance?q=amd

http://news.moneycentral.msn.com/provider/providerarticle.aspx?feed=AP&date=20080722&id=8912262

Fai come dice l'amico mr.tarpone: fatti una partitina a lost-planet. :asd:
oddio... lo odio quel gioco :asd: :asd:
(e poi ho una HD4850... al massimo gioco a call of juarez o ad assassin creed in dx10.1 :Prrr: ... :D )

;)

Giustaf
24-07-2008, 13:51
Dipende dal gioco e dalle impostazioni video...

verissimo, però davo per scontato risoluzioni da 1680 in su...cmq penso che la diffrenza sia cmq molto, ma molto esigua..

Alexandrus
24-07-2008, 14:01
€360 (iva inclusa)... continuate così :D :D

Errik89
24-07-2008, 14:02
€360 (iva inclusa)... continuate così :D :D
:eek: :eek:

IMHO entro settimana prossima la vedremo sotto i 350€ :read:

Amph
24-07-2008, 14:09
3,8Ghz mi sembra troppo..però non posso provarlo..:) ..penso che la differenza di fps tra un dual a 3,8ghz con sli e un dual a 3,6Ghz con sli sia più o meno nell'ordine di 1 o 2 fps massimo..però ripeto..non ho un dual e non posso testarlo! :)

si, infatti nessun gioco richiede + di 3ghz, quindi è palesemente inutile andare oltre tale frequenza...

ippo.g
24-07-2008, 14:31
si, infatti nessun gioco richiede + di 3ghz, quindi è palesemente inutile andare oltre tale frequenza...

allora mi spiego meglio perché ho posto malissimo la domanda :muro:
prendiamo Crysis:
il mio processore non mi consente più di 32fps medi tutto very high,se gioco con la x3850 riesco a tenerli solo ad 800x600, con la 8800gts512 a 1024x780, con lo sli attuale a 1280x1024;
in parole povere se prendessi uno sli di 280gtx fino a che risoluzione riuscirei a tenere i 32 fps?

NOOB4EVER
24-07-2008, 14:33
grazie sei l'unica persona seria qui dentro,:eek: addirittura a 3,8 :mc:

perche' non ci provi tu stesso? io sto solamente esponendo cio' che un utente inesperto come me ha provato personalmente ...... prova a tenere le due gtx in sli con procio sotto i 3800 e poi provaci con procio over 4 giga.... nessuno cerca di arrampicarsi su nessuno specchio,sto solamente dicendo cio' che mi e' capitato di provare di persona,spero delly o qualcuno con almeno lo sli possa confermarlo ;) da 3600 a 4000 come da 3800 a 4200 la differenza c'e' e si vede


Beh, in effetti... se avessi la cpu di Delly non mi preoccuperei granchè di un dual a 3.8... ;)

e faresti male (sempre in ambito videogiochi) , guardati un paio di rece e dimmi l'e8500 come si comporta nei giochi.... il quad core ora come ora non da nessun vantaggio nei videogiochi e te lo dice uno che con il pc non fa altro che giocare (cioe' io,non so fare altro) poi tutto questo ripeto imho ma spero che qualcheduno che vive l'esperienza in prima persona venga in mio aiuto in merito..............poi se ci sono rece che dimostrano il contrario saro' ben lieto di apprenderlo e forse mi rendero' conto che sto sparando un sacco di c****e :)

NOOB4EVER
24-07-2008, 14:35
allora mi spiego meglio perché ho posto malissimo la domanda :muro:
prendiamo Crysis:
il mio processore non mi consente più di 32fps medi tutto very high,se gioco con la x3850 riesco a tenerli solo ad 800x600, con la 8800gts512 a 1024x780, con lo sli attuale a 1280x1024;
in parole povere se prendessi uno sli di 280gtx fino a che risoluzione riuscirei a tenere i 32 fps?

io tengo 42 fps medi a 1920x1200 con 4 di AA in xp con config moddata in ultra high :) (ps:con cpu a 4000 minimo) ;)

NOOB4EVER
24-07-2008, 14:40
@Scrambler77



sai,testando crysis con il tuo procio a 3200 (ho un q6600 in casa) ho notato come sia praticamente impossibile abilitare aa a piu di 2x,beh alla stessa risoluzione con un E8500 la situazione e' ben diversa)certo che gli york sono tutta un'alltra storia rispetto ai kenstfield,ma alla fine dei conti la cpuE8400 E8500 risulta abbastanza superiore in quasi tutti i titoli 3d :) TUTTO IMHO E I'M-A-NOOB :)

Amph
24-07-2008, 14:44
perche' non ci provi tu stesso? io sto solamente esponendo cio' che un utente inesperto come me ha provato personalmente ...... prova a tenere le due gtx in sli con procio sotto i 3800 e poi provaci con procio over 4 giga.... nessuno cerca di arrampicarsi su nessuno specchio,sto solamente dicendo cio' che mi e' capitato di provare di persona,spero delly o qualcuno con almeno lo sli possa confermarlo ;) da 3600 a 4000 come da 3800 a 4200 la differenza c'e' e si vede




e faresti male (sempre in ambito videogiochi) , guardati un paio di rece e dimmi l'e8500 come si comporta nei giochi.... il quad core ora come ora non da nessun vantaggio nei videogiochi e te lo dice uno che con il pc non fa altro che giocare (cioe' io,non so fare altro) poi tutto questo ripeto imho ma spero che qualcheduno che vive l'esperienza in prima persona venga in mio aiuto in merito..............poi se ci sono rece che dimostrano il contrario saro' ben lieto di apprenderlo e forse mi rendero' conto che sto sparando un sacco di c****e :)

che differenza hai nei giochi, da 3600 a 4000? in termini di fps dico...ricordo che sopra i 60 fps non ha praticamente senso andare...

fdadakjli
24-07-2008, 14:52
basta anche un buon e8400 e 85500 over 3,8 ghz ....anzi nei giochi a volte va pure meglio del quad di delly,provare per credere ;) (sto parlando in ambito puramente videoludico,ovviamente la situazione si ribalta se renderizziamo scene o multitaskiamo come matti...imho per un videogiocatore attualmente il processore e 8400 o e8500 sono la scelta ottimale) :)

cioè...stai dicendo che un Dual Wolfdale@ 3.8ghz è meglio di un Quad Yorkfield@ 4.95ghz nei game??? :sofico:
oppure che il Dual@ 3.8ghz è meglio di un QX9650 default???
in quest'ultimo caso ci può quasi stare...anche se io personalmente continuerei a preferire il quad a 3ghz al dual a 3.8ghz...probabilmente perchè ormai dopo anni di quadcore sono abituato a fare molte più cose contemporaneamente e mi ritroverei praticamente "azzoppato"


perche' non ci provi tu stesso? io sto solamente esponendo cio' che un utente inesperto come me ha provato personalmente ...... prova a tenere le due gtx in sli con procio sotto i 3800 e poi provaci con procio over 4 giga.... nessuno cerca di arrampicarsi su nessuno specchio,sto solamente dicendo cio' che mi e' capitato di provare di persona,spero delly o qualcuno con almeno lo sli possa confermarlo ;) da 3600 a 4000 come da 3800 a 4200 la differenza c'e' e si vede

ovvio che cambia...quelle due schede sono affamate di mhz... :p
600mhz in più sulla cpu non sono mica noccioline... :asd:

NOOB4EVER
24-07-2008, 15:04
che differenza hai nei giochi, da 3600 a 4000? in termini di fps dico...ricordo che sopra i 60 fps non ha praticamente senso andare...

certo penso anche io che oltre i 60 non serve andare,l'incremento e' di circa 5-8 fps (minimo) (12-15%??)


cioè...stai dicendo che un Dual Wolfdale@ 3.8ghz è meglio di un Quad Yorkfield@ 4.95ghz nei game??? :sofico:
oppure che il Dual@ 3.8ghz è meglio di un QX9650 default???
in quest'ultimo caso ci può quasi stare...anche se io personalmente continuerei a preferire il quad a 3ghz al dual a 3.8ghz...probabilmente perchè ormai dopo anni di quadcore sono abituato a fare molte più cose contemporaneamente e mi ritroverei praticamente "azzoppato"

ti capisco,no volevo solamente dire che in ambito puramente videoludico,un e8500 a default e' lievemente piu' prestante di un qx9650 a default....
per equivalere in game uno yorkfield a 4,95 ci vuole almeno il dual(wolf) a 5 gigi :sofico:


ovvio che cambia...quelle due schede sono affamate di mhz... :p
600mhz in più sulla cpu non sono mica noccioline... :asd:

grazie Delly ,volevo una tua conferma ,l'ho notato anche io (nella mia niubbaggine)che piu si ha potenza di calcolo sul procio e piu lo sli di questi mostri rende di piu'....

ps :invito chiunque a provare uno sli di gtx280 con procio (anche qx9650 - qx9750 70 ) @ default :D :D :D ma lol a momenti va meglio una scheda sola

fdadakjli
24-07-2008, 15:07
qualcuno ha provato i nuovi forceware 170.70???

NOOB4EVER
24-07-2008, 15:10
Delly

oppure che il Dual@ 3.8ghz è meglio di un QX9650 default???
in quest'ultimo caso ci può quasi stare...anche se io personalmente continuerei a preferire il quad a 3ghz al dual a 3.8ghz

io per giocare preferisco il dual a 3800 che il quad a 3000 ;)

NOOB4EVER
24-07-2008, 15:11
qualcuno ha provato i nuovi forceware 170.70???

177.70?? i 170 non li trovo :D

skerzi a parte amici io spero che non vadano come i 66 perche' sarebbe per me una catastrofe...

fdadakjli
24-07-2008, 15:15
Delly

oppure che il Dual@ 3.8ghz è meglio di un QX9650 default???
in quest'ultimo caso ci può quasi stare...anche se io personalmente continuerei a preferire il quad a 3ghz al dual a 3.8ghz

io per giocare preferisco il dual a 3800 che il quad a 3000 ;)

io ho detto "personalmente"... :read:
non prenderei mai più un dual per il pc principale...già mi voglio liberare dell'E8400 del mulo in favore di un Q9XXX... :p

appleroof
24-07-2008, 15:17
c'è chi non ci gioca solamente con il pc o chi mentre gioca impegna la cpu in altri lavoretti...in questi casi il quad anche a quella freq è un buon compromesso... ;)

ovviamente quoto :)

fdadakjli
24-07-2008, 15:20
177.70?? i 170 non li trovo :D

skerzi a parte amici io spero che non vadano come i 66 perche' sarebbe per me una catastrofe...

guarda nella lista dei download in alto a destra di questo :sofico:

strano...io ho su i .66 e rispetto ai precedenti ho avuto miglioramenti in quasi tutto...ora proviamo questi nuovi .70 e vediamo... ;)

Scrambler77
24-07-2008, 15:57
@Scrambler77

sai,testando crysis con il tuo procio a 3200 (ho un q6600 in casa) ho notato come sia praticamente impossibile abilitare aa a piu di 2x,beh alla stessa risoluzione con un E8500 la situazione e' ben diversa)

cioè...stai dicendo che un Dual Wolfdale@ 3.8ghz è meglio di un Quad Yorkfield@ 4.95ghz nei game??? :sofico:
oppure che il Dual@ 3.8ghz è meglio di un QX9650 default???
in quest'ultimo caso ci può quasi stare...anche se io personalmente continuerei a preferire il quad a 3ghz al dual a 3.8ghz...probabilmente perchè ormai dopo anni di quadcore sono abituato a fare molte più cose contemporaneamente e mi ritroverei praticamente "azzoppato"

ovvio che cambia...quelle due schede sono affamate di mhz... :p
600mhz in più sulla cpu non sono mica noccioline... :asd:

Anche se Delly è un caso a parte (Q9xxx a 5ghz... 'tacci tua!!! :D ), quoto anch'io la preferenza per un quad meno spinto in frequenza anzichè un dual.

Che poi un dual @3.8 nei giochi OGGI sia meglio di un quad @3.0, lo sappiamo bene... ma a mio avviso la tendenza alla parallelizzazione dei task anche nei giochi si farà più marcata nel futuro prossimo...

fdadakjli
24-07-2008, 15:59
Che poi un dual @3.8 sia meglio di un quad @3.0 nei giochi OGGI sia meglio, lo sappiamo bene... ma a mio avviso la tendenza alla parallelizzazione dei task anche nei giochi si farà più marcata nel futuro prossimo...

esattamente... ;)

appleroof
24-07-2008, 16:04
Che poi un dual @3.8 nei giochi OGGI sia meglio di un quad @3.0, lo sappiamo bene... ma a mio avviso la tendenza alla parallelizzazione dei task anche nei giochi si farà più marcata nel futuro prossimo...

e cmq cosa fondamentale non bisogna dimenticare che il pc non è una consolle :D

zorco
24-07-2008, 16:13
e cmq cosa fondamentale non bisogna dimenticare che il pc non è una consolle :D
quoto,si ci fà un pò tutto si ci fà:p

fdadakjli
24-07-2008, 16:26
e cmq cosa fondamentale non bisogna dimenticare che il pc non è una consolle :D

già... :asd:

appleroof
24-07-2008, 17:21
rumors cinesi ( :D ) quindi non so :read: , cmq la posto: gtx290 e gtx270 già a fine agosto (in occasione dell' nVision 2008) ad un prezzo di lancio più basso di quanto era quello delle gtx280/260:

http://translate.google.com/translate?hl=en&sl=zh-CN&u=http://news.mydrivers.com/1/111/111937.htm&prev=/search%3Fq%3Dmydrivers.com%26hl%3Den%26sa%3DG

fdadakjli
24-07-2008, 17:24
rumors cinesi ( :D ) quindi non so :read: , cmq la posto: gtx290 e gtx270 già a fine agosto (in occasione dell' nVision 2008) ad un prezzo di lancio più basso di quanto era quello delle gtx280/260:

azz..le mie GTX280 non hanno ancora la polvere ed è già ora di cambiarle... :ciapet:

sagge90
24-07-2008, 17:27
azz..le mie GTX280 non hanno ancora la polvere ed è già ora di cambiarle... :ciapet:

M***a infatti!!!:eek: Allora conviene aspettare a fare il "grande passo"..!:rolleyes:

halduemilauno
24-07-2008, 17:28
rumors cinesi ( :D ) quindi non so :read: , cmq la posto: gtx290 e gtx270 già a fine agosto (in occasione dell' nVision 2008) ad un prezzo di lancio più basso di quanto era quello delle gtx280/260:

http://translate.google.com/translate?hl=en&sl=zh-CN&u=http://news.mydrivers.com/1/111/111937.htm&prev=/search%3Fq%3Dmydrivers.com%26hl%3Den%26sa%3DG

rumors cinesi...
:eekk:
;)

Amph
24-07-2008, 17:30
certo penso anche io che oltre i 60 non serve andare,l'incremento e' di circa 5-8 fps (minimo) (12-15%??)


se xo sei gia a 60 fps o + con il procio a 3600, portarlo a 4000 non serve a niente imho...

appleroof
24-07-2008, 17:32
azz..le mie GTX280 non hanno ancora la polvere ed è già ora di cambiarle... :ciapet:

vediamo....:D

rumors cinesi...
:eekk:
;)

:D :D

Scrambler77
24-07-2008, 17:40
Ottimo...

A quanto si vendono le 8800GTX con 1 anno e mezzo di vita?

NOOB4EVER
24-07-2008, 18:02
se xo sei gia a 60 fps o + con il procio a 3600, portarlo a 4000 non serve a niente imho...

perfettamente daccordo :)

Amph
24-07-2008, 18:04
perfettamente daccordo :)

:mano:

slime
24-07-2008, 18:05
GTX280 in continua discesa.......... le XFX a 360 eurozzi......... :sbav:

appleroof
24-07-2008, 18:07
Ottimo...

A quanto si vendono le 8800GTX con 1 anno e mezzo di vita?

:D

slime
24-07-2008, 18:08
Ottimo...

A quanto si vendono le 8800GTX con 1 anno e mezzo di vita?

120 max 150 euro.........
Qualche negozio online ne ha ancora 199 euro nuove.......;)

ippo.g
24-07-2008, 18:13
io tengo 42 fps medi a 1920x1200 con 4 di AA in xp con config moddata in ultra high :) (ps:con cpu a 4000 minimo) ;)

ecco questo volevo sapere, a che frequenza di CPU cominci ad essere gpu limited a quella risoluzione?
cioè oltre quale frequenza di cpu non guadagni più fps?

eXeS
24-07-2008, 18:46
qua: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating

vedo "solo" ( :eek: ) un +60% che poi diventa un +70% con AA... ;)
Non so se gli conviene cambiare, io fossi in lui, ripeto, aspetterei, certo che se lui proprio vuole cambiare allora che cambi!! :D :D

Ho quotato Company of Heroes, e gli ho messo il link per vedere la differenza di prestazioni con Company of Heroes... :rolleyes:

The_SaN
24-07-2008, 18:48
Ottimo...

A quanto si vendono le 8800GTX con 1 anno e mezzo di vita?

Credo che al prezzo di una 4850 dovrebbe andar bene :)

Errik89
24-07-2008, 18:54
rumors cinesi...
:eekk:
;)
:rotfl: :D
comunque penso che già a settembre usciranno, IMHO. ;)

Errik89
24-07-2008, 18:55
Ho quotato Company of Heroes, e gli ho messo il link per vedere la differenza di prestazioni con Company of Heroes... :rolleyes:
scusa non avevo visto... infatti mi sembrava strano che in una rece fosse una cosa e in un'altra un'altra cosa... :)

appleroof
24-07-2008, 18:58
:rotfl: :D
comunque penso che già a settembre usciranno, IMHO. ;)

proprio quello che pensano i rumors cinesi ITHO :asd:

Errik89
24-07-2008, 18:59
proprio quello che pensano i rumors cinesi :asd:
beh... se è per quello anche fruitzilla lo dice da secoli... :D :Prrr:

P.s.: cosa vuol dire ITHO? :confused:

eXeS
24-07-2008, 19:00
scusa non avevo visto... infatti mi sembrava strano che in una rece fosse una cosa e in un'altra un'altra cosa... :)
:D

appleroof
24-07-2008, 19:01
P.s.: cosa vuol dire ITHO? :confused:

In Their Honest Opinion :ciapet: :asd:

Errik89
24-07-2008, 19:14
In Their Honest Opinion :ciapet: :asd:
:sofico:

michelgaetano
24-07-2008, 19:50
In Their Honest Opinion :ciapet: :asd:

Humble :asd:

NOOB4EVER
24-07-2008, 20:39
ecco questo volevo sapere, a che frequenza di CPU cominci ad essere gpu limited a quella risoluzione?
cioè oltre quale frequenza di cpu non guadagni più fps?

purtroppo per me non ho un impianto di raffreddamento che mi permette di andare chissa dove ma fino a 4500 ho visto che aumentano sempre gli fps,quindi penso che piu su si vada e piu si ottiene,ma posso sbagliarmi :)

ippo.g
24-07-2008, 21:25
purtroppo per me non ho un impianto di raffreddamento che mi permette di andare chissa dove ma fino a 4500 ho visto che aumentano sempre gli fps,quindi penso che piu su si vada e piu si ottiene,ma posso sbagliarmi :)

e sti cazzi :eek:

Errik89
24-07-2008, 21:33
e sti cazzi :eek:
quoto! :fagiano:

baila
24-07-2008, 22:01
qualcuno ha provato i nuovi forceware 170.70???

Up! ;)

St. Jimmy
24-07-2008, 22:02
quali driver mi consigliate per questa scheda, dato che da domani farò parte dei vostri? :yeah: o installo direttamente gli ultimi disponibili sul sito nVidia?

^Memphis^
24-07-2008, 23:05
Buonasera ragazzi! Oggi sono andato a ritirare la mia nuova gtx 280. Solo poco fa l'ho montata e ho acceso il pc ma ho notato che la scheda non parte e che vicino alla staffa c'è un led rosso acceso, cosa significa? sapreste aiutarmi? Grazie mille!

eXeS
24-07-2008, 23:23
Buonasera ragazzi! Oggi sono andato a ritirare la mia nuova gtx 280. Solo poco fa l'ho montata e ho acceso il pc ma ho notato che la scheda non parte e che vicino alla staffa c'è un led rosso acceso, cosa significa? sapreste aiutarmi? Grazie mille!

Hai dimenticato di connettere qualche cavetto ?

Without any auxiliary power provided to the GeForce GTX 280 graphics card, an LED on the header bracket will shine red and the graphics card will not boot. In addition, the connector that is not adequately powered will turn red. Together this new functionality offers immediate feedback for enthusiasts concerned about providing adequate power to the GPU. In the past, low/no auxiliary power situations sounded a piezo buzzer which was so loud you could often mis-located the origin of the alarm.

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=179&Itemid=72&limit=1&limitstart=5

^Memphis^
24-07-2008, 23:29
No sono tutti collegati al loro posto! 2 da 6pin collegati alla scheda.
Tra le istruzioni cartacee ho trovato un foglietto di installazione rapida riguardante l'alimentazione in cui in breve afferma che la sceda non può essere alimentata da un connettore 6pin e 2 molex convertiti a uno da 6pin...è possibile?

Errik89
24-07-2008, 23:32
No sono tutti collegati al loro posto! 2 da 6pin collegati alla scheda.
Tra le istruzioni cartacee ho trovato un foglietto di installazione rapida riguardante l'alimentazione in cui in breve afferma che la sceda non può essere alimentata da un connettore 6pin e 2 molex convertiti a uno da 6pin...è possibile?
ma non è 6pin + 8pin?

overclock83
24-07-2008, 23:38
con il mio ali coolermaster extremepower da 650 watt riuscirei ad alimentare la gtx 280

+3,3v:28a

+5v:30a

+12v:18a

+12v:18a

+5vsb:2,5a

^Memphis^
24-07-2008, 23:39
Riepilogando: la scheda ha 2 attacchi, 1 da 6 pin ed uno da 8 pin. Il mio alimentatore ha 1 da 6 pin e basta. L'altro da 6 pin necessario per la 8800gtx lo ottenevo con due molex e l'adattatore.
Ora penso che ciò non vada bene...

overclock83
24-07-2008, 23:41
Riepilogando: la scheda ha 2 attacchi, 1 da 6 pin ed uno da 8 pin. Il mio alimentatore ha 1 da 6 pin e basta. L'altro da 6 pin necessario per la 8800gtx lo ottenevo con due molex e l'adattatore.
Ora penso che ciò non vada bene...

cambia ali tecnoware nn potra mai alimentarla fidati

Errik89
24-07-2008, 23:41
Riepilogando: la scheda ha 2 attacchi, 1 da 6 pin ed uno da 8 pin. Il mio alimentatore ha 1 da 6 pin e basta. L'altro da 6 pin necessario per la 8800gtx lo ottenevo con due molex e l'adattatore.
Ora penso che ciò non vada bene...
Più che altro ne serve uno da 8 pin e non da 6 pin, no?

Errik89
24-07-2008, 23:42
cambia ali tecnoware nn potra mai alimentarla fidati
beh... non mi ero accorto dell'ali che aveva... quoto! :D

appleroof
24-07-2008, 23:44
Riepilogando: la scheda ha 2 attacchi, 1 da 6 pin ed uno da 8 pin. Il mio alimentatore ha 1 da 6 pin e basta. L'altro da 6 pin necessario per la 8800gtx lo ottenevo con due molex e l'adattatore.
Ora penso che ciò non vada bene...

purtroppo no, a parte l'ali in sè, il tuo "metodo" sarebbe potuto andare forse con la gtx260, non certo con questa, al limite potevi adattare 1 cavo a 6 pin (di 2) a 8 pin, se mi spiego

cmq visto che sarai costretto a prendere un ali nuovo, prendilo direttamente con cavetteria a 8 pin...

^Memphis^
24-07-2008, 23:54
Tanto era ora di cambiarlo...finora il suo lavoro l'aveva svolto!
Dunque: consigli?

Personalmente o visto questo (http://www.e-key.it/product_info.php?cPath=21_249&products_id=3338&osCsid=2c4b06abdbf7bd8cbf878cca47a4cbfd) ,ma non so se può andare! Che ne dite?
Avete qualche idea nche un po' + economica di questa? Grazie ragazzi!

appleroof
24-07-2008, 23:57
Tanto era ora di cambiarlo...finora il suo lavoro l'aveva svolto!
Dunque: consigli?

Personalmente o visto questo (http://www.e-key.it/product_info.php?cPath=21_249&products_id=3338&osCsid=2c4b06abdbf7bd8cbf878cca47a4cbfd) ,ma non so se può andare! Che ne dite?
Avete qualche idea nche un po' + economica di questa? Grazie ragazzi!

è un ali eccellente, ti posso dire che è meglio non risparmiare su questo componente (dà "benzina" all'intero sistema), sarà una spesa che ti ripagherà abbondantemente nel tempo

^Memphis^
25-07-2008, 00:03
Infatti riflettendoci su sono giunto alla tua stessa conclusione! Quel modello ha tutti i connettori necessari per la gtx 280 vero? Grazie per l'aiuto gente! veramente gentili!

Errik89
25-07-2008, 00:08
Tanto era ora di cambiarlo...finora il suo lavoro l'aveva svolto!
Dunque: consigli?

Personalmente o visto questo (http://www.e-key.it/product_info.php?cPath=21_249&products_id=3338&osCsid=2c4b06abdbf7bd8cbf878cca47a4cbfd) ,ma non so se può andare! Che ne dite?
Avete qualche idea nche un po' + economica di questa? Grazie ragazzi!
il piperock è ottimo! ho appena preso l'800W ed è veramente eccezionale, oltre ad essere bello da vedere e silenzioso. ;)
Comunque dal "drago" (con la k invece della g) costa meno, infatti io l'ho preso lì... :read:

appleroof
25-07-2008, 00:09
Infatti riflettendoci su sono giunto alla tua stessa conclusione! Quel modello ha tutti i connettori necessari per la gtx 280 vero? Grazie per l'aiuto gente! veramente gentili!

non te ne pentirai, l'ali che ho in firma ha cambiato 3 conf. diverse senza fare una piega, ce l'ho da 2 anni quasi e quando lo presi mi sembrava abnorme rispetto alle mie necessità: non sono mai stato più soddisfatto di quella scelta

per il resto, il modello che ti interessa ha i cavi giusti, basta guardare nelle caratteristiche (se magari ti interessa qualche altra marca, anche se per ovvia esperienza personale ti dico che Tagan è eccellente) dove dice:

1 x 6+2 Pin, 1 x 6 Pin

;)

qui trovi prezzi migliori:

http://www.trovaprezzi.it/categoria.aspx?id=154&libera=tagan&page=2&sort=Prezzo&sortdir=0

Errik89
25-07-2008, 00:09
Infatti riflettendoci su sono giunto alla tua stessa conclusione! Quel modello ha tutti i connettori necessari per la gtx 280 vero? Grazie per l'aiuto gente! veramente gentili!
si ha 4 connettori pci-e, 2 da 8 pin e 2 da 6 pin, oltre ad una serie infinita di altri connettori... :)

Errik89
25-07-2008, 00:10
non te ne pentirai, l'ali che ho in firma ha cambiato 3 conf. diverse senza fare una piega, ce l'ho da 2 anni quasi e quando lo presi mi sembrava abnorme rispetto alle mie necessità: non sono mai stato più soddisfatto di quella scelta

per il resto, il modello che ti interessa ha i cavi giusti, basta guardare nelle caratteristiche (se magari ti interessa qualche altra marca, anche se per ovvia esperienza personale ti dico che Tagan è eccellente) dove dice:

1 x 6+2 Pin, 1 x 6 Pin

;)
sono 4 comunque (almeno, nell'800W).
Quoto sul fatto che tagan sia eccellente come marca, ho avuto 3 tagan tutti e 3 ottimi! Il piperock poi è veramente stupendo...

appleroof
25-07-2008, 00:12
sono 4 comunque (almeno, nell'800W).
Quoto sul fatto che tagan sia eccellente come marca, ho avuto 3 tagan tutti e 3 ottimi! Il piperock poi è veramente stupendo...

infatti quando cambierò ali di sicuro prenderò quello ;)

fdadakjli
25-07-2008, 08:10
Quoto sul fatto che tagan sia eccellente come marca, ho avuto 3 tagan tutti e 3 ottimi! Il piperock poi è veramente stupendo...

quoto...i tagan sono veramente superbi... :read:
l'unica cosa che non mi va giù del piperock sono quelle luci colorate sui connettori modulari...veramente come una bastonata sui denti... :D :sofico:

TheInvisible
25-07-2008, 08:25
....per una conferma!!!

Con l'alimentatore che ho firma riuscirò ad alimentare la 280GTX?

Sono quasi sicuro di sì, ma avere ulteriori conferme non fa mai male:D :D :D

Grazie 1000

Ciao a tutti e Buon inizio giornata

fdadakjli
25-07-2008, 08:26
....per una conferma!!!

Con l'alimentatore che ho firma riuscirò ad alimentare la 280GTX?


non dovresti avere problemi... :)

^Memphis^
25-07-2008, 09:08
il piperock è ottimo! ho appena preso l'800W ed è veramente eccezionale, oltre ad essere bello da vedere e silenzioso. ;)
Comunque dal "drago" (con la k invece della g) costa meno, infatti io l'ho preso lì... :read:

Hai ragione, ho controllato! Solo che l'ultima volta che ho acquistato lì ho atteso diverso tempo prima che mi arrivasse la merce e siccome ho una certa fretta non vorrei ripetere la storia!

Per quanto rguarda la scheda e la gestione dalla ventola, avviene manualmente con RivaTuner?

Che ne dite, un format se lo merita il sistema o basta disinstallare i driver ed una passata di DriverCleaner?

Scrambler77
25-07-2008, 09:56
quoto...i tagan sono veramente superbi... :read:
l'unica cosa che non mi va giù del piperock sono quelle luci colorate sui connettori modulari...veramente come una bastonata sui denti... :D :sofico:

Parole sante! ;)

Apropos di consumi: mi sono rincoglionito io, ma non trovo più un grafico comparativo sui consumi tra le "vecchie" 8800gtx e le nuove gtx280...

Qualcuno ne ha uno sotto mano?

Amph
25-07-2008, 12:30
nella confezione della 280 ci sono gli adattatori 4pinmolex---8pin? in caso uno non dovesse avere l'8 pin

baila
25-07-2008, 12:34
I nuovi driver 177.70 hanno risolto i problemi delle ombre con AOC e ora gira come si deve! :cool:
C'è inoltre una nuova opzione "Modalita perfomance x single GPU"...qualcuno sa qualcosa in merito su cosa intervenga?

Errik89
25-07-2008, 12:58
Parole sante! ;)

Apropos di consumi: mi sono rincoglionito io, ma non trovo più un grafico comparativo sui consumi tra le "vecchie" 8800gtx e le nuove gtx280...

Qualcuno ne ha uno sotto mano?
su computerbase.de non ci sono? mi pare di si... provo a vedere! :)

CoolBits
25-07-2008, 13:44
nella confezione della 280 ci sono gli adattatori 4pinmolex---8pin? in caso uno non dovesse avere l'8 pin

nelle zotac si nelle altre :boh:

NOOB4EVER
25-07-2008, 15:01
ragazzi ho provato i nuovi drivers 177.70 e in World in Conflict sono passato da

MIN 37 MED 78 MAX 180

a


MIN 59 MED 125 MAX 200

pero' ho notato delle linee rosse in giro per le strade , per crysis vanno come gli altri e per gli altri giochi li sto testando ora,provo grid e compagnia bella e vediamo ,pero' i prossimi whql sembra che saranno buoni se vanno come questi beta !!!! :)

DarkVampire
25-07-2008, 15:07
se sei su vista 32 prova i 177.72..sono piu' recenti dei 70...e supoprotano la 8,9 e gt200...credo sia da preliminare per i driver con le physx, ke escono il 5/8agosto

halduemilauno
25-07-2008, 15:39
http://www.hardware-infos.com/news.php?news=2244

per il gt200b si ritorna(menomale)al X2.5. si citano anche i 656/1640(credo + alti).
staremo a vedere.
;)

Errik89
25-07-2008, 15:40
http://www.hardware-infos.com/news.php?news=2244

per il gt200b si ritorna(menomale)al X2.5. si citano anche i 656/1640.
staremo a vedere.
;)
perchè menomale? :stordita:

halduemilauno
25-07-2008, 16:01
perchè menomale? :stordita:

perchè l'attuale 2.15 si è visto è troppo castrante. quantomeno andava rialzato e magari per l'appunto al 2.5 degli attuali g92.

fdadakjli
25-07-2008, 16:19
nella confezione della 280 ci sono gli adattatori 4pinmolex---8pin? in caso uno non dovesse avere l'8 pin

sia nelle evga che nelle xfx c'è l'adattatore 2x 6pin --> 8pin...mai visti adattatori 4x molex --> 8pin cmq...

in questo caso se non hai i 6pin dall'ali devi prendere due adattatori 2x molex --> 6pin ed usare quelli insieme all'adattatore in dotazione...;)

Iantikas
25-07-2008, 16:24
purtroppo per me non ho un impianto di raffreddamento che mi permette di andare chissa dove ma fino a 4500 ho visto che aumentano sempre gli fps,quindi penso che piu su si vada e piu si ottiene,ma posso sbagliarmi :)


riallacciandomi al discorso ke da 3800 a 4200 si ottengono guadagni in situazione di cpu limited...vorrei ricordare ke, se la matematica nn'è un opinione, quell'incremento in percentuale è pari a circa il 10%...


...tutti sappiamo ke le prestazioni in una determinata applicazione nn crescono in maniera perfettamente lineare con l'aumento della freq...ciò significa ke da un aumento in freq del 10%, a parte in alcuni test sintetici, in applicazioni reali si otterrà un aumento delle performance inferiore al 10%...


...nei gioki, dove anke in situazioni di cpu limited, nn lo si è sempre ma qualke frame si e qualke no, questo aumento delle prestazioni sarà ancora + basso di quello ke si ottiene nelle altre applicazioni e si aggirerà intorno al 5%...


...tenendo presente ke nella migliore (e nei gioki praticamente nn realizzabile) delle ipotesi al max si otterrà in incremento del 10% xkè quello è stato l'incremento in freq della cpu...

...e quindi se stavi giocando a 40fps di media nel migliore dei casi passerai a 44fps (realisticamente passerai intorno ai 42fps, sempre ammesso ke ci si trovi in una situazione fortemente cpu limited, altrimenti il cambiamento sarà nei dintorni dei 0.x fps)...

...ci si rende subito conto ke quei 400mhz, ke a prima vista possono sembrare tanti, in una cpu ke ne ha già 3800mhz sono solo "una goccia nell'oceano" soprattutto dal punto di vista dei videogioki...

...poi vabbeh se ti fa piacere puoi cmq continuare a pensare ke passando da 3800mhz a 4200mhz ottieni miglioramenti tangibili del gameplay ma la realtà è ben diversa...soprattutto se sfrutti al max le potenzialità del reparto video (dove si va in una situazione di gpu limited)...ma anke ammesso ke usi uno sli di GTX280 x giocare a 1280x1024 l'incremento di fps sarà al max sempre e cmq pari al 10%....e siccome in quello scenario starai ben oltre i 100fps con qualunque titolo anke li nn te ne farai niente...


...mi spiace ma coi gioki la tua affermazione è proprio campata in aria...discorso diverso invece in altri applicativi tipo x convertire filmati o editing audio/video o modellazione 3d, etc dove ogni mhz fa comodo xkè le prestazioni dipendono esclusivamente da cpu/mobo/ram...e anke un 10% di freq in + con quel 6/8% di prestazioni in + ke porterà può far comodo...


...ciao

NOOB4EVER
25-07-2008, 17:04
riallacciandomi al discorso ke da 3800 a 4200 si ottengono guadagni in situazione di cpu limited...vorrei ricordare ke, se la matematica nn'è un opinione, quell'incremento in percentuale è pari a circa il 10%...


...tutti sappiamo ke le prestazioni in una determinata applicazione nn crescono in maniera perfettamente lineare con l'aumento della freq...ciò significa ke da un aumento in freq del 10%, a parte in alcuni test sintetici, in applicazioni reali si otterrà un aumento delle performance inferiore al 10%...


...nei gioki, dove anke in situazioni di cpu limited, nn lo si è sempre ma qualke frame si e qualke no, questo aumento delle prestazioni sarà ancora + basso di quello ke si ottiene nelle altre applicazioni e si aggirerà intorno al 5%...


...tenendo presente ke nella migliore (e nei gioki praticamente nn realizzabile) delle ipotesi al max si otterrà in incremento del 10% xkè quello è stato l'incremento in freq della cpu...

...e quindi se stavi giocando a 40fps di media nel migliore dei casi passerai a 44fps (realisticamente passerai intorno ai 42fps, sempre ammesso ke ci si trovi in una situazione fortemente cpu limited, altrimenti il cambiamento sarà nei dintorni dei 0.x fps)...

...ci si rende subito conto ke quei 400mhz, ke a prima vista possono sembrare tanti, in una cpu ke ne ha già 3800mhz sono solo "una goccia nell'oceano" soprattutto dal punto di vista dei videogioki...

...poi vabbeh se ti fa piacere puoi cmq continuare a pensare ke passando da 3800mhz a 4200mhz ottieni miglioramenti tangibili del gameplay ma la realtà è ben diversa...soprattutto se sfrutti al max le potenzialità del reparto video (dove si va in una situazione di gpu limited)...ma anke ammesso ke usi uno sli di GTX280 x giocare a 1280x1024 l'incremento di fps sarà al max sempre e cmq pari al 10%....e siccome in quello scenario starai ben oltre i 100fps con qualunque titolo anke li nn te ne farai niente...


...mi spiace ma coi gioki la tua affermazione è proprio campata in aria...discorso diverso invece in altri applicativi tipo x convertire filmati o editing audio/video o modellazione 3d, etc dove ogni mhz fa comodo xkè le prestazioni dipendono esclusivamente da cpu/mobo/ram...e anke un 10% di freq in + con quel 6/8% di prestazioni in + ke porterà può far comodo...


...ciao

quello che volevo far capire da nubbone quale sono e' che piu si alza la frequenza della cpu e piu lo sli rende ,e secondo il mio modesto parere non vi e' nessuna cpu attuale capace di sfruttare a dovere la potenza di queste vga ,basta fare un 3dmark 06 a default col procio per rendersi conto di quanto poco sia sfruttato il reparto grafico,questo va pian piano diminuendo piu che si alza la freq della cpu,non so fare calcoli di hardware e cose varie ma da cio che ho provato il procio a default , pure il qx9770 di un caro amico riesce a dare risultati soddisfacenti con sli di gtx280,tutt'altra storia se si passa a 4ghz di frequenza..tutto qui e tutto imho poi avro pure sbagliato a pensare e restero' pure con le mie idee contorte e ridicole ma ho solamente esposto cio' che ho notato dalla mia esperienza personale ... :rolleyes:

NOOB4EVER
25-07-2008, 17:07
se sei su vista 32 prova i 177.72..sono piu' recenti dei 70...e supoprotano la 8,9 e gt200...credo sia da preliminare per i driver con le physx, ke escono il 5/8agosto

nono percarita' , vista non lo provo neanche...gia installato varie volte,per me giocare su vista non paga l'hardware che si ha,troppo bugguti i giochi,girano peggio che in xp di almeno un 15 %....ps comunque speriamo bene per i certificati

Amph
25-07-2008, 17:27
sia nelle evga che nelle xfx c'è l'adattatore 2x 6pin --> 8pin...mai visti adattatori 4x molex --> 8pin cmq...

in questo caso se non hai i 6pin dall'ali devi prendere due adattatori 2x molex --> 6pin ed usare quelli insieme all'adattatore in dotazione...;)

i 6 pin c'è li ho, chiedevo per l'8 pin.

fdadakjli
25-07-2008, 17:47
i 6 pin c'è li ho, chiedevo per l'8 pin.

quello che dicevo...per l'8pin ti danno l'adattatore 2x 6pin --> 8pin...;)

poi se non hai 2x 6pin disponibili devi prenderti un paio di classici adattatori 6pin-->molex e usare quelli

Amph
25-07-2008, 18:00
ah bene, xo solo con quelle marche che hai menzionato prima.

fdadakjli
25-07-2008, 18:02
ah bene, xo solo con quelle marche che hai menzionato prima.

penso che all'incirca in tutte di danno l'adattatore 2x molex --> 6pin + quello 2x 6pin --> 8pin... ;)

Errik89
25-07-2008, 18:33
http://www.hardware-infos.com/news.php?news=2244

per il gt200b si ritorna(menomale)al X2.5. si citano anche i 656/1640(credo + alti).
staremo a vedere.
;)
ah ok, è comunque una questione solo di overclock... ho capito.

tigershark
25-07-2008, 18:44
ah ok, è comunque una questione solo di overclock... ho capito.

ragazzi, ma nessuno di voi che possiede una 280 gtx ha notato che se la sua ventola raggiunge il 100% della velocità non scende più al 40% iniziale? Questo nonostante una temperatura della gpu in idle inferiore ai 60°C.
Io ho mandato la mia scheda in RMA xke sembra si tratti di un difetto...il mio dubbio nasce dal fatto che molta gente sembra avere questo inconveniente.

Vostre esperienze? I nuovi drivers hanno risolto qualcosa??

DarkNiko
25-07-2008, 19:00
ragazzi, ma nessuno di voi che possiede una 280 gtx ha notato che se la sua ventola raggiunge il 100% della velocità non scende più al 40% iniziale? Questo nonostante una temperatura della gpu in idle inferiore ai 60°C.
Io ho mandato la mia scheda in RMA xke sembra si tratti di un difetto...il mio dubbio nasce dal fatto che molta gente sembra avere questo inconveniente.

Vostre esperienze? I nuovi drivers hanno risolto qualcosa??

Io uso RivaTuner e gestisco la ventola in automatico mediante un profilo e i giri vengono gestiti bene. Cmq nel tuo caso non avrei mandato in RMA la scheda, se non altro avrei verificato se altri abbiano il tuo stesso problema (e direi di sì leggendo anche su altri forum), quindi potrebbe essere, diciamo, un difetto insito in tutte le GTX280, compresa anche la mia e quindi "normale". ;)

NOOB4EVER
25-07-2008, 19:03
uffa dopo che ho installato i nuovi beta artefatti su WIC anche se frame ben piu' elevato,dopo averli rimossi mi sono rimasti gli artefatti , ma lol riformatto :doh:

fdadakjli
25-07-2008, 19:04
ragazzi, ma nessuno di voi che possiede una 280 gtx ha notato che se la sua ventola raggiunge il 100% della velocità non scende più al 40% iniziale? Questo nonostante una temperatura della gpu in idle inferiore ai 60°C.
Io ho mandato la mia scheda in RMA xke sembra si tratti di un difetto...il mio dubbio nasce dal fatto che molta gente sembra avere questo inconveniente.

Vostre esperienze? I nuovi drivers hanno risolto qualcosa??

quel problema [non tutte ne soffrono] era risolvibile semplicemente con qualche modifica al bios... ;)

tigershark
25-07-2008, 19:08
Io uso RivaTuner e gestisco la ventola in automatico mediante un profilo e i giri vengono gestiti bene. Cmq nel tuo caso non avrei mandato in RMA la scheda, se non altro avrei verificato se altri abbiano il tuo stesso problema (e direi di sì leggendo anche su altri forum), quindi potrebbe essere, diciamo, un difetto insito in tutte le GTX280, compresa anche la mia e quindi "normale". ;)

ma tu l'hai notato utilizzandola senza profili di rivatuner? A me hanno risposto quelli del supporto tecnico pov dicendo, testuali parole, che si tratta di un "accidental issue" e di mandare la scheda in RMA. Vedremo con la prossima. Boh

x.vegeth.x
25-07-2008, 19:21
uffa dopo che ho installato i nuovi beta artefatti su WIC anche se frame ben piu' elevato,dopo averli rimossi mi sono rimasti gli artefatti , ma lol riformatto :doh:

ma lol :asd:

tigershark
25-07-2008, 19:44
quel problema [non tutte ne soffrono] era risolvibile semplicemente con qualche modifica al bios... ;)

e lo so, ma dato il costo della scheda ho preferito mandarla in RMA. Se poi anche la nuova dovesse soffrirne pazienza. :rolleyes:

Errik89
25-07-2008, 19:47
e lo so, ma dato il costo della scheda ho preferito mandarla in RMA. Se poi anche la nuova dovesse soffrirne pazienza. :rolleyes:
ma lol! non succede nulla a fare un bios flash... :D

Giustaf
25-07-2008, 19:57
quello che volevo far capire da nubbone quale sono e' che piu si alza la frequenza della cpu e piu lo sli rende ,e secondo il mio modesto parere non vi e' nessuna cpu attuale capace di sfruttare a dovere la potenza di queste vga ,basta fare un 3dmark 06 a default col procio per rendersi conto di quanto poco sia sfruttato il reparto grafico,questo va pian piano diminuendo piu che si alza la freq della cpu,non so fare calcoli di hardware e cose varie ma da cio che ho provato il procio a default , pure il qx9770 di un caro amico riesce a dare risultati soddisfacenti con sli di gtx280,tutt'altra storia se si passa a 4ghz di frequenza..tutto qui e tutto imho poi avro pure sbagliato a pensare e restero' pure con le mie idee contorte e ridicole ma ho solamente esposto cio' che ho notato dalla mia esperienza personale ... :rolleyes:

il 3d mark è un test...mica fa parte dei giochi! :O
non conta nulla per vedere se si è cpu limited. Devi basarti solo esclusivamente dei giochi, e come dice Iantikas la differenza tra oc è default con processori sopra i 3Ghz è trascurabile...è ancora più trascurabile se si sta a risoluzioni da 1680x1050 in su...di 3 o 4 fps in più, se non hai fraps acceso, non te ne accorgerai mai....;)

ippo.g
25-07-2008, 20:06
il 3d mark è un test...mica fa parte dei giochi! :O
non conta nulla per vedere se si è cpu limited. Devi basarti solo esclusivamente dei giochi, e come dice Iantikas la differenza tra oc è default con processori sopra i 3Ghz è trascurabile...è ancora più trascurabile se si sta a risoluzioni da 1680x1050 in su...di 3 o 4 fps in più, se non hai fraps acceso, non te ne accorgerai mai....;)

non è proprio così,d'accordissimo tralasciare il 3dmark, ma oggi ci sono già giochi più dipendenti dalla cpu che in passato, e l'aumento di frequenza del procio permette di guadagnare fps a quelle risoluzioni in cui non si è gpu limited, e con queste schede mi pare di capire che il gpu limited si sposti parecchio oltre i 1680x1050

zorco
25-07-2008, 20:08
il 3d mark è un test...mica fa parte dei giochi! :O
non conta nulla per vedere se si è cpu limited. Devi basarti solo esclusivamente dei giochi, e come dice Iantikas la differenza tra oc è default con processori sopra i 3Ghz è trascurabile...è ancora più trascurabile se si sta a risoluzioni da 1680x1050 in su...di 3 o 4 fps in più, se non hai fraps acceso, non te ne accorgerai mai....;)
quoto in todos...;)

tigershark
25-07-2008, 20:22
ma lol! non succede nulla a fare un bios flash... :D


a parte perdere la garanzia??:read:

fdadakjli
25-07-2008, 20:26
a parte perdere la garanzia??:read:

perchè dovresti perdere la garanzia...
ti fai una copia di backup dell'originale e sei apposto...;)

ci volevano 2min a risolvere il tuo problema e tu invece ora aspetti settimane...con probabilità che la scheda che ti torna farà lo stesso :doh:

tigershark
25-07-2008, 20:33
perchè dovresti perdere la garanzia...
ti fai una copia di backup dell'originale e sei apposto...;)

ci volevano 2min a risolvere il tuo problema e tu invece ora aspetti settimane...con probabilità che la scheda che ti torna farà lo stesso :doh:

ma di quale modifica al bios parli?

fdadakjli
25-07-2008, 20:46
ma di quale modifica al bios parli?

questa:
http://www.pctunerup.com/up/results/_200807/th_20080725204412_biosmodfangtx280.JPG (http://www.pctunerup.com/up/image.php?src=_200807/20080725204412_biosmodfangtx280.JPG)

l'acoustic enhancement serve solo per far si che l'aumento/diminuzione di velocità della ventola avvenga in modo graduale...

quello che ti interessa a te è la gestione della ventola su "automatico" anzichè "dinamico"... ;)

poi come noti dallo screen io mi sono settato il valore default della ventola all'80%...ma quello è a discrezione personale...puoi anche lasciarlo al 40% originale...:)

eXeS
25-07-2008, 21:43
questa:
http://www.pctunerup.com/up/results/_200807/th_20080725204412_biosmodfangtx280.JPG (http://www.pctunerup.com/up/image.php?src=_200807/20080725204412_biosmodfangtx280.JPG)

l'acoustic enhancement serve solo per far si che l'aumento/diminuzione di velocità della ventola avvenga in modo graduale...

quello che ti interessa a te è la gestione della ventola su "automatico" anzichè "dinamico"... ;)

poi come noti dallo screen io mi sono settato il valore default della ventola all'80%...ma quello è a discrezione personale...puoi anche lasciarlo al 40% originale...:)

Mio eroe e mito col :ave: tri-sli :ave:, son cieco o usi una tv lcd accaddì con quel mostro di piccì ? Visto, mi sono concesso anche licenza poetica :D

Andrea deluxe
25-07-2008, 22:48
montato la bestia e noto subito che rispetto alla mia 9800gx2:


bassa rumorosita'

frame molto costanti

meno calore

temperature piu' basse nel case



grazie poi a delly che mia ha passato al volo il bios della versione XXX!

flashata al 3° riavvio!

http://img395.imageshack.us/img395/7570/dscn0871sup2.jpg (http://imageshack.us)
http://img395.imageshack.us/img395/7570/dscn0871sup2.9b22c00681.jpg (http://g.imageshack.us/g.php?h=395&i=dscn0871sup2.jpg)

slime
25-07-2008, 22:56
montato la bestia e noto subito che rispetto alla mia 9800gx2:


bassa rumorosita'

frame molto costanti

meno calore

temperature piu' basse nel case



grazie poi a delly che mia ha passato al volo il bios della versione XXX!

flashata al 3° riavvio!


Che differenze di frequenze ci sono tra la versione "liscia" e la XXX? Hai notato incrementi notevoli di temp dopo il flash? Thanx in advance.....:)

Andrea deluxe
25-07-2008, 23:27
la liscia ha gpu 602 shader 1296 memorie 2214

mentre il bios xxx e' gpu 670 shader 1458 memorie 2500


le temperature in idle sono rimaste le stesse e duing the game non c'ho fatto caso, cmq sotto load non mi interessa...:D


ps: in alcuni titoli dx10 non ci sono piu' fastidiosi rallentamenti-distorsioni audio che invece si verificavano con la 9800gx2!

St. Jimmy
25-07-2008, 23:34
eccomi, finalmente, sono anche io dei vostri :yeah:
e ne approfitto subito per fare delle domande a voi che sicuramente saprete aiutarmi:

1) quali driver consigliate di installare? io per adesso sono con i 177.41 WHQL (in pratica gli ultimi disponibili sul sito nvidia)
2) che limiti (in generale) può raggiungere questa scheda in overclock(core, shader e memorie)?
3) va bene overclockare da rivatuner o è meglio da bios? se meglio da bios, come si fa? se questo è chiedere troppo, chiedo scusa :D
4) ho notato che questa scheda ha l'Hibrid SLI, cioè il risparmio energetico (spero di non aver detto una boiata)...come faccio a disabilitarlo? se overclocko è consigliabile disattivarlo come succede con lo speedstep per i proci?

grazie a tutti per l'aiuto :)

Errik89
25-07-2008, 23:38
perchè dovresti perdere la garanzia...
ti fai una copia di backup dell'originale e sei apposto...;)

ci volevano 2min a risolvere il tuo problema e tu invece ora aspetti settimane...con probabilità che la scheda che ti torna farà lo stesso :doh:
quoto! :asd:

Errik89
25-07-2008, 23:40
montato la bestia e noto subito che rispetto alla mia 9800gx2:


bassa rumorosita'

frame molto costanti

meno calore

temperature piu' basse nel case



grazie poi a delly che mia ha passato al volo il bios della versione XXX!

flashata al 3° riavvio!

[IMG]http://img395.imageshack.us/img395/7570/dscn0871sup2.jpg[IMG] (http://imageshack.us)
[IMG]http://img395.imageshack.us/img395/7570/dscn0871sup2.9b22c00681.jpg[IMG] (http://g.imageshack.us/g.php?h=395&i=dscn0871sup2.jpg)
bellissimo il dissi della XFX!! :eek:

fdadakjli
26-07-2008, 07:12
Mio eroe e mito col :ave: tri-sli :ave:, son cieco o usi una tv lcd accaddì con quel mostro di piccì ? Visto, mi sono concesso anche licenza poetica :D

per il daily mi trovo benissimo...uso un sony 32"...mentre per il gaming ho un sony 40" full hd... :)

fdadakjli
26-07-2008, 07:16
la liscia ha gpu 602 shader 1296 memorie 2214

mentre il bios xxx e' gpu 670 shader 1458 memorie 2500


le temperature in idle sono rimaste le stesse e duing the game non c'ho fatto caso, cmq sotto load non mi interessa...:D


ps: in alcuni titoli dx10 non ci sono piu' fastidiosi rallentamenti-distorsioni audio che invece si verificavano con la 9800gx2!

già...è un'altra cosa questa scheda rispetto alla 9800gx2...sono nettamente aumentati i frame minimi in tutto e sono molto più lineari senza gli sbalzi tremendi della GX2... :)

bene...alla fine hai preferito il bios della XXX a quello eVGA FTW??? :D
se vuoi ti passo anche quelli delle Zotac AMP! e BFG H2OC...
già che ci sei fai la mod al bios per la ventola...se non ti piace il rumore mettila al 60/65% invece che al 40% default...non la senti nemmeno e guadagni 4/5°C in idle che male non fanno...:)

Andrea deluxe
26-07-2008, 07:37
già...è un'altra cosa questa scheda rispetto alla 9800gx2...sono nettamente aumentati i frame minimi in tutto e sono molto più lineari senza gli sbalzi tremendi della GX2... :)

bene...alla fine hai preferito il bios della XXX a quello eVGA FTW??? :D
se vuoi ti passo anche quelli delle Zotac AMP! e BFG H2OC...
già che ci sei fai la mod al bios per la ventola...se non ti piace il rumore mettila al 60/65% invece che al 40% default...non la senti nemmeno e guadagni 4/5°C in idle che male non fanno...:)

ma il bios piu' pompato non e' quello della xfx xxx?

Andrea deluxe
26-07-2008, 11:09
DELLY ma che dici riusciamo a trovare una bella tabellina con gli step di frequenze "reali" di meoria gpu e shader?


magari da mettere in prima pagina...

michelgaetano
26-07-2008, 12:22
DELLY ma che dici riusciamo a trovare una bella tabellina con gli step di frequenze "reali" di meoria gpu e shader?


magari da mettere in prima pagina...

Hai la scheda, falla da te, non è così difficile :P

Andrea deluxe
26-07-2008, 12:32
Hai la scheda, falla da te, non è così difficile :P

magari una gia' bella pronta....:p

michelgaetano
26-07-2008, 12:37
magari una gia' bella pronta....:p

Pigrone, basterebbe aprire rivatuner e giocarci mezz'oretta :D :D :D

Drum4ever
26-07-2008, 14:26
TOM'S Haward dice questo ma possibile???? E' scritto sulle recensioni delle migliori schede da comprare per luglio

"Dai test delle 4850 in CrossFire visti finora, sembra che ATI abbia realmente imparato a tirare fuori il massimo dalle proprie schede. Una singola Radeon HD 4850 si comporta più o meno come una 9800 GTX, due 4850 in CrossFire competono con la 9800 GTX e la GTX 280. Ricordate che la GeForce GTX 280 costa ben 150 euro in più di due Radeon HD 4850!

A questo livello di prestazioni e a questo prezzo, non crediamo sia sensato raccomandarvi schede più costose di due Radeon HD 4850. Quando avremo maggiori dettagli sulla 4870, la GTX 260 e la GTX 280 in configurazione multipla scheda, potremo capire se il divario con le 4850 in CrossFire varrà il prezzo maggiore.

:sofico:

Amph
26-07-2008, 14:29
non mi risulta ci sia una differenza di 150 tra 2x4850 e 1xgtx280...bensì 90

Drum4ever
26-07-2008, 14:38
Boh non lo so so solo che tom's hardware ita e non lo dice... Mah... io le ho sul muletto 220 il crossfire ho pagato spedito le due 4850 quindi non so che dirti di fatto :D

Andrea deluxe
26-07-2008, 14:45
non sono stabili come frame 2 4850-4870!


ti faccio un esempio!


con la 9800gx2 a 729-1728-2200 non riuscivo a giocare per niente con crysis 1920x1200 dx10 0xAA 16xAF tutto very high, blur disattivato e ombre su high!

adesso con la gtx280 ci riesco e il frame e' costante a tal punto da farmelo giocare bene (riesco a mirare bene) e non ci sono scattoni e-o blocchi!

Errik89
26-07-2008, 14:55
non mi risulta ci sia una differenza di 150 tra 2x4850 e 1xgtx280...bensì 90
un po' di tempo fa si, c'era questa differenza. Ora la differenza è ridotta a 100€ (260€ VS 360€), il consumo è lo stesso e le prestazioni pure.
Ovviamente va a "gusti", visto che c'è chi è disposto a spendere 100€ in più per non avere tutti i problemi del multi-gpu... ;)

Errik89
26-07-2008, 14:55
non sono stabili come frame 2 4850-4870!


ti faccio un esempio!


con la 9800gx2 a 729-1728-2200 non riuscivo a giocare per niente con crysis 1920x1200 dx10 0xAA 16xAF tutto very high, blur disattivato e ombre su high!

adesso con la gtx280 ci riesco e il frame e' costante a tal punto da farmelo giocare bene (riesco a mirare bene) e non ci sono scattoni e-o blocchi!
crysis è mal ottimizzato per le dual gpu e comunque la 9800GX2 a 1920x1200 aveva seri problemi di bandwith che le 4850 e le 4870 non hanno ;)

Poi è ovvio che un sistema single GPU è sempre preferibile rispetto a un multi-gpu, ma se ci sono 100€ di differenza la cosa cambia e allora personalmente vado sul multi-gpu... :)

St. Jimmy
26-07-2008, 14:56
eccomi, finalmente, sono anche io dei vostri :yeah:
e ne approfitto subito per fare delle domande a voi che sicuramente saprete aiutarmi:

1) quali driver consigliate di installare? io per adesso sono con i 177.41 WHQL (in pratica gli ultimi disponibili sul sito nvidia)
2) che limiti (in generale) può raggiungere questa scheda in overclock(core, shader e memorie)?
3) va bene overclockare da rivatuner o è meglio da bios? se meglio da bios, come si fa? se questo è chiedere troppo, chiedo scusa :D
4) ho notato che questa scheda ha l'Hibrid SLI, cioè il risparmio energetico (spero di non aver detto una boiata)...come faccio a disabilitarlo? se overclocko è consigliabile disattivarlo come succede con lo speedstep per i proci?

grazie a tutti per l'aiuto :)

up :)

Drum4ever
26-07-2008, 15:09
:angel: crysis è mal ottimizzato per le dual gpu e comunque la 9800GX2 a 1920x1200 aveva seri problemi di bandwith che le 4850 e le 4870 non hanno ;)

Poi è ovvio che un sistema single GPU è sempre preferibile rispetto a un multi-gpu, ma se ci sono 100€ di differenza la cosa cambia e allora personalmente vado sul multi-gpu... :)

UN':angel: SEI DIVENTATO EHEHEH

Andrea deluxe
26-07-2008, 15:14
crysis è mal ottimizzato per le dual gpu e comunque la 9800GX2 a 1920x1200 aveva seri problemi di bandwith che le 4850 e le 4870 non hanno ;)

Poi è ovvio che un sistema single GPU è sempre preferibile rispetto a un multi-gpu, ma se ci sono 100€ di differenza la cosa cambia e allora personalmente vado sul multi-gpu... :)

vai vai!

ma sappi a cosa vai incontro!

preferisco 100€ in piu' e meno sbattimenti...

neanche io credevo ci fossero cosi tanti problemi con il multi gpu, ma poi mi son dovuto ricredere, e non parlo solo di frame minimi e medi!

Errik89
26-07-2008, 15:18
vai vai!

ma sappi a cosa vai incontro!

preferisco 100€ in piu' e meno sbattimenti...

neanche io credevo ci fossero cosi tanti problemi con il multi gpu, ma poi mi son dovuto ricredere, e non parlo solo di frame minimi e medi!
eheh... provo, al massimo tra qualche mese tornerò a dirti che avevi ragione! :D

Errik89
26-07-2008, 15:19
:angel:

UN':angel: SEI DIVENTATO EHEHEH
ahahah ;)

al135
26-07-2008, 15:32
eheh... provo, al massimo tra qualche mese tornerò a dirti che avevi ragione! :D

saremo in due a provare e spero nessuno a tornare :D

GIAMPI87
26-07-2008, 15:32
Ragazzi una domanda da possessore di 8800 GT vorrei passare a questa scheda se riesco a piazzare la mia a qualche mio amico, visto che gioco a 1920x1200 a volte la mia scheda mi sta strettina. Vorrei sapere dai possessori di questa scheda come riuscirei a giocare a Crysis 1920x1200 AAno su windows xp sp2 con il fix per il very high. Con la mia scheda attuale è ingiocabile, con il benchmark integrato ottendo questi risultati:

Avg = 21
Max = 26
Min = 8

Andrea deluxe
26-07-2008, 15:35
saremo in due a provare e spero nessuno a tornare :D

:sbonk:

Andrea deluxe
26-07-2008, 15:35
Ragazzi una domanda da possessore di 8800 GT vorrei passare a questa scheda se riesco a piazzare la mia a qualche mio amico, visto che gioco a 1920x1200 a volte la mia scheda mi sta strettina. Vorrei sapere dai possessori di questa scheda come riuscirei a giocare a Crysis 1920x1200 AAno su windows xp sp2 con il fix per il very high. Con la mia scheda attuale è ingiocabile, con il benchmark integrato ottendo questi risultati:

Avg = 21
Max = 26
Min = 8

se vai dietro nell'altra pagina guarda i miei post!

Errik89
26-07-2008, 15:41
saremo in due a provare e spero nessuno a tornare :D
:asd: :asd:

GIAMPI87
26-07-2008, 15:46
se vai dietro nell'altra pagina guarda i miei post!

Si l'avevo notato ma non mi sapresti dire quanto fai con quelle impostazioni che hai postato, nel bench integrato di crysis. In modo da riuscire a capire cosa mi devo aspettare, Anche se poi dovrei aggiungere un pò di fps visto che su win xp con il fix very high ma molto meglio di come va su vista in dx10.

al135
26-07-2008, 15:50
:asd: :asd:

azz detta cosi suona un po male :fagiano:

fdadakjli
26-07-2008, 16:36
ma il bios piu' pompato non e' quello della xfx xxx?

in generale è il più pompato...si...però con il bios della FTW ho notato che si sale un pochino meglio...fossi in te lo proverei...magari editandolo e mettendo già 700/1458/2500 come base...così hai freq gpu della AMP!, shader normali e mem della XXX... :asd: :ciapet:

Andrea deluxe
26-07-2008, 16:47
in generale è il più pompato...si...però con il bios della FTW ho notato che si sale un pochino meglio...fossi in te lo proverei...magari editandolo e mettendo già 700/1458/2500 come base...così hai freq gpu della AMP!, shader normali e mem della XXX... :asd: :ciapet:

Ma la gpu becca proprio 700 o 699 689?

fdadakjli
26-07-2008, 16:49
Ma la gpu becca proprio 700 o 699 689?

700 precisi precisi...:p

Amph
26-07-2008, 17:23
vai vai!

ma sappi a cosa vai incontro!

preferisco 100€ in piu' e meno sbattimenti...

neanche io credevo ci fossero cosi tanti problemi con il multi gpu, ma poi mi son dovuto ricredere, e non parlo solo di frame minimi e medi!

90 euro, non 100, Errik si è sbagliato :)

fdadakjli
26-07-2008, 17:30
Ma la gpu becca proprio 700 o 699 689?

hey...sto provando ora il bios della EVGA Hydro Cool (HC)...è una bomba...l'oc degli shader è parecchio migliorato... ;)
te l'ho già inviato in email...provalo se vuoi e fammi sapere... :)

Andrea deluxe
26-07-2008, 17:41
hey...sto provando ora il bios della EVGA Hydro Cool (HC)...è una bomba...l'oc degli shader è parecchio migliorato... ;)
te l'ho già inviato in email...provalo se vuoi e fammi sapere... :)

ti amo sei un GRANDE!

fdadakjli
26-07-2008, 17:44
ti amo sei un GRANDE!

editalo pure mettendo le mem a 2500...freq originali del bios HC 691/1458/2430... ;)

Andrea deluxe
26-07-2008, 17:53
editalo pure mettendo le mem a 2500...freq originali del bios HC 691/1458/2430... ;)

ma lo step dopo 1458 qual'e'?


magari regge i 1555 della versione extreme in vendita in UK


mo ho editato l'ultimo che mi hai dato con: 700 1459 2500

Drum4ever
26-07-2008, 19:19
90 euro, non 100, Errik si è sbagliato :)

Le trovi a 110 spedite fatti due conti...

Andrea deluxe
26-07-2008, 23:10
posso ritenermi soddisfatto, sono arrivato a:

GPU: 702
SHADER: 1458
MEM: 2484

xfx standard con bios xfx gtx280 xxx editato da me con quelle frequenze.

grazie delly for the supply:p

Amph
26-07-2008, 23:28
Le trovi a 110 spedite fatti due conti...

dove? io guardo solo trovaprezzi...ovvio che sulla baya le trovi a meno, ma sarà cosi anche per la gtx280, quindi resterà sempre sui 90 la differenza.

baila
27-07-2008, 02:32
posso ritenermi soddisfatto, sono arrivato a:

GPU: 702
SHADER: 1458
MEM: 2484

xfx standard con bios xfx gtx280 xxx editato da me con quelle frequenze.

grazie delly for the supply:p

Ma dove lo trovate quello della XXX?Mi date il link diretto! :p

Andrea deluxe
27-07-2008, 07:49
Ma dove lo trovate quello della XXX?Mi date il link diretto! :p

http://www.mvktech.net/component/option,com_remository/Itemid,26/func,selectfolder/cat,4/

di solito qui, ma io non l'ho trovato, me lo ha passato delly!


se vuoi ti passo quello mio...


gpu:702
shader:1458
mem:2484
velocita' ventola che torna automaticamente a bassi regimi quando in idle!

_morghan_1968
27-07-2008, 11:57
... qualche parere sui nuovi driver ?

fdadakjli
27-07-2008, 12:06
... qualche parere sui nuovi driver ?

sembrano ok...con qualche miglioramento rispetto ai .66 per quanto riguarda le prestazioni... ;)

Errik89
27-07-2008, 12:22
90 euro, non 100, Errik si è sbagliato :)
Scusa, la prossima volta starò più attento... :rolleyes: :rolleyes: :rolleyes:

al135
27-07-2008, 12:25
Scusa, la prossima volta starò più attento... :rolleyes: :rolleyes: :rolleyes:

vuoi mettere? ti ci fai 2 panini al mac con quella differenza
:rotfl:

Errik89
27-07-2008, 12:28
vuoi mettere? ti ci fai 2 panini al mac con quella differenza
:rotfl:
:D :Prrr:

Amph
27-07-2008, 12:34
gia, 10 euro non sono da sottovalutare :asd:

eXeS
27-07-2008, 12:37
posso ritenermi soddisfatto, sono arrivato a:

GPU: 702
SHADER: 1458
MEM: 2484

xfx standard con bios xfx gtx280 xxx editato da me con quelle frequenze.

grazie delly for the supply:p
Scusami Andrea le temperature di quanto sono aumentate con quell'OC ?

Potresti provare questo bench in modalità finestra a 1280x1024 per 180 secondi, monitorare la temperatura della GPU con rivatuner e dirmi a cosa arriva ?
http://www.ozone3d.net/benchmarks/fur/

Grazie :)

fdadakjli
27-07-2008, 12:37
vuoi mettere? ti ci fai 2 panini al mac con quella differenza

:nonsifa: oltre ai due panini ci escono pure le patatine "medie"... :ciapet:

fdadakjli
27-07-2008, 12:50
Potresti provare questo bench in modalità finestra a 1280x1024 per 180 secondi, monitorare la temperatura della GPU con rivatuner e dirmi a cosa arriva ?


le mie arrivano a 74°C...bios eVGA HC@ 700/1500/2600, ventola fixed@ 80% :)

adesso flasho il bios 750/1500/2600 e vediamo di quanto aumentano...

St. Jimmy
27-07-2008, 13:20
raga, ho bisogno del vostro aiuto...ieri ho provato ad overclockare la mia XFX GTX-280 640/1400/2400 @ 700/1500/2500 ho lanciato il benchmark di Furmark per 2 minuti e fin qui nessun problema...poi ho lanciato il benchmark di Devil May Cry 4...e dopo una decina di minuti, arrivano artefatti (e anche abbastanza pesanti)...infatti dopo aver chiuso il benchmark e reimpostato i valori di default, qualsiasi applicazione pesante aprissi continuava a dare artefatti :eek: dove ho sbagliato??:( adesso, dopo aver spento e riacceso il pc tutto va come deve
la ventola era al 100% ed ho overclockato con RivaTuner

fdadakjli
27-07-2008, 13:22
raga, ho bisogno del vostro aiuto...ieri ho provato ad overclockare la mia XFX GTX-280 640/1400/2400 @ 700/1500/2500 ho lanciato il benchmark di Furmark per 2 minuti e fin qui nessun problema...poi ho lanciato il benchmark di Devil May Cry 4...e dopo una decina di minuti, arrivano artefatti (e anche abbastanza pesanti)...infatti dopo aver chiuso il benchmark e reimpostato i valori di default, qualsiasi applicazione pesante aprissi continuava a dare artefatti :eek: dove ho sbagliato??:( adesso, dopo aver spento e riacceso il pc tutto va come deve
la ventola era al 100% ed ho overclockato con RivaTuner

sono gli shader che non ti reggono i 1500mhz...;)

Andrea deluxe
27-07-2008, 13:29
97° con ventola su auto da bios



ps: nella mia stanza fa caldo...

St. Jimmy
27-07-2008, 13:29
sono gli shader che non ti reggono i 1500mhz...;)

ok, grazie della dritta :) se non è troppo chiedere, c'è una spiegazione per questo? ad esempio, vedo che a te regge, da cosa dipende quindi? dipende forse da scheda a scheda?

Andrea deluxe
27-07-2008, 13:31
sono gli shader che non ti reggono i 1500mhz...;)

infatti anche la mia da artefatti a 1512 di shader...

ci si deve accontentare di 1458...:p

Andrea deluxe
27-07-2008, 13:34
ok, grazie della dritta :) se non è troppo chiedere, c'è una spiegazione per questo? ad esempio, vedo che a te regge, da cosa dipende quindi? dipende forse da scheda a scheda?

....dipende dal culo:D

fdadakjli
27-07-2008, 13:39
97° con ventola su auto da bios



ps: nella mia stanza fa caldo...

azz...dove stai in un forno a legna... :sofico:

oltre 20°c in più delle mie...

fdadakjli
27-07-2008, 13:40
....dipende dal culo:D

già... :ciapet:

Andrea deluxe
27-07-2008, 13:43
azz...dove stai in un forno a legna... :sofico:

oltre 20°c in più delle mie...

l'unico angolo della mia casa dove d'inverno ci si congela e d'estate si muore di caldo....:O

cmq il delta della ventola in auto e' buono per le orecchie e i giochi (che magari non stressano in modo continuo la vga), ma per i bench-burn non e' il massimo...


prima fa arrivare la vga a 90° e poi inizia a girare forte, ma ormai e' tardi e il calore rimane li!


per i game e utilizzo normale va di lusso

fdadakjli
27-07-2008, 13:47
l'unico angolo della mia casa dove d'inverno ci si congela e d'estate si muore di caldo....:O

LOL... :sofico:

eXeS
27-07-2008, 14:11
le mie arrivano a 74°C...bios eVGA HC@ 700/1500/2600, ventola fixed@ 80% :)

adesso flasho il bios 750/1500/2600 e vediamo di quanto aumentano...
La mia a frequenze standard a 87°C con tamb a 26-27 :(

eXeS
27-07-2008, 14:13
97° con ventola su auto da bios



ps: nella mia stanza fa caldo...
Caldo quanto >= 30°C ? :)

^Memphis^
27-07-2008, 14:14
l'unico angolo della mia casa dove d'inverno ci si congela e d'estate si muore di caldo....:O

Beh d'inverno l'overclock non ti darà problemi di temperature eccessive:D !!!

Delly conviene overcloccare la nostra scheda? C'è un reale guadagno di prestazioni? Tnx!

michelgaetano
27-07-2008, 14:22
Delly conviene overcloccare la nostra scheda? C'è un reale guadagno di prestazioni? Tnx!

A che serve overclockare una scheda che manda al massimo ogni titolo? :P

Forse in Crysis :D

Errik89
27-07-2008, 14:42
A che serve overclockare una scheda che manda al massimo ogni titolo? :P

Forse in Crysis :D
eheh... altrimenti perchè delly si è fatto un tri-sli, io mi sto per fare un cf di 4850 e gente a suo tempo si è fatta lo sli di 8800GTX?? :ciapet: :ciapet:

baila
27-07-2008, 16:59
A che serve overclockare una scheda che manda al massimo ogni titolo? :P

Forse in Crysis :D

Bhe,forse perchè non hai ai provato Age Of Conan :eek:

x.vegeth.x
27-07-2008, 17:34
Bhe,forse perchè non hai ai provato Age Of Conan :eek:

perchè è pesante? io non l'ho mai provato, ma ho visto la grafica e non è un gran che...per un mmo è molto buona, ma non a tal punto da mettere in crisi una 280...o si?

eXeS
27-07-2008, 17:56
Caxxo... adesso che ho un po di tempo per giochicciare sto sperimentando sia in Crysis che volevo rigiocarlo prima di venderlo, che con GRID, degli abbassamenti improvvisi del framerate risolvibili solo riavviando il gioco.

Monitorando con RivaTuner ho notato che le frequenze si abbassano spontaneamente, nonostante le temperature siano abbondatemente al di sotto della temperatura critica :confused:

Il problema è assolutamente casuale, si può verificare dopo 10 minuti o dopo un'ora, qualcuno di voi ha sperimentato qualcosa di analogo ?

Dimenticavo, la scheda non è occata ora ho gli ultimi WHQL, ma l'ho riscontrato anche con i 177.70 :(

baila
27-07-2008, 17:58
perchè è pesante? io non l'ho mai provato, ma ho visto la grafica e non è un gran che...per un mmo è molto buona, ma non a tal punto da mettere in crisi una 280...o si?

La metti in crisi,causa anche della fretta nel buttarlo fuori! :O

Errik89
27-07-2008, 19:11
La metti in crisi,causa anche della fretta nel buttarlo fuori! :O
abbiamo 1 altro crysis? :doh:

fdadakjli
27-07-2008, 19:57
Caxxo... adesso che ho un po di tempo per giochicciare sto sperimentando sia in Crysis che volevo rigiocarlo prima di venderlo, che con GRID, degli abbassamenti improvvisi del framerate risolvibili solo riavviando il gioco.

Monitorando con RivaTuner ho notato che le frequenze si abbassano spontaneamente, nonostante le temperature siano abbondatemente al di sotto della temperatura critica :confused:

Il problema è assolutamente casuale, si può verificare dopo 10 minuti o dopo un'ora, qualcuno di voi ha sperimentato qualcosa di analogo ?

Dimenticavo, la scheda non è occata ora ho gli ultimi WHQL, ma l'ho riscontrato anche con i 177.70 :(

personalmente non mi è mai successo x ora... :sperem:
però è un problema abbastanza ricorrente...sul forum evga ho trovato quella che pare essere una soluzione al problema...
http://www.evga.com/forums/tm.asp?m=475629

okorop
27-07-2008, 20:42
abbiamo 1 altro crysis? :doh:

che bello non me lo prendero mai age of conan!!!!!

DarkNiko
27-07-2008, 23:12
Usciti i 177.73.

http://pic.xfastest.com/z/NVIDIA%20%C5X%B0%CA/177.73/XFastest%20177.73%20Vista64.exe
http://pic.xfastest.com/z/NVIDIA%20%C5X%B0%CA/177.73/XFastest%20177.73%20Vista32.exe
http://pic.xfastest.com/z/NVIDIA%20%C5X%B0%CA/177.73/XFastest%20177.73%20WinXP64.exe
http://pic.xfastest.com/z/NVIDIA%20%C5X%B0%CA/177.73/XFastest%20177.73%20WinXP32.exe

dannnnnny
28-07-2008, 00:30
Caxxo... adesso che ho un po di tempo per giochicciare sto sperimentando sia in Crysis che volevo rigiocarlo prima di venderlo, che con GRID, degli abbassamenti improvvisi del framerate risolvibili solo riavviando il gioco.

Monitorando con RivaTuner ho notato che le frequenze si abbassano spontaneamente, nonostante le temperature siano abbondatemente al di sotto della temperatura critica :confused:

Il problema è assolutamente casuale, si può verificare dopo 10 minuti o dopo un'ora, qualcuno di voi ha sperimentato qualcosa di analogo ?

Dimenticavo, la scheda non è occata ora ho gli ultimi WHQL, ma l'ho riscontrato anche con i 177.70 :(


anch'io ho lo stesso problema..ho seguito il link di delly,ma non ci ho capito molto!!:(

_morghan_1968
28-07-2008, 09:43
... mi ero deciso a provare oggi i .70
e sono appena usciti i .73 :doh:

fdadakjli
28-07-2008, 09:47
... mi ero deciso a provare oggi i .70
e sono appena usciti i .73 :doh:

già...li ho appena scaricati...ora li installo...

_morghan_1968
28-07-2008, 10:08
già...li ho appena scaricati...ora li installo...

allora aspetto il tuo parere :D

fdadakjli
28-07-2008, 10:09
allora aspetto il tuo parere :D

che bast... :sofico:

li proverò nel pomeriggio appena torno a casa... :D

fdadakjli
28-07-2008, 12:41
anch'io ho lo stesso problema..ho seguito il link di delly,ma non ci ho capito molto!!:(

in questo è spiegato tutto in modo ancora più semplice... ;)
http://www.evga.com/forums/tm.asp?m=475949

se vuoi il file ho fatto l'upload qui:
http://rapidshare.com/files/133040923/fixdownclockGTX280.cmd.html

_morghan_1968
28-07-2008, 12:41
aspettare...
finito adesso di provare i .73
se si aspettava qualchekosa di rivoluzionario...
bisogna continuare ad aspettare: prestazioni invariate rispetto ai precedenti
esempio= 18,6 k 3dm06

fdadakjli
28-07-2008, 12:51
aspettare...
finito adesso di provare i .73
se si aspettava qualchekosa di rivoluzionario...
bisogna continuare ad aspettare: prestazioni invariate rispetto ai precedenti
esempio= 18,6 k 3dm06

tralasciando il 3dmark...nei game hai notato miglioramenti???

cmq tra pochi giorni ci saranno i nuovi WHQL...quindi tanto vale aspettare...

_morghan_1968
28-07-2008, 12:54
ho fatto un giretto con quello pesante...
fps minimi invariati(35) quelli medi aumentati (49)
i max diminuiti (60)
dx9 tutto al max 1920 x 1200

_morghan_1968
28-07-2008, 13:01
ho letto che nvidia dovrebbe tirare fuori degli ottimi
driver...
più una sorpresa.....
l' altra volta la sorpresa fu lo sli...
questa volta ????????

fdadakjli
28-07-2008, 13:04
si...ho sentito anche io che i prossimi whql promettono bene...

per la sorpresa...mah... :D

dannnnnny
28-07-2008, 13:29
in questo è spiegato tutto in modo ancora più semplice... ;)
http://www.evga.com/forums/tm.asp?m=475949

se vuoi il file ho fatto l'upload qui:
http://rapidshare.com/files/133040923/fixdownclockGTX280.cmd.html

grazie delly!!sei un amico!!:) :)

fdadakjli
28-07-2008, 13:34
grazie delly!!sei un amico!!:) :)

di nulla... ;)

tigershark
28-07-2008, 14:22
Ragazzi, a proposito della mia disavventura con la questione velocità ventola della GTX280..fortunatamente oggi stesso mi sarà rispedita una scheda nuova di pacca in sostituzione. A maggior ragione ciò mi fa pensare che sia un vero e proprio difetto riconosciuto come tale anche dalla casa madre.:muro:

In ogni caso non appena mi arriva vi saprò dire meglio. :D

Andrea deluxe
28-07-2008, 14:26
Ragazzi, a proposito della mia disavventura con la questione velocità ventola della GTX280..fortunatamente oggi stesso mi sarà rispedita una scheda nuova di pacca in sostituzione. A maggior ragione ciò mi fa pensare che sia un vero e proprio difetto riconosciuto come tale anche dalla casa madre.:muro:

In ogni caso non appena mi arriva vi saprò dire meglio. :D

mi sa che e' uno stupido difetto di bios....

io ho risolto modificando il bios....

fdadakjli
28-07-2008, 14:36
Ragazzi, a proposito della mia disavventura con la questione velocità ventola della GTX280..fortunatamente oggi stesso mi sarà rispedita una scheda nuova di pacca in sostituzione. A maggior ragione ciò mi fa pensare che sia un vero e proprio difetto riconosciuto come tale anche dalla casa madre.:muro:

In ogni caso non appena mi arriva vi saprò dire meglio. :D

bene...RMA lampo per tua fortuna... :D

tigershark
28-07-2008, 14:39
mi sa che e' uno stupido difetto di bios....

io ho risolto modificando il bios....

A me non sembrava molto un problema di bios, credo più in un qualche difetto a livello hardware del chip PWM di controllo della ventola, probabilmente relativo solo ai primi esemplari prodotti. La mia per esempio fu la primissima ad arrivare allo shop online da cui l'ho acquistata. Anche perchè non mi spiegherei il motivo per cui altri esemplari ne siano esenti, del resto il bios è lo stesso per tutti, cambiano solo i settaggi delle frequenze nel caso di schede overcloccate di fabbrica.

_morghan_1968
28-07-2008, 15:06
ultimamente trovare dell' hardware che funziona non è cosa facile....

DarkNiko
28-07-2008, 17:36
Ciao a tutti. Colgo l'occasione per postare un problema che mi sta dando qualche piccola preoccupazione da un pò di tempo e che speravo di aver risolto e invece niente ma vengo subito al sodo.

Non so quanti di voi stiano giocando a Devil May Cry 4 in ambiente DX10 (Vista naturalmente) con la suddetta scheda video (GTX280), eppure con questo gioco e in alcuni punti tra i svariati livelli di gioco, non sempre le prestazioni sono degne di nota e non sempre rispecchiano quelle apprezzabili mediante l'apposito test prestazionale offerto dal gioco.

Mi spiego meglio. Ho impostato la risoluzione di 1680*1050, dettagli "Super Alti" ovunque ed MSAA a 8x e vsync abilitato (in quanto disabilitandolo appare la ben nota riga orizzontale di refresh dovuta al tearing). Il punto è che in certi punti in alcuni livelli il framerate di colpo passa da 60 fps a 30 fps e si mantiene fisso a 30 per poi tornare subito dopo, una volta eliminati alcuni nemici a 60. Non si tratta per fortuna di scatti ma di un vero e proprio Slow Motion, in stile Matrix (il film :D ) e ovviamente, disabilitando il vsync, il problema sparisce, oppure anche abbassando la risoluzione a 1440*900.

Ho pensato inizialmente ad un problema legato ai drivers, tant'è che ho provato nell'ordine i 177.35, .41, .66, .70 e non ultimi i 177.73 ma il problema non è stato risolto, per cui non so se dipenda dal gioco (comincio a pensarlo) oppure dalla GTX280 che, forse, con questo titolo non riesce ad esprimere il meglio di sè, visto che alcuni miei amici con ATi HD4870 dicono di non avere alcuno dei sintomi che ho esposto poc'anzi.

Pertanto chiedo a coloro che popolano questo thread e che hanno una configurazione simile alla mia quale possa essere la causa e se vi sia una qualche soluzione.
Grazie a tutti dell'attenzione che vorrete dedicarmi. ;)

appleroof
28-07-2008, 17:42
Ciao a tutti. Colgo l'occasione per postare un problema che mi sta dando qualche piccola preoccupazione da un pò di tempo e che speravo di aver risolto e invece niente ma vengo subito al sodo.

Non so quanti di voi stiano giocando a Devil May Cry 4 in ambiente DX10 (Vista naturalmente) con la suddetta scheda video (GTX280), eppure con questo gioco e in alcuni punti tra i svariati livelli di gioco, non sempre le prestazioni sono degne di nota e non sempre rispecchiano quelle apprezzabili mediante l'apposito test prestazionale offerto dal gioco.

Mi spiego meglio. Ho impostato la risoluzione di 1680*1050, dettagli "Super Alti" ovunque ed MSAA a 8x e vsync abilitato (in quanto disabilitandolo appare la ben nota riga orizzontale di refresh dovuta al tearing). Il punto è che in certi punti in alcuni livelli il framerate di colpo passa da 60 fps a 30 fps e si mantiene fisso a 30 per poi tornare subito dopo, una volta eliminati alcuni nemici a 60. Non si tratta per fortuna di scatti ma di un vero e proprio Slow Motion, in stile Matrix (il film :D ) e ovviamente, disabilitando il vsync, il problema sparisce, oppure anche abbassando la risoluzione a 1440*900.

Ho pensato inizialmente ad un problema legato ai drivers, tant'è che ho provato nell'ordine i 177.35, .41, .66, .70 e non ultimi i 177.73 ma il problema non è stato risolto, per cui non so se dipenda dal gioco (comincio a pensarlo) oppure dalla GTX280 che, forse, con questo titolo non riesce ad esprimere il meglio di sè, visto che alcuni miei amici con ATi HD4870 dicono di non avere alcuno dei sintomi che ho esposto poc'anzi.

Pertanto chiedo a coloro che popolano questo thread e che hanno una configurazione simile alla mia quale possa essere la causa e se vi sia una qualche soluzione.
Grazie a tutti dell'attenzione che vorrete dedicarmi. ;)

detta così credo proprio che sia per il v-sync, evidentemente non riesce a tenerlo sempre sopra i 60fps....prova ad abilitare il triplo buffer oppure a togliere il v-sync (magari in questo ordine)

DarkNiko
28-07-2008, 18:07
detta così credo proprio che sia per il v-sync, evidentemente non riesce a tenerlo sempre sopra i 60fps....prova ad abilitare il triplo buffer oppure a togliere il v-sync (magari in questo ordine)

Già provato e non cambia nulla. La cosa comica è che se in DX10 imposto la 1440*900 il gioco va sempre fluidissimo, solo che è ridicolo che uno spende fior di quattrini per una GTX280 per giocare in 1440 (a sto punto anche una 8800 GT va ottimamente) per giunta ad un titolo che è ottimizzato NVidia e sul quale una VGA ATi va persino meglio.

Tanto per ridere ancora, con l'exe DX9 invece, sempre fluido anche in 1680 e con MSAA 8x sia con che senza vsync. Ho persino provato a rinominare l'exe come quello di qualche profilo, come pure ad usare NHancer per ottimizzare un pò le prestazioni ma non ho avuto giovamento. Che fare quindi ??? :cry:

appleroof
28-07-2008, 18:08
Già provato e non cambia nulla. La cosa comica è che se in DX10 imposto la 1440*900 il gioco va sempre fluidissimo, solo che è ridicolo che uno spende fior di quattrini per una GTX280 per giocare in 1440 (a sto punto anche una 8800 GT va ottimamente) per giunta ad un titolo che è ottimizzato NVidia e sul quale una VGA ATi va persino meglio.

Tanto per ridere ancora, con l'exe DX9 invece, sempre fluido anche in 1680 e con MSAA 8x sia con che senza vsync. Ho persino provato a rinominare l'exe come quello di qualche profilo, come pure ad usare NHancer per ottimizzare un pò le prestazioni ma non ho avuto giovamento. Che fare quindi ??? :cry:

allora potrebbe essere un problema di driver "giovani"...quale versione hai? provati i 177.73?

Andrea deluxe
28-07-2008, 18:47
Ciao a tutti. Colgo l'occasione per postare un problema che mi sta dando qualche piccola preoccupazione da un pò di tempo e che speravo di aver risolto e invece niente ma vengo subito al sodo.

Non so quanti di voi stiano giocando a Devil May Cry 4 in ambiente DX10 (Vista naturalmente) con la suddetta scheda video (GTX280), eppure con questo gioco e in alcuni punti tra i svariati livelli di gioco, non sempre le prestazioni sono degne di nota e non sempre rispecchiano quelle apprezzabili mediante l'apposito test prestazionale offerto dal gioco.

Mi spiego meglio. Ho impostato la risoluzione di 1680*1050, dettagli "Super Alti" ovunque ed MSAA a 8x e vsync abilitato (in quanto disabilitandolo appare la ben nota riga orizzontale di refresh dovuta al tearing). Il punto è che in certi punti in alcuni livelli il framerate di colpo passa da 60 fps a 30 fps e si mantiene fisso a 30 per poi tornare subito dopo, una volta eliminati alcuni nemici a 60. Non si tratta per fortuna di scatti ma di un vero e proprio Slow Motion, in stile Matrix (il film :D ) e ovviamente, disabilitando il vsync, il problema sparisce, oppure anche abbassando la risoluzione a 1440*900.

Ho pensato inizialmente ad un problema legato ai drivers, tant'è che ho provato nell'ordine i 177.35, .41, .66, .70 e non ultimi i 177.73 ma il problema non è stato risolto, per cui non so se dipenda dal gioco (comincio a pensarlo) oppure dalla GTX280 che, forse, con questo titolo non riesce ad esprimere il meglio di sè, visto che alcuni miei amici con ATi HD4870 dicono di non avere alcuno dei sintomi che ho esposto poc'anzi.

Pertanto chiedo a coloro che popolano questo thread e che hanno una configurazione simile alla mia quale possa essere la causa e se vi sia una qualche soluzione.
Grazie a tutti dell'attenzione che vorrete dedicarmi. ;)

scusa, ma a che serve l'AA8X?

baila
28-07-2008, 19:38
Chi mi spiega a cosa server il Downclocking Fixing? (http://www.evga.com/forums/tm.asp?m=475949)
Grazie

eXeS
28-07-2008, 19:51
Chi mi spiega a cosa server il Downclocking Fixing? (http://www.evga.com/forums/tm.asp?m=475949)
Grazie
Per evitare che il clock della scheda mentre giochi switchi spontaneamente su frequenze più basse senza nessuna apparente spiegazione logica, provocando quindi riduzioni drastiche del framerate

fdadakjli
28-07-2008, 19:52
Per evitare che il clock della scheda mentre giochi switchi spontaneamente su frequenze più basse senza nessuna apparente spiegazione logica, provocando quindi riduzioni drastiche del framerate

della scheda video vorrai dire.. :D

Andrea deluxe
28-07-2008, 19:54
Chi mi spiega a cosa server il Downclocking Fixing? (http://www.evga.com/forums/tm.asp?m=475949)
Grazie

a qualcuno e' capitato che durante l'esecuzione di applicazioni 3d la scheda tornasse alle frequenze 2D e di conseguenza il gioco inizia a scattare...


con il fix si forzano le freq 3d!


a me per esempio non si verifica nessun abbassamento anomalo!

NOOB4EVER
28-07-2008, 19:54
Chi mi spiega a cosa server il Downclocking Fixing? (http://www.evga.com/forums/tm.asp?m=475949)
Grazie

e' una correzione al registro che consente alla vga di operare a frequenze corrette sotto i vari ambiti 2d o 3d ,da cio' che alcuni riportano sembra che la scheda compia un downclock automatico se cosi' vogliamo chiamarlo,utilizzando questo fix il problema viene risolto.

questo e' cio che ho capito io spero di non averti detto una cavolata :)

fdadakjli
28-07-2008, 19:57
a me per esempio non si verifica nessun abbassamento anomalo!

nemmeno a me...:)

DarkNiko
28-07-2008, 20:04
allora potrebbe essere un problema di driver "giovani"...quale versione hai? provati i 177.73?

Sì, l'ho già scritto e non cambia una virgola. :(

Andrea deluxe
28-07-2008, 20:06
nemmeno a me...:)

OT


A me sta vga mi da la stessa sensazione di potenza di quando comprai la mitica 8800 gtx!

mi sento felice solo ad averla nel case e ancor piu' felice quando gioco a grid a 1920x1200 AA4X AF16X:D

baila
28-07-2008, 20:08
Per evitare che il clock della scheda mentre giochi switchi spontaneamente su frequenze più basse senza nessuna apparente spiegazione logica, provocando quindi riduzioni drastiche del framerate

a qualcuno e' capitato che durante l'esecuzione di applicazioni 3d la scheda tornasse alle frequenze 2D e di conseguenza il gioco inizia a scattare...


con il fix si forzano le freq 3d!


a me per esempio non si verifica nessun abbassamento anomalo!

e' una correzione al registro che consente alla vga di operare a frequenze corrette sotto i vari ambiti 2d o 3d ,da cio' che alcuni riportano sembra che la scheda compia un downclock automatico se cosi' vogliamo chiamarlo,utilizzando questo fix il problema viene risolto.

questo e' cio che ho capito io spero di non averti detto una cavolata :)

Grazie troppo gentili!Mai ricevuto così tante risposte! :read: ;)

DarkNiko
28-07-2008, 20:12
scusa, ma a che serve l'AA8X?

Serve a giustificare il fatto di avere una scheda video potente e di puntare tutto anche sulla qualità oltre che sulle prestazioni. Che poi tra 4x e 8x cambia poco sono d'accordo (del resto avrai pensato che potrei tenerla a 4x, peccato che nel gioco le prestazioni restino invariate), però visto che nel 90% dei livelli sono sempre a 60 fps fissi, salvo i problemi di cui sopra, direi che la scheda video regge bene (o quasi), per cui perchè non giocare con l'AA a 8x ?

Andrea deluxe
28-07-2008, 20:16
Serve a giustificare il fatto di avere una scheda video potente e di puntare tutto anche sulla qualità oltre che sulle prestazioni. Che poi tra 4x e 8x cambia poco sono d'accordo (del resto avrai pensato che potrei tenerla a 4x, peccato che nel gioco le prestazioni restino invariate), però visto che nel 90% dei livelli sono sempre a 60 fps fissi, salvo i problemi di cui sopra, direi che la scheda video regge bene (o quasi), per cui perchè non giocare con l'AA a 8x ?

a!

ok!

NOOB4EVER
28-07-2008, 20:24
ho provato ora un po di furmark benchmark abilitando lo sli da nhancer con frequenze

690/1440/2450 e sui 93 gradi la scheda da artefatti,quindi non me la sento di flashare con freq...ora calo qualcosina e poi edito ;)

PS:infinite grazie a Delly per la sua disponibilita' e pazienza :)

appleroof
28-07-2008, 20:42
Sì, l'ho già scritto e non cambia una virgola. :(

ok scusa mi era sfuggito, mi viene in mente allora che potresti avere il problema richiamato da Andrea deluxe....


a qualcuno e' capitato che durante l'esecuzione di applicazioni 3d la scheda tornasse alle frequenze 2D e di conseguenza il gioco inizia a scattare...


con il fix si forzano le freq 3d!


a me per esempio non si verifica nessun abbassamento anomalo!

eXeS
28-07-2008, 20:53
della scheda video vorrai dire.. :D
Certo certo.... :)

Andrea deluxe
28-07-2008, 20:55
ok scusa mi era sfuggito, mi viene in mente allora che potresti avere il problema richiamato da Andrea deluxe....

cazzarola apple!

forse hai trovato l'arcano di darkniko!!

sei un grande!:D

appleroof
28-07-2008, 20:56
cazzarola apple!

forse hai trovato l'arcano di darkniko!!

sei un grande!:D

e tu sei un para:ciapet: :asd: :asd:

;)

eXeS
28-07-2008, 20:57
e' una correzione al registro che consente alla vga di operare a frequenze corrette sotto i vari ambiti 2d o 3d ,da cio' che alcuni riportano sembra che la scheda compia un downclock automatico se cosi' vogliamo chiamarlo,utilizzando questo fix il problema viene risolto.

questo e' cio che ho capito io spero di non averti detto una cavolata :)
In realtà dopo il fix la scheda viaggia sempre con le stesse frequenze del 3D... Per adesso ho ripristinato la situazione pre-fix ed ho provato a modificare un'opzione di risparmio energetico di Vista sul PCI-E che non vorrei rompesse i coglioni :D

Andrea deluxe
28-07-2008, 21:03
e tu sei un para:ciapet: :asd: :asd:

;)

ti giuro che appena ho visto il tuo quote mi si e' accesa la lampadina...:Prrr:

appleroof
28-07-2008, 21:04
ti giuro che appena ho visto il tuo quote mi si e' acesa la lampadina...:Prrr:

:D :D :D

NOOB4EVER
28-07-2008, 21:30
In realtà dopo il fix la scheda viaggia sempre con le stesse frequenze del 3D... Per adesso ho ripristinato la situazione pre-fix ed ho provato a modificare un'opzione di risparmio energetico di Vista sul PCI-E che non vorrei rompesse i coglioni :D

......di Vista sul ...........:eek: :eek: :eek: :eek:

provato su XP??

DarkNiko
28-07-2008, 21:37
cazzarola apple!

forse hai trovato l'arcano di darkniko!!

sei un grande!:D

Spaciente deludervi, ma avevo già provato il suddetto fix, fermo restando che di norma uso rivatuner con leggero overclock della VGA e quindi le frequenze, tramite apposito monitoraggio mentre gioco, rimangono inchiodate e non ho mai e dico mai avuto cali sulle medesime.

Come torno a ripetere l'effetto rallenty si manifesta solo in Devil May Cry 4 e non va a scatti, rimane fluida tutta l'immagine ma ogni singolo frame che compone l'immagine va a 30 fps fissi, cmq per ora lo sto rigiocando in 1440 e così ho risolto ogni patema d'animo. :D

Andrea deluxe
28-07-2008, 21:48
Spaciente deludervi, ma avevo già provato il suddetto fix, fermo restando che di norma uso rivatuner con leggero overclock della VGA e quindi le frequenze, tramite apposito monitoraggio mentre gioco, rimangono inchiodate e non ho mai e dico mai avuto cali sulle medesime.

Come torno a ripetere l'effetto rallenty si manifesta solo in Devil May Cry 4 e non va a scatti, rimane fluida tutta l'immagine ma ogni singolo frame che compone l'immagine va a 30 fps fissi, cmq per ora lo sto rigiocando in 1440 e così ho risolto ogni patema d'animo. :D

secondo me e' il gioco:O

:ops2:

appleroof
28-07-2008, 22:20
Spaciente deludervi, ma avevo già provato il suddetto fix, fermo restando che di norma uso rivatuner con leggero overclock della VGA e quindi le frequenze, tramite apposito monitoraggio mentre gioco, rimangono inchiodate e non ho mai e dico mai avuto cali sulle medesime.

Come torno a ripetere l'effetto rallenty si manifesta solo in Devil May Cry 4 e non va a scatti, rimane fluida tutta l'immagine ma ogni singolo frame che compone l'immagine va a 30 fps fissi, cmq per ora lo sto rigiocando in 1440 e così ho risolto ogni patema d'animo. :D

ecco :D ;)

The_max_80
28-07-2008, 23:04
ragazzi ci sono stati boost prestazionali con ultimi drvier rispetto alle rece di quando è uscita la 4870 o la situazione è ancora la stessa ?

DarkNiko
28-07-2008, 23:41
secondo me e' il gioco:O

:ops2:

Tu per caso non è che tante volte hai avuto modo di giocarci ? :D

Andrea deluxe
28-07-2008, 23:45
Tu per caso non è che tante volte hai avuto modo di giocarci ? :D

mi adoperero' per farlo....:D

ilratman
29-07-2008, 10:24
Mi sapreste dire come sono le forature sul pcb?

Sono come quelle della 8800gt?

vorrei prendere questa scheda e provare a riutilizzare acellero s1 in versione potenziata a modo mio e se ha le stesse forature posso provarci.

Tomobiki
29-07-2008, 11:11
Ciao a tutti, seguo con molto interesse ciò che riguarda la gtx280 .
Ho una 9800gtx abbinata ad un [email protected], come lcd ho un 20" e gioco a 1680*1050, tutto mi gira bene con settaggi a palla tranne crysis e Aoc, mentre per il primo non mi tange più di tanto è il secondo, Age of conan a darmi davvero problemi.
So che è il gioco poco ottimizzato, ma col mio sistema sono costretto a scendere a patto con diversi settaggi medi per raggiungere fps medi decenti ( 30) .

Volevo chiedervi se qualcuno con la gtx280 ci gioca e come gli gira.

La mia vera intenzione era di aspettare il G200b in modo da avere un boost ancora + significativo.
Le soluzioni sli-cross o X2 non mi interesano perchè sembra che ci siano ancora problemi di stuttering, percui sono orientato su una vga con core singolo e bella cazzuta.

Ci sono news sull'erede della gtx280?

GIAMPI87
29-07-2008, 13:11
Ragazzi ero interessato a prendere questa scheda però avevo 2 dubbi:

1) Volevo sapere se il dissipatore che ho montato adesso sulla 8800 GT può essere monatato, è lo Zalman GV1000, siccome mi trovo molto bene con le temp volevo sfruttarlo ancora;

2) Volevo sapere se il mio ali regge la mia configurazione in firma con la GTX280 al posto della 8800 GT, il mio Ali è un tecnoware professionale 600 Watt con 2 linee da 12 volt da 20A e 22A, non ho trovato quanto sono combinate ma penso un 36A. Ho visto nei post dietro che vengono richiesti 40A ma secondo voi con 36A non si riesce ad alimentarela visto che loro prendono in considerazione 40A per tutto il sistema, ed il mio sistema ha solo un hard disk e poche periferiche?

Andrea deluxe
29-07-2008, 14:08
per adesso nessun dissipatore aftermarket puo' essere utilizzato!

ma sta per uscire un dissipatore apposta per gtx260-280 della thermalright

Andrea deluxe
29-07-2008, 14:11
Ragazzi ero interessato a prendere questa scheda però avevo 2 dubbi:

1) Volevo sapere se il dissipatore che ho montato adesso sulla 8800 GT può essere monatato, è lo Zalman GV1000, siccome mi trovo molto bene con le temp volevo sfruttarlo ancora;

2) Volevo sapere se il mio ali regge la mia configurazione in firma con la GTX280 al posto della 8800 GT, il mio Ali è un tecnoware professionale 600 Watt con 2 linee da 12 volt da 20A e 22A, non ho trovato quanto sono combinate ma penso un 36A. Ho visto nei post dietro che vengono richiesti 40A ma secondo voi con 36A non si riesce ad alimentarela visto che loro prendono in considerazione 40A per tutto il sistema, ed il mio sistema ha solo un hard disk e poche periferiche?

per il dissy ho risposto sopra, ma per l'ali non so devi provare, non so se il tecnoware regge!

pS: ma dove cavolo lo hai preso un case ALIENWARE?