PDA

View Full Version : [THREAD UFFICIALE] Geforce 9800GX2


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26

YANEZ84
30-04-2008, 12:54
e che programma e' nhancer non lo sentito mai

Johncook
30-04-2008, 17:27
ma allora si può sapere se vanno meglio i 175.12 o i 174.44??? sono indeciso se fare il downgrade....

ale0bello0pr
30-04-2008, 18:53
qui le domande abbondano, le risposte scarseggiano :asd:

Johncook
30-04-2008, 19:16
qui le domande abbondano, le risposte scarseggiano :asd:

Confermo...

Kimi.Rk
30-04-2008, 20:13
Per spremerla a puntino è buona cosa avere un quad core a 3.6Ghz almeno mi sa :p
La PoV è a mio avviso una tra le migliori marche attuali, vai sul sicuro :Dquad a 3600??? :eek: :eek: il dual su molti giochi va piu del quad per la cronaca. ;)

Andrea deluxe
01-05-2008, 00:20
quad a 3600??? :eek: :eek: il dual su molti giochi va piu del quad per la cronaca. ;)

lo sappiamo tutti che il tuo dual core 45nm sale di piu' dei quad core e che la maggior parte dei giochi non e' ottimizzato per il multith....

ma alcuni col pc, non fanno solo superpi e giochi!

nefion
01-05-2008, 00:20
Ciao a tutti,

ho la seguente configurazione

quad core q9300
8gb ram corsair (è una lunga storia lol)
due dischi da 7200 in raid 0
e la gx2

va tutto bene, di default col proc @2500 mi pare di stare sui 15000 a 3dmark06 che mi sembra in linea.

Ho però un problema specifico su un gioco, forse voi riuscite a spiegarmi.

Hellgate London. Con il motore dx9 cappo i 60fps in ogni circostanza (o quasi). Se switcho a dx10 vado a 3-4 fps.... c'è qualcuno che ha un'idea del perche?

grazie mille,

NOOB4EVER
01-05-2008, 03:22
Ciao a tutti,

ho la seguente configurazione

quad core q9300
8gb ram corsair (è una lunga storia lol)
due dischi da 7200 in raid 0
e la gx2

va tutto bene, di default col proc @2500 mi pare di stare sui 15000 a 3dmark06 che mi sembra in linea.

Ho però un problema specifico su un gioco, forse voi riuscite a spiegarmi.

Hellgate London. Con il motore dx9 cappo i 60fps in ogni circostanza (o quasi). Se switcho a dx10 vado a 3-4 fps.... c'è qualcuno che ha un'idea del perche?

grazie mille,

fammelo comprare sta notte che domattina lo testo e ti so dire;)

ale0bello0pr
01-05-2008, 04:33
lo sappiamo tutti che il tuo dual core 45nm sale di piu' dei quad core e che la maggior parte dei giochi non e' ottimizzato per il multith....

ma alcuni col pc, non fanno solo superpi e giochi!

scusami ma grande str***ta:rolleyes:

si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:

nefion
01-05-2008, 08:33
fammelo comprare sta notte che domattina lo testo e ti so dire;)

non ho capito.. cosa compri? :)

Mafio
01-05-2008, 08:37
scusami ma grande str***ta:rolleyes:

si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:

nei giochi non credo proprio. :stordita:

Andrea deluxe
01-05-2008, 10:10
scusami ma grande str***ta:rolleyes:

si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:

io parlavo di overclock dei quad core normali e non qx!

Lo sai che con un q9450 moltiplicatore 8x, con un fsb 450mhz, che è al limite del daily use, si raggiungono soltanto i 3600mhz?

Quale ca**o di fsb dovrei usare per raggiungere i 4000mhz?

con un dual core del ca**o li raggiungerei facilmente i 4050mhz per via del moltiplicatore 9x!


mi pare di parlare con i bambini....

e poi mica tutti hanno 890€ per un QX...

Skullcrusher
01-05-2008, 10:16
nHancer funziona con la GX2? Ho provato la beta 2.4.0.7, riconosce che c'è uno sli, ma non lo attiva, ho provato in tutti i modi possibili ma nada, senza nHancer Vegas 2 va a 100fps con sli attivo, con nHancer va a 65 fps, Sli disattivo. Ho visto che non riconosce come chip G92, ma G80, mi sa che ancora non è compatibile...

Andrea deluxe
01-05-2008, 10:25
edit

DarkNiko
01-05-2008, 10:25
scusami ma grande str***ta:rolleyes:

si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:

20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D

Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.

Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).

Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!

Kimi.Rk
01-05-2008, 11:02
lo sappiamo tutti che il tuo dual core 45nm sale di piu' dei quad core e che la maggior parte dei giochi non e' ottimizzato per il multith....

ma alcuni col pc, non fanno solo superpi e giochi!beh io rispondevo a colui che ha detto che per spremere a fondo la scheda video ci sarebbe voluto minimo un quad a 3600... cosa che non e cosi con un 3000 dual non sei certo cpu limited anche perche a risoluzioni basse si sente di piu l'influenza della cpu e piu si sale e meno si fa sentire ed entra in gioco la gpu. nessuno ha parlato di bench o super pi.. pero credo che di giochi si possa parlare visto che stiamo parlando di una scheda video..

Dezio
01-05-2008, 11:03
La XFX 9800GX2 Black Edition ha frequenze di core e di clock più alte rispetto alle altre e ovviamente costa circa 100€ in più.
Questo è dovuto solamente all'aggiornamento bios o ha qualcosa in particolare?
Perchè nella mia config volevo abbinarla alla XFX 780i giusto per fare "all XFX" ma se ha solo il bios aggiornato non ne vale la pena spendere 100€ per 10 minuti di lavoro :)

fdadakjli
01-05-2008, 11:08
La XFX 9800GX2 Black Edition ha frequenze di core e di clock più alte rispetto alle altre e ovviamente costa circa 100€ in più.
Questo è dovuto solamente all'aggiornamento bios o ha qualcosa in particolare?
Perchè nella mia config volevo abbinarla alla XFX 780i giusto per fare "all XFX" ma se ha solo il bios aggiornato non ne vale la pena spendere 100€ per 10 minuti di lavoro :)

ciao...cambia soltanto il bios... ;)
direi che non vale la pena spendere di più...un semplice flash e via ed ottieni la stessa cosa... ;)
poi ci sono i matti come me e altri che li spendono...ma non è la cosa più sensata da fare...e cmq da non consigliare a nessuno... :read:

fr4nc3sco
01-05-2008, 11:09
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D

Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.

Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).

Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!

mi dici ma dove vive il tua amico sulla marmolada nn spariamo caxxate! un qx9650 almeno i miei 10 cpu che ho avuto per le mani con 1.4 1.45v che servono per un 4200mhz stabili a liquido t° aria 25° si ha un 30/35° in idle che volano a 68/70 sotto prime e nn c'è mobo wb fuzion con vascetta da 1 litro e 2 rad con 12 ventole con un Delta di acqua da idle a full di 3° dopo 10 ore quindi nn è senzaltro l'impianto

fr4nc3sco
01-05-2008, 11:14
delly hai trovato anche te un buon booter coi 175,12 in sli? io mi sono ritrovato nel mio gioco preferito quasi un raddopio di frame adesso lo gioco a 16qx 16x senza problemi oltre 180 frame in piu le bandiere ecc adesso sono piu dettagliate e piu vicino all risultato di qualita che ottenevo con ati

fdadakjli
01-05-2008, 11:17
delly hai trovato anche te un buon booter coi 175,12 in sli? io mi sono ritrovato nel mio gioco preferito quasi un raddopio di frame adesso lo gioco a 16qx 16x senza problemi oltre 180 frame in piu le bandiere ecc adesso sono piu dettagliate e piu vicino all risultato di qualita che ottenevo con ati

si...ho notato buoni miglioramenti anche io... ;)

Dezio
01-05-2008, 11:21
ciao...cambia soltanto il bios... ;)
direi che non vale la pena spendere di più...un semplice flash e via ed ottieni la stessa cosa... ;)
poi ci sono i matti come me e altri che li spendono...ma non è la cosa più sensata da fare...e cmq da non consigliare a nessuno... :read:
bon allora mi sa che saremo in 2 entro settimana prox :D

Andrea deluxe
01-05-2008, 12:02
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D

Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.

Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).

Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!

quoto!

DarkNiko
01-05-2008, 13:00
mi dici ma dove vive il tua amico sulla marmolada nn spariamo caxxate! un qx9650 almeno i miei 10 cpu che ho avuto per le mani con 1.4 1.45v che servono per un 4200mhz stabili a liquido t° aria 25° si ha un 30/35° in idle che volano a 68/70 sotto prime e nn c'è mobo wb fuzion con vascetta da 1 litro e 2 rad con 12 ventole con un Delta di acqua da idle a full di 3° dopo 10 ore quindi nn è senzaltro l'impianto

Tanto per cominciare modera il linguaggio. Non stai parlando a tuo fratello o qualche tuo amichetto. Secondo, non ho mai parlato di prime 95. Abbiamo usato OCCT e non ha mai superato i 42°. Di sicuro l'ambiente in cui vive è fresco, visto che la temp ambiente è intorno ai 20°. 25° di temp ambiente è un forno, magari in Estate siamo d'accordo ma in questo periodo 25° in stanza sono un pò troppi non credi ?

Può darsi pure che la lettura sia stata errata, ma c'è modo e modo di far valere le tue ragioni e tu hai scelto quello peggiore.

fr4nc3sco
01-05-2008, 14:34
Tanto per cominciare modera il linguaggio. Non stai parlando a tuo fratello o qualche tuo amichetto. Secondo, non ho mai parlato di prime 95. Abbiamo usato OCCT e non ha mai superato i 42°. Di sicuro l'ambiente in cui vive è fresco, visto che la temp ambiente è intorno ai 20°. 25° di temp ambiente è un forno, magari in Estate siamo d'accordo ma in questo periodo 25° in stanza sono un pò troppi non credi ?

Può darsi pure che la lettura sia stata errata, ma c'è modo e modo di far valere le tue ragioni e tu hai scelto quello peggiore.

hai ragione sono stato 1 po pesante pero credimi che a 4200 i qx sono forni veri e propri

DarkNiko
01-05-2008, 15:21
hai ragione sono stato 1 po pesante pero credimi che a 4200 i qx sono forni veri e propri

Ok, adesso ragioniamo. ;) Cmq c'è impianto e impianto. Ad esempio un Q6600 G0 a 1.40v reali a 3.7 GHz in full load, che possiede un mio amico, dopo 1 ora di prime sta a 58° e mi sembra un ottimo risultato.

Cmq ti devo dare ragione e scusarmi. A ben pensarci i 42° che misurammo tempo fa sul QX non credo fossero veritieri (anche a 4 GHz stava così in full load), forse il sensore aveva toppato alla grande.

Cmq l'importante è che ci siamo chiariti e che si vada d'accordo. :)

ale0bello0pr
01-05-2008, 17:21
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D

Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.

Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).

Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!


troppe parole e pochi fatti, io non sono :blah::blah: ma fatti ecco lo screen che CERTIFICA che ho 20-30° max su VISTA con il mio impianto a liquido e OC raggiunto

N.B. x raggiungere 4.33 Ghz ho dovuto settare 1.5 Vcore e a maggior ragione la mia temp è spettacolare. NON USO LIQUIDO CRIOGENICO e NON VIVO IN UNA GHIACCIAIA O CANADA :)

http://img237.imageshack.us/img237/6457/boc433zq9.png
http://img140.imageshack.us/img140/9862/b3d06zp4.jpg

byez
Per il post dell'utente di prima, non avevo capito a cosa ti riferivi esattamente , cmq i QX nei giochi si mangiano(non due volte) anche i dual core questo è chiaro.

ah FINE OT :ot:
:doh:

Mafio
01-05-2008, 17:24
ma il tJunction max non è mica 95°...coretemp segna 105°, se ho ragione io tu sei a 10° in meno di quello che segna coretemp.

p.s. prove realtemp

Andrea deluxe
01-05-2008, 18:07
troppe parole e pochi fatti, io non sono :blah::blah: ma fatti ecco lo screen che CERTIFICA che ho 20-30° max su VISTA con il mio impianto a liquido e OC raggiunto

N.B. x raggiungere 4.33 Ghz ho dovuto settare 1.5 Vcore e a maggior ragione la mia temp è spettacolare. NON USO LIQUIDO CRIOGENICO e NON VIVO IN UNA GHIACCIAIA O CANADA :)

http://img237.imageshack.us/img237/6457/boc433zq9.png
http://img140.imageshack.us/img140/9862/b3d06zp4.jpg

byez
Per il post dell'utente di prima, non avevo capito a cosa ti riferivi esattamente , cmq i QX nei giochi si mangiano(non due volte) anche i dual core questo è chiaro.

ah FINE OT :ot:
:doh:

infatti hai risposto un po a cazzo per i miei gusti....

DarkNiko
01-05-2008, 18:09
troppe parole e pochi fatti, io non sono :blah::blah: ma fatti ecco lo screen che CERTIFICA che ho 20-30° max su VISTA con il mio impianto a liquido e OC raggiunto

N.B. x raggiungere 4.33 Ghz ho dovuto settare 1.5 Vcore e a maggior ragione la mia temp è spettacolare. NON USO LIQUIDO CRIOGENICO e NON VIVO IN UNA GHIACCIAIA O CANADA :)

byez
Per il post dell'utente di prima, non avevo capito a cosa ti riferivi esattamente , cmq i QX nei giochi si mangiano(non due volte) anche i dual core questo è chiaro.

ah FINE OT :ot:
:doh:

Sei contro le leggi della fisica. A meno che tu non usi un refrigeratore per il liquido o un compressore, con quei voltaggi quelle temperature non sono veritiere. Usa una sonda termica e verificherai tu stesso. Secondo me hai i sensori sballati e il voltaggio che hai messo è troppo alto per la CPU (impianto a liquido compreso) !!!!

Io non pretendo di avere ragione, ci mancherebbe, ma cerco di ragionare con logica e basandomi su prove scientificamente valide.

P.S. Tenere le ram a 411 a CAS6 come nella tua foto è davvero comica come cosa, senza offesa eh. Almeno un CAS5 potresti provarlo !!!

Kimi.Rk
01-05-2008, 18:16
infatti hai risposto un po a cazzo per i miei gusti....comunque non e possibile che un quad anche se 45nm a 4300 con 1.54 di vcore abbia cosi pochi gradi nemmeno se il suo impianto è stratosferico! c'e qualcosa nel bios o nei sensori che non va..

Andrea deluxe
01-05-2008, 18:21
comunque non e possibile che un quad anche se 45nm a 4300 con 1.54 di vcore abbia cosi pochi gradi nemmeno se il tuo impianto è stratosferico! c'e qualcosa nel bios o nei sensori che non va..

anche secondo me!

ale0bello0pr
01-05-2008, 18:24
Sei contro le leggi della fisica. A meno che tu non usi un refrigeratore per il liquido o un compressore, con quei voltaggi quelle temperature non sono veritiere. Usa una sonda termica e verificherai tu stesso. Secondo me hai i sensori sballati e il voltaggio che hai messo è troppo alto per la CPU (impianto a liquido compreso) !!!!

Io non pretendo di avere ragione, ci mancherebbe, ma cerco di ragionare con logica e basandomi su prove scientificamente valide.

P.S. Tenere le ram a 411 a CAS6 come nella tua foto è davvero comica come cosa, senza offesa eh. Almeno un CAS5 potresti provarlo !!!

il mio pc va da dio e non è sballato nulla , sei solo tu troppo presuntuoso.
TI ho postato l'evidenza ora basta :blah:

ho detto basta OT o interviene qualke mod...anche per alcuni toni poco civili e flammosi di qualcuno.
>byez<

ale0bello0pr
01-05-2008, 18:25
infatti hai risposto un po a cazzo per i miei gusti....

arguta risposta :rolleyes:

Kimi.Rk
01-05-2008, 18:27
il mio pc va da dio e non è sballato nulla , sei solo tu troppo presuntuoso.
TI ho postato l'evidenza ora basta :blah:evidenza non e! il fatto che li segna non vuol dire che sono reali..

Mafio
01-05-2008, 18:36
dai ragazzi non ci incazziamo per ste cazzate....
quelle temperature "potrebbero" anche starci.

@ ale0bello0pr: realtemp che temperature segna???lo chiedo perchè il tJunction max segnato da coretemp è 105° quando mi pare sia di 95°
se il mio ragionamento è vero tu avresti 10° in meno di quelli segnati da coretemp. :stordita:

ale0bello0pr
01-05-2008, 18:38
dai ragazzi non ci incazziamo per ste cazzate....
quelle temperature "potrebbero" anche starci.

@ ale0bello0pr: realtemp che temperature segna???lo chiedo perchè il tJunction max segnato da coretemp è 105° quando mi pare sia di 95°
se il mio ragionamento è vero tu avresti 10° in meno di quelli segnati da coretemp. :stordita:

si qualcosa in meno hai ragione;)
ho detto basta :ot: però :stordita:
me ne vo a giocare a Crysis, se loro continuano falli continuare pure, ci pensera' qualcun'altro a fargli cambiare idea.. :asd:

DarkNiko
01-05-2008, 20:23
il mio pc va da dio e non è sballato nulla , sei solo tu troppo presuntuoso.
TI ho postato l'evidenza ora basta :blah:

ho detto basta OT o interviene qualke mod...anche per alcuni toni poco civili e flammosi di qualcuno.
>byez<

Dai del presuntuoso agli altri, quando sei tu il primo ad esserlo dicendo "il mio pc va da dio, evidenza dei fatti etc etc". Complimenti, un vero esempio di onestà morale.

Se tu sei un ignorante (e spero non vorrai offenderti se uno ti dice in faccia la verità) di Fisica non è un mio problema, spero però che almeno vorrai rispettare chi in questa materia è laureato, come il sottoscritto.

I sensori del bios o del chip Winbond che rileva le tue temperature, sono starati o sballati, di questo non c'è alcun dubbio. Nemmeno il miglior impianto a liquido esistente sulla crosta terrestre (a parte quelli utilizzanti azoto liquido alias liquidi criogenici) del tipo di quelli usati da te riesce a tenere il tuo PC a quelle temperature e non si tratta di presunzione, è una certezza, è un dato inoppugnabile.

Purtroppo, caro il mio utente, l'umiltà e cosa sempre più rara, ancor più fastidiosa è il voler negare ad oltranza l'evidenza come fai tu.

Cmq chiudo l'O.T. e mi scuso con i moderatori, non ci saranno ulteriori repliche.

DarkNiko
01-05-2008, 20:26
dai ragazzi non ci incazziamo per ste cazzate....
quelle temperature "potrebbero" anche starci.

@ ale0bello0pr: realtemp che temperature segna???lo chiedo perchè il tJunction max segnato da coretemp è 105° quando mi pare sia di 95°
se il mio ragionamento è vero tu avresti 10° in meno di quelli segnati da coretemp. :stordita:

Nessuno si arrabbia figurati. Odio però passare per cazzaro quando è oggettivo che sono gli altri in torto e non io.

Studiatevi la Termodinamica e poi parlate !!! :D

ale0bello0pr
01-05-2008, 20:43
Dai del presuntuoso agli altri, quando sei tu il primo ad esserlo dicendo "il mio pc va da dio, evidenza dei fatti etc etc". Complimenti, un vero esempio di onestà morale.

Se tu sei un ignorante (e spero non vorrai offenderti se uno ti dice in faccia la verità) di Fisica non è un mio problema, spero però che almeno vorrai rispettare chi in questa materia è laureato, come il sottoscritto.

I sensori del bios o del chip Winbond che rileva le tue temperature, sono starati o sballati, di questo non c'è alcun dubbio. Nemmeno il miglior impianto a liquido esistente sulla crosta terrestre (a parte quelli utilizzanti azoto liquido alias liquidi criogenici) del tipo di quelli usati da te riesce a tenere il tuo PC a quelle temperature e non si tratta di presunzione, è una certezza, è un dato inoppugnabile.

Purtroppo, caro il mio utente, l'umiltà e cosa sempre più rara, ancor più fastidiosa è il voler negare ad oltranza l'evidenza come fai tu.

Cmq chiudo l'O.T. e mi scuso con i moderatori, non ci saranno ulteriori repliche.

bene segnalato perche' oltre ad essere presuntuoso anche recidivo
io non ho offeso nessuno, se i mod fanno il loro lavoro dovrebbero sospenderti.
in attesa...

inteligenti pauca
adios

anti
01-05-2008, 20:54
ho notato che questa scheda ha l'uscita hdvi si può attaccarci il monitor visto che il mio ha anche quel tipo di connettore?:confused:

Johncook
01-05-2008, 21:55
ragazzi mi capita una cosa strana,la gx2 data la sua luncghezza va ad occuparmi le porte sata della mia p5k e-wifi lasciandomene libere solo 2..capita anche a voi???come posso fare?

Mafio
01-05-2008, 21:59
ragazzi mi capita una cosa strana,la gx2 data la sua luncghezza va ad occuparmi le porte sata della mia p5k e-wifi lasciandomene libere solo 2..capita anche a voi???come posso fare?

se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)

Johncook
01-05-2008, 22:19
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)

giusto non c'avevo pensato... grazie!!!

Mafio
01-05-2008, 22:20
giusto non c'avevo pensato... grazie!!!

guarda che non so se funziona sta cosa, però tentar non costa nulla. :)

FreeMan
01-05-2008, 22:39
bene segnalato perche' oltre ad essere presuntuoso anche recidivo
io non ho offeso nessuno, se i mod fanno il loro lavoro dovrebbero sospenderti.
in attesa...


sei i mod fanno il loro lavoro? in attesa? :mbe:

pessimo modo di fare.. le segnalazioni non si ostentano pubblicamente e non sono un ordine che si da al mod..

e poi critichi tanto ma dovresti anche evitare di dire che la gente dice o fa stronzate

http://www.hwupgrade.it/forum/showthread.php?p=22259912#post22259912

di certo così non eviti di creare tu stesso il flame

sospeso 3gg per questa polemica e modo di fare.. in futuro evita, segnala e attendi diligentemente l'eventuale intervento dei mod.. se non intervengono vuol dire che la tua segnalazione era infondata.



inteligenti pauca
adios

almeno citale corettamente

http://it.wikipedia.org/wiki/Intellegenti_pauca


DarkNiko sospeso 5gg

>bYeZ<

NOOB4EVER
02-05-2008, 03:31
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)

dovrai tagliare leggermente con ub taglierino un piccolo spessore di plastica nera,per fare adagiare la vga correttamente,intendo l'angolo del connettore a L,io ci ho smussato l'angolo quando la provai in quella mobo ;)

Mafio
02-05-2008, 08:06
dovrai tagliare leggermente con ub taglierino un piccolo spessore di plastica nera,per fare adagiare la vga correttamente,intendo l'angolo del connettore a L,io ci ho smussato l'angolo quando la provai in quella mobo ;)

quindi si può fare, buono a sapersi anche se fortunatamente sulla mia mobo attuale non ho di questi problemi. :)

GTO286
02-05-2008, 14:30
Ciao ragazzi.
Mi e appena arrivata una EVGA 9800GX2 KO,i suoi valori sono 650/1620/2050.

Volendo fare un quad sli,visto che a livello di componenti e uguale alle altre,ed in piu a solo l'overclock della casa,pensavo di abbinarle un'altra 9800GX2 ma della POV(con il bios flashato uguale alla evga).O in alternativa portarle entrambe alle stesse frequenze con rivatuner 2.09.

Voi che ne dite?

Pensate sia possibile?

Johncook
02-05-2008, 14:32
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)



x la cronaca ho risolto con un connettore sata ad L angolo di 90°... meno male!!!!grazie mafio...;)

Mafio
02-05-2008, 14:34
Ciao ragazzi.
Mi e appena arrivata una EVGA 9800GX2 KO,i suoi valori sono 650/1620/2050.

Volendo fare un quad sli,visto che a livello di componenti e uguale alle altre,ed in piu a solo l'overclock della casa,pensavo di abbinarle un'altra 9800GX2 ma della POV(con il bios flashato uguale alla evga).O in alternativa portarle entrambe alle stesse frequenze con rivatuner 2.09.

Voi che ne dite?

Pensate sia possibile?

che l'ali non ti basta per un quad sli per di più di vga cloccate. :D

GTO286
02-05-2008, 14:49
che l'ali non ti basta per un quad sli per di più di vga cloccate. :D

Dici che l'ali sia troppo "piccolo"?

Mi da nelle specifiche 850W con picco a 1000W.
E marchiato nvidia sli,ed a 4 cavi a 6 pin e 2 a 8 pin.Pensavo di riuscirci.Avevo letto qui sul sito i test di consumo con un qx a 3.3ghz e 2x9800GX2 in full load cpu+gpu arrivano a 727W.

Pensate quindi che non mi bastera?

Per la "compatibilita" delle 2 marche che mi dite?

Grazie a tutti

GTO286
02-05-2008, 19:22
che l'ali non ti basta per un quad sli per di più di vga cloccate. :D

Ciao.Dici che col mio ali non ce la faccio proprio?

Ho letto che con un qx overclockato e un quad sli di 9800GX2 in full load cpu+gpu si raggiungono i 730w di consumo circa.Pensavo quindi di starci dentro,ho 850w e 1000 di picco.:rolleyes:

Mafio
02-05-2008, 19:27
Dici che l'ali sia troppo "piccolo"?

Mi da nelle specifiche 850W con picco a 1000W.
E marchiato nvidia sli,ed a 4 cavi a 6 pin e 2 a 8 pin.Pensavo di riuscirci.Avevo letto qui sul sito i test di consumo con un qx a 3.3ghz e 2x9800GX2 in full load cpu+gpu arrivano a 727W.

Pensate quindi che non mi bastera?

Per la "compatibilita" delle 2 marche che mi dite?

Grazie a tutti

effettivamente forse mi sono sbagliato...http://www.hothardware.com/Articles/NVIDIA_QuadSLI_with_the_ASUS_EN9800GX2/?page=8 qui dice meno di 600watt in full.

mok78
02-05-2008, 19:54
Salve.. scusate anche io ho acquistat questa schedozza... che ne pensate? Ne sento parlare male a destra e a sinistra ma è cosi vero?

una xfx 9800gx2 per la precisione....

Mafio
02-05-2008, 19:55
chiedere dopo aver comprato non mi pare un gran colpo di genio...

Marko#88
02-05-2008, 19:58
chiedere dopo aver comprato non mi pare un gran colpo di genio...

effettivamente...:asd:

GTO286
02-05-2008, 20:06
effettivamente forse mi sono sbagliato...http://www.hothardware.com/Articles/NVIDIA_QuadSLI_with_the_ASUS_EN9800GX2/?page=8 qui dice meno di 600watt in full.

Grazie Mafio per la precisazione:)

Bell'articolo,consumi anche piu bassi di quelli che avevo letto io.

Quando mettero la seconda 9800GX2 vi farò sapere se l'ali tiene botto.

mok78
02-05-2008, 20:28
vabbe ma la risposta??apparte quella di non essere un genio?

Mafio
02-05-2008, 20:33
vabbe ma la risposta??apparte quella di non essere un genio?

non ho detto che sei scemo, ho solo fatto notare che sarebbe stato più sensato, almeno per quanto riguarda il mio modo di pensare, chiedere prima di comprare.
in ogni caso la 9800gx2 rimane una grandissima vga, che però IMHO ha senso acquistare solo se si gioca a risoluzioni considerevolmente alte.

mok78
02-05-2008, 20:41
Puo darsi anche che abbia fatto il passo piu' lungo della gamba...:D!!
Ma se è come hai detto te a me va benissimo...e speriamo anche se so che non sarà cosi che duri un pò nel tempo...

Mafio
02-05-2008, 20:43
Puo darsi anche che abbia fatto il passo piu' lungo della gamba...:D!!
Ma se è come hai detto te a me va benissimo...e speriamo anche se so che non sarà cosi che duri un pò nel tempo...

un po' invece durerà...senti ma tua a che risolzione giochi??? :stordita:

mok78
02-05-2008, 20:54
a me dovrebbe arrivare la prox settimana...adesso come adesso col pc vecchio con un sempron 3100, 1 g. 400mhz,e un ati 9800 a 640x400 si tutti i giochi (apparte quelli che no partono neanche ):D
No cmq ho un monitor lcd a 22 pollici widescreen ...

Sicuro che durerà un po? ma non esocno le altre schede tra poco?al massimo si potra fare lo sli quando il prezzo scenderà ulteriormente .... sperem

Mafio
02-05-2008, 20:56
a me dovrebbe arrivare la prox settimana...adesso come adesso col pc vecchio con un sempron 3100, 1 g. 400mhz,e un ati 9800 a 640x400 si tutti i giochi (apparte quelli che no partono neanche ):D
No cmq ho un monitor lcd a 22 pollici widescreen ...

Sicuro che durerà un po? ma non esocno le altre schede tra poco?al massimo si potra fare lo sli quando il prezzo scenderà ulteriormente .... sperem

con sta scheda giochi a tutti i giochi (a parte crysis) al massimo con tutti i filtri alla risolzione nativa del tuo monitor...

mok78
02-05-2008, 21:01
Bhe dai ...forse...allora veramente dura un pochino....sperem...
Grazie mafio...

NOOB4EVER
03-05-2008, 01:22
Bhe dai ...forse...allora veramente dura un pochino....sperem...
Grazie mafio...

se dura 6 mesi secondo me e' pure troppo

mok78
03-05-2008, 06:34
se dura 6 mesi secondo me e' pure troppo
Dici cosi poco?

Enochian
03-05-2008, 06:59
Domanda sulla geforce 9800x2 : abbinata ad un qx9650 è decentemente supportata?

Mafio
03-05-2008, 07:36
Domanda sulla geforce 9800x2 : abbinata ad un qx9650 è decentemente supportata?

cosa vuol dire decentemente supportata??? :stordita:
se intendi cpu limited con il qx9650 non lo sei.

Enochian
03-05-2008, 11:25
Volevo dire quel procio la spreme a dovere?

Mafio
03-05-2008, 11:28
Volevo dire quel procio la spreme a dovere?

si

tommy.knocker
03-05-2008, 17:47
Salve,

Scusate se ripropongo la domanda ma mi era venuto qualche dubbio:

ci sono problemi se su una rampage + gx2 metto una 8500gs (o simili) per avere 2 monitor e sli contemporaneamente?

grazie!

tk

NOOB4EVER
03-05-2008, 19:48
Volevo dire quel procio la spreme a dovere?

portalo almeno a 3,6 - 3,8 e andra' alla grande

fr4nc3sco
03-05-2008, 19:51
qualche matto col lo sli di gx2 è riuscito a far convivere 2 monitor in sli?

Kimi.Rk
03-05-2008, 19:59
Salve,

Scusate se ripropongo la domanda ma mi era venuto qualche dubbio:

ci sono problemi se su una rampage + gx2 metto una 8500gs (o simili) per avere 2 monitor e sli contemporaneamente?

grazie!

tkla rampage è crossfire e non sly! puoi mettere 2 ati ma non 2 nvidia.

ugo71
03-05-2008, 20:05
Domanda sulla geforce 9800x2 : abbinata ad un qx9650 è decentemente supportata?

secondo me :
CPU limited??
sembra che uno dica bestemmie ma quando avevo la gts640 con l'e6420@3200 vga defoult arrivavo quasi a 10.000pt., con il q6600@3000 o @3200restavo cmq sugli 11.000 con vga defoult(vista32)
ora con vga sempre defoult: @3300 http://img187.imageshack.us/img187/3302/v323300qw8.th.jpg (http://img187.imageshack.us/my.php?image=v323300qw8.jpg)
@3600 http://img169.imageshack.us/img169/370/v323600gp4.th.jpg (http://img169.imageshack.us/my.php?image=v323600gp4.jpg)

per quanto superficiale sia un 3dm06 , dai punteggi mi sembra lecito supporre che una gx2 in certi casi può essere limitata dalla cpu , anche perchè non tutti i software fanno buon uso di un quad:O

l'aumento di punti non è certamente dovuto al 10% di oc della cpu ..perche se la vga fosse già sfruttata al 100% @3300 l'inrcremento @3600 sarebbe meno di 500 punti :)

anti
03-05-2008, 20:07
ragazzi con un alimentatore da 700 (ocz) ce la faccio o devo pigliarne un altro?'

urgenteeee

Mafio
03-05-2008, 20:09
ragazzi con un alimentatore da 600 (ocz) ce la faccio o devo pigliarne un altro?'

urgenteeee

resto della configurazione???modello preciso di alimentatore???
comunque se l'ali è buono ce la fai.

anti
03-05-2008, 20:27
sperem l'ho appena pigliato un 700 ocz....8400 a 4000 e solite cosette piu o meno :)

tommy.knocker
03-05-2008, 20:30
la rampage è crossfire e non sly! puoi mettere 2 ati ma non 2 nvidia.

certamente, intendevo che con lo sli "interno" della gx2 non posso avere 2 output. allora mi chiedevo se era possibile prendere una scheda da battaglia tipo 8500gs e simili (potrei anche prenderla ati) e metterla sull'altro pcie. le schede sarebbero indipendenti mi servirebbe giusto per avere 2 desktop in windows.

grazie come sempre

tk

Kimi.Rk
03-05-2008, 20:30
secondo me :


l'aumento di punti non è certamente dovuto al 10% di oc della cpu ..perche se la vga fosse già sfruttata al 100% @3300 l'inrcremento @3600 sarebbe meno di 500 punti :)il discorso di cpu limited è meno complesso di quel che sembra! un dual a 2.66 non limita di certo una gx2 se fosse cosi nvidia avrebbe avvertito perche non tutti overcloccano e non tutti hanno qx9650 oppure 8500 a 4000. e logico che se si fanno test con il 3dmark 05 e 06 molto legati alla cpu il risultato cambia e non poco se poi si considera che overcloccando il bus si overclocca tutto il resto compreso il controller dell'hd questo rende ancora piu l'idea.. per vedere se veramente è cpu limited come dicono tanti andrebbero fatti test con 3dmark 2001 oppure con un gioco e fraps direttamente.. per fare un bel confronto e capire poi quanto sia cpu limited si dovrebbe fare test con lo stesso bus tipo 333x9 333x8 333x7 per capire meglio il cpu limited in modo che anche le ram rimangono alla stessa frequenza e sempre con un 3dmark 2001 e vedrete che quelle differenze enormi non ci saranno piu piu!

Kimi.Rk
03-05-2008, 20:31
certamente, intendevo che con lo sli "interno" della gx2 non posso avere 2 output. allora mi chiedevo se era possibile prendere una scheda da battaglia tipo 8500gs e simili (potrei anche prenderla ati) e metterla sull'altro pcie. le schede sarebbero indipendenti mi servirebbe giusto per avere 2 desktop in windows.

grazie come sempre

tkno non puoi!

tommy.knocker
03-05-2008, 20:42
no non puoi!

Nel senso che 2 sk video non possono convivere sullo stesso sistema in modo indipendente?

tk

Iantikas
03-05-2008, 20:44
certamente, intendevo che con lo sli "interno" della gx2 non posso avere 2 output. allora mi chiedevo se era possibile prendere una scheda da battaglia tipo 8500gs e simili (potrei anche prenderla ati) e metterla sull'altro pcie. le schede sarebbero indipendenti mi servirebbe giusto per avere 2 desktop in windows.

grazie come sempre

tk



ma guarda ke se i due monitor ti servono solo in ambiente 2d la 9800GX2 li può pilotare tranquillamente...


....nn devi far altro ke andare nel pannello di controllo e disabilitare lo SLI...una volta disabilitato potrai attivare il multi-monitor...inoltre potrai usarlo anke in 3d a patto di usare una sola gpu e nn tutte e due...


...prendere un'altra gpu solo x usare due monitor nn ti conviene anke xkè nvidia dovrebbe a breve implementare nei driver la possibilità di usare + monitor anke con SLI attivo (così come a fatto ati col CF)...ciao

Kimi.Rk
03-05-2008, 20:45
Nel senso che 2 sk video non possono convivere sullo stesso sistema in modo indipendente?

tke come fanno?

ugo71
03-05-2008, 20:53
il discorso di cpu limited è meno complesso di quel che sembra! un dual a 2.66 non limita di certo una gx2 se fosse cosi nvidia avrebbe avvertito perche non tutti overcloccano e non tutti hanno qx9650 oppure 8500 a 4000. e logico che se si fanno test con il 3dmark 05 e 06 molto legati alla cpu il risultato cambia e non poco se poi si considera che overcloccando il bus si overclocca tutto il resto compreso il controller dell'hd questo rende ancora piu l'idea.. per vedere se veramente è cpu limited come dicono tanti andrebbero fatti test con 3dmark 2001 oppure con un gioco e fraps direttamente.. per fare un bel confronto e capire poi quanto sia cpu limited si dovrebbe fare test con lo stesso bus tipo 333x9 333x8 333x7 per capire meglio il cpu limited in modo che anche le ram rimangono alla stessa frequenza e sempre con un 3dmark 2001 e vedrete che quelle differenze enormi non ci saranno piu piu!
nel mio caso ho alzato il molti della cpu e ho visto che il punteggio cpu da 3300 @3600 è circa 500 punti mentre per SM2 da 6979 @7754 e per sm3 da8437 @8829 e in base alla precedente esperienza con 8800gts640 con e6420@3200 e @3500 il punteggio non cambia mentre se overclocko la vga ....:)

Kimi.Rk
03-05-2008, 21:06
nel mio caso ho alzato il molti della cpu e ho visto che il punteggio cpu da 3300 @3600 è circa 500 punti mentre per SM2 da 6979 @7754 e per sm3 da8437 @8829 e in base alla precedente esperienza con 8800gts640 con e6420@3200 e @3500 il punteggio non cambia mentre se overclocko la vga ....:)500 punti infatti non sono certo la soluzione... sicuramente l'overclock della vga influisce di piu.

nefion
03-05-2008, 22:54
Ciao a tutti,

ho la seguente configurazione

quad core q9300
8gb ram corsair (è una lunga storia lol)
due dischi da 7200 in raid 0
e la gx2

va tutto bene, di default col proc @2500 mi pare di stare sui 15000 a 3dmark06 che mi sembra in linea.

Ho però un problema specifico su un gioco, forse voi riuscite a spiegarmi.

Hellgate London. Con il motore dx9 cappo i 60fps in ogni circostanza (o quasi). Se switcho a dx10 vado a 3-4 fps.... c'è qualcuno che ha un'idea del perche?

grazie mille,

riciao a tutti, quoto questo mio primo messaggio perchè inizio a preoccuparmi con queste dx10.

Ancora hellgate mi va come prima. (cioè lo devo giocare dx9). Oggi ho installato crysis ed è un'altra tragedia :)

se gioco dx9 a 1920x1600 vado bene tutto a medio con AA4x (e già questo mi lascia a dir poco deluso, speravo, col pc nuovo di giocare a tutto al massimo)

se passo a dx 10 e azzardo a mettere le stesse impostazioni non parte nemmeno O_O. Anche scendendo a 1280x1024 se tengo tutto a high (nemmeno a max lol) ho comunque dei rallentamenti e come delle glitch su qualcuna delle foglie degli alberi...

che dite? può essere il S.o. a 64bit che da problemi? qualche problema di scheda? (i 3d mark sono normali direi il 06 a 15000 e il vantage a 10000)..

vi ringrazio...

tommy.knocker
03-05-2008, 22:55
e come fanno?

cambio la domanda, e' possibile utilizzare contemporanetamente 2 monitor (parlo di 2d) e lo sli interno di una gx2?

tk

Iantikas
04-05-2008, 00:02
cambio la domanda, e' possibile utilizzare contemporanetamente 2 monitor (parlo di 2d) e lo sli interno di una gx2?

tk

no

Iantikas
04-05-2008, 00:09
riciao a tutti, quoto questo mio primo messaggio perchè inizio a preoccuparmi con queste dx10.

Ancora hellgate mi va come prima. (cioè lo devo giocare dx9). Oggi ho installato crysis ed è un'altra tragedia :)

se gioco dx9 a 1920x1600 vado bene tutto a medio con AA4x (e già questo mi lascia a dir poco deluso, speravo, col pc nuovo di giocare a tutto al massimo)

se passo a dx 10 e azzardo a mettere le stesse impostazioni non parte nemmeno O_O. Anche scendendo a 1280x1024 se tengo tutto a high (nemmeno a max lol) ho comunque dei rallentamenti e come delle glitch su qualcuna delle foglie degli alberi...

che dite? può essere il S.o. a 64bit che da problemi? qualche problema di scheda? (i 3d mark sono normali direi il 06 a 15000 e il vantage a 10000)..

vi ringrazio...



hai installato tutte le patch di microsoft x multi-gpu e dx10? (se nn l'hai fatto sono queste http://support.microsoft.com/kb/945149 http://support.microsoft.com/kb/940105 http://support.microsoft.com/kb/936710 http://support.microsoft.com/kb/938194 http://support.microsoft.com/kb/938979 )....


...queste patch nn sono opzionali, sono indispensabili al corretto funzionamento del sistema...


...hai instllato gli ultimi driver x il tuo sistema operativo? (dovrebbero essere i 175.12)...


...cmq quake problema c'è sicuramente...ciao

nefion
04-05-2008, 00:27
hai installato tutte le patch di microsoft x multi-gpu e dx10? (se nn l'hai fatto sono queste http://support.microsoft.com/kb/945149 http://support.microsoft.com/kb/940105 http://support.microsoft.com/kb/936710 http://support.microsoft.com/kb/938194 http://support.microsoft.com/kb/938979 )....


...queste patch nn sono opzionali, sono indispensabili al corretto funzionamento del sistema...


...hai instllato gli ultimi driver x il tuo sistema operativo? (dovrebbero essere i 175.12)...


...cmq quake problema c'è sicuramente...ciao

ho gli aggiornamenti automatici attivi, quindi dovrebbero esserci. Cmq ora li controllo uno a uno.

Per quanto riguarda i driver il sito nvidia mi dice che gli ultimi per me sono i 174.74..


edito.. non so perche ma mi dice che questi aggiornamenti non sono applicabili al sistema in uso... mmh

Dobermann75
04-05-2008, 00:52
ho gli aggiornamenti automatici attivi, quindi dovrebbero esserci. Cmq ora li controllo uno a uno.

Per quanto riguarda i driver il sito nvidia mi dice che gli ultimi per me sono i 174.74..


edito.. non so perche ma mi dice che questi aggiornamenti non sono applicabili al sistema in uso... mmh
perche' se hai il sp1 non hai piu necessita' di aggiornamenti per il momento ;)

nefion
04-05-2008, 01:12
perche' se hai il sp1 non hai piu necessita' di aggiornamenti per il momento ;)

e quindi sono fottuto :D

please qualcuno avanzi qualche super idea che sto entrando in crisi da delusione post acquisto...:help:

Iantikas
04-05-2008, 01:21
e quindi sono fottuto :D

please qualcuno avanzi qualche super idea che sto entrando in crisi da delusione post acquisto...:help:


x qualke super idea ti tocca aspettare qualcuno meno rinco di me :D (a quest'ora poi :sofico: )...


...cmq quando dici ke in DX10 nn ti parte proprio intendi ke fa un errore o simile? se si quale?...

...potresti provare disinstallando x bene i driver e reinstallandoli...cmq dev'essere qualke problema SW d'incasinamento del s.o....alla fine in questi casi è difficile ke un "esterno" alla vicenda riesca a trovare la causa del problema e la soluzione + sbrigativa è quasi sempre un bel formattone riparatore...

...ciao


p.s.: cmq nn penso il problema sia legato a vista 64bit xkè ci son tanti altri uteni ke lo usano senza problemi...inoltre con gli 8gb d ram ke hai è praticamente improponibile d'installare il 32bit...

p.p.s.: già ke ci sto ne sparo un'altra :D il pannello dei driver lo tieni d def o hai cambiato qualke impo...nn'è ke stai x caso forzando un metodo d rendering multi-gpu incompatibile con l'applicazioni ke stai usando?...

p.p.p.s.: mi sa ke vado a nanna...in bocca al lupo ;) ...magari domani si logga qualcuno ke ne capisce e riesce a risolverti il problema :sperem: ...notte

GTO286
04-05-2008, 02:00
riciao a tutti, quoto questo mio primo messaggio perchè inizio a preoccuparmi con queste dx10.


se gioco dx9 a 1920x1600 vado bene tutto a medio con AA4x (e già questo mi lascia a dir poco deluso, speravo, col pc nuovo di giocare a tutto al massimo)

vi ringrazio...

Ciao,con che monitor/configurazione giochi a crysis a 1920x1600:mbe: ?

nefion
04-05-2008, 07:37
Ciao,con che monitor/configurazione giochi a crysis a 1920x1600:mbe: ?

ciao,

ovviamente era un errore da sonno :P 1920x1200 :) su un 24'

nefion
04-05-2008, 07:40
x qualke super idea ti tocca aspettare qualcuno meno rinco di me :D (a quest'ora poi :sofico: )...


...cmq quando dici ke in DX10 nn ti parte proprio intendi ke fa un errore o simile? se si quale?...

...potresti provare disinstallando x bene i driver e reinstallandoli...cmq dev'essere qualke problema SW d'incasinamento del s.o....alla fine in questi casi è difficile ke un "esterno" alla vicenda riesca a trovare la causa del problema e la soluzione + sbrigativa è quasi sempre un bel formattone riparatore...

sì, potrebbe essere, però sto pc ha pochi giorni cazzarola, strano che si sia incasinato il S.O.




p.s.: cmq nn penso il problema sia legato a vista 64bit xkè ci son tanti altri uteni ke lo usano senza problemi...inoltre con gli 8gb d ram ke hai è praticamente improponibile d'installare il 32bit...



agree :)


p.p.s.: già ke ci sto ne sparo un'altra :D il pannello dei driver lo tieni d def o hai cambiato qualke impo...nn'è ke stai x caso forzando un metodo d rendering multi-gpu incompatibile con l'applicazioni ke stai usando?...

ieri notte ho messo i driver beta (ho quadagnato un 1000 sui 3d mark ma niente in game). Il pannello nvidia l'ho lasciato a default quindi purtroppo non è questo



p.p.p.s.: mi sa ke vado a nanna...in bocca al lupo ;) ...magari domani si logga qualcuno ke ne capisce e riesce a risolverti il problema :sperem: ...notte

mah, speriamo :D per adesso grazie mille!

tommy.knocker
04-05-2008, 08:22
no

porca paletta, sintetizzando non esiste nessun modo per avere 2 monitor con una gx2+sli interno? accidenti non me l'aspettavo. :cry:

per caso esiste un barbatrucco per disabilitare\abilitare lo sli senza riavviare?

per fortuna che ve l'ho richiesto avevo già ordinato la seconda scheda...ma ho fatto in tempo a cancellare l'ordine.

tk

fr4nc3sco
04-05-2008, 08:54
porca paletta, sintetizzando non esiste nessun modo per avere 2 monitor con una gx2+sli interno? accidenti non me l'aspettavo. :cry:

per caso esiste un barbatrucco per disabilitare\abilitare lo sli senza riavviare?

per fortuna che ve l'ho richiesto avevo già ordinato la seconda scheda...ma ho fatto in tempo a cancellare l'ordine.

tk

be ma il prob è anche con una sola vga essendo collegata internamente in sli quindi l'unica è disabilitare 1 skeda col risultato 2 monitor prestazioni da 8800gt-s oppure 1 skermo configurazione sli

Narghile
04-05-2008, 10:08
ciao raga sto trattando una 9800 gx2 forse l'unico probblema ke sia della twintech!!!!!!!!!! voi ke dite ke sia buona è ki la provate mi dica se ha avuto probblemi!!!!!
grazie ciao:::::

fdadakjli
04-05-2008, 10:16
ciao raga sto trattando una 9800 gx2 forse l'unico probblema ke sia della twintech!!!!!!!!!! voi ke dite ke sia buona è ki la provate mi dica se ha avuto probblemi!!!!!
grazie ciao:::::

sono tutte uguali...vai tranquillo... ;)

tommy.knocker
04-05-2008, 10:40
be ma il prob è anche con una sola vga essendo collegata internamente in sli quindi l'unica è disabilitare 1 skeda col risultato 2 monitor prestazioni da 8800gt-s oppure 1 skermo configurazione sli

infatti l'ideale sarebbe avere la possibilità di attivare\disattivare lo sli senza riavviare. quando lavoro starei piu' comodo con 2 monitor mentre quando gioco non importa se l'altro viene disabilitato, l'unica scocciatura e dover sempre riavvare...

tk

fr4nc3sco
04-05-2008, 11:01
infatti l'ideale sarebbe avere la possibilità di attivare\disattivare lo sli senza riavviare. quando lavoro starei piu' comodo con 2 monitor mentre quando gioco non importa se l'altro viene disabilitato, l'unica scocciatura e dover sempre riavvare...

tk

su vista nn si riavvia! ci mette 2 min e skermo nero ma resti dentro l'os

fdadakjli
04-05-2008, 11:07
su vista nn si riavvia! ci mette 2 min e skermo nero ma resti dentro l'os

confermo... :)

tommy.knocker
04-05-2008, 11:44
confermo... :)

ok questa e' una buona notizia, sto aspettando che mi arrivi vista 64 home premium oem, sto con xp. e qui va riavviato almeno con i 174.74. fino adesso è l'unica cosa che mi spingerebbe a passare a vista, sono molto restio ad abbandonare xp...


tk

fdadakjli
04-05-2008, 11:52
ok questa e' una buona notizia, sto aspettando che mi arrivi vista 64 home premium oem, sto con xp. e qui va riavviato almeno con i 174.74. fino adesso è l'unica cosa che mi spingerebbe a passare a vista, sono molto restio ad abbandonare xp...


tk

anche l'avere 4GB di ram ti dovrebbe spingere verso Vista... ;)
è un'O.S. tutto sommato buono...l'unica pecca riguarda le prestazioni...c'è ancora molta strada da fare...ma già con l'SP1 un pò di miglioramento c'è stato...speriamo si continui così... :)

tommy.knocker
04-05-2008, 11:57
anche l'avere 4GB di ram ti dovrebbe spingere verso Vista... ;)
è un'O.S. tutto sommato buono...l'unica pecca riguarda le prestazioni...c'è ancora molta strada da fare...ma già con l'SP1 un pò di miglioramento c'è stato...speriamo si continui così... :)

hai ragione, ho preso 4gb in previsione di vista. mi stonavano le prestazioni castrate e la pesantezza dell'os in se. spero di trovarmi bene, avere xp e vista significa 4 hd per me, se rinunciassi a xp non sarebbe male. vedremo!

grazie come sempre

tk

Enochian
04-05-2008, 16:33
Dunque vorrei prendere due 9800gx2 in sli, qualcuno ha già questa configurazione? come va crysis dopo la cura sli? è realmente vantaggioso passare da una 9800gx2 a due 9800gx2 in sli?

fr4nc3sco
04-05-2008, 16:35
Dunque vorrei prendere due 9800gx2 in sli, qualcuno ha già questa configurazione? come va crysis dopo la cura sli? è realmente vantaggioso passare da una 9800gx2 a due 9800gx2 in sli?

no è il gioco che rende peggio con lo sli guadagno si ma nn miracolo e non piena fluidità a 1920x1200

Enochian
04-05-2008, 16:39
Ma sto gioco l'hanno programmato per i computer del futuro?
In ogni caso girano sulla rete filmati di test con quad sli con un rate medio di 55 fps, con minimo di 20 e massimo di 100; siccome devo fare l'investimento, mi consigliate di prendere due 9800gx2 o in generale dovendo giocare a 1900x1200 anche con altri titoli mi serve a poco?

EDORAM
04-05-2008, 17:01
Ma sto gioco l'hanno programmato per i computer del futuro?
In ogni caso girano sulla rete filmati di test con quad sli con un rate medio di 55 fps, con minimo di 20 e massimo di 100; siccome devo fare l'investimento, mi consigliate di prendere due 9800gx2 o in generale dovendo giocare a 1900x1200 anche con altri titoli mi serve a poco?


Lascia perdere il quad sli circa 900 euro NON NE VALE LA PENA!!!

La cosa che mi fa rabbia è che possedere una 9800gx2 o una 8800gt ECCETTO CRYSIS ci si fa ugualmente la stessa cosa ossia se la gt a cod4 fa 60 frame(sufficienti) la gx2 ne fa 90(sicuramente di più ma se si gioca con il vsync è la stessa cosa).

Poi quando si tratta di cacciare fuori le @@ ossia in CRYSIS, non si gioca nè con la gt ma neanche con la gx2 in very high quindi morale della favola....

1)CRYSIS ANCORA SUGLI SCAFFALI;
2)i benefici si notano ad occhio nudo in tutti i giochi solo 1920*1200 in su;
3)il quad sli fa valere la sua forza bruta soltanto a 2560*1600;


Quindi valuta un po' se ti conviene.... bè se sei impaccato di soldi e possiedi anche un 30 pollici ed esigi di giocare a 2560 TRANNE A CRYSIS, allora lo sfrutti, però sappi che fra un po' escono le nuove verie serie che sono MOLTO MENO LEGATE al resto dell'hardware e dovrebbero sgravare di molto il lavoro al sistema CPU.

Per sfruttare una 9800gx2 al 100% ci vuole un quad a 4Ghz per un quad sli credo ossia ipotizzo almeno a 4,3 ghz ci devi essere...

_fabry_
04-05-2008, 17:43
ciao ragazzi, scusate l'intrusione,
ho bisogno di un informazione che non sono riuscito a reperire in rete:
quanto consuma come ampere la 9800gx2 a default??
ve lo chiedo perche sarei molto interessato all acquisto della scheda ma per ora non ho abbastanza fondi per cambiare l'alimentatore e mi chiedevo se il mio fido liberty 500w puo bastare...
se puo servire vi dico gia che la suddetta scheda l'ho gia provata sul mio pc in firma e ho aftto girare un po il pc e un po crysis(scheda a default e priocio a 4 giga) e in quella mezz oretta di twst il pc e l'ali non hanno dato segno di cedimento...
pero se allungando i periodo di test e di game il mio ali puo reggere...
qualche consiglio, testimonianza o delucidazione????
grazie mille!!!!!

Mafio
04-05-2008, 18:40
ciao ragazzi, scusate l'intrusione,
ho bisogno di un informazione che non sono riuscito a reperire in rete:
quanto consuma come ampere la 9800gx2 a default??
ve lo chiedo perche sarei molto interessato all acquisto della scheda ma per ora non ho abbastanza fondi per cambiare l'alimentatore e mi chiedevo se il mio fido liberty 500w puo bastare...
se puo servire vi dico gia che la suddetta scheda l'ho gia provata sul mio pc in firma e ho aftto girare un po il pc e un po crysis(scheda a default e priocio a 4 giga) e in quella mezz oretta di twst il pc e l'ali non hanno dato segno di cedimento...
pero se allungando i periodo di test e di game il mio ali puo reggere...
qualche consiglio, testimonianza o delucidazione????
grazie mille!!!!!

secondo me basta.

Iantikas
04-05-2008, 19:02
ciao ragazzi, scusate l'intrusione,
ho bisogno di un informazione che non sono riuscito a reperire in rete:
quanto consuma come ampere la 9800gx2 a default??
ve lo chiedo perche sarei molto interessato all acquisto della scheda ma per ora non ho abbastanza fondi per cambiare l'alimentatore e mi chiedevo se il mio fido liberty 500w puo bastare...
se puo servire vi dico gia che la suddetta scheda l'ho gia provata sul mio pc in firma e ho aftto girare un po il pc e un po crysis(scheda a default e priocio a 4 giga) e in quella mezz oretta di twst il pc e l'ali non hanno dato segno di cedimento...
pero se allungando i periodo di test e di game il mio ali puo reggere...
qualche consiglio, testimonianza o delucidazione????
grazie mille!!!!!


basta e avanza..ciao

_fabry_
04-05-2008, 20:38
secondo me basta.

basta e avanza..ciao

grazie mille ragazzi, mi avete rincuorato, vado tranquillo sull acquisto della vga allora...
tra l'altro proprio ieri enermax mi ha fatto arrivare a casa il cavo 8 pin...
cmq grazie mille...
anche per questa vga come per tutte le altre la scelta della marca non e determinante??
sono assolutamente tutte uguali le schede??
no poiche io in genere prediligo asus...

Mafio
04-05-2008, 20:39
grazie mille ragazzi, mi avete rincuorato, vado tranquillo sull acquisto della vga allora...
tra l'altro proprio ieri enermax mi ha fatto arrivare a casa il cavo 8 pin...
cmq grazie mille...
anche per questa vga come per tutte le altre la scelta della marca non e determinante??
sono assolutamente tutte uguali le schede??
no poiche io in genere prediligo asus...

lol, io in generale non prediligo asus... :D

_fabry_
04-05-2008, 20:43
lol, io in generale non prediligo asus... :D

perche? che ti ha fatto di male? io mi sono sempre trovato bene come qualita dei prodotti, bundle e accessori e servizio post vendita... tu quale prenderesti??

Enochian
04-05-2008, 20:46
Grazie della risposta, allora credo che prenderò un sistema non sli, con una sola 9800gx2... però la tentazione di prendere la 790i con due geforce è forte, visto che almeno con crysis spaccano ( una media di 50 fps è moltissimo ).
Il processore che ho scelto è un qx9650, cloccabile fino a 4G per quello che mi riguarda, quindi le sfrutterò a dovere.

Mafio
04-05-2008, 20:48
perche? che ti ha fatto di male? io mi sono sempre trovato bene come qualita dei prodotti, bundle e accessori e servizio post vendita... tu quale prenderesti??

le mobo asus vdroppano da far schifo...io con la mobo in firma ho 0 vdrop.

tornando in topic direi che una vale l'altra, tanto sono tutte uguali.

Johncook
05-05-2008, 12:37
ragazzi per sfruttare appieno la gx2 secondo voi conviene che passo dal mio 19" asus pg191 ad un iiyama ProLite B2403WS-1??? ce la fa il pc in firma??? crysis su high a quanti fps andrà???grazie a tutti

Mafio
05-05-2008, 12:38
ragazzi per sfruttare appieno la gx2 secondo voi conviene che passo dal mio 19" asus pg191 ad un iiyama ProLite B2403WS-1??? ce la fa il pc in firma??? crysis su high a quanti fps andrà???grazie a tutti

su un 19 la 9800gx2 è sprecatissima...

Johncook
05-05-2008, 12:42
su un 19 la 9800gx2 è sprecatissima...

si ho capito...ma volevo sapere se il pc in firma ce la fa o se ci serve una cpu a 3.6-3.8 nn so...

Mafio
05-05-2008, 12:44
si ho capito...ma volevo sapere se il pc in firma ce la fa o se ci serve una cpu a 3.6-3.8 nn so...

ce la fa...

robertino75
05-05-2008, 12:47
si ho capito...ma volevo sapere se il pc in firma ce la fa o se ci serve una cpu a 3.6-3.8 nn so...

se intendi per giocare...certo che ce la fà...se poi parli del 3dpork piu vai su di cpu e "meglio" è.....
una scheda come questa ha bisogno di un fullhd....:D

Johncook
05-05-2008, 12:51
ok allora lo prendo... giusto per una info... come monitor quello che ho scelto come lo vedete?(iiyama ProLite B2403WS-1)
c'è di meglio??lo so che siamo un po o.t. ma avrei bisogno di un consiglio per spremere sta gpu e mi sembra più appropriato questo thread di quello dell'iiyama..

robertino75
05-05-2008, 13:16
ok allora lo prendo... giusto per una info... come monitor quello che ho scelto come lo vedete?(iiyama ProLite B2403WS-1)
c'è di meglio??lo so che siamo un po o.t. ma avrei bisogno di un consiglio per spremere sta gpu e mi sembra più appropriato questo thread di quello dell'iiyama..

vedendo le caratteristiche tecniche sembra molto buono come schermo.

Informazioni generali :

Colore 16,7 milioni di colori
Risoluzione 1920 x 1200
Luminosità 300 cd/m²
Contrasto 2000:1 DCR
Angolo visualizzazione orizzontale/verticale 170/160
Tempo di risposta 2 ms
Ingressi video 1 x D-Sub
1 x HDMI
Frequenza della pagina Orizzontale: 31-83 kHz
Verticale: 56-75 Hz
Altoparlanti audio 2 x 2W
Consumo massimo 65W (in utilizzo), 2W (in stand by)
Dimensioni 566 x 458,5 x 191,5 mm
Peso 6,5 kg

Johncook
05-05-2008, 14:10
costa intorno ai 400 euro...pensate si possa fare o c'è di meglio intorno a quel prezzo?

robertino75
05-05-2008, 14:16
costa intorno ai 400 euro...pensate si possa fare o c'è di meglio intorno a quel prezzo?

fare una ricerca per informarti no?:D
o aspetti che gli altri la facciano per te?:p
apparte gli scherzi...come schermo mi sembra molto buono...io il mio l'ho pagato 485€ ed è buono anche questo....anche se quello postato da te ha un tempo di risposta migliore...2ms contro i 5ms del mio.
esteticamente mi piace più il mio HP....ma questi sò gusti....boh fai una ricerca di vari monitor a 24" e vedi quale ti piace di piu a te :D
tanto le caratteristiche importanti sono :

1)tempo di risposta
2)contrasto
3)rapporto 1:1(in caso lo volessi utilizzare anche per le console 360 o ps3)
4)collegamenti presenti...di solito HDMI e VGA
5)bellezza estetica...questa ovviamente è soggettiva

ciao :D

_fabry_
05-05-2008, 19:34
le mobo asus vdroppano da far schifo...io con la mobo in firma ho 0 vdrop.

tornando in topic direi che una vale l'altra, tanto sono tutte uguali.

grazie mille per la info e cmq per la vdrop della mobo nel piu dei casi basta una matita... io con le asus mi sono sempre trovato da dio...
il mio dilemma era per la vga ma se mi dite che sono tutte le medesime...
per esempio nel caso della mia 8800 ci sono case che non implementano ad esempio il sensore della temperatura per ridurre i costi..
correggetemi se sbaglio.,..

m_w returns
05-05-2008, 20:07
le mobo asus vdroppano da far schifo...io con la mobo in firma ho 0 vdrop.

tornando in topic direi che una vale l'altra, tanto sono tutte uguali.

dipende...c'è mobo e mobo...

Mafio
05-05-2008, 20:08
dipende...c'è mobo e mobo...

le p5k per esempio sono scandalose e anche le altre non eccellono certo sotto questo punto di vista.

robertino75
05-05-2008, 20:10
le p5k per esempio sono scandalose e anche le altre non eccellono certo sotto questo punto di vista.

effettivamente il vdrop con le p5k è scandaloso...fortuna che si può fare la pencil mod...ora ho un vdrop pari a 0...certo rode un pò a doverselo fare da soli quando dovrebbe essere cosi standard.

cristian-BG
05-05-2008, 20:13
salve scusate qualcuno di voi ha la 9800gx2 su una scheda con chipset x48? meglio se dfi? :) mi è stato detto che un tizio l'ha venduta xè nn è compatibile.. anche se dubito altamente della cosa è possibile una incompatibilità ??? :mbe:

Mafio
05-05-2008, 20:19
salve scusate qualcuno di voi ha la 9800gx2 su una scheda con chipset x48? meglio se dfi? :) mi è stato detto che un tizio l'ha venduta xè nn è compatibile.. anche se dubito altamente della cosa è possibile una incompatibilità ??? :mbe:

edit: forse qualche problemino c'è. :stordita:

http://www.xtremesystems.org/forums/showthread.php?p=2840300

m_w returns
05-05-2008, 20:20
le p5k per esempio sono scandalose e anche le altre non eccellono certo sotto questo punto di vista.

della serie P5K ho avuto la P5K3 Deluxe che non Vdroopava...la P5K Premium che Vdroppava un pochino ma solo parlando di tensione applicata e tensione effettiva...perchè poi idle e full non si abbassava nemmeno di 1 mv. Poi le varie Maximus sono proprio un altro pianeta! Anche se quasi quasi la migliore (senza nessuna mod) è stata proprio la P5K3 Dlx.

cristian-BG
05-05-2008, 21:14
ora nn so piu cosa fare.. nn so se prendere sta scheda o cambiare tipo di scheda madre devo prendere una dfi x48... ma che problemi danno che nn so l'inglese io??????? :doh: :doh: :doh: :doh: le mobo con chipset 790 che problemi danno? nn overclocco molto

Mafio
05-05-2008, 21:19
ora nn so piu cosa fare.. nn so se prendere sta scheda o cambiare tipo di scheda madre devo prendere una dfi x48... ma che problemi danno che nn so l'inglese io??????? :doh: :doh: :doh: :doh: le mobo con chipset 790 che problemi danno? nn overclocco molto

ma tenere la mobo di adesso no??? :stordita:

cristian-BG
05-05-2008, 21:23
ma tenere la mobo di adesso no??? :stordita:

enno l'ho regalato a mio fratello questo pc :) io sono a piedi :doh: :D

mas201
05-05-2008, 21:32
sapete dirmi se sta scheda video scalda tanto e se e' compatibile con la mainboard intel p5E3 Deluxe? ultima cosa ma come mai sta scheda e' piu' potente della gtx 9800 e ha pero' il clock inferiore questa da 600 e la minore mi sembra 625 di clock come e' possibile?

grazie ciao

Flyflot
05-05-2008, 21:53
Ciao a tutti
interessato all'acquisto di questa scheda, il mio alimentatore non ha il molex a 8 Pin ma solo quellia 6.
Funziona lo stesso se ne metto2 da sei oppure devo cambiare alimentatore?
Non esiste un'adattatore 6-8?
Grazie.
Andrea

joyfel
05-05-2008, 22:18
Ciao a tutti
interessato all'acquisto di questa scheda, il mio alimentatore non ha il molex a 8 Pin ma solo quellia 6.
Funziona lo stesso se ne metto2 da sei oppure devo cambiare alimentatore?
Non esiste un'adattatore 6-8?
Grazie.
Andrea

Io ho provato ma con due alimentazioni a 6 pin la scheda non funziona. L'unico adattatore che ho trovato è per gli alimentatori modulari della serie enermax.

mas201
05-05-2008, 22:47
su un 19 la 9800gx2 è sprecatissima...


scusa pensi sia sprecata per la risoluzione?

se si non sono d'accordo, quanti giochi si possono eseguire a + di 1440 x900 antialiasing max anisotropico 16 dettagli e filtri alti in dtx 10? e che girano fluidissmi? ma fluidi , dimmeli parlo di giochi tipo crysis , assasins creed, gothic 3 , bioshock


io penso che se si voglia sfuttare la grandezza schermo bene, se invece voglio vedere la risoluzione x me e' inutile comprare un mega monitor che arriva a 1920 ..... sapendo che a quella risoluzione non potro' mai giocarci ..

se ho capito male allora fa niente

robertino75
05-05-2008, 22:51
scusa pensi sia sprecata per la risoluzione?

se si non sono d'accordo, quanti giochi si possono eseguire a + di 1440 x900 antialiasing max anisotropico 16 dettagli e filtri alti in dtx 10? e che girano fluidissmi? ma fluidi , dimmeli parlo di giochi tipo crysis , assasins creed, gothic 3 , bioshock


io penso che se si voglia sfuttare la grandezza schermo bene, se invece voglio vedere la risoluzione x me e' inutile comprare un mega monitor che arriva a 1920 ..... sapendo che a quella risoluzione non potro' mai giocarci ..

se ho capito male allora fa niente

io ci gioco :stordita:

mas201
05-05-2008, 22:55
anch'io sto giocando a assasins creed basta accontentarsi:stordita:

NOOB4EVER
06-05-2008, 01:21
anch'io sto giocando a assasins creed basta accontentarsi:stordita:

azz,io non riesco ad accontentarmi :muro:

Mafio
06-05-2008, 08:13
scusa pensi sia sprecata per la risoluzione?

se si non sono d'accordo, quanti giochi si possono eseguire a + di 1440 x900 antialiasing max anisotropico 16 dettagli e filtri alti in dtx 10? e che girano fluidissmi? ma fluidi , dimmeli parlo di giochi tipo crysis , assasins creed, gothic 3 , bioshock


io penso che se si voglia sfuttare la grandezza schermo bene, se invece voglio vedere la risoluzione x me e' inutile comprare un mega monitor che arriva a 1920 ..... sapendo che a quella risoluzione non potro' mai giocarci ..

se ho capito male allora fa niente

perchè la differenza tra aa 4x e 16x non la si nota e perchè a 1280*1024 aa4x e af 16x ci giochi anche con una 8800gt.
poi se compri questa vga pensando di poter giocare a crysis con i filtri...

nefion
06-05-2008, 09:29
ririciao,

purtroppo vedo che nessuno ha un'idea per risolvere il mio problema :muro:

giro la domanda in modo da farmi un'idea più chiara:

con la mia configurazione (quad core q9300 @3000, 8gb ram @800, 2 dischi 7200 in raid 0 e la 9800gx2) a che livello dovrei poter far girare crysis?

Parlo di dx 10 e vorrei usare la 1920x1200 come risoluzione.


thanks per le risposte,

halduemilauno
06-05-2008, 09:50
ririciao,

purtroppo vedo che nessuno ha un'idea per risolvere il mio problema :muro:

giro la domanda in modo da farmi un'idea più chiara:

con la mia configurazione (quad core q9300 @3000, 8gb ram @800, 2 dischi 7200 in raid 0 e la 9800gx2) a che livello dovrei poter far girare crysis?

Parlo di dx 10 e vorrei usare la 1920x1200 come risoluzione.


thanks per le risposte,

VH.
;)

nefion
06-05-2008, 09:52
VH.
;)

tutto al massimo con quindi almeno 25/30 fps intendi?

halduemilauno
06-05-2008, 09:55
tutto al massimo con quindi almeno 25/30 fps intendi?

si esatto. magari oc la scheda se non lo hai gia fatto e saranno + 30 che 25.
;)

nefion
06-05-2008, 09:56
si esatto. magari oc la scheda se non lo hai gia fatto e saranno + 30 che 25.
;)

il mio problema è che dx 10 con i settings che dici tu mi va a 3 fps, quando parte.
E non riesco a capire perchè (vorrei arrivare a 20fps prima di overcloccare)

halduemilauno
06-05-2008, 10:06
il mio problema è che dx 10 con i settings che dici tu mi va a 3 fps, quando parte.
E non riesco a capire perchè (vorrei arrivare a 20fps prima di overcloccare)

se con la scheda video + potente al mondo fai tre significa che hai grossi problemi. magari hai i filtri attivati controlla il pannello controllo. che driver usi hai i 175?
;)

nefion
06-05-2008, 10:06
se con la scheda video + potente al mondo fai tre significa che hai grossi problemi. magari hai i filtri attivati controlla il pannello controllo. che driver usi hai i 175?
;)

scusa cosa intendi con "magari hai i filtri attivati"? sono niubbino..

Mafio
06-05-2008, 10:08
scusa cosa intendi con "magari hai i filtri attivati"? sono niubbino..

dai driver nvidia puoi impostare di forzare i filtri in tutte le applicazioni 3d, controlla e nel caso imposta "controllato dall'applicazione"

nefion
06-05-2008, 11:06
dai driver nvidia puoi impostare di forzare i filtri in tutte le applicazioni 3d, controlla e nel caso imposta "controllato dall'applicazione"

è impostato giusto. Ma quando mi dicevi tutto al massimo intendevi anche AA16x?

Mafio
06-05-2008, 11:11
è impostato giusto. Ma quando mi dicevi tutto al massimo intendevi anche AA16x?

dove ho detto tutto al massimo???

nefion
06-05-2008, 11:12
dove ho detto tutto al massimo???

scusa, ho quotato te ma me l'aveva detto halduemilano..

halduemilauno
06-05-2008, 11:34
scusa, ho quotato te ma me l'aveva detto halduemilano..

io ho detto di controllare se avevi i filtri attivati. se attivi disattivali.
;)

nefion
06-05-2008, 11:36
io ho detto di controllare se avevi i filtri attivati. se attivi disattivali.
;)

no spe,

una cosa è controllare se sto forzando i filtri da pannello di controllo nvidia e un'altra è impostare l'AA nel client di Crysis.

Ho controllato nel pannello che l'AA è controllato dall'applicazione. A questo punto vorrei capire se gli fps di cui mi parlavi tu erano con l'AA di Crysis a zero o al massimo :)

thanks

Mafio
06-05-2008, 11:38
no spe,

una cosa è controllare se sto forzando i filtri da pannello di controllo nvidia e un'altra è impostare l'AA nel client di Crysis.

Ho controllato nel pannello che l'AA è controllato dall'applicazione. A questo punto vorrei capire se gli fps di cui mi parlavi tu erano con l'AA di Crysis a zero o al massimo :)

thanks

a crysis ci giochi a 30fps forse senza aa...con l'aa a 4x se ne fai la metà già va bene.

nefion
06-05-2008, 11:39
a crysis ci giochi a 30fps forse senza aa...con l'aa a 4x se ne fai la metà già va bene.

ah capisco.. io tenevo AA a 16x. Appena torno a casa faccio una prova senza AA. Però a sto punto non è tutto al massimo e per giocarlo davvero al massimo ci vuole il pc della nasa..

halduemilauno
06-05-2008, 11:50
no spe,

una cosa è controllare se sto forzando i filtri da pannello di controllo nvidia e un'altra è impostare l'AA nel client di Crysis.

Ho controllato nel pannello che l'AA è controllato dall'applicazione. A questo punto vorrei capire se gli fps di cui mi parlavi tu erano con l'AA di Crysis a zero o al massimo :)

thanks

ovviamente a zero.
;)

mas201
06-05-2008, 11:59
perchè la differenza tra aa 4x e 16x non la si nota e perchè a 1280*1024 aa4x e af 16x ci giochi anche con una 8800gt.
poi se compri questa vga pensando di poter giocare a crysis con i filtri...


scusa il problema e' che dovrei prendere un nuovo pc e mi consigliano x il mio monitor di nn prendere questa

siccome volevo fare una spesa duratura magari tra 6 mesi escono dei giochi che a1024 x 768 con i max dett. che sono graficamente migliori di una risoluz. esagerata di oggi . ho il dubbio lo ammetto ma se il budget e' quello voi a priori prendereste una sk video che va alla meta' x un monitor + grande? magari sbaglio io e'?

es. ora ho crisys e altri giochi che a palla a 1024 manco girano avessi na sck piu' potente ?!
ultima cosa le 8800 sono dei forni crematori

mas201
06-05-2008, 12:09
edit: forse qualche problemino c'è. :stordita:

http://www.xtremesystems.org/forums/showthread.php?p=2840300


non ho capito bene allora non e' compatibile prorprio quel chipset con questa scheda?

cristian-BG
06-05-2008, 12:26
non ho capito bene allora non e' compatibile prorprio quel chipset con questa scheda?

nemmeno io c capisco.. ho mandato una mail supporto tecnico alla dfi x sapere se la x48 supporta la 9800gx2...
ma molti cmq hanno la asus rampage x48 e la 9800gx2 nn capisco che problemi siano xò visto che nn so l'inglese :doh: :muro:

cristian-BG
06-05-2008, 12:42
appena arrivata la risposta di dfi riguardo al supporto con il chipset x48

I see no reason why a 9800GX2 card can not work on this board. The PCIE x 16 slot on this board is 2.0 compliant
:)

Mafio
06-05-2008, 12:45
appena arrivata la risposta di dfi riguardo al supporto con il chipset x48

I see no reason why a 9800GX2 card can not work on this board. The PCIE x 16 slot on this board is 2.0 compliant
:)

ma tu hai capito che cosa ti ha detto nella risposta???

mas201
06-05-2008, 13:11
ma tu hai capito che cosa ti ha detto nella risposta???



italian please:cry:

Mafio
06-05-2008, 13:47
italian please:cry:

I see no reason why a 9800GX2 card can not work on this board. The PCIE x 16 slot on this board is 2.0 compliant

dice che non vede il motivo per cui la vga non dovrebbe andare su quella mobo e dice che gli slot pci-e 16x sono 2.0...

questo però lo sapevamo anche prima della sua illuminazione. :rolleyes:

holydio
06-05-2008, 14:57
Procio Deafult :

http://img363.imageshack.us/img363/111/schermosingolozv0.jpg

Come vedete in Sign :

http://img337.imageshack.us/img337/4492/configdefaultoclv5.jpg

Mafio
06-05-2008, 15:00
Procio Deafult :

http://img363.imageshack.us/img363/111/schermosingolozv0.jpg

Come vedete in Sign :

http://img337.imageshack.us/img337/4492/configdefaultoclv5.jpg

mica male.

holydio
06-05-2008, 15:10
Grazie! :)
L'incremento è notevole come punteggio considerando che a scheda sli off si arriva default a 14500... e con sli on 16700...

halduemilauno
06-05-2008, 15:15
Procio Deafult :

http://img363.imageshack.us/img363/111/schermosingolozv0.jpg

Come vedete in Sign :

http://img337.imageshack.us/img337/4492/configdefaultoclv5.jpg

ottimo.
;)

Mafio
06-05-2008, 15:17
Grazie! :)
L'incremento è notevole come punteggio considerando che a scheda sli off si arriva default a 14500... e con sli on 16700...

ma il procio lo hai ad aria???

holydio
06-05-2008, 15:20
ma il procio lo hai ad aria???

Si ad aria. Non scalda nulla sto penryn...
32 gradi in idle e una 50 ina in full sotto oc.

Mafio
06-05-2008, 15:21
Si ad aria. Non scalda nulla sto penryn...
32 gradi in idle e una 50 ina in full sotto oc.

clocca ancora sto procio. :sofico:

nefion
06-05-2008, 15:27
ovviamente a zero.
;)

poi non vi rompo + sorry. Ma per voi è meglio giocare dx9 coi filtri o dx 10 senza? a livello di impatto grafico ovviamente..

non riesco a fare la prova perchè sono in Turchia, ma ho paura di avere tante seghettature con AA a zero.. sbaglio?

halduemilauno
06-05-2008, 15:30
poi non vi rompo + sorry. Ma per voi è meglio giocare dx9 coi filtri o dx 10 senza? a livello di impatto grafico ovviamente..

non riesco a fare la prova perchè sono in Turchia, ma ho paura di avere tante seghettature con AA a zero.. sbaglio?

a 1920x1200 l'aa è meno necessario cmq in tutti i casi massimo 4x. massimo ma in crisys ti giochi la giocabilità.
;)

Mafio
06-05-2008, 15:39
poi non vi rompo + sorry. Ma per voi è meglio giocare dx9 coi filtri o dx 10 senza? a livello di impatto grafico ovviamente..

non riesco a fare la prova perchè sono in Turchia, ma ho paura di avere tante seghettature con AA a zero.. sbaglio?

l'aliasing lo vedi molto negli screenshot, in game non è che si noti poi così tanto.

smoicol
06-05-2008, 17:30
volevo sapere come va sta vga,
meglio questa o lo sli di 8800?
prestazioni e consumi

Mafio
06-05-2008, 17:31
volevo sapere come va sta vga,
meglio questa o lo sli di 8800?
prestazioni e consumi

precisa che 8800.

comunque in ogni caso direi meglio questa per via dei consumi più bassi.

smoicol
06-05-2008, 17:33
precisa che 8800.

comunque in ogni caso direi meglio questa per via dei consumi più bassi.

8800 gtx

Mafio
06-05-2008, 17:36
8800 gtx

leggi questa recensione

http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_4.html

smoicol
06-05-2008, 17:43
letta, e sinceramente non so che fare

Mafio
06-05-2008, 17:46
letta, e sinceramente non so che fare

9800gx2 senza nessun dubbio, va più forte e consuma meno.

smoicol
06-05-2008, 17:53
vorrei un parere per chi l'ha provata con crysis

timothy
06-05-2008, 20:40
vorrei un parere per chi l'ha provata con crysis
crysis appena finito, giocato a 1920x1200, dx10, senza filtri, dettagli medio/alti
uno spettacolo, te la consiglio sicuramente

Skullcrusher
07-05-2008, 07:30
Sono usciti i forceware 175.16 :)

D4N!3L3
07-05-2008, 08:23
Sono usciti i forceware 175.16 :)

Stavo per dirlo io, qualcuno li ha provati? :)

fr4nc3sco
07-05-2008, 11:26
Stavo per dirlo io, qualcuno li ha provati? :)

ma io sono hai 175.63 che ci sono su guru se riesco stasera li istallo

magic carpet
07-05-2008, 15:16
Ma a quanto la tenete la ventola con il direct control di RivaTuner?
Ho cercato nel post ma non ho trovato risposte.

Grazie
M_C

Johncook
07-05-2008, 17:51
ho una domanda da farvi... in crysis con la gx2 è possibile che si abbassino i frame se c'è poca ram?no perchè ho dovuto togliere 2gb da mandare in assistenza e nel pezzo di assalt dove la grafica è complessa mi capita che si abbassa di frame tanto da scattare con impostaz su high ed il pc in firma...ora ho 2gb di ram.inoltre da everest in gioco leggo che le ram sono utilizzate per il 90% così da confermare la mia tesi...grazie per le risp

smoicol
07-05-2008, 19:09
ho letto che questa vga con i chipset intel x38 e x48 non vada bene, confermate o smentite?

EDORAM
07-05-2008, 22:54
ho letto che questa vga con i chipset intel x38 e x48 non vada bene, confermate o smentite?




Smentisco alla grande possiedo un' asus maximus formula con intel x38 e q6600 g0 a 3,8ghz e vga a 702-2214 e shaders a 1728 ottengo 20200 al 3dmark06, per quanto riguarda crysis ragazzi ho provatu un po' gli ultimi driver e udite udite:


I peggiori sono i 175.16, meglio lasciare i 175.12, mentre i migliori in assoluto sono i 175.63 facendo dei testi a parita' di impostazioni a 1920*1200 tutto su very high tranne post processing su high benchmark gpu ripetuto per 10 volte:


175.12------------------>3684,222222222222

175.16------------------>3431

175.63------------------>3936,88888888888

smoicol
07-05-2008, 23:02
Smentisco alla grande possiedo un' asus maximus formula con intel x38 e q6600 g0 a 3,8ghz e vga a 702-2214 e shaders a 1728 ottengo 20200 al 3dmark06, per quanto riguarda crysis ragazzi ho provatu un po' gli ultimi driver e udite udite:


I peggiori sono i 175.16, meglio lasciare i 175.12, mentre i migliori in assoluto sono i 175.63 facendo dei testi a parita' di impostazioni a 1920*1200 tutto su very high tranne post processing su high benchmark gpu ripetuto per 10 volte:


175.12------------------>3684,222222222222

175.16------------------>3431

175.63------------------>3936,88888888888

Era quello che volevo leggere, adesso aspetto qualche altro utente, comunque ci dovrei azzeccare ilmio qx9650, spero che lo supporti per un oc decente

DarkNiko
08-05-2008, 10:43
Io mi permetto di dissentire da questa analisi. Ho provato sia i 175.16 che i 175.63 e nel mio caso mi trovo meglio con i primi.

Sinceramente a Crysis non ho notato differenze. Usando la sintassi "r_displayinfo 1" per visualizzare i frames in tempo reale
(un pò come funziona Fraps) totalizzo lo stesso numero di fps.

Tuttavia ad Assassin's Creed vanno meglio i 175.16 (con i 175.63 ci sono dei microscatti).

Infine, giusto per dovere di cronaca, con i 175.16 e RivaTuner si leggono correttamente le temperature di entrambe le GPU (stessa cosa su Everest dove finalmente vengono riportate correttamente tutte le informazioni, 10 in totale, sulle 2 gpu), cosa che non è mai stata resa possibile nè con i drivers precedenti ai 175.16 nè con i 175.63.

Vi è anche da aggiungere, in ultima analisi, che i 175.63 sono dei drivers pensati per la serie Mobile (infatti il file inf originario non contempla le schede video come la 8800 GTX, Ultra, 9800 GTX, GX2 etc etc).
Il fatto che su guru3d li abbiano postati è perchè il solito "guru" ha modificato il file inf all'occorrenza adattando, di fatto, drivers pensati per altri tipi di schede.

Poi, per carità, è un mio umile giudizio, però se qualcuno ricerca il meglio, secondo me i 175.16 sono superiori. ;)

smoicol
08-05-2008, 11:20
Io mi permetto di dissentire da questa analisi. Ho provato sia i 175.16 che i 175.63 e nel mio caso mi trovo meglio con i primi.

Sinceramente a Crysis non ho notato differenze. Usando la sintassi "r_displayinfo 1" per visualizzare i frames in tempo reale
(un pò come funziona Fraps) totalizzo lo stesso numero di fps.

Tuttavia ad Assassin's Creed vanno meglio i 175.16 (con i 175.63 ci sono dei microscatti).

Infine, giusto per dovere di cronaca, con i 175.16 e RivaTuner si leggono correttamente le temperature di entrambe le GPU (stessa cosa su Everest dove finalmente vengono riportate correttamente tutte le informazioni, 10 in totale, sulle 2 gpu), cosa che non è mai stata resa possibile nè con i drivers precedenti ai 175.16 nè con i 175.63.

Vi è anche da aggiungere, in ultima analisi, che i 175.63 sono dei drivers pensati per la serie Mobile (infatti il file inf originario non contempla le schede video come la 8800 GTX, Ultra, 9800 GTX, GX2 etc etc).
Il fatto che su guru3d li abbiano postati è perchè il solito "guru" ha modificato il file inf all'occorrenza adattando, di fatto, drivers pensati per altri tipi di schede.

Poi, per carità, è un mio umile giudizio, però se qualcuno ricerca il meglio, secondo me i 175.16 sono superiori. ;)


ti ringrazio per il tuo parere, anche perchè è giusto quantificare per capire se realmente questa vga va o non va, io la devo accoppiare ad un chipset intel, e fino ad oggi ho letto poco di buono con questo mix intel\nvidia, per questo prima di avventarmi voglio capire se faccio bene o male.

holydio
08-05-2008, 11:42
Ho un problema. Quando swiccio su tv HD rimanendo su un solo schermo e mantenendo quindi il multi GPU non posso vedere i filmati ne tantomeno giocare, quando faccio partire le applicazioni rimane lo scermo nero... Come è possibile sta cosa? I filmati su youtube su tv li vedo ma non a schermo intero...

DarkNiko
08-05-2008, 12:02
ti ringrazio per il tuo parere, anche perchè è giusto quantificare per capire se realmente questa vga va o non va, io la devo accoppiare ad un chipset intel, e fino ad oggi ho letto poco di buono con questo mix intel\nvidia, per questo prima di avventarmi voglio capire se faccio bene o male.

Su una Asus Maximus Formula la VGA va benissimo, non ho mai avuto problemi, se non quelli legati all'inizio a drivers ancora un pò immaturi, ma dai 174.74 è stato un crescendo.

Il fatto è che la VGA è cmq sempre uno SLI, quindi ha i potenziali problemi tipici dello SLI con alcuni titoli (per fortuna risolti in buona parte).

Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.

Al max cerca di ispirarti a qualche configurazione tipo di quelle che vedi tra le varie firme degli utenti che popolano questo threads, e sono molti. ;)

smoicol
08-05-2008, 12:09
Su una Asus Maximus Formula la VGA va benissimo, non ho mai avuto problemi, se non quelli legati all'inizio a drivers ancora un pò immaturi, ma dai 174.74 è stato un crescendo.

Il fatto è che la VGA è cmq sempre uno SLI, quindi ha i potenziali problemi tipici dello SLI con alcuni titoli (per fortuna risolti in buona parte).

Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.

Al max cerca di ispirarti a qualche configurazione tipo di quelle che vedi tra le varie firme degli utenti che popolano questo threads, e sono molti. ;)

grazie darkniko,
beh parlavo con angie che ha la p5e3 con x48 e ddr3 e mi diceva che con quella mobo ha trovato problemi con la 9800 gx2, beh io ero indirizzato a x48 e ddr3, perchè ho già le ddr3

DarkNiko
08-05-2008, 12:20
grazie darkniko,
beh parlavo con angie che ha la p5e3 con x48 e ddr3 e mi diceva che con quella mobo ha trovato problemi con la 9800 gx2, beh io ero indirizzato a x48 e ddr3, perchè ho già le ddr3

X48 non ha controindicazioni. Ho un amico che la 9800GX2 su una Rampage Formula, quindi X48 anche se usa le DDR2. Non conosco, nello specifico, la P5E3, per cui valuta bene. Al max potresti prendere una Maximus Extreme che ha il supporto alle DDR3 ma credo monti l'X38.

Cmq, per curiosità, che tipo di problemi ha angie con la GX2 ?

smoicol
08-05-2008, 12:32
X48 non ha controindicazioni. Ho un amico che la 9800GX2 su una Rampage Formula, quindi X48 anche se usa le DDR2. Non conosco, nello specifico, la P5E3, per cui valuta bene. Al max potresti prendere una Maximus Extreme che ha il supporto alle DDR3 ma credo monti l'X38.

Cmq, per curiosità, che tipo di problemi ha angie con la GX2 ?

mi ha detto che non andava, tipo che lo sli era abilitato ma poi come se non fungesse, però gli devo chiedere se la vga avesse qualche problema, perchè non gli è l'ho chiesto, comunque un altro utente mi ha detto che ha fatto 22080 punti al 3d06, devo valutare, è strano comunque perchè tra x38 e x48 non vedo differenze strutturali.

GTO286
08-05-2008, 12:41
[QUOTE=DarkNiko
Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.

Ciao e bentornato:) ,
non ho letto molto sulla 9900,mi dici che la gtx sarà singola gpu,sai/sapete se anche l'ipotetica 9900GX2 sarà a singola gpu?

Skullcrusher
08-05-2008, 12:49
[QUOTE=DarkNiko
Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.

Ciao e bentornato:) ,
non ho letto molto sulla 9900,mi dici che la gtx sarà singola gpu,sai/sapete se anche l'ipotetica 9900GX2 sarà a singola gpu?

Se mai ci sarà una 9900GX2, sarà unicamente una dual gpu, altrimenti non è una GX2 ;)

smoicol
08-05-2008, 12:51
ciao Skull,
come ti trovi con la tua mobo e questa vga?

GTO286
08-05-2008, 12:53
[QUOTE=GTO286;22360652]

Se mai ci sarà una 9900GX2, sarà unicamente una dual gpu, altrimenti non è una GX2 ;)

:doh:
Già il nome lo diceva:muro:

Giusta delucidazione:)

Skullcrusher
08-05-2008, 12:56
ciao Skull,
come ti trovi con la tua mobo e questa vga?

Divinamente. Zero problemi, la scheda si overclocca a meraviglia e rispetto all'8800GTX le prestazioni sono quasi raddoppiate in alcuni titoli, non mi posso di certo lamentare :D

L'unico difetto è che per sfruttarla al meglio bisogna abituarsi a settare per benino i profili per i vari giochi.

smoicol
08-05-2008, 12:58
Divinamente. Zero problemi, la scheda si overclocca a meraviglia e rispetto all'8800GTX le prestazioni sono quasi raddoppiate in alcuni titoli, non mi posso di certo lamentare :D

L'unico difetto è che per sfruttarla al meglio bisogna abituarsi a settare per benino i profili per i vari giochi.

azz tipo come si fà con ati? ogni gioco si deve settare? no, dai non mi piace

Skullcrusher
08-05-2008, 13:01
azz tipo come si fà con ati? ogni gioco si deve settare? no, dai non mi piace

No, puoi anche lasciare tutto a default, ma la GX2 è sostanzialmente uno Sli, in quanto tale se provi a forzare il rendering a fotogramma alternato 2 o altre opzioni noti che le prestazioni cambiano, inoltre alcuni giochi ( come Test Drive Unlimited ) necessitano di qualche prova per farli funzionare al meglio. Niente di esasperante, giusto 10 min di test e poi via :asd:

holydio
08-05-2008, 13:54
Ho un problema. Quando swiccio su tv HD rimanendo su un solo schermo e mantenendo quindi il multi GPU non posso vedere i filmati ne tantomeno giocare, quando faccio partire le applicazioni rimane lo scermo nero... Come è possibile sta cosa? I filmati su youtube su tv li vedo ma non a schermo intero...

mi quoto, ultimi driver ufficiali non beta installati.

angie
08-05-2008, 14:15
grazie darkniko,
beh parlavo con angie che ha la p5e3 con x48 e ddr3 e mi diceva che con quella mobo ha trovato problemi con la 9800 gx2, beh io ero indirizzato a x48 e ddr3, perchè ho già le ddr3

quoto, non ho ancora chiaro se dipendesse dalla scheda che comunque si è dimostrata perfettamente funzionate sulla configurazione di un altro utente, ma io con la mamma x48 ho avuto problemi (come se sfruttassi una scheda singola); in ogni caso (perdonatemi l'ot) ti suggerisco di dare un'occhiata sul forum della asus p5e3-premium sul sito della asus;)

Johncook
08-05-2008, 14:16
ragazzi che monitor 24" mi consigliate per spremere la gx2? l'iiyama prolite b24 o il nuovo benq che sta per uscire v2400w(molto ma molto bello)???help me please!!!!

Mafio
08-05-2008, 14:21
ragazzi che monitor 24" mi consigliate per spremere la gx2? l'iiyama prolite b24 o il nuovo benq che sta per uscire v2400w(molto ma molto bello)???help me please!!!!

per i monitor c'è la sezione adatta... :)

Johncook
08-05-2008, 14:42
lo so ma nn sto ottenendo tutto sto supporto :cry:

genius
08-05-2008, 20:22
Come faccio a collegare il connettore a 8 pin dato che ilo mio connettore e' un 6 pin +2 ed il gancino centrale non entra nel foro ma sta leggermente a sinistra? potrei staccarlo ma se conoscete un altra soluzione e' meglio grazie

Dezio
08-05-2008, 20:32
lo so ma nn sto ottenendo tutto sto supporto :cry:
io ho lo iiyama 24" e va più che bene :)

javiersousa
08-05-2008, 22:35
quoto, non ho ancora chiaro se dipendesse dalla scheda che comunque si è dimostrata perfettamente funzionate sulla configurazione di un altro utente, ma io con la mamma x48 ho avuto problemi (come se sfruttassi una scheda singola); in ogni caso (perdonatemi l'ot) ti suggerisco di dare un'occhiata sul forum della asus p5e3-premium sul sito della asus;)

pure a me da la sensezione che stia sfruttando una scheda singola !!!!! per cortesia mi date il numero di frames che fa in qualunque gioco cosi da poterlo provare anche io !!!!! si ostenta a non far più di 11000 punti al 3dmark06 (premetto che il punteggio è stato ottenuto con un e6600 e ancora devo montare il q9450 !!!) aiutatemi, la scheda madre centra qualche cosa (è aggiornata al bios f11, il penultimo in pratica....please...

javiersousa
08-05-2008, 22:38
il rendering a fotogramma alternato 2

ma questo valore conviene metterlo a 2 o lasciarlo a 3 come di default? please....

Dobermann75
08-05-2008, 23:09
pure a me da la sensezione che stia sfruttando una scheda singola !!!!! per cortesia mi date il numero di frames che fa in qualunque gioco cosi da poterlo provare anche io !!!!! si ostenta a non far più di 11000 punti al 3dmark06 (premetto che il punteggio è stato ottenuto con un e6600 e ancora devo montare il q9450 !!!) aiutatemi, la scheda madre centra qualche cosa (è aggiornata al bios f11, il penultimo in pratica....please...
prova a rifarlo col nuovo processore e posta i punteggi nonche i frame rate...
ciao

Skullcrusher
09-05-2008, 07:30
ma questo valore conviene metterlo a 2 o lasciarlo a 3 come di default? please....

Molti giochi pare gradiscano il 2 :)

javiersousa
09-05-2008, 14:06
raga, sto facendo delle prove: sto provando Assassins Creed a 1680x1050 con AA4x e AF16x e nel primo villaggio fa circa 40-50 con punte di 60 frames, rilevato con fraps, vanno bene?

EDORAM
09-05-2008, 15:23
Io mi permetto di dissentire da questa analisi. Ho provato sia i 175.16 che i 175.63 e nel mio caso mi trovo meglio con i primi.

Sinceramente a Crysis non ho notato differenze. Usando la sintassi "r_displayinfo 1" per visualizzare i frames in tempo reale
(un pò come funziona Fraps) totalizzo lo stesso numero di fps.

Tuttavia ad Assassin's Creed vanno meglio i 175.16 (con i 175.63 ci sono dei microscatti).

Infine, giusto per dovere di cronaca, con i 175.16 e RivaTuner si leggono correttamente le temperature di entrambe le GPU (stessa cosa su Everest dove finalmente vengono riportate correttamente tutte le informazioni, 10 in totale, sulle 2 gpu), cosa che non è mai stata resa possibile nè con i drivers precedenti ai 175.16 nè con i 175.63.

Vi è anche da aggiungere, in ultima analisi, che i 175.63 sono dei drivers pensati per la serie Mobile (infatti il file inf originario non contempla le schede video come la 8800 GTX, Ultra, 9800 GTX, GX2 etc etc).
Il fatto che su guru3d li abbiano postati è perchè il solito "guru" ha modificato il file inf all'occorrenza adattando, di fatto, drivers pensati per altri tipi di schede.

Poi, per carità, è un mio umile giudizio, però se qualcuno ricerca il meglio, secondo me i 175.16 sono superiori. ;)



Ne sono certo ora ho rifatto attentamente tutti i test e posso dire che con CRYSIS i driver 175.63 sono nettamente migliori dei 175.16, attenzione con crysis soltanto non ho provato gli altri giochi, ma nei test che ho effettuato con le seguenti impostazioni:


1920*1200 TUTTO VERY HIGH tranne postprocessing high, benchmark_gpu directx 10 e 64 bit loop di 10:

175.16---------------->avarage 36fps

175.63---------------->avarage 40fps


La differenza e' tangibile stiamo parlando di circa l' 11%


Spero possa servire a qualcuno.

Johncook
09-05-2008, 15:53
Ne sono certo ora ho rifatto attentamente tutti i test e posso dire che con CRYSIS i driver 175.63 sono nettamente migliori dei 175.16, attenzione con crysis soltanto non ho provato gli altri giochi, ma nei test che ho effettuato con le seguenti impostazioni:


1920*1200 TUTTO VERY HIGH tranne postprocessing high, benchmark_gpu directx 10 e 64 bit loop di 10:

175.16---------------->avarage 36fps

175.63---------------->avarage 40fps


La differenza e' tangibile stiamo parlando di circa l' 11%


Spero possa servire a qualcuno.

quoto in pieno;)

Flyflot
09-05-2008, 19:39
Ciao a tutti
nella speranza di averla mia tra pochi giorni, una volta installata devo configurare qualcosa nel pannello dei driver, oppure lasciare tutto come è?
La scheda come viene vista nelle impostazioni? Come se avessi una configurazione sli?
Andrea

Nino Grasso
09-05-2008, 20:09
Salve a tutti :D. Anche io da oggi posso inserirmi fra i fortunati possessori di questa magnifica schedona. Solo che ho da esporvi qualche dubbio: con il processore in firma (e6300@2800) faccio 12230 punti al 3d mark 2006, impostazioni a default, quindi a 1280x1024. Adesso a quanto ho capito è un risultato, sebbene basso, in linea agli altri possessori di dual core a quella frequenza.

Potete darmi ulteriori delucidazioni in merito? Vorrei inoltre essere in grado di stabilire se entrambe le GPU sono in funzione, dato che ho comportamenti alquanto anomali con i driver nvidia. In pratica se disattivo lo SLI (metto multi-schermo invece che multi-gpu, oppure metto come impostazione del multi-gpu "Singola scheda") le performance non cambiano di una virgola! A questo punto il mio risultato lo riterrei abbastanza ambiguo: troppo alto per essere in funziona una sola gpu, basso per essere in funzione entrambe.

Comunque che dovrei fare per avere una certezza matematica che entrambe le gpu siano in funzione? Ho provato il test di crysis ed è comparsa una strana dicitura MGPU, con GPU-Z mi dice che lo SLI è attivato.

Che ulteriori prove potrei fare? :D

Spero possiate placare tutti i miei dubbi :|

EDORAM
09-05-2008, 22:27
Salve a tutti :D. Anche io da oggi posso inserirmi fra i fortunati possessori di questa magnifica schedona. Solo che ho da esporvi qualche dubbio: con il processore in firma (e6300@2800) faccio 12230 punti al 3d mark 2006, impostazioni a default, quindi a 1280x1024. Adesso a quanto ho capito è un risultato, sebbene basso, in linea agli altri possessori di dual core a quella frequenza.

Potete darmi ulteriori delucidazioni in merito? Vorrei inoltre essere in grado di stabilire se entrambe le GPU sono in funzione, dato che ho comportamenti alquanto anomali con i driver nvidia. In pratica se disattivo lo SLI (metto multi-schermo invece che multi-gpu, oppure metto come impostazione del multi-gpu "Singola scheda") le performance non cambiano di una virgola! A questo punto il mio risultato lo riterrei abbastanza ambiguo: troppo alto per essere in funziona una sola gpu, basso per essere in funzione entrambe.

Comunque che dovrei fare per avere una certezza matematica che entrambe le gpu siano in funzione? Ho provato il test di crysis ed è comparsa una strana dicitura MGPU, con GPU-Z mi dice che lo SLI è attivato.

Che ulteriori prove potrei fare? :D

Spero possiate placare tutti i miei dubbi :|


tranquillo e' attivo altrimenti non facevi quasi 13k con un dual core a 2,8ghz.


CONSIGLIO: per sfruttare la scheda almeno al 60% porta il processore a 3,2ghz dovresti farcela senza troppi problemi cosi sei troppo CPU LIMITED.

Io con un quad a 3,6ghz per il daily la sto sfruttando all'80%, per sfruttarla a pieno dovrei essere minimo minimo a 4ghz ma non sono cosi pazzo da farmi un qx...

Se riuscissi a rimediarlo a meno di 400 euro pure pure...

Nino Grasso
09-05-2008, 22:54
ok, grazie della risposta. capisco di essere fortemente cpu limited con questa cpu ma per adesso non posso permettermi altro.

purtroppo ho trovato una nota dolente ben più grave che spero sia risolvibile senza dover mandare la scheda in assistenza. Non ho provato a fondo ma con Assassin's Creed dopo 5 minuti di gioco crasha inesorabilmente. Praticamente compare una schermata nera ad intermittenza e dopo crasha il gioco, con il messaggio di Vista che riporta il blocco di un file dei driver della scheda. Ho provato con un paio di driver, adesso sto con i 174.74 (quelli scaricabili dal sito nvidia) ma non mi pare che la situazione sia migliorata. Da cosa può dipendere? Anche con altri titoli è sorto lo stesso problema anche se più sporadicamente.

Da cosa può essere dovuto? A livello di temperatura non mi pare vada molto oltre gli 80°C, quindi mi sembra abbastanza tollerabile.

smoicol
09-05-2008, 22:56
tranquillo e' attivo altrimenti non facevi quasi 13k con un dual core a 2,8ghz.


CONSIGLIO: per sfruttare la scheda almeno al 60% porta il processore a 3,2ghz dovresti farcela senza troppi problemi cosi sei troppo CPU LIMITED.

Io con un quad a 3,6ghz per il daily la sto sfruttando all'80%, per sfruttarla a pieno dovrei essere minimo minimo a 4ghz ma non sono cosi pazzo da farmi un qx...

Se riuscissi a rimediarlo a meno di 400 euro pure pure...

credo che il tuo q6600 con un pò di fantasia e coraggio lo porti minimo a 3800 con un 1.45 che per 65nm non è tanto, fino a 1.47\1.48 vai tranqui, specie se hai il liquido

timothy
10-05-2008, 11:21
Io con un quad a 3,6ghz per il daily la sto sfruttando all'80%, per sfruttarla a pieno dovrei essere minimo minimo a 4ghz ma non sono cosi pazzo da farmi un qx...
su questo ci sarebbe molto da discutere, con un buon processore a 3GHz si va più che bene

Mafio
10-05-2008, 11:24
su questo ci sarebbe molto da discutere, con un buon processore a 3GHz si va più che bene

quoto...poi sto 80% da dove esce??? :stordita:

nefion
10-05-2008, 12:17
su questo ci sarebbe molto da discutere, con un buon processore a 3GHz si va più che bene

ciao,

per curiosità, quanto fai al vantage?

sto ancora cercando di capire se nel mio sistema c'è qualcosa che non va...

alex oceano
10-05-2008, 12:46
queta bella 9800gx2 necessita di un alimentazione di almeno 200w ho sparato una cifra io ho 520w mi basterà!!! che differnza c'è dalla mia 8800gt un 20% più potente!!!!??????????

timothy
10-05-2008, 12:50
per curiosità, quanto fai al vantage?
vantage non l'ho ancora provato, ti posso dire che faccio circa 16000 al 3DMark06

timothy
10-05-2008, 12:54
questa bella 9800gx2 necessita di un alimentazione di almeno 200w ho sparato una cifra io ho 520w mi basterà!!! che differenza c'è dalla mia 8800gt un 20% più potente!!!!??????????
io ho un 620W e non ho problemi, bisognerebbe conoscere in dettaglio gli amperaggi del tuo; per la 8800gt dipende dal gioco, controlla la recensione http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_index.html

nefion
10-05-2008, 12:56
vantage non l'ho ancora provato, ti posso dire che faccio circa 16000 al 3DMark06

io faccio 15500 al 3d06.

però ho un quad core q9300 (@3000).. o i quad core non sono sfruttati per niente o non so come mai vado + piano.. quando poi provi il vantage sono curioso :)

ugo71
10-05-2008, 13:51
queta bella 9800gx2 necessita di un alimentazione di almeno 200w ho sparato una cifra io ho 520w mi basterà!!! che differnza c'è dalla mia 8800gt un 20% più potente!!!!??????????

avevo problemi di stabilità ed essendo il corsair nuovo ho fatto qualche test anche con l'enernmax 500, senza problemi, aparte che ho dovuto fare un'adattatore per gli 8 pin:) ovviamente con 2 hd invece che 4, niente oc (quindi @3000), - ventole ,-usb..

timothy
10-05-2008, 13:53
x nefion
dovrei sapere la tua configurazione completa, cmq anch'io ho un quad core a 3000MHz. in ogni caso 3dmark lo uso solamente per farmi un'idea del mio pc globalmente; preferisco guardare come va realmente in gioco con fraps

ugo71
10-05-2008, 14:05
io faccio 15500 al 3d06.

però ho un quad core q9300 (@3000).. o i quad core non sono sfruttati per niente o non so come mai vado + piano.. quando poi provi il vantage sono curioso :)

io l'ho provato ma non ricordo se a defoult cpu e ho fatto 9000 scarsi(89xx):confused: con vista 64 e su un'altra mobo percui..

D4N!3L3
10-05-2008, 14:36
io l'ho provato ma non ricordo se a defoult cpu e ho fatto 9000 scarsi(89xx):confused: con vista 64 e su un'altra mobo percui..

Pure io ho fatto poco più di 9000 con il Vantage.

ugo71
10-05-2008, 15:35
ho appena scaricato di nuovo perchè l'avevo usato (il giorno dell'uscita)su un vista 64 provvisorio che poi ho formattato, ma credo di aver sbagliato quella volta perchè è totalmente diverso come interfaccia test etc. eppure il file e la trafila erano simili, solo che la mggior parte dei test col 64 erano in finestra con più test in contemporanea, sembrava più un pcmark . questo invece è tipo 3dm06 solo che cambiano gli scenari ma a metà abbondante
Nome evento problema: BlueScreen
Versione SO: 6.0.6001.2.1.0.256.1
ID impostazioni locali: 1040

Ulteriori informazioni sul problema:
BCCode: 101
BCP1: 00000031
BCP2: 00000000
BCP3: 805D1120
BCP4: 00000001
OS Version: 6_0_6001
Service Pack: 1_0
Product: 256_1

penso di aver tenuto la cpu troppo sotto con vc1.25 @3670:) oppure è la ram che però sembrava sistemata, ... riprovo con vc più alto:boh: :sperem:
EDIT: provato;)
http://img383.imageshack.us/img383/3717/vantagedt4.th.jpg (http://img383.imageshack.us/my.php?image=vantagedt4.jpg)

nefion
10-05-2008, 18:13
ho appena scaricato di nuovo perchè l'avevo usato (il giorno dell'uscita)su un vista 64 provvisorio che poi ho formattato, ma credo di aver sbagliato quella volta perchè è totalmente diverso come interfaccia test etc. eppure il file e la trafila erano simili, solo che la mggior parte dei test col 64 erano in finestra con più test in contemporanea, sembrava più un pcmark . questo invece è tipo 3dm06 solo che cambiano gli scenari ma a metà abbondante
Nome evento problema: BlueScreen
Versione SO: 6.0.6001.2.1.0.256.1
ID impostazioni locali: 1040

Ulteriori informazioni sul problema:
BCCode: 101
BCP1: 00000031
BCP2: 00000000
BCP3: 805D1120
BCP4: 00000001
OS Version: 6_0_6001
Service Pack: 1_0
Product: 256_1

penso di aver tenuto la cpu troppo sotto con vc1.25 @3670:) oppure è la ram che però sembrava sistemata, ... riprovo con vc più alto:boh: :sperem:
EDIT: provato;)
http://img383.imageshack.us/img383/3717/vantagedt4.th.jpg (http://img383.imageshack.us/my.php?image=vantagedt4.jpg)

ok allora direi che sono in linea :)

grazie a tutti!

smoicol
10-05-2008, 18:50
per chi possiede questa vga con x48 mi faccia sapere se l'accoppiata rende, grazie

genius
10-05-2008, 20:12
Ho notato che una sola uscita DVI funziona ... e' normale?

Grazie

x.vegeth.x
10-05-2008, 22:51
Ho notato che una sola uscita DVI funziona ... e' normale?

Grazie

no

EDORAM
10-05-2008, 23:29
Ragazzi ho fatto un'ulteriore analisi su questa scheda, i driver 175.63 e Crysis, devo dire che le prestazioni massime (siamo davvero vicini all'avarage di 40fps per l'esattezza 39,72 fps) che ho ottenuto sono lasciando i driver cosi come sono di default senza mettere prestazioni a schermo singolo(questo parametro rispetto a multischermo mi fa perdere 2 fps) e l'altro parametro raccomandato da Nvidia al posto di forza alternato 2 che invece mi fa perdere altri 2 frame.


Riassumendo:


Default ------------------------------->39,72

singolo schermo+forza alternato2------->35,52



Test fatti a 1920*1200 tutto very high tranne postprocessing su high.

danazzo
11-05-2008, 09:08
Ho notato che una sola uscita DVI funziona ... e' normale?

Grazie

anche a me funziona una sola uscita e ho notato che dove ci sono le due uscite dvi una e' illuminata da un led verde l'altra da uno blu
che significa e' normale o va' solo una scheda?

DarkNiko
11-05-2008, 09:30
Ho notato che una sola uscita DVI funziona ... e' normale?

Grazie

Sì è normalissimo, a differenza di x.vegeth.x che ha risposto in modo telegrafico senza dire il perchè.

Siccome è uno SLI a tutti gli effetti, realizzato tramite apposito bridge interno, una VGA è MASTER e l'altra è SLAVE, di conseguenza dei 2 attacchi DVI, quello a cui va collegato il cavo quando accendi il PC è il Master.

Ovviamente, se da windows abiliti la modalità multischermo (cioè 2 gpu indipendenti), funzionerà anche il secondo attacco DVI.

Tutto chiaro ora ?

danazzo
11-05-2008, 10:03
Sì è normalissimo, a differenza di x.vegeth.x che ha risposto in modo telegrafico senza dire il perchè.

Siccome è uno SLI a tutti gli effetti, realizzato tramite apposito bridge interno, una VGA è MASTER e l'altra è SLAVE, di conseguenza dei 2 attacchi DVI, quello a cui va collegato il cavo quando accendi il PC è il Master.

Ovviamente, se da windows abiliti la modalità multischermo (cioè 2 gpu indipendenti), funzionerà anche il secondo attacco DVI.

Tutto chiaro ora ?
grazie molto esauriente

Johncook
11-05-2008, 10:31
ho appena scaricato di nuovo perchè l'avevo usato (il giorno dell'uscita)su un vista 64 provvisorio che poi ho formattato, ma credo di aver sbagliato quella volta perchè è totalmente diverso come interfaccia test etc. eppure il file e la trafila erano simili, solo che la mggior parte dei test col 64 erano in finestra con più test in contemporanea, sembrava più un pcmark . questo invece è tipo 3dm06 solo che cambiano gli scenari ma a metà abbondante
Nome evento problema: BlueScreen
Versione SO: 6.0.6001.2.1.0.256.1
ID impostazioni locali: 1040

Ulteriori informazioni sul problema:
BCCode: 101
BCP1: 00000031
BCP2: 00000000
BCP3: 805D1120
BCP4: 00000001
OS Version: 6_0_6001
Service Pack: 1_0
Product: 256_1

penso di aver tenuto la cpu troppo sotto con vc1.25 @3670:) oppure è la ram che però sembrava sistemata, ... riprovo con vc più alto:boh: :sperem:
EDIT: provato;)
http://img383.imageshack.us/img383/3717/vantagedt4.th.jpg (http://img383.imageshack.us/my.php?image=vantagedt4.jpg)

Ma come fai a fare un punteggio più basso al vantage con il qx9650????la tua gx2 ha fatto 900 punti in meno rispetto alla mia...ma è o.c o a default???

http://www.fileden.com/files/2007/4/...1/Immagine.jpg