View Full Version : [THREAD UFFICIALE] Geforce 9800GX2
e che programma e' nhancer non lo sentito mai
Johncook
30-04-2008, 17:27
ma allora si può sapere se vanno meglio i 175.12 o i 174.44??? sono indeciso se fare il downgrade....
ale0bello0pr
30-04-2008, 18:53
qui le domande abbondano, le risposte scarseggiano :asd:
Johncook
30-04-2008, 19:16
qui le domande abbondano, le risposte scarseggiano :asd:
Confermo...
Per spremerla a puntino è buona cosa avere un quad core a 3.6Ghz almeno mi sa :p
La PoV è a mio avviso una tra le migliori marche attuali, vai sul sicuro :Dquad a 3600??? :eek: :eek: il dual su molti giochi va piu del quad per la cronaca. ;)
Andrea deluxe
01-05-2008, 00:20
quad a 3600??? :eek: :eek: il dual su molti giochi va piu del quad per la cronaca. ;)
lo sappiamo tutti che il tuo dual core 45nm sale di piu' dei quad core e che la maggior parte dei giochi non e' ottimizzato per il multith....
ma alcuni col pc, non fanno solo superpi e giochi!
Ciao a tutti,
ho la seguente configurazione
quad core q9300
8gb ram corsair (è una lunga storia lol)
due dischi da 7200 in raid 0
e la gx2
va tutto bene, di default col proc @2500 mi pare di stare sui 15000 a 3dmark06 che mi sembra in linea.
Ho però un problema specifico su un gioco, forse voi riuscite a spiegarmi.
Hellgate London. Con il motore dx9 cappo i 60fps in ogni circostanza (o quasi). Se switcho a dx10 vado a 3-4 fps.... c'è qualcuno che ha un'idea del perche?
grazie mille,
NOOB4EVER
01-05-2008, 03:22
Ciao a tutti,
ho la seguente configurazione
quad core q9300
8gb ram corsair (è una lunga storia lol)
due dischi da 7200 in raid 0
e la gx2
va tutto bene, di default col proc @2500 mi pare di stare sui 15000 a 3dmark06 che mi sembra in linea.
Ho però un problema specifico su un gioco, forse voi riuscite a spiegarmi.
Hellgate London. Con il motore dx9 cappo i 60fps in ogni circostanza (o quasi). Se switcho a dx10 vado a 3-4 fps.... c'è qualcuno che ha un'idea del perche?
grazie mille,
fammelo comprare sta notte che domattina lo testo e ti so dire;)
ale0bello0pr
01-05-2008, 04:33
lo sappiamo tutti che il tuo dual core 45nm sale di piu' dei quad core e che la maggior parte dei giochi non e' ottimizzato per il multith....
ma alcuni col pc, non fanno solo superpi e giochi!
scusami ma grande str***ta:rolleyes:
si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:
fammelo comprare sta notte che domattina lo testo e ti so dire;)
non ho capito.. cosa compri? :)
scusami ma grande str***ta:rolleyes:
si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:
nei giochi non credo proprio. :stordita:
Andrea deluxe
01-05-2008, 10:10
scusami ma grande str***ta:rolleyes:
si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:
io parlavo di overclock dei quad core normali e non qx!
Lo sai che con un q9450 moltiplicatore 8x, con un fsb 450mhz, che è al limite del daily use, si raggiungono soltanto i 3600mhz?
Quale ca**o di fsb dovrei usare per raggiungere i 4000mhz?
con un dual core del ca**o li raggiungerei facilmente i 4050mhz per via del moltiplicatore 9x!
mi pare di parlare con i bambini....
e poi mica tutti hanno 890€ per un QX...
Skullcrusher
01-05-2008, 10:16
nHancer funziona con la GX2? Ho provato la beta 2.4.0.7, riconosce che c'è uno sli, ma non lo attiva, ho provato in tutti i modi possibili ma nada, senza nHancer Vegas 2 va a 100fps con sli attivo, con nHancer va a 65 fps, Sli disattivo. Ho visto che non riconosce come chip G92, ma G80, mi sa che ancora non è compatibile...
Andrea deluxe
01-05-2008, 10:25
edit
DarkNiko
01-05-2008, 10:25
scusami ma grande str***ta:rolleyes:
si vede che non ha mai posseduto un Penryn QX9650 occato tranquillamente a 4.2Ghz con temp sui 20-30° in full load, e fidati che se lo mangia a colazione pranzo e cena:doh:
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D
Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.
Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).
Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!
lo sappiamo tutti che il tuo dual core 45nm sale di piu' dei quad core e che la maggior parte dei giochi non e' ottimizzato per il multith....
ma alcuni col pc, non fanno solo superpi e giochi!beh io rispondevo a colui che ha detto che per spremere a fondo la scheda video ci sarebbe voluto minimo un quad a 3600... cosa che non e cosi con un 3000 dual non sei certo cpu limited anche perche a risoluzioni basse si sente di piu l'influenza della cpu e piu si sale e meno si fa sentire ed entra in gioco la gpu. nessuno ha parlato di bench o super pi.. pero credo che di giochi si possa parlare visto che stiamo parlando di una scheda video..
La XFX 9800GX2 Black Edition ha frequenze di core e di clock più alte rispetto alle altre e ovviamente costa circa 100€ in più.
Questo è dovuto solamente all'aggiornamento bios o ha qualcosa in particolare?
Perchè nella mia config volevo abbinarla alla XFX 780i giusto per fare "all XFX" ma se ha solo il bios aggiornato non ne vale la pena spendere 100€ per 10 minuti di lavoro :)
fdadakjli
01-05-2008, 11:08
La XFX 9800GX2 Black Edition ha frequenze di core e di clock più alte rispetto alle altre e ovviamente costa circa 100€ in più.
Questo è dovuto solamente all'aggiornamento bios o ha qualcosa in particolare?
Perchè nella mia config volevo abbinarla alla XFX 780i giusto per fare "all XFX" ma se ha solo il bios aggiornato non ne vale la pena spendere 100€ per 10 minuti di lavoro :)
ciao...cambia soltanto il bios... ;)
direi che non vale la pena spendere di più...un semplice flash e via ed ottieni la stessa cosa... ;)
poi ci sono i matti come me e altri che li spendono...ma non è la cosa più sensata da fare...e cmq da non consigliare a nessuno... :read:
fr4nc3sco
01-05-2008, 11:09
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D
Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.
Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).
Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!
mi dici ma dove vive il tua amico sulla marmolada nn spariamo caxxate! un qx9650 almeno i miei 10 cpu che ho avuto per le mani con 1.4 1.45v che servono per un 4200mhz stabili a liquido t° aria 25° si ha un 30/35° in idle che volano a 68/70 sotto prime e nn c'è mobo wb fuzion con vascetta da 1 litro e 2 rad con 12 ventole con un Delta di acqua da idle a full di 3° dopo 10 ore quindi nn è senzaltro l'impianto
fr4nc3sco
01-05-2008, 11:14
delly hai trovato anche te un buon booter coi 175,12 in sli? io mi sono ritrovato nel mio gioco preferito quasi un raddopio di frame adesso lo gioco a 16qx 16x senza problemi oltre 180 frame in piu le bandiere ecc adesso sono piu dettagliate e piu vicino all risultato di qualita che ottenevo con ati
fdadakjli
01-05-2008, 11:17
delly hai trovato anche te un buon booter coi 175,12 in sli? io mi sono ritrovato nel mio gioco preferito quasi un raddopio di frame adesso lo gioco a 16qx 16x senza problemi oltre 180 frame in piu le bandiere ecc adesso sono piu dettagliate e piu vicino all risultato di qualita che ottenevo con ati
si...ho notato buoni miglioramenti anche io... ;)
ciao...cambia soltanto il bios... ;)
direi che non vale la pena spendere di più...un semplice flash e via ed ottieni la stessa cosa... ;)
poi ci sono i matti come me e altri che li spendono...ma non è la cosa più sensata da fare...e cmq da non consigliare a nessuno... :read:
bon allora mi sa che saremo in 2 entro settimana prox :D
Andrea deluxe
01-05-2008, 12:02
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D
Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.
Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).
Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!
quoto!
DarkNiko
01-05-2008, 13:00
mi dici ma dove vive il tua amico sulla marmolada nn spariamo caxxate! un qx9650 almeno i miei 10 cpu che ho avuto per le mani con 1.4 1.45v che servono per un 4200mhz stabili a liquido t° aria 25° si ha un 30/35° in idle che volano a 68/70 sotto prime e nn c'è mobo wb fuzion con vascetta da 1 litro e 2 rad con 12 ventole con un Delta di acqua da idle a full di 3° dopo 10 ore quindi nn è senzaltro l'impianto
Tanto per cominciare modera il linguaggio. Non stai parlando a tuo fratello o qualche tuo amichetto. Secondo, non ho mai parlato di prime 95. Abbiamo usato OCCT e non ha mai superato i 42°. Di sicuro l'ambiente in cui vive è fresco, visto che la temp ambiente è intorno ai 20°. 25° di temp ambiente è un forno, magari in Estate siamo d'accordo ma in questo periodo 25° in stanza sono un pò troppi non credi ?
Può darsi pure che la lettura sia stata errata, ma c'è modo e modo di far valere le tue ragioni e tu hai scelto quello peggiore.
fr4nc3sco
01-05-2008, 14:34
Tanto per cominciare modera il linguaggio. Non stai parlando a tuo fratello o qualche tuo amichetto. Secondo, non ho mai parlato di prime 95. Abbiamo usato OCCT e non ha mai superato i 42°. Di sicuro l'ambiente in cui vive è fresco, visto che la temp ambiente è intorno ai 20°. 25° di temp ambiente è un forno, magari in Estate siamo d'accordo ma in questo periodo 25° in stanza sono un pò troppi non credi ?
Può darsi pure che la lettura sia stata errata, ma c'è modo e modo di far valere le tue ragioni e tu hai scelto quello peggiore.
hai ragione sono stato 1 po pesante pero credimi che a 4200 i qx sono forni veri e propri
DarkNiko
01-05-2008, 15:21
hai ragione sono stato 1 po pesante pero credimi che a 4200 i qx sono forni veri e propri
Ok, adesso ragioniamo. ;) Cmq c'è impianto e impianto. Ad esempio un Q6600 G0 a 1.40v reali a 3.7 GHz in full load, che possiede un mio amico, dopo 1 ora di prime sta a 58° e mi sembra un ottimo risultato.
Cmq ti devo dare ragione e scusarmi. A ben pensarci i 42° che misurammo tempo fa sul QX non credo fossero veritieri (anche a 4 GHz stava così in full load), forse il sensore aveva toppato alla grande.
Cmq l'importante è che ci siamo chiariti e che si vada d'accordo. :)
ale0bello0pr
01-05-2008, 17:21
20-30° in full load mi sembra impossibile, a meno che non hai un impianto a liquido criogenico (tipo l'azoto con cui tra l'altro staresti molto ma molto più fresco). Con un impianto a liquido tradizionale a 4.2 GHz un QX9650 (provato personalmente da uno che di impianti ne capisce e ne monta da 10 anni) sta intorno ai 42° in full load, in media sui 38, ma 20-30 sparati da te sono una assurdità per non usare la parola che hai messo tra le stelline :D
Con un impianto tradizionale, ad aria, anche col miglior dissipatore in rame in commercio, si sta molto più alti, quindi il tuo paragone non regge.
Tra l'altro per tenere una cpu a 20° in full load, considerando che in media la temperatura ambiente è sui 22-23° (a meno che tu non vivi dentro a un frigorifero), immagino tu conosca la fisica e la termodinamica e quindi un componente che dissipa calore non potrà mai avere una temperatura inferiore a quella ambiente a patto di usare un impianto a liquido con relativo compressore (un pò come funziona un classico condizionatore).
Infine aggiungici che 1) Non tutti potrebbero permettersi un QX e 2) Non tutti spenderebbero centinaia di euro per raffreddare a 20° (ma anche 30°) in full load un QX !!!
troppe parole e pochi fatti, io non sono :blah::blah: ma fatti ecco lo screen che CERTIFICA che ho 20-30° max su VISTA con il mio impianto a liquido e OC raggiunto
N.B. x raggiungere 4.33 Ghz ho dovuto settare 1.5 Vcore e a maggior ragione la mia temp è spettacolare. NON USO LIQUIDO CRIOGENICO e NON VIVO IN UNA GHIACCIAIA O CANADA :)
http://img237.imageshack.us/img237/6457/boc433zq9.png
http://img140.imageshack.us/img140/9862/b3d06zp4.jpg
byez
Per il post dell'utente di prima, non avevo capito a cosa ti riferivi esattamente , cmq i QX nei giochi si mangiano(non due volte) anche i dual core questo è chiaro.
ah FINE OT :ot:
:doh:
ma il tJunction max non è mica 95°...coretemp segna 105°, se ho ragione io tu sei a 10° in meno di quello che segna coretemp.
p.s. prove realtemp
Andrea deluxe
01-05-2008, 18:07
troppe parole e pochi fatti, io non sono :blah::blah: ma fatti ecco lo screen che CERTIFICA che ho 20-30° max su VISTA con il mio impianto a liquido e OC raggiunto
N.B. x raggiungere 4.33 Ghz ho dovuto settare 1.5 Vcore e a maggior ragione la mia temp è spettacolare. NON USO LIQUIDO CRIOGENICO e NON VIVO IN UNA GHIACCIAIA O CANADA :)
http://img237.imageshack.us/img237/6457/boc433zq9.png
http://img140.imageshack.us/img140/9862/b3d06zp4.jpg
byez
Per il post dell'utente di prima, non avevo capito a cosa ti riferivi esattamente , cmq i QX nei giochi si mangiano(non due volte) anche i dual core questo è chiaro.
ah FINE OT :ot:
:doh:
infatti hai risposto un po a cazzo per i miei gusti....
DarkNiko
01-05-2008, 18:09
troppe parole e pochi fatti, io non sono :blah::blah: ma fatti ecco lo screen che CERTIFICA che ho 20-30° max su VISTA con il mio impianto a liquido e OC raggiunto
N.B. x raggiungere 4.33 Ghz ho dovuto settare 1.5 Vcore e a maggior ragione la mia temp è spettacolare. NON USO LIQUIDO CRIOGENICO e NON VIVO IN UNA GHIACCIAIA O CANADA :)
byez
Per il post dell'utente di prima, non avevo capito a cosa ti riferivi esattamente , cmq i QX nei giochi si mangiano(non due volte) anche i dual core questo è chiaro.
ah FINE OT :ot:
:doh:
Sei contro le leggi della fisica. A meno che tu non usi un refrigeratore per il liquido o un compressore, con quei voltaggi quelle temperature non sono veritiere. Usa una sonda termica e verificherai tu stesso. Secondo me hai i sensori sballati e il voltaggio che hai messo è troppo alto per la CPU (impianto a liquido compreso) !!!!
Io non pretendo di avere ragione, ci mancherebbe, ma cerco di ragionare con logica e basandomi su prove scientificamente valide.
P.S. Tenere le ram a 411 a CAS6 come nella tua foto è davvero comica come cosa, senza offesa eh. Almeno un CAS5 potresti provarlo !!!
infatti hai risposto un po a cazzo per i miei gusti....comunque non e possibile che un quad anche se 45nm a 4300 con 1.54 di vcore abbia cosi pochi gradi nemmeno se il suo impianto è stratosferico! c'e qualcosa nel bios o nei sensori che non va..
Andrea deluxe
01-05-2008, 18:21
comunque non e possibile che un quad anche se 45nm a 4300 con 1.54 di vcore abbia cosi pochi gradi nemmeno se il tuo impianto è stratosferico! c'e qualcosa nel bios o nei sensori che non va..
anche secondo me!
ale0bello0pr
01-05-2008, 18:24
Sei contro le leggi della fisica. A meno che tu non usi un refrigeratore per il liquido o un compressore, con quei voltaggi quelle temperature non sono veritiere. Usa una sonda termica e verificherai tu stesso. Secondo me hai i sensori sballati e il voltaggio che hai messo è troppo alto per la CPU (impianto a liquido compreso) !!!!
Io non pretendo di avere ragione, ci mancherebbe, ma cerco di ragionare con logica e basandomi su prove scientificamente valide.
P.S. Tenere le ram a 411 a CAS6 come nella tua foto è davvero comica come cosa, senza offesa eh. Almeno un CAS5 potresti provarlo !!!
il mio pc va da dio e non è sballato nulla , sei solo tu troppo presuntuoso.
TI ho postato l'evidenza ora basta :blah:
ho detto basta OT o interviene qualke mod...anche per alcuni toni poco civili e flammosi di qualcuno.
>byez<
ale0bello0pr
01-05-2008, 18:25
infatti hai risposto un po a cazzo per i miei gusti....
arguta risposta :rolleyes:
il mio pc va da dio e non è sballato nulla , sei solo tu troppo presuntuoso.
TI ho postato l'evidenza ora basta :blah:evidenza non e! il fatto che li segna non vuol dire che sono reali..
dai ragazzi non ci incazziamo per ste cazzate....
quelle temperature "potrebbero" anche starci.
@ ale0bello0pr: realtemp che temperature segna???lo chiedo perchè il tJunction max segnato da coretemp è 105° quando mi pare sia di 95°
se il mio ragionamento è vero tu avresti 10° in meno di quelli segnati da coretemp. :stordita:
ale0bello0pr
01-05-2008, 18:38
dai ragazzi non ci incazziamo per ste cazzate....
quelle temperature "potrebbero" anche starci.
@ ale0bello0pr: realtemp che temperature segna???lo chiedo perchè il tJunction max segnato da coretemp è 105° quando mi pare sia di 95°
se il mio ragionamento è vero tu avresti 10° in meno di quelli segnati da coretemp. :stordita:
si qualcosa in meno hai ragione;)
ho detto basta :ot: però :stordita:
me ne vo a giocare a Crysis, se loro continuano falli continuare pure, ci pensera' qualcun'altro a fargli cambiare idea.. :asd:
DarkNiko
01-05-2008, 20:23
il mio pc va da dio e non è sballato nulla , sei solo tu troppo presuntuoso.
TI ho postato l'evidenza ora basta :blah:
ho detto basta OT o interviene qualke mod...anche per alcuni toni poco civili e flammosi di qualcuno.
>byez<
Dai del presuntuoso agli altri, quando sei tu il primo ad esserlo dicendo "il mio pc va da dio, evidenza dei fatti etc etc". Complimenti, un vero esempio di onestà morale.
Se tu sei un ignorante (e spero non vorrai offenderti se uno ti dice in faccia la verità) di Fisica non è un mio problema, spero però che almeno vorrai rispettare chi in questa materia è laureato, come il sottoscritto.
I sensori del bios o del chip Winbond che rileva le tue temperature, sono starati o sballati, di questo non c'è alcun dubbio. Nemmeno il miglior impianto a liquido esistente sulla crosta terrestre (a parte quelli utilizzanti azoto liquido alias liquidi criogenici) del tipo di quelli usati da te riesce a tenere il tuo PC a quelle temperature e non si tratta di presunzione, è una certezza, è un dato inoppugnabile.
Purtroppo, caro il mio utente, l'umiltà e cosa sempre più rara, ancor più fastidiosa è il voler negare ad oltranza l'evidenza come fai tu.
Cmq chiudo l'O.T. e mi scuso con i moderatori, non ci saranno ulteriori repliche.
DarkNiko
01-05-2008, 20:26
dai ragazzi non ci incazziamo per ste cazzate....
quelle temperature "potrebbero" anche starci.
@ ale0bello0pr: realtemp che temperature segna???lo chiedo perchè il tJunction max segnato da coretemp è 105° quando mi pare sia di 95°
se il mio ragionamento è vero tu avresti 10° in meno di quelli segnati da coretemp. :stordita:
Nessuno si arrabbia figurati. Odio però passare per cazzaro quando è oggettivo che sono gli altri in torto e non io.
Studiatevi la Termodinamica e poi parlate !!! :D
ale0bello0pr
01-05-2008, 20:43
Dai del presuntuoso agli altri, quando sei tu il primo ad esserlo dicendo "il mio pc va da dio, evidenza dei fatti etc etc". Complimenti, un vero esempio di onestà morale.
Se tu sei un ignorante (e spero non vorrai offenderti se uno ti dice in faccia la verità) di Fisica non è un mio problema, spero però che almeno vorrai rispettare chi in questa materia è laureato, come il sottoscritto.
I sensori del bios o del chip Winbond che rileva le tue temperature, sono starati o sballati, di questo non c'è alcun dubbio. Nemmeno il miglior impianto a liquido esistente sulla crosta terrestre (a parte quelli utilizzanti azoto liquido alias liquidi criogenici) del tipo di quelli usati da te riesce a tenere il tuo PC a quelle temperature e non si tratta di presunzione, è una certezza, è un dato inoppugnabile.
Purtroppo, caro il mio utente, l'umiltà e cosa sempre più rara, ancor più fastidiosa è il voler negare ad oltranza l'evidenza come fai tu.
Cmq chiudo l'O.T. e mi scuso con i moderatori, non ci saranno ulteriori repliche.
bene segnalato perche' oltre ad essere presuntuoso anche recidivo
io non ho offeso nessuno, se i mod fanno il loro lavoro dovrebbero sospenderti.
in attesa...
inteligenti pauca
adios
ho notato che questa scheda ha l'uscita hdvi si può attaccarci il monitor visto che il mio ha anche quel tipo di connettore?:confused:
Johncook
01-05-2008, 21:55
ragazzi mi capita una cosa strana,la gx2 data la sua luncghezza va ad occuparmi le porte sata della mia p5k e-wifi lasciandomene libere solo 2..capita anche a voi???come posso fare?
ragazzi mi capita una cosa strana,la gx2 data la sua luncghezza va ad occuparmi le porte sata della mia p5k e-wifi lasciandomene libere solo 2..capita anche a voi???come posso fare?
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)
Johncook
01-05-2008, 22:19
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)
giusto non c'avevo pensato... grazie!!!
giusto non c'avevo pensato... grazie!!!
guarda che non so se funziona sta cosa, però tentar non costa nulla. :)
bene segnalato perche' oltre ad essere presuntuoso anche recidivo
io non ho offeso nessuno, se i mod fanno il loro lavoro dovrebbero sospenderti.
in attesa...
sei i mod fanno il loro lavoro? in attesa? :mbe:
pessimo modo di fare.. le segnalazioni non si ostentano pubblicamente e non sono un ordine che si da al mod..
e poi critichi tanto ma dovresti anche evitare di dire che la gente dice o fa stronzate
http://www.hwupgrade.it/forum/showthread.php?p=22259912#post22259912
di certo così non eviti di creare tu stesso il flame
sospeso 3gg per questa polemica e modo di fare.. in futuro evita, segnala e attendi diligentemente l'eventuale intervento dei mod.. se non intervengono vuol dire che la tua segnalazione era infondata.
inteligenti pauca
adios
almeno citale corettamente
http://it.wikipedia.org/wiki/Intellegenti_pauca
DarkNiko sospeso 5gg
>bYeZ<
NOOB4EVER
02-05-2008, 03:31
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)
dovrai tagliare leggermente con ub taglierino un piccolo spessore di plastica nera,per fare adagiare la vga correttamente,intendo l'angolo del connettore a L,io ci ho smussato l'angolo quando la provai in quella mobo ;)
dovrai tagliare leggermente con ub taglierino un piccolo spessore di plastica nera,per fare adagiare la vga correttamente,intendo l'angolo del connettore a L,io ci ho smussato l'angolo quando la provai in quella mobo ;)
quindi si può fare, buono a sapersi anche se fortunatamente sulla mia mobo attuale non ho di questi problemi. :)
Ciao ragazzi.
Mi e appena arrivata una EVGA 9800GX2 KO,i suoi valori sono 650/1620/2050.
Volendo fare un quad sli,visto che a livello di componenti e uguale alle altre,ed in piu a solo l'overclock della casa,pensavo di abbinarle un'altra 9800GX2 ma della POV(con il bios flashato uguale alla evga).O in alternativa portarle entrambe alle stesse frequenze con rivatuner 2.09.
Voi che ne dite?
Pensate sia possibile?
Johncook
02-05-2008, 14:32
se usi i connettori sata con lo spinotto a L magari riesci ad attaccarli. :)
x la cronaca ho risolto con un connettore sata ad L angolo di 90°... meno male!!!!grazie mafio...;)
Ciao ragazzi.
Mi e appena arrivata una EVGA 9800GX2 KO,i suoi valori sono 650/1620/2050.
Volendo fare un quad sli,visto che a livello di componenti e uguale alle altre,ed in piu a solo l'overclock della casa,pensavo di abbinarle un'altra 9800GX2 ma della POV(con il bios flashato uguale alla evga).O in alternativa portarle entrambe alle stesse frequenze con rivatuner 2.09.
Voi che ne dite?
Pensate sia possibile?
che l'ali non ti basta per un quad sli per di più di vga cloccate. :D
che l'ali non ti basta per un quad sli per di più di vga cloccate. :D
Dici che l'ali sia troppo "piccolo"?
Mi da nelle specifiche 850W con picco a 1000W.
E marchiato nvidia sli,ed a 4 cavi a 6 pin e 2 a 8 pin.Pensavo di riuscirci.Avevo letto qui sul sito i test di consumo con un qx a 3.3ghz e 2x9800GX2 in full load cpu+gpu arrivano a 727W.
Pensate quindi che non mi bastera?
Per la "compatibilita" delle 2 marche che mi dite?
Grazie a tutti
che l'ali non ti basta per un quad sli per di più di vga cloccate. :D
Ciao.Dici che col mio ali non ce la faccio proprio?
Ho letto che con un qx overclockato e un quad sli di 9800GX2 in full load cpu+gpu si raggiungono i 730w di consumo circa.Pensavo quindi di starci dentro,ho 850w e 1000 di picco.:rolleyes:
Dici che l'ali sia troppo "piccolo"?
Mi da nelle specifiche 850W con picco a 1000W.
E marchiato nvidia sli,ed a 4 cavi a 6 pin e 2 a 8 pin.Pensavo di riuscirci.Avevo letto qui sul sito i test di consumo con un qx a 3.3ghz e 2x9800GX2 in full load cpu+gpu arrivano a 727W.
Pensate quindi che non mi bastera?
Per la "compatibilita" delle 2 marche che mi dite?
Grazie a tutti
effettivamente forse mi sono sbagliato...http://www.hothardware.com/Articles/NVIDIA_QuadSLI_with_the_ASUS_EN9800GX2/?page=8 qui dice meno di 600watt in full.
Salve.. scusate anche io ho acquistat questa schedozza... che ne pensate? Ne sento parlare male a destra e a sinistra ma è cosi vero?
una xfx 9800gx2 per la precisione....
chiedere dopo aver comprato non mi pare un gran colpo di genio...
Marko#88
02-05-2008, 19:58
chiedere dopo aver comprato non mi pare un gran colpo di genio...
effettivamente...:asd:
effettivamente forse mi sono sbagliato...http://www.hothardware.com/Articles/NVIDIA_QuadSLI_with_the_ASUS_EN9800GX2/?page=8 qui dice meno di 600watt in full.
Grazie Mafio per la precisazione:)
Bell'articolo,consumi anche piu bassi di quelli che avevo letto io.
Quando mettero la seconda 9800GX2 vi farò sapere se l'ali tiene botto.
vabbe ma la risposta??apparte quella di non essere un genio?
vabbe ma la risposta??apparte quella di non essere un genio?
non ho detto che sei scemo, ho solo fatto notare che sarebbe stato più sensato, almeno per quanto riguarda il mio modo di pensare, chiedere prima di comprare.
in ogni caso la 9800gx2 rimane una grandissima vga, che però IMHO ha senso acquistare solo se si gioca a risoluzioni considerevolmente alte.
Puo darsi anche che abbia fatto il passo piu' lungo della gamba...:D!!
Ma se è come hai detto te a me va benissimo...e speriamo anche se so che non sarà cosi che duri un pò nel tempo...
Puo darsi anche che abbia fatto il passo piu' lungo della gamba...:D!!
Ma se è come hai detto te a me va benissimo...e speriamo anche se so che non sarà cosi che duri un pò nel tempo...
un po' invece durerà...senti ma tua a che risolzione giochi??? :stordita:
a me dovrebbe arrivare la prox settimana...adesso come adesso col pc vecchio con un sempron 3100, 1 g. 400mhz,e un ati 9800 a 640x400 si tutti i giochi (apparte quelli che no partono neanche ):D
No cmq ho un monitor lcd a 22 pollici widescreen ...
Sicuro che durerà un po? ma non esocno le altre schede tra poco?al massimo si potra fare lo sli quando il prezzo scenderà ulteriormente .... sperem
a me dovrebbe arrivare la prox settimana...adesso come adesso col pc vecchio con un sempron 3100, 1 g. 400mhz,e un ati 9800 a 640x400 si tutti i giochi (apparte quelli che no partono neanche ):D
No cmq ho un monitor lcd a 22 pollici widescreen ...
Sicuro che durerà un po? ma non esocno le altre schede tra poco?al massimo si potra fare lo sli quando il prezzo scenderà ulteriormente .... sperem
con sta scheda giochi a tutti i giochi (a parte crysis) al massimo con tutti i filtri alla risolzione nativa del tuo monitor...
Bhe dai ...forse...allora veramente dura un pochino....sperem...
Grazie mafio...
NOOB4EVER
03-05-2008, 01:22
Bhe dai ...forse...allora veramente dura un pochino....sperem...
Grazie mafio...
se dura 6 mesi secondo me e' pure troppo
se dura 6 mesi secondo me e' pure troppo
Dici cosi poco?
Enochian
03-05-2008, 06:59
Domanda sulla geforce 9800x2 : abbinata ad un qx9650 è decentemente supportata?
Domanda sulla geforce 9800x2 : abbinata ad un qx9650 è decentemente supportata?
cosa vuol dire decentemente supportata??? :stordita:
se intendi cpu limited con il qx9650 non lo sei.
Enochian
03-05-2008, 11:25
Volevo dire quel procio la spreme a dovere?
Volevo dire quel procio la spreme a dovere?
si
tommy.knocker
03-05-2008, 17:47
Salve,
Scusate se ripropongo la domanda ma mi era venuto qualche dubbio:
ci sono problemi se su una rampage + gx2 metto una 8500gs (o simili) per avere 2 monitor e sli contemporaneamente?
grazie!
tk
NOOB4EVER
03-05-2008, 19:48
Volevo dire quel procio la spreme a dovere?
portalo almeno a 3,6 - 3,8 e andra' alla grande
fr4nc3sco
03-05-2008, 19:51
qualche matto col lo sli di gx2 è riuscito a far convivere 2 monitor in sli?
Salve,
Scusate se ripropongo la domanda ma mi era venuto qualche dubbio:
ci sono problemi se su una rampage + gx2 metto una 8500gs (o simili) per avere 2 monitor e sli contemporaneamente?
grazie!
tkla rampage è crossfire e non sly! puoi mettere 2 ati ma non 2 nvidia.
Domanda sulla geforce 9800x2 : abbinata ad un qx9650 è decentemente supportata?
secondo me :
CPU limited??
sembra che uno dica bestemmie ma quando avevo la gts640 con l'e6420@3200 vga defoult arrivavo quasi a 10.000pt., con il q6600@3000 o @3200restavo cmq sugli 11.000 con vga defoult(vista32)
ora con vga sempre defoult: @3300 http://img187.imageshack.us/img187/3302/v323300qw8.th.jpg (http://img187.imageshack.us/my.php?image=v323300qw8.jpg)
@3600 http://img169.imageshack.us/img169/370/v323600gp4.th.jpg (http://img169.imageshack.us/my.php?image=v323600gp4.jpg)
per quanto superficiale sia un 3dm06 , dai punteggi mi sembra lecito supporre che una gx2 in certi casi può essere limitata dalla cpu , anche perchè non tutti i software fanno buon uso di un quad:O
l'aumento di punti non è certamente dovuto al 10% di oc della cpu ..perche se la vga fosse già sfruttata al 100% @3300 l'inrcremento @3600 sarebbe meno di 500 punti :)
ragazzi con un alimentatore da 700 (ocz) ce la faccio o devo pigliarne un altro?'
urgenteeee
ragazzi con un alimentatore da 600 (ocz) ce la faccio o devo pigliarne un altro?'
urgenteeee
resto della configurazione???modello preciso di alimentatore???
comunque se l'ali è buono ce la fai.
sperem l'ho appena pigliato un 700 ocz....8400 a 4000 e solite cosette piu o meno :)
tommy.knocker
03-05-2008, 20:30
la rampage è crossfire e non sly! puoi mettere 2 ati ma non 2 nvidia.
certamente, intendevo che con lo sli "interno" della gx2 non posso avere 2 output. allora mi chiedevo se era possibile prendere una scheda da battaglia tipo 8500gs e simili (potrei anche prenderla ati) e metterla sull'altro pcie. le schede sarebbero indipendenti mi servirebbe giusto per avere 2 desktop in windows.
grazie come sempre
tk
secondo me :
l'aumento di punti non è certamente dovuto al 10% di oc della cpu ..perche se la vga fosse già sfruttata al 100% @3300 l'inrcremento @3600 sarebbe meno di 500 punti :)il discorso di cpu limited è meno complesso di quel che sembra! un dual a 2.66 non limita di certo una gx2 se fosse cosi nvidia avrebbe avvertito perche non tutti overcloccano e non tutti hanno qx9650 oppure 8500 a 4000. e logico che se si fanno test con il 3dmark 05 e 06 molto legati alla cpu il risultato cambia e non poco se poi si considera che overcloccando il bus si overclocca tutto il resto compreso il controller dell'hd questo rende ancora piu l'idea.. per vedere se veramente è cpu limited come dicono tanti andrebbero fatti test con 3dmark 2001 oppure con un gioco e fraps direttamente.. per fare un bel confronto e capire poi quanto sia cpu limited si dovrebbe fare test con lo stesso bus tipo 333x9 333x8 333x7 per capire meglio il cpu limited in modo che anche le ram rimangono alla stessa frequenza e sempre con un 3dmark 2001 e vedrete che quelle differenze enormi non ci saranno piu piu!
certamente, intendevo che con lo sli "interno" della gx2 non posso avere 2 output. allora mi chiedevo se era possibile prendere una scheda da battaglia tipo 8500gs e simili (potrei anche prenderla ati) e metterla sull'altro pcie. le schede sarebbero indipendenti mi servirebbe giusto per avere 2 desktop in windows.
grazie come sempre
tkno non puoi!
tommy.knocker
03-05-2008, 20:42
no non puoi!
Nel senso che 2 sk video non possono convivere sullo stesso sistema in modo indipendente?
tk
Iantikas
03-05-2008, 20:44
certamente, intendevo che con lo sli "interno" della gx2 non posso avere 2 output. allora mi chiedevo se era possibile prendere una scheda da battaglia tipo 8500gs e simili (potrei anche prenderla ati) e metterla sull'altro pcie. le schede sarebbero indipendenti mi servirebbe giusto per avere 2 desktop in windows.
grazie come sempre
tk
ma guarda ke se i due monitor ti servono solo in ambiente 2d la 9800GX2 li può pilotare tranquillamente...
....nn devi far altro ke andare nel pannello di controllo e disabilitare lo SLI...una volta disabilitato potrai attivare il multi-monitor...inoltre potrai usarlo anke in 3d a patto di usare una sola gpu e nn tutte e due...
...prendere un'altra gpu solo x usare due monitor nn ti conviene anke xkè nvidia dovrebbe a breve implementare nei driver la possibilità di usare + monitor anke con SLI attivo (così come a fatto ati col CF)...ciao
Nel senso che 2 sk video non possono convivere sullo stesso sistema in modo indipendente?
tke come fanno?
il discorso di cpu limited è meno complesso di quel che sembra! un dual a 2.66 non limita di certo una gx2 se fosse cosi nvidia avrebbe avvertito perche non tutti overcloccano e non tutti hanno qx9650 oppure 8500 a 4000. e logico che se si fanno test con il 3dmark 05 e 06 molto legati alla cpu il risultato cambia e non poco se poi si considera che overcloccando il bus si overclocca tutto il resto compreso il controller dell'hd questo rende ancora piu l'idea.. per vedere se veramente è cpu limited come dicono tanti andrebbero fatti test con 3dmark 2001 oppure con un gioco e fraps direttamente.. per fare un bel confronto e capire poi quanto sia cpu limited si dovrebbe fare test con lo stesso bus tipo 333x9 333x8 333x7 per capire meglio il cpu limited in modo che anche le ram rimangono alla stessa frequenza e sempre con un 3dmark 2001 e vedrete che quelle differenze enormi non ci saranno piu piu!
nel mio caso ho alzato il molti della cpu e ho visto che il punteggio cpu da 3300 @3600 è circa 500 punti mentre per SM2 da 6979 @7754 e per sm3 da8437 @8829 e in base alla precedente esperienza con 8800gts640 con e6420@3200 e @3500 il punteggio non cambia mentre se overclocko la vga ....:)
nel mio caso ho alzato il molti della cpu e ho visto che il punteggio cpu da 3300 @3600 è circa 500 punti mentre per SM2 da 6979 @7754 e per sm3 da8437 @8829 e in base alla precedente esperienza con 8800gts640 con e6420@3200 e @3500 il punteggio non cambia mentre se overclocko la vga ....:)500 punti infatti non sono certo la soluzione... sicuramente l'overclock della vga influisce di piu.
Ciao a tutti,
ho la seguente configurazione
quad core q9300
8gb ram corsair (è una lunga storia lol)
due dischi da 7200 in raid 0
e la gx2
va tutto bene, di default col proc @2500 mi pare di stare sui 15000 a 3dmark06 che mi sembra in linea.
Ho però un problema specifico su un gioco, forse voi riuscite a spiegarmi.
Hellgate London. Con il motore dx9 cappo i 60fps in ogni circostanza (o quasi). Se switcho a dx10 vado a 3-4 fps.... c'è qualcuno che ha un'idea del perche?
grazie mille,
riciao a tutti, quoto questo mio primo messaggio perchè inizio a preoccuparmi con queste dx10.
Ancora hellgate mi va come prima. (cioè lo devo giocare dx9). Oggi ho installato crysis ed è un'altra tragedia :)
se gioco dx9 a 1920x1600 vado bene tutto a medio con AA4x (e già questo mi lascia a dir poco deluso, speravo, col pc nuovo di giocare a tutto al massimo)
se passo a dx 10 e azzardo a mettere le stesse impostazioni non parte nemmeno O_O. Anche scendendo a 1280x1024 se tengo tutto a high (nemmeno a max lol) ho comunque dei rallentamenti e come delle glitch su qualcuna delle foglie degli alberi...
che dite? può essere il S.o. a 64bit che da problemi? qualche problema di scheda? (i 3d mark sono normali direi il 06 a 15000 e il vantage a 10000)..
vi ringrazio...
tommy.knocker
03-05-2008, 22:55
e come fanno?
cambio la domanda, e' possibile utilizzare contemporanetamente 2 monitor (parlo di 2d) e lo sli interno di una gx2?
tk
Iantikas
04-05-2008, 00:02
cambio la domanda, e' possibile utilizzare contemporanetamente 2 monitor (parlo di 2d) e lo sli interno di una gx2?
tk
no
Iantikas
04-05-2008, 00:09
riciao a tutti, quoto questo mio primo messaggio perchè inizio a preoccuparmi con queste dx10.
Ancora hellgate mi va come prima. (cioè lo devo giocare dx9). Oggi ho installato crysis ed è un'altra tragedia :)
se gioco dx9 a 1920x1600 vado bene tutto a medio con AA4x (e già questo mi lascia a dir poco deluso, speravo, col pc nuovo di giocare a tutto al massimo)
se passo a dx 10 e azzardo a mettere le stesse impostazioni non parte nemmeno O_O. Anche scendendo a 1280x1024 se tengo tutto a high (nemmeno a max lol) ho comunque dei rallentamenti e come delle glitch su qualcuna delle foglie degli alberi...
che dite? può essere il S.o. a 64bit che da problemi? qualche problema di scheda? (i 3d mark sono normali direi il 06 a 15000 e il vantage a 10000)..
vi ringrazio...
hai installato tutte le patch di microsoft x multi-gpu e dx10? (se nn l'hai fatto sono queste http://support.microsoft.com/kb/945149 http://support.microsoft.com/kb/940105 http://support.microsoft.com/kb/936710 http://support.microsoft.com/kb/938194 http://support.microsoft.com/kb/938979 )....
...queste patch nn sono opzionali, sono indispensabili al corretto funzionamento del sistema...
...hai instllato gli ultimi driver x il tuo sistema operativo? (dovrebbero essere i 175.12)...
...cmq quake problema c'è sicuramente...ciao
hai installato tutte le patch di microsoft x multi-gpu e dx10? (se nn l'hai fatto sono queste http://support.microsoft.com/kb/945149 http://support.microsoft.com/kb/940105 http://support.microsoft.com/kb/936710 http://support.microsoft.com/kb/938194 http://support.microsoft.com/kb/938979 )....
...queste patch nn sono opzionali, sono indispensabili al corretto funzionamento del sistema...
...hai instllato gli ultimi driver x il tuo sistema operativo? (dovrebbero essere i 175.12)...
...cmq quake problema c'è sicuramente...ciao
ho gli aggiornamenti automatici attivi, quindi dovrebbero esserci. Cmq ora li controllo uno a uno.
Per quanto riguarda i driver il sito nvidia mi dice che gli ultimi per me sono i 174.74..
edito.. non so perche ma mi dice che questi aggiornamenti non sono applicabili al sistema in uso... mmh
Dobermann75
04-05-2008, 00:52
ho gli aggiornamenti automatici attivi, quindi dovrebbero esserci. Cmq ora li controllo uno a uno.
Per quanto riguarda i driver il sito nvidia mi dice che gli ultimi per me sono i 174.74..
edito.. non so perche ma mi dice che questi aggiornamenti non sono applicabili al sistema in uso... mmh
perche' se hai il sp1 non hai piu necessita' di aggiornamenti per il momento ;)
perche' se hai il sp1 non hai piu necessita' di aggiornamenti per il momento ;)
e quindi sono fottuto :D
please qualcuno avanzi qualche super idea che sto entrando in crisi da delusione post acquisto...:help:
Iantikas
04-05-2008, 01:21
e quindi sono fottuto :D
please qualcuno avanzi qualche super idea che sto entrando in crisi da delusione post acquisto...:help:
x qualke super idea ti tocca aspettare qualcuno meno rinco di me :D (a quest'ora poi :sofico: )...
...cmq quando dici ke in DX10 nn ti parte proprio intendi ke fa un errore o simile? se si quale?...
...potresti provare disinstallando x bene i driver e reinstallandoli...cmq dev'essere qualke problema SW d'incasinamento del s.o....alla fine in questi casi è difficile ke un "esterno" alla vicenda riesca a trovare la causa del problema e la soluzione + sbrigativa è quasi sempre un bel formattone riparatore...
...ciao
p.s.: cmq nn penso il problema sia legato a vista 64bit xkè ci son tanti altri uteni ke lo usano senza problemi...inoltre con gli 8gb d ram ke hai è praticamente improponibile d'installare il 32bit...
p.p.s.: già ke ci sto ne sparo un'altra :D il pannello dei driver lo tieni d def o hai cambiato qualke impo...nn'è ke stai x caso forzando un metodo d rendering multi-gpu incompatibile con l'applicazioni ke stai usando?...
p.p.p.s.: mi sa ke vado a nanna...in bocca al lupo ;) ...magari domani si logga qualcuno ke ne capisce e riesce a risolverti il problema :sperem: ...notte
riciao a tutti, quoto questo mio primo messaggio perchè inizio a preoccuparmi con queste dx10.
se gioco dx9 a 1920x1600 vado bene tutto a medio con AA4x (e già questo mi lascia a dir poco deluso, speravo, col pc nuovo di giocare a tutto al massimo)
vi ringrazio...
Ciao,con che monitor/configurazione giochi a crysis a 1920x1600:mbe: ?
Ciao,con che monitor/configurazione giochi a crysis a 1920x1600:mbe: ?
ciao,
ovviamente era un errore da sonno :P 1920x1200 :) su un 24'
x qualke super idea ti tocca aspettare qualcuno meno rinco di me :D (a quest'ora poi :sofico: )...
...cmq quando dici ke in DX10 nn ti parte proprio intendi ke fa un errore o simile? se si quale?...
...potresti provare disinstallando x bene i driver e reinstallandoli...cmq dev'essere qualke problema SW d'incasinamento del s.o....alla fine in questi casi è difficile ke un "esterno" alla vicenda riesca a trovare la causa del problema e la soluzione + sbrigativa è quasi sempre un bel formattone riparatore...
sì, potrebbe essere, però sto pc ha pochi giorni cazzarola, strano che si sia incasinato il S.O.
p.s.: cmq nn penso il problema sia legato a vista 64bit xkè ci son tanti altri uteni ke lo usano senza problemi...inoltre con gli 8gb d ram ke hai è praticamente improponibile d'installare il 32bit...
agree :)
p.p.s.: già ke ci sto ne sparo un'altra :D il pannello dei driver lo tieni d def o hai cambiato qualke impo...nn'è ke stai x caso forzando un metodo d rendering multi-gpu incompatibile con l'applicazioni ke stai usando?...
ieri notte ho messo i driver beta (ho quadagnato un 1000 sui 3d mark ma niente in game). Il pannello nvidia l'ho lasciato a default quindi purtroppo non è questo
p.p.p.s.: mi sa ke vado a nanna...in bocca al lupo ;) ...magari domani si logga qualcuno ke ne capisce e riesce a risolverti il problema :sperem: ...notte
mah, speriamo :D per adesso grazie mille!
tommy.knocker
04-05-2008, 08:22
no
porca paletta, sintetizzando non esiste nessun modo per avere 2 monitor con una gx2+sli interno? accidenti non me l'aspettavo. :cry:
per caso esiste un barbatrucco per disabilitare\abilitare lo sli senza riavviare?
per fortuna che ve l'ho richiesto avevo già ordinato la seconda scheda...ma ho fatto in tempo a cancellare l'ordine.
tk
fr4nc3sco
04-05-2008, 08:54
porca paletta, sintetizzando non esiste nessun modo per avere 2 monitor con una gx2+sli interno? accidenti non me l'aspettavo. :cry:
per caso esiste un barbatrucco per disabilitare\abilitare lo sli senza riavviare?
per fortuna che ve l'ho richiesto avevo già ordinato la seconda scheda...ma ho fatto in tempo a cancellare l'ordine.
tk
be ma il prob è anche con una sola vga essendo collegata internamente in sli quindi l'unica è disabilitare 1 skeda col risultato 2 monitor prestazioni da 8800gt-s oppure 1 skermo configurazione sli
Narghile
04-05-2008, 10:08
ciao raga sto trattando una 9800 gx2 forse l'unico probblema ke sia della twintech!!!!!!!!!! voi ke dite ke sia buona è ki la provate mi dica se ha avuto probblemi!!!!!
grazie ciao:::::
fdadakjli
04-05-2008, 10:16
ciao raga sto trattando una 9800 gx2 forse l'unico probblema ke sia della twintech!!!!!!!!!! voi ke dite ke sia buona è ki la provate mi dica se ha avuto probblemi!!!!!
grazie ciao:::::
sono tutte uguali...vai tranquillo... ;)
tommy.knocker
04-05-2008, 10:40
be ma il prob è anche con una sola vga essendo collegata internamente in sli quindi l'unica è disabilitare 1 skeda col risultato 2 monitor prestazioni da 8800gt-s oppure 1 skermo configurazione sli
infatti l'ideale sarebbe avere la possibilità di attivare\disattivare lo sli senza riavviare. quando lavoro starei piu' comodo con 2 monitor mentre quando gioco non importa se l'altro viene disabilitato, l'unica scocciatura e dover sempre riavvare...
tk
fr4nc3sco
04-05-2008, 11:01
infatti l'ideale sarebbe avere la possibilità di attivare\disattivare lo sli senza riavviare. quando lavoro starei piu' comodo con 2 monitor mentre quando gioco non importa se l'altro viene disabilitato, l'unica scocciatura e dover sempre riavvare...
tk
su vista nn si riavvia! ci mette 2 min e skermo nero ma resti dentro l'os
fdadakjli
04-05-2008, 11:07
su vista nn si riavvia! ci mette 2 min e skermo nero ma resti dentro l'os
confermo... :)
tommy.knocker
04-05-2008, 11:44
confermo... :)
ok questa e' una buona notizia, sto aspettando che mi arrivi vista 64 home premium oem, sto con xp. e qui va riavviato almeno con i 174.74. fino adesso è l'unica cosa che mi spingerebbe a passare a vista, sono molto restio ad abbandonare xp...
tk
fdadakjli
04-05-2008, 11:52
ok questa e' una buona notizia, sto aspettando che mi arrivi vista 64 home premium oem, sto con xp. e qui va riavviato almeno con i 174.74. fino adesso è l'unica cosa che mi spingerebbe a passare a vista, sono molto restio ad abbandonare xp...
tk
anche l'avere 4GB di ram ti dovrebbe spingere verso Vista... ;)
è un'O.S. tutto sommato buono...l'unica pecca riguarda le prestazioni...c'è ancora molta strada da fare...ma già con l'SP1 un pò di miglioramento c'è stato...speriamo si continui così... :)
tommy.knocker
04-05-2008, 11:57
anche l'avere 4GB di ram ti dovrebbe spingere verso Vista... ;)
è un'O.S. tutto sommato buono...l'unica pecca riguarda le prestazioni...c'è ancora molta strada da fare...ma già con l'SP1 un pò di miglioramento c'è stato...speriamo si continui così... :)
hai ragione, ho preso 4gb in previsione di vista. mi stonavano le prestazioni castrate e la pesantezza dell'os in se. spero di trovarmi bene, avere xp e vista significa 4 hd per me, se rinunciassi a xp non sarebbe male. vedremo!
grazie come sempre
tk
Enochian
04-05-2008, 16:33
Dunque vorrei prendere due 9800gx2 in sli, qualcuno ha già questa configurazione? come va crysis dopo la cura sli? è realmente vantaggioso passare da una 9800gx2 a due 9800gx2 in sli?
fr4nc3sco
04-05-2008, 16:35
Dunque vorrei prendere due 9800gx2 in sli, qualcuno ha già questa configurazione? come va crysis dopo la cura sli? è realmente vantaggioso passare da una 9800gx2 a due 9800gx2 in sli?
no è il gioco che rende peggio con lo sli guadagno si ma nn miracolo e non piena fluidità a 1920x1200
Enochian
04-05-2008, 16:39
Ma sto gioco l'hanno programmato per i computer del futuro?
In ogni caso girano sulla rete filmati di test con quad sli con un rate medio di 55 fps, con minimo di 20 e massimo di 100; siccome devo fare l'investimento, mi consigliate di prendere due 9800gx2 o in generale dovendo giocare a 1900x1200 anche con altri titoli mi serve a poco?
Ma sto gioco l'hanno programmato per i computer del futuro?
In ogni caso girano sulla rete filmati di test con quad sli con un rate medio di 55 fps, con minimo di 20 e massimo di 100; siccome devo fare l'investimento, mi consigliate di prendere due 9800gx2 o in generale dovendo giocare a 1900x1200 anche con altri titoli mi serve a poco?
Lascia perdere il quad sli circa 900 euro NON NE VALE LA PENA!!!
La cosa che mi fa rabbia è che possedere una 9800gx2 o una 8800gt ECCETTO CRYSIS ci si fa ugualmente la stessa cosa ossia se la gt a cod4 fa 60 frame(sufficienti) la gx2 ne fa 90(sicuramente di più ma se si gioca con il vsync è la stessa cosa).
Poi quando si tratta di cacciare fuori le @@ ossia in CRYSIS, non si gioca nè con la gt ma neanche con la gx2 in very high quindi morale della favola....
1)CRYSIS ANCORA SUGLI SCAFFALI;
2)i benefici si notano ad occhio nudo in tutti i giochi solo 1920*1200 in su;
3)il quad sli fa valere la sua forza bruta soltanto a 2560*1600;
Quindi valuta un po' se ti conviene.... bè se sei impaccato di soldi e possiedi anche un 30 pollici ed esigi di giocare a 2560 TRANNE A CRYSIS, allora lo sfrutti, però sappi che fra un po' escono le nuove verie serie che sono MOLTO MENO LEGATE al resto dell'hardware e dovrebbero sgravare di molto il lavoro al sistema CPU.
Per sfruttare una 9800gx2 al 100% ci vuole un quad a 4Ghz per un quad sli credo ossia ipotizzo almeno a 4,3 ghz ci devi essere...
ciao ragazzi, scusate l'intrusione,
ho bisogno di un informazione che non sono riuscito a reperire in rete:
quanto consuma come ampere la 9800gx2 a default??
ve lo chiedo perche sarei molto interessato all acquisto della scheda ma per ora non ho abbastanza fondi per cambiare l'alimentatore e mi chiedevo se il mio fido liberty 500w puo bastare...
se puo servire vi dico gia che la suddetta scheda l'ho gia provata sul mio pc in firma e ho aftto girare un po il pc e un po crysis(scheda a default e priocio a 4 giga) e in quella mezz oretta di twst il pc e l'ali non hanno dato segno di cedimento...
pero se allungando i periodo di test e di game il mio ali puo reggere...
qualche consiglio, testimonianza o delucidazione????
grazie mille!!!!!
ciao ragazzi, scusate l'intrusione,
ho bisogno di un informazione che non sono riuscito a reperire in rete:
quanto consuma come ampere la 9800gx2 a default??
ve lo chiedo perche sarei molto interessato all acquisto della scheda ma per ora non ho abbastanza fondi per cambiare l'alimentatore e mi chiedevo se il mio fido liberty 500w puo bastare...
se puo servire vi dico gia che la suddetta scheda l'ho gia provata sul mio pc in firma e ho aftto girare un po il pc e un po crysis(scheda a default e priocio a 4 giga) e in quella mezz oretta di twst il pc e l'ali non hanno dato segno di cedimento...
pero se allungando i periodo di test e di game il mio ali puo reggere...
qualche consiglio, testimonianza o delucidazione????
grazie mille!!!!!
secondo me basta.
Iantikas
04-05-2008, 19:02
ciao ragazzi, scusate l'intrusione,
ho bisogno di un informazione che non sono riuscito a reperire in rete:
quanto consuma come ampere la 9800gx2 a default??
ve lo chiedo perche sarei molto interessato all acquisto della scheda ma per ora non ho abbastanza fondi per cambiare l'alimentatore e mi chiedevo se il mio fido liberty 500w puo bastare...
se puo servire vi dico gia che la suddetta scheda l'ho gia provata sul mio pc in firma e ho aftto girare un po il pc e un po crysis(scheda a default e priocio a 4 giga) e in quella mezz oretta di twst il pc e l'ali non hanno dato segno di cedimento...
pero se allungando i periodo di test e di game il mio ali puo reggere...
qualche consiglio, testimonianza o delucidazione????
grazie mille!!!!!
basta e avanza..ciao
secondo me basta.
basta e avanza..ciao
grazie mille ragazzi, mi avete rincuorato, vado tranquillo sull acquisto della vga allora...
tra l'altro proprio ieri enermax mi ha fatto arrivare a casa il cavo 8 pin...
cmq grazie mille...
anche per questa vga come per tutte le altre la scelta della marca non e determinante??
sono assolutamente tutte uguali le schede??
no poiche io in genere prediligo asus...
grazie mille ragazzi, mi avete rincuorato, vado tranquillo sull acquisto della vga allora...
tra l'altro proprio ieri enermax mi ha fatto arrivare a casa il cavo 8 pin...
cmq grazie mille...
anche per questa vga come per tutte le altre la scelta della marca non e determinante??
sono assolutamente tutte uguali le schede??
no poiche io in genere prediligo asus...
lol, io in generale non prediligo asus... :D
lol, io in generale non prediligo asus... :D
perche? che ti ha fatto di male? io mi sono sempre trovato bene come qualita dei prodotti, bundle e accessori e servizio post vendita... tu quale prenderesti??
Enochian
04-05-2008, 20:46
Grazie della risposta, allora credo che prenderò un sistema non sli, con una sola 9800gx2... però la tentazione di prendere la 790i con due geforce è forte, visto che almeno con crysis spaccano ( una media di 50 fps è moltissimo ).
Il processore che ho scelto è un qx9650, cloccabile fino a 4G per quello che mi riguarda, quindi le sfrutterò a dovere.
perche? che ti ha fatto di male? io mi sono sempre trovato bene come qualita dei prodotti, bundle e accessori e servizio post vendita... tu quale prenderesti??
le mobo asus vdroppano da far schifo...io con la mobo in firma ho 0 vdrop.
tornando in topic direi che una vale l'altra, tanto sono tutte uguali.
Johncook
05-05-2008, 12:37
ragazzi per sfruttare appieno la gx2 secondo voi conviene che passo dal mio 19" asus pg191 ad un iiyama ProLite B2403WS-1??? ce la fa il pc in firma??? crysis su high a quanti fps andrà???grazie a tutti
ragazzi per sfruttare appieno la gx2 secondo voi conviene che passo dal mio 19" asus pg191 ad un iiyama ProLite B2403WS-1??? ce la fa il pc in firma??? crysis su high a quanti fps andrà???grazie a tutti
su un 19 la 9800gx2 è sprecatissima...
Johncook
05-05-2008, 12:42
su un 19 la 9800gx2 è sprecatissima...
si ho capito...ma volevo sapere se il pc in firma ce la fa o se ci serve una cpu a 3.6-3.8 nn so...
si ho capito...ma volevo sapere se il pc in firma ce la fa o se ci serve una cpu a 3.6-3.8 nn so...
ce la fa...
robertino75
05-05-2008, 12:47
si ho capito...ma volevo sapere se il pc in firma ce la fa o se ci serve una cpu a 3.6-3.8 nn so...
se intendi per giocare...certo che ce la fà...se poi parli del 3dpork piu vai su di cpu e "meglio" è.....
una scheda come questa ha bisogno di un fullhd....:D
Johncook
05-05-2008, 12:51
ok allora lo prendo... giusto per una info... come monitor quello che ho scelto come lo vedete?(iiyama ProLite B2403WS-1)
c'è di meglio??lo so che siamo un po o.t. ma avrei bisogno di un consiglio per spremere sta gpu e mi sembra più appropriato questo thread di quello dell'iiyama..
robertino75
05-05-2008, 13:16
ok allora lo prendo... giusto per una info... come monitor quello che ho scelto come lo vedete?(iiyama ProLite B2403WS-1)
c'è di meglio??lo so che siamo un po o.t. ma avrei bisogno di un consiglio per spremere sta gpu e mi sembra più appropriato questo thread di quello dell'iiyama..
vedendo le caratteristiche tecniche sembra molto buono come schermo.
Informazioni generali :
Colore 16,7 milioni di colori
Risoluzione 1920 x 1200
Luminosità 300 cd/m²
Contrasto 2000:1 DCR
Angolo visualizzazione orizzontale/verticale 170/160
Tempo di risposta 2 ms
Ingressi video 1 x D-Sub
1 x HDMI
Frequenza della pagina Orizzontale: 31-83 kHz
Verticale: 56-75 Hz
Altoparlanti audio 2 x 2W
Consumo massimo 65W (in utilizzo), 2W (in stand by)
Dimensioni 566 x 458,5 x 191,5 mm
Peso 6,5 kg
Johncook
05-05-2008, 14:10
costa intorno ai 400 euro...pensate si possa fare o c'è di meglio intorno a quel prezzo?
robertino75
05-05-2008, 14:16
costa intorno ai 400 euro...pensate si possa fare o c'è di meglio intorno a quel prezzo?
fare una ricerca per informarti no?:D
o aspetti che gli altri la facciano per te?:p
apparte gli scherzi...come schermo mi sembra molto buono...io il mio l'ho pagato 485€ ed è buono anche questo....anche se quello postato da te ha un tempo di risposta migliore...2ms contro i 5ms del mio.
esteticamente mi piace più il mio HP....ma questi sò gusti....boh fai una ricerca di vari monitor a 24" e vedi quale ti piace di piu a te :D
tanto le caratteristiche importanti sono :
1)tempo di risposta
2)contrasto
3)rapporto 1:1(in caso lo volessi utilizzare anche per le console 360 o ps3)
4)collegamenti presenti...di solito HDMI e VGA
5)bellezza estetica...questa ovviamente è soggettiva
ciao :D
le mobo asus vdroppano da far schifo...io con la mobo in firma ho 0 vdrop.
tornando in topic direi che una vale l'altra, tanto sono tutte uguali.
grazie mille per la info e cmq per la vdrop della mobo nel piu dei casi basta una matita... io con le asus mi sono sempre trovato da dio...
il mio dilemma era per la vga ma se mi dite che sono tutte le medesime...
per esempio nel caso della mia 8800 ci sono case che non implementano ad esempio il sensore della temperatura per ridurre i costi..
correggetemi se sbaglio.,..
m_w returns
05-05-2008, 20:07
le mobo asus vdroppano da far schifo...io con la mobo in firma ho 0 vdrop.
tornando in topic direi che una vale l'altra, tanto sono tutte uguali.
dipende...c'è mobo e mobo...
dipende...c'è mobo e mobo...
le p5k per esempio sono scandalose e anche le altre non eccellono certo sotto questo punto di vista.
robertino75
05-05-2008, 20:10
le p5k per esempio sono scandalose e anche le altre non eccellono certo sotto questo punto di vista.
effettivamente il vdrop con le p5k è scandaloso...fortuna che si può fare la pencil mod...ora ho un vdrop pari a 0...certo rode un pò a doverselo fare da soli quando dovrebbe essere cosi standard.
cristian-BG
05-05-2008, 20:13
salve scusate qualcuno di voi ha la 9800gx2 su una scheda con chipset x48? meglio se dfi? :) mi è stato detto che un tizio l'ha venduta xè nn è compatibile.. anche se dubito altamente della cosa è possibile una incompatibilità ??? :mbe:
salve scusate qualcuno di voi ha la 9800gx2 su una scheda con chipset x48? meglio se dfi? :) mi è stato detto che un tizio l'ha venduta xè nn è compatibile.. anche se dubito altamente della cosa è possibile una incompatibilità ??? :mbe:
edit: forse qualche problemino c'è. :stordita:
http://www.xtremesystems.org/forums/showthread.php?p=2840300
m_w returns
05-05-2008, 20:20
le p5k per esempio sono scandalose e anche le altre non eccellono certo sotto questo punto di vista.
della serie P5K ho avuto la P5K3 Deluxe che non Vdroopava...la P5K Premium che Vdroppava un pochino ma solo parlando di tensione applicata e tensione effettiva...perchè poi idle e full non si abbassava nemmeno di 1 mv. Poi le varie Maximus sono proprio un altro pianeta! Anche se quasi quasi la migliore (senza nessuna mod) è stata proprio la P5K3 Dlx.
cristian-BG
05-05-2008, 21:14
ora nn so piu cosa fare.. nn so se prendere sta scheda o cambiare tipo di scheda madre devo prendere una dfi x48... ma che problemi danno che nn so l'inglese io??????? :doh: :doh: :doh: :doh: le mobo con chipset 790 che problemi danno? nn overclocco molto
ora nn so piu cosa fare.. nn so se prendere sta scheda o cambiare tipo di scheda madre devo prendere una dfi x48... ma che problemi danno che nn so l'inglese io??????? :doh: :doh: :doh: :doh: le mobo con chipset 790 che problemi danno? nn overclocco molto
ma tenere la mobo di adesso no??? :stordita:
cristian-BG
05-05-2008, 21:23
ma tenere la mobo di adesso no??? :stordita:
enno l'ho regalato a mio fratello questo pc :) io sono a piedi :doh: :D
sapete dirmi se sta scheda video scalda tanto e se e' compatibile con la mainboard intel p5E3 Deluxe? ultima cosa ma come mai sta scheda e' piu' potente della gtx 9800 e ha pero' il clock inferiore questa da 600 e la minore mi sembra 625 di clock come e' possibile?
grazie ciao
Ciao a tutti
interessato all'acquisto di questa scheda, il mio alimentatore non ha il molex a 8 Pin ma solo quellia 6.
Funziona lo stesso se ne metto2 da sei oppure devo cambiare alimentatore?
Non esiste un'adattatore 6-8?
Grazie.
Andrea
Ciao a tutti
interessato all'acquisto di questa scheda, il mio alimentatore non ha il molex a 8 Pin ma solo quellia 6.
Funziona lo stesso se ne metto2 da sei oppure devo cambiare alimentatore?
Non esiste un'adattatore 6-8?
Grazie.
Andrea
Io ho provato ma con due alimentazioni a 6 pin la scheda non funziona. L'unico adattatore che ho trovato è per gli alimentatori modulari della serie enermax.
su un 19 la 9800gx2 è sprecatissima...
scusa pensi sia sprecata per la risoluzione?
se si non sono d'accordo, quanti giochi si possono eseguire a + di 1440 x900 antialiasing max anisotropico 16 dettagli e filtri alti in dtx 10? e che girano fluidissmi? ma fluidi , dimmeli parlo di giochi tipo crysis , assasins creed, gothic 3 , bioshock
io penso che se si voglia sfuttare la grandezza schermo bene, se invece voglio vedere la risoluzione x me e' inutile comprare un mega monitor che arriva a 1920 ..... sapendo che a quella risoluzione non potro' mai giocarci ..
se ho capito male allora fa niente
robertino75
05-05-2008, 22:51
scusa pensi sia sprecata per la risoluzione?
se si non sono d'accordo, quanti giochi si possono eseguire a + di 1440 x900 antialiasing max anisotropico 16 dettagli e filtri alti in dtx 10? e che girano fluidissmi? ma fluidi , dimmeli parlo di giochi tipo crysis , assasins creed, gothic 3 , bioshock
io penso che se si voglia sfuttare la grandezza schermo bene, se invece voglio vedere la risoluzione x me e' inutile comprare un mega monitor che arriva a 1920 ..... sapendo che a quella risoluzione non potro' mai giocarci ..
se ho capito male allora fa niente
io ci gioco :stordita:
anch'io sto giocando a assasins creed basta accontentarsi:stordita:
NOOB4EVER
06-05-2008, 01:21
anch'io sto giocando a assasins creed basta accontentarsi:stordita:
azz,io non riesco ad accontentarmi :muro:
scusa pensi sia sprecata per la risoluzione?
se si non sono d'accordo, quanti giochi si possono eseguire a + di 1440 x900 antialiasing max anisotropico 16 dettagli e filtri alti in dtx 10? e che girano fluidissmi? ma fluidi , dimmeli parlo di giochi tipo crysis , assasins creed, gothic 3 , bioshock
io penso che se si voglia sfuttare la grandezza schermo bene, se invece voglio vedere la risoluzione x me e' inutile comprare un mega monitor che arriva a 1920 ..... sapendo che a quella risoluzione non potro' mai giocarci ..
se ho capito male allora fa niente
perchè la differenza tra aa 4x e 16x non la si nota e perchè a 1280*1024 aa4x e af 16x ci giochi anche con una 8800gt.
poi se compri questa vga pensando di poter giocare a crysis con i filtri...
ririciao,
purtroppo vedo che nessuno ha un'idea per risolvere il mio problema :muro:
giro la domanda in modo da farmi un'idea più chiara:
con la mia configurazione (quad core q9300 @3000, 8gb ram @800, 2 dischi 7200 in raid 0 e la 9800gx2) a che livello dovrei poter far girare crysis?
Parlo di dx 10 e vorrei usare la 1920x1200 come risoluzione.
thanks per le risposte,
halduemilauno
06-05-2008, 09:50
ririciao,
purtroppo vedo che nessuno ha un'idea per risolvere il mio problema :muro:
giro la domanda in modo da farmi un'idea più chiara:
con la mia configurazione (quad core q9300 @3000, 8gb ram @800, 2 dischi 7200 in raid 0 e la 9800gx2) a che livello dovrei poter far girare crysis?
Parlo di dx 10 e vorrei usare la 1920x1200 come risoluzione.
thanks per le risposte,
VH.
;)
VH.
;)
tutto al massimo con quindi almeno 25/30 fps intendi?
halduemilauno
06-05-2008, 09:55
tutto al massimo con quindi almeno 25/30 fps intendi?
si esatto. magari oc la scheda se non lo hai gia fatto e saranno + 30 che 25.
;)
si esatto. magari oc la scheda se non lo hai gia fatto e saranno + 30 che 25.
;)
il mio problema è che dx 10 con i settings che dici tu mi va a 3 fps, quando parte.
E non riesco a capire perchè (vorrei arrivare a 20fps prima di overcloccare)
halduemilauno
06-05-2008, 10:06
il mio problema è che dx 10 con i settings che dici tu mi va a 3 fps, quando parte.
E non riesco a capire perchè (vorrei arrivare a 20fps prima di overcloccare)
se con la scheda video + potente al mondo fai tre significa che hai grossi problemi. magari hai i filtri attivati controlla il pannello controllo. che driver usi hai i 175?
;)
se con la scheda video + potente al mondo fai tre significa che hai grossi problemi. magari hai i filtri attivati controlla il pannello controllo. che driver usi hai i 175?
;)
scusa cosa intendi con "magari hai i filtri attivati"? sono niubbino..
scusa cosa intendi con "magari hai i filtri attivati"? sono niubbino..
dai driver nvidia puoi impostare di forzare i filtri in tutte le applicazioni 3d, controlla e nel caso imposta "controllato dall'applicazione"
dai driver nvidia puoi impostare di forzare i filtri in tutte le applicazioni 3d, controlla e nel caso imposta "controllato dall'applicazione"
è impostato giusto. Ma quando mi dicevi tutto al massimo intendevi anche AA16x?
è impostato giusto. Ma quando mi dicevi tutto al massimo intendevi anche AA16x?
dove ho detto tutto al massimo???
dove ho detto tutto al massimo???
scusa, ho quotato te ma me l'aveva detto halduemilano..
halduemilauno
06-05-2008, 11:34
scusa, ho quotato te ma me l'aveva detto halduemilano..
io ho detto di controllare se avevi i filtri attivati. se attivi disattivali.
;)
io ho detto di controllare se avevi i filtri attivati. se attivi disattivali.
;)
no spe,
una cosa è controllare se sto forzando i filtri da pannello di controllo nvidia e un'altra è impostare l'AA nel client di Crysis.
Ho controllato nel pannello che l'AA è controllato dall'applicazione. A questo punto vorrei capire se gli fps di cui mi parlavi tu erano con l'AA di Crysis a zero o al massimo :)
thanks
no spe,
una cosa è controllare se sto forzando i filtri da pannello di controllo nvidia e un'altra è impostare l'AA nel client di Crysis.
Ho controllato nel pannello che l'AA è controllato dall'applicazione. A questo punto vorrei capire se gli fps di cui mi parlavi tu erano con l'AA di Crysis a zero o al massimo :)
thanks
a crysis ci giochi a 30fps forse senza aa...con l'aa a 4x se ne fai la metà già va bene.
a crysis ci giochi a 30fps forse senza aa...con l'aa a 4x se ne fai la metà già va bene.
ah capisco.. io tenevo AA a 16x. Appena torno a casa faccio una prova senza AA. Però a sto punto non è tutto al massimo e per giocarlo davvero al massimo ci vuole il pc della nasa..
halduemilauno
06-05-2008, 11:50
no spe,
una cosa è controllare se sto forzando i filtri da pannello di controllo nvidia e un'altra è impostare l'AA nel client di Crysis.
Ho controllato nel pannello che l'AA è controllato dall'applicazione. A questo punto vorrei capire se gli fps di cui mi parlavi tu erano con l'AA di Crysis a zero o al massimo :)
thanks
ovviamente a zero.
;)
perchè la differenza tra aa 4x e 16x non la si nota e perchè a 1280*1024 aa4x e af 16x ci giochi anche con una 8800gt.
poi se compri questa vga pensando di poter giocare a crysis con i filtri...
scusa il problema e' che dovrei prendere un nuovo pc e mi consigliano x il mio monitor di nn prendere questa
siccome volevo fare una spesa duratura magari tra 6 mesi escono dei giochi che a1024 x 768 con i max dett. che sono graficamente migliori di una risoluz. esagerata di oggi . ho il dubbio lo ammetto ma se il budget e' quello voi a priori prendereste una sk video che va alla meta' x un monitor + grande? magari sbaglio io e'?
es. ora ho crisys e altri giochi che a palla a 1024 manco girano avessi na sck piu' potente ?!
ultima cosa le 8800 sono dei forni crematori
edit: forse qualche problemino c'è. :stordita:
http://www.xtremesystems.org/forums/showthread.php?p=2840300
non ho capito bene allora non e' compatibile prorprio quel chipset con questa scheda?
cristian-BG
06-05-2008, 12:26
non ho capito bene allora non e' compatibile prorprio quel chipset con questa scheda?
nemmeno io c capisco.. ho mandato una mail supporto tecnico alla dfi x sapere se la x48 supporta la 9800gx2...
ma molti cmq hanno la asus rampage x48 e la 9800gx2 nn capisco che problemi siano xò visto che nn so l'inglese :doh: :muro:
cristian-BG
06-05-2008, 12:42
appena arrivata la risposta di dfi riguardo al supporto con il chipset x48
I see no reason why a 9800GX2 card can not work on this board. The PCIE x 16 slot on this board is 2.0 compliant
:)
appena arrivata la risposta di dfi riguardo al supporto con il chipset x48
I see no reason why a 9800GX2 card can not work on this board. The PCIE x 16 slot on this board is 2.0 compliant
:)
ma tu hai capito che cosa ti ha detto nella risposta???
ma tu hai capito che cosa ti ha detto nella risposta???
italian please:cry:
italian please:cry:
I see no reason why a 9800GX2 card can not work on this board. The PCIE x 16 slot on this board is 2.0 compliant
dice che non vede il motivo per cui la vga non dovrebbe andare su quella mobo e dice che gli slot pci-e 16x sono 2.0...
questo però lo sapevamo anche prima della sua illuminazione. :rolleyes:
Procio Deafult :
http://img363.imageshack.us/img363/111/schermosingolozv0.jpg
Come vedete in Sign :
http://img337.imageshack.us/img337/4492/configdefaultoclv5.jpg
Procio Deafult :
http://img363.imageshack.us/img363/111/schermosingolozv0.jpg
Come vedete in Sign :
http://img337.imageshack.us/img337/4492/configdefaultoclv5.jpg
mica male.
Grazie! :)
L'incremento è notevole come punteggio considerando che a scheda sli off si arriva default a 14500... e con sli on 16700...
halduemilauno
06-05-2008, 15:15
Procio Deafult :
http://img363.imageshack.us/img363/111/schermosingolozv0.jpg
Come vedete in Sign :
http://img337.imageshack.us/img337/4492/configdefaultoclv5.jpg
ottimo.
;)
Grazie! :)
L'incremento è notevole come punteggio considerando che a scheda sli off si arriva default a 14500... e con sli on 16700...
ma il procio lo hai ad aria???
ma il procio lo hai ad aria???
Si ad aria. Non scalda nulla sto penryn...
32 gradi in idle e una 50 ina in full sotto oc.
Si ad aria. Non scalda nulla sto penryn...
32 gradi in idle e una 50 ina in full sotto oc.
clocca ancora sto procio. :sofico:
ovviamente a zero.
;)
poi non vi rompo + sorry. Ma per voi è meglio giocare dx9 coi filtri o dx 10 senza? a livello di impatto grafico ovviamente..
non riesco a fare la prova perchè sono in Turchia, ma ho paura di avere tante seghettature con AA a zero.. sbaglio?
halduemilauno
06-05-2008, 15:30
poi non vi rompo + sorry. Ma per voi è meglio giocare dx9 coi filtri o dx 10 senza? a livello di impatto grafico ovviamente..
non riesco a fare la prova perchè sono in Turchia, ma ho paura di avere tante seghettature con AA a zero.. sbaglio?
a 1920x1200 l'aa è meno necessario cmq in tutti i casi massimo 4x. massimo ma in crisys ti giochi la giocabilità.
;)
poi non vi rompo + sorry. Ma per voi è meglio giocare dx9 coi filtri o dx 10 senza? a livello di impatto grafico ovviamente..
non riesco a fare la prova perchè sono in Turchia, ma ho paura di avere tante seghettature con AA a zero.. sbaglio?
l'aliasing lo vedi molto negli screenshot, in game non è che si noti poi così tanto.
volevo sapere come va sta vga,
meglio questa o lo sli di 8800?
prestazioni e consumi
volevo sapere come va sta vga,
meglio questa o lo sli di 8800?
prestazioni e consumi
precisa che 8800.
comunque in ogni caso direi meglio questa per via dei consumi più bassi.
precisa che 8800.
comunque in ogni caso direi meglio questa per via dei consumi più bassi.
8800 gtx
8800 gtx
leggi questa recensione
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_4.html
letta, e sinceramente non so che fare
letta, e sinceramente non so che fare
9800gx2 senza nessun dubbio, va più forte e consuma meno.
vorrei un parere per chi l'ha provata con crysis
vorrei un parere per chi l'ha provata con crysis
crysis appena finito, giocato a 1920x1200, dx10, senza filtri, dettagli medio/alti
uno spettacolo, te la consiglio sicuramente
Skullcrusher
07-05-2008, 07:30
Sono usciti i forceware 175.16 :)
Sono usciti i forceware 175.16 :)
Stavo per dirlo io, qualcuno li ha provati? :)
fr4nc3sco
07-05-2008, 11:26
Stavo per dirlo io, qualcuno li ha provati? :)
ma io sono hai 175.63 che ci sono su guru se riesco stasera li istallo
magic carpet
07-05-2008, 15:16
Ma a quanto la tenete la ventola con il direct control di RivaTuner?
Ho cercato nel post ma non ho trovato risposte.
Grazie
M_C
Johncook
07-05-2008, 17:51
ho una domanda da farvi... in crysis con la gx2 è possibile che si abbassino i frame se c'è poca ram?no perchè ho dovuto togliere 2gb da mandare in assistenza e nel pezzo di assalt dove la grafica è complessa mi capita che si abbassa di frame tanto da scattare con impostaz su high ed il pc in firma...ora ho 2gb di ram.inoltre da everest in gioco leggo che le ram sono utilizzate per il 90% così da confermare la mia tesi...grazie per le risp
ho letto che questa vga con i chipset intel x38 e x48 non vada bene, confermate o smentite?
ho letto che questa vga con i chipset intel x38 e x48 non vada bene, confermate o smentite?
Smentisco alla grande possiedo un' asus maximus formula con intel x38 e q6600 g0 a 3,8ghz e vga a 702-2214 e shaders a 1728 ottengo 20200 al 3dmark06, per quanto riguarda crysis ragazzi ho provatu un po' gli ultimi driver e udite udite:
I peggiori sono i 175.16, meglio lasciare i 175.12, mentre i migliori in assoluto sono i 175.63 facendo dei testi a parita' di impostazioni a 1920*1200 tutto su very high tranne post processing su high benchmark gpu ripetuto per 10 volte:
175.12------------------>3684,222222222222
175.16------------------>3431
175.63------------------>3936,88888888888
Smentisco alla grande possiedo un' asus maximus formula con intel x38 e q6600 g0 a 3,8ghz e vga a 702-2214 e shaders a 1728 ottengo 20200 al 3dmark06, per quanto riguarda crysis ragazzi ho provatu un po' gli ultimi driver e udite udite:
I peggiori sono i 175.16, meglio lasciare i 175.12, mentre i migliori in assoluto sono i 175.63 facendo dei testi a parita' di impostazioni a 1920*1200 tutto su very high tranne post processing su high benchmark gpu ripetuto per 10 volte:
175.12------------------>3684,222222222222
175.16------------------>3431
175.63------------------>3936,88888888888
Era quello che volevo leggere, adesso aspetto qualche altro utente, comunque ci dovrei azzeccare ilmio qx9650, spero che lo supporti per un oc decente
DarkNiko
08-05-2008, 10:43
Io mi permetto di dissentire da questa analisi. Ho provato sia i 175.16 che i 175.63 e nel mio caso mi trovo meglio con i primi.
Sinceramente a Crysis non ho notato differenze. Usando la sintassi "r_displayinfo 1" per visualizzare i frames in tempo reale
(un pò come funziona Fraps) totalizzo lo stesso numero di fps.
Tuttavia ad Assassin's Creed vanno meglio i 175.16 (con i 175.63 ci sono dei microscatti).
Infine, giusto per dovere di cronaca, con i 175.16 e RivaTuner si leggono correttamente le temperature di entrambe le GPU (stessa cosa su Everest dove finalmente vengono riportate correttamente tutte le informazioni, 10 in totale, sulle 2 gpu), cosa che non è mai stata resa possibile nè con i drivers precedenti ai 175.16 nè con i 175.63.
Vi è anche da aggiungere, in ultima analisi, che i 175.63 sono dei drivers pensati per la serie Mobile (infatti il file inf originario non contempla le schede video come la 8800 GTX, Ultra, 9800 GTX, GX2 etc etc).
Il fatto che su guru3d li abbiano postati è perchè il solito "guru" ha modificato il file inf all'occorrenza adattando, di fatto, drivers pensati per altri tipi di schede.
Poi, per carità, è un mio umile giudizio, però se qualcuno ricerca il meglio, secondo me i 175.16 sono superiori. ;)
Io mi permetto di dissentire da questa analisi. Ho provato sia i 175.16 che i 175.63 e nel mio caso mi trovo meglio con i primi.
Sinceramente a Crysis non ho notato differenze. Usando la sintassi "r_displayinfo 1" per visualizzare i frames in tempo reale
(un pò come funziona Fraps) totalizzo lo stesso numero di fps.
Tuttavia ad Assassin's Creed vanno meglio i 175.16 (con i 175.63 ci sono dei microscatti).
Infine, giusto per dovere di cronaca, con i 175.16 e RivaTuner si leggono correttamente le temperature di entrambe le GPU (stessa cosa su Everest dove finalmente vengono riportate correttamente tutte le informazioni, 10 in totale, sulle 2 gpu), cosa che non è mai stata resa possibile nè con i drivers precedenti ai 175.16 nè con i 175.63.
Vi è anche da aggiungere, in ultima analisi, che i 175.63 sono dei drivers pensati per la serie Mobile (infatti il file inf originario non contempla le schede video come la 8800 GTX, Ultra, 9800 GTX, GX2 etc etc).
Il fatto che su guru3d li abbiano postati è perchè il solito "guru" ha modificato il file inf all'occorrenza adattando, di fatto, drivers pensati per altri tipi di schede.
Poi, per carità, è un mio umile giudizio, però se qualcuno ricerca il meglio, secondo me i 175.16 sono superiori. ;)
ti ringrazio per il tuo parere, anche perchè è giusto quantificare per capire se realmente questa vga va o non va, io la devo accoppiare ad un chipset intel, e fino ad oggi ho letto poco di buono con questo mix intel\nvidia, per questo prima di avventarmi voglio capire se faccio bene o male.
Ho un problema. Quando swiccio su tv HD rimanendo su un solo schermo e mantenendo quindi il multi GPU non posso vedere i filmati ne tantomeno giocare, quando faccio partire le applicazioni rimane lo scermo nero... Come è possibile sta cosa? I filmati su youtube su tv li vedo ma non a schermo intero...
DarkNiko
08-05-2008, 12:02
ti ringrazio per il tuo parere, anche perchè è giusto quantificare per capire se realmente questa vga va o non va, io la devo accoppiare ad un chipset intel, e fino ad oggi ho letto poco di buono con questo mix intel\nvidia, per questo prima di avventarmi voglio capire se faccio bene o male.
Su una Asus Maximus Formula la VGA va benissimo, non ho mai avuto problemi, se non quelli legati all'inizio a drivers ancora un pò immaturi, ma dai 174.74 è stato un crescendo.
Il fatto è che la VGA è cmq sempre uno SLI, quindi ha i potenziali problemi tipici dello SLI con alcuni titoli (per fortuna risolti in buona parte).
Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.
Al max cerca di ispirarti a qualche configurazione tipo di quelle che vedi tra le varie firme degli utenti che popolano questo threads, e sono molti. ;)
Su una Asus Maximus Formula la VGA va benissimo, non ho mai avuto problemi, se non quelli legati all'inizio a drivers ancora un pò immaturi, ma dai 174.74 è stato un crescendo.
Il fatto è che la VGA è cmq sempre uno SLI, quindi ha i potenziali problemi tipici dello SLI con alcuni titoli (per fortuna risolti in buona parte).
Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.
Al max cerca di ispirarti a qualche configurazione tipo di quelle che vedi tra le varie firme degli utenti che popolano questo threads, e sono molti. ;)
grazie darkniko,
beh parlavo con angie che ha la p5e3 con x48 e ddr3 e mi diceva che con quella mobo ha trovato problemi con la 9800 gx2, beh io ero indirizzato a x48 e ddr3, perchè ho già le ddr3
DarkNiko
08-05-2008, 12:20
grazie darkniko,
beh parlavo con angie che ha la p5e3 con x48 e ddr3 e mi diceva che con quella mobo ha trovato problemi con la 9800 gx2, beh io ero indirizzato a x48 e ddr3, perchè ho già le ddr3
X48 non ha controindicazioni. Ho un amico che la 9800GX2 su una Rampage Formula, quindi X48 anche se usa le DDR2. Non conosco, nello specifico, la P5E3, per cui valuta bene. Al max potresti prendere una Maximus Extreme che ha il supporto alle DDR3 ma credo monti l'X38.
Cmq, per curiosità, che tipo di problemi ha angie con la GX2 ?
X48 non ha controindicazioni. Ho un amico che la 9800GX2 su una Rampage Formula, quindi X48 anche se usa le DDR2. Non conosco, nello specifico, la P5E3, per cui valuta bene. Al max potresti prendere una Maximus Extreme che ha il supporto alle DDR3 ma credo monti l'X38.
Cmq, per curiosità, che tipo di problemi ha angie con la GX2 ?
mi ha detto che non andava, tipo che lo sli era abilitato ma poi come se non fungesse, però gli devo chiedere se la vga avesse qualche problema, perchè non gli è l'ho chiesto, comunque un altro utente mi ha detto che ha fatto 22080 punti al 3d06, devo valutare, è strano comunque perchè tra x38 e x48 non vedo differenze strutturali.
[QUOTE=DarkNiko
Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.
Ciao e bentornato:) ,
non ho letto molto sulla 9900,mi dici che la gtx sarà singola gpu,sai/sapete se anche l'ipotetica 9900GX2 sarà a singola gpu?
Skullcrusher
08-05-2008, 12:49
[QUOTE=DarkNiko
Magari con l'avvento della 9900 GTX (alias GT200), essendo una VGA singola, darà meno problemi, però per ora mi gira tutto divinamente, Crysis compreso senza il minimo rallentamento o blocco, per cui vai sul sicuro.
Ciao e bentornato:) ,
non ho letto molto sulla 9900,mi dici che la gtx sarà singola gpu,sai/sapete se anche l'ipotetica 9900GX2 sarà a singola gpu?
Se mai ci sarà una 9900GX2, sarà unicamente una dual gpu, altrimenti non è una GX2 ;)
ciao Skull,
come ti trovi con la tua mobo e questa vga?
[QUOTE=GTO286;22360652]
Se mai ci sarà una 9900GX2, sarà unicamente una dual gpu, altrimenti non è una GX2 ;)
:doh:
Già il nome lo diceva:muro:
Giusta delucidazione:)
Skullcrusher
08-05-2008, 12:56
ciao Skull,
come ti trovi con la tua mobo e questa vga?
Divinamente. Zero problemi, la scheda si overclocca a meraviglia e rispetto all'8800GTX le prestazioni sono quasi raddoppiate in alcuni titoli, non mi posso di certo lamentare :D
L'unico difetto è che per sfruttarla al meglio bisogna abituarsi a settare per benino i profili per i vari giochi.
Divinamente. Zero problemi, la scheda si overclocca a meraviglia e rispetto all'8800GTX le prestazioni sono quasi raddoppiate in alcuni titoli, non mi posso di certo lamentare :D
L'unico difetto è che per sfruttarla al meglio bisogna abituarsi a settare per benino i profili per i vari giochi.
azz tipo come si fà con ati? ogni gioco si deve settare? no, dai non mi piace
Skullcrusher
08-05-2008, 13:01
azz tipo come si fà con ati? ogni gioco si deve settare? no, dai non mi piace
No, puoi anche lasciare tutto a default, ma la GX2 è sostanzialmente uno Sli, in quanto tale se provi a forzare il rendering a fotogramma alternato 2 o altre opzioni noti che le prestazioni cambiano, inoltre alcuni giochi ( come Test Drive Unlimited ) necessitano di qualche prova per farli funzionare al meglio. Niente di esasperante, giusto 10 min di test e poi via :asd:
Ho un problema. Quando swiccio su tv HD rimanendo su un solo schermo e mantenendo quindi il multi GPU non posso vedere i filmati ne tantomeno giocare, quando faccio partire le applicazioni rimane lo scermo nero... Come è possibile sta cosa? I filmati su youtube su tv li vedo ma non a schermo intero...
mi quoto, ultimi driver ufficiali non beta installati.
grazie darkniko,
beh parlavo con angie che ha la p5e3 con x48 e ddr3 e mi diceva che con quella mobo ha trovato problemi con la 9800 gx2, beh io ero indirizzato a x48 e ddr3, perchè ho già le ddr3
quoto, non ho ancora chiaro se dipendesse dalla scheda che comunque si è dimostrata perfettamente funzionate sulla configurazione di un altro utente, ma io con la mamma x48 ho avuto problemi (come se sfruttassi una scheda singola); in ogni caso (perdonatemi l'ot) ti suggerisco di dare un'occhiata sul forum della asus p5e3-premium sul sito della asus;)
Johncook
08-05-2008, 14:16
ragazzi che monitor 24" mi consigliate per spremere la gx2? l'iiyama prolite b24 o il nuovo benq che sta per uscire v2400w(molto ma molto bello)???help me please!!!!
ragazzi che monitor 24" mi consigliate per spremere la gx2? l'iiyama prolite b24 o il nuovo benq che sta per uscire v2400w(molto ma molto bello)???help me please!!!!
per i monitor c'è la sezione adatta... :)
Johncook
08-05-2008, 14:42
lo so ma nn sto ottenendo tutto sto supporto :cry:
Come faccio a collegare il connettore a 8 pin dato che ilo mio connettore e' un 6 pin +2 ed il gancino centrale non entra nel foro ma sta leggermente a sinistra? potrei staccarlo ma se conoscete un altra soluzione e' meglio grazie
lo so ma nn sto ottenendo tutto sto supporto :cry:
io ho lo iiyama 24" e va più che bene :)
javiersousa
08-05-2008, 22:35
quoto, non ho ancora chiaro se dipendesse dalla scheda che comunque si è dimostrata perfettamente funzionate sulla configurazione di un altro utente, ma io con la mamma x48 ho avuto problemi (come se sfruttassi una scheda singola); in ogni caso (perdonatemi l'ot) ti suggerisco di dare un'occhiata sul forum della asus p5e3-premium sul sito della asus;)
pure a me da la sensezione che stia sfruttando una scheda singola !!!!! per cortesia mi date il numero di frames che fa in qualunque gioco cosi da poterlo provare anche io !!!!! si ostenta a non far più di 11000 punti al 3dmark06 (premetto che il punteggio è stato ottenuto con un e6600 e ancora devo montare il q9450 !!!) aiutatemi, la scheda madre centra qualche cosa (è aggiornata al bios f11, il penultimo in pratica....please...
javiersousa
08-05-2008, 22:38
il rendering a fotogramma alternato 2
ma questo valore conviene metterlo a 2 o lasciarlo a 3 come di default? please....
Dobermann75
08-05-2008, 23:09
pure a me da la sensezione che stia sfruttando una scheda singola !!!!! per cortesia mi date il numero di frames che fa in qualunque gioco cosi da poterlo provare anche io !!!!! si ostenta a non far più di 11000 punti al 3dmark06 (premetto che il punteggio è stato ottenuto con un e6600 e ancora devo montare il q9450 !!!) aiutatemi, la scheda madre centra qualche cosa (è aggiornata al bios f11, il penultimo in pratica....please...
prova a rifarlo col nuovo processore e posta i punteggi nonche i frame rate...
ciao
Skullcrusher
09-05-2008, 07:30
ma questo valore conviene metterlo a 2 o lasciarlo a 3 come di default? please....
Molti giochi pare gradiscano il 2 :)
javiersousa
09-05-2008, 14:06
raga, sto facendo delle prove: sto provando Assassins Creed a 1680x1050 con AA4x e AF16x e nel primo villaggio fa circa 40-50 con punte di 60 frames, rilevato con fraps, vanno bene?
Io mi permetto di dissentire da questa analisi. Ho provato sia i 175.16 che i 175.63 e nel mio caso mi trovo meglio con i primi.
Sinceramente a Crysis non ho notato differenze. Usando la sintassi "r_displayinfo 1" per visualizzare i frames in tempo reale
(un pò come funziona Fraps) totalizzo lo stesso numero di fps.
Tuttavia ad Assassin's Creed vanno meglio i 175.16 (con i 175.63 ci sono dei microscatti).
Infine, giusto per dovere di cronaca, con i 175.16 e RivaTuner si leggono correttamente le temperature di entrambe le GPU (stessa cosa su Everest dove finalmente vengono riportate correttamente tutte le informazioni, 10 in totale, sulle 2 gpu), cosa che non è mai stata resa possibile nè con i drivers precedenti ai 175.16 nè con i 175.63.
Vi è anche da aggiungere, in ultima analisi, che i 175.63 sono dei drivers pensati per la serie Mobile (infatti il file inf originario non contempla le schede video come la 8800 GTX, Ultra, 9800 GTX, GX2 etc etc).
Il fatto che su guru3d li abbiano postati è perchè il solito "guru" ha modificato il file inf all'occorrenza adattando, di fatto, drivers pensati per altri tipi di schede.
Poi, per carità, è un mio umile giudizio, però se qualcuno ricerca il meglio, secondo me i 175.16 sono superiori. ;)
Ne sono certo ora ho rifatto attentamente tutti i test e posso dire che con CRYSIS i driver 175.63 sono nettamente migliori dei 175.16, attenzione con crysis soltanto non ho provato gli altri giochi, ma nei test che ho effettuato con le seguenti impostazioni:
1920*1200 TUTTO VERY HIGH tranne postprocessing high, benchmark_gpu directx 10 e 64 bit loop di 10:
175.16---------------->avarage 36fps
175.63---------------->avarage 40fps
La differenza e' tangibile stiamo parlando di circa l' 11%
Spero possa servire a qualcuno.
Johncook
09-05-2008, 15:53
Ne sono certo ora ho rifatto attentamente tutti i test e posso dire che con CRYSIS i driver 175.63 sono nettamente migliori dei 175.16, attenzione con crysis soltanto non ho provato gli altri giochi, ma nei test che ho effettuato con le seguenti impostazioni:
1920*1200 TUTTO VERY HIGH tranne postprocessing high, benchmark_gpu directx 10 e 64 bit loop di 10:
175.16---------------->avarage 36fps
175.63---------------->avarage 40fps
La differenza e' tangibile stiamo parlando di circa l' 11%
Spero possa servire a qualcuno.
quoto in pieno;)
Ciao a tutti
nella speranza di averla mia tra pochi giorni, una volta installata devo configurare qualcosa nel pannello dei driver, oppure lasciare tutto come è?
La scheda come viene vista nelle impostazioni? Come se avessi una configurazione sli?
Andrea
Nino Grasso
09-05-2008, 20:09
Salve a tutti :D. Anche io da oggi posso inserirmi fra i fortunati possessori di questa magnifica schedona. Solo che ho da esporvi qualche dubbio: con il processore in firma (e6300@2800) faccio 12230 punti al 3d mark 2006, impostazioni a default, quindi a 1280x1024. Adesso a quanto ho capito è un risultato, sebbene basso, in linea agli altri possessori di dual core a quella frequenza.
Potete darmi ulteriori delucidazioni in merito? Vorrei inoltre essere in grado di stabilire se entrambe le GPU sono in funzione, dato che ho comportamenti alquanto anomali con i driver nvidia. In pratica se disattivo lo SLI (metto multi-schermo invece che multi-gpu, oppure metto come impostazione del multi-gpu "Singola scheda") le performance non cambiano di una virgola! A questo punto il mio risultato lo riterrei abbastanza ambiguo: troppo alto per essere in funziona una sola gpu, basso per essere in funzione entrambe.
Comunque che dovrei fare per avere una certezza matematica che entrambe le gpu siano in funzione? Ho provato il test di crysis ed è comparsa una strana dicitura MGPU, con GPU-Z mi dice che lo SLI è attivato.
Che ulteriori prove potrei fare? :D
Spero possiate placare tutti i miei dubbi :|
Salve a tutti :D. Anche io da oggi posso inserirmi fra i fortunati possessori di questa magnifica schedona. Solo che ho da esporvi qualche dubbio: con il processore in firma (e6300@2800) faccio 12230 punti al 3d mark 2006, impostazioni a default, quindi a 1280x1024. Adesso a quanto ho capito è un risultato, sebbene basso, in linea agli altri possessori di dual core a quella frequenza.
Potete darmi ulteriori delucidazioni in merito? Vorrei inoltre essere in grado di stabilire se entrambe le GPU sono in funzione, dato che ho comportamenti alquanto anomali con i driver nvidia. In pratica se disattivo lo SLI (metto multi-schermo invece che multi-gpu, oppure metto come impostazione del multi-gpu "Singola scheda") le performance non cambiano di una virgola! A questo punto il mio risultato lo riterrei abbastanza ambiguo: troppo alto per essere in funziona una sola gpu, basso per essere in funzione entrambe.
Comunque che dovrei fare per avere una certezza matematica che entrambe le gpu siano in funzione? Ho provato il test di crysis ed è comparsa una strana dicitura MGPU, con GPU-Z mi dice che lo SLI è attivato.
Che ulteriori prove potrei fare? :D
Spero possiate placare tutti i miei dubbi :|
tranquillo e' attivo altrimenti non facevi quasi 13k con un dual core a 2,8ghz.
CONSIGLIO: per sfruttare la scheda almeno al 60% porta il processore a 3,2ghz dovresti farcela senza troppi problemi cosi sei troppo CPU LIMITED.
Io con un quad a 3,6ghz per il daily la sto sfruttando all'80%, per sfruttarla a pieno dovrei essere minimo minimo a 4ghz ma non sono cosi pazzo da farmi un qx...
Se riuscissi a rimediarlo a meno di 400 euro pure pure...
Nino Grasso
09-05-2008, 22:54
ok, grazie della risposta. capisco di essere fortemente cpu limited con questa cpu ma per adesso non posso permettermi altro.
purtroppo ho trovato una nota dolente ben più grave che spero sia risolvibile senza dover mandare la scheda in assistenza. Non ho provato a fondo ma con Assassin's Creed dopo 5 minuti di gioco crasha inesorabilmente. Praticamente compare una schermata nera ad intermittenza e dopo crasha il gioco, con il messaggio di Vista che riporta il blocco di un file dei driver della scheda. Ho provato con un paio di driver, adesso sto con i 174.74 (quelli scaricabili dal sito nvidia) ma non mi pare che la situazione sia migliorata. Da cosa può dipendere? Anche con altri titoli è sorto lo stesso problema anche se più sporadicamente.
Da cosa può essere dovuto? A livello di temperatura non mi pare vada molto oltre gli 80°C, quindi mi sembra abbastanza tollerabile.
tranquillo e' attivo altrimenti non facevi quasi 13k con un dual core a 2,8ghz.
CONSIGLIO: per sfruttare la scheda almeno al 60% porta il processore a 3,2ghz dovresti farcela senza troppi problemi cosi sei troppo CPU LIMITED.
Io con un quad a 3,6ghz per il daily la sto sfruttando all'80%, per sfruttarla a pieno dovrei essere minimo minimo a 4ghz ma non sono cosi pazzo da farmi un qx...
Se riuscissi a rimediarlo a meno di 400 euro pure pure...
credo che il tuo q6600 con un pò di fantasia e coraggio lo porti minimo a 3800 con un 1.45 che per 65nm non è tanto, fino a 1.47\1.48 vai tranqui, specie se hai il liquido
Io con un quad a 3,6ghz per il daily la sto sfruttando all'80%, per sfruttarla a pieno dovrei essere minimo minimo a 4ghz ma non sono cosi pazzo da farmi un qx...
su questo ci sarebbe molto da discutere, con un buon processore a 3GHz si va più che bene
su questo ci sarebbe molto da discutere, con un buon processore a 3GHz si va più che bene
quoto...poi sto 80% da dove esce??? :stordita:
su questo ci sarebbe molto da discutere, con un buon processore a 3GHz si va più che bene
ciao,
per curiosità, quanto fai al vantage?
sto ancora cercando di capire se nel mio sistema c'è qualcosa che non va...
alex oceano
10-05-2008, 12:46
queta bella 9800gx2 necessita di un alimentazione di almeno 200w ho sparato una cifra io ho 520w mi basterà!!! che differnza c'è dalla mia 8800gt un 20% più potente!!!!??????????
per curiosità, quanto fai al vantage?
vantage non l'ho ancora provato, ti posso dire che faccio circa 16000 al 3DMark06
questa bella 9800gx2 necessita di un alimentazione di almeno 200w ho sparato una cifra io ho 520w mi basterà!!! che differenza c'è dalla mia 8800gt un 20% più potente!!!!??????????
io ho un 620W e non ho problemi, bisognerebbe conoscere in dettaglio gli amperaggi del tuo; per la 8800gt dipende dal gioco, controlla la recensione http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_index.html
vantage non l'ho ancora provato, ti posso dire che faccio circa 16000 al 3DMark06
io faccio 15500 al 3d06.
però ho un quad core q9300 (@3000).. o i quad core non sono sfruttati per niente o non so come mai vado + piano.. quando poi provi il vantage sono curioso :)
queta bella 9800gx2 necessita di un alimentazione di almeno 200w ho sparato una cifra io ho 520w mi basterà!!! che differnza c'è dalla mia 8800gt un 20% più potente!!!!??????????
avevo problemi di stabilità ed essendo il corsair nuovo ho fatto qualche test anche con l'enernmax 500, senza problemi, aparte che ho dovuto fare un'adattatore per gli 8 pin:) ovviamente con 2 hd invece che 4, niente oc (quindi @3000), - ventole ,-usb..
x nefion
dovrei sapere la tua configurazione completa, cmq anch'io ho un quad core a 3000MHz. in ogni caso 3dmark lo uso solamente per farmi un'idea del mio pc globalmente; preferisco guardare come va realmente in gioco con fraps
io faccio 15500 al 3d06.
però ho un quad core q9300 (@3000).. o i quad core non sono sfruttati per niente o non so come mai vado + piano.. quando poi provi il vantage sono curioso :)
io l'ho provato ma non ricordo se a defoult cpu e ho fatto 9000 scarsi(89xx):confused: con vista 64 e su un'altra mobo percui..
io l'ho provato ma non ricordo se a defoult cpu e ho fatto 9000 scarsi(89xx):confused: con vista 64 e su un'altra mobo percui..
Pure io ho fatto poco più di 9000 con il Vantage.
ho appena scaricato di nuovo perchè l'avevo usato (il giorno dell'uscita)su un vista 64 provvisorio che poi ho formattato, ma credo di aver sbagliato quella volta perchè è totalmente diverso come interfaccia test etc. eppure il file e la trafila erano simili, solo che la mggior parte dei test col 64 erano in finestra con più test in contemporanea, sembrava più un pcmark . questo invece è tipo 3dm06 solo che cambiano gli scenari ma a metà abbondante
Nome evento problema: BlueScreen
Versione SO: 6.0.6001.2.1.0.256.1
ID impostazioni locali: 1040
Ulteriori informazioni sul problema:
BCCode: 101
BCP1: 00000031
BCP2: 00000000
BCP3: 805D1120
BCP4: 00000001
OS Version: 6_0_6001
Service Pack: 1_0
Product: 256_1
penso di aver tenuto la cpu troppo sotto con vc1.25 @3670:) oppure è la ram che però sembrava sistemata, ... riprovo con vc più alto:boh: :sperem:
EDIT: provato;)
http://img383.imageshack.us/img383/3717/vantagedt4.th.jpg (http://img383.imageshack.us/my.php?image=vantagedt4.jpg)
ho appena scaricato di nuovo perchè l'avevo usato (il giorno dell'uscita)su un vista 64 provvisorio che poi ho formattato, ma credo di aver sbagliato quella volta perchè è totalmente diverso come interfaccia test etc. eppure il file e la trafila erano simili, solo che la mggior parte dei test col 64 erano in finestra con più test in contemporanea, sembrava più un pcmark . questo invece è tipo 3dm06 solo che cambiano gli scenari ma a metà abbondante
Nome evento problema: BlueScreen
Versione SO: 6.0.6001.2.1.0.256.1
ID impostazioni locali: 1040
Ulteriori informazioni sul problema:
BCCode: 101
BCP1: 00000031
BCP2: 00000000
BCP3: 805D1120
BCP4: 00000001
OS Version: 6_0_6001
Service Pack: 1_0
Product: 256_1
penso di aver tenuto la cpu troppo sotto con vc1.25 @3670:) oppure è la ram che però sembrava sistemata, ... riprovo con vc più alto:boh: :sperem:
EDIT: provato;)
http://img383.imageshack.us/img383/3717/vantagedt4.th.jpg (http://img383.imageshack.us/my.php?image=vantagedt4.jpg)
ok allora direi che sono in linea :)
grazie a tutti!
per chi possiede questa vga con x48 mi faccia sapere se l'accoppiata rende, grazie
Ho notato che una sola uscita DVI funziona ... e' normale?
Grazie
x.vegeth.x
10-05-2008, 22:51
Ho notato che una sola uscita DVI funziona ... e' normale?
Grazie
no
Ragazzi ho fatto un'ulteriore analisi su questa scheda, i driver 175.63 e Crysis, devo dire che le prestazioni massime (siamo davvero vicini all'avarage di 40fps per l'esattezza 39,72 fps) che ho ottenuto sono lasciando i driver cosi come sono di default senza mettere prestazioni a schermo singolo(questo parametro rispetto a multischermo mi fa perdere 2 fps) e l'altro parametro raccomandato da Nvidia al posto di forza alternato 2 che invece mi fa perdere altri 2 frame.
Riassumendo:
Default ------------------------------->39,72
singolo schermo+forza alternato2------->35,52
Test fatti a 1920*1200 tutto very high tranne postprocessing su high.
Ho notato che una sola uscita DVI funziona ... e' normale?
Grazie
anche a me funziona una sola uscita e ho notato che dove ci sono le due uscite dvi una e' illuminata da un led verde l'altra da uno blu
che significa e' normale o va' solo una scheda?
DarkNiko
11-05-2008, 09:30
Ho notato che una sola uscita DVI funziona ... e' normale?
Grazie
Sì è normalissimo, a differenza di x.vegeth.x che ha risposto in modo telegrafico senza dire il perchè.
Siccome è uno SLI a tutti gli effetti, realizzato tramite apposito bridge interno, una VGA è MASTER e l'altra è SLAVE, di conseguenza dei 2 attacchi DVI, quello a cui va collegato il cavo quando accendi il PC è il Master.
Ovviamente, se da windows abiliti la modalità multischermo (cioè 2 gpu indipendenti), funzionerà anche il secondo attacco DVI.
Tutto chiaro ora ?
Sì è normalissimo, a differenza di x.vegeth.x che ha risposto in modo telegrafico senza dire il perchè.
Siccome è uno SLI a tutti gli effetti, realizzato tramite apposito bridge interno, una VGA è MASTER e l'altra è SLAVE, di conseguenza dei 2 attacchi DVI, quello a cui va collegato il cavo quando accendi il PC è il Master.
Ovviamente, se da windows abiliti la modalità multischermo (cioè 2 gpu indipendenti), funzionerà anche il secondo attacco DVI.
Tutto chiaro ora ?
grazie molto esauriente
Johncook
11-05-2008, 10:31
ho appena scaricato di nuovo perchè l'avevo usato (il giorno dell'uscita)su un vista 64 provvisorio che poi ho formattato, ma credo di aver sbagliato quella volta perchè è totalmente diverso come interfaccia test etc. eppure il file e la trafila erano simili, solo che la mggior parte dei test col 64 erano in finestra con più test in contemporanea, sembrava più un pcmark . questo invece è tipo 3dm06 solo che cambiano gli scenari ma a metà abbondante
Nome evento problema: BlueScreen
Versione SO: 6.0.6001.2.1.0.256.1
ID impostazioni locali: 1040
Ulteriori informazioni sul problema:
BCCode: 101
BCP1: 00000031
BCP2: 00000000
BCP3: 805D1120
BCP4: 00000001
OS Version: 6_0_6001
Service Pack: 1_0
Product: 256_1
penso di aver tenuto la cpu troppo sotto con vc1.25 @3670:) oppure è la ram che però sembrava sistemata, ... riprovo con vc più alto:boh: :sperem:
EDIT: provato;)
http://img383.imageshack.us/img383/3717/vantagedt4.th.jpg (http://img383.imageshack.us/my.php?image=vantagedt4.jpg)
Ma come fai a fare un punteggio più basso al vantage con il qx9650????la tua gx2 ha fatto 900 punti in meno rispetto alla mia...ma è o.c o a default???
http://www.fileden.com/files/2007/4/...1/Immagine.jpg
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.