PDA

View Full Version : Guida avanzata alla configurazione SLI


Pagine : [1] 2 3 4 5 6 7

blade9722
15-08-2007, 08:24
Buongiorno a tutti,

come da promessa, la mia guida sulla configurazione della modalità SLI.

Un chiarimento: tutto ciò che descrivo di seguito è importante qualora si voglia configurare un profilo per quelle pochissime applicazioni, come il poco consciuto benchmark Unigine, non direttamente supportate dalla Nvidia. Per l'utente medio, l'unica azione richiesta è di aggiornare il driver Forceware con una certa frequenza

Nota riguardo le schede professionali Quadro: la guida si riferisce all'implementazione dell'SLI nelle schede per il gaming. L'SLI nelle schede professionali è qualcosa di completamente diverso, a cominciare dal fatto che funziona in finestra (quello per il gaming solo in fullscreen). Di fatto non ha nulla in comune, a parte il nome, con l'SLI per il gaming. Purtroppo, non possedendo due schede Quadro, non sono in grado di effettuare alcun test.


Innanzitutto colgo l'occasione per correggere una imprecisione ricorrente su questo forum, secondo cui le applicazioni debbo essere espressamente sviluppate per supportare tale modalità, in maniera del tutto analoga al multi-threading.

Informazione del tutto errata: l'SLI si abilita dal pannello di configurazione allo stesso modo con cui si attiva il filtro antialiasing o anisotropico e non necessita di nessuna programmazione specifica nell'applicazione

Propedeutica a questa guida è la conoscenza base della modalità SLI, cioè come impostare nuovi profili, come attivare gli indicatori visivi, scegliere fra le modalità di default. Suggerisco di leggere attentamente le FAQ del sito Nvidia sull'argomento:
http://www.slizone.com/page/slizone_faq.html per avere una infarinatura di base.

Importante: non leggere le FAQ sul sito Nvidia in italiano perchè non sono aggiornate. Per esempio, riportano ancora che è necessario avere due schede della stessa marca quando non è più così da un paio di annetti.Fare sempre riferimento al sito inglese

Windows XP - DX9

Innanzitutto bisogna individuare il file di configurazione dei profili Nvapps.xml in windows\system32. Nei vari profili la modalità SLI viene identificata da una linea del tipo:
<PROPERTY Label="multichip_rendering_mode" Value="2430001" Itemtype="predefined"/>

L'impostazione della modalità dipende dall'ultima cifra della stringa esadecimale, e i valori con i driver più recenti sono:
0 - Auto: SLI mode is selected automatically. Only useful in global settings.
4 - Single: Use a single GPU only (i.e. don't use SLI to improve performance).
2 - SFR: Split Frame Rendering - each GPU is a part of the same image. More compatible than AFR but usually much less efficient.
1 - AFR: Alternate Frame Rendering - two GPUs are rendering a full frame alternately. This is the simplest and most effective way of using SLI.
3 - AFR-SFR: Alternate / Split Frame Rendering - only useful with 4 GPUs (Quad SLI). Combines AFR and SFR to use all 4 GPUs. The only way on non-Vista systems to use Quad SLI.
6 - 3-Way AFR: AFR on max. three GPUs on Vista systems. Uses 2 GPUs on XP systems.
5 - 4-Way AFR: AFR on max. four GPUs on Vista systems. Uses 2 GPUs on XP systems

La modalità "AFR2" selezionabile dal pannello di controllo Nvidia corrisponde alla stringa "2430001"
Attenzione, alcune modalità non vengono correttamente riportate dal pannelle di controllo Nvidia, che invece riporta "GPU singola", ma è solo un problema di visualizzazione nel pannello, il profilo funziona.

Penso che tutti sappiano la differenza fra alternate frame rendering e split frame rendering, ma che molti si siano chiesti quale sia la differenza fra le modalità alternate AFR e AFR2.

La Nvidia ha previsto una serie di flag di compatibilità per configurare correttamente l'alternate frame rendering con le varie applicazioni. Sotto la dicitura AFR2 si nasconde un AFR con alcuni flag settati, quelli corrispondenti alla stringa sopra citata.

Per comprendere il funzionamento di tali profili, prendiamo in esame il 3dmark2006. La linea di configurazione dell'SLI è la seguente:

<PROPERTY Label="multichip_rendering_mode" Value="2400001" Itemtype="predefined"/>

e il valore 2400001 non appartiene a quelli di default. Ora, provate a lanciare la scena HDR1, quella del drago nel canyon, e memorizzate il risultato. Dopodichè provate a cambiare la modalità SLI in una di quelle di default. Noterete come in tutti e tre i casi (SFR,AFR,AFR2) le prestazioni siano un disastro. A questo punto vorrete tornare a quella preimpostata da Nvidia, e con enorme sorpresa scoprirete che non potete.
Questo perchè la dicitura è cambiata da "Consigliata da Nvidia" a "Consigliata da Nvidia - [ultima modalità scelta]": nel file Nvapps.xml l'impostazione della Nvidia è ormai stata cancellata. A partire dai driver 175.16 è stato aggiunto un tasto "ripristina" che permette di recuperare l'impostazione



Poco male, pensere, basta ripristinare il valore direttamente con un editor di testo. Anche in questo caso, però non funziona: la modifica viene ignorata. Questo perchè il driver non legge assolutamente il file nvapps.xml. I profili delle applicazioni che vengono letti dal driver sono memorizzati nel registry. Il file nvapps.xml viene letto dal pannello dei profili per modificare il registry. Per caricare il valore nel registry, la procedura è piuttosto laboriosa: bisogna inserire la linea avendo cura di terminare con Itemtype="predefined", dopodichè aprendo il pannello nel profilo ritornerà la scritta "consigliato da Nvidia" nel campo dell'SLI. A questo punto bisogna cliccare su "consigliato da Nvidia" in modo da far apparire "applica" e cliccare su quest'ultimo.
Purtroppo tale procedura non permette di caricare quei valori, tipo i flag di compatibilità OpenGL, per cui non è prevista la modifica nel pannello (ma che sono comunque presenti in nvapps.xml).

Per ovviare a questa discutibile gestione del pannello, si può ricorrere all'ottimo nhancer, scaricabile qua:
http://www.nhancer.com

Questo programma è un gestore dei profili più semplice del pannello Nvidia, che permette di settare alcune opzioni normalmente inaccessibili. Inoltre, è decisamente più razionale in quanto modifica direttamente il registry, e succesivamente sincronizza nvapps.xml . E' consigliato anche per chi non utilizza l'SLI. Potete visualizzare il percorso dei profili nel registry in nHancer con il comando "show GPU info".

Nel menu dedicato all'SLI avrete la possibilità di settare i flag di compatibilità. Questo vi permetterà di definire i profili per le nuove applicazioni esattamente come fanno i programmatori Nvidia. Si tratta soltanto di provare con un po' di pazienza le varie combinazioni.

Ad esempio, nel caso del benchmark Unigine ho trovato che la configurazione ottimale si ottiene attivando i flag 10-14-22-25, ottenendo il valore 2404401.
Il risultato è il seguente:

http://img116.imageshack.us/img116/8660/00005qf1.th.jpg (http://img116.imageshack.us/my.php?image=00005qf1.jpg)

Si noti l'efficienza di un SLI ben configurato quando l'applicazione non è CPU limited.

Win XP - OpenGL

Anche in questo caso sono presenti dei flag di compatibilità specifici. Purtroppo il pannello di controllo Nvidia non prevede di caricare tali flag, quindi dovete per forza di cosa utilizzare nHancer.

Win XP X64 - Direct3D - Applicazioni a 64bit

Ad oggi conosco solo due giochi di cui esiste anche la versione a 64bit: UT2004 e Crysis. In entrambi i casi, ho notato ciò che sembra essere un baco dei driver Nvidia su questo sistema operativo: il driver non riesce a rilevare il lancio dell'applicazione e ad attivare il profilo dedicato. Il profilo deve quindi essere attivato manualmente a livello globale. Per far questo è sufficiente, da nHancer, settare il flag "profile can be activated manually". Dopodiche impartire il comando "activate profile" <nome del profilo>. per ripristinare la situazione, basta impartire "activate profile" driver defaults.

Vista x64 non sembra affetto da questo problema.

Vista - Nota sulla versione dei driver e di nHancer
Importante: tutto ciò che verrà descritto di seguito si applica a versioni di driver a partire dalla 163.67. Si sconsiglia caldamente di utilizzare versioni precedenti in quanto, prima di stabilizzare la situazione, la Nvidia ha combinato un pastrocchio
Su Vista nvapps.xml verrà installato in 2 (3 su Vista x64) percorsi:
Programdata/NVIDIA
windows/system32
windows/syswow64 su Vista x64

Il file nvapps.xml operativamente attivo è quello in Programdata/NVIDIA

Importante: nhancer è compatibile con questo cambio di percorso solo dalla versione 2.3.1, si raccomanda di aggiornare il tool a tale versione

Vista - DX9

Fermo restando il cambio di percorso di nvapps.xml, la gestione è esattamente come in windows XP


Vista - DX10

La gestione dei profili in DX10 è completamente diversa rispetto a quella in DX9
Potrete avere più dettagli nel thread originale sul forum di Guru3D:
http://www.nvnews.net/vbulletin/showthread.php?t=96604&page=3

In pratica, i profili in DX10 non vengono letti dal registry, ma direttamente da nvapps.xml in Programdata/NVIDIA. Il problema è che il driver effettua una verifica del checksum del file, e lo confronta con il valore memorizzato nell'header del file:
<?xml version="1.0" encoding="utf-8"?>
<FILE xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema">
<INFO Number="1966474456" />

dove <INFO Number="1966474456" /> è appunto il checksum. Se il file nvapps.xml dovesse essere modificato, il controllo del checksum darebbe esito negativo e il driver ignorerebbe i profili. Ciò ha quasi portati Martin, autore di nHancer, ad abbandonare lo sviluppo del tool in quanto non era a conoscenza dell'algoritmo di generazione del checksum.

A questo punto io ho scoperto una cosa interessantissima: dalla versione 163.67 in poi, ai fini del calcolo del checksum solo le linee che contenevano i valori predefiniti (contraddistinte da itemtype="predefined") venivano conteggiate. Ciò era importantissimo, in quanto permetteva di gestire i profili DX10 senza sapere l'algoritmo di generazione del checksum, bastava semplicemente non modificare le linee con itemtype="predefined", ed il gioco era fatto. Ho comunicato la mia scoperta a Martin, e questo ha permesso lo sviluppo della versione 2.3.1.

In questa versione non viene più permesso modificare i valori predefiniti. Nel caso si volesse cambiare comunque uno dei valori predefiniti, tramite il comando duplicate è possibile disattivare (rimuovendo qualsiasi riferimento a file eseguibili) il profilo predefinito ed effettuarne una copia (che contiene invece i riferimenti agli eseguibili). Eventuali modifiche verranno applicate alla copia, senza modificare le linee interessate dal checksum


Vista - OpenGL

Con il benchmark Unigine non ho trovato una configurazione valida, ma non ho speso molto tempo. Allo stato attuale l'OpenGL in Vista è poco performante di per sè.

Profili ottimizzati

I seguenti profili sono stati da me testati, e laddove sostituiscono quelli Nvidia dovrebbero portare un miglioramento. Per importarli con Nhancer, copiate il contenuto in file di testo, e salvatelo con l'estensione .nhprofile. Dopodichè utilizzate l'opzione di import del tool o effettuate il doppio click sul file così generato, e mette la spunta sull'opzione per sovrascrivere i profili predefiniti.

The witcher EE

Fino alla patch 1.3 di The Witcher non c'erano problemi di sorta . Con la patch 1.4 (Enhanced Edition), sono comparsi due glitch grafici:

- uno strano e fastidioso bagliore visibile nelle ore notturne
- le luci delle torce sono visibili attraverso i muri

Osservate le immagini di seguito. Nella prima colonna sono ottenute con l'SLI disattivato, nella seconda attivato, nella terza attivato ma con l'impostazione del profilo su GPU singola.
http://img165.imageshack.us/img165/236/witchereesli1gb7.th.jpg (http://img165.imageshack.us/my.php?image=witchereesli1gb7.jpg)

Si noti come questo dimostra che impostare GPU singola nel profilo non equivale a disattivare l'SLI, ed eventuali problemi permangono

La soluzione è semplice: basta rimuovere il Flag 9 (quello marchiato Prince of Persia:SoT) e il problemi scompaiono.


<?xml version="1.0" encoding="utf-8"?>
<FILE xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema">
<INFO Number="0" Version="3" />
<PROFILESET>
<PROFILE Label="The Witcher">
<APPLICATION Label="witcher.exe" />
<PROPERTY Label="multichip_rendering_mode" Value="0x02400005" Default="0x00000004" />
<Manual>False</Manual>
<Customized>True</Customized>
<Shadowed>True</Shadowed>
</PROFILE>
</PROFILESET>
</FILE>


Vampire the Masquerade: Bloodlines, unofficial patch

In questo titolo, con la unofficial patch, si notano strane luci intermittenti visibili attraverso i muri. La soluzione è la stessa del caso precedente: rimuovere il Falg 9. Si noti che alcune luci sono comunque visibili attraverso i muri anche in modalità singola, è un difetto dell'engine.


<?xml version="1.0" encoding="utf-8"?>
<FILE xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema">
<INFO Number="0" Version="3" />
<PROFILESET>
<PROFILE Label="Vampire The Masquerade - Bloodlines">
<APPLICATION Label="vampire.exe" />
<PROPERTY Label="multichip_rendering_mode" Value="0x02400001" Default="0x00000004" />
<Manual>False</Manual>
<Customized>True</Customized>
<Shadowed>True</Shadowed>
</PROFILE>
</PROFILESET>
</FILE>


Unigine Tropics - Sanctuary nuova versione


Il seguente profilo contiene anche la modalità SLI DX10. Per il benchmark Sanctuary, è compatibile con la nuova versione con installer, non quella vecchia in .zip, ed in cui l'eseguibile si chiamava main. exe.


<?xml version="1.0" encoding="utf-8"?>
<FILE xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema">
<INFO Number="0" Version="3" />
<PROFILESET>
<PROFILE Label="Unigine">
<APPLICATION Label="Tropics/Launcher.exe" />
<APPLICATION Label="Sanctuary/Launcher.exe" />
<APPLICATION Label="Sanctuary.exe" />
<APPLICATION Label="Tropics.exe" />
<PROPERTY Label="multichip_rendering_mode" Value="0x02404405" Default="0x00000004" />
<PROPERTY Label="multichip_ogl_options" Value="0x00000000" Default="0x0000FFFF" />
<PROPERTY Label="multichip_dx10_rendering_mode" Value="0x00000055" Default="0x00000001" />
<Manual>False</Manual>
<Customized>True</Customized>
<Shadowed>False</Shadowed>
</PROFILE>
</PROFILESET>
</FILE>


Necrovision
Manca il profilo SLI in DX10, quello di Cryostasis funziona egregiamente


<?xml version="1.0" encoding="utf-8"?>
<FILE xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xsd="http://www.w3.org/2001/XMLSchema">
<INFO Number="0" Version="3" />
<PROFILESET>
<PROFILE Label="Necrovision">
<APPLICATION Label="necrovision.exe" />
<PROPERTY Label="multichip_rendering_mode" Value="0x02550005" Default="0x00000004" />
<PROPERTY Label="multichip_dx10_rendering_mode" Value="0x000010F5" Default="0x00000001" />
<PROPERTY Label="hybrid_rendering_mode" Value="0x00000001" Itemtype="predefined" Default="0x00000000" />
<Manual>False</Manual>
<Customized>True</Customized>
<Shadowed>False</Shadowed>
</PROFILE>
</PROFILESET>
</FILE>


Bioshock 2 DX10 + SLI + 3D Vision fix

Ho notato che in Bioshock 2, attivando sia l'SLI che il 3D Vision, ci sono degli improvvisi blocchi nell'erogazione dei frame. Si risolve togliendo il flag 5, cioè cambiando la penultima lettera da F a D nel profilo corrispondente:

Profile "Bioshock 2: Sea of Dreams"
ShowOn GeForce
ProfileType Application
Executable "bioshock2.exe"
Setting ID_0x002c7f45 = 0x00020000
Setting ID_0x00664339 = 0x00000001
Setting ID_0x0076e164 = 0x00000001
Setting ID_0x00a06946 = 0x002121D5
Setting ID_0x00d55f7d = 0x00000145
Setting ID_0x00e32f8a = 0x80000f71
Setting ID_0x1033cec1 = 0x00000003
Setting ID_0x1033cec2 = 0x00000002
Setting ID_0x1033dcd2 = 0x00000004
Setting ID_0x1033dcd3 = 0x00000004
Setting ID_0x10930f46 = 0x00000001
Setting ID_0x1095def8 = 0x02c00005
EndProfile


per chi non usa il 3D Vision, non è necessario nessuno intervento.

Aggiornamento: purtroppo con tale fix, le prestazioni calano paurosamente, e scendono al di sotto della scheda singola. Ora come ora, per chi ha il 3D vision, consiglio di disattivare l'SLI prima di giocare a questo titolo

Invito chiunque abbia sperimentato un profilo migliore di quello Nvidia a pubblicarlo in questo thread


Importante: cambiamenti radicali con dalla release 256.xx dei driver

Dalla versione 256.xx in poi, Nvidia a rivisto completamente la struttura dei driver. Ora non utilizzano più il file nvapps.xml, ma scrivono i settaggi direttamente nel registri. L'attuale versione di nHancer (2.5.9) non parte, in attesa che esca una versione aggiornata si posso utilizzare questi tool:

Geforce SLI profile (http://nvidia.custhelp.com/cgi-bin/nvidia.cfg/php/enduser/std_adp.php?p_faqid=2625)

Nvidia inspector tool (http://orbmu2k.de/tools/nvidia-inspector-tool)

Purtroppo però non c'è molta documentazione a riguardo, quindi bisogna fare un po' di reverse engineering per capire come modificarli.

Per modificare i profili, occorre esportarli con il tool Nvidia, alterare il file di testo con un editor, e reimportarli. Da una comparazione con il vecchio nvapps.xml, la corrispondenza dovrebbe essere:

multichip_rendering_mode = Setting ID_0x1095def8 (profilo SLI in DX9)
hybrid_rendering_mode = Setting ID_0x10930f46
multichip_dx10_rendering_mode = Setting ID_0x00a06946 (profilo SLI in DX10)
hybrid_dx10_rendering_mode = Setting ID_0x0076e164
multichip_ogl_options = Setting ID_0x209746c1 (profilo SLI in OpenGL)
hybrid_ogl_rendering_mode = Setting ID_0x202d45e7

il profilo contiene anche altri fix, ho indicato solo quelli relativi all'SLI.

Con queste premesse, la fix del profilo di the Witcher dovrebbe risultare:

Profile "The Witcher"
ShowOn GeForce
ProfileType Application
Executable "witcher.exe"
Setting ID_0x1033cec1 = 0x00000003
Setting ID_0x1033dcd2 = 0x00000004
Setting ID_0x1095def8 = 0x02400005
EndProfile


Per quanto riguarda la codifica, il registro di configurazione SLI è formato da 32 bit. Quelli meno significativi, chiioè 2,1,0 determinano la modalità multi-GPU secondo quanto indicato all'inizio (5=4-wayAFR, etc.) I restanti bit, da 31 a 3, identificano i flag di compatibilità. La stringa è tradotta in otto cifre esadecimali, ogni cifra codifica quattro bit del registro. Ad esempio, volendo porre ad 1 i flag 31, 29,18,16,15,14,8,4 in modalità 4-way AFR, il registro diventa:


1010 0000 0000 0101 1100 0001 0001 0101
0x A 0 0 5 C 1 1 5

blade9722
15-08-2007, 08:24
FAQ sulla modalità SLI

Aggiungo questa sezione in quanto ho notato che in questo forum sono diffuse alcune imprecisioni sulla modalità SLI.

Domanda: un gioco o una applicazione necessita di una programmazione dedicata per supportare l'SLI, alla maniera del multi-threading per le CPU?

Assolutamente no, se leggete questa guida noterete subito come l'SLI sia completamente gestito dai driver, senza nessun supporto da parte delle applicazioni. Il fatto che io sia stato in grado di configurare il profilo per il benchmark Unigine, senza mettere mani all'applicazione (cosa che non saprei in alcun modo fare) ne è una dimostrazione. Alcune applicazioni recenti (Lost Planet, COD4, Crysis) hanno la possibilità di attivare ottimizzazioni dedicate al multi-GPU. Io non ho notato particolari differenze dall'attivazione e disattivazione di tali ottimizzazioni, ma onestamente non ho effettuato test dedicati.

Domanda: come si rapportano le prestazioni di due schede in SLI rispetto ad una scheda singola?

Sono equivalenti ad una scheda che abbia il doppio di:
pixel shaders (stream processors per le G80)
vertex shaders (stream processors per le G80)
TMUs
ROPs
larghezza del bus verso la VRAM

ma lo stesso quantitativo di VRAM della scheda singola. Queste unità di calcolo si intendono come funzionanti alla stessa frequenza della scheda singola.

In alternativa si può pensare ad una scheda con lo stesso quantitativo di unità di calcolo della scheda singola, ma frequenze raddoppiate.

Ora, in netto contrasto con le mia affermazioni, è opinione diffusa in una parte degli utenti di questo forum che "una scheda singola sia nettamente più efficiente". A dimostrazione della mia tesi riporto questo piccolo esperimento:

Ho effettuato un underclock della mia 8800GTS dimezzando le frequenze a 256/594/792 Mhz, ed ho lanciato il benchmark di Lost Planet DX9 nelle seguenti condizioni:

1280x960 4xAA 16xAF dettagli massimi. Ho scelto questo benchmark in quanto ci sono due scene, una completamente GPU limited (snow) e una più CPU limited (cave).

Risultato:

8800GTS @ 256/594/792 - scheda singola
SNOW: 18 FPS
CAVE: 26 FPS

A questo punto ho attivato l'SLI:

2x 8800GTS SLI @ 256/594/792
SNOW: 35 FPS
CAVE: 45 FPS


Per simulare una scheda singola di prestazioni doppie ho effettuato il test ripristinando le frequenze di default:

8800GTS @ 512/1188/1584 - scheda singola
SNOW: 37 FPS
CAVE: 46 FPS

E' evidente come le due schede in SLI abbiano prestazioni solo marginalmente inferiori alla scheda singola con frequenze doppie. Siccome mi rendo conto che la prova descritta precedentemente può risultare di criptica interpretazione, mi affido ora a ciò che la comunità è più abituata a valutare: i test dei siti specializzati. Per far questo faccio riferimento alle VGA charts di Tomshardware "congelate" all' 8 febbraio 2008.

http://img249.imageshack.us/img249/8836/tomscopycb2.th.png (http://img249.imageshack.us/my.php?image=tomscopycb2.png)

Vediamo ora come si rapportano le prestazioni di due schede in SLI rispetto alla singola nelle ultime tre generazioni.

Nvidia Serie 6

6600GT: 8 pixel shaders, 8 ROPs, 8 TMUs, 3 Vertex shaders
Core clock: 500MHz, Memory interface: 128 bit GDDR3 1000MHz

La 6800 Ultra in pratica raddoppia ogni valore.
6800 Ultra: 16 pixel shaders, 16 ROPs, 16 TMUs, 6 Vertex shaders
Core Clock: 400MHz, Memory interface: 256 bit GDDR3 1100MHz

Confrontando:
2x6600GT SLI: 761.4
6800Ultra: 768.2
Due valori identici, con un guadagno del 60% rispetto alla singola 6600GT

Nvidia Serie 7

7600GT: 12 pixel shaders, 8 ROPs, 12 TMUs, 5 Vertex shaders
Core clock: 560MHz, Memory interface: 128 bit GDDR3 1400MHz

La scheda che più si avvicina al raddoppio è la 7950GT.
7950GT: 24 pixel shaders, 16 ROPs, 24 TMUs, 8 Vertex shaders
Core Clock: 550MHz, Memory interface: 256 bit GDDR3 1400MHz

Confrontando:
2x7600GT SLI: 1402.5
7950GT: 1465
Risultati simili, con un guadagno del 50%-60% rispetto alla singola 7600GT

Nvidia Serie 8

8600GTS: 32 stream processors, 8 ROPs, 16 TMUs,
Core clock: 675MHz, Shader clock: 1450MHz Memory interface: 128 bit GDDR3 2000MHz

Non esiste una scheda che si avvicina al raddoppio di performance, la più vicina è la 8800GTS 320MB che è comunque qualcosa in più (è circa un +125%)
8800GTS 320MB: 96 stream processors, 20 ROPs, 48 TMUs
Core Clock: 500MHz, Shader Clock: 1200MHz Memory interface: 320 bit GDDR3 1600MHz

Confrontando:
2x8600GTS SLI: 1668
8800GTS 320MB: 1827
Come da pronostico, la 8800GTS prevale, ma marginalmente. Il guadagno rispetto alla singola 8600GTS è del 40%-50%.

In definitiva, dalle VGA charts potete notare come tutto sommato io non abbia fatto altro che scoprire l'acqua calda:

- le prestazioni di due schede in SLI e di una scheda singola di prestazioni doppie risultano allineate
- a parità di CPU, il guadagno ottenibile mettendo una seconda scheda o cambiandola con una di prestazioni doppie non è mai il 100% e diminuisce man mano che la VGA è più veloce.

L'equivoco sulla valutazione delle prestazioni sta tutto in questi due punti: viene messo in risalto come il guadagno non sia mai del 100% con la seconda scheda, trascurando però il fatto che lo stesso accada con una scheda singola di doppia velocità perchè causato dal limite della CPU.

Esempio di valutazione dell'impatto della CPU sulle performance globali: Crysis DX10


Date un'occhiata al seguente collage di screenshots:
http://img443.imageshack.us/img443/4270/crysiscpugpurk1.th.jpg (http://img443.imageshack.us/my.php?image=crysiscpugpurk1.jpg)

Le acquisizioni sono state ottenute con le seguenti impostazioni:
Vista x64 - DX10 - Dettagli Very High

La chiave di lettura è la seguente: nella colonna di sinistra noterete una tipica scena GPU limited. Il frame rate è strettamente dipendente dalla risoluzione, e l'aumento di performance attivando l'SLI è corposo (60-65%).
La colonna di destra invece mostra un campo lungo, tipico scenario CPU limited. Il frame rate è piuttosto basso, ed è pressochè indipendente dalla risoluzione e dalla presenza della seconda scheda in SLI.

Purtroppo, con la mia CPU, il secondo caso è più frequente. Il processore pone un limite massimo ai frame, strettamente dipendente dal dettaglio scelto. Scendendo da very high a high si ha un incremento di circa il 20-25%. Tale incremento non dipende da un unico parametro (io avrei scommesso sulla qualità degli oggetti, che in realtà influenza il numero degli stessi); ognuno impatta per poche frazioni percentuali, obbligandoti ad abbassarli tutti per avere l'incremento sperato.

La ragione per cui in alcune applicazioni con la seconda scheda in SLI nei benchmark si hanno incrementi, per esempio, solo del 30% è questa: il benchmark viene effettuato in un mix di scene CPU limited e GPU limited. Ovviamente, accade lo stesso anche con la scheda singola.

Può l'attivazione della seconda scheda in SLI comportare un abbassamento del frame rate?

Si, ad oggi ho evidenziato tre possibili scenari:
- Se il profilo SLI nel driver non è corretto, le perfomance possono degradare anche pesantemente. L'unica soluzione è installare un driver con un profilo funzionante o configurarlo manualmente. L'eventualità è piuttosto rara.
- La gestione della sincronizzazione delle due schede in SLI è un carico aggiuntivo per la CPU. Questo implica che negli scenari 100% CPU limited non solo non si evidenzia un incremento di performance, ma potenzialmente si può verificare un calo. Il fenomeno in genere è trascurabile, risultando evidente solo a frame rate elevati.
- Il bridge SLI ha una banda di 1GB/s. Questo impone un preciso limite al massimo frame rate ottenibile ad una determinata risoluzione. Non essendo a conoscenza del formato con cui vengono trasferiti i dati dei frame buffer, non posso calcolare tale limite.

E' possibile utilizzare ancora sistemi Quad SLI (2 9800GX2, 2 7950GX2) su XP ?

Come potete intuire dalla descrizione delle modalità nella prima parte della guida, Windows XP supporta modalità AFR con al massimo due GPU. In passato i sistemi con 2 VGA 7950GX2 sfruttavano quindi la modalità ibrida AFR-SFR. Nvidia ha ufficialmente abbandonato il supporto a più di due GPU su windows XP, per questo motivo nei profili la modalità ibridia non è mai impostata. Se avete un sistema Quad Sli e il vecchio SO della Microsoft, dovete impostare manualmente tale modalità nel profilo del gioco con nHancer, avendo cura di non modificare i flag di compatibilità. E poi provare come va.... I sitemi a 3 GPU invece non sono compatibili con XP, e non c'è un work-around.

E' vero che in SLI non è possibile attivare il Vsync e/o il triplo buffer ?

Di seguito riporto l'andamento del frame rate nel benchmark di Company of Heroes, eseguito in 1600x1200 a 75 Hz (Massimo dettaglio, 4x AA, DX10), con il Vsync attivato e disattivato.

http://img242.imageshack.us/img242/6505/vsyncnovsync.jpg (http://img242.imageshack.us/i/vsyncnovsync.jpg/)

Come potete vedere, con Vsync attivato il frame rate non supera il refresh verticale di 75 Hz, segno che sta correttamente funzionando. Inoltre, gli FPS assumono qualsiasi valore, e non sono limitati a frazioni di 75, quindi il "triple buffer" è correttamente implementato.
Non so da dove derivi questa tesi, che a volte trovo riportata nei forum. Forse è una limitazione dei primi driver, che poi è stata risolta.

E' vero che, a causa del "micro-stutter", anche se il frame rate aumenta in SLI, è "come se diminuisse"

Questa tesi del micro-stutter è piuttosto criptica. Da quanto ho capito si riassume più o meno in questo: l'erogazione dei frames in SLI è molto irregolare, con più frame elaborati contemporaneamente (utili quindi ad innalzare il risultato dei benchmark, ma che vengono percepiti come uno solo dall'occhio umano), intervallati da lunghi momenti di pausa.

Di seguito ho riportato il ritardo fra i frames di 4 secondi di rendering della scena del canyon del 3Dmark2006.

http://img401.imageshack.us/img401/5136/framesdelay.jpg (http://img401.imageshack.us/i/framesdelay.jpg/)

In effetti si nota che in SLI i frame in certe situazioni sono più irregolari che nella scheda singola, però si tratta di oscillazioni fra i 13 e i 18ms, ben lontana dalla situazione di quasi contemporaneità descritta come micro-stuttering.

E' vero che il mouse lag in SLI è pari a quello della scheda singola

Questa tesi deriva direttamente dalla teoria generale della parallelizzazione delle risorse, per cui si aumenta la banda passante (cioè il frame rate), ma non si diminuisce la latenza. Tuttavia, mi sembra una semplificazione, uno dei parametri impostabili nei driver è il "prerender limit", in passato chiamato "render frames ahead", che viene indicato come strettamente legato al mouse lag, e che lascia intendere come ci possa essere un asincronia fra l'elaborazione dei frames e della risposta agli input. Qui non ho dati da proporre, se non la mia esperienza personale: quando ho sperimentato un pesante lag, sempre accompagnato da un basso frame rate, attivando la seconda scheda l'aumento del frame rate è sempre stato accompagnato dalla riduzione del lag.

Topol4ccio
19-09-2007, 14:14
Che figata questo thread, lo vedo solo ora. Complimentoni per il lavoro svolto!

blade9722
19-09-2007, 15:36
Che figata questo thread, lo vedo solo ora. Complimentoni per il lavoro svolto!


grazie!:D guarda che non è completamente aggiornato, le ultime release dei driver, specialmente le beta su Vista, stanno facendo un po' di pastrocchi (spostamento della posizione effettiva di Nvapps, profili DX10 che non dipendono dal registry ma direttamente da Nvapps con però un controllo sulla parità, etc.) Aggiornerò il thread quando la sistuazione si sarà stabilizzata.

slivio...
22-09-2007, 09:49
scusa non ho capito questo passo per far funzionare ugualmente nhancer:

Compatibilità fra nHancer e il percorso di Nvapps.xml
Infine, una precisazione: nelle prossime release dei driver potrà capitare (per ora è successo con Vista) che il file nvapps.xml venga spostato. In attesa che nhancer venga aggiornato, si può comunque permettere la sincronizzazione con il pannello di Nvidia creando un hardlink in windows/system32:

fsutil hardlink create NewFilename ExistingFilename


cose un hardlink.... e la riuga in neretto dove sta? cioe coem va creato sto collegamento..?

hai avuto un idea grandiosa... ma su quale configurazione sli e improntato questo thread... anche sulla 7950gx2?

slivio...
22-09-2007, 09:54
grazie!:D guarda che non è completamente aggiornato, le ultime release dei driver, specialmente le beta su Vista, stanno facendo un po' di pastrocchi (spostamento della posizione effettiva di Nvapps, profili DX10 che non dipendono dal registry ma direttamente da Nvapps con però un controllo sulla parità, etc.) Aggiornerò il thread quando la sistuazione si sarà stabilizzata.

anche su xp da lo stesso errore per adesso ho risolto eliminando il file nvapps.xml...

slivio...
22-09-2007, 10:01
potresti spiegare meglio... come sincronizzare il file nvapps.xml in xp..

non l'ho capito proprio...

slivio...
22-09-2007, 13:23
ho ricreato il file nvapps.xml da 0

mettendo i profili... presi da quello dei 163.71..

li sto aggioungendo man mano e sembra funzionare...

non ho capito cmq il perche cosi funziona...

sembra che sia dovuto alla posizione delle righe nel file...

blade9722
23-09-2007, 22:05
ho ricreato il file nvapps.xml da 0

mettendo i profili... presi da quello dei 163.71..

li sto aggioungendo man mano e sembra funzionare...

non ho capito cmq il perche cosi funziona...

sembra che sia dovuto alla posizione delle righe nel file...

In DX9 Nvapps.xml non è necessario, puoi direttamente utilizzare nHancer senza sincronizzarlo. Comunque è una storia lunga, puoi trovare i dettagli qua:

http://www.nvnews.net/vbulletin/showthread.php?t=96604

slivio...
23-09-2007, 22:15
se non faccio quello che ho fatto non va....

e ritorna questo errore... :


http://img514.imageshack.us/img514/2640/errorenhanceryo6.th.jpg (http://img514.imageshack.us/my.php?image=errorenhanceryo6.jpg)

blade9722
24-09-2007, 08:48
se non faccio quello che ho fatto non va....

e ritorna questo errore... :


http://img514.imageshack.us/img514/2640/errorenhanceryo6.th.jpg (http://img514.imageshack.us/my.php?image=errorenhanceryo6.jpg)

Ora sono in ufficio, non posso vedere l'immagine, comunque se ti riferisci all'errore nel caricamento di Nvapps.xml in nHancer con le ultime versioni di driver, nel thread che ti ho indicato c'e una patch. Comunque a breve dovrebbe uscire una nuova versione di nHancer.

Per quanto riguarda la gestione dei profili in DX10, se guardi nel thread io ho indicato un modo per aggirare il controllo di checksum della Nvidia.

slivio...
25-09-2007, 19:42
Ora sono in ufficio, non posso vedere l'immagine, comunque se ti riferisci all'errore nel caricamento di Nvapps.xml in nHancer con le ultime versioni di driver, nel thread che ti ho indicato c'e una patch. Comunque a breve dovrebbe uscire una nuova versione di nHancer.

Per quanto riguarda la gestione dei profili in DX10, se guardi nel thread io ho indicato un modo per aggirare il controllo di checksum della Nvidia.

con il file modificato postato da te funziona...

grazie

slivio...
05-10-2007, 07:32
volevo segnalare che è uscita la nuova versione di nhancer adesso in tutto e per tutto compatibile con i nuovissimi driver... ultime 3 versioni .67 .69 .71

www.nhancer.com

download x sistemi 32bit -> http://www.nhancer.com/downloads/nHancer32_2.3.1_Setup.exe
download x sistemi 64bit -> http://www.nhancer.com/downloads/nHancer64_2.3.1_Setup.exe

blade9722
05-10-2007, 19:34
volevo segnalare che è uscita la nuova versione di nhancer adesso in tutto e per tutto compatibile con i nuovissimi driver... ultime 3 versioni .67 .69 .71

www.nhancer.com

download x sistemi 32bit -> http://www.nhancer.com/downloads/nHancer32_2.3.1_Setup.exe
download x sistemi 64bit -> http://www.nhancer.com/downloads/nHancer64_2.3.1_Setup.exe

Ciao, grazie della puntualizzazione, lo sapevo già. Senoti nel forum di guru3D ho dato il mio piccolo, ma fondamentale contributo perchè ho scoperto come aggirare il controllo di parità su nvapps.xml per le DX10, e l'ho comunicato a Martin. Purtroppo non ho avuto tempo di effettuare altri test. Ho intenzione di aggiornare la guida nel week-end.

blade9722
16-10-2007, 21:30
Buongiorno a tutti,

ho finalmente aggiornato la guida con le info relative alla nuova versione (2.3.1) di nHancer, che permette la gestione dei profili DX10.

slivio...
16-10-2007, 22:27
up...!!

perche non la fai mettere in rilievo questa guida...?

la 7950gx2 sta uscendo le vere potenzialita con i driver revcentio..mi va tutto alla stragrande...

adesso si che la sisfrutta... parecchio me ne sto accorgendo perche i nuovissimi titoloi avolte vanno molto meglio dei vecchi... grazie anche a sto programmino...

blade9722
16-10-2007, 22:39
up...!!

perche non la fai mettere in rilievo questa guida...?

la 7950gx2 sta uscendo le vere potenzialita con i driver revcentio..mi va tutto alla stragrande...

adesso si che la sisfrutta... parecchio me ne sto accorgendo perche i nuovissimi titoloi avolte vanno molto meglio dei vecchi... grazie anche a sto programmino...

E' già in rilievo qua:

http://www.hwupgrade.it/forum/showthread.php?t=1467295

Magari nei prossimi gironi racconterò i pastrocchi nei driver Nvidia precedenti la versione 163.67 nella gestione dell'SLI DX10

slivio...
16-10-2007, 22:54
non è in rilievo e seganalata semmai in un indice in rilievo questo si..

ma va bene lo stesso...

blade9722
16-10-2007, 23:32
non è in rilievo e seganalata semmai in un indice in rilievo questo si..

ma va bene lo stesso...

Quando ho chiesto se fosse possibile metterla in rilievo l'hanno messa in quest'indice. Tutto sommato ha senso raggruppare le guide in unsommario.

slivio...
27-10-2007, 14:59
ciao...

si è riproposto l'errore con nhancer a seguito al rilascio dei nuovi beta 169.01... nel file apps.xml.. testato personalmente...

che si fa nel frattempo....

slivio...
27-10-2007, 21:16
ho ma nessuno interviene a questo post eppure lo vedo interessantissimo.. ai fini... delle prestazioni in mabito multigpu...

simonebruno
28-10-2007, 14:16
ho ma nessuno interviene a questo post eppure lo vedo interessantissimo.. ai fini... delle prestazioni in mabito multigpu...

....giusto e approvo....quindi voglio esserci pure io in questo Thread :D

blade9722
31-10-2007, 15:37
ciao...

si è riproposto l'errore con nhancer a seguito al rilascio dei nuovi beta 169.01... nel file apps.xml.. testato personalmente...

che si fa nel frattempo....

Ciao,

mi é arrivata una mail da Martin con il link della nuova versione di nHancer, compatibile con i 169.01.

Non l'ho ancora provata....

slivio...
02-11-2007, 19:40
è uscita la versione compatibile con la serie 169.X ed epiure in ita adesso.. ma vieniiiiiiiiiiiiiiiiiii.......... :D:D

http://www.nhancer.com/?dat=downloads

New Features in Version 2.3.2

Support for 8800 GT (G92) cards
Compatibility with Forceware 169+ added
Added Italian User Interface (thanks to Giulio Sosio!)
Fixed installer problem that impeded installation on some systems with non-latin unicode settings
Several additional 8x00 cards (G84 & G86) and 7x00 cards detected correctly now
Added new SLI mode introduced with Forceware 169
Smaller bugfixes

blade9722
02-11-2007, 19:58
è uscita la versione compatibile con la serie 169.X ed epiure in ita adesso.. ma vieniiiiiiiiiiiiiiiiiii.......... :D:D

http://www.nhancer.com/?dat=downloads

New Features in Version 2.3.2

Support for 8800 GT (G92) cards
Compatibility with Forceware 169+ added
Added Italian User Interface (thanks to Giulio Sosio!)
Fixed installer problem that impeded installation on some systems with non-latin unicode settings
Several additional 8x00 cards (G84 & G86) and 7x00 cards detected correctly now
Added new SLI mode introduced with Forceware 169
Smaller bugfixes


Si, si. Traduzione italiana a cura di Giulio Sosio. Provata con driver 169.01 e 169.04 funziona perfettamente.

Reignofcaos
07-11-2007, 15:43
è uscita la versione compatibile con la serie 169.X ed epiure in ita adesso.. ma vieniiiiiiiiiiiiiiiiiii.......... :D:D

http://www.nhancer.com/?dat=downloads

New Features in Version 2.3.2

Support for 8800 GT (G92) cards
Compatibility with Forceware 169+ added
Added Italian User Interface (thanks to Giulio Sosio!)
Fixed installer problem that impeded installation on some systems with non-latin unicode settings
Several additional 8x00 cards (G84 & G86) and 7x00 cards detected correctly now
Added new SLI mode introduced with Forceware 169
Smaller bugfixes


... e funziona alla grande! Ottima la italianizzazione dell'interfaccia!
Anchio seguo questo interessantissimo topic!
SLI RULEZ:sofico:

Ellu
10-11-2007, 00:04
Salve sono nuovo e questo è il 1° post.

Dopo aver letto il thread volevo chiedervi:

Io ho appena comprato il mio nuovo PC con sopra una ASUS P5N-E SLI + 2x8600GT da 256mb.

Giocando a S.T.A.L.K.E.R., a lungo andare riscontro una specie di sfarfallio di molti poligoni dello schermo che spariscono lasciando tracce grigie, inoltre gli FPS nei luoghi "abitati" del gioco rasentano i 10 circa.

supponendo che voglia imparare a settare il mio SLI, non sono proprio competente del settore e vorrei capirci qualcosa, potreste aiutarmi?

Fatemi pure un interrogatorio su ciò che vi serve per aiutarmi perchè non capisco da dove cominciare.

slivio...
10-11-2007, 07:08
ciao..1

comincia col mettere gli ultimi driver ufficiali

163.75 disinstallando i vekki.... per bene..
nella sezione schede video ci sono le guide.. se non sai come fare... :)

poi metti nhancer.. 2.3.2

www.nhancer.com

passaci un po di tempo... a settarlo ci sono i vari profili dei giochi.. :)

un consiglio.. non toccare... le opzione dal pannello dei driver.. preferisci farlo attraverso programmi di terze parti o dal gioco stesso.. in qualunque caso fai in modo che le impostazioni siano parallele..

ad esempio.. v-sync in game on o auto o off
da prog.. di terze parti tipo riva tuner.. metti o lascia auto

se in game non ci sta decidi te..

cmq fai molte prove alla fine qualcosa capirai :D

Ellu
11-11-2007, 20:48
ciao..1

comincia col mettere gli ultimi driver ufficiali

163.75 disinstallando i vekki.... per bene..
nella sezione schede video ci sono le guide.. se non sai come fare... :)

poi metti nhancer.. 2.3.2

www.nhancer.com

passaci un po di tempo... a settarlo ci sono i vari profili dei giochi.. :)

un consiglio.. non toccare... le opzione dal pannello dei driver.. preferisci farlo attraverso programmi di terze parti o dal gioco stesso.. in qualunque caso fai in modo che le impostazioni siano parallele..

ad esempio.. v-sync in game on o auto o off
da prog.. di terze parti tipo riva tuner.. metti o lascia auto

se in game non ci sta decidi te..

cmq fai molte prove alla fine qualcosa capirai :D

fatto tutto, nHancer all'avvio di Windows non mi parte neppure cmq...solo che non capisco cosa mi chiede esattamente, è da poco che mi interfaccio con qst genere di settaggi.

blade9722
11-11-2007, 23:37
Salve sono nuovo e questo è il 1° post.

Dopo aver letto il thread volevo chiedervi:

Io ho appena comprato il mio nuovo PC con sopra una ASUS P5N-E SLI + 2x8600GT da 256mb.

Giocando a S.T.A.L.K.E.R., a lungo andare riscontro una specie di sfarfallio di molti poligoni dello schermo che spariscono lasciando tracce grigie, inoltre gli FPS nei luoghi "abitati" del gioco rasentano i 10 circa.

supponendo che voglia imparare a settare il mio SLI, non sono proprio competente del settore e vorrei capirci qualcosa, potreste aiutarmi?

Fatemi pure un interrogatorio su ciò che vi serve per aiutarmi perchè non capisco da dove cominciare.




Il profilo SLI di S.T.A.L.K.E.R. in alcune versioni di driver aveva problemi di questo tipo. Puoi impostare l'AFR2 standard (anche senza nHancer, è impostabile dal pannello di Nvidia) che funziona sempre egregiamente.

^Klaudio^
14-11-2007, 11:09
Non so se è il topic adatto però evito di aprirne un altro, magari inutile..

Mi è arrivato adesso l'ali nuovo, Enermax Liberty 620W, tralasciando l'amperaggio che è ok, ho un dubbio sui connettori, sul manuale dice che questo ali supporta 2 schede pci-e 1.0 o una pci-e 2.0, difatti il connettore a 8pin è solo uno nella scatola..
qualche giorno fa ho ordinato due 8800gt che sono pci-e 2.0, che devo fare? annullo l'ordine delle due schede o si può risolvere?

blade9722
14-11-2007, 22:27
Non so se è il topic adatto però evito di aprirne un altro, magari inutile..

Mi è arrivato adesso l'ali nuovo, Enermax Liberty 620W, tralasciando l'amperaggio che è ok, ho un dubbio sui connettori, sul manuale dice che questo ali supporta 2 schede pci-e 1.0 o una pci-e 2.0, difatti il connettore a 8pin è solo uno nella scatola..
qualche giorno fa ho ordinato due 8800gt che sono pci-e 2.0, che devo fare? annullo l'ordine delle due schede o si può risolvere?

No, non è una questione di connettore, puoi usare il 6 pin nell' 8 pin.

E' una questione di specifiche di potenza: due schede PCI-e 1.0 consumano al max 75W dallo slot e altri 75W dal P6, mentre una scheda 2.0 può consumare 150W + 150W.

Però questo non implica necessariamente che una PCI-e 2.0 consumi 300W, e infatti la 8800GT consuma meno di 150W.

^Klaudio^
15-11-2007, 01:58
No, non è una questione di connettore, puoi usare il 6 pin nell' 8 pin.

E' una questione di specifiche di potenza: due schede PCI-e 1.0 consumano al max 75W dallo slot e altri 75W dal P6, mentre una scheda 2.0 può consumare 150W + 150W.

Però questo non implica necessariamente che una PCI-e 2.0 consumi 300W, e infatti la 8800GT consuma meno di 150W.

grazie mille, m'hai tolto un peso :)

renax200
18-11-2007, 09:35
Posso chiedere all'autore del thread di postare qualche risultato al 2005/2006 e in crysis? Thx!

blade9722
18-11-2007, 11:08
Posso chiedere all'autore del thread di postare qualche risultato al 2005/2006 e in crysis? Thx!

Per il 2005/2006 avevo pubblicato una discussione dedicata tempo fa:
http://www.hwupgrade.it/forum/showthread.php?t=1514992

Per Crysis ora non ho tempo,

e tutto sommato la richiesta mi sembra off-topic: questo è un thread dedicato alla configurazione dell'SLI. Per i benchmark su Crysis c'è un thread dedicato, non vedo il motivo di postare i risultati qua.

renax200
18-11-2007, 11:16
Per il 2005/2006 avevo pubblicato una discussione dedicata tempo fa:
http://www.hwupgrade.it/forum/showthread.php?t=1514992

Per Crysis ora non ho tempo,

e tutto sommato la richiesta mi sembra off-topic: questo è un thread dedicato alla configurazione dell'SLI. Per i benchmark su Crysis c'è un thread dedicato, non vedo il motivo di postare i risultati qua.

l'avevo chiesto perchè nel thread di crysis mi sembra di non aver visto nessuno con 2x8800GTS 640mb in sli...e volevo anche sapere se sfrutta lo sli...ma se la metti su questo piano..lascia perdere :rolleyes:

blade9722
18-11-2007, 11:34
l'avevo chiesto perchè nel thread di crysis mi sembra di non aver visto nessuno con 2x8800GTS 640mb in sli...e volevo anche sapere se sfrutta lo sli...ma se la metti su questo piano..lascia perdere :rolleyes:

Da qualche parte ho già scritto che con i driver 169.01, e 169.04 su Vista DX10 lo SLI gira male. Non ho provato i 169.09.

Quando avrò tempo e sperimenterò driver senza problemi di sincronizzazione in SLi pubblicherò i risultati e ti avvertirò in PM.;)

angie
22-11-2007, 11:49
Ciao Blade, ciao a tutti, intanto complimenti per il thread;)

Ho appena montato 2 asus 8800 gtx in sli; tenete presente che è la prima volta che utilizzo la configurazione sli quindi, se dico cazzate, perdonatemi...
allora, la mia configurazione è quella in sign i driver sono gli ultimi certificati nvidia 163.75; il problema è questo: lanciando 3d mark 06 alla seconda schermata si chiude e mi visualizza un messaggio di errore sulle dx9 (purtroppo non sono sul mio pc adesso è non riesco a fare un print screen); ho poi visualizzata, praticamente in ogni gioco che provo compreso il 3d mark, la barra dello sli di colore verde che, partendo dal centro, si alunga e si accorcia in entrambe le direzioni (immagino mostri la "percentuale" di sli utilizzato in quel momento dall'applicazione); mi chiedo se è data dai driver ed eventualmente come posso toglierla...ultima cosa, piu' importante di tutte, è l'alimentatore che vedete in sign; ho come l'impressione che i vari problemucci nascano da quello xchè non ha abbastanza potenza...in full load credo che le 2 8800 gtx consumino 400w circa da sole..(infatti in Medal of Honor: Airborne, quando la barra dello sli è quasi al massimo, il pc si spegne)
voi che mi consigliate?
Grazie a tutti ;)

blade9722
22-11-2007, 13:36
Ciao Blade, ciao a tutti, intanto complimenti per il thread;)

Ho appena montato 2 asus 8800 gtx in sli; tenete presente che è la prima volta che utilizzo la configurazione sli quindi, se dico cazzate, perdonatemi...
allora, la mia configurazione è quella in sign i driver sono gli ultimi certificati nvidia 163.75; il problema è questo: lanciando 3d mark 06 alla seconda schermata si chiude e mi visualizza un messaggio di errore sulle dx9 (purtroppo non sono sul mio pc adesso è non riesco a fare un print screen); ho poi visualizzata, praticamente in ogni gioco che provo compreso il 3d mark, la barra dello sli di colore verde che, partendo dal centro, si alunga e si accorcia in entrambe le direzioni (immagino mostri la "percentuale" di sli utilizzato in quel momento dall'applicazione); mi chiedo se è data dai driver ed eventualmente come posso toglierla...ultima cosa, piu' importante di tutte, è l'alimentatore che vedete in sign; ho come l'impressione che i vari problemucci nascano da quello xchè non ha abbastanza potenza...in full load credo che le 2 8800 gtx consumino 400w circa da sole..(infatti in Medal of Honor: Airborne, quando la barra dello sli è quasi al massimo, il pc si spegne)
voi che mi consigliate?
Grazie a tutti ;)


Sinteticamente:

le barre di carico indicano il carico della GPU in AFR. Piú si allungano e piú la GPU é sfruttata, piú si accorciano e piú la CPU fa collo di bottiglia. Se l'SLI sta funzionando devono essere simmetriche rispetto al centro, ad indicare che il carico é equamente suddiviso fra le due schede.

Per disattivarle, nel pannello di controllo dovresti cliccare su gestisci impostazioni 3D e guardare i menu' a tendina in altro, e una di quelle opzioni.

Due 8800GTX consumano di picco circa 400W, corretto.

Per l'Ali, in firma non lo vedo.....

angie
22-11-2007, 14:04
Sinteticamente:

le barre di carico indicano il carico della GPU in AFR. Piú si allungano e piú la GPU é sfruttata, piú si accorciano e piú la CPU fa collo di bottiglia. Se l'SLI sta funzionando devono essere simmetriche rispetto al centro, ad indicare che il carico é equamente suddiviso fra le due schede.

Per disattivarle, nel pannello di controllo dovresti cliccare su gestisci impostazioni 3D e guardare i menu' a tendina in altro, e una di quelle opzioni.

Due 8800GTX consumano di picco circa 400W, corretto.

Per l'Ali, in firma non lo vedo.....

non lo vedi e hai ragione: cooler master green power 600w...
Grazie per la risposta;)

blade9722
22-11-2007, 14:17
non lo vedi e hai ragione: cooler master green power 600w...
Grazie per la risposta;)

L'ali é dichiarato per 460W continui dal 12V, un po' pochini. Potresti aggiungere il Thermaltake da 5.25" che ho in firma.

angie
22-11-2007, 14:54
L'ali é dichiarato per 460W continui dal 12V, un po' pochini. Potresti aggiungere il Thermaltake da 5.25" che ho in firma.

Grazie del consiglio ma 2 ali nel mio case non ci starebbero; vendero' il mio per un bel 1kw magari cooler master;)
Credi quindi che tutti i problemi dipendano esclusivamente dall'ali? puo' darmi errori senza necessariamente spegnersi?

renax200
22-11-2007, 16:00
L'ali é dichiarato per 460W continui dal 12V, un po' pochini. Potresti aggiungere il Thermaltake da 5.25" che ho in firma.

ciao blade, avevo intenzione di aggiungere lo stesso alimentatore che hai in sign...mi confermi che funziona perfettamente? Non vorrei avere limiti nel clockare le schede...in caso mi consiglieresti qualcosa di simile ma piu' potente o va bene questo anche per clockare a morte ? Ti ringrazio..:)

blade9722
22-11-2007, 16:29
ciao blade, avevo intenzione di aggiungere lo stesso alimentatore che hai in sign...mi confermi che funziona perfettamente? Non vorrei avere limiti nel clockare le schede...in caso mi consiglieresti qualcosa di simile ma piu' potente o va bene questo anche per clockare a morte ? Ti ringrazio..:)

Con le 8800GTS funziona a meraviglia. Ha due connettori P6, con uno puoi alimentare entrambi i connettori di una 8800GTX, oppure uno solo di entrambe. Se cerchi sul web c'é qualcuno che lo utilizza in uno dei due modi indicati, io purtroppo non ho esperienza diretta.

Altri modelli simili sono il fortron Sparkle BoosterX (venduto anche con il marchio PoV), che peró sembra sia rumoroso, mentre Technocomputer aveva a listino un Topower da 450W, ma l'ha rimosso perché sembra che, nonostante la potenza dichiarata, avesse problemi.

blade9722
22-11-2007, 16:32
Grazie del consiglio ma 2 ali nel mio case non ci starebbero; vendero' il mio per un bel 1kw magari cooler master;)
Credi quindi che tutti i problemi dipendano esclusivamente dall'ali? puo' darmi errori senza necessariamente spegnersi?

Ho riletto bene il tuo post. Il problema che rilevi sul 3dmark2006 io ce l'ho sul 3dmark2005.... Se é solo quello a darti problemi allora non é sicuramente l'alimentatore insufficiente.

renax200
22-11-2007, 16:46
Con le 8800GTS funziona a meraviglia. Ha due connettori P6, con uno puoi alimentare entrambi i connettori di una 8800GTX, oppure uno solo di entrambe. Se cerchi sul web c'é qualcuno che lo utilizza in uno dei due modi indicati, io purtroppo non ho esperienza diretta.

Altri modelli simili sono il fortron Sparkle BoosterX (venduto anche con il marchio PoV), che peró sembra sia rumoroso, mentre Technocomputer aveva a listino un Topower da 450W, ma l'ha rimosso perché sembra che, nonostante la potenza dichiarata, avesse problemi.

io lo utilizzerei con 2x8800GTS 640mb in SLI..se mi confermi che nn si hanno problemi..lo prendo subito ...vorrei capire solo quanti connettori pci-e ha..:)

blade9722
22-11-2007, 17:03
io lo utilizzerei con 2x8800GTS 640mb in SLI..se mi confermi che nn si hanno problemi..lo prendo subito ...vorrei capire solo quanti connettori pci-e ha..:)

Due, con connettori P6 intendo proprio i PCI-e

gianfernando
29-11-2007, 19:27
Complimenti per l'ottimo thread aperto!!!! veramente ben fatto!!!

Scusatemi per la mia ignoranza ma visto che parliamo di sli, volevo chiedervi se era possibile mettere in sli due schede 8800 gt su una scheda madre tipo la asus maximus formula che monta il chipset x38?

Oppure se mi potete gentilmente dire dove devo aprire il thread.

Grazie in anticipo a tutti.

^Klaudio^
07-12-2007, 08:44
io ho dei problemi con Crysis, mi va a scatti, anche settando la ris 1024*768, uso i driver 169.02 e dx10 su Vista

prima di fare l'up, con una x1800xt andava meglio :doh:

cosa posso fare?

blade9722
07-12-2007, 13:02
io ho dei problemi con Crysis, mi va a scatti, anche settando la ris 1024*768, uso i driver 169.02 e dx10 su Vista

prima di fare l'up, con una x1800xt andava meglio :doh:

cosa posso fare?


I 169.02 sono i primi driver usciti con supporto a Crysis e avevano proprio il problema che descrivi. Usa i 169.12 (dal sito Nvidia). I 169.13 da me hanno un paio di problemi e non te li consiglio.

Ti consiglio inoltre di installare le seguenti hotfix:

http://www.nvidia.com/object/windows_vista_hotfixes.html

Che combinate danno il loro contributo.

La più recente non è direttamente disponibile per il download (implica che non è stata del tutto testata), dovrai contattare il supporto tecnico Microsoft oppure scaricarla da un mirror.

^Klaudio^
07-12-2007, 23:49
grazie blade ora va decisamente meglio :)
però sono riuscito a installare, oltre ai driver 169.12, solo le hotfix 1 e 3, le 2, 4 e 5 no, mi ha dato errore di supporto sul sistema :confused:

per avere prove pratiche ho fatto qualche test col bench di crysis ed ecco i risultati migliori nelle configurazioni High e Very High, risoluzione 1280*1024 e AA 16xQ, clock delle schede 700/2000, ambiente gpu_bench

http://img91.imageshack.us/img91/6851/crysishigh16xqgi5.jpg
http://img91.imageshack.us/img91/7775/crysisveryhigh16xqgg3.jpg

sono in media per la configurazione del pc?

blade9722
08-12-2007, 08:25
grazie blade ora va decisamente meglio :)
però sono riuscito a installare, oltre ai driver 169.12, solo le hotfix 1 e 3, le 2, 4 e 5 no, mi ha dato errore di supporto sul sistema :confused:

per avere prove pratiche ho fatto qualche test col bench di crysis ed ecco i risultati migliori nelle configurazioni High e Very High, risoluzione 1280*1024 e AA 16xQ, clock delle schede 700/2000, ambiente gpu_bench

http://img91.imageshack.us/img91/6851/crysishigh16xqgi5.jpg
http://img91.imageshack.us/img91/7775/crysisveryhigh16xqgg3.jpg

sono in media per la configurazione del pc?


Le 4 e le 5 sono disponibili su windows update, dovresti averle già installate, per questo con buona probabilità ti da l'errore.

Per quanto riguarda i risultati, Crysis benchmark tool ti permette di impostare AA 16xQ, ma dubito che l'impostazione funzioni.

Se vuoi avere un responso, effettua il test senza AA.

^Klaudio^
08-12-2007, 14:40
fatto, ecco i risultati

http://img410.imageshack.us/img410/2320/screen01zq7.jpg

http://img209.imageshack.us/img209/19/screen02vo6.jpg

blade9722
08-12-2007, 15:40
fatto, ecco i risultati

http://img410.imageshack.us/img410/2320/screen01zq7.jpg

http://img209.imageshack.us/img209/19/screen02vo6.jpg

Non mi torna moltissimo, io in 1280x1024 DX10 sono 100% CPU limited, in high ottengo 33.4 FPS ( e torna, in quanto la tua CPU è più veloce), ma in Very high io ottengo 26.7 FPS

^Klaudio^
09-12-2007, 03:04
in Very high io ottengo 26.7 FPS

eh no che non torna :mbe:

che posso fare per migliorare?

ps
eseguendo il 3dmark06, possibile che la differenza tra avere l'sli attivato dal pannello di controllo nvidia e averlo disattivato, sia di soli 1700pt (13700 v 12000) ?

gpu-z mi segna che l'sli è "Disabled" anche se dal pannello è attivato

su QUESTO SITO (http://www.guru3d.com/article/Videocards/468/11) però hanno fatto un punteggio simile al mio :mbe:

non ci sto capendo niente :mc:

ps2
grazie dell'aiuto :vicini:

blade9722
09-12-2007, 07:43
eh no che non torna :mbe:

che posso fare per migliorare?

ps
eseguendo il 3dmark06, possibile che la differenza tra avere l'sli attivato dal pannello di controllo nvidia e averlo disattivato, sia di soli 1700pt (13700 v 12000) ?

gpu-z mi segna che l'sli è "Disabled" anche se dal pannello è attivato

su QUESTO SITO (http://www.guru3d.com/article/Videocards/468/11) però hanno fatto un punteggio simile al mio :mbe:

non ci sto capendo niente :mc:

ps2
grazie dell'aiuto :vicini:

Si, è corretto, il 3dmark è 100% CPU limited:

http://www.hwupgrade.it/forum/showthread.php?t=1514992

^Klaudio^
09-12-2007, 11:09
ok grazie, qualche consiglio per il problema con crysis?

il fatto che gpu-z mi segna SLI DISABLED è una sciocchezza?

blade9722
09-12-2007, 11:12
quindi i miei score adesso sono ok? :confused:

Si....

e tutto sommato non vedo alcun problema, il 3dmark06 è solo un benchmark.

Per quanto riguarda il punteggio su very high in Crysis... non saprei.. Le mie 8800GTS sono overcloccate e forse sono più veloci delle 8800GT a frequenza di default. Prova ad overcloccare.

^Klaudio^
09-12-2007, 11:15
invece di rispondere ho editato :p

se puoi rispondimi a quello scritto su, grazie

^Klaudio^
09-12-2007, 11:18
Le mie 8800GTS sono overcloccate e forse sono più veloci delle 8800GT a frequenza di default. Prova ad overcloccare.

le ho settate a 700/2000 durante i test, devo mettere di più?

per il 3dmark, si è solo un bench, sono d'accordo, preferisco giocare bene che avere un punteggio alto li, però pensavo ci fosse qualche problema di settaggi o di driver, solo per quello :)

blade9722
09-12-2007, 11:21
invece di rispondere ho editato :p

se puoi rispondimi a quello scritto su, grazie

il fatto che gpu-z mi segna SLI DISABLED è una sciocchezza?



Da me da enabled, ma credo che sia una sciocchezza (probabilmente non è stato ancora aggiornato alle 8800GT). Abilita gli indicatori visivi dal pannello di controllo Nvidia, quelli sono affidabili.

Comunque con una 8800GT singola non riusciresti a fare 21 FPS in Very high

P.S. mi posti uno screenshot di GPU-Z con la scheda overcloccata?

^Klaudio^
09-12-2007, 11:33
eccolo

http://img514.imageshack.us/img514/6568/screen03nq6.jpg

ps
nel pannello nvidia non trovo dove si abilitano gli indicatori visivi :doh:

^Klaudio^
09-12-2007, 11:36
ps2
con Crysis tu che setting usi per la modalità prestazioni? io l'ho su "forza rendering fotogramma alternato 1"

blade9722
09-12-2007, 11:53
Ci sono altri valori sballati, il texture fill rate dovrebbe essere intorno 27GB/s. Non considerei gpu-z affidabile con la tua scheda.

Indicatori visivi: pannello di controllo Nvidia --> gestisci impostazione 3D. In altro ti comparirà impostazioni 3D.

Non dovresti modificare il profilo SLI Nvidia a meno che non sai cosa fare, adesso lo hai perso.

Comuqneu non ti preoccupare, quello che hai modificato vale solo in DX9, in DX10 puoi modificarlo solo con nHancer

^Klaudio^
09-12-2007, 12:12
ok grazie per tutto :)

Loll007
09-12-2007, 13:28
raga,io ho cambiato scheda video.e ho una 7600gs inutilizzata,la venderei a un mio caro amico a 30/40 euri,per fargli fare un SLI lui a una scheda madre nvdia nforce 650 con soket per amd,per fargli fare lSLI ci serve altro oltre il cavetto? dove lo posso reperire?quanto lo dovrei pagare? so' che le prestazioni non diventeranno incredibili date le schede,è tanto per divertirmi con questo mio amico.

Adrenalin
09-12-2007, 16:11
Ciao ragazzi, ieri ho installato la seconda 8600GTS affiancandola alla medesima già frullante, il mio obiettivo era ovviamente di migliorare sensibilmente la qualita' videoludica dato che sto giocando a titoli del calibro di Crysis, ma il risultato è stato a dir poco SCADENTE!!

Drivers nForce aggiornati.
Diver Forceware Aggiornato.

Allora mi chiedo, come è possibile che non vi siano incrementi prestazionali degni di nota?

Sarà forse imputabile alla risoluzione? Ho un 19pollici percui non posso portarmi molto in alto.

Sarà imputabile al processore? Ho un Core 2 Duo a 1.8Ghz, decisamente lentino forse.

Ci sono delle impostazioni particolari da settare per ottimizzare l'SLI dal pannello di controllo Nvidia??
Devo scaricare qualcosa?
E' corretto che il bus PCI-E sia calato ad 8x anzichè 16x ??

Il resto della configurazione è rispettabile!

Ditemi che non ho buttato i soldi

slivio...
11-12-2007, 21:48
usa nhancer e visualizzane il grafico con una sua opzione per vedere se effettivamente.. le schede lavorano in sli.. anche se tali configurate.. :)

blade9722
12-12-2007, 18:53
Ciao ragazzi, ieri ho installato la seconda 8600GTS affiancandola alla medesima già frullante, il mio obiettivo era ovviamente di migliorare sensibilmente la qualita' videoludica dato che sto giocando a titoli del calibro di Crysis, ma il risultato è stato a dir poco SCADENTE!!

Drivers nForce aggiornati.
Diver Forceware Aggiornato.

Allora mi chiedo, come è possibile che non vi siano incrementi prestazionali degni di nota?

Sarà forse imputabile alla risoluzione? Ho un 19pollici percui non posso portarmi molto in alto.

Sarà imputabile al processore? Ho un Core 2 Duo a 1.8Ghz, decisamente lentino forse.

Ci sono delle impostazioni particolari da settare per ottimizzare l'SLI dal pannello di controllo Nvidia??
Devo scaricare qualcosa?
E' corretto che il bus PCI-E sia calato ad 8x anzichè 16x ??

Il resto della configurazione è rispettabile!

Ditemi che non ho buttato i soldi

Ciao,

scusa ho notato solo adesso la tua richiesta. Potresti essere più preciso? Quali applicazioni stai provandop? Che performance ottieni con o senza SLI attivato?

P.S. per il pci-e, è corretto se il chipset è l'nforce 570 o il 650

elioas
13-12-2007, 09:03
buongiorno a tutti.volevo sapere e scusate la domanda forse stupida se per mettere due schede in sli queste debbano essere necessariamente della stessa marca o basta che montino la stessa gpu magari con frequenze uguali?perchè ho preso per il momento una 8800gt twintech, l'unica disponibile in tempi ragionevoli,ma temo che sia difficile trovarne una della stessa marca quando avrò i dindi per prenderne un altra e fare lo sli. grazie dell'aiuto.

Adrenalin
13-12-2007, 09:29
Ciao,

scusa ho notato solo adesso la tua richiesta. Potresti essere più preciso? Quali applicazioni stai provandop? Che performance ottieni con o senza SLI attivato?

P.S. per il pci-e, è corretto se il chipset è l'nforce 570 o il 650

Ho il 650, comunque adesso ho ottimizzato le prestazioni e va bene, anche se ogni tanto rallenta e quello che credo faccia da collo di bottiglia è il mio processore!
Penso che faccia andare lenta pure la Ram, visto che le Kingston a 667Mhz che avevo prima nella classificazione di Vista erano piu' veloci delle OCZ Platinum a 800Mhz che ho adesso!!

conchiuro
13-12-2007, 14:41
salve
vorrei aggioarnare la scheda video
ho una 7600 gs,
secondo voi mi conviene comprarne un'altra e attivare lo SLI oppure comprare una 8600 gts?
a livello di prestazioni cosa guadagno con 2 7600 gs?

iaio
14-12-2007, 15:15
ciao

innanzitutto vi elenco il mio sistema:

ALi: OCZ gameXstream 700W
mobo: DFI lanparty Ut nf4 SLI-DR con BIOS:
phoenix technologies, LTD
6.00 PG
06/23/2005
cpu: x2 3800+ Manchester dissy mine cooler infinity
ram: 2*512 ddr400 in dual (una a-data e una s3)
video: 2*7800gtx 256MB ASUS(driver 169.13) in SLI raffreddate da 2 ZALMAN VF-900 versione fatality
primary master: hd 40gb maxtor (in raid 0 con l'altro da 40gb)
primary slave: hd 160gb hitachi
secondary master: hd 40gb maxtor (in raid 0 con l'altro da 40gb)
secondary slave: hd 200gb maxtor

ho attivato lo sli solo dal pannello di controllo, onn ho capito se devo variare qualche parametro o meno...

iaio
17-12-2007, 01:31
ho un grosso problema con lo sli sulla dfi ut nf4 sli-dr, per favore se qualcuno può darmi una mano gli sarò veramente riconoscente, altrimenti qui rischio di lanciare tutto il case dalla finestra!

http://www.hwupgrade.it/forum/showthread.php?p=20145718#post20145718

grazie

blade9722
17-12-2007, 07:10
buongiorno a tutti.volevo sapere e scusate la domanda forse stupida se per mettere due schede in sli queste debbano essere necessariamente della stessa marca o basta che montino la stessa gpu magari con frequenze uguali?perchè ho preso per il momento una 8800gt twintech, l'unica disponibile in tempi ragionevoli,ma temo che sia difficile trovarne una della stessa marca quando avrò i dindi per prenderne un altra e fare lo sli. grazie dell'aiuto.


Ciao, usa la funziona cerca, oppure guarda il sito inglese della Nvidia... o il primo post di questo thread: puoi mischiare tranquillamente schede di marche diverse e frequenze diverse, basta che la VRAM sia la stessa come quantità e tipologia.

blade9722
17-12-2007, 07:14
salve
vorrei aggioarnare la scheda video
ho una 7600 gs,
secondo voi mi conviene comprarne un'altra e attivare lo SLI oppure comprare una 8600 gts?
a livello di prestazioni cosa guadagno con 2 7600 gs?

Ti conviene una 8600GTS, dovrebbe costare meno e andare un pochino di più, ed in più di assicura la compatibilità DX10

blade9722
17-12-2007, 07:17
ho un grosso problema con lo sli sulla dfi ut nf4 sli-dr, per favore se qualcuno può darmi una mano gli sarò veramente riconoscente, altrimenti qui rischio di lanciare tutto il case dalla finestra!

http://www.hwupgrade.it/forum/showthread.php?p=20145718#post20145718

grazie

Non ho capito bene quale sia il problema, comuqnue i 169.13 da me davano un sacco di problemi: schermate blu e flickeringin Crysis guardando il mare. Prova i 169.21.

iaio
17-12-2007, 09:13
Non ho capito bene quale sia il problema, comuqnue i 169.13 da me davano un sacco di problemi: schermate blu e flickeringin Crysis guardando il mare. Prova i 169.21.

no i problemi non sono di driver (in quanto avevo provato pure altri driver prima) comunque per sicurezza ora proverò i 169.21.

il problema è che se dal pannello di controllo nvidia attivo l'opzione "abilita SLI", le prestazioni sui giochi, invece di migliorare di un 50%/70% mi diminuiscono di un buon 20%.

invece nel 3d mark 2005 lo sli mi funziona bene(8000 senza sli abilitato, 12000 con sli abilitato)...visto che in materia mi sembra che ne capisci abbastanza, ci sono opzioni particolari dal bios che devo attivare?

se c'è ne fossero non capisco il perchè 3dmark mi funzioni e i giochi no.

blade9722
18-12-2007, 22:44
no i problemi non sono di driver (in quanto avevo provato pure altri driver prima) comunque per sicurezza ora proverò i 169.21.

il problema è che se dal pannello di controllo nvidia attivo l'opzione "abilita SLI", le prestazioni sui giochi, invece di migliorare di un 50%/70% mi diminuiscono di un buon 20%.

invece nel 3d mark 2005 lo sli mi funziona bene(8000 senza sli abilitato, 12000 con sli abilitato)...visto che in materia mi sembra che ne capisci abbastanza, ci sono opzioni particolari dal bios che devo attivare?

se c'è ne fossero non capisco il perchè 3dmark mi funzioni e i giochi no.


Non saprei, potresti elencare le applicazioni dove hai un calo di prestazioni Oltre alle due che hai citato sull'altro thread?

Se guardi nel thread tecnico di Crysis ho spiegato come stanno le cose.

iaio
19-12-2007, 02:01
Non saprei, potresti elencare le applicazioni dove hai un calo di prestazioni Oltre alle due che hai citato sull'altro thread?

Se guardi nel thread tecnico di Crysis ho spiegato come stanno le cose.
purtroppo fin'ora l'ho provato solo su questi 2 giochi..mi consigli qualche applicazione per testarlo?

blade9722
19-12-2007, 07:56
purtroppo fin'ora l'ho provato solo su questi 2 giochi..mi consigli qualche applicazione per testarlo?

prova la demo di Bioshock e di Lost Planet (snow... cave è tutto da CPU).

iaio
19-12-2007, 13:22
prova la demo di Bioshock e di Lost Planet (snow... cave è tutto da CPU).

vedo se il mio amico che li ha originali, me li presta...

ti faccio sapere presto qualcosa...
per lost planet, bisogna mettere qualche cosa di particolare per attivare lo sli?

blade9722
20-12-2007, 09:52
vedo se il mio amico che li ha originali, me li presta...

ti faccio sapere presto qualcosa...
per lost planet, bisogna mettere qualche cosa di particolare per attivare lo sli?

basta scaricare le demo, amche perchè Bioshock ha l'inghippo della attivazione online. Ma puoi utilizzare altri titoli a scelta, è giusto per avere un'idea.

Insisto che i 169.13 hanno problemi...

iaio
21-12-2007, 03:25
basta scaricare le demo, amche perchè Bioshock ha l'inghippo della attivazione online. Ma puoi utilizzare altri titoli a scelta, è giusto per avere un'idea.

Insisto che i 169.13 hanno problemi...

ho installato i 169.21..nessun miglioramento!

ho installato lost planet ora passo a testarlo...per vedere gli fps come faccio?

iaio
21-12-2007, 03:26
basta scaricare le demo, amche perchè Bioshock ha l'inghippo della attivazione online. Ma puoi utilizzare altri titoli a scelta, è giusto per avere un'idea.

Insisto che i 169.13 hanno problemi...

ho installato i 169.21..nessun miglioramento!

ho installato lost planet ora passo a testarlo...per vedere gli fps come faccio?

iaio
21-12-2007, 15:00
ho installato i 169.21..nessun miglioramento!

ho installato lost planet ora passo a testarlo...per vedere gli fps come faccio?

la demo di lost planet in dx9 non mi parte... :(

mi dice che c'è un file .dll mancante

blade9722
21-12-2007, 18:50
la demo di lost planet in dx9 non mi parte... :(

mi dice che c'è un file .dll mancante

devi aggiornare le directx in

http://www.microsoft.com/directx

Bic67
21-12-2007, 22:30
Ciao raga ho un grosso dubbio che mi attanaglia e volevo una vostra opinione e cioè se sul mio PC che monta 2 asus 8800 GTS EN in SLI, sto benedetto SLI è attivo e funzionante.... Il dubbio mi viene perchè GPU-Z si ostina a segnalarmi che è disabled. Vi lascio una foto con un pò di dati.

"http://bic67.altervista.org/Desktop.jpg"

P.S. il mio pc è assemblato con i seguenti componenti: case cooler master stacker 832, alimentatore cooler master 850 watt modulare, scheda madre ASUS P5N32-E SLI (verisone 1.xx con bios 1205), processore Intel core 2 DUO E 6850 da 3 Ghz, ram 4 Gb Kingston PC6400 DDR2 800 Mhz, schede video 2 ASUS EN (Nvidia) 8800 GTS da 640 Mb di ram (con driver WHQL 163.75), masterizzatore Plextor PX-800A ATA, secondo masterizzatore Samsung TSST corp CD/DWD SH182D ATA, 2 hard disk da 500 Gb in configurazione RAID 0 (stripe), sistema operativo WINDOWS VISTA BUISNESS 64 bit.

Dimenticavo.... se attivo lo sli dal pannello ntune in 3 dMark06 ottengo circa 12700 punti, se disattivo lo SLI arrivo a 8900.


Ciao e grazie da Bic67

blade9722
22-12-2007, 12:26
Ciao raga ho un grosso dubbio che mi attanaglia e volevo una vostra opinione e cioè se sul mio PC che monta 2 asus 8800 GTS EN in SLI, sto benedetto SLI è attivo e funzionante.... Il dubbio mi viene perchè GPU-Z si ostina a segnalarmi che è disabled. Vi lascio una foto con un pò di dati.

"http://bic67.altervista.org/Desktop.jpg"

P.S. il mio pc è assemblato con i seguenti componenti: case cooler master stacker 832, alimentatore cooler master 850 watt modulare, scheda madre ASUS P5N32-E SLI (verisone 1.xx con bios 1205), processore Intel core 2 DUO E 6850 da 3 Ghz, ram 4 Gb Kingston PC6400 DDR2 800 Mhz, schede video 2 ASUS EN (Nvidia) 8800 GTS da 640 Mb di ram (con driver WHQL 163.75), masterizzatore Plextor PX-800A ATA, secondo masterizzatore Samsung TSST corp CD/DWD SH182D ATA, 2 hard disk da 500 Gb in configurazione RAID 0 (stripe), sistema operativo WINDOWS VISTA BUISNESS 64 bit.

Dimenticavo.... se attivo lo sli dal pannello ntune in 3 dMark06 ottengo circa 12700 punti, se disattivo lo SLI arrivo a 8900.


Ciao e grazie da Bic67

Ignora pure ciò che ti dice gpu-z

renax200
22-12-2007, 20:03
ho appena finito di installare windows sul nuovo sistema...volevo iniziare a clockare un po' le VGA..che programma mi consigliate?:)

Bic67
23-12-2007, 21:35
Innanzi tutto grazie BLADE per la tua telegrafica ma chiara risposta, ma scusami se insisto... mi sono scordato nel precedente post di inserire anche l'immagine che posto ora in cui vi è un'analisi del mio sistema fatta con half life 2, cioè per essere + precisi fatta con Steam, dove tra le righe si legge testualmente "nessun SLI o CROSSFIRE rilevato" e una riga prima si legge anche numero di schede video 1.... Ora non capisco se questi sistemi di rilevazione abbiano dei bug o cos'altro, oppure se il problema sia generato da windows vista 64 bit. Personalmente la tua risposta mi ha in parte assicurato ma non del tutto però... Se non chiedo troppo non è che potresti essere un pò + dettagliato. Un altra cosa e scusami se "rompo", sai indicarmi qualche link dove spiegano come funziona nhancer e tutte le sue potenzialità, magari in italiano.
Lascio il link dell'immagine: http://bic67.altervista.org/Desktopt2.jpg

Ti ringrazio fin d'ora e colgo l'occasione per augurare a te e anche a tutti gli amici del forum i miei più sinceri AUGURI di un SERENO NATALE.

blade9722
24-12-2007, 08:53
Innanzi tutto grazie BLADE per la tua telegrafica ma chiara risposta, ma scusami se insisto... mi sono scordato nel precedente post di inserire anche l'immagine che posto ora in cui vi è un'analisi del mio sistema fatta con half life 2, cioè per essere + precisi fatta con Steam, dove tra le righe si legge testualmente "nessun SLI o CROSSFIRE rilevato" e una riga prima si legge anche numero di schede video 1.... Ora non capisco se questi sistemi di rilevazione abbiano dei bug o cos'altro, oppure se il problema sia generato da windows vista 64 bit. Personalmente la tua risposta mi ha in parte assicurato ma non del tutto però... Se non chiedo troppo non è che potresti essere un pò + dettagliato. Un altra cosa e scusami se "rompo", sai indicarmi qualche link dove spiegano come funziona nhancer e tutte le sue potenzialità, magari in italiano.
Lascio il link dell'immagine: http://bic67.altervista.org/Desktopt2.jpg

Ti ringrazio fin d'ora e colgo l'occasione per augurare a te e anche a tutti gli amici del forum i miei più sinceri AUGURI di un SERENO NATALE.


Per essere sicure che l'SLI sia funzionante attiva gli indicatori visivi SLI (se guardi nelle FAQ Nvidia o qualche post addietro c'è spiegato come fare). I sistemi di rilevazione automatica, che sia il 3dmark, Oblivion, etc, non hanno mai funzionato.

Bic67
25-12-2007, 16:45
Ciao Blade grazie della tua puntuale risposta. Allora per quanto riguarda l'indicatore visivo dello SLI quello (almeno quello....:D) so come si attiva. Le barre verdi scorrono in modo sincronizzato verso l'alto o verso il basso. Vorrei ottimizzare tramite nHancer HALF LIFE 2 (orange box) il problema è che non so da dove partire.... Nel post precedente ti avevo chiesto se sapevi indicarmi qualche link su come usare questo tool ma non ho visto nulla...:( Ho cercato di leggere attentamente il tuo primo post del treahd ma sebbene tua abbia cercato di essere il + chiaro possibile io non ciò capito nulla :muro:
Lascio i risultati di un test fatto con Hardware OC HALF LIFE 2 episode 1 per misurare i frame p/sec. E' stato fatto alla massima risoluzione possibile per il mio monitor. Se puoi dargli un okkio e lasciarmi una opinione te ne sarei grato.

A dimenticavo una cosa.... il mio pc non è mai stato overclokkato tutto l'hardware è con le impostazioni di default. Credo che ottenere 12700 al 3dMark 06 tutto sommato sia un buon punteggio, tu che dici?

Ciao da bic67

The benchmark started at 25/12/2007 17.14.58

System Information
Operating system: Windows (TM) Vista Business
System memory: 4,0 GB
CPU: Intel(R) Core(TM)2 Duo CPU E6850 @ 3.00GHz
CPU speed: 3000 MHz
Sound system: Altoparlanti (Dispositivo High Definition Audio)
VGA Information
Graphics card: NVIDIA GeForce 8800 GTS
Memory: 2395 MB
Current GPU speed:
Current memory speed:
Driver version: 7.15.0011.6375 (English)

Resolution: 1680 × 1050 (Custom)
Demo: PC_Space demo
Detail: Maximum quality
High Dynamic Range: Full (if available)
Heapsize: 256 MB
Antialising mode: 8×
Filtering mode: Anisotropic 16×
Fast Z: Disabled
Color Correction: Enabled
Score = 60 FPS
Score = 60 FPS
Score = 60 FPS
Average score = 60 FPS

Loll007
26-12-2007, 15:02
se volessi fare Lsli su un chipset nforce 550 e ho due 7600gs inutilizzate,mi serve il bridge? oppure posso fare tutto via hw?

massimovasche
27-12-2007, 13:14
Ciao a tutti. Ho due 8800 gts in sli e volevo sapere dal pannello (sia nvidia che nhancer) quale sia l'impostazione migliore tra AFR, AFR2, SFR; mi rendo mconto della niubbaggine della domanda, perchè dipende via via dal gioco , dalla configurazione usata, driver, ecc.., però se qualcuno di voi può dirmi l'impostazione che mediamente è quella migliore, da lasciare quasi sempre. Grazie e auguri :)

blade9722
27-12-2007, 13:33
Ciao a tutti. Ho due 8800 gts in sli e volevo sapere dal pannello (sia nvidia che nhancer) quale sia l'impostazione migliore tra AFR, AFR2, SFR; mi rendo mconto della niubbaggine della domanda, perchè dipende via via dal gioco , dalla configurazione usata, driver, ecc.., però se qualcuno di voi può dirmi l'impostazione che mediamente è quella migliore, da lasciare quasi sempre. Grazie e auguri :)

Non toccare le impostazioni della Nvidia se non sai cosa fare

blade9722
27-12-2007, 13:34
Ciao Blade grazie della tua puntuale risposta. Allora per quanto riguarda l'indicatore visivo dello SLI quello (almeno quello....:D) so come si attiva. Le barre verdi scorrono in modo sincronizzato verso l'alto o verso il basso. Vorrei ottimizzare tramite nHancer HALF LIFE 2 (orange box) il problema è che non so da dove partire.... Nel post precedente ti avevo chiesto se sapevi indicarmi qualche link su come usare questo tool ma non ho visto nulla...:( Ho cercato di leggere attentamente il tuo primo post del treahd ma sebbene tua abbia cercato di essere il + chiaro possibile io non ciò capito nulla :muro:
Lascio i risultati di un test fatto con Hardware OC HALF LIFE 2 episode 1 per misurare i frame p/sec. E' stato fatto alla massima risoluzione possibile per il mio monitor. Se puoi dargli un okkio e lasciarmi una opinione te ne sarei grato.

A dimenticavo una cosa.... il mio pc non è mai stato overclokkato tutto l'hardware è con le impostazioni di default. Credo che ottenere 12700 al 3dMark 06 tutto sommato sia un buon punteggio, tu che dici?

Ciao da bic67

The benchmark started at 25/12/2007 17.14.58

System Information
Operating system: Windows (TM) Vista Business
System memory: 4,0 GB
CPU: Intel(R) Core(TM)2 Duo CPU E6850 @ 3.00GHz
CPU speed: 3000 MHz
Sound system: Altoparlanti (Dispositivo High Definition Audio)
VGA Information
Graphics card: NVIDIA GeForce 8800 GTS
Memory: 2395 MB
Current GPU speed:
Current memory speed:
Driver version: 7.15.0011.6375 (English)

Resolution: 1680 × 1050 (Custom)
Demo: PC_Space demo
Detail: Maximum quality
High Dynamic Range: Full (if available)
Heapsize: 256 MB
Antialising mode: 8×
Filtering mode: Anisotropic 16×
Fast Z: Disabled
Color Correction: Enabled
Score = 60 FPS
Score = 60 FPS
Score = 60 FPS
Average score = 60 FPS

Quel 60 fisso puzza di FPS cap o di vsync attivato

massimovasche
27-12-2007, 13:40
Non toccare le impostazioni della Nvidia se non sai cosa fare


Grazie per la risposta...però non ho capito, se non tocco le impostazioni nvidia dal pannello mi dà singola scheda, come se lo sli non fosse attivato, giusto ? :confused:

massimovasche
27-12-2007, 14:46
Scusa se insisto..., ho letto la guida e i richiami che hai consigliato e mi voglio complimentare per il tuo lavoro. Molto esauriente, tecnico, approfondito, ma al tempo stesso chiaro anche per me (non prorpio tutto,ma quasi...) :fagiano:.
Però non ho capito se dal profilo di Nhancer sia possibile (in dx 9), riportare le impostazioni iniziali, seppur perse; eppoi perchè mi consigli di lasciare le impostazioni Nvidia, che di default sono settate su single gpu ??

Grazie ancora

blade9722
27-12-2007, 16:21
Scusa se insisto..., ho letto la guida e i richiami che hai consigliato e mi voglio complimentare per il tuo lavoro. Molto esauriente, tecnico, approfondito, ma al tempo stesso chiaro anche per me (non prorpio tutto,ma quasi...) :fagiano:.
Però non ho capito se dal profilo di Nhancer sia possibile (in dx 9), riportare le impostazioni iniziali, seppur perse; eppoi perchè mi consigli di lasciare le impostazioni Nvidia, che di default sono settate su single gpu ??

Grazie ancora

Di default sono settate su single GPU, questo significa che se stai utilizzando una applicazione non compresa nell'elenco di quelle preconfigurate da Nvidia non sfrutterà l'SLI. In questo caso sei obbligato a configurarti a mano un profilo dedicato

Se invece c'è già il profilo della Nvidia non ti conviene cambiarlo, difficilmente riusciresti a fare di meglio. Nel qual caso ti consiglio di sfruttare le funzionalità di backup di nhancer, per poter ripristinare la configurazione iniziale. In alcune versioni del driver è memorizzato in nvapps.xml, alla voce "default=", ma devi comunque usare nHancer per ripristinarla (c'è un altro modo, ma è complesso e non sempre funziona). Per questo sconsiglio di toccare i profili SLi Nvidia.

P.S. sembra che nelle ultime versioni di driver non ci sia più il checksum sui profili DX10, ho già avvertito Martin ma non mi ha risposto, anche se sta già lavorando alla nuova versione di nhancer.

massimovasche
27-12-2007, 17:25
Di default sono settate su single GPU, questo significa che se stai utilizzando una applicazione non compresa nell'elenco di quelle preconfigurate da Nvidia non sfrutterà l'SLI. In questo caso sei obbligato a configurarti a mano un profilo dedicato

Se invece c'è già il profilo della Nvidia non ti conviene cambiarlo, difficilmente riusciresti a fare di meglio. Nel qual caso ti consiglio di sfruttare le funzionalità di backup di nhancer, per poter ripristinare la configurazione iniziale. In alcune versioni del driver è memorizzato in nvapps.xml, alla voce "default=", ma devi comunque usare nHancer per ripristinarla (c'è un altro modo, ma è complesso e non sempre funziona). Per questo sconsiglio di toccare i profili SLi Nvidia.

P.S. sembra che nelle ultime versioni di driver non ci sia più il checksum sui profili DX10, ho già avvertito Martin ma non mi ha risposto, anche se sta già lavorando alla nuova versione di nhancer.



Sei stato ILLUMINANTE. Ho capito tutto :cool: . Non avevo capito che i profili non compresi da Nvidia vanno cambiati manualmente.Ti ringrazio; a presto e auguri.

Bic67
27-12-2007, 17:41
Blade scusami l'ignoranza totale (quasi da laurea :rolleyes: ) ma che vuol dire FPS CAP? Confermo che il vsync è attivo. Secondo te c'è la possibilità via driver di aumentare il refresh del mio monitor che è un SAMSUNG 226BW oltre a 60 che è il suo limite massimo a 1650x1080, solo per le applicazioni come i giochi, ad esempio HALF LIFE 2? Se porto la risoluzione a 1289x1024 posso alzare il refresh del monitor fino a 70 Hz, ma vorrei mantenere la massima risoluzione.

Ciauzz

Joby
27-12-2007, 22:12
ciao a tutti,

Pensando di fare cosa gradita, posto anch'io alcuni risultati con Bench Crysis tanto per avere un riferimento con SLI 8800gt
Il pc è quello in firma,

Driver Video 169.28beta per vista 64bit (ho notato dei buoni miglioramenti nello SLI)
NHancer 2.3.2
Driver 680i Nforce 64_15.08
Schede video 8800gt xfx XXX a default default
CPU E8650 a default

quindi:


Eseguibile a 64bit VeryHigh Sli 8800gt

Run #1- DX10 1280x1024 AA=No AA, 64 bit test, Quality: VeryHigh ~~ Overall Average FPS: 33,43

Run #1- DX10 1280x1024 AA=8x, 64 bit test, Quality: VeryHigh ~~ Overall Average FPS: 21,55

Eseguibile a 64bit VeryHigh Singola 8800gt

Run #1- DX10 1280x1024 AA=No AA, 64 bit test, Quality: VeryHigh ~~ Overall Average FPS: 19,63

Run #1- DX10 1280x1024 AA=8x, 64 bit test, Quality: VeryHigh ~~ Overall Average FPS: 14,34







Eseguibile a 32bit VeryHigh Sli 8800gt

Run #1- DX10 1280x1024 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 34,87

Run #1- DX10 1280x1024 AA=8x, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 19,40

Eseguibile a 32bit VeryHigh Singola 8800gt

Run #1- DX10 1280x1024 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 19,65

Run #1- DX10 1280x1024 AA=8x, 32 bit test, Quality: VeryHigh ~~ Overall Average FPS: 14,45

slivio...
27-12-2007, 22:36
scusa come fai ad eseguirlo a 32 e 64 bit dove sono sti esguibili?

grazie...

Joby
27-12-2007, 23:04
scusa come fai ad eseguirlo a 32 e 64 bit dove sono sti esguibili?

grazie...


se hai un SO opertivo a 64 bit, nella cartella di crysis hai due eseguibili, uno nella cartella bin32 e l'altro nella cartella bin 64 !!

ciao

blade9722
03-01-2008, 16:39
Blade scusami l'ignoranza totale (quasi da laurea :rolleyes: ) ma che vuol dire FPS CAP? Confermo che il vsync è attivo. Secondo te c'è la possibilità via driver di aumentare il refresh del mio monitor che è un SAMSUNG 226BW oltre a 60 che è il suo limite massimo a 1650x1080, solo per le applicazioni come i giochi, ad esempio HALF LIFE 2? Se porto la risoluzione a 1289x1024 posso alzare il refresh del monitor fino a 70 Hz, ma vorrei mantenere la massima risoluzione.

Ciauzz

CAP é un termine inglese che ha vari significati (cappello...), fra cui "limite superiore". Alcuni giochi, Quake IV in particolare, limitano gli FPS ad un valore massimo di 60 per facilitare la sincronizzazione in rete in multiplayer.

Nel tuo caso il valore fisso di 60 é dato dal Vsync. Se vuoi assolutamente "vedere" un valore piú elevato... disattivalo

iaio
03-01-2008, 17:45
devi aggiornare le directx in

http://www.microsoft.com/directx

scusa ma non posso instalalre le directx 10...uso win xp e non ho una scheda video directx 10...

iaio
03-01-2008, 17:57
vedo se il mio amico che li ha originali, me li presta...

ti faccio sapere presto qualcosa...
per lost planet, bisogna mettere qualche cosa di particolare per attivare lo sli?

allora...

vi ricordate il mio problema?

praticamente sui giochi se attivavo lo sli le prestazioni mi diminuivano anzichè aumentare...

blade mi aveva consigliato di installare lost planet e testare...ho scaricato la demo, ma non mi partiva.

dopo ho dovuto lasciar perdere perchè son tornato a casa per le feste lasciando l'arcano irrisolto...

durante le feste sono venuto in possesso di un opteron 165, appena sono tornato qui a perugia l'ho montato e come per magia lo sli ora funziona perfettamente!

cosa poteva essere?

vi elenco il mio sistema:

ALi: OCZ gameXstream 700W
mobo: DFI lanparty Ut nf4 SLI-DR con BIOS:
phoenix technologies, LTD
6.00 PG
06/23/2005
cpu: opteron 165 @2650 dissy mine cooler infinity
ram: 2*1024 ddr400 in dual (senza marca con chip ZCCC)
video: 2*7800gtx 256MB ASUS(driver 169.13) in SLI raffreddate da 2 ZALMAN VF-900 versione fatality
primary master: hd 40gb maxtor (in raid 0 con l'altro da 40gb)
primary slave: hd 160gb hitachi
secondary master: hd 40gb maxtor (in raid 0 con l'altro da 40gb)
secondary slave: hd 200gb maxtor
winxp con sp2

diba
07-01-2008, 13:18
iscritto :D
scusate per l'ot ragazzi consigliatemi un monitor 16/10 per il mio sli.....in questo momento sono con un hanns g 1440*900......

iaio
07-01-2008, 14:12
iscritto :D
scusate per l'ot ragazzi consigliatemi un monitor 16/10 per il mio sli.....in questo momento sono con un hanns g 1440*900......

ho un samsung syncmaster 206BW 20" pagato 240€ all'ipercoop, contrasto 3000:1 tempo di risposta 2ms...

altrimenti da media***** c'è in offerta il 223BW 21,6" contrasto 1000:1 tempo di risposta 5ms allo stesso prezzo.

blade9722
07-01-2008, 15:04
scusa ma non posso instalalre le directx 10...uso win xp e non ho una scheda video directx 10...

Guarda che se navighi un po' nel sito troverai il link al DXwebsetup, che installa tutte i possibili aggiornamenti di Directx, compreso le 9.

diba
08-01-2008, 09:13
blade cerco una conferma.....abbiamo lo stesso alimentatore thermaltake power express....dove io ci ho collegato le due 8800gt, ora il punto è questo durante il normale uso del pc è accesa solo una delle due spie 12v e per precisione 12v2.....mentre in full (quando gioco) si accendono tutte e due.....è normale? io penso di si......grazie in anticipo....:)

blade9722
08-01-2008, 19:57
blade cerco una conferma.....abbiamo lo stesso alimentatore thermaltake power express....dove io ci ho collegato le due 8800gt, ora il punto è questo durante il normale uso del pc è accesa solo una delle due spie 12v e per precisione 12v2.....mentre in full (quando gioco) si accendono tutte e due.....è normale? io penso di si......grazie in anticipo....:)


No, da me si accendono entrambe al boot, non contemporaneamente ma con un leggero ritardo fra una e l'altra. Ma io ho due 8800GTS 640MB (G80). Potrebbe essere una ottimizzazione del G92 che fa accendere la seconda solo quando serve. Anche perchè da me la seconda scheda in idle, non utilizzata, consuma 90W:rolleyes:

diba
09-01-2008, 13:34
No, da me si accendono entrambe al boot, non contemporaneamente ma con un leggero ritardo fra una e l'altra. Ma io ho due 8800GTS 640MB (G80). Potrebbe essere una ottimizzazione del G92 che fa accendere la seconda solo quando serve. Anche perchè da me la seconda scheda in idle, non utilizzata, consuma 90W:rolleyes:

ok...

dyddyd
09-01-2008, 14:07
salve a tutti
da poco ho fatto uno sli così composto:

mobo: asus striker extreme
cpu: intel e6850
ram: 2x 1gb corsair xms2 5-5-5-12
vga: 2x 8800gtx asus
ali: cooler master Real Power M850 modulare
hd: 2x 500gb WD
sistema operativo: winxp pro

ora il mio problema e che mentre gioco ad un certo punto mi ritorna al desktop!
il gioco sembra girare bene il frame è alto ma dopo pochi minuti il ritorno al desktop è inevitabile :(
a volte mi da problemi anche il 3dm06, ho pensato fossero le memorie ma messe su un altro computer funzionano benissimo, allora ho pensato fossero le schede video ma prese singolarmente funzionano benissimo cosa devo fare?

mi chiedevo se esistono dei driver che che funzionano bene per la modalità sli?
voi avete delle versioni da consigliarmi che sapete che vanno bene?
aiutatemi vi prego ho speso una barca di soldi e adesso non riesco a giocare a nulla!!! :cry:

diba
10-01-2008, 09:40
salve a tutti
da poco ho fatto uno sli così composto:

mobo: asus striker extreme
cpu: intel e6850
ram: 2x 1gb corsair xms2 5-5-5-12
vga: 2x 8800gtx asus
ali: cooler master Real Power M850 modulare
hd: 2x 500gb WD
sistema operativo: winxp pro

ora il mio problema e che mentre gioco ad un certo punto mi ritorna al desktop!
il gioco sembra girare bene il frame è alto ma dopo pochi minuti il ritorno al desktop è inevitabile :(
a volte mi da problemi anche il 3dm06, ho pensato fossero le memorie ma messe su un altro computer funzionano benissimo, allora ho pensato fossero le schede video ma prese singolarmente funzionano benissimo cosa devo fare?

mi chiedevo se esistono dei driver che che funzionano bene per la modalità sli?
voi avete delle versioni da consigliarmi che sapete che vanno bene?
aiutatemi vi prego ho speso una barca di soldi e adesso non riesco a giocare a nulla!!! :cry:

il sistema è overcloccato.....?

halo
12-01-2008, 16:08
ragazzi mi dite come settare crysis in sli usando nhancer?
è l'unico gioco che mi da problemi di fps!
non arrivo nemmeno a 20fps con il mio sistema:(

blade9722
12-01-2008, 18:34
ragazzi mi dite come settare crysis in sli usando nhancer?
è l'unico gioco che mi da problemi di fps!
non arrivo nemmeno a 20fps con il mio sistema:(

Non dovresti toccare nulla, il profilo è a posto.

E se vai in 1600x1200 AA4x in DX10 Very High 20FPS è un risultato da leccarsi i baffi anche con il tuo sistema.....

blade9722
15-01-2008, 22:59
allora...

vi ricordate il mio problema?

praticamente sui giochi se attivavo lo sli le prestazioni mi diminuivano anzichè aumentare...

blade mi aveva consigliato di installare lost planet e testare...ho scaricato la demo, ma non mi partiva.

dopo ho dovuto lasciar perdere perchè son tornato a casa per le feste lasciando l'arcano irrisolto...

durante le feste sono venuto in possesso di un opteron 165, appena sono tornato qui a perugia l'ho montato e come per magia lo sli ora funziona perfettamente!

cosa poteva essere?

vi elenco il mio sistema:

ALi: OCZ gameXstream 700W
mobo: DFI lanparty Ut nf4 SLI-DR con BIOS:
phoenix technologies, LTD
6.00 PG
06/23/2005
cpu: opteron 165 @2650 dissy mine cooler infinity
ram: 2*1024 ddr400 in dual (senza marca con chip ZCCC)
video: 2*7800gtx 256MB ASUS(driver 169.13) in SLI raffreddate da 2 ZALMAN VF-900 versione fatality
primary master: hd 40gb maxtor (in raid 0 con l'altro da 40gb)
primary slave: hd 160gb hitachi
secondary master: hd 40gb maxtor (in raid 0 con l'altro da 40gb)
secondary slave: hd 200gb maxtor
winxp con sp2

Rieccomi...

sono contento che tu abbia risolto, ma sinceramente non mi spiego il collegamento fra l'opteron e la funzionalità SLI.

blade9722
15-01-2008, 23:05
salve a tutti
da poco ho fatto uno sli così composto:

mobo: asus striker extreme
cpu: intel e6850
ram: 2x 1gb corsair xms2 5-5-5-12
vga: 2x 8800gtx asus
ali: cooler master Real Power M850 modulare
hd: 2x 500gb WD
sistema operativo: winxp pro

ora il mio problema e che mentre gioco ad un certo punto mi ritorna al desktop!
il gioco sembra girare bene il frame è alto ma dopo pochi minuti il ritorno al desktop è inevitabile :(
a volte mi da problemi anche il 3dm06, ho pensato fossero le memorie ma messe su un altro computer funzionano benissimo, allora ho pensato fossero le schede video ma prese singolarmente funzionano benissimo cosa devo fare?

mi chiedevo se esistono dei driver che che funzionano bene per la modalità sli?
voi avete delle versioni da consigliarmi che sapete che vanno bene?
aiutatemi vi prego ho speso una barca di soldi e adesso non riesco a giocare a nulla!!! :cry:


Mah, crash al desktop possono essere causati da qualsiasi cosa, non necessariamente l'SLI.

La prima prova, macchinosa per la verità, è verificare che entrambe le schede singolarmente siano a posto. Devi disattivare l'SLI ed effettuare un po' di test, dopodichè dovresti avviarti in modalità singola con l'altra scheda e provare anche quella.
In pratica devi collegare il cavo del monitor all'altra scheda, con la mia MB però non c'è segnale video all'avvio.
Alcuni consigliano la seguente procedura:
avviare windows
disattivare l'SLI
collegare il monitor alla seconda scheda
uscire da windows.

A me non convince troppo, secondo me dipende dal BIOS il fatto di poter partire con il monitor collegato all'altra scheda. Nell'evantualità che tu non riesca a visualizzare il segnale video, ti tocca scambiare di posto le schede.

Pugno
15-01-2008, 23:37
Ciao,
volevo una tua opinione riguardo queste comparative:

http://www.techspot.com/article/83-crysis-patch-performance-multigpu/

in cui sembrerebbe che anche con gli ultimi driver rilasciati da NVIDIA, sebbene il reference indichi un netto miglioramento nel supporto SLI, le prestazioni siano nettamente inferiori ad una single GPU a meno di non giocare in ULTRA HIGH.

blade9722
16-01-2008, 10:17
Ciao,
volevo una tua opinione riguardo queste comparative:

http://www.techspot.com/article/83-crysis-patch-performance-multigpu/

in cui sembrerebbe che anche con gli ultimi driver rilasciati da NVIDIA, sebbene il reference indichi un netto miglioramento nel supporto SLI, le prestazioni siano nettamente inferiori ad una single GPU a meno di non giocare in ULTRA HIGH.

Ciao,

credo che il link che tu mi hai indicato non sia quello giusto in quanto:

1) Non é vero che le prestazioni siano nettamente inferiori in SLI, sono leggermente inferiori nel solo caso di DX9 medium Quality
2) I test sono stati effettuati in qualitá medium e high, in DX9 e DX10, ma non é stato effettuato nessun test in Very High

Ho anche qualche perplessità sui risultati: in DX9 High 1600x1200 io ottengo 37FPS (contro i 30 del sito), pur avendo una CPU nettamente inferiore, una coppia di GPU inferiori (ma in OC comparabili...) alle due 8800GT, ed avendo eseguito il test ad una risoluzione superiore. E ti assicuro che quei 37FPS sono 100% CPU-limited: in 800x600 ottengo lo stesso risultato.

Comunque, se spulci fra i post del thread tecnico di Crysis, questo argomento é stato affrontato a piú riprese:

- Crysis non sfrutta in maniera efficiente piú di un Core (io l'ho dimostrato modificando l'header dell'eseguibile in modo che fosse single thread, e verificando come i benchmark non cambiassero significativamente)
- Il titolo della Crytek risulta pesantemente CPU limited, probabilmente é uno dei giochi piú dipendenti dalla CPU in commercio. Come conseguenza, aggiungere una seconda 8800GT in SLI risulta poco efficiente a meno che non si imposti la qualitá Very High.


Quindi, piccola regola della lavandaia:

Qualitá High, specialmente in DX9 e su WinXP: una sola 8800GT é sufficiente
Qualitá Very High su Vista in DX10: una seconda 8800GT aiuta parecchio.

Questo, ovviamente, a meno di non pretendere risoluzioni e AA pazzeschi.

P.S. Giusto ieri sera ho cominciato a giocarci, ed ho notato un altro aspetto curioso, su cui devo indagare ulteriormente. Nel caso lo spiegheró nel thread tecnico e ti avvertiró.

VitOne
17-01-2008, 00:13
Ciao, grazie per la guida. Ho letto con interesse. Ti vorrei chiedere:

1) Ho notato che anche cambiando e provando vari flag con nHancer alcune applicazioni rilasciate da poco non riescono ad avere un boost prestazionale dallo SLi (a volte si peggiora, in tutte e tre le modalità). Correggimi se sbaglio: è possibile affermare in linea di massima che se è vero che lo SLi è indipendete dall'applicazione rimane dipendente dai driver, perché per alcune applicazioni possono non esistere flag adatti?

2) In effetti in anni di esperienza ho notato che molte applicazioni ottengono benefici prestazionali dallo SLi in modo molto più marcato dopo il rilascio di una apposita patch. Caso clamoroso e agli occhi di tutti è quello di Crysis, dopo l'uscita della demo ho fatto un'analisi scheda singola vs SLi con due 8800Ultra, il problema principale (che poi si è ripresentato nel gioco completo) era quello che lo SLi non funzionava in modo corretto in tutte le mappe ma aveva molti problemi. In particolare stando fermi in un punto gli FPS salivano ma muovendosi spesso gli FSP ottenuti erano pari a quelli della scheda singola. Con l'uscita della patch la situazione è cambiata, finalmente gli FPS sono stabilmente sempre fissi in alto. Allora come è possibile dire che lo SLi è completamente indipentende dall'applicazione? Secondo me una dipendenza esiste, è vero che sono stati necessari nuovi drivers, 169.28, però è anche vero che i nuovi drivers senza il gioco patchato vanno come e forse peggio dei precedenti.

3) Una mia personale domanda: sto provando da tempo a far funzionare lo SLi con Unreal Tournament 3. Ho provato diversi flag, ho gli ultimi driver, ma non riesco ad ottenere neanche un FPS in più rispetto alla scheda singola. Quali flag mi consigli di abilitare? Hai per caso avuto modo di provare il gioco in questione? EDIT: per chiarezza aggiungo che UT3 è una delle applicazioni che non hanno profilo creato per lo SLi (di default viene consigliata la singola GPU).

Grazie in anticipo ;).

blade9722
17-01-2008, 12:35
Ciao, grazie per la guida. Ho letto con interesse. Ti vorrei chiedere:

1) Ho notato che anche cambiando e provando vari flag con nHancer alcune applicazioni rilasciate da poco non riescono ad avere un boost prestazionale dallo SLi (a volte si peggiora, in tutte e tre le modalità). Correggimi se sbaglio: è possibile affermare in linea di massima che se è vero che lo SLi è indipendete dall'applicazione rimane dipendente dai driver, perché per alcune applicazioni possono non esistere flag adatti?

2) In effetti in anni di esperienza ho notato che molte applicazioni ottengono benefici prestazionali dallo SLi in modo molto più marcato dopo il rilascio di una apposita patch. Caso clamoroso e agli occhi di tutti è quello di Crysis, dopo l'uscita della demo ho fatto un'analisi scheda singola vs SLi con due 8800Ultra, il problema principale (che poi si è ripresentato nel gioco completo) era quello che lo SLi non funzionava in modo corretto in tutte le mappe ma aveva molti problemi. In particolare stando fermi in un punto gli FPS salivano ma muovendosi spesso gli FSP ottenuti erano pari a quelli della scheda singola. Con l'uscita della patch la situazione è cambiata, finalmente gli FPS sono stabilmente sempre fissi in alto. Allora come è possibile dire che lo SLi è completamente indipentende dall'applicazione? Secondo me una dipendenza esiste, è vero che sono stati necessari nuovi drivers, 169.28, però è anche vero che i nuovi drivers senza il gioco patchato vanno come e forse peggio dei precedenti.

3) Una mia personale domanda: sto provando da tempo a far funzionare lo SLi con Unreal Tournament 3. Ho provato diversi flag, ho gli ultimi driver, ma non riesco ad ottenere neanche un FPS in più rispetto alla scheda singola. Quali flag mi consigli di abilitare? Hai per caso avuto modo di provare il gioco in questione? EDIT: per chiarezza aggiungo che UT3 è una delle applicazioni che non hanno profilo creato per lo SLi (di default viene consigliata la singola GPU).

Grazie in anticipo ;).

1) La maggior parte dei profili nvidia non utilizza i settaggi di default (SFR, AFR, AFR2), ma li personalizza pesantemente. Cercare la combinazione di flag corretti é un'operazione laboriosa, io l'ho fatto solo per il benchmark Unigine. E' corretto quando dici che il supporto SLI rimane dipendente (a volte anche in maniera drammatica) dai Driver. Sulla seconda affermazione, cioé che per alcune applicazioni recenti con una certa release di driver possa non esistere un combinazione di flag ottimizzata, non saprei, ma non lo escludo. Tieni presente che alcuni titoli (es: Flight simulator X)traggono poco giovamento dalle performance del sottosistema grafico, e quindi dall'SLI.

2) Crysis é stato un parto... doloroso. Anch'io ho notato una stabilizzazione del frame rate con la patch, ma mi é sembrato dovuto ad una razionalizzazione del codice da parte della CPU e del precaricamento delle celle piú che ad un supporto esplicito dell'SLI. In alcuni titoli (Lost Planet, COD 4, Crysis) in effetti puoi attivare alcuni ottimizzazioni dedicate al multi-GPU, ma io non ho mai verificato nessun incremento di prestazioni, Lo stesso modificando manualmente la variabile che setta il supporto multi GPU su Crysis da console. Comunque sto ancora investigando su questo titolo. La mia sensazione é che dopo il rilascio di alcune patch alcuni titoli sfruttino meglio la GPU in generale, non solo in SLI.I 169.28 a me non girano meglio dei 169.25. Se leggi nelle release notes sembra che abbiano ottimizzazioni per i sitemi SLI a tre vie.

3) Strano, con i driver che sto utilizzando (169.21 o 25) c'é il profilo per UT3. Prima che uscisse ce ne era uno generico per "il motore di UT3" in cui bisognava manualmente cambiare l'eseguibile. Su Bioshock, che utilizza lo stesso engine, c'é un consistente incremento di performance in SLI, al punto che in DX10 1600x1200 io avevo frame rate ridicolmente elevati (70-100 FPS, mai sotto i 50). Di UT3 ho provato la demo, ed andava a 60FPS fissi indipendentemente dalla risoluzione e dalla attivazione o meno dell'SLI. La mia impressione era che fosse attivo un controllo del frame rate (tutti i titoli della serie Unreal Tournament lo prevedono nelle opzioni avanzate o da console), che cambia dinamicamente il dettaglio, ma non sapevo come disattivarlo. Mi spiace, di piú non posso dirti:boh:

VitOne
18-01-2008, 10:36
1) La maggior parte dei profili nvidia non utilizza i settaggi di default (SFR, AFR, AFR2), ma li personalizza pesantemente. Cercare la combinazione di flag corretti é un'operazione laboriosa, io l'ho fatto solo per il benchmark Unigine. E' corretto quando dici che il supporto SLI rimane dipendente (a volte anche in maniera drammatica) dai Driver. Sulla seconda affermazione, cioé che per alcune applicazioni recenti con una certa release di driver possa non esistere un combinazione di flag ottimizzata, non saprei, ma non lo escludo. Tieni presente che alcuni titoli (es: Flight simulator X)traggono poco giovamento dalle performance del sottosistema grafico, e quindi dall'SLI.

2) Crysis é stato un parto... doloroso. Anch'io ho notato una stabilizzazione del frame rate con la patch, ma mi é sembrato dovuto ad una razionalizzazione del codice da parte della CPU e del precaricamento delle celle piú che ad un supporto esplicito dell'SLI. In alcuni titoli (Lost Planet, COD 4, Crysis) in effetti puoi attivare alcuni ottimizzazioni dedicate al multi-GPU, ma io non ho mai verificato nessun incremento di prestazioni, Lo stesso modificando manualmente la variabile che setta il supporto multi GPU su Crysis da console. Comunque sto ancora investigando su questo titolo. La mia sensazione é che dopo il rilascio di alcune patch alcuni titoli sfruttino meglio la GPU in generale, non solo in SLI.I 169.28 a me non girano meglio dei 169.25. Se leggi nelle release notes sembra che abbiano ottimizzazioni per i sitemi SLI a tre vie.

3) Strano, con i driver che sto utilizzando (169.21 o 25) c'é il profilo per UT3. Prima che uscisse ce ne era uno generico per "il motore di UT3" in cui bisognava manualmente cambiare l'eseguibile. Su Bioshock, che utilizza lo stesso engine, c'é un consistente incremento di performance in SLI, al punto che in DX10 1600x1200 io avevo frame rate ridicolmente elevati (70-100 FPS, mai sotto i 50). Di UT3 ho provato la demo, ed andava a 60FPS fissi indipendentemente dalla risoluzione e dalla attivazione o meno dell'SLI. La mia impressione era che fosse attivo un controllo del frame rate (tutti i titoli della serie Unreal Tournament lo prevedono nelle opzioni avanzate o da console), che cambia dinamicamente il dettaglio, ma non sapevo come disattivarlo. Mi spiace, di piú non posso dirti:boh:

Grazie per la risposta ;). Puntuale come sempre. Per quello che rigurada UT3 in effetti viene abiltato di default il blocco degli FPS a 62. Per sbloccare gli FPS bisogna cercare il file UTEnigne.ini, solitamente si trova nella cartella:

X:\Documents and Settings\nome_utente\My Documents\My Games\Unreal Tournament 3\UTGame\Config

oppure

X:\Users\nome_utente\Documents\My Games\Unreal Tournament 3\UTGame\Config


Bisogna trovare il seguente pezzo di codice ed editare il 62 trasformandolo, per esempio, in un 200.

[Engine.GameEngine]
bSmoothFrameRate=TRUE
MinSmoothedFrameRate=22
MaxSmoothedFrameRate=62

Purtroppo neanche installando gli ultimi drivers ed usando vari flags, come ho detto, sono riuscito ad avere un'aumento di FPS: ad esempio, nella mappa ShangriLa (la stessa della demo), c'è un punto dove gli FPS scendono sempre, e purtroppo abilitando o disabilitando lo SLi la situazione cambia pochissimo:

http://www.pctunerup.com/up/results/_200801/th_20080112113826_UT32008-01-1211-32-52-27.jpg (http://www.pctunerup.com/up/image.php?src=_200801/20080112113826_UT32008-01-1211-32-52-27.jpg)

Praticamente 46/47FPS @ 1920x1200, senza giocatori (il che significa che in game si può andare sotto i 35fps in questa mappa). Purtroppo ci sono anche altre mappe pesanti, e giocando a questa risoluzione con molti player online non è difficile notare scatti, e la cosa che più infastidisce è che le prestazioni tra SLi e singola scheda sono identiche...

Scusami se insisto, ma sei sicuro che nei driver sia effettivamente presente un profilo per lo SLi ed UT3? Se uso il Pannello nVidia l'impostazione cosigliata è GPU Singola. I driver sono i 169.28, prima di installarli ho disinstallato quelli vecchi e fatto girare, in modalità provvisoria, driversweeper, per cui in teoria è come aver installato tutto su un sistema vergine. Hai qualche suggerimento da darmi?

blade9722
18-01-2008, 20:03
Grazie per la risposta ;). Puntuale come sempre. Per quello che rigurada UT3 in effetti viene abiltato di default il blocco degli FPS a 62. Per sbloccare gli FPS bisogna cercare il file UTEnigne.ini, solitamente si trova nella cartella:

X:\Documents and Settings\nome_utente\My Documents\My Games\Unreal Tournament 3\UTGame\Config

oppure

X:\Users\nome_utente\Documents\My Games\Unreal Tournament 3\UTGame\Config


Bisogna trovare il seguente pezzo di codice ed editare il 62 trasformandolo, per esempio, in un 200.

[Engine.GameEngine]
bSmoothFrameRate=TRUE
MinSmoothedFrameRate=22
MaxSmoothedFrameRate=62

Purtroppo neanche installando gli ultimi drivers ed usando vari flags, come ho detto, sono riuscito ad avere un'aumento di FPS: ad esempio, nella mappa ShangriLa (la stessa della demo), c'è un punto dove gli FPS scendono sempre, e purtroppo abilitando o disabilitando lo SLi la situazione cambia pochissimo:

http://www.pctunerup.com/up/results/_200801/th_20080112113826_UT32008-01-1211-32-52-27.jpg (http://www.pctunerup.com/up/image.php?src=_200801/20080112113826_UT32008-01-1211-32-52-27.jpg)

Praticamente 46/47FPS @ 1920x1200, senza giocatori (il che significa che in game si può andare sotto i 35fps in questa mappa). Purtroppo ci sono anche altre mappe pesanti, e giocando a questa risoluzione con molti player online non è difficile notare scatti, e la cosa che più infastidisce è che le prestazioni tra SLi e singola scheda sono identiche...

Scusami se insisto, ma sei sicuro che nei driver sia effettivamente presente un profilo per lo SLi ed UT3? Se uso il Pannello nVidia l'impostazione cosigliata è GPU Singola. I driver sono i 169.28, prima di installarli ho disinstallato quelli vecchi e fatto girare, in modalità provvisoria, driversweeper, per cui in teoria è come aver installato tutto su un sistema vergine. Hai qualche suggerimento da darmi?


Ciao, risposta provvisoria, poi tornerò più in dettaglio.

Da me nel pannello su XP 169.21 c'è "consigliato da Nvidia" (cioè personalizzato).

Due dubbi veloci:

quando disinstalli i driver, provvedi a cancellare i vari Nvapps.xml prima di installare quelli nuovi? Tempo fa ho scoperto che non vengono rimossi per manteneri eventuali configurazioni dell'utente, e durante l'installazione viene fatto un merging con quelli nuovi, che spesso da luogo ad un pastrocchio.

Lo stesso per nHancer, ti conviene disinstallarlo,disinstallare i driver e reinstallarlo quando li hai cambiati.

EDIT, ascolta, ho capito perchè ti compare modalità singola, anche a me succede con Vista e 169.25: in DX9 il profilo SLI finisce con il 6. Si tratta di una nuova modalità di AFR, introdotta recentemente e che Martin (nHancer) ha chiamato inzialmente "new AFR" e poi "AFR3". Il Pannello di controllo Nvidia non la riconosce, per questo ti da GPU singola. In realtà GPU singola deve finire con 4.

garbage
18-01-2008, 23:27
iscritto :)

blade9722
24-01-2008, 21:14
Ho inserito in prima pagine aclune valutazioni sul limite della CPU con Crysis

C'è anche la risposta finale all'interrogativo di VitOne su UT3

VitOne
26-01-2008, 16:07
Ti ringrazio per la risposta. Ho fatto alcune ulteriori analisi con e senza SLi attivo, considerando la nuova modalità SLi implementata come da te segnalato (AFR3).
Prima di tutto mi sono accertato di avere il sistema pulito, installando i driver nuovamente, dopo aver cancellato tramite DriverSweeper ed in modalità provvisoria ogni traccia dei drivers precedenti. Ho cercato i vari Nvapps.xml, che vengono cancellati automaticamente con DriverSweeper.
Ho installato i driver 169.28, ho aggiornato il gioco con le utlime patch.
Per cercare di avere una misurazione oggettiva e non dipendente dalla mappa/modalità ho scaricato un interessante programma, si chiama UT3 Benchmark, che consente di far girare le mappe in modalità Fly o Ingame, mentre gli FPS vengono registrati. Purtroppo la modalità Ingame (con i bot che giocano) non è utile a fare confronti, in quanto ogni volta i bot fanno un percorso o delle mosse diverse.
Ho quindi scelto la mappa ShangriLa come prima da testare, in modalità Fly. Ho cambiato tra l'impostazione scheda singola e SLi nei driver, senza usare nHancer. In modalità GPU singola ho ottenuto 88.97 FPS, in modalità AFR2 93.76. Il test Fly ha quindi dato un riscontro negativo sullo SLi: prestazioni allineate alla scheda singola. Impostando la scheda singola ho anche abilitato gli indicatori per verificare che lo SLi fosse effettivamente disabilitato, e così era (indicatori che hanno invece funzionato in modalità SLi AFR2).
Ho provveduto a testare altre mappe, oltre a testare in gioco. La mia conclusione è che lo SLi non mi ha dato nessun tipo di incremento tangibile con Unreal Tournament 3.

Alcune importanti considerazioni:

1) Il sistema operativo è Vista 64 Ultimate.

2) La risoluzione usata è 1920x1200. Le impostazioni sono tutte lasciate su quelle default nei driver e settata alla massima qualità nel gioco (livello 5/5 per i vari parametri disponibili).

3) Il discorso CPU limited: l'uso della CPU è inferiore al 60% ingame. La CPU è un Q6600 @ 4Ghz (stabile), frequenza monitorata con CPU-Z, uso della CPU monitorato in tempo reale con il monitor LCD della tastiera G15, e successivamente verificato tramite grafico di Gestione Attività. Nessuno dei core ha mai superato l'80% di carico, e i quattro core come ho scritto sono sempre stati usati sotto il 60%. Cambiando frequenza operativa e passando a 3,6Ghz e poi a 3Ghz la situazione FPS medi (ma anche massimi e minimi) non è cambiata minimamente: per questo motivo e per queste operazioni sono lontanissimo dal credere che si possa parlare di CPU Limited con questo gioco e la mia configurazione, credo piuttosto che lo SLi, come è stato per Crysis, sia da ottimizzare. In Crysis infatti l'aumento c'era anche prima della patch, ma era molto meno lineare: si aveva aumento stando fermi in un punto, senza muovere la visuale. Se ci si muoveva o guardava intorno gli FPS scendevano al livello della scheda singola.

Per me quindi quello che è stato scritto da te in prima pagina non è valido: UT3 non è CPU-Limited, semplicemente la modalità SLi implementata non è ancora efficace per il gioco. La situazione, dopo ore di test e gioco, è che lo SLi ingame da guadagni minimi, tangibili solo in poche scene (più che altro quando si sta fermi, ed in un gioco che è 99% movimento non è il massimo). Ovviamente le mie considerazioni valgono per i test effettuati sul mio sistema, forse sono viziate dal sistema operativo usato (che ancora non dà grandi rislutati con lo SLi), tuttavia in altri giochi riesco ad avere prestazioni molto migliori.

blade9722
26-01-2008, 19:36
Ti ringrazio per la risposta. Ho fatto alcune ulteriori analisi con e senza SLi attivo, considerando la nuova modalità SLi implementata come da te segnalato (AFR3).
Prima di tutto mi sono accertato di avere il sistema pulito, installando i driver nuovamente, dopo aver cancellato tramite DriverSweeper ed in modalità provvisoria ogni traccia dei drivers precedenti. Ho cercato i vari Nvapps.xml, che vengono cancellati automaticamente con DriverSweeper.
Ho installato i driver 169.28, ho aggiornato il gioco con le utlime patch.
Per cercare di avere una misurazione oggettiva e non dipendente dalla mappa/modalità ho scaricato un interessante programma, si chiama UT3 Benchmark, che consente di far girare le mappe in modalità Fly o Ingame, mentre gli FPS vengono registrati. Purtroppo la modalità Ingame (con i bot che giocano) non è utile a fare confronti, in quanto ogni volta i bot fanno un percorso o delle mosse diverse.
Ho quindi scelto la mappa ShangriLa come prima da testare, in modalità Fly. Ho cambiato tra l'impostazione scheda singola e SLi nei driver, senza usare nHancer. In modalità GPU singola ho ottenuto 88.97 FPS, in modalità AFR2 93.76. Il test Fly ha quindi dato un riscontro negativo sullo SLi: prestazioni allineate alla scheda singola. Impostando la scheda singola ho anche abilitato gli indicatori per verificare che lo SLi fosse effettivamente disabilitato, e così era (indicatori che hanno invece funzionato in modalità SLi AFR2).
Ho provveduto a testare altre mappe, oltre a testare in gioco. La mia conclusione è che lo SLi non mi ha dato nessun tipo di incremento tangibile con Unreal Tournament 3.

Alcune importanti considerazioni:

1) Il sistema operativo è Vista 64 Ultimate.

2) La risoluzione usata è 1920x1200. Le impostazioni sono tutte lasciate su quelle default nei driver e settata alla massima qualità nel gioco (livello 5/5 per i vari parametri disponibili).

3) Il discorso CPU limited: l'uso della CPU è inferiore al 60% ingame. La CPU è un Q6600 @ 4Ghz (stabile), frequenza monitorata con CPU-Z, uso della CPU monitorato in tempo reale con il monitor LCD della tastiera G15, e successivamente verificato tramite grafico di Gestione Attività. Nessuno dei core ha mai superato l'80% di carico, e i quattro core come ho scritto sono sempre stati usati sotto il 60%. Cambiando frequenza operativa e passando a 3,6Ghz e poi a 3Ghz la situazione FPS medi (ma anche massimi e minimi) non è cambiata minimamente: per questo motivo e per queste operazioni sono lontanissimo dal credere che si possa parlare di CPU Limited con questo gioco e la mia configurazione, credo piuttosto che lo SLi, come è stato per Crysis, sia da ottimizzare. In Crysis infatti l'aumento c'era anche prima della patch, ma era molto meno lineare: si aveva aumento stando fermi in un punto, senza muovere la visuale. Se ci si muoveva o guardava intorno gli FPS scendevano al livello della scheda singola.

Per me quindi quello che è stato scritto da te in prima pagina non è valido: UT3 non è CPU-Limited, semplicemente la modalità SLi implementata non è ancora efficace per il gioco. La situazione, dopo ore di test e gioco, è che lo SLi ingame da guadagni minimi, tangibili solo in poche scene (più che altro quando si sta fermi, ed in un gioco che è 99% movimento non è il massimo). Ovviamente le mie considerazioni valgono per i test effettuati sul mio sistema, forse sono viziate dal sistema operativo usato (che ancora non dà grandi rislutati con lo SLi), tuttavia in altri giochi riesco ad avere prestazioni molto migliori.

In effetti c'è qualcosa che non torna in questo gioco, a cominciare dal benchmark tool.
Ho eseguito tre run in rapida successione con le stesse impostazioni (1600x1200 SLI) ed ho ottenuto: 70.51, 67.82, 85.62. Cambiando risoluzione e attivando/disattivando l'SLI non cambia l'andazzo, ottengo sempre risultati altalenanti con questo tool. Per contro, dall'analisi puntuale di alcune scene con FRAPS noto incrementi anche dell'80%, ma non sempre, ed ho comunque notato alcune stranezze. Qui il discorso va oltre "attivando la seconda scheda non vedo benefici": anche con la scheda singola in 1600x1200 ho ottenuto 85 FPS (atalenanti), e mi chiedo come sia possibile che con il mio sistema possa ottenere un risultato simile al tuo.

Non so quando potrò risponderti con maggiore chiarezza. La mia impressione è che, come ti avevo anticipato, il gioco abbia celato un algoritmo di adattamento del dettaglio per mantenere un certo frame rate (il primo Unreal tournament lo aveva).

Tenendo conto che il tuo frame rate è comunque elevatissimo, e che il mio tempo a disposizione non è tantissimo, per ora mi vedo costretto ad interrompere il supporto su questo specifico argomento, mi spiace.

Al limite, su Crysis, se hai voglia di lanciare un custom benchmark che ho modificato proprio per valutare le performance della GPU svincolandosi dalla CPU, possiamo vedere se c'è qualcosa di strano nella tua configurazione.

carpo93
27-01-2008, 09:31
domanda da niubbone:confused:
posso fare lo sli con una gts 320 e una gts 512?:help:

blade9722
27-01-2008, 16:18
domanda da niubbone:confused:
posso fare lo sli con una gts 320 e una gts 512?:help:

No, a dispetto del nome sono due GPU diverse (G80 la 320, G92 la 512).

Zio_Igna
27-01-2008, 17:33
Ciao a tutti!

Mi sto da poco avvicinando all'idea di farmi uno SLI: gironzolando fra i vari thread, ho notato che molte schede hanno sì i due slot pci-ex per lo sli appunto, ma con due schede video la velocità di trasferimento è a 8X e non 16X.

La differenza è tangibile? Avete qualche dato sottomano a questo proposito?

Grazie!

blade9722
27-01-2008, 17:39
Ciao a tutti!

Mi sto da poco avvicinando all'idea di farmi uno SLI: gironzolando fra i vari thread, ho notato che molte schede hanno sì i due slot pci-ex per lo sli appunto, ma con due schede video la velocità di trasferimento è a 8X e non 16X.

La differenza è tangibile? Avete qualche dato sottomano a questo proposito?

Grazie!

C'è questo vecchio articolo di Tom's hardware
http://www.tomshardware.com/2007/03/27/pci_express_scaling_analysis/

E' un po' datatto, ma non ho trovato null'altro.

Zio_Igna
28-01-2008, 19:13
C'è questo vecchio articolo di Tom's hardware
http://www.tomshardware.com/2007/03/27/pci_express_scaling_analysis/

E' un po' datatto, ma non ho trovato null'altro.

Grazie mille! Risposta iper veloce! Adesso me lo leggo con calma:D

Zio_Igna
28-01-2008, 19:24
Grazie mille! Risposta iper veloce! Adesso me lo leggo con calma:D

Finito: wow! Interessante :eek:
Una 8800 gts a 8X perde anche 10 fps, rispetto al 16X. Conviene la scheda con due full 16X di sicuro.

Ora c'ho le idee un po più chiare: ciao e grazie ancora!

Bic67
28-01-2008, 19:51
Ciao Blade9722, scusa se rompo ma non ho ben chiaro cosa significhi CPU limited. Se non sbaglio ti riferisci ad alcuni giochi. Puoi essere un pò + dettagliato? E ancora sempre se non sbaglio... secondo te un sistema come il mio con una CPU come il Q6850 quanto margine di guadagno sia a livello ludico che a livello di editing video e grafico (ma soprattutto ludico) ottengo rispetto al pur ottimo E6850? Ho una possibile occasione a portata di mano con un Q6850 ma volevo essere sicuro di aver dei tangibili risultati. Con la configurazione che vedi in firma ottengo dai 12700 ai 12800 punti col 3dMark 06. In settimana cambio le ram se tutto vabene monto delle crossair PC8500 da 1066 Mhz sempre 4 gb e sicuramente ci sarà un guadagno anche li (non molto a dire il vero ma qualcosa ci sarà). Anche se non vale un granchè con il sistema di valutazione di windows VISTA sono a 5,7. Quello che determina questo punteggio è il processore che ottiene il 5,7, tutto il resto è a 5,9. N.B. non cambio (se cambio) il processore perchè VISTA mi dà un 5,7 :D :D ma semplicemente perchè visto il tipo di CPU è un affare per il prezzo che mi è stato esibito, tenuto conto di quello che costa e della difficoltà a trovarlo

Ciao e grazie

P.S. dimenticavo una cosa non ti ho mai ringraziato per l'ottimo thread sullo SLI ma anche di tutti i tuoi sempre chiari post di risposta che leggo in giro in tutte le altre discussioni.

VitOne
28-01-2008, 22:13
[...]


Ciao. Provo a risponderti io. Per CPU Limited si intende una situazione nella quale il computer potrebbe rendere di più ma è limitato dal fatto che la CPU non è sufficientemente potente. In questa discussione per CPU Limited intendiamo più che altro situazioni nelle quali le schede grafiche non riescono ad esprimersi al massimo, perché la CPU, troppo poco potente, non riesce a fornire alle schede grafiche i dati da elaborare, motivo per il quale le schede grafiche non lavorano, e si è appunto limitati dalla CPU. Ovviamente questa è una spiegazione a grandi linee, ma spero di averti chiarito le idee. Bisogna fare molta attenzione a quanto di è CPU limited: con molti videogiohi per esempio si può essere CPU Limited ma avere lo stesso delle prestazioni molto buone. Semplicemente avremo un numero di immagini al secondo (FPS) molto elevato, che però potrebbe essere ancora più elevato usando un processore più veloce. Molti videogames vecchi e molti benchmark (per esempio il famoso 3DMark) richiedono una frequenza del processore molto elevata per usare al massimo la scheda video. Ovviamente tutto dipende dalla potenza della CPU e dalla potenza della scheda grafica: in qualche modo si è sempre CPU Limited o VGA Limited: la cosa importante è che questo "limited" non comprometta la giocabilità dei nostri titoli preferiti. Esempio pratico: un gioco che va già a 100FPS con il processore a 3Ghz andrà a 200FPS con il processore a 6Ghz (esempio non realistico, giusto per capire meglio) tuttavia avere 100FPS o 200FPS è la stessa cosa a livello di giocabilità: in entrambi i casi è più che ottima. Diciamo che ha senso parlare di CPU Limited quando l'applicazione che usiamo è penalizzata dalla frequenza della CPU, per esempio se interessano i benchmark, in 3DMark06 per sfruttare lo SLi di schede recenti e potenti è indispensabile avere una CPU veramente molto potente. Se per esempio con una 8800Ultra ed un Q6600 @ 3,2Ghz faccio 12000 punti, con due Ultra e lo stesso processore farò poco di più di 1300 punti. Se però aumento notevolmente la frequenza della CPU inizierò a sfruttare meglio le schede grafiche, arrivando per esempio a 4Ghz potrò fare 18000 punti.

Non bisogna dimenticare che il punteggio del 3DMark nella versione 06 è molto dipendente non solo dalla schede grafiche e dalla frequenza del processore, ma anche dal fatto che il processore sia QuadCore o DualCore. Infatti solitamente più che vedere il punteggio totale ci si sofferma sul punteggio della scheda grafica, che corrisponde alla voce SM 2.0 e alla voce SM 3.0.

In liena di massima i processori QuadCore danno incremento solo nel benchmark 3DMark06, in quelli precedenti avere un Dual o un Quad core cambia nulla, motivo per il quale per testare le schede grafiche si usa ancora moltissimo 3DMark05.

Personalmente ti sconsiglio l'acqusito del processore QX6850 (non esiste il Q6850 che io sappia, per cui credo si tratti di un QX6850), perché è un processore molto costoso, e che non ti darebbe molto beneficio nelle applicazioni di uso più comune. In particolare con i videogiochi le performance di un E6850 e di un QX6850 sono allineate, perché i videogame non sono in grado di sfruttare le CPU QuadCore. Nel rendering video e con alcuni programmi ottimizzati puoi avere grande beneficio da una architettura con quattro core, tuttavia devi vedere quanto andresti a pagare il processore (considera che tra l'altro è uscita una nuova versione, il QX9650, che è diverso e che ha fatto un po' svalutare il modello vecchio). Se sei interessato ad avere quattro core ti consiglio il Q6600 che costa molto meno del QX6850 e non è troppo distante. Il QX6850 è un processore destinato più che altro agli appassionati di hardware e di overlcocking, dato che ha il moltiplicatore sbloccato e consente di aumentare operativa in modo relativamente semplice.

Personalmente ti consiglio di tenere il tuo processore che è già ottimo, se poi ti interessa molto fare rendering ed usare applicazioni multicore mi orienterei per un Q6600. Se proprio vuoi il massimo puoi andare sul QX9650, devi però accertarti che sia compatibile con la tua scheda madre.

Bic67
28-01-2008, 22:45
Ciao. Provo a risponderti io. Per CPU Limited si intende una situazione nella quale il computer potrebbe rendere di più ma è limitato dal fatto che la CPU non è sufficientemente potente. In questa discussione per CPU Limited intendiamo più che altro situazioni nelle quali le schede grafiche non riescono ad esprimersi al massimo, perché la CPU, troppo poco potente, non riesce a fornire alle schede grafiche i dati da elaborare, motivo per il quale le schede grafiche non lavorano, e si è appunto limitati dalla CPU. Ovviamente questa è una spiegazione a grandi linee, ma spero di averti chiarito le idee. Bisogna fare molta attenzione a quanto di è CPU limited: con molti videogiohi per esempio si può essere CPU Limited ma avere lo stesso delle prestazioni molto buone. Semplicemente avremo un numero di immagini al secondo (FPS) molto elevato, che però potrebbe essere ancora più elevato usando un processore più veloce. Molti videogames vecchi e molti benchmark (per esempio il famoso 3DMark) richiedono una frequenza del processore molto elevata per usare al massimo la scheda video. Ovviamente tutto dipende dalla potenza della CPU e dalla potenza della scheda grafica: in qualche modo si è sempre CPU Limited o VGA Limited: la cosa importante è che questo "limited" non comprometta la giocabilità dei nostri titoli preferiti. Esempio pratico: un gioco che va già a 100FPS con il processore a 3Ghz andrà a 200FPS con il processore a 6Ghz (esempio non realistico, giusto per capire meglio) tuttavia avere 100FPS o 200FPS è la stessa cosa a livello di giocabilità: in entrambi i casi è più che ottima. Diciamo che ha senso parlare di CPU Limited quando l'applicazione che usiamo è penalizzata dalla frequenza della CPU, per esempio se interessano i benchmark, in 3DMark06 per sfruttare lo SLi di schede recenti e potenti è indispensabile avere una CPU veramente molto potente. Se per esempio con una 8800Ultra ed un Q6600 @ 3,2Ghz faccio 12000 punti, con due Ultra e lo stesso processore farò poco di più di 1300 punti. Se però aumento notevolmente la frequenza della CPU inizierò a sfruttare meglio le schede grafiche, arrivando per esempio a 4Ghz potrò fare 18000 punti.

Non bisogna dimenticare che il punteggio del 3DMark nella versione 06 è molto dipendente non solo dalla schede grafiche e dalla frequenza del processore, ma anche dal fatto che il processore sia QuadCore o DualCore. Infatti solitamente più che vedere il punteggio totale ci si sofferma sul punteggio della scheda grafica, che corrisponde alla voce SM 2.0 e alla voce SM 3.0.

In liena di massima i processori QuadCore danno incremento solo nel benchmark 3DMark06, in quelli precedenti avere un Dual o un Quad core cambia nulla, motivo per il quale per testare le schede grafiche si usa ancora moltissimo 3DMark05.

Personalmente ti sconsiglio l'acqusito del processore QX6850 (non esiste il Q6850 che io sappia, per cui credo si tratti di un QX6850), perché è un processore molto costoso, e che non ti darebbe molto beneficio nelle applicazioni di uso più comune. In particolare con i videogiochi le performance di un E6850 e di un QX6850 sono allineate, perché i videogame non sono in grado di sfruttare le CPU QuadCore. Nel rendering video e con alcuni programmi ottimizzati puoi avere grande beneficio da una architettura con quattro core, tuttavia devi vedere quanto andresti a pagare il processore (considera che tra l'altro è uscita una nuova versione, il QX9650, che è diverso e che ha fatto un po' svalutare il modello vecchio). Se sei interessato ad avere quattro core ti consiglio il Q6600 che costa molto meno del QX6850 e non è troppo distante. Il QX6850 è un processore destinato più che altro agli appassionati di hardware e di overlcocking, dato che ha il moltiplicatore sbloccato e consente di aumentare operativa in modo relativamente semplice.

Personalmente ti consiglio di tenere il tuo processore che è già ottimo, se poi ti interessa molto fare rendering ed usare applicazioni multicore mi orienterei per un Q6600. Se proprio vuoi il massimo puoi andare sul QX9650, devi però accertarti che sia compatibile con la tua scheda madre.


Innazitutto grazie della tua celere e chiarissima risposta.
2 Precisazioni sono dovute:
1) il processore che come hai ben scritto è il QX6850 e non Q6850 (la fretta), il bello è che mi viene proposto a metà prezzo (meno di 550 euri per la cronaca) da un amico che è appena passato al QX6950 so benissimo che differenza c'è tra i 2 soprattutto nella cache di L2 a 12 mb (6 per blocco) contro gli 8 sempre a L2 del QX6850, oltre all'istruzione SSE4 presente sempre nel QX6950. Credo che oggi un occasione così sia quasi unica, magari fra qualche mese con i nuovi penryn Quad core il QX6850 costerà questi soldi e se non fosse così? Bel dilemma.....
2) come hai detto tu il mio E6850 vabenissimo e guardando in giro per la rete quando si tratta di videogame tra il QX6850 e E6850 non ci sono distacchi notevoli anzi sono quasi appaiati per non dire alla pari, ma in video-audio e foto (dai aggiungiamo pure le foto se sono in altissima risoluzione o HDR anche se incidono per poco o nulla) c'è un bel distacco eccome se c'è un bel distacco. Ecco per questo motivo la tentazione è forte molto forte.

Come detto in un altro thread riesco a giocare con quasi tutti i titoli con risoluzioni e dettagli elevati del tipo 1680X1050 AA 8x AF 16X ecc. ecc. e non ci sono rallentamenti o altre seccature. Questo discorso vale per tutti i giochi provati fin'ora tranne uno, CRYSIS e vedo che è anche qui oggetto di interessanti discussioni (io gioco molto bene senza problemi a 1280x1024 con dettagli settati in HIGH e senza AA). Sono anche convinto però che l'hardware per godere al massimo questo titolo con tutti i dettagli e filtri a manetta debba ancora essere costruito.

Ciao grazie ancora della tua risposta

notte a tutti

blade9722
28-01-2008, 23:29
Ciao. Provo a risponderti io. Per CPU Limited si intende una situazione nella quale il computer potrebbe rendere di più ma è limitato dal fatto che la CPU non è sufficientemente potente. In questa discussione per CPU Limited intendiamo più che altro situazioni nelle quali le schede grafiche non riescono ad esprimersi al massimo, perché la CPU, troppo poco potente, non riesce a fornire alle schede grafiche i dati da elaborare, motivo per il quale le schede grafiche non lavorano, e si è appunto limitati dalla CPU. Ovviamente questa è una spiegazione a grandi linee, ma spero di averti chiarito le idee. Bisogna fare molta attenzione a quanto di è CPU limited: con molti videogiohi per esempio si può essere CPU Limited ma avere lo stesso delle prestazioni molto buone. Semplicemente avremo un numero di immagini al secondo (FPS) molto elevato, che però potrebbe essere ancora più elevato usando un processore più veloce. Molti videogames vecchi e molti benchmark (per esempio il famoso 3DMark) richiedono una frequenza del processore molto elevata per usare al massimo la scheda video. Ovviamente tutto dipende dalla potenza della CPU e dalla potenza della scheda grafica: in qualche modo si è sempre CPU Limited o VGA Limited: la cosa importante è che questo "limited" non comprometta la giocabilità dei nostri titoli preferiti. Esempio pratico: un gioco che va già a 100FPS con il processore a 3Ghz andrà a 200FPS con il processore a 6Ghz (esempio non realistico, giusto per capire meglio) tuttavia avere 100FPS o 200FPS è la stessa cosa a livello di giocabilità: in entrambi i casi è più che ottima. Diciamo che ha senso parlare di CPU Limited quando l'applicazione che usiamo è penalizzata dalla frequenza della CPU, per esempio se interessano i benchmark, in 3DMark06 per sfruttare lo SLi di schede recenti e potenti è indispensabile avere una CPU veramente molto potente. Se per esempio con una 8800Ultra ed un Q6600 @ 3,2Ghz faccio 12000 punti, con due Ultra e lo stesso processore farò poco di più di 1300 punti. Se però aumento notevolmente la frequenza della CPU inizierò a sfruttare meglio le schede grafiche, arrivando per esempio a 4Ghz potrò fare 18000 punti.

Non bisogna dimenticare che il punteggio del 3DMark nella versione 06 è molto dipendente non solo dalla schede grafiche e dalla frequenza del processore, ma anche dal fatto che il processore sia QuadCore o DualCore. Infatti solitamente più che vedere il punteggio totale ci si sofferma sul punteggio della scheda grafica, che corrisponde alla voce SM 2.0 e alla voce SM 3.0.

In liena di massima i processori QuadCore danno incremento solo nel benchmark 3DMark06, in quelli precedenti avere un Dual o un Quad core cambia nulla, motivo per il quale per testare le schede grafiche si usa ancora moltissimo 3DMark05.

Personalmente ti sconsiglio l'acqusito del processore QX6850 (non esiste il Q6850 che io sappia, per cui credo si tratti di un QX6850), perché è un processore molto costoso, e che non ti darebbe molto beneficio nelle applicazioni di uso più comune. In particolare con i videogiochi le performance di un E6850 e di un QX6850 sono allineate, perché i videogame non sono in grado di sfruttare le CPU QuadCore. Nel rendering video e con alcuni programmi ottimizzati puoi avere grande beneficio da una architettura con quattro core, tuttavia devi vedere quanto andresti a pagare il processore (considera che tra l'altro è uscita una nuova versione, il QX9650, che è diverso e che ha fatto un po' svalutare il modello vecchio). Se sei interessato ad avere quattro core ti consiglio il Q6600 che costa molto meno del QX6850 e non è troppo distante. Il QX6850 è un processore destinato più che altro agli appassionati di hardware e di overlcocking, dato che ha il moltiplicatore sbloccato e consente di aumentare operativa in modo relativamente semplice.

Personalmente ti consiglio di tenere il tuo processore che è già ottimo, se poi ti interessa molto fare rendering ed usare applicazioni multicore mi orienterei per un Q6600. Se proprio vuoi il massimo puoi andare sul QX9650, devi però accertarti che sia compatibile con la tua scheda madre.

Direi che una risposta più esauriente di questa non si può pretendere, confermo in toto.

VitOne
29-01-2008, 15:56
Innazitutto grazie della tua celere e chiarissima risposta.
2 Precisazioni sono dovute:
1) il processore che come hai ben scritto è il QX6850 e non Q6850 (la fretta), il bello è che mi viene proposto a metà prezzo (meno di 550 euri per la cronaca) da un amico che è appena passato al QX6950 so benissimo che differenza c'è tra i 2 soprattutto nella cache di L2 a 12 mb (6 per blocco) contro gli 8 sempre a L2 del QX6850, oltre all'istruzione SSE4 presente sempre nel QX6950. Credo che oggi un occasione così sia quasi unica, magari fra qualche mese con i nuovi penryn Quad core il QX6850 costerà questi soldi e se non fosse così? Bel dilemma.....
2) come hai detto tu il mio E6850 vabenissimo e guardando in giro per la rete quando si tratta di videogame tra il QX6850 e E6850 non ci sono distacchi notevoli anzi sono quasi appaiati per non dire alla pari, ma in video-audio e foto (dai aggiungiamo pure le foto se sono in altissima risoluzione o HDR anche se incidono per poco o nulla) c'è un bel distacco eccome se c'è un bel distacco. Ecco per questo motivo la tentazione è forte molto forte.

Come detto in un altro thread riesco a giocare con quasi tutti i titoli con risoluzioni e dettagli elevati del tipo 1680X1050 AA 8x AF 16X ecc. ecc. e non ci sono rallentamenti o altre seccature. Questo discorso vale per tutti i giochi provati fin'ora tranne uno, CRYSIS e vedo che è anche qui oggetto di interessanti discussioni (io gioco molto bene senza problemi a 1280x1024 con dettagli settati in HIGH e senza AA). Sono anche convinto però che l'hardware per godere al massimo questo titolo con tutti i dettagli e filtri a manetta debba ancora essere costruito.
Ciao grazie ancora della tua risposta
notte a tutti

Il prezzo di 550€ è molto interessante, considera però che io per esempio ne ho venduto uno poco fa sul forum a 600€, proprio perché è uscito il nuovo prodotto TOP di gamma e mi volevo togliere il processore rapidamente. Il punto fondamentale come ti ho detto è che la serie QX è progettata ed indirizzata agli appassionati di hardware. Notare le differenze con un Q6600 è veramente difficile, specie se hai quel minimo di dimistichezza informatica necessaria ad overlcoccare il Q6600 fino a 3Ghz (operazione del tutto sicura e relativamente semplice da effettuare) perché i Q6600 per come sono progettati sono perfettamente in grado di reggere 3Ghz di frequenza, mi sento di affermare che sono processori che potrebbero essere venduti come funzionanti a 3Ghz, ma vengono "depotenziati" per motivi quasi esclusivamente di marketing.

Io personalmente ho avuto diversi QX, dal QX6700 (sono stato tra i primi in Italia ad averlo, mesi prima dell'uscita ufficiale) fino a diversi QX6850, che ho voluto provare nel tentativo di cercarne uno fortunato in overlcock. La mia però è passione per i benchmark e per la tecnologia, a chi mi consiglia cosa comprare consiglio un E6750 per i videogiochi ed un Q6600 per chi ha possibilità di usare applicazioni in grado di trarre vantaggio dai quattro core.

Per quello che riguarda Crysis ho fatto diversi test (con 8800Ultra singola e SLi e con 8800GT singola e SLi) e ti posso dare per certo che la CPU è l'ulitmo dei problemi per i quali il gioco non riesce ad essere fluido in modalità DX10 VeryHigh. Cambiando la frequenza della CPU da 3 a ben 4Ghz e passando per diversi valori intermedi non ho notato nessuna differenza di prestazioni. Come hai giustamente scritto il problema è che l'attuale hardware non è ancora in grado di darci una esperienza di gioco fluida impostando i dettagli al massimo e usando i filtri. Per adesso l'unica soluzione è il TripleSLi di 8800Ultra, non ho avuto modo di provarlo personalmente però dai test sembra ottimo per giocare a Crysis, tuttavia considerando che le 8800Ultra sono al termine del loro ciclo vita, allora credo sia meglio aspettare qualche mese e prendere una scheda singola più potente.

Direi che una risposta più esauriente di questa non si può pretendere, confermo in toto.

:D

Bic67
29-01-2008, 17:57
Il prezzo di 550€ è molto interessante, considera però che io per esempio ne ho venduto uno poco fa sul forum a 600€, proprio perché è uscito il nuovo prodotto TOP di gamma e mi volevo togliere il processore rapidamente. Il punto fondamentale come ti ho detto è che la serie QX è progettata ed indirizzata agli appassionati di hardware. Notare le differenze con un Q6600 è veramente difficile, specie se hai quel minimo di dimistichezza informatica necessaria ad overlcoccare il Q6600 fino a 3Ghz (operazione del tutto sicura e relativamente semplice da effettuare) perché i Q6600 per come sono progettati sono perfettamente in grado di reggere 3Ghz di frequenza, mi sento di affermare che sono processori che potrebbero essere venduti come funzionanti a 3Ghz, ma vengono "depotenziati" per motivi quasi esclusivamente di marketing.

Io personalmente ho avuto diversi QX, dal QX6700 (sono stato tra i primi in Italia ad averlo, mesi prima dell'uscita ufficiale) fino a diversi QX6850, che ho voluto provare nel tentativo di cercarne uno fortunato in overlcock. La mia però è passione per i benchmark e per la tecnologia, a chi mi consiglia cosa comprare consiglio un E6750 per i videogiochi ed un Q6600 per chi ha possibilità di usare applicazioni in grado di trarre vantaggio dai quattro core.

Per quello che riguarda Crysis ho fatto diversi test (con 8800Ultra singola e SLi e con 8800GT singola e SLi) e ti posso dare per certo che la CPU è l'ulitmo dei problemi per i quali il gioco non riesce ad essere fluido in modalità DX10 VeryHigh. Cambiando la frequenza della CPU da 3 a ben 4Ghz e passando per diversi valori intermedi non ho notato nessuna differenza di prestazioni. Come hai giustamente scritto il problema è che l'attuale hardware non è ancora in grado di darci una esperienza di gioco fluida impostando i dettagli al massimo e usando i filtri. Per adesso l'unica soluzione è il TripleSLi di 8800Ultra, non ho avuto modo di provarlo personalmente però dai test sembra ottimo per giocare a Crysis, tuttavia considerando che le 8800Ultra sono al termine del loro ciclo vita, allora credo sia meglio aspettare qualche mese e prendere una scheda singola più potente.



:D



Caspita a fine Maggio sono a Roma con moglie e figlio se ti va di bere un caffè in via del Corso mi farebbe molto piacere così magari scambiamo 4 chiacchiere di informatica cioè di hardware avanzato. Mi farebbe molto piacere :D :D :D .
Per quanto riguarda il QX6850 ho pensato dopo aver letto i tuoi consigli e le conferme di Blade di tenermi il mio E6850 ancora per un pò di tempo.

Ciao GRAZIE

blade9722
29-01-2008, 18:12
Il prezzo di 550€ è molto interessante, considera però che io per esempio ne ho venduto uno poco fa sul forum a 600€, proprio perché è uscito il nuovo prodotto TOP di gamma e mi volevo togliere il processore rapidamente. Il punto fondamentale come ti ho detto è che la serie QX è progettata ed indirizzata agli appassionati di hardware. Notare le differenze con un Q6600 è veramente difficile, specie se hai quel minimo di dimistichezza informatica necessaria ad overlcoccare il Q6600 fino a 3Ghz (operazione del tutto sicura e relativamente semplice da effettuare) perché i Q6600 per come sono progettati sono perfettamente in grado di reggere 3Ghz di frequenza, mi sento di affermare che sono processori che potrebbero essere venduti come funzionanti a 3Ghz, ma vengono "depotenziati" per motivi quasi esclusivamente di marketing.

Io personalmente ho avuto diversi QX, dal QX6700 (sono stato tra i primi in Italia ad averlo, mesi prima dell'uscita ufficiale) fino a diversi QX6850, che ho voluto provare nel tentativo di cercarne uno fortunato in overlcock. La mia però è passione per i benchmark e per la tecnologia, a chi mi consiglia cosa comprare consiglio un E6750 per i videogiochi ed un Q6600 per chi ha possibilità di usare applicazioni in grado di trarre vantaggio dai quattro core.

Per quello che riguarda Crysis ho fatto diversi test (con 8800Ultra singola e SLi e con 8800GT singola e SLi) e ti posso dare per certo che la CPU è l'ulitmo dei problemi per i quali il gioco non riesce ad essere fluido in modalità DX10 VeryHigh. Cambiando la frequenza della CPU da 3 a ben 4Ghz e passando per diversi valori intermedi non ho notato nessuna differenza di prestazioni. Come hai giustamente scritto il problema è che l'attuale hardware non è ancora in grado di darci una esperienza di gioco fluida impostando i dettagli al massimo e usando i filtri. Per adesso l'unica soluzione è il TripleSLi di 8800Ultra, non ho avuto modo di provarlo personalmente però dai test sembra ottimo per giocare a Crysis, tuttavia considerando che le 8800Ultra sono al termine del loro ciclo vita, allora credo sia meglio aspettare qualche mese e prendere una scheda singola più potente.



:D


Il discorso sulla CPU in Crysis è molto più complesso, ed è sensibilmente diverso fra Athlon64 e Core Duo. In very high Crysis è stressante per la CPU quanto lo è per la GPU. Sto raccogliendo i dati che pubblicherò in un thread a parte. Per quanto riguarda il discorso "giocare fluido in DX10", io ho giocato bene in Very High DX10, e se avessi avuto un Core Duo avrei giocato fluido, ma è una questione altamente soggettiva.

VitOne
29-01-2008, 20:57
Caspita a fine Maggio sono a Roma con moglie e figlio se ti va di bere un caffè in via del Corso mi farebbe molto piacere così magari scambiamo 4 chiacchiere di informatica cioè di hardware avanzato. Mi farebbe molto piacere :D :D :D .
Per quanto riguarda il QX6850 ho pensato dopo aver letto i tuoi consigli e le conferme di Blade di tenermi il mio E6850 ancora per un pò di tempo.

Ciao GRAZIE

Figurati è stato un piacere ;). Credo che la soluzione di tenere l'E6850 sia la migliore, la potenza elaborativa che ti offre quel processore è molto alta.

Il discorso sulla CPU in Crysis è molto più complesso, ed è sensibilmente diverso fra Athlon64 e Core Duo. In very high Crysis è stressante per la CPU quanto lo è per la GPU. Sto raccogliendo i dati che pubblicherò in un thread a parte. Per quanto riguarda il discorso "giocare fluido in DX10", io ho giocato bene in Very High DX10, e se avessi avuto un Core Duo avrei giocato fluido, ma è una questione altamente soggettiva.

Ho testato Crysis per diversi giorni ed in diversi momenti. Personalmente trovo che il gioco sia dipendente dalla CPU, però ho specificato che tra 3Ghz e 4Ghz con un Core2Quad non ho notato differenze. Non ho assolutamente fatto un discorso esaustivo, tuttavia sono profondamente convinto che con un Core 2 Duo E6850 si abbia un processore che rappresenta il massimo per giocare a Crysis, andare oltre (come CPU) è assolutamente inutile, specie con le schede grafiche attuali. Rivolgendomi ad una persona dotata di un Core 2 Duo di fascia alta ho parlato senza citare processori AMD o Pentium4.

Non so tu cosa intenda per aver giocato bene, io personalmente lo reputo molto pesante, avendo due Ultra in SLi ed un 24" avrei voluto giocarlo a 1920x1200 ma, se nel primo livello ottenevo buoni risultati, andando avavanti nel gioco la situazione precipitava, specialmente in alcuni livelli. Motivo per il quale alla fine ho giocato a 1680x1080 senza avere troppi problemi di fluidità, anche se in non poche situazioni avrei voluto qualche FPS in più.

Personalmente credo che l'idea di "giocabile" sia soggettiva, per cui quando parlo, parlando appunto a titolo personale, reputo un gioco fluido o meno in base alla mia personale sensibilità. Devo per esempio dire che il motore di Crysis mi è sembrato relativamente fluido già da 20-25fps in su. Però francamente per parlare di buona giocabilità per me con Crysis si parla di 35fps.

blade9722
29-01-2008, 21:24
Figurati è stato un piacere ;). Credo che la soluzione di tenere l'E6850 sia la migliore, la potenza elaborativa che ti offre quel processore è molto alta.



Ho testato Crysis per diversi giorni ed in diversi momenti. Personalmente trovo che il gioco sia dipendente dalla CPU, però ho specificato che tra 3Ghz e 4Ghz con un Core2Quad non ho notato differenze. Non ho assolutamente fatto un discorso esaustivo, tuttavia sono profondamente convinto che con un Core 2 Duo E6850 si abbia un processore che rappresenta il massimo per giocare a Crysis, andare oltre (come CPU) è assolutamente inutile, specie con le schede grafiche attuali. Rivolgendomi ad una persona dotata di un Core 2 Duo di fascia alta ho parlato senza citare processori AMD o Pentium4.

Non so tu cosa intenda per aver giocato bene, io personalmente lo reputo molto pesante, avendo due Ultra in SLi ed un 24" avrei voluto giocarlo a 1920x1200 ma, se nel primo livello ottenevo buoni risultati, andando avavanti nel gioco la situazione precipitava, specialmente in alcuni livelli. Motivo per il quale alla fine ho giocato a 1680x1080 senza avere troppi problemi di fluidità, anche se in non poche situazioni avrei voluto qualche FPS in più.

Personalmente credo che l'idea di "giocabile" sia soggettiva, per cui quando parlo, parlando appunto a titolo personale, reputo un gioco fluido o meno in base alla mia personale sensibilità. Devo per esempio dire che il motore di Crysis mi è sembrato relativamente fluido già da 20-25fps in su. Però francamente per parlare di buona giocabilità per me con Crysis si parla di 35fps.


guarda, io l'ho giocato per la maggior parte del tempo a 20FPS CPU limited. Sul discorso dei frame con gli anni ho maturato una riflessione: il cervello si adatta alla situazione di stabilità, e risulta più sensibile al cambiamento di frame rate che al valore assoluto.

Quando ho giocato il livello Core, che tipicamente mi faceva 50FPS, di colpo notavo dei rallentamenti. Controllavo ed erano 30FPS. Per contro, nei livelli precedenti sulla spiaggia a 20FPS fissi non notavo alcun rallentamento, perchè questi erano erogati in maniera costante. I film al cinema sono a 24FPS, e non mi sembra che nessuno li trovi scattosi, semplicemente perchè l'erogazione è costante.

Per il resto... io nel 1984 giocavo a F15 Strike Eagle o al Flight Simulator 2 (allora era della Sublogic, poi la Microsoft ne ha acquistato i diritti), e facevano 3-4 FPS.

E sono sopravvissuto...

Sul limite della CPU su un Core Duo/Athlon64 sto aspettando alcuni test da Ghiltanas per aprire un thread apposito.
Se vuoi partecipare, mandami un PM, ti manderò un paio di script su cui fare le prove, e tra l'altro ti posso togliere il dubbio sulla configurazione SLI.

Su XP, con il very high trick nel test dell'isola io faccio 27FPS sia in 800x600 che in 1600x1200, e se abbasso la frequenza della CPU da 2.7 a 2 GHz faccio 20FPS.

Su Vista, DX10 Very High e eseguibile a 64bit (che ha alcuni vantaggi...) in situazioni GPU limited normalmente si perde il 60%, ma io sono CPU limited... per cui l'ho giocato con quelle impostazioni.

blade9722
02-02-2008, 12:23
Buongiorno ragazzi,

volevo sensibilizzarvi su un argomento che è sempre stato un mio cruccio sin da quando ho pubblicato questa guida. In questo forum c'è una cerchia di utenti che, pur non avendo nessuna esperienza diretta sull'argomento, rispondono a tutte le richieste di informazioni sull'SLI sconsigliandolo sistematicamente. A sostegno della propria tesi portano inizialmente l'immancabile raccolta di affermazioni generiche e superficiali (per alcune oserei dire veri e propri luoghi comuni) su consumi, mancanza di supporto da parte delle applicazioni, scarso incremento di prestazioni, scarsa rivendibilità, necessità di acquistare alimentatori da Gigawatt e così via.

E, ovviamente, portano a sostegno anche benchmark vari trovati per la rete. Ciò che sto per descrivere è un caso recente che è un esempio abbastanza indicativo.

Un utente ha prima postato il seguente test (assai gettonato dai detrattori):

http://www.hwupgrade.it/articoli/skvideo/1831/hl2_1.png

In cui ha evidenziato come non ci fosse nessun guadagno se non all'elevatissima risoluzione di 2560x1600.

Al che io ho fatto notare come tali test siano stati eseguiti su un titolo molto leggero per le GPU in esame, e come l'appiattimento delle performance al variare della risoluzione sia indicazione di come sia stato raggiunto il limte della CPU, tra l'altro con un frame rate elevatissimo.

Più avanti nel thread, il discorso è immancabilmente ricaduto su Crysis. L'utente ha quindi postato questo test:

http://www.hwupgrade.it/articoli/skvideo/1863/crysisdx10.png

Ora, a questo punto non poteva più aggrapparsi al mancato incremento di prestazioni, in quanto in questo caso l'aumento è evidente. Quindi ha subito variato la chiave di interpretazione sulla perfomance globale: è inutile aggiungere una scheda in SLI perchè comunque "non permette di fare girare Crysis fluidamente", concludendo di attendere l'uscita della prossima scheda di fascia alta perchè quella "sicuramente farà volare il gioco".

Due diversi test, e due diverse chiavi di interpretazione, entrambe volte a sostenere la stessa tesi: l'SLI è inutile. Se avesse mantenuto la coerenza di usare lo stesso metro del primo test per valutare anche il secondo, avrebbe concluso evidenziando l'utilità della seconda scheda, ma evidentemente mantenere la coerenza non è negli scopi di questo utente.

Tra l'altro, sempre in merito al secondo test, il risultato di 23.9 è conseguenza delle impostazioni più pesanti (Vista, DX10, Very High) combinato con l'elevata risoluzione (1920x1080).

La cosa strana è che , mentre in tutti i test precedenti l'utente postava il link della pagina web, nell'ultimo caso ha direttamente allegato l'immagine. Al che io ho pensato: magari perchè nella stessa pagina c'è qualcosa di scomodo.

Ed infatti, nella stessa pagina http://www.hwupgrade.it/articoli/skvideo/1863/nvidia-l-ora-di-triple-sli_4.html, era riportato un altro test, effettuato sempre ad alta risoluzione ma con impostazioni più leggere:

http://www.hwupgrade.it/articoli/skvideo/1863/crysis.png

L'utente avrebbe faticato a trovare una interpretazione negativa in questa prova: con la seconda scheda si ha sia un incremento consistente che performance elevate. Ed infatti ha strategicamente evitato di postare il link dell'intera pagina, limitandosi solo sull'immagine di convenienza.

La mia personale impressione è che si tratti di un ragazzo che si è irrigidito in una posizione pregiudiziale contraria all'SLI, sostenuta in maniera acritica mediante una interpretazione distorta a senso unico dei risultati dei test che si trovano sul web.

P.S. ovviamente, per questi utenti il limite della CPU non esiste, o esiste solo nel caso di GPU singola. Attraverso la lente deformante del pregiudizio, il multi-GPU fa "sparire" le limitazioni della CPU.

Bic67
03-02-2008, 15:03
Carissimo Blade grazie. Spero che con questo tuo ultimo post anche i detrattori più accaniti forse forse.... si convincerranno (io non credo però). Faccio solo una piccola puntualizzazione al tuo ultimo intervento sul passaggio di HALF LIFE 2.
Esiste una mod di cinematic che praticamente porta in alta risoluzione HALF LIFE 2 e episodi vari. Per gustare appieno tutto ciò è necessario avere un sistema operativo a 64 bit. A questo punto sarebbe bello fare dei test con le risoluzioni massime. Tanto per fare un esempio col mio sistema che leggi in firma con FRAPS misuro punte di 300 FPS in SLI e nelle scene + movimentate non scendo mai a 100 FPS con risoluzione a 1680X1050 AA 16X CSQA e AF a 16x. Con il sistema a singola scheda e mulitmonitor i valori si smezzano (da un minimo di 70 a un massimo di 130 140 FPS). E meno male che il motore grafico non è "pesante" come quello di Crysis.
Se vuoi posso inviarti degli screen shots con tanto di valori, ma so che tu mi credi a quello che digito. Sono i detrattori dello SLI :( che non credono o che non vogliono rassegnarsi che 2 GPU o anche 3 visti i tempi, rendono decisamente molto di più.

Ciao e buona domenica :D :D

Bic67
05-02-2008, 20:18
BALDE HELP ho un dubbio Amletico... l'ho letto svariate volte nel forum e stasera che lo cerco manco morto lo trovo..... Ho letto in un post quali sono le temperature massime di esercizio della 8800 GTS da 640 Mb. Io ho 2 schede della ASUS EN8800 GTS, una è revison A2 l'altra è A3 non overclockkate. Una sta a 66° C l'altra a 62° C in normale utilizzo; quando gioco arrivano sui 73 - 75 una, l'altra sui 71 - 72. Secondo te devo preoccupurami? Premetto che ho un case coolermaster come vedi anche in firma con ben 7 ventole da 12 cm di raffreddamento di cui 4 sul lato VGA, però solo la VGA in mezzo ne beneficia, difatti quel pirla che me lo ha assemblato ha messo la scheda madre all'incontrario, in pratica è diventata una BTX anche se BTX non è..... di conseguenza la VGA che dovrebbe stare sul "fondo" del case e che invece è finita in alto, anzichè tirare aria dal basso e quindi + fresca (lo stacker 832 sul fondo ha una griglia forellata) prende aria in parte dalla ventola posta sul "tetto" che dovrebbe fare da camino ma che il pirla nominato prima ha messo all'incontrario per far in modo che l'aria arrivi sulla scheda. Sono già d'accordo che in primavera lo deve smontare e rimontare in ATX (tacci sua!!!!).

La GPU 1 correggimi se sbaglio è quella posta in alto, la GPU 2 è quella posta in basso in una scheda madre montata in modo normale (non in modo sfigato come la mia...)

Per cortesia tu che hai 2 VGA uguali alle mie (marca a parte) dimmi se sono normali queste temperature....

Ti chiedo ancora visto che sei molto esperto, che differenza c'è tra la revision A2 e la A3?

Ciao e grazie.

blade9722
05-02-2008, 20:31
BALDE HELP ho un dubbio Amletico... l'ho letto svariate volte nel forum e stasera che lo cerco manco morto lo trovo..... Ho letto in un post quali sono le temperature massime di esercizio della 8800 GTS da 640 Mb. Io ho 2 schede della ASUS EN8800 GTS, una è revison A2 l'altra è A3 non overclockkate. Una sta a 66° C l'altra a 62° C in normale utilizzo; quando gioco arrivano sui 73 - 75 una, l'altra sui 71 - 72. Secondo te devo preoccupurami? Premetto che ho un case coolermaster come vedi anche in firma con ben 7 ventole da 12 cm di raffreddamento di cui 4 sul lato VGA, però solo la VGA in mezzo ne beneficia, difatti quel pirla che me lo ha assemblato ha messo la scheda madre all'incontrario, in pratica è diventata una BTX anche se BTX non è..... di conseguenza la VGA che dovrebbe stare sul "fondo" del case e che invece è finita in alto, anzichè tirare aria dal basso e quindi + fresca (lo stacker 832 sul fondo ha una griglia forellata) prende aria in parte dalla ventola posta sul "tetto" che dovrebbe fare da camino ma che il pirla nominato prima ha messo all'incontrario per far in modo che l'aria arrivi sulla scheda. Sono già d'accordo che in primavera lo deve smontare e rimontare in ATX (tacci sua!!!!).

La GPU 1 correggimi se sbaglio è quella posta in alto, la GPU 2 è quella posta in basso in una scheda madre montata in modo normale (non in modo sfigato come la mia...)

Per cortesia tu che hai 2 VGA uguali alle mie (marca a parte) dimmi se sono normali queste temperature....

Ti chiedo ancora visto che sei molto esperto, che differenza c'è tra la revision A2 e la A3?

Ciao e grazie.


Ciao, per la temperatura non preoccuparti, a me quest'estate in una giornata con il condizionatore spento una delle due è arrivata 103C. Lo shutdown termico è comunque a 110C.

Non so nel dettaglio quale sia la differenza fra la revision A2 o A3. Nel web è molto utilizzato il termine "stepping", anche se io in ambtio lavorativo non l'ho mai utilizzato (di professione progetto circuiti integrati). Comunque, il termine sembra utilizzato per indicare sia una revisione del processo tecnologico, sia una revisione del design
.

carver
06-02-2008, 16:56
--------------------------------------------------------------------------------

CIAO!

domanda..
avete notato che gli ultimi RIVA TUNER non clokkano entrambe le vga ma solo 1a??? e allo stesso modo clokkano solo la ventola di una vga?

praticamente.. con riva.. aumento la ventola della 1a vga.. con NTUNE la seconda...

metre x le frequenze devo usare ntune.. altrimenti riva 2.06 me ne clokak solo una!

me ne son accorto lanciando gpuz 1.05... che mi diceva che una sola era clokkata...
poi le temperature : con rivatune appaiono identiche quando in realta' non lo sono!
speravo nei nuovi diriver ma nulla!
al contrario con ntune si clokkano tutte e 2 le frequenze delle gpu.. MA SOLO UNA VENTOLA!
QUINDI X ALZARE LE VELOCITA' DI ENTRAMBE LE VENTOLE DEVO USARE 2 PROGRAMMI E POI CHIUDERLI..
ma son il solo???
ps.. son certo di questoxche' anche a livello di db si sente che si clokkano una x volta...
succede anche a voi? ci avete mai fatto caso?
__________________

blade9722
06-02-2008, 17:08
--------------------------------------------------------------------------------

CIAO!

domanda..
avete notato che gli ultimi RIVA TUNER non clokkano entrambe le vga ma solo 1a??? e allo stesso modo clokkano solo la ventola di una vga?

praticamente.. con riva.. aumento la ventola della 1a vga.. con NTUNE la seconda...

metre x le frequenze devo usare ntune.. altrimenti riva 2.06 me ne clokak solo una!

me ne son accorto lanciando gpuz 1.05... che mi diceva che una sola era clokkata...
poi le temperature : con rivatune appaiono identiche quando in realta' non lo sono!
speravo nei nuovi diriver ma nulla!
al contrario con ntune si clokkano tutte e 2 le frequenze delle gpu.. MA SOLO UNA VENTOLA!
QUINDI X ALZARE LE VELOCITA' DI ENTRAMBE LE VENTOLE DEVO USARE 2 PROGRAMMI E POI CHIUDERLI..
ma son il solo???
ps.. son certo di questoxche' anche a livello di db si sente che si clokkano una x volta...
succede anche a voi? ci avete mai fatto caso?
__________________

Ciao,
purtroppo é cosi', e il motivo per cui non utilizzo rivatuner per overcloccare gli shader, su vista peró l'ultima volta funzionava. Tra l'altro, se ti viene overcloccata una sola scheda il comportamento é subdolo: i vari hardware monitor ti riportano che l'overclock é riuscito, ma quando vanno in SLI si sincronizzano alla frequenza inferiore e i benchmark riportano i risultati di default. E' cosi' anche con altri programmi, l'unico affidabile é ntune.

Per quanto riguarda le ventole, non ti posso essere di aiuto, ho sempre trovato soddisfacente il controllo di default.

EDIT: interessante: gpu-z si accorge che solo una é overcloccata, é il primo software che scopro che lo fa...

carver
06-02-2008, 22:19
Ciao,
purtroppo é cosi', e il motivo per cui non utilizzo rivatuner per overcloccare gli shader, su vista peró l'ultima volta funzionava. Tra l'altro, se ti viene overcloccata una sola scheda il comportamento é subdolo: i vari hardware monitor ti riportano che l'overclock é riuscito, ma quando vanno in SLI si sincronizzano alla frequenza inferiore e i benchmark riportano i risultati di default. E' cosi' anche con altri programmi, l'unico affidabile é ntune.

Per quanto riguarda le ventole, non ti posso essere di aiuto, ho sempre trovato soddisfacente il controllo di default.

EDIT: interessante: gpu-z si accorge che solo una é overcloccata, é il primo software che scopro che lo fa...

il nuovo n tune si.. cmq mi da delle TEMPERATURE MINORI DI 10 GRADI.. poi ti posto lo screen...

sai come mi son accorto che le vga non erano allineate di ventole?
apparte le temperature.. ( la gt scala molto a stock) il RUMORE E' STATO INDICATIVO.. se ne clokkava solo una.. e c'era solo 1 rimore grosso.. clokkando anche con riva tuner si e' sentita la differenza...
cmq la prima volta e' stato un caso.. ho voluto provare che succedeva a controllarle da riva.. ed ecco scoperto l'ingano ;)
poi rt ti mostr solo una temperatura anche se i dilsplau sono 2

blade9722
10-02-2008, 11:52
Carissimo Blade grazie. Spero che con questo tuo ultimo post anche i detrattori più accaniti forse forse.... si convincerranno (io non credo però). Faccio solo una piccola puntualizzazione al tuo ultimo intervento sul passaggio di HALF LIFE 2.
Esiste una mod di cinematic che praticamente porta in alta risoluzione HALF LIFE 2 e episodi vari. Per gustare appieno tutto ciò è necessario avere un sistema operativo a 64 bit. A questo punto sarebbe bello fare dei test con le risoluzioni massime. Tanto per fare un esempio col mio sistema che leggi in firma con FRAPS misuro punte di 300 FPS in SLI e nelle scene + movimentate non scendo mai a 100 FPS con risoluzione a 1680X1050 AA 16X CSQA e AF a 16x. Con il sistema a singola scheda e mulitmonitor i valori si smezzano (da un minimo di 70 a un massimo di 130 140 FPS). E meno male che il motore grafico non è "pesante" come quello di Crysis.
Se vuoi posso inviarti degli screen shots con tanto di valori, ma so che tu mi credi a quello che digito. Sono i detrattori dello SLI :( che non credono o che non vogliono rassegnarsi che 2 GPU o anche 3 visti i tempi, rendono decisamente molto di più.

Ciao e buona domenica :D :D


Ciao, non possiedo Half life, quindi non sono in grado di effettuare la prova, e comunque non ho tanto tempo a disposizione. Non ho capito però la relazione fra la mod che citi e i sistemi operativi a 64bit.

blade9722
10-02-2008, 11:56
Ho apportato alcuni aggiornamenti alla guida:

- Una precisazione importante in merito all'SLI delle Quadro
- Aggiunto la modalità AFR3, con una postilla riguardo il mancato riconoscimento nel Nvidia control Panel
- Precisazione sulle ottimizzazioni multi-GPU di alcuni giochi
- Nella sezione dedicata alla valutazione delle performance, ho riportato alcuni esempi dalle tabelle di Tom's Hardware
- Aggiunta una sezione che descrivi i casi in cui si ha un abbassamento del frame rate
- Rimosso il test con la demo di UT3 in quanto poco riproducibile.

E ora una nota personale: da qualche giorno ho deciso di rinunciare al posting nella sezione "Consigli per gli acquisti" delle VGA. La decisione, che covavo da lungo tempo, è dovuta al fatto che troppo spesso per sostenere alcune tesi, soprattutto in merito alle performance dell'SLI, devo forzatamente entrare in conflitto con altri utenti.

Bic67
10-02-2008, 20:31
Ciao, non possiedo Half life, quindi non sono in grado di effettuare la prova, e comunque non ho tanto tempo a disposizione. Non ho capito però la relazione fra la mod che citi e i sistemi operativi a 64bit.

Cerco di spiegartela o almeno ci provo. La mod in questione per gustare appieno le texture in alta risoluzione richiede che il OS sia a 64 bit. I sistemi a 32 bit non riescono ad attivare tutte le texture in alta risoluzioni per le "limitazioni" del 32 bit. In pratica una Ferrari lanciata in pista puoi spingerla a 350 Km/h in strada al massimo a 130 Km/h poi a causa del codice della strada che ti impedisce di andare oltre ti fermi (o almeno dovrebbe essere così ;) ;) ;) ), poi di fatto sappiamo tutti che uno con una Ferrari difficilmente va "solo" a 130 km/h ma questo è un altro discorso. In pratica se hai un ambiente che te lo permette (es 64bit) vai a manetta e provi tutte le emozioni altrimenti ti devi accontentare. Scusa dell'esempio un pò spartano :D :D :D.

Bic67
10-02-2008, 21:36
Una precisazione sulle temperature delle mie 2 VGA. Qualche post fa ho scritto allarmato che le temperature delle mie 2 schede video 8800GTS da 640 mb ASUS EN in SLI erano a 66 e 64° C in idle.
Alcuni mi hanno segnalato che le temperature sono alte perchè di norma stanno sui 47 - 50° C. Io le mie rilevazioni le faccio con EVEREST che riporta le seguenti voci: temperatura ambiente GPU 1 e GPU 2, temperatura DIODO GPU 1 e GPU2, temperatura GPU 1 e GPU 2. Io rilevo sempre la temperatura del diodo GPU quindi la + alta (66° - 64° C). La temperatura GPU è a 55° - 50° C e la temperatura ambiente è a 49° - 46° C. Voi quando fate le rilevazioni cosa usate?
No che poi non risulti che tutto sommato le temperature siano giuste.....

Ciao grazie e buonanotte.

blade9722
10-02-2008, 22:56
Cerco di spiegartela o almeno ci provo. La mod in questione per gustare appieno le texture in alta risoluzione richiede che il OS sia a 64 bit. I sistemi a 32 bit non riescono ad attivare tutte le texture in alta risoluzioni per le "limitazioni" del 32 bit. In pratica una Ferrari lanciata in pista puoi spingerla a 350 Km/h in strada al massimo a 130 Km/h poi a causa del codice della strada che ti impedisce di andare oltre ti fermi (o almeno dovrebbe essere così ;) ;) ;) ), poi di fatto sappiamo tutti che uno con una Ferrari difficilmente va "solo" a 130 km/h ma questo è un altro discorso. In pratica se hai un ambiente che te lo permette (es 64bit) vai a manetta e provi tutte le emozioni altrimenti ti devi accontentare. Scusa dell'esempio un pò spartano :D :D :D.

Ho cercato il mod in questione: è principalmente un retexture con altre migliorie.
Scusami, ma fatico a seguirti, non è una questione di esempio spartano, non c'è nessuna relazione fra la risoluzione delle textures ed un S.O. a 64bit.

Usando un esempio simile al tuo, è come se stessi dicendo che hai bisogno di un autodromo perchè il codice della strada ti limita la velocità che puoi raggiungere...in aereo.

Bic67
12-02-2008, 19:59
Ho cercato il mod in questione: è principalmente un retexture con altre migliorie.
Scusami, ma fatico a seguirti, non è una questione di esempio spartano, non c'è nessuna relazione fra la risoluzione delle textures ed un S.O. a 64bit.

Usando un esempio simile al tuo, è come se stessi dicendo che hai bisogno di un autodromo perchè il codice della strada ti limita la velocità che puoi raggiungere...in aereo.

Grazie della precisazione le tue risposte sono sempre chiare eloquenti e soprattutto corrette. Blade non te la prendi vero se ogni tanto ti chiedo una consulenza personale? Visto che sono in argomento consulenza mi dai un consiglio su quale programma utilizzare per disinstallare in modo corretto e completo i driver delle schede video. Voglio essere sicuro dal prossimo refresh di driver di non lasciare traccie di quelli vecchi.

Ciao grazie e buonanotte

carver
12-02-2008, 22:18
Io non capisco una cosa xo'.....

lo sli non lo abilito dal pannello di controllo nvidia=? allora da li che cosa faccio?

blade9722
12-02-2008, 22:21
Grazie della precisazione le tue risposte sono sempre chiare eloquenti e soprattutto corrette. Blade non te la prendi vero se ogni tanto ti chiedo una consulenza personale? Visto che sono in argomento consulenza mi dai un consiglio su quale programma utilizzare per disinstallare in modo corretto e completo i driver delle schede video. Voglio essere sicuro dal prossimo refresh di driver di non lasciare traccie di quelli vecchi.

Ciao grazie e buonanotte

Io ho sempre usato l'installer della Nvidia e non ho mai avuto problemi. Programmi come driver cleaner (che va aggiornato, e non è più gratutito, anche se costa una bazzecola) secondo me andrebbero utilizzati solo nel caso si avessero problemi, e non in via preventiva.

In passato c'è stato qualchh episodio di residui malevoli con i detonator, ma non è di certo la regola.

blade9722
12-02-2008, 22:24
Io non capisco una cosa xo'.....

lo sli non lo abilito dal pannello di controllo nvidia=? allora da li che cosa faccio?


Dunque, dal pannello di controllo Nvidia puoi impostare le due schede in modo che funzionino in modalità SLI e non multi monitor.

Dopodichè per default l'impostazione è GPU singola, tranne per quelle appplicazioni (praticamente tutte) per cui è presente un profilo personalizzato.

Forse dovresti leggere le FAQ sul sito Nvidia (in prima pagina c'è il link) prima di leggere questa guida.

th3o|dm4n
13-02-2008, 07:29
Buongiorno a tutti,
come da promessa, la mia guida sulla configurazione della modalità SLI.

si, ma su quali schede madre è compatibile?
su una P5E no, per esempio...

blade9722
13-02-2008, 09:05
si, ma su quali schede madre è compatibile?
su una P5E no, per esempio...

Non ti sembra di essere piuttosto brusco?

Come spiegato in prima pagina, questa é una guida avanzata, e presuppone di aver letto la pagina delle FAQ dal sito Nvidia.

Ad oggi le MB compatibili con l'SLI hanno tutte chipset nForce di fascia medio alta (570, 590, 650, 680, 780). Mantenere un elenco di compatibilitá hardware non é negli scopi che si prefigge questa guida, e non verrá mai fatto. Per quello ci sono i siti dei produttori.

th3o|dm4n
13-02-2008, 15:27
Non ti sembra di essere piuttosto brusco?

Come spiegato in prima pagina, questa é una guida avanzata, e presuppone di aver letto la pagina delle FAQ dal sito Nvidia.

Ad oggi le MB compatibili con l'SLI hanno tutte chipset nForce di fascia medio alta (570, 590, 650, 680, 780). Mantenere un elenco di compatibilitá hardware non é negli scopi che si prefigge questa guida, e non verrá mai fatto. Per quello ci sono i siti dei produttori.
ok, faccio le mie più sentite scuse.

volevo semplicemente una ri-conferma da chi ha già assembalto un sistema simile.

blade9722
13-02-2008, 15:33
ok, faccio le mie più sentite scuse.

volevo semplicemente una ri-conferma da chi ha già assembalto un sistema simile.

Tra l'altro, la compatibilitá SLI delle MB é una questione puramente software e legale, cé una vecchia versione taroccata dei driver detonatro che permetteva l'abilitazione dell'SLI su qualsiasi MB.

Si vocifera di un futuro supporto dell'SLI da parte dei Chipset Intel, ma é da vedere.

massimovasche
15-02-2008, 18:13
--------------------------------------------------------------------------------

CIAO!

domanda..
avete notato che gli ultimi RIVA TUNER non clokkano entrambe le vga ma solo 1a??? e allo stesso modo clokkano solo la ventola di una vga?

praticamente.. con riva.. aumento la ventola della 1a vga.. con NTUNE la seconda...

metre x le frequenze devo usare ntune.. altrimenti riva 2.06 me ne clokak solo una!

me ne son accorto lanciando gpuz 1.05... che mi diceva che una sola era clokkata...
poi le temperature : con rivatune appaiono identiche quando in realta' non lo sono!
speravo nei nuovi diriver ma nulla!
al contrario con ntune si clokkano tutte e 2 le frequenze delle gpu.. MA SOLO UNA VENTOLA!
QUINDI X ALZARE LE VELOCITA' DI ENTRAMBE LE VENTOLE DEVO USARE 2 PROGRAMMI E POI CHIUDERLI..
ma son il solo???
ps.. son certo di questoxche' anche a livello di db si sente che si clokkano una x volta...
succede anche a voi? ci avete mai fatto caso?
__________________



Aspetta, non vorrei dirti una cosa sbagliata, ma con Rivatuner si possono aumentare o diminuire a piacere tutte e due le ventole delle due schede video, tramite il menù a tendina. Per occarle non lo so....:)

carver
15-02-2008, 23:18
Aspetta, non vorrei dirti una cosa sbagliata, ma con Rivatuner si possono aumentare o diminuire a piacere tutte e due le ventole delle due schede video, tramite il menù a tendina. Per occarle non lo so....:)

io non l'ho trovato il verso...
simmi quale menu' a tendina? printa!

massimovasche
15-02-2008, 23:41
io non l'ho trovato il verso...
simmi quale menu' a tendina? printa!


Ehm... non so printare. Se mi dici come fare ti printo. Cmq apri rivatuner, dove ti dice il modello e la marca della scheda video, a destra c'è una tendina; la apri, e se hai lo SLi, ti si evidenzieranno le due skede video. Ora selezioni prima una, poi l'altra e di ognuna regoli la velocità delle ventole :)

blade9722
15-02-2008, 23:44
Ehm... non so printare. Se mi dici come fare ti printo. Cmq apri rivatuner, dove ti dice il modello e la marca della scheda video, a destra c'è una tendina; la apri, e se hai lo SLi, ti si evidenzieranno le due skede video. Ora selezioni prima una, poi l'altra e di ognuna regoli la velocità delle ventole :)

Basta preme il pulsante stampa, e il desktop viene copiato nella clipboard. Dopodichè apri un visualizzatore di immagini, e con un incolla (Ctrl-V) ti ritrovi l'immagine pronta per essere salvata.

carver
15-02-2008, 23:52
Ehm... non so printare. Se mi dici come fare ti printo. Cmq apri rivatuner, dove ti dice il modello e la marca della scheda video, a destra c'è una tendina; la apri, e se hai lo SLi, ti si evidenzieranno le due skede video. Ora selezioni prima una, poi l'altra e di ognuna regoli la velocità delle ventole :)

ho lo sli.. ma me ne chiappa solo una.. ecco il problema!

massimovasche
16-02-2008, 03:41
ho lo sli.. ma me ne chiappa solo una.. ecco il problema!



Allora abbiamo una config simile (stessa mb, io ho un dual 6700, 2 GTX in SLi) Riva tuner ver. 2.04. La tendina si apre e si vedono le due skede. Mo non ti posso printare perchè sono al lavoro. Domani ti printo (eh, eh, blade m'ha insegnato). Cmq sta cosa la voglio capire pure io :confused:

blade9722
16-02-2008, 08:26
Mah, io non mi sono mai preoccupato dell'argomento in quanto ho sempre trovato soddisfacente la gestione automatica delle ventole di default per le 8800GTS. Da quanto ne so, sulle G80 il controllo delle ventole tramite driver non funziona, dovreste usare quello a basso livello. Per quanto riguarda la visualizzazione delle schede, a me RivaTuner ne mostra solo una, ma con la distinzione fra display primario e secondario.

Questo invece lo so perchè l'ho provato:

l'overclock delle schede tramite l'API di Vista (riconoscibile per la presenza del clock degli shader) fino alla versione 2.06 funziona solo su Vista. Su XP cambia la frequenza di una sola scheda, ciò significa che gli hardware monitor in generale vi riporteranno che l'overclock è andato a buon fine, ma non vedrete nessun incremento di performance in quanto in SLI le due schede si sincronizzeranno alla frequenza minore.

L'API di XP (riconoscibile per la mancanza del clock degli shader e per il tasto "Test"), su Win XP overclocca entrambe le schede, ma non vi permette di cambiare lo shader Clock (che sarà in tracking con il Core). Se però usate versioni recenti di driver su RivaTuner 2.06, anche su XP partirà automaticamente con l'API di Vista (che non funziona).In questo caso, non provate a forzare l'API di XP mettendo a zero NvapiUsageBehavior: anche se effettuato una sola volta, renderà il sistema grafico lentissimo e dovrete reinstallare i driver

massimovasche
16-02-2008, 18:52
io non l'ho trovato il verso...
simmi quale menu' a tendina? printa!



Ti printo:


http://img229.imageshack.us/img229/2375/24ooth5la3.th.jpg (http://img229.imageshack.us/my.php?image=24ooth5la3.jpg)




Grazie blade :D

massimovasche
16-02-2008, 18:54
Scusate ho spostato tutto, ma è la prima volta :D

blade9722
16-02-2008, 19:01
Ti printo:




Grazie blade :D

Per favore potresti usare un thumbnail, oppure effettuare un resize o un crop dell'immagine? Così sballa completamente la pagina.

Comuinque hai ragione, le due linee sono effettivamente le due schede.

massimovasche
16-02-2008, 19:18
Per favore potresti usare un thumbnail, oppure effettuare un resize o un crop dell'immagine? Così sballa completamente la pagina.

Comuinque hai ragione, le due linee sono effettivamente le due schede.



Chiedo perdono e sono mortificato:doh: :doh: , posso rimediare in qualche modo ?

P.S. Cmq com'è sta cosa :confused:

blade9722
16-02-2008, 19:27
Chiedo perdono e sono mortificato:doh: :doh: , posso rimediare in qualche modo ?

P.S. Cmq com'è sta cosa :confused:

Guarda, l'ho aggiunta io nel modo corretto:

http://img229.imageshack.us/img229/2375/24ooth5la3.th.jpg (http://img229.imageshack.us/my.php?image=24ooth5la3.jpg)

A questo punto, basta che fai il quote di questo post, copi la stringa con l'URL dell'immagine e la sostituisci al tuo.

massimovasche
16-02-2008, 19:46
Guarda, l'ho aggiunta io nel modo corretto:

http://img229.imageshack.us/img229/2375/24ooth5la3.th.jpg (http://img229.imageshack.us/my.php?image=24ooth5la3.jpg)

A questo punto, basta che fai il quote di questo post, copi la stringa con l'URL dell'immagine e la sostituisci al tuo.

Aiuto non ce la farò mai; dimmi passo passo: copia la tua stringa, mai poi non me lo fa modificare il mio post con l'immagine grande.

massimovasche
16-02-2008, 19:49
Ehm, chiedo venia; ce l'ho fatta, non trovavo la voce modifica in fondo al post. :stordita:

blade9722
16-02-2008, 19:54
Ehm, chiedo venia; ce l'ho fatta, non trovavo la voce modifica in fondo al post. :stordita:

Comunque, se usi www.imageshack.us per fare l'upload, alla fine ti da una stringa chiamata "thumbnail for forums (1)". Basta copiare quella e ti ritrovi con questo effetto.

massimovasche
16-02-2008, 20:00
Comunque, se usi www.imageshack.us per fare l'upload, alla fine ti da una stringa chiamata "thumbnail for forums (1)". Basta copiare quella e ti ritrovi con questo effetto.


Si sto vedendo imageshack adesso; io usavo TynPic ma è un pò una sola.
Cmq, grazie, scusate e chiudo ot :)

ippo.g
22-02-2008, 21:58
ho intenzione di montare sul sistema in firma 2 8800 gts 640, ma ho timori sulla tenuta dell'alimentazione, ho 2 linee da 16 e 18A sulla 12V, tenuto conto che ho solo un masterizzatore dvd ed un solo HDD potrei farcela?

blade9722
23-02-2008, 00:55
ho intenzione di montare sul sistema in firma 2 8800 gts 640, ma ho timori sulla tenuta dell'alimentazione, ho 2 linee da 16 e 18A sulla 12V, tenuto conto che ho solo un masterizzatore dvd ed un solo HDD potrei farcela?

No, a pieno carico ognuna porta via 6A dal connettore P6 e altrettanti dallo slot. Puoi fare come me e montare l'alimentatore aggiuntivo della Thermaltake.

ippo.g
25-02-2008, 00:19
mi sa, cmq ne ho un'altro da 560W con 18+18A, proverò anche con quello, in caso so cosa fare, grazie.

ippo.g
27-02-2008, 00:12
Intanto disinstalla e reinstalla i driver, e fai un test prima e dopo aver attivato l'SLI. Pubblica i risultati vediamo se ci sono problemi. Forse avrebbe piu senso pubblicarli nel thread della guida SLI, visto che si tratta di un troubleshooting.

P.S. ho appena ordinato un 6400+ BE, ci ritroveremo con lo stesso sistema.

purtroppo neanche quell'ali in firma basta,in Paradise Lost di Crysis prima o poi il pc si spegne :muro:
dovrò montare l'ali supplementare: 50 euro in più :muro:
però spettacolo :eek: :D

blade9722
27-02-2008, 00:24
purtroppo neanche quell'ali in firma basta,in Paradise Lost di Crysis prima o poi il pc si spegne :muro:
dovrò montare l'ali supplementare: 50 euro in più :muro:
però spettacolo :eek: :D

Se hai un po' di dimestichezza con i circuiti elettrici ti posso spiegare come modificare uno dei due Ali in modo che si avvii assieme all'altro.

Resterebbe comunque il problema di come farlo stare all'interno dello chassis.

Il Thermaltake che ho in firma è quasi introvabile, ci sarebbe il Frotron Sparkle BoosterX, che però mi dicono sia più rumoroso.

ippo.g
27-02-2008, 00:32
l'altro ali è finito sull'intel :(
a Vercelli dovrebbero avere questo, è quello che dici tu?

http://img167.imageshack.us/img167/5369/w0099wt0.jpg (http://imageshack.us)

ed in ogni caso lo spazio per un'altro Ali lo trovo :D

http://img161.imageshack.us/img161/6129/dscn7557ny9.jpg (http://imageshack.us)


Cmq se spieghi come fare credo faresti un favore a molte persone

blade9722
27-02-2008, 12:55
l'altro ali è finito sull'intel :(
a Vercelli dovrebbero avere questo, è quello che dici tu?

http://img167.imageshack.us/img167/5369/w0099wt0.jpg (http://imageshack.us)

ed in ogni caso lo spazio per un'altro Ali lo trovo :D

http://img161.imageshack.us/img161/6129/dscn7557ny9.jpg (http://imageshack.us)


Cmq se spieghi come fare credo faresti un favore a molte persone

Si, é lui.....!! Se lo acquisti, occhio ad un particolare: il connettore P4 che esce dal Thermaltake entra nella femmina dello sdoppiatore in dotazione (in foto é quello che va alla MB). Serve per effettuare il sense del 12V e sincronizzarsi con l'avvio dell'ali principale. Purtroppo la femmina é compatibile anche con il connettore P4 della CPU degli alimentatori ATX. Su newegg qualcuno ha fatto l'errore e ha sfiammato.

Io intendevo montare un secondo ali in formato ATX all'interno dello Chassis, il mio Chieftec, che é probabilmente uno dei tower piú voluminosi in commercio, pur avendo lo spazio non ha gli attacchi. Fra i Case non da Server che ho visto solo il Cooler Master Stacker ha questa possibilitá.

P.S. Il thermaltake non vederlo come una spesa, ma come un investimento (circa..): la differenza fra un ali con due canali da 12V e uno con quattro é di 50€...

Per sincronizzare il secondo Ali, serve:

- un relé (con tensione della bobina almeno da 5 o 12V)
- una resistenza di opportuno valore
- cavo elettrico.

Se guardate questo schema:

http://pinouts.ru/Power/atx_v2_pinout.shtml

Per avviare l'ali dovete cortocircuitare il PIN 16 (PS_ON) a massa.
Quindi:

procuratevi un relé con tensione minima della bobina da 12V(Meglio...) o 5V. Collegate l'interruttore fra il PIN 16 e massa del connettore ATX dell'ali "slave".

Collegate una resistenza opportuna, pari a fornire abbastanza potenza da far commutare il Relé (la potenza é V^2/R), al capo positivo della bobina. Collegate l'altro capo della resistenza al 12V(Meglio...) o al 5V di uno dei Molex da HDD dell'Ali "master" (cioé quello che viene collegato direttamente alla MB).
Collegate il capo negativo della bobina del relé alla massa del Molex.

Quando accenderete l'Ali Master, la salita del 12V o del 5V fará chiudere il relé e avvierá anche lo Slave. In questo modo potrete sfruttare i connettori PCI-e dello Slave.

E' importante che il Relé sia sufficientemente veloce: le G80, se il 12V del connettore PCI-e arriva troppo in ritardo rispetto a quello dello Slot, non si avviano.

blade9722
01-03-2008, 17:49
Ho aggiornato la guida con una nota sulle applicazioni a 64bit in Win XP x64.

sslazio
05-03-2008, 10:18
BLADE intanto grazie per avermi risposto nel threads da me aperto e per avermi fatto conoscere questo che non avevo trovato.
Allora ti posto la mia config sperando di trovare una soluzione.

q6600@3hz su evga 780i, 1x4gb di ram in dual pc 800 ddr2, BFG 8800GT impostata di fabbrica a 625/900 e BFG 8800GT impostata di fabbrica a 675/1950.
l'OS installato è VISTA 64, i drivers 169.25.
Ho notato che nei drivers nella parte relativa allo sli c'è scritto modalità sli singola gpu ma mi da la possibilità di scegliere anche frame 1 , 2 o roba del genere.
Il mio problema come già detto in altro threads è che apparentemente le schede continuano a lavorare secondo gpuz ultima versione a frequenze diverse quindi non si settano entrambe allo stesso clock come dovrebbero fare in automatico, inoltre sempre gpuz mi dice che lo sli diversamente da quanto detto dai drivers non è attivo il che è possibilissimo perchè non ho miglioramenti nei giochi se non in crysis dove mi è sembrato andare si più veloce ma con una serie di stop and go tipo fluido e poi scatto evidente, fluido e poi di nuovo scatto evidente.
sono fermamente intenzionato a flashare il bios della scheda a 625 su quella da 675 così da avere la stessa scheda, del resto sono identiche anche nella marca, ma non ho un floppy quindi dovrò vedere se fattibile anche con usbpen.
altra domanda, ho notato che menzionate spesso un programma nhancer che io non ho installato, ma serve perforza per configurare lo sli o dovrebbe funzionare anche senza?

blade9722
05-03-2008, 11:25
Ho notato che nei drivers nella parte relativa allo sli c'è scritto modalità sli singola gpu ma mi da la possibilità di scegliere anche frame 1 , 2 o roba del genere.



Non toccare nulla di quella parte se non sai cosa fare.


Il mio problema come già detto in altro threads è che apparentemente le schede continuano a lavorare secondo gpuz ultima versione a frequenze diverse quindi non si settano entrambe allo stesso clock come dovrebbero fare in automatico


E' corretto: le schede continueranno a funzionare a frequenze diverse. Si sincronizzeranno quando avvierai un'applicazione in SLI, ma allo stato attuale nessun hardware monitor é in grado di rivelarlo.


, inoltre sempre gpuz mi dice che lo sli diversamente da quanto detto dai drivers non è attivo

E' irrilevante: a me dice che é attivo, ad altri fa il tuo scherzo. In compenso il 3dmark da me dice che l'SLI é disattivo, ad altri che é attivo. Semplicemente ignoralo.


il che è possibilissimo perchè non ho miglioramenti nei giochi se non in crysis dove mi è sembrato andare si più veloce ma con una serie di stop and go tipo fluido e poi scatto evidente, fluido e poi di nuovo scatto evidente.



Allora, so che hai giá fatto qualche esperimento con Riva Tuner, che potrebbe avere incasottato il tutto.

Vediamo innanzitutto di capire se é tutto a posto. Nell'ordine dovresti fare:

1) vai in questo sito:
http://www.nvidia.com/object/windows_vista_hotfixes.html

E verifica di avere installato tutte le hotfix indicate. Se ne manca qualcuna, provvedi ad installarle. Se hai installato Vista SP1, il passaggio lo puoi saltare.

2) Disinstalla Riva Tuner. Quando ti chiederá di rimuovere completamente le impostazioni, dovrai rispondere "si".

3) Disinstalla i driver Forceware

4) Prima di riavviare cancella nvapps.xml dai seguenti percorsi:
Programdata/Nvidia
Windows/Syswow64
Windows/system32
E poi riavvia

5) Reinstalla i driver Forceware. Per ora non attivare l'SLI

6) Avvia Crysis, e imposta tutti i dettagli su "Very High" o "Massimi"

7) Vai in questo thread:
http://www.hwupgrade.it/forum/showthread.php?t=1668487
, scarica lo script di benchmark (a metá, dopo "per chi vuole partecipare alla raccolta dati"). Avvia lo script e posta il risultato del file di output (CPU_GPU_Limit.txt)

8) Attiva l'SLI

9) Rifai il punto 7)


sono fermamente intenzionato a flashare il bios della scheda a 625 su quella da 675 così da avere la stessa scheda, del resto sono identiche anche nella marca, ma non ho un floppy quindi dovrò vedere se fattibile anche con usbpen.
altra domanda, ho notato che menzionate spesso un programma nhancer che io non ho installato, ma serve perforza per configurare lo sli o dovrebbe funzionare anche senza?

Intanto incominciamo a camminare, a nuotare ci pensiamo dopo..... Riguardo ad nHancer, la risposta alla tua domanda é in rosso, a caratteri cubitali, nella prima pagina di questo thread.

sslazio
05-03-2008, 13:34
grazie ancora.
questa sera faccio come mi hai detto.
ho anche avuto una risposta dalla BFG la quale cortesemente mi ha subito confermato che le schede possono lavorare in sli anche se hanno frequenze diverse come giustamente mi hai detto.

blade9722
05-03-2008, 14:01
grazie ancora.
questa sera faccio come mi hai detto.
ho anche avuto una risposta dalla BFG la quale cortesemente mi ha subito confermato che le schede possono lavorare in sli anche se hanno frequenze diverse come giustamente mi hai detto.

Si, tieni presente che spesso chi risponde a queste richieste é l'equivalente di un centralinista del 187. La posizione ufficiale della EVGA é che la mia CPU non funziona sulla mia MB......

Lunatech
05-03-2008, 16:42
Cari ragazzi, avrei un problemino a cui immagino qualcuno tra voi saprà dare risposta; oggi ho sostituito il mio vecchio SLI composto da due 7950GT con due 8800GTS (G92): tutto funzionante se non che, all'avvio di un qualsiasi gioco, lo schermo presenta delle fasce verdi orizzontali lampeggianti che "rivestono" la corretta immagine sottostante. Questo però accade solo quando avvio i giochi in modalità "schermo intero", poichè in finestra tutto funziona regolarmente.

Chiedo a voi, dove ho sbagliato?

Vi ringrazio per il prezioso aiuto.

blade9722
05-03-2008, 17:42
Cari ragazzi, avrei un problemino a cui immagino qualcuno tra voi saprà dare risposta; oggi ho sostituito il mio vecchio SLI composto da due 7950GT con due 8800GTS (G92): tutto funzionante se non che, all'avvio di un qualsiasi gioco, lo schermo presenta delle fasce verdi orizzontali lampeggianti che "rivestono" la corretta immagine sottostante. Questo però accade solo quando avvio i giochi in modalità "schermo intero", poichè in finestra tutto funziona regolarmente.

Chiedo a voi, dove ho sbagliato?

Vi ringrazio per il prezioso aiuto.

Hai attivato gli indicatori visivi SLI,dovresti conoscerli visto che provieni da un sistema analogo. Vai nel pannello di controllo Nvidia, "gestisci le impostazioni 3D", in alto ci dovrebbe essere qualcosa come "impostazioni 3D". Dal menú a tendina togli la spunta a "mostra gli indicatori visivi 3D".

P.S in finestra l'SLI non funziona

sslazio
05-03-2008, 17:46
Hai attivato gli indicatori visivi SLI,dovresti conoscerli visto che provieni da un sistema analogo. Vai nel pannello di controllo Nvidia, "gestisci le impostazioni 3D", in alto ci dovrebbe essere qualcosa come "impostazioni 3D". Dal menú a tendina togli la spunta a "mostra gli indicatori visivi 3D".

P.S in finestra l'SLI non funziona

quindi se imposto questa funzione ho la certezza che stia girando sli?

Lunatech
05-03-2008, 18:02
..nu, non sono gli indicatori SLI.. ..è come se si vedessero le schermate del gioco normali con sopra delle bande orizzontali trasparenti verdi (o rosse adesso).. ..sembrano quasi un distrubo nel segnale. Le schede funzionano entrambe (e sono identiche): le ho provate una per una con le stesse applicazioni.. ..solo quando inserisco lo SLI succede questo.. ..potrebbero essere i driver?

blade9722
05-03-2008, 21:40
..nu, non sono gli indicatori SLI.. ..è come se si vedessero le schermate del gioco normali con sopra delle bande orizzontali trasparenti verdi (o rosse adesso).. ..sembrano quasi un distrubo nel segnale. Le schede funzionano entrambe (e sono identiche): le ho provate una per una con le stesse applicazioni.. ..solo quando inserisco lo SLI succede questo.. ..potrebbero essere i driver?

Aspetta un'attimo: per caso mi stai dicendo che hai impostato una risoluzione wide-screen in uno schermo 4:3, e che vedi colori strani al posto del nero sulle bande? Perchè quello è normale, soprattutto in DX10, a me lo faceva nella scena introduttiva di Bioshock.

Lunatech
05-03-2008, 22:01
Nu, Blade, neppure quello.. ..come schermo ho un NEC Multisync 20WGX2 che è un 16:10.. ..ho impostato una corretta risoluzione (la 1680x1050) e le immagini dei giochi si vedono correttamente solo che sopra di esse scorrono delle bande verdi (o rosse se inverto le schede video) un po' come quando il ricevitore della televisione fa i capricci.

Ho provato a cambiare un po' di drive ma a quanto pare queste 8800GTS G90 vengono rilevate per il momento solo dai Forceware 169.21 e 169.28, dunque non ho molta scelta.

Come già detto singolarmente non danno problemi ed ho testato ciascuna delle due porte PCI x16.. ..per essere più preciso le due schede sono delle XFX 8800GTS XXX e le ho montate su una Asus P5N32-E SLI.. ..il tutto alimentato da un Enermax Infiniti 720W.. ..buh, sono un po' perplesso.. :confused:

Le temperature sono nella norma: 56°C e 54°C.. ..ed Everest vede correttamente entrambe le schede in SLI con cavetto connesso..

Lunatech
05-03-2008, 22:34
Una semplice aggiunta: se provo a catturare un'immagine in-game per dimostrare che non sono folle.. :D ..beh, l'immagine si presenta senza alcun difetto (ovvero senza queste famose bande).. ..allora è lo schermo?

blade9722
05-03-2008, 22:40
Una semplice aggiunta: se provo a catturare un'immagine in-game per dimostrare che non sono folle.. :D ..beh, l'immagine si presenta senza alcun difetto (ovvero senza queste famose bande).. ..allora è lo schermo?

Non proprio: le "bande" sono al di fuori del desktop, e lo screenshot non le cattura. Il problema è che stai impostando una risoluzione con un rapporto d'aspetto diverso. Normalmente vedresti nero, ma in AFR si ha quello sfarfallio.

Comunque si, è un problema di configurazione dello schermo, e non saprei come aiutarti perchè io ho due CRT che non hanno mai manifestato tali problemi.

P.S. 8800GTS G90? :confused: sono G80 o G92?

Lunatech
05-03-2008, 22:52
G92, quelle uscite più o meno due mesi fa per intenderci.. ;)

..ma se è un problema di schermo, perchè quando avevo lo SLI con le 7950GT non lo faceva?

blade9722
06-03-2008, 09:00
G92, quelle uscite più o meno due mesi fa per intenderci.. ;)

..ma se è un problema di schermo, perchè quando avevo lo SLI con le 7950GT non lo faceva?

:boh:

Hai provato a cambiare risoluzione, in modo da avere la copertura 100% del Desktop?

Lunatech
06-03-2008, 13:01
Zì, ho provato sia utilizzando la risoluzione nativa a schermo intero sia risoluzioni inferiori.. ..ma il problema compare sempre.. :cry: ..che tragggedia..

blade9722
06-03-2008, 14:38
Zì, ho provato sia utilizzando la risoluzione nativa a schermo intero sia risoluzioni inferiori.. ..ma il problema compare sempre.. :cry: ..che tragggedia..

Mmm,

ce la fai a postare un'immagine dello schermo? Se appoggi la fotocamera in modo che sia ferma, visualizzi sul monitor una schermata statica e regoli opportunamente il tempo d'esposizione dovrebbe risultare nitida.

Lunatech
06-03-2008, 15:12
Avessi a disposizione una macchina digitale o un cell che fa le foto lo farei volentieri.. ..vedrò di procurarmeli prossimamente.

Bic67
06-03-2008, 19:34
Ciao Blade eccomi di nuovo a chiederti una tua opinione sullo SLI. C'è una cosa che ho notato e che non so darmi una spiegazione.... Mi spiego, se gioco a crysis noto che le temperature delle 2 schede aumentano in modo proporzionale con una differenza tra le 2 GPU di 3 o 4 gradi, ad esempio una sta tra i 77 - 78° mentre l'altra sta tra i 73 - 76°. Se gioco ad HALF LIFE 2 invece noto che solo una scheda aumenta di temperatura mentre l'altra rimane stabile e cioè una arriva sui 78° circa mentre l'altra rimane sui 65 - 66°. Poi c'è anche un altra cosa un pò strana e cioè la barra di indicazione dello SLI sui giochi come motogp 2007, crysis, HALF LIFE 2 "normale" funziona egregiamente, mentre su HALF LIFE 2 moddato non compare... Vabbè questo è un dettaglio irrilevante. Trovo strano però il comportamento delle temperature su un gioco che ormai ha un motore grafico un pò "vecchiotto" rispetto a crysis che sappiamo tutti che motore grafico ha.

Dimenticavo le 2 GPU in idle stanno sui 62 una e 60 l'altra circa.

Non riesco a caricare crysis in modalità 64 bit..... Mi rimane lo schermo nero e non so il perchè. I driver sono gli utlimi certificati 169.25 per vista 64 bit.

blade9722
06-03-2008, 20:10
Ciao Blade eccomi di nuovo a chiederti una tua opinione sullo SLI. C'è una cosa che ho notato e che non so darmi una spiegazione.... Mi spiego, se gioco a crysis noto che le temperature delle 2 schede aumentano in modo proporzionale con una differenza tra le 2 GPU di 3 o 4 gradi, ad esempio una sta tra i 77 - 78° mentre l'altra sta tra i 73 - 76°. Se gioco ad HALF LIFE 2 invece noto che solo una scheda aumenta di temperatura mentre l'altra rimane stabile e cioè una arriva sui 78° circa mentre l'altra rimane sui 65 - 66°. Poi c'è anche un altra cosa un pò strana e cioè la barra di indicazione dello SLI sui giochi come motogp 2007, crysis, HALF LIFE 2 "normale" funziona egregiamente, mentre su HALF LIFE 2 moddato non compare... Vabbè questo è un dettaglio irrilevante. Trovo strano però il comportamento delle temperature su un gioco che ormai ha un motore grafico un pò "vecchiotto" rispetto a crysis che sappiamo tutti che motore grafico ha.

Dimenticavo le 2 GPU in idle stanno sui 62 una e 60 l'altra circa.

Non riesco a caricare crysis in modalità 64 bit..... Mi rimane lo schermo nero e non so il perchè. I driver sono gli utlimi certificati 169.25 per vista 64 bit.

Sulle temperature delle GPU non mi preoccuperei. Per quanto riguarda lo schermo nero a 64 bit: stai usando Vista o XP x64?

Bic67
06-03-2008, 20:37
Sulle temperature delle GPU non mi preoccuperei. Per quanto riguarda lo schermo nero a 64 bit: stai usando Vista o XP x64?
Uso VISTA 64 bit con gli ultimi driver certificati per vista (169.25).

Per quanto riguarda le temperature non sono preoccupato già qualche settimana fa tu stesso mi dicesti che eri arrivato fino a 103° e lo shotdown è a 110° per le 8800 GTS. Però è strano che solo una scheda aumenti di temperatura e solo con quel gioco. Con gli altri giochi invece l'incremento è su tutte e 2 come giusto che sia d'altronde. Sembra quasi che con HALF LIFE 2 solo una "lavori" e l'altra sembra rimanere quasi in idle. Il guaio è che non riesco a vedere la barra dello SLI per vedere come si muove il render grafico. Su tutto il resto è regolare normale temperature barra del grafico SLI.
Dimenticavo un dettaglio importante, questo "problema" lo fa solo con HALF LIFE 2 moddato di cinematic (ricordi qualche post fa che te ne parlavo...), se utilizzo HALF LIFE 2 normale le temperature si muovono in modo proporzionale su tutte e 2 le VGA e si vede pure la barra dello SLI e in questo caso vedo come lavorano le schede e cioè in modo sincronizzato.

blade9722
06-03-2008, 22:13
Uso VISTA 64 bit con gli ultimi driver certificati per vista (169.25).

Per quanto riguarda le temperature non sono preoccupato già qualche settimana fa tu stesso mi dicesti che eri arrivato fino a 103° e lo shotdown è a 110° per le 8800 GTS. Però è strano che solo una scheda aumenti di temperatura e solo con quel gioco. Con gli altri giochi invece l'incremento è su tutte e 2 come giusto che sia d'altronde. Sembra quasi che con HALF LIFE 2 solo una "lavori" e l'altra sembra rimanere quasi in idle. Il guaio è che non riesco a vedere la barra dello SLI per vedere come si muove il render grafico. Su tutto il resto è regolare normale temperature barra del grafico SLI.
Dimenticavo un dettaglio importante, questo "problema" lo fa solo con HALF LIFE 2 moddato di cinematic (ricordi qualche post fa che te ne parlavo...), se utilizzo HALF LIFE 2 normale le temperature si muovono in modo proporzionale su tutte e 2 le VGA e si vede pure la barra dello SLI e in questo caso vedo come lavorano le schede e cioè in modo sincronizzato.


Allora, per le temperature basta non monitorarle :D Comuqneu anche da me una scheda è più calda dell'altra, è normale in quanto deve generare l'output video.

Per Crysis 64bit, c'era questo problema con le prime versioni di driver, se non erro bisognava disattivare il vsync dal pannello di controllo Nvidia (ed eventualmente attivarlo nel gioco, è stato introdotto con la patch 1.1).

Bic67
07-03-2008, 15:11
Sai Blade prenderò molto sul serio il tuo consiglio.... mi sa che disinstallo tutto quello che riguarda il monitoraggio temperature. Va te se uno come me che non fa nemmeno overclock con il PC deve avere la vita (pardon l'utilizzo) condizionato dalle temperature :D :D :D

Affa anche le temperature;) ;) :p :p

Comunque grazie delle tue risposte sempre celeri e chiare.

Ciao buon weekend e ci si sente al prossimo queisito.

sslazio
09-03-2008, 15:59
allora blade dopo un po' di vicessitudini che non sto qui a raccontarti ho reinstallato vista 64, le varie patch di vista, i drivers beta 169.44 prelevati dal sito nvidia perchè consigliati per giocare a crysis patchato con la 1.2.
Lo sli finalmente funziona che è una meraviglia e gioco molto bene a crysis 1.2 a 1600x1050 tutto al massimo ma senza aa tanto è comunque un gran bel vedere.
con ntune ho anche selezionato la frequenza delle gpu a 650 e delle vertex o come si chiamano a 1600, non ho voluto esagerare.
Unico appunto è che se non apro il pannello laterale del case ogni tanto noto che il gioco rallenta moltissimo per poi riprendere a fluidità,evidentemente con l'innalzamento delle temperature del case entrano in una sorta di rallentamento le schede video.
tolto il pannello invece dopo pochi secondi una meraviglia e posso giocare sempre fluidamente, ma è una rottura di balle il rumore nonchè il doverlo aprire.
ma c'è una qualche impostazione che posso mettere per evitare quel difetto?
noto che la prima gpu da solo da default sta già a temperature altissime 84 gradi mentre la seconda si assesta a 73 non è troppo?
eppure il case è un ottimo colermaster con ben due ventoloni enormi avanti e dietro, tutto forellato e la cpu ha una torre enorme di raffreddamento anch'essa con una ventola gigantesca.
comunque lo fa solo con crysis quel lavoro mentre con gow e dark messiah non lo fa.

blade9722
09-03-2008, 16:20
allora blade dopo un po' di vicessitudini che non sto qui a raccontarti ho reinstallato vista 64, le varie patch di vista, i drivers beta 169.44 prelevati dal sito nvidia perchè consigliati per giocare a crysis patchato con la 1.2.
Lo sli finalmente funziona che è una meraviglia e gioco molto bene a crysis 1.2 a 1600x1050 tutto al massimo ma senza aa tanto è comunque un gran bel vedere.
con ntune ho anche selezionato la frequenza delle gpu a 650 e delle vertex o come si chiamano a 1600, non ho voluto esagerare.
Unico appunto è che se non apro il pannello laterale del case ogni tanto noto che il gioco rallenta moltissimo per poi riprendere a fluidità,evidentemente con l'innalzamento delle temperature del case entrano in una sorta di rallentamento le schede video.
tolto il pannello invece dopo pochi secondi una meraviglia e posso giocare sempre fluidamente, ma è una rottura di balle il rumore nonchè il doverlo aprire.
ma c'è una qualche impostazione che posso mettere per evitare quel difetto?
noto che la prima gpu da solo da default sta già a temperature altissime 84 gradi mentre la seconda si assesta a 73 non è troppo?
eppure il case è un ottimo colermaster con ben due ventoloni enormi avanti e dietro, tutto forellato e la cpu ha una torre enorme di raffreddamento anch'essa con una ventola gigantesca.
comunque lo fa solo con crysis quel lavoro mentre con gow e dark messiah non lo fa.


Mmmmh, io questa estate sopno arrivato a 103C (prova di stress con il condizionatore spento) e non ho avuto di questi problemi. In compenso, se hai messo il core a 650, ed hai un G80, ti posso confermare che l'eccessivo overclock fa questo scherzo. Prova per un po' il sistema con le schede a default.

EDIT: come non detto, hai una coppia di G92, 650Mhz non sono tantissimi. Comunque ti riconfermo: per un po' gira con il case chiuso e le schede a default.

Comuqnue, se posti il risultato dello script dio benchmark che ti avevo detto, con SLI attivato e disattivato, possiamo verificare che tutto sia a posto.

blade9722
10-03-2008, 08:58
Riprendo dall'altro thread

Sslazio, puoi dire esattamente il modello del case?

sslazio
10-03-2008, 09:49
Riprendo dall'altro thread

Sslazio, puoi dire esattamente il modello del case?



http://www.breakpoint.it/foto//16/64/4/1664402_m0.jpg


http://lib.store.yahoo.net/lib/directron/RC-632-SSN1-GP02.jpg

http://lib.store.yahoo.net/lib/directron/RC-632-SSN1-GP01.jpg
Cooler Master Mistique 632 Lite

sslazio
10-03-2008, 10:22
http://www.breakpoint.it/foto//16/64/4/1664402_m0.jpg

Cooler Master Mistique 632 Lite

dimenticavo, ho notato che:

1: il rallentamento avviene in concomitanza dell'aumento della ventola al 100% di rotazione e quando parte al 100% dura 2 secondi e torna alla normalità, per poi ripartire di nuovo dopo 5 secondi;

2 - di default le ventole sono settate al 29%, ho aumentato a 50% ed il problema sembra non essersi ripresentato ma ero a case semi-aperto, presumo che a case chiuso la cosa si riverifichi subito;

3- provo a comprare una ventola da 12 da mettere sopra le schede video, così dovrei risolvere ma ammazza quanto scaldano, ho visto su hwupgrade che anche a loro danno 97 gradi queste maledette 8800gt singleslot quindi credo sia normale che io avendone due arrivo a 104, devo buttargli aria sopra.

blade9722
10-03-2008, 10:38
dimenticavo, ho notato che:

1: il rallentamento avviene in concomitanza dell'aumento della ventola al 100% di rotazione e quando parte al 100% dura 2 secondi e torna alla normalità, per poi ripartire di nuovo dopo 5 secondi;

2 - di default le ventole sono settate al 29%, ho aumentato a 50% ed il problema sembra non essersi ripresentato ma ero a case semi-aperto, presumo che a case chiuso la cosa si riverifichi subito;

3- provo a comprare una ventola da 12 da mettere sopra le schede video, così dovrei risolvere ma ammazza quanto scaldano, ho visto su hwupgrade che anche a loro danno 97 gradi queste maledette 8800gt singleslot quindi credo sia normale che io avendone due arrivo a 104, devo buttargli aria sopra.

Ok, innanzitutto come case non è grandissimo, comunque, anche se nel manuale non è menzionato, dalle immagini appare evidente come lateralmente ci sia lo spazio per montare una ventola (parlo della parte forellata quadrangolare, quella esagonale dovrebbe essere uno sfogo per il dissy della CPU). Alcuni consigli:

- prendi la misura di quale sia la ventola compatibile, basta misurare le dimesioni della parte forata. Ad occhio ci puoi mettere una 80mm, massimo 92mm, ma dubito una 120mm (se l'immagine è corretta...)
- Nella scelta della ventola, "silent" in generale implica "poco flusso d'aria", a meno di non spendere una caterva di soldi.

P.S. nel thread dedicato alle prestazioni delle CPU, ti ho richiesto i test di efficienza multi-core...

sslazio
10-03-2008, 10:46
Ok, innanzitutto come case non è grandissimo, comunque, anche se nel manuale non è menzionato, dalle immagini appare evidente come lateralmente ci sia lo spazio per montare una ventola (parlo della parte forellata quadrangolare, quella esagonale dovrebbe essere uno sfogo per il dissy della CPU). Alcuni consigli:

- prendi la misura di quale sia la ventola compatibile, basta misurare le dimesioni della parte forata. Ad occhio ci puoi mettere una 80mm, massimo 92mm, ma dubito una 120mm (se l'immagine è corretta...)
- Nella scelta della ventola, "silent" in generale implica "poco flusso d'aria", a meno di non spendere una caterva di soldi.

P.S. nel thread dedicato alle prestazioni delle CPU, ti ho richiesto i test di efficienza multi-core...

si l'ho visto prima ma sono in ufficio ora :(

hai ragione, credo che massimo ci vada una 8x8 ma dubito che con una ventola del genere gli riesco a fare anche solo il solletico.
mi sa che mi devo armare di trapano e fargli io una grata da 12

blade9722
10-03-2008, 10:56
si l'ho visto prima ma sono in ufficio ora :(

hai ragione, credo che massimo ci vada una 8x8 ma dubito che con una ventola del genere gli riesco a fare anche solo il solletico.
mi sa che mi devo armare di trapano e fargli io una grata da 12

Beh, dipende,

questa:

http://www.drako.it/drako_catalog/product_info.php?cPath=57_82&products_id=2222

Al massimo butta tantissima aria, ma fa rumore come un aviogetto in fase di rullaggio.
Però è termocontrollata, e potrebbe fare al caso tuo...oltre ad avere anche la solita regolazione tramite resistenza variabile.

A titolo informativo, questo è il mio case:

http://www.chieftec.com/ba-01b-b-b.html

sslazio
10-03-2008, 11:02
Beh, dipende,

questa:

http://www.drako.it/drako_catalog/product_info.php?cPath=57_82&products_id=2222

Al massimo butta tantissima aria, ma fa rumore come un aviogetto in fase di rullaggio.
Però è termocontrollata, e potrebbe fare al caso tuo...oltre ad avere anche la solita regolazione tramite resistenza variabile.

ho un termoregolatore a casa ed una 8x8 di quelle che mettono nei vecchi alimentatori, che dici se ci metto quella non è uguale?


'azz che bel case complimenti! ma io non saprei dove metterlo, già quello che ho è enorme per la mia stanzetta.
comunque mi sembra di vedere che a parte il piano in più in sostanza è identico al mio ma hanno giustamente concepito due paratie di fori sopra le schede video e hanno già messo un sistema di raffreddamento per lo sli, molto interessante e molto bello.

blade9722
10-03-2008, 11:04
ho un termoregolatore a casa ed una 8x8 di quelle che mettono nei vecchi alimentatori, che dici se ci metto quella non è uguale?

Prova....le 8x8 dei vecchi alimentatori spesso fanno tanto rumore e un discreto flusso, tieni presente che se stai giocando l'audio ti copre le ventole.

Lunatech
11-03-2008, 00:52
Caro Blade,

dopo vari esperimenti, sono tornato per fornirti un nuovo indizio sul malfunzionamento. Ho tolto il ponte dello SLI tra le due 8800 e le immagini finalmente sono diventate normali. Ora la domanda del giorno: è il cavo ad essere scrauso o una delle due schede ha i connettori andati?

...

Problema risolto in notturna: quel maiale di un cavo della Asus non tocca bene i contatti SLI di queste 8800GTS. Dopo un paio di smanettamenti finalmente si è arreso alle mia insistenza (almeno per il momento).. ..ora pare funzionare.

sslazio
11-03-2008, 12:25
Prova....le 8x8 dei vecchi alimentatori spesso fanno tanto rumore e un discreto flusso, tieni presente che se stai giocando l'audio ti copre le ventole.

non ho purtroppo avuto tempo di fare nulla, ho solo riscontrato che i forellini sul case sono una via di mezzo tra la ventola da 8 e quella da 12 quindi devo trovare una ventola da 10 cm

blade9722
11-03-2008, 13:19
non ho purtroppo avuto tempo di fare nulla, ho solo riscontrato che i forellini sul case sono una via di mezzo tra la ventola da 8 e quella da 12 quindi devo trovare una ventola da 10 cm

10cm non é standard, probabilmente é da 92mm.

sslazio
11-03-2008, 14:39
si è vero ho visto sul sito che avevi linkato che esistono da 92
che dici basterà per freddare i bollenti spiriti delle due accaldate?
in aggiunta ci metterei anche la 8x8 in estrazione usando i due slot vuoti tra le due schede così da togliere aria calda stagnante in quel punto

ippo.g
11-03-2008, 22:33
No, a pieno carico ognuna porta via 6A dal connettore P6 e altrettanti dallo slot. Puoi fare come me e montare l'alimentatore aggiuntivo della Thermaltake.

purtroppo, pare sia introvabile, dici che con questo ce la faccio, posso fidarmi di LC Power?

http://img257.imageshack.us/img257/8878/immaginedf3.jpg (http://imageshack.us)

blade9722
11-03-2008, 22:41
Caro Blade,

dopo vari esperimenti, sono tornato per fornirti un nuovo indizio sul malfunzionamento. Ho tolto il ponte dello SLI tra le due 8800 e le immagini finalmente sono diventate normali. Ora la domanda del giorno: è il cavo ad essere scrauso o una delle due schede ha i connettori andati?

...

Problema risolto in notturna: quel maiale di un cavo della Asus non tocca bene i contatti SLI di queste 8800GTS. Dopo un paio di smanettamenti finalmente si è arreso alle mia insistenza (almeno per il momento).. ..ora pare funzionare.


Il bridge SLI serve per trasferire il contenuto dei frame buffer dalla scheda slave a quella master, se ci fosse stato un falso contatto il comportamento che hai descritto decisamente plausibile. Rimuovendo il bridge i dati devono passare attraverso gli slot PCI-e (con conseguente intasamento della banda), per questo non vedevi più problemi.

Bene, vedo che alla fine hai trovato il bandolo della matassa.

blade9722
11-03-2008, 22:47
purtroppo, pare sia introvabile, dici che con questo ce la faccio, posso fidarmi di LC Power?

http://img257.imageshack.us/img257/8878/immaginedf3.jpg (http://imageshack.us)

Posto che a me non garbano gli LC in quanto dichiarano solo le potenze e le correnti di picco, ma non quelle statiche e soprattutto la ripartizione, direi che va benissimo, addirittura sovrabbondante.

P.S. il mio thermaltake lo tengo ben stretto.... è comodissimo.

ippo.g
11-03-2008, 23:02
Posto che a me non garbano gli LC in quanto dichiarano solo le potenze e le correnti di picco, ma non quelle statiche e soprattutto la ripartizione, direi che va benissimo, addirittura sovrabbondante.

P.S. il mio thermaltake lo tengo ben stretto.... è comodissimo.

grazie, è che lo pagherei 99 euro :stordita:
avevo comprato due anni fa l'Enermax Liberty 620W a 160 euro, ma ha fatto il botto, nel senso letterale del termine, mentre giocavo a Painkiller :muro:
il Thermaltake di 250W che hai tu non si trova più, al suo posto uscirà una nuova versione più potente, ma prima di maggio non sarà disponibile.

blade9722
12-03-2008, 10:39
grazie, è che lo pagherei 99 euro :stordita:
avevo comprato due anni fa l'Enermax Liberty 620W a 160 euro, ma ha fatto il botto, nel senso letterale del termine, mentre giocavo a Painkiller :muro:
il Thermaltake di 250W che hai tu non si trova più, al suo posto uscirà una nuova versione più potente, ma prima di maggio non sarà disponibile.

Perché non ti sei fatto sostituire l'Enermax in RMA?

ippo.g
12-03-2008, 11:15
Perché non ti sei fatto sostituire l'Enermax in RMA?

perché non ho più trovato lo scontrino, e poi mi sono troppo spaventato

blade9722
12-03-2008, 17:51
perché non ho più trovato lo scontrino, e poi mi sono troppo spaventato

Peccato per lo scontrino, mentre se con ti sei "spaventato" intendevi dire che non ti fidavi piú di quel modello, sarebbe comunque valsa la pena farselo sostituire e rivenderlo.

A quella cifra, io non comprerei l'LC. Prenderei piuttosto il Corsair o il Cooler Master modulare, hanno un canale in meno ma sono piú curati e maneggevoli, grazie alla modularitá.

ippo.g
12-03-2008, 18:50
Peccato per lo scontrino, mentre se con ti sei "spaventato" intendevi dire che non ti fidavi piú di quel modello, sarebbe comunque valsa la pena farselo sostituire e rivenderlo.

A quella cifra, io non comprerei l'LC. Prenderei piuttosto il Corsair o il Cooler Master modulare, hanno un canale in meno ma sono piú curati e maneggevoli, grazie alla modularitá.

alla fine ho preso l'Hyperion LC Power 700W, anch'esso è modulare ed ha connettori vari compreso gli 8 pin per mobo e PCI-EX ad 8 pin
per il momento funziona.
per quanto riguarda L'enermax, mi son proprio ca..to sotto: un botto tremendo mentre giocavo a Painkiller

blade9722
12-03-2008, 22:55
alla fine ho preso l'Hyperion LC Power 700W, anch'esso è modulare ed ha connettori vari compreso gli 8 pin per mobo e PCI-EX ad 8 pin
per il momento funziona.
per quanto riguarda L'enermax, mi son proprio ca..to sotto: un botto tremendo mentre giocavo a Painkiller

Se è modulare allora è un buon acquisto.

ippo.g
12-03-2008, 23:12
Se è modulare allora è un buon acquisto.

si esteticamente è orribile però ora posso persino registrare i filmati in game di Paradise Lost per il 3d di Ghiltanas;
ecco qualche particolare

http://img527.imageshack.us/img527/669/dscn7558zj7.jpg
(http://imageshack.us)http://img521.imageshack.us/img521/6042/dscn7559lg8.jpg (http://imageshack.us)
http://img521.imageshack.us/img521/3795/dscn7560as6.jpg
(http://imageshack.us)http://img527.imageshack.us/img527/9308/dscn7561jl7.jpg (http://imageshack.us)

blade9722
13-03-2008, 07:38
[QUOTE=ippo.g;21536709]si esteticamente è orribile però ora posso persino registrare i filmati in game di Paradise Lost per il 3d di Ghiltanas;
ecco qualche particolare


Carina la farfallina,

mi fai un resize dell'immagine, oppure usi un thumbnail, per favore?

sslazio
13-03-2008, 22:25
blade ho risolto.
non solo ho lo sli che funziona ed è tutto perfettamente giusto come dicevi te, ma ho anche le temperature calmate.
è bastata la ventola 92mm che va para para sul pannello laterale ed una ventolina piccola negli slot vuoti tra le due vga che aiuta a far uscire l'aria calda.
sono passat da:

vga 1: 104c di picco massimo
vga 2: 94c di picco massimo

a

vga 1: 79c di picco massimo;
vga 2: 69c di picco massimo.

direi non male.

per altro la cpu mi è passato da 40-43c in idle a 37, bhò, magie del vento.

grazie ancora ;)

blade9722
13-03-2008, 22:38
OK, ottimo ;)

Nel week-end per cortesia non è che mi faresti i test per l'altro thread. Quelli con Crysis (sia quelli standard che quelli di efficienza multi-core), e se hai sottomano la demo, quelli con Lost Planet (interessanti perchè l'engine sembra avere una ottima implementazione multi-core).

La modalità di test è descritta nel thread, attento con la patch 1.2 di Crysis perchè il tasto "cambia tutte le opzioni" non cambia i dettagli degli oggetti.

sslazio
13-03-2008, 23:04
OK, ottimo ;)

Nel week-end per cortesia non è che mi faresti i test per l'altro thread. Quelli con Crysis (sia quelli standard che quelli di efficienza multi-core), e se hai sottomano la demo, quelli con Lost Planet (interessanti perchè l'engine sembra avere una ottima implementazione multi-core).

La modalità di test è descritta nel thread, attento con la patch 1.2 di Crysis perchè il tasto "cambia tutte le opzioni" non cambia i dettagli degli oggetti.

si magari ricordamelo con un pvt sabato che sto sempre rimbambito dalle cose che devo fare ;)

comunque ti devo rifare anche quelli dell'altra volta perchè ora non ho più gli strattoni da protezione che avevo prima

blade9722
13-03-2008, 23:11
si magari ricordamelo con un pvt sabato che sto sempre rimbambito dalle cose che devo fare ;)

comunque ti devo rifare anche quelli dell'altra volta perchè ora non ho più gli strattoni da protezione che avevo prima

Ovvio, anche perchè se non ricordo male in 1680x1050 ottenevi 20FPS, un po' pochini.

Bic67
15-03-2008, 08:27
Carissimo Blade eccomi qua a chiedere ancora una tua consulenza quindi a rompere le scatole :) :) :) ....

Volevo chiederti sempre se lo sai.... ma non ho dubbi che tu lo possa sapere a che serve la funzione "SLI MEMORY READY" impostabile in alcune schede madri con chipset 680i e superiori. Io ho delle crossair (quelle che vedi in firma) che danno questa possibilità. Vorrei capire quali sono i vantaggi (sempre che ce ne siano..) e sempre se lo sai quali parametri impostare.

Ciao grazie e buon weekend.

blade9722
15-03-2008, 08:30
Carissimo Blade eccomi qua a chiedere ancora una tua consulenza quindi a rompere le scatole :) :) :) ....

Volevo chiederti sempre se lo sai.... ma non ho dubbi che tu lo possa sapere a che serve la funzione "SLI MEMORY READY" impostabile in alcune schede madri con chipset 680i e superiori. Io ho delle crossair (quelle che vedi in firma) che danno questa possibilità. Vorrei capire quali sono i vantaggi (sempre che ce ne siano..) e sempre se lo sai quali parametri impostare.

Ciao grazie e buon weekend.

Una vaccata, se le memorie vengono riconosciute come appartenenti alla categoria, vengono overcloccate in automatico. Tanto vale overcloccarle manualmente.

Bic67
15-03-2008, 08:53
Ok grazie della tua sempre pronta risposta. Dal quello che posso aver capito è inutile che io aumenti le frequenze delle mie RAM visto che sono già abbastanza tirate per conto loro.

Ciao e buona domenica :D :D :D

blade9722
17-03-2008, 23:16
Supporto tecnico per Mister Tarpone.

Riprendo i risultati che hai postato, faccio riferimento all'isola, perchè è lo scenario più frequente:


=================================
Island 800x600 to 1280x1024 Tests
=================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 64.45s, Average FPS: 31.03
Min FPS: 6.96 at frame 143, Max FPS: 49.81 at frame 1611
Average Tri/Sec: 31505862, Tri/Frame: 1015205
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 54.25s, Average FPS: 36.87
Min FPS: 6.96 at frame 143, Max FPS: 51.31 at frame 1649
Average Tri/Sec: 37830312, Tri/Frame: 1026054
Recorded/Played Tris ratio: 0.89
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 63.67s, Average FPS: 31.41
Min FPS: 10.77 at frame 149, Max FPS: 48.42 at frame 982
Average Tri/Sec: 31884328, Tri/Frame: 1015029
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 54.91s, Average FPS: 36.42
Min FPS: 10.77 at frame 149, Max FPS: 50.98 at frame 78
Average Tri/Sec: 37395332, Tri/Frame: 1026732
Recorded/Played Tris ratio: 0.89
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 68.17s, Average FPS: 29.34
Min FPS: 11.70 at frame 138, Max FPS: 37.36 at frame 963
Average Tri/Sec: 29670956, Tri/Frame: 1011309
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 60.28s, Average FPS: 33.18
Min FPS: 11.70 at frame 138, Max FPS: 40.52 at frame 1005
Average Tri/Sec: 33907492, Tri/Frame: 1022009
Recorded/Played Tris ratio: 0.90
TimeDemo Play Ended, (2 Runs Performed)



Mi chiedi se sei CPU limited:
non completamente... ma abbastanza: la tua CPU ti limita a 36.87 FPS, se noti ottieni lo stesso risultato in 800x600 e in 1024x768. In 1280x1024 perdi poco più di 3FPS, segno che non sei più completamente CPU limited, ma hai un buon bilanciamento con la GPU.

Osserva invece i miei risultati con la scheda singola in high:


=================================
Island 800x600 to 1600x1200 Tests
=================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 41.53s, Average FPS: 48.16
Min FPS: 30.73 at frame 1959, Max FPS: 65.16 at frame 1607
Average Tri/Sec: 48874588, Tri/Frame: 1014906
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 37.92s, Average FPS: 52.74
Min FPS: 30.73 at frame 1959, Max FPS: 72.78 at frame 72
Average Tri/Sec: 54130096, Tri/Frame: 1026318
Recorded/Played Tris ratio: 0.89
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 43.95s, Average FPS: 45.51
Min FPS: 29.97 at frame 1950, Max FPS: 60.97 at frame 1013
Average Tri/Sec: 46208812, Tri/Frame: 1015408
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 40.18s, Average FPS: 49.77
Min FPS: 29.97 at frame 1950, Max FPS: 63.84 at frame 111
Average Tri/Sec: 51113712, Tri/Frame: 1026899
Recorded/Played Tris ratio: 0.89
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 57.87s, Average FPS: 34.56
Min FPS: 27.71 at frame 1949, Max FPS: 42.63 at frame 987
Average Tri/Sec: 34964084, Tri/Frame: 1011725
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 55.59s, Average FPS: 35.98
Min FPS: 27.71 at frame 1949, Max FPS: 42.88 at frame 994
Average Tri/Sec: 36762656, Tri/Frame: 1021880
Recorded/Played Tris ratio: 0.90
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 78.02s, Average FPS: 25.63
Min FPS: 20.49 at frame 1946, Max FPS: 30.24 at frame 1009
Average Tri/Sec: -27178010, Tri/Frame: -1060198
Recorded/Played Tris ratio: -0.86
!TimeDemo Run 1 Finished.
Play Time: 75.07s, Average FPS: 26.64
Min FPS: 20.40 at frame 1951, Max FPS: 30.81 at frame 991
Average Tri/Sec: -27965096, Tri/Frame: -1049671
Recorded/Played Tris ratio: -0.87
TimeDemo Play Ended, (2 Runs Performed)
==============================================================




Io parto da una CPU che mi assicura un 45% in più!!! Noti come nel passaggio da 1024x768 a 1280x1024 io abbia un netto calo di FPS. Significa che in 1280x1024 sono quasi completamente GPU limited.

Se hai un attimo di pazienza ti mostro cosa succede quando attivo l'SLI

Mister Tarpone
17-03-2008, 23:19
blade ma proprio non ti è possibile vedere di fare sto test @ 2.4ghz.....

eddaiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiii

ah!! cmq con cpu @ 2.7ghz ho fatto 34.15 @ 1280x.... . . . ... . .. . . . secondo te con cpu @ 3.4 ci arriverei pure io a 35 e passa fps??

edit:

ma quindi te saresti cpu limited a singola scheda nonostante la cpu @ 3.4ghz?? :confused:

blade9722
17-03-2008, 23:38
Non mi stai seguendo troppo, comunque sono CPU limited solo in 800x600 e 1024x768.

Questo è quello che succede con l'SLI attivato:


=================================
Island 800x600 to 1600x1200 Tests
=================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 47.82s, Average FPS: 41.83
Min FPS: 27.70 at frame 1957, Max FPS: 59.36 at frame 1638
Average Tri/Sec: -36701260, Tri/Frame: -877440
Recorded/Played Tris ratio: -1.04
!TimeDemo Run 1 Finished.
Play Time: 41.83s, Average FPS: 47.81
Min FPS: 27.70 at frame 1957, Max FPS: 65.46 at frame 123
Average Tri/Sec: -41886748, Tri/Frame: -876103
Recorded/Played Tris ratio: -1.05
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 46.04s, Average FPS: 43.44
Min FPS: 27.80 at frame 1958, Max FPS: 62.63 at frame 1634
Average Tri/Sec: -38094932, Tri/Frame: -876875
Recorded/Played Tris ratio: -1.05
!TimeDemo Run 1 Finished.
Play Time: 41.47s, Average FPS: 48.23
Min FPS: 27.80 at frame 1958, Max FPS: 65.96 at frame 125
Average Tri/Sec: -42241120, Tri/Frame: -875834
Recorded/Played Tris ratio: -1.05
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 45.19s, Average FPS: 44.26
Min FPS: 27.68 at frame 1957, Max FPS: 60.14 at frame 1012
Average Tri/Sec: -39066320, Tri/Frame: -882689
Recorded/Played Tris ratio: -1.04
!TimeDemo Run 1 Finished.
Play Time: 41.42s, Average FPS: 48.28
Min FPS: 27.68 at frame 1957, Max FPS: 66.20 at frame 127
Average Tri/Sec: -42571708, Tri/Frame: -881765
Recorded/Played Tris ratio: -1.04
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 49.99s, Average FPS: 40.01
Min FPS: 29.27 at frame 1971, Max FPS: 52.81 at frame 1009
Average Tri/Sec: -32210208, Tri/Frame: -805084
Recorded/Played Tris ratio: -1.14
!TimeDemo Run 1 Finished.
Play Time: 45.29s, Average FPS: 44.16
Min FPS: 29.27 at frame 1971, Max FPS: 54.50 at frame 66
Average Tri/Sec: -35491504, Tri/Frame: -803760
Recorded/Played Tris ratio: -1.14
TimeDemo Play Ended, (2 Runs Performed)
==============================================================



Come vedi, sono CPU limited a tutte le risoluzioni, solo in 1600x1200 perdo un pochino. Se noti, però a bassa risoluzione ho perso il 10%.

Nel tuo caso, ti ritroveresti piatto intorno ai 33FPS.

Comunque , faccio il test con l'SLI attivato a 2.4GHz.

Mister Tarpone
17-03-2008, 23:44
Non mi stai seguendo troppo, comunque sono CPU limited solo in 800x600 e 1024x768.

Questo è quello che succede con l'SLI attivato:



Come vedi, sono CPU limited a tutte le risoluzioni, solo in 1600x1200 perdo un pochino. Se noti, però a bassa risoluzione ho perso il 10%.

Nel tuo caso, ti ritroveresti piatto intorno ai 33FPS.

Comunque , faccio il test con l'SLI attivato a 2.4GHz.

e ma mi interessava anche a scheda singola con cpu @ 2,4ghz :stordita: ;)

qui si vede benissimo che sei cpu limited. i fps come hai detto te fino a 1280x sono uguali ;)
nel mio caso invece sono cpu limited fino a 1024x ;) visto che ho gli stessi fps di 800x600...
ed a 1280x la situazione migliora perchè inizio a perdere 3 fps...

ovviamente se avessi le impo very high imho non sarei per niente cpu limited... credo neanche a 1024x768...con sv singola... ;)

ippo.g
17-03-2008, 23:49
e ma mi interessava anche a scheda singola con cpu @ 2,4ghz :stordita: ;)

qui si vede benissimo che sei cpu limited. i fps come hai detto te fino a 1280x sono uguali ;)
nel mio caso invece sono cpu limited fino a 1024x ;) visto che ho gli stessi fps di 800x600...
ed a 1280x la situazione migliora perchè inizio a perdere 3 fps...

ovviamente se avessi le impo very high imho non sarei per niente cpu limited... credo neanche a 1024x768...con sv singola... ;)

per curiosità non puoi farli?

Mister Tarpone
17-03-2008, 23:52
per curiosità non puoi farli?

te potresti fare un test con scheda singola in dx9 a 1280x1024 tutto high ???


cmq ci provo a farlo anche in very high.. ;)

blade9722
17-03-2008, 23:56
e ma mi interessava anche a scheda singola con cpu @ 2,4ghz :stordita: ;)

qui si vede benissimo che sei cpu limited. i fps come hai detto te fino a 1280x sono uguali ;)
nel mio caso invece sono cpu limited fino a 1024x ;) visto che ho gli stessi fps di 800x600...
ed a 1280x la situazione migliora perchè inizio a perdere 3 fps...

ovviamente se avessi le impo very high imho non sarei per niente cpu limited... credo neanche a 1024x768...con sv singola... ;)

Allora, ti ho fatto i test in SLi a 2.4GHz:


=================================
Island 800x600 to 1600x1200 Tests
=================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 66.44s, Average FPS: 30.10
Min FPS: 18.27 at frame 1944, Max FPS: 42.65 at frame 1655
Average Tri/Sec: -26422566, Tri/Frame: -877750
Recorded/Played Tris ratio: -1.04
!TimeDemo Run 1 Finished.
Play Time: 60.25s, Average FPS: 33.20
Min FPS: 18.27 at frame 1944, Max FPS: 46.64 at frame 81
Average Tri/Sec: -29055020, Tri/Frame: -875239
Recorded/Played Tris ratio: -1.05
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 66.45s, Average FPS: 30.10
Min FPS: 18.25 at frame 1945, Max FPS: 42.86 at frame 1654
Average Tri/Sec: -26410610, Tri/Frame: -877427
Recorded/Played Tris ratio: -1.04
!TimeDemo Run 1 Finished.
Play Time: 59.95s, Average FPS: 33.36
Min FPS: 18.25 at frame 1945, Max FPS: 47.59 at frame 84
Average Tri/Sec: -29230924, Tri/Frame: -876229
Recorded/Played Tris ratio: -1.05
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 64.78s, Average FPS: 30.88
Min FPS: 18.99 at frame 1959, Max FPS: 43.99 at frame 1760
Average Tri/Sec: -27253156, Tri/Frame: -882668
Recorded/Played Tris ratio: -1.04
!TimeDemo Run 1 Finished.
Play Time: 59.35s, Average FPS: 33.70
Min FPS: 18.99 at frame 1959, Max FPS: 49.87 at frame 68
Average Tri/Sec: -29718964, Tri/Frame: -881965
Recorded/Played Tris ratio: -1.04
TimeDemo Play Ended, (2 Runs Performed)
==============================================================
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 67.85s, Average FPS: 29.48
Min FPS: 18.02 at frame 1942, Max FPS: 42.66 at frame 1647
Average Tri/Sec: -23726872, Tri/Frame: -804897
Recorded/Played Tris ratio: -1.14
!TimeDemo Run 1 Finished.
Play Time: 61.32s, Average FPS: 32.62
Min FPS: 18.02 at frame 1942, Max FPS: 48.29 at frame 73
Average Tri/Sec: -26227024, Tri/Frame: -804086
Recorded/Played Tris ratio: -1.14
TimeDemo Play Ended, (2 Runs Performed)
==============================================================



Belli piatti a 33FPS....

Dei test a 2.4GHz con GPU singola non capisco cosa te ne faccia, sembra quasi che sei turbato da quei 2FPS in più che faccio io in 1280x1024.