PDA

View Full Version : Galaxy e Leadtek: due GeForce 6600 GT spinte


Redazione di Hardware Upg
14-06-2005, 14:23
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1306/index.html

Alla vigilia della futura generazione di processori grafici NVIDIA, le aziende Galaxy e Leadtek presentano due nuovi prodotti basati sul processore grafico GeForce 6600 GT, contraddistinti da frequenze di funzionamento fuori specifica e funzionalità innovative

Click sul link per visualizzare l'articolo.

Mazzulatore
14-06-2005, 14:48
Vado al supermercato a comprarmi una passata di rendering ;)
Sto aspettando con molta impazienza una scheda nvidia con dissi passivo, che non sia la 6200 o la 5200.

ultimate_sayan
14-06-2005, 14:50
La fascia media del mercato delle schede video sta tornando in mano ad nVidia... è importante che appaiono sul mercato prodotti così convincenti a costi "umani"... la 9500Pro fu strepitosa proprio per questo... non capisco come mai ATI non abbia voluto ripetersi...
In ogni modo che due schede le vedo bene in un sistema SLI... con € 400 (cifra non bassa in assoluto ma se consideriamo il fatto che a quella cifra in Italia non si prendono soluzioni di fascia alta) ci si fa un bel sistema gaming senza doversi svenare...
Saluti

lepre84
14-06-2005, 14:58
secondo me è sempre meglio una 6800gt a 250€ che 2 6600gt :)
per tutti i problemi che ne derivano (driver, calore, corrente, mobo sli etc)

meridio
14-06-2005, 15:07
qualcuno mi linkerebbe uno shop online dove trovare questa galaxy? ho cercato ma non ho trovato nulla, non questa versione almeno

dwfgerw
14-06-2005, 15:21
se vi guardate intorno a meno di 400 ci sono soluzioni interessanti, a 350€ prendi una 6800GT e 250€ una X800Pro Sapphire.

nonikname
14-06-2005, 17:48
1° : Mi sto ancora chiedendo (dall'articolo :" Roadmap ATI Catalyst 5.6 - 5.8 (http://www.hwupgrade.it/articoli/skvideo/1303/1.html)" ) come mai una 6800gt , nel bench dei pixel Shaders di 3Dmark2K5 , sia più lenta della Leadtek WinFast PX6600 GT....

E' solo un fotomontaggio (http://img191.echo.cx/img191/7789/68vs668sg.jpg) che ho fatto per rendere l'idea , ma i dati sono di HWupgrade!! :read:
A questo punto mi chiedo se il problema siano i forceware che usate di solito....
La mia 6800GT , nei Pixel shaders (http://img208.echo.cx/img208/3262/immagine8jr.jpg ) , supera i 137fps e l'unica differenza sono i 71.89 sul mio sistema , mentre sul vostro ci sono i 71.84 ! :mbe: ( oltre al Winny3500+ al posto del vostro 4000+ )

2° : Sarebbe interessante anche sapere la versione dei driver per l'nFORCE4 della vostra A8N-SLI deluxe ... non ho trovato nulla neanche nei precedenti articoli che usano la stessa configurazione di Test (http://img7.echo.cx/img7/8943/conftest0ra.jpg)... :what:

3° : L'articolo è ben fatto ( ormai ci avete abituati a standard molto elevati ) , ma penso di poter parlare per molti dicendo che una comparativa fra Forceware sarebbe molto gradita : fra beta , semiufficiali , WHQL e release , un articolo del genere riordinerebbe le idee ai neofiti e fungerebbe da guida agli "smanettoni"...
Spunti interessanti , oltre alle performance pure , sono pressochè infiniti : basta pensare alle versioni con rilevazione errata della temp. , l'acqua gialla in HalfLife 2 o le ombre nel demo di Battlefield2 , con annessa release (77.30 , direttamente "embedded" nel demo ) che corregge tale bug !!!
Per dovere di cronaca , l'articolo su Guru3D (http://www.guru3d.com/article/content/170/) : "ForceWare 61.77-71.20 Performance Comparison" è stato quello più letto di quest'anno .. e pensare che siamo già alla release 77.50 ;)

norp74
14-06-2005, 17:54
Vado al supermercato a comprarmi una passata di rendering ;)
Sto aspettando con molta impazienza una scheda nvidia con dissi passivo, che non sia la 6200 o la 5200.

guarda che 6600, 6600gt e 6800 con dissi passivo esistono eccome
tipo la gigabyte GV-NX66256DP o GV-NX66T128VP

Vifani
14-06-2005, 18:11
1° : Mi sto ancora chiedendo (dall'articolo :" Roadmap ATI Catalyst 5.6 - 5.8 (http://www.hwupgrade.it/articoli/skvideo/1303/1.html)" ) come mai una 6800gt , nel bench dei pixel Shaders di 3Dmark2K5 , sia più lenta della Leadtek WinFast PX6600 GT....

E' solo un fotomontaggio (http://img191.echo.cx/img191/7789/68vs668sg.jpg) che ho fatto per rendere l'idea , ma i dati sono di HWupgrade!! :read:
A questo punto mi chiedo se il problema siano i forceware che usate di solito....
La mia 6800GT , nei Pixel shaders (http://img208.echo.cx/img208/3262/immagine8jr.jpg ) , supera i 137fps e l'unica differenza sono i 71.89 sul mio sistema , mentre sul vostro ci sono i 71.84 ! :mbe: ( oltre al Winny3500+ al posto del vostro 4000+ )

2° : Sarebbe interessante anche sapere la versione dei driver per l'nFORCE4 della vostra A8N-SLI deluxe ... non ho trovato nulla neanche nei precedenti articoli che usano la stessa configurazione di Test (http://img7.echo.cx/img7/8943/conftest0ra.jpg)... :what:

3° : L'articolo è ben fatto ( ormai ci avete abituati a standard molto elevati ) , ma penso di poter parlare per molti dicendo che una comparativa fra Forceware sarebbe molto gradita : fra beta , semiufficiali , WHQL e release , un articolo del genere riordinerebbe le idee ai neofiti e fungerebbe da guida agli "smanettoni"...
Spunti interessanti , oltre alle performance pure , sono pressochè infiniti : basta pensare alle versioni con rilevazione errata della temp. , l'acqua gialla in HalfLife 2 o le ombre nel demo di Battlefield2 , con annessa release (77.30 , direttamente "embedded" nel demo ) che corregge tale bug !!!
Per dovere di cronaca , l'articolo su Guru3D (http://www.guru3d.com/article/content/170/) : "ForceWare 61.77-71.20 Performance Comparison" è stato quello più letto di quest'anno .. e pensare che siamo già alla release 77.50 ;)

I driver NFORCE 4 utilizzati sono gli ultimi certificati WHQL disponibili sul sito di NVIDIA: 6.53

La mancanza di un articolo dedicato alle comparative tra le varie revisioni di drivers è dovuto essenzialmente a problemi di tempo. Tra drivers ufficiali, beta e moddati per NVIDIA e ATI, possiamo dire che, nel caso peggiore (pochi update), almeno una volta alla settimana ci sono novità. Considerando la mole di prodotti su cui lavorare, ti assicuro che è assolutamente inconcepibile al momento attuale per noi realizzare un articolo che richiede moltissimo tempo in fase iniziale e richiederebbe moltissimo tempo per essere aggiornato anche solo una volta ogni 15 giorni. In un momento di calma (in termini di arrivo di nuovi prodotti, ecc...) potremmo pensare di realizzare qualcosa di simile.

In ogni caso, a titolo personale, tendo ad evitare di consigliare l'installazione di driver moddati o beta semplicemente perché non direttamente supportati dai produttori e non sottoposti ai test di stabilità e qualità che eseguono ATI, NVIDIA e Microsoft.

I test della GeForce 6800 GT verranno verificati al più presto.

Ginger79
14-06-2005, 19:08
Cmq la Leadtek è una scheda da paura... soprattutto in overclock! Con 209 € ti porti a casa una scheda che fa girare tutto in 1280 e che supporta tutte le ultime tecnologie (PS 3.0 e PureVideo)... davvero ottima.

Io ho il modello AGP e vi assicuro che sono molto soddidfatto dell'acquisto fatto 7 mesi fa. In questo momento la suddetta è @ 585/1150 e va che è un piacere.... soprattutto il PureVideo (che utilizzo per decodificare i canali HDTV di ASTRA e HOTBIRD) è fenomenale.

VOTO: 9

nonikname
14-06-2005, 19:31
I driver NFORCE 4 utilizzati sono gli ultimi certificati WHQL disponibili sul sito di NVIDIA: 6.53
Grazie...

La mancanza di un articolo dedicato alle comparative tra le varie revisioni di drivers è dovuto essenzialmente a problemi di tempo. Tra drivers ufficiali, beta e moddati per NVIDIA e ATI, possiamo dire che, nel caso peggiore (pochi update), almeno una volta alla settimana ci sono novità. Considerando la mole di prodotti su cui lavorare, ti assicuro che è assolutamente inconcepibile al momento attuale per noi realizzare un articolo che richiede moltissimo tempo in fase iniziale e richiederebbe moltissimo tempo per essere aggiornato anche solo una volta ogni 15 giorni. In un momento di calma (in termini di arrivo di nuovi prodotti, ecc...) potremmo pensare di realizzare qualcosa di simile.

Io pensavo più ad un articolo "una Tantum" , con 5-6 release , tutte ufficiali (server ftp nvidia e nZone) con 4 sole schede a rappresentare le varie nicchie di utenza , tipo 5900-6800-6600-6200..
Cmq non intendevo certo mettere fretta a nessuno; io ho solo consigliato l'argomento che più spesso mi sento chiedere in negozio :"quale versione di Forceware devo usare??"

In ogni caso, a titolo personale, tendo ad evitare di consigliare l'installazione di driver moddati o beta semplicemente perché non direttamente supportati dai produttori e non sottoposti ai test di stabilità e qualità che eseguono ATI, NVIDIA e Microsoft.

Questa è la frase perfetta da mettere a fine articolo :D
Naturalmente , in un articolo del genere , il tuo compito sarebbe quello di riportare eclusivamente dei dati che saranno interpretati dai possessori nVIDIA per capire quale versione di driver va meglio con il proprio titolo preferito. ;)

I test della GeForce 6800 GT verranno verificati al più presto.
:sperem:

JohnPetrucci
14-06-2005, 20:58
se vi guardate intorno a meno di 400 ci sono soluzioni interessanti, a 350€ prendi una 6800GT e 250€ una X800Pro Sapphire.
Quoto. ;)

capitan_crasy
14-06-2005, 21:07
La Leadtek WinFast PX6600 GT THD Extreme va come una 6800liscia, bel risultato, comunque mi aspettavo almendo dei dissi sulle memorie e un aspetto meno scarno...

Max Power
15-06-2005, 09:33
Record!!!

Tutti i giochi testati fanno parte del TWIMTBP!!!!! :winner:

Non dimentichiamoci ke le X700 da 128MB partono da 120€, le PRO @ 150€.


P.S.

L'ATI sta spingendo molto sulle soluzioni X700 infatti è stato aperto un sito dedicato: http://www.radeonx700.com

L' X700 liscia, nella sua facia di prezzo, ha il rapporto prezzo/prestazioni migliore.

lepre84
15-06-2005, 10:15
Tutti i giochi testati fanno parte del TWIMTBP!!!!! :winner:

allora proviamo guild wars supported by ati che con ati crasha e con nvidia va liscio? :read:

Cloud76
15-06-2005, 12:15
1° : Mi sto ancora chiedendo (dall'articolo :" Roadmap ATI Catalyst 5.6 - 5.8 (http://www.hwupgrade.it/articoli/skvideo/1303/1.html)" ) come mai una 6800gt , nel bench dei pixel Shaders di 3Dmark2K5 , sia più lenta della Leadtek WinFast PX6600 GT....

E' solo un fotomontaggio (http://img191.echo.cx/img191/7789/68vs668sg.jpg) che ho fatto per rendere l'idea , ma i dati sono di HWupgrade!! :read:
A questo punto mi chiedo se il problema siano i forceware che usate di solito....
La mia 6800GT , nei Pixel shaders (http://img208.echo.cx/img208/3262/immagine8jr.jpg ) , supera i 137fps e l'unica differenza sono i 71.89 sul mio sistema , mentre sul vostro ci sono i 71.84 ! :mbe: ( oltre al Winny3500+ al posto del vostro 4000+ )

2° : Sarebbe interessante anche sapere la versione dei driver per l'nFORCE4 della vostra A8N-SLI deluxe ... non ho trovato nulla neanche nei precedenti articoli che usano la stessa configurazione di Test (http://img7.echo.cx/img7/8943/conftest0ra.jpg)... :what:

3° : L'articolo è ben fatto ( ormai ci avete abituati a standard molto elevati ) , ma penso di poter parlare per molti dicendo che una comparativa fra Forceware sarebbe molto gradita : fra beta , semiufficiali , WHQL e release , un articolo del genere riordinerebbe le idee ai neofiti e fungerebbe da guida agli "smanettoni"...
Spunti interessanti , oltre alle performance pure , sono pressochè infiniti : basta pensare alle versioni con rilevazione errata della temp. , l'acqua gialla in HalfLife 2 o le ombre nel demo di Battlefield2 , con annessa release (77.30 , direttamente "embedded" nel demo ) che corregge tale bug !!!
Per dovere di cronaca , l'articolo su Guru3D (http://www.guru3d.com/article/content/170/) : "ForceWare 61.77-71.20 Performance Comparison" è stato quello più letto di quest'anno .. e pensare che siamo già alla release 77.50 ;)

E come è possibile che una 6800 vada in certi test meno di una 6600GT? Pure con i filtri a volte è sotto e negli altri test non è che ci sia molta differenza...

Se le due GPU sono simili, la 6600 è il fratellino della 6800:

-6600GT è una 8-8-3 con bus memoria a 128 bit (banda 16Gb) e frequenze 500/1000
-6800 è una 12-12-6 con bus memoria a 256 bit (banda 22,4Gb) e frequenze 325/700

A me sembra che arranchi parecchio... possibile? Pensavo facesse un po' meglio...
Saluti!

Lupino.86
15-06-2005, 13:49
Ma queste prestazioni sono SOLO grazie al PCI Express?

Io sono un fan del Socket A e dello slot AGP.... per questo al momento non voglio passare a Socket 939 e al PCI-Ex.

Vifani
15-06-2005, 15:11
Record!!!

Tutti i giochi testati fanno parte del TWIMTBP!!!!! :winner:



TWIMTBP non significa assolutamente nulla. E' solo un marchio pubblicitario che al limite vuole comunicare che è stato eseguito lo sviluppo ed il testing del gioco anche con le schede GeForce in modo da assicurarsi del corretto funzionamento. Del resto, visto il mercato di NVIDIA, dubito che una qualsiasi software house possa sviluppare un gioco senza preoccuparsi di farlo funzionare anche con le schede GeForce, indipendentemente dal bollino magico TWIMTBP.

Vifani
15-06-2005, 15:13
E come è possibile che una 6800 vada in certi test meno di una 6600GT? Pure con i filtri a volte è sotto e negli altri test non è che ci sia molta differenza...

Se le due GPU sono simili, la 6600 è il fratellino della 6800:

-6600GT è una 8-8-3 con bus memoria a 128 bit (banda 16Gb) e frequenze 500/1000
-6800 è una 12-12-6 con bus memoria a 256 bit (banda 22,4Gb) e frequenze 325/700

A me sembra che arranchi parecchio... possibile? Pensavo facesse un po' meglio...
Saluti!

Innanzitutto la GeForce 6600 GT con frequenze standard non va meglio della GeForce 6800. Al massimo va uguale. Nei test con i filtri abilitati è più lenta a causa della minore banda passante.

Bisogna inoltre considerare che la GeForce 6600 GT anche a frequenze standard ha un fill rate superiore alla GeForce 6800 e che con le frequenze di Leadtek e Galaxy questo vantaggio aumenta.

Raven57
15-06-2005, 15:23
Apperi! a 50 gradi parte un cicalino!!!

Figuriamoci a me suonerebbe fisso...
Ho 2 gigabyte in SLI niente OC in idle sono a 53 gradi!!!

Secondo me il sensore delle mie schede è sballato, in più leggo sui forum che la temp max ammessa sarebbe 127°
A me nel pannello dedicato indica 147°
Sarebbe bello che qualche anima pia ci dicesse i valori giusti per poter utilizzare la scheda senza aver problemi, senza andare a esagerare con ventole aggiuntive e soluzioni estreme...
ma se tanto mi dà tanto e se un produttore inserisce un allarme a 50° a questo punto si suppone che tale temperatura sarebbe da considerare già alta e che quindi in idle una 6600gt dovrebbe essere a 35° e sotto strss sotto i 50.....
MA DOVE!!!!!!!!!
insomma manca totalmente la chiarezza e non ci sono dati certi, a questo punto che famo noi poveri possesori di 6600 ci compriamo tutti un kit a liquido??
GRAZIE...

Helstar
15-06-2005, 16:35
127° ? Seriamente ? Io pensavo che gia' a molto meno andasse tutto in liquefazione :D

bjt2
15-06-2005, 17:13
Beh, i "vecchi" transistors, quelli che si comprano nei negozi di elettronica, arrivano anche a 200 gradi di Tj (temperatura di giunzione)...

Cloud76
15-06-2005, 21:45
Ciao, grazie per la risposta, tengo a precisare che sto solo cercando di capire e null'altro. :)

O sto sbagliando qualcosa o quello che dici non mi è del tutto chiaro :confused: :

Dici: "Innanzitutto la GeForce 6600 GT con frequenze standard non va meglio della GeForce 6800. Al massimo va uguale"

Allora:
-Pixel e vertex shader è nettamente sotto
-Splinter cell:
--standard- sta sotto ad entrambe le 6600GT
--filtri- sta sotto alla leadtek
Altri test circa parità...

Poi:"Nei test con i filtri abilitati è più lenta a causa della minore banda passante."

Ma la 6800 non ha una banda di ben 22,4Gb contro i 16 della 6600GT? I dati che avevo riportato li ho presi dalle pagina delle caratteristiche...

Poi:"Bisogna inoltre considerare che la GeForce 6600 GT anche a frequenze standard ha un fill rate superiore alla GeForce 6800 e che con le frequenze di Leadtek e Galaxy questo vantaggio aumenta"

In questo caso sono 3900 (6800) contro 4000 (6600GT)che aumenta ancora per il fatto di avere 550Mhz invece di 500Mhz. Allora sarebbero solo i Mhz ad avventaggiarla... ma possibile che avere 12 pipe contro 8, 12 unità pixel shading contro 8 e 6 unità vertex contro 3 oltre ad una banda maggiore (e non minore) conti così poco rispetto ad una GPU minore ma cloccata a 550 Mhz ed equipaggiata con memorie più lente?
Saluti!

Raven57
15-06-2005, 21:52
A parte la disquisizione 127°/147° che è relativa e in effetti fà pensare a cose impossibili(liquefazione?)

vorrei capire qual è il giusto "range" di utilizzo di queste schede....

Vengo da una buonissima esperienza con una Ati 9500Pro(mitica!!!)
e pure su quella si potevano cuocere tranquillamente delle uova al tegamino da come scottava, eppure non ha mai mostrato un cedimento in due anni è ancora li sul mio "muletto" che fà il suo onesto lavoro....

Altro amletico dubbio:
nell'articolo si legge del consumo in watt che dovrebbe essere simile a quello in VA e quindi sotto stress di circa 180/190W!!!

Azzzzzz con la mia configurazione in SLI si raddoppia e diventano quasi 400w...

se poi ci aggiungiamo il procio amd64 3500

e i dischi in raid + il masterizzatore e floppy dove arriviamo??

Stai a vedere che mi tocca cambiare ALI!!!

Cosa molto difficile visto che ho un 600W noisetaker con doppio canale 12V.

Ai posteri l'ardua sentenza.....

Vifani
16-06-2005, 01:12
Ciao, grazie per la risposta, tengo a precisare che sto solo cercando di capire e null'altro. :)

O sto sbagliando qualcosa o quello che dici non mi è del tutto chiaro :confused: :

Dici: "Innanzitutto la GeForce 6600 GT con frequenze standard non va meglio della GeForce 6800. Al massimo va uguale"

Allora:
-Pixel e vertex shader è nettamente sotto
-Splinter cell:
--standard- sta sotto ad entrambe le 6600GT
--filtri- sta sotto alla leadtek
Altri test circa parità...


Scusami, forse non mi sono spiegato. Io sto parlando della GeForce 6600 GT standard che nei grafici è chiamata "NVIDIA GeForce 6600 GT". Rispetto a questa, la GeForce 6800 nei test sintetici è + veloce nei pixel shader e nei vertex shader semplici. In Splinter Cell è allo stesso livello in modalità standard e leggermente sopra con i filtri.


Poi:"Nei test con i filtri abilitati è più lenta a causa della minore banda passante."

Ma la 6800 non ha una banda di ben 22,4Gb contro i 16 della 6600GT? I dati che avevo riportato li ho presi dalle pagina delle caratteristiche...


Se leggi la mia risposta, il soggetto di quella frase è la GeForce 6600 GT che infatti "Nei test con i filtri abilitati è più lenta a causa della minore banda passante".


Poi:"Bisogna inoltre considerare che la GeForce 6600 GT anche a frequenze standard ha un fill rate superiore alla GeForce 6800 e che con le frequenze di Leadtek e Galaxy questo vantaggio aumenta"

In questo caso sono 3900 (6800) contro 4000 (6600GT)che aumenta ancora per il fatto di avere 550Mhz invece di 500Mhz. Allora sarebbero solo i Mhz ad avventaggiarla... ma possibile che avere 12 pipe contro 8, 12 unità pixel shading contro 8 e 6 unità vertex contro 3 oltre ad una banda maggiore (e non minore) conti così poco rispetto ad una GPU minore ma cloccata a 550 Mhz ed equipaggiata con memorie più lente?
Saluti!

I videogames tendono ad essere più fill rate limited che geometry limited. Ciò significa che non traggono beneficio da una enorme potenza di calcolo nei vertex shaders. E' per questo motivo che la GeForce 6800 nonostante abbia una potenza di calcolo sicuramente maggiore dal punto di vista poligonale rispetto alle GeForce 6600 GT, in fin dei conti non è sempre più veloce. Questo è anche il motivo dell'insuccesso delle Radeon X700 PRO e X700 XT: queste sono molto veloci nel calcolo poligonale con i vertex shaders, ma non altrettanto con i pixel shaders.

Paxo
16-06-2005, 02:56
Scusami, forse non mi sono spiegato. Io sto parlando della GeForce 6600 GT standard che nei grafici è chiamata "NVIDIA GeForce 6600 GT". Rispetto a questa, la GeForce 6800 nei test sintetici è + veloce nei pixel shader e nei vertex shader semplici. In Splinter Cell è allo stesso livello in modalità standard e leggermente sopra con i filtri.



Se leggi la mia risposta, il soggetto di quella frase è la GeForce 6600 GT che infatti "Nei test con i filtri abilitati è più lenta a causa della minore banda passante".



I videogames tendono ad essere più fill rate limited che geometry limited. Ciò significa che non traggono beneficio da una enorme potenza di calcolo nei vertex shaders. E' per questo motivo che la GeForce 6800 nonostante abbia una potenza di calcolo sicuramente maggiore dal punto di vista poligonale rispetto alle GeForce 6600 GT, in fin dei conti non è sempre più veloce. Questo è anche il motivo dell'insuccesso delle Radeon X700 PRO e X700 XT: queste sono molto veloci nel calcolo poligonale con i vertex shaders, ma non altrettanto con i pixel shaders.

VIFANI ha ragionissimo_Lo ha detto in tutti i modi...
Una cosa mi chiedo dato ke ho una ASUS 6600 GT 520 Mhz il Core e 940 Mhz le Memorie (Clokkate di Casa Asus) Mi Ha Dato Cmq Valori superiori a quella della NORMALE 6600 GT... ed Overclokkata da Riva Tuner e Driver 76.50 arriva senza problemi
550 - Core ---1026 Mem....TUTTO RISPETTIVAMENTE AGP!!!
con Seguenti Benk:

File Name

Benchmark
Width 1024
Height 768
Anti-Aliasing None
Anti-Aliasing Quality 0
Texture Filtering Trilinear
Max Anisotropy 4
VS Profile 2_0
PS Profile 2_0
Force Full Precision No
Disable DST No
Disable Post-Processing No
Force Software Vertex Shader No
Color Mipmaps No
Repeat Tests Off
Fixed Framerate Off
Comment

3DMark Score 3590 3DMarks
GT1 - Return To Proxycon 14,7 FPS
GT2 - Firefly Forest 10,8 FPS
GT3 - Canyon Flight 18,6 FPS
CPU Score 3811 CPUMarks
CPU Test 1 2,2 FPS
CPU Test 2 2,9 FPS
Fill Rate - Single-Texturing 1968,8 MTexels/s
Fill Rate - Multi-Texturing 4322,0 MTexels/s
Pixel Shader 101,4 FPS
Vertex Shader - Simple 40,3 MVertices/s
Vertex Shader - Complex 26,6 MVertices/s
8 Triangles 2,4 MTriangles/s
32 Triangles 8,3 MTriangles/s
128 Triangles 25,7 MTriangles/s
512 Triangles 57,3 MTriangles/s
2048 Triangles 79,8 MTriangles/s
32768 Triangles 91,2 MTriangles/s
System Info
Version 3,6
CPU Info
Central Processing Unit
Manufacturer AMD
Family AMD Athlon(tm) XP 2600+
Architecture 32-bit
Internal Clock 2076 MHz
Internal Clock Maximum 3000 MHz
External Clock 166 MHz
Socket Designation Socket A
Type
Upgrade ZIF Socket
HyperThreadingTechnology N/A
Capabilities MMX, CMov, RDTSC, 3DNow!, Extended 3DNow!, SSE, PAE
Version AMD Athlon(tm) XP 2600+

Caches Level Capacity
1 128 KB
2 512 KB


CPUIDs EAX EBX
0x00000001 0x68747541
0x000006a0 0x00000000


Ext CPUIDs EAX EBX
0x80000008 0x68747541
0x000007a0 0x00000000
0x20444d41 0x6c687441
0x36322050 0x002b3030
0x00000000 0x00000000
0x0408ff08 0xff20ff10
0x00000000 0x41004100
0x00000000 0x00000000
0x00002022 0x00000000

DirectX Info
Version 9.0c
Long Version 4.09.00.0904
DirectDraw Info
Version 5.03.2600.2180
Primary Device NVIDIA GeForce 6600 GT
Display Devices
Display Device
Description NVIDIA GeForce 6600 GT
Manufacturer NVIDIA
Total Local Video Memory 128 MB
Total Local Texture Memory 128 MB
Total AGP Memory 256 MB
Driver File nv4_disp.dll
Driver Version 7.6.5.0
Driver Details
Driver Date 17/03/2005
Driver WHQL Certified FALSO
Max Texture Width 4096 px
Max Texture Height 4096 px
Max User Clipping Planes 6
Max Active Hardware Lights 8
Max Texture Blending Stages 8
Fixed Function Textures In Single Pass 8
Vertex Shader Version 3
Pixel Shader Version 3
Max Vertex Blend Matrices 0
Max Texture Coordinates 8
PCI
Name NVIDIA GeForce 6600 GT
Vendor ID 0x10de
Device ID 0x00f1
SubSystem ID 0x81a61043
Revision ID 0x00a2

Texture Formats
32-bit ARGB [8888]
32-bit RGB [888]
16-bit RGB [565]
16-bit RGB [555]
16-bit ARGB [1555]
16-bit ARGB [4444]
8-bit A [8]
8-bit YUV [800]
16-bit AYUV [8800]
FourCC [DXT1]
FourCC [DXT2]
FourCC [DXT3]
FourCC [DXT4]
FourCC [DXT5]

Capabilities AGP Texturing, Hardware Transform and Lighting, Positional Lights, Subpixel Accurate Rasterizing, Stencil Buffers, Range Fog, Table Fog, Vertex Fog, W-Fog, Specular Gouraud Shading, Anisotropic Filtering, Bilinear Filtering, Point Sampling, Trilinear Filtering, Additive Texture Blending, Dot3 Texture Blending, Multiplicative Texture Blending, Subtractive Texture Blending, Environmental Bump Mapping, Environmental Bump Mapping With Luminance, Cube Mapping, Factor Alpha Blending, Vertex Alpha Blending, Texture Alpha Blending, Texture Clamping, Texture Mirroring, Texture Wrapping, Guard Band Support, Mipmap LOD Bias Adjustment, Projected Textures, Volume Textures, Point Primitive Support, Full-Screen Anti-Aliasing, DXT Compressed Textures, Two Sided Stencil Test, Mipmapped Volume Textures, Mipmapped Cube Textures, Texture Border Color, Spherical Mapping, Automatic Mipmap Generation, Hardware Rasterization, Shading, Transform and Lighting, Scissor Test, Legacy Depth Bias
VGA Memory Clock 1026 MHz
VGA Core Clock 299 MHz





MENTRE NORMALE:



File Name

Benchmark
Width 1024
Height 768
Anti-Aliasing None
Anti-Aliasing Quality 0
Texture Filtering Trilinear
Max Anisotropy 4
VS Profile 2_0
PS Profile 2_0
Force Full Precision No
Disable DST No
Disable Post-Processing No
Force Software Vertex Shader No
Color Mipmaps No
Repeat Tests Off
Fixed Framerate Off
Comment

3DMark Score 3327 3DMarks Game Tests
GT1 - Return To Proxycon 13,5 FPS Game Tests
GT2 - Firefly Forest 10,1 FPS Game Tests
GT3 - Canyon Flight 17,3 FPS Game Tests
CPU Score 3268 CPUMarks CPU Tests
CPU Test 1 1,8 FPS CPU Tests
CPU Test 2 2,6 FPS CPU Tests
Fill Rate - Single-Texturing 1800,4 MTexels/s Feature Tests
Fill Rate - Multi-Texturing 4072,9 MTexels/s Feature Tests
Pixel Shader 94,2 FPS Feature Tests
Vertex Shader - Simple 37,4 MVertices/s Feature Tests
Vertex Shader - Complex 24,7 MVertices/s Feature Tests
8 Triangles 2,3 MTriangles/s Batch Size Tests
32 Triangles 7,9 MTriangles/s Batch Size Tests
128 Triangles 24,2 MTriangles/s Batch Size Tests
512 Triangles 53,9 MTriangles/s Batch Size Tests
2048 Triangles 74,2 MTriangles/s Batch Size Tests
32768 Triangles 84,7 MTriangles/s Batch Size Tests
System Info
Version 3,6
CPU Info
Central Processing Unit
Manufacturer AMD
Family AMD Athlon(tm) XP 2600+
Architecture 32-bit
Internal Clock 1914 MHz
Internal Clock Maximum 3000 MHz
External Clock 166 MHz
Socket Designation Socket A
Type
Upgrade ZIF Socket
HyperThreadingTechnology N/A
Capabilities MMX, CMov, RDTSC, 3DNow!, Extended 3DNow!, SSE, PAE
Version AMD Athlon(tm) XP 2600+

Caches Level Capacity Type
1 128 KB Data, Internal
2 512 KB Data, External


CPUIDs EAX EBX ECX
0x00000001 0x68747541 0x444d4163
0x000006a0 0x00000000 0x00000000


Ext CPUIDs EAX EBX ECX
0x80000008 0x68747541 0x444d4163
0x000007a0 0x00000000 0x00000000
0x20444d41 0x6c687441 0x74286e6f
0x36322050 0x002b3030 0x00000000
0x00000000 0x00000000 0x00000000
0x0408ff08 0xff20ff10 0x40020140
0x00000000 0x41004100 0x02008140
0x00000000 0x00000000 0x00000000
0x00002022 0x00000000 0x00000000

DirectX Info
Version 9.0c
Long Version 4.09.00.0904
DirectDraw Info
Version 5.03.2600.2180
Primary Device NVIDIA GeForce 6600 GT
Display Devices
Display Device
Description NVIDIA GeForce 6600 GT
Manufacturer NVIDIA
Total Local Video Memory 128 MB
Total Local Texture Memory 128 MB
Total AGP Memory 256 MB
Driver File nv4_disp.dll
Driver Version 7.6.5.0
Driver Details
Driver Date 17/03/2005
Driver WHQL Certified FALSO
Max Texture Width 4096 px
Max Texture Height 4096 px
Max User Clipping Planes 6
Max Active Hardware Lights 8
Max Texture Blending Stages 8
Fixed Function Textures In Single Pass 8
Vertex Shader Version 3
Pixel Shader Version 3
Max Vertex Blend Matrices 0
Max Texture Coordinates 8
PCI
Name NVIDIA GeForce 6600 GT
Vendor ID 0x10de
Device ID 0x00f1
SubSystem ID 0x81a61043
Revision ID 0x00a2

Texture Formats
32-bit ARGB [8888]
32-bit RGB [888]
16-bit RGB [565]
16-bit RGB [555]
16-bit ARGB [1555]
16-bit ARGB [4444]
8-bit A [8]
8-bit YUV [800]
16-bit AYUV [8800]
FourCC [DXT1]
FourCC [DXT2]
FourCC [DXT3]
FourCC [DXT4]
FourCC [DXT5]

Capabilities AGP Texturing, Hardware Transform and Lighting, Positional Lights, Subpixel Accurate Rasterizing, Stencil Buffers, Range Fog, Table Fog, Vertex Fog, W-Fog, Specular Gouraud Shading, Anisotropic Filtering, Bilinear Filtering, Point Sampling, Trilinear Filtering, Additive Texture Blending, Dot3 Texture Blending, Multiplicative Texture Blending, Subtractive Texture Blending, Environmental Bump Mapping, Environmental Bump Mapping With Luminance, Cube Mapping, Factor Alpha Blending, Vertex Alpha Blending, Texture Alpha Blending, Texture Clamping, Texture Mirroring, Texture Wrapping, Guard Band Support, Mipmap LOD Bias Adjustment, Projected Textures, Volume Textures, Point Primitive Support, Full-Screen Anti-Aliasing, DXT Compressed Textures, Two Sided Stencil Test, Mipmapped Volume Textures, Mipmapped Cube Textures, Texture Border Color, Spherical Mapping, Automatic Mipmap Generation, Hardware Rasterization, Shading, Transform and Lighting, Scissor Test, Legacy Depth Bias
VGA Memory Clock 936 MHz
VGA Core Clock 299 MHz
DirectShow Info
Version 6.05.2600.2180



Ke Ne Pensate???

Vifani
16-06-2005, 03:29
Ke Ne Pensate???

E' stato già dimostrato che il PCI Express 16x non offre vantaggi nella grafica 3D rispetto all'AGP 8x. I tuoi risultati migliori rispetto alla GeForce 6600 GT normale, sono dovuti al core lavorante a 520 Mhz.

ThePunisher
17-06-2005, 06:56
Le 6800 lisce hanno 5 vertex e non 6... è già la secona news che te lo dico...

StErMiNeiToR
20-06-2005, 01:20
e pensare che io spesi 330 e passa euro per la mia Shapire ATI radeon 9800 SE :(

argh mi vengono le lacrime agli occhi

provolinoo
20-06-2005, 13:38
secondo voi la Leadtek PX6600GT extreme è la migliore 6600gt pci-e o c'è di meglio?

non si trova magari una versione senza il gioco (che ho già) che mi consenta di prendere la scheda ad un prezzo inferiore?