PDA

View Full Version : nVidia GeForce 6800 - Thread Ufficiale: Parte2


Pagine : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Il Demiurgo
30-06-2004, 22:44
Però a questo punto voglio vedere se è proprio sfiga:
Voglio l'alimentatore con il più alto voltaggio e più alto amperaggio su un singolo molex ...
Inoltre mi faccio il liquido con un circuito solo per la GPU ...

Zak84
30-06-2004, 22:46
Chiedi a qualcuno che ce l'ha di controllare la revision del chip. La dice il pannello dei ForceWare. Controlla se la tua è una revision precedente.

Per quanto mi riguarda prenderò la 6800 Ultra della Asus e speriamo che sia fortunella in oc.

Per l'occasione sto cambiando anche CPU. Ho preso un 3.06 che dovrebbe arrivarmi a giorni e spero di portarlo a 3450 :D

Zak84
30-06-2004, 22:48
Originariamente inviato da Il Demiurgo
Però a questo punto voglio vedere se è proprio sfiga:
Voglio l'alimentatore con il più alto voltaggio e più alto amperaggio su un singolo molex ...
Inoltre mi faccio il liquido con un circuito solo per la GPU ...


Il mio ali ha una sola linea 12V.

Ti dico i miei amperaggi:

+12V: 33A
+5V: 44A
+3V: 38A

Il Demiurgo
30-06-2004, 22:49
Sito enermax:
1) linea A 18A / linea B 17A
http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=84&serie=Alimentatori%20Serie%20Coolergiant%20SFMA%20(NEW)

2) linea A 14A / linea B 16A / linea C 16A
http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=89&serie=Alimentatori%20Serie%2012V%20&%20ATX%20GES

3) 36A
http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=42&serie=Alimentatori%20Serie%20FM(24P)

Quale dei 3 è meglio ?

Il Demiurgo
30-06-2004, 22:52
Il pannello non lo indica, dice solo "Chip Rev"
RivaTuner dice che è una revisione A1 :cry:

Zak84
30-06-2004, 23:00
Originariamente inviato da Il Demiurgo
Sito enermax:
1) linea A 18A / linea B 17A
http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=84&serie=Alimentatori%20Serie%20Coolergiant%20SFMA%20(NEW)

2) linea A 14A / linea B 16A / linea C 16A
http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=89&serie=Alimentatori%20Serie%2012V%20&%20ATX%20GES

3) 36A
http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=42&serie=Alimentatori%20Serie%20FM(24P)

Quale dei 3 è meglio ?


Il primo.

http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=84&serie=Alimentatori%20Serie%20Coolergiant%20SFMA%20(NEW)

Quello a 24 poli non puoi montarlo perchè è per le schede madri per Xeon e server (e se non sbaglio anche per le nuove LGA775).

Il secondo lo vedo un po' fragilino per il fatto che regge massimo 25A all'avvio a freddo, contro gli 80A del primo.

Il Demiurgo
30-06-2004, 23:03
Originariamente inviato da Zak84
Il primo.

http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=84&serie=Alimentatori%20Serie%20Coolergiant%20SFMA%20(NEW)

Quello a 24 poli non puoi montarlo perchè è per le schede madri per Xeon e server (e se non sbaglio anche per le nuove LGA775).

Il secondo lo vedo un po' fragilino per il fatto che regge massimo 25A all'avvio a freddo, contro gli 80A del primo.

Ottimo, grazie ...
Che tu sappia, ne esistono di migliori (altre marche) ?

Zak84
30-06-2004, 23:04
Originariamente inviato da Il Demiurgo
Il pannello non lo indica, dice solo "Chip Rev"
RivaTuner dice che è una revisione A1 :cry:


Adesso bisogna sperare solo che il chip di qualche scheda che sale bene in oc sia comunque rev. A1, perchè altrimenti credo che ci sia ben poco da fare...

Quando hai preso la scheda?

Io di solito aspetto che tutti i negozi ce l'abbiano disponibile, così nel frattempo escono nuove revision. Infatti la mia GeForce 3 la presi non appena si trovava facilmente (quindi non passò comunque molto tempo) e mi ritrovo con la revision A3 che è l'ultima delle GeForce 3 "Liscie". Poi dalla GeForce 3 Ti500 venne introdotta la rev. A5.

Il Demiurgo
30-06-2004, 23:07
Originariamente inviato da Zak84
Adesso bisogna sperare solo che il chip di qualche scheda che sale bene in oc sia comunque rev. A1, perchè altrimenti credo che ci sia ben poco da fare...

Quando hai preso la scheda?

Io di solito aspetto che tutti i negozi ce l'abbiano a listino, così nel frattempo escono nuove revision. Infatti la mia GeForce 3 la presi non appena si trovava facilmente (quindi non passò comunque molto tempo) e mi ritrovo con la revision A3 che è l'ultima delle GeForce 3 "Liscie". Poi dalla GeForce 3 Ti500 venne introdotta la rev. A5.

Anche la mia GF3 è una Rev. A3 ...
La GT fa parte del primo invio che ha fatto NuX mi è arrivata Giovedì 24 Giugno ...

Zak84
30-06-2004, 23:08
Originariamente inviato da Il Demiurgo
Ottimo, grazie ...
Che tu sappia, ne esistono di migliori (altre marche) ?


Dicono che gli Antec sono buoni, ma in fatto di amperaggi credo che siano un po' sotto gli Enermax. Io per quanto mi riguarda dopo aver provato Enermax non torno più indietro. Oltretutto ho scoperto che il mio ali è stata una serie limitata con amperaggi più spinti!!! :D

Il Demiurgo
30-06-2004, 23:10
Cavolo ... ho visto il prezzo del NoiseTaker da 600W ...

:muro: 200+ € :muro:

Non mi importa, prima o poi lo piglio ... farò un mutuo ...

Zak84
30-06-2004, 23:13
E cosa credevi???? HAHAHA :sofico:

Io il mio che è un 431W lo pagai 170€ :eek: ma li vale tutti.

Se puoi prendilo e stai a posto per un decennio!!! :D

Thunder82
30-06-2004, 23:14
Originariamente inviato da Il Demiurgo
Cavolo ... ho visto il prezzo del NoiseTaker da 600W ...

:muro: 200+ € :muro:

Non mi importa, prima o poi lo piglio ... farò un mutuo ...

Quei soldi li aggiungevi alla GT e ti prendevi la ultra e ti avanzavano pure 100€...

Thunder82
30-06-2004, 23:15
Originariamente inviato da Zak84
Se puoi prendilo e stai a posto per un decennio!!! :D

Sì certo, sta a posto fino all'anno prossimo che esce il btx con connettori per la mobo a 24pin invece di 20pin, e i connettori vga a 6pin 3x2...

Zak84
30-06-2004, 23:16
Originariamente inviato da Il Demiurgo
Cavolo ... ho visto il prezzo del NoiseTaker da 600W ...

:muro: 200+ € :muro:

Non mi importa, prima o poi lo piglio ... farò un mutuo ...



Oppure potresti andare anche su questo http://www.enermax.it/scheda_tecnica_alimentatori.php?id_prod=82&serie=Alimentatori%20Serie%20Noisetaker%20SFMA%20(NEW)&PHPSESSID=95938daa855525cbdc4db83c3e3c56de , che è comunque un ottimo ali e si dovrebbe trovare sui 120€ mi sembra

Il Demiurgo
30-06-2004, 23:17
Originariamente inviato da Zak84
E cosa credevi???? HAHAHA :sofico:

Io il mio che è un 431W lo pagai 170€ :eek: ma li vale tutti.

Se puoi prendilo e stai a posto per un decennio!!! :D

Il mio 365 lo pagai 75€, non sono un pò tanti 170€ ?

Non mi è chiaro come funziona il discorso delle 2 o più linee.
Se attacco la GT (e solo quella) a un ali con un solo valore indicato (p.e. 35A come alcuni enermax) quanti ne arrivano alla GT ?

Zak84
30-06-2004, 23:18
EDIT :D

Zak84
30-06-2004, 23:19
Originariamente inviato da Thunder82
Sì certo, sta a posto fino all'anno prossimo che esce il btx con connettori per la mobo a 24pin invece di 20pin, e i connettori vga a 6pin 3x2...


Ma dai stiamo dicendo che sono troppi 200€ per un ali e tu dici che cambierà tutto il pc l'anno prox!!! :confused:

E comunque il mio decennio era tanto per dire (se non si fosse capito) ;)

Zak84
30-06-2004, 23:22
Originariamente inviato da Il Demiurgo
Il mio 365 lo pagai 75€, non sono un pò tanti 170€ ?

Non mi è chiaro come funziona il discorso delle 2 o più linee.
Se attacco la GT (e solo quella) a un ali con un solo valore indicato (p.e. 35A come alcuni enermax) quanti ne arrivano alla GT ?


Quanti ne desidera. Considera che il valore che leggi sull'etichetta dell'ali rappresenta l'amperaggio massimo che può erogare lo stesso. ;)

Zak84
30-06-2004, 23:25
Originariamente inviato da Il Demiurgo
Il mio 365 lo pagai 75€, non sono un pò tanti 170€ ?

Non mi è chiaro come funziona il discorso delle 2 o più linee.
Se attacco la GT (e solo quella) a un ali con un solo valore indicato (p.e. 35A come alcuni enermax) quanti ne arrivano alla GT ?


Alimentatori di wattaggio uguale, ma di serie diverse, costano in modo anche MOLTO diverso!!! :muro:


BYEZZZZZZZ!!!!!!!!!! ;)

Il Demiurgo
30-06-2004, 23:28
Originariamente inviato da Zak84
Quanti ne desidera. Considera che il valore che leggi sull'etichetta dell'ali rappresenta l'amperaggio massimo che può erogare lo stesso. ;)

Quindi se ne trovo uno con queste caratteristiche (30A+ singola linea) forse va addirittura meglio di un ali con linee separate e max 18A, visto che ho poche periferiche ... ho capito bene ?

Zak84
30-06-2004, 23:30
Si più o meno è così. Guarda sempre anche i voltaggi dei +5 e dei +3.3 però! ;)

Il Demiurgo
30-06-2004, 23:30
Grazie MILLE Zak ...
a domani ... vado nel mondo dei sogni :ronf: ... Nalu .... :oink:

pon 87
30-06-2004, 23:34
Originariamente inviato da Il Demiurgo
Grazie MILLE Zak ...
a domani ... vado nel mondo dei sogni :ronf: ... Nalu .... :oink:
notte:ronf:

Zak84
30-06-2004, 23:35
Non c'è di che...


Alla prox!!! :)


BYEZZZZZZ!!!!!!!! ;)

amd-novello
30-06-2004, 23:58
OT:


dark rispondimiiiiiii

hai il cavetto per collegarla alla tv nella scatola della pov? ciao

LCol84
01-07-2004, 00:31
Originariamente inviato da Thunder82
Sì certo, sta a posto fino all'anno prossimo che esce il btx con connettori per la mobo a 24pin invece di 20pin, e i connettori vga a 6pin 3x2...

Mah....guarda un po qui ;)

http://www.overclockers.com/tips1137/

Inginocchiatevi alla mia onnipotente conoscenza!!!

:ave::ave::ave::ave::ave::ave:

ihihhihih

redbaron
01-07-2004, 07:27
Originariamente inviato da amd-novello
OT:


dark rispondimiiiiiii

hai il cavetto per collegarla alla tv nella scatola della pov? ciao

Ti rispondo io. C'e. ;)

amd-novello
01-07-2004, 07:29
grazieeeeeeee:oink:

antonio_colli
01-07-2004, 07:33
Originariamente inviato da Dark Schneider
No! :)

Col vecchio software è molto probabile che queste schede non riescano ad esprimersi al meglio, se non in condizioni di filtri attivi. Per di + è probabile che sono poco ottimazzati col software vecchio.


per venerdi' max lunedi' avrò una 6800 ultra, poi ne vedremo delle belle!:D

e ti dimostrerò il contrario!

Pipposuperpippa
01-07-2004, 09:07
Originariamente inviato da Il Demiurgo
Sono sfigato fino all'ultimo, come al solito, ma p*rca v*cca, l'unico stupidissimo pezzo di ferraglia che non sale + di 400/1.1 me lo becco io


Mi venderesti la tua ferraglia?
:p :p :p

Zak84
01-07-2004, 09:09
Originariamente inviato da LCol84
Mah....guarda un po qui ;)

http://www.overclockers.com/tips1137/

Inginocchiatevi alla mia onnipotente conoscenza!!!

:ave::ave::ave::ave::ave::ave:

ihihhihih


HAHAHAHAHHA :rotfl:

Evviva la modestia :sofico:



Comunque grazie per il link. Non ne ero a conoscenza. ;)

Il Demiurgo
01-07-2004, 09:09
Originariamente inviato da Pipposuperpippa
Mi venderesti la tua ferraglia?
:p :p :p

Ci sto facendo un pensierino ... Ultra Extreme :sofico:

Pipposuperpippa
01-07-2004, 09:11
Originariamente inviato da Il Demiurgo
Ci sto facendo un pensierino ... Ultra Extreme :sofico:

Ma con la tua l'auto overclock quanto rileva?

In ogni caso se la vendi fammi un fischio... ;)

Il Demiurgo
01-07-2004, 09:14
Originariamente inviato da Pipposuperpippa
Ma con la tua l'auto overclock quanto rileva?

In ogni caso se la vendi fammi un fischio... ;)

393/1.08

pon 87
01-07-2004, 09:16
Originariamente inviato da Il Demiurgo
393/1.08
400-1100 te li regge senza artefatti?

Zak84
01-07-2004, 09:19
Originariamente inviato da Il Demiurgo
Ci sto facendo un pensierino ... Ultra Extreme :sofico:


La Ultra Extreme oltre al fatto che per ora è introvabile, è possibile che costi anche 200€ più della Ultra, e oltretutto è stato dimostrato da psychomantis che la ultra in oc supera di gran lunga le frequenze della Extreme (sfiga a parte :sofico: ). Quest'ultima scheda anche se uscirà con qualche revision nuova del chip, escluderei oc fantascientifici. ;)

Pipposuperpippa
01-07-2004, 09:22
Originariamente inviato da Il Demiurgo
393/1.08

Sfortunella come scheda... io però di solito le schede video costose le tengo @default, non me la sento di rischiarle con l'overclock... tenendo presente che nessun gioco necessita di un OC della 6800... :)

Dark Schneider
01-07-2004, 09:27
Originariamente inviato da antonio_colli
per venerdi' max lunedi' avrò una 6800 ultra, poi ne vedremo delle belle!:D

e ti dimostrerò il contrario!


Si ma tu che Cpu hai?

Dark Schneider
01-07-2004, 09:32
Ma tanto il BTX si diffonderà solamente tra 2-3 anni se hai letto il reportage del Computex!! Non c'è bisogno di tali soluzioni per diverso tempo.

Dark Schneider
01-07-2004, 09:35
Originariamente inviato da Pipposuperpippa
Sfortunella come scheda... io però di solito le schede video costose le tengo @default, non me la sento di rischiarle con l'overclock... tenendo presente che nessun gioco necessita di un OC della 6800... :)


Ma cmq non è questione di sfortuna. La scheda gli rileva tot...ma mica è il limite. Non significa che non può andare oltre.

Zak84
01-07-2004, 09:40
Originariamente inviato da Dark Schneider
Ma tanto il BTX si diffonderà solamente tra 2-3 anni se hai letto il reportage del Computex!! Non c'è bisogno di tali soluzioni per diverso tempo.


Si il reportage l'ho letto, ma comunque quella mod è applicabile anche agli attuali 24pin. Non è detto che serva, ma è utile sapere che si può fare! ;)

Il Demiurgo
01-07-2004, 09:57
Originariamente inviato da pon 87
400-1100 te li regge senza artefatti?

Si senza problemi...
Gli artefatti li ho notati con OC maggiore di 410MHz :(

Dark Schneider
01-07-2004, 10:08
Originariamente inviato da Zak84
Si il reportage l'ho letto, ma comunque quella mod è applicabile anche agli attuali 24pin. Non è detto che serva, ma è utile sapere che si può fare! ;)


Si ma tra 3 anni appunto...qui tutti avranno cambiato pc. :)

Zak84
01-07-2004, 10:16
Non ne dubito! :cool:

Ma comunque la storia dei 24pin è nata dal fatto che Il Demiurgo aveva chiesto un consiglio su un ali che era 24pin... ;)

pon 87
01-07-2004, 10:20
Originariamente inviato da Il Demiurgo
Si senza problemi...
Gli artefatti li ho notati con OC maggiore di 410MHz :(
mettici due vantec tornado da 80x80 vicino alla GT:D

Pipposuperpippa
01-07-2004, 10:25
A che risoluzione giochi Demiurgo? :)

dwfgerw
01-07-2004, 10:28
a raga la mia pov 6800gt va bene con i giochi, ho provato ut2004 a 1280x1024 4xaa e 16xaf tutto a palla lo stesso per painkiller e non scatta mai, ma nel 3d merd 03 fa solo 8700p ma come è possibile?

ho un p4 3ghz HT FSB800
Intel 865PE con 2x256 ddr400
hd Sata Maxtor

ho fatto anche defrag al disco, forse dovrei formattare?

Tutto con i driver 61.34, forse sono questi che non vanno con la mia configurazione ?

Sapete quando sono previsti nuovi driver ufficiali da parte di nvidia '??

Isomarcus
01-07-2004, 10:30
ste 6800gt al 3dmark son sempre più misteriose :confused:

io con la stessa cpu (barton 3200), al 3dmark01 faccio meno di quanto facevo con la 9700pro; al 3dmark03 faccio 10180 :mbe:

dwfgerw
01-07-2004, 10:32
potrebbe anche essere che ho il sistema appesantito.

comunque la potenza c'e' bench a parte, non ho mai visto girare cosi velocemente certi giochi.

dopo provo farcry...

Credo che i driver siano ancora mostruosamente acerbi, dobbiamo aspettare la release ufficiale di nvidia

Il Demiurgo
01-07-2004, 10:35
Originariamente inviato da Pipposuperpippa
A che risoluzione giochi Demiurgo? :)

1024x768 4XAA 16XAF :D finora tutti i giochi filano lisci...
Non vado a + di 1024 xchè non sopporto frequenze dello schermo inferiori a 100Hz...

josefor
01-07-2004, 10:46
:cry: :cry:

Pipposuperpippa
01-07-2004, 10:47
Originariamente inviato da Il Demiurgo
1024x768 4XAA 16XAF :D finora tutti i giochi filano lisci...
Non vado a + di 1024 xchè non sopporto frequenze dello schermo inferiori a 100Hz...

Allora onestamente e questa risoluzione (che è la stessa che uso io in quanto vincolato dal monitor LCD) l'OC serve veramente poco, se guardi i bench delle schede la GT e la Ultra a questa risoluzione sono vicinissime, e anche la liscia non è troppo distante.
Solo a risoluzioni molto più elevate a mio parere vale la pena di avere una Ultra o una scheda overcloccata @ultra o più :)

Dark Schneider
01-07-2004, 11:11
Originariamente inviato da dwfgerw
a raga la mia pov 6800gt va bene con i giochi, ho provato ut2004 a 1280x1024 4xaa e 16xaf tutto a palla lo stesso per painkiller e non scatta mai, ma nel 3d merd 03 fa solo 8700p ma come è possibile?

ho un p4 3ghz HT FSB800
Intel 865PE con 2x256 ddr400
hd Sata Maxtor

ho fatto anche defrag al disco, forse dovrei formattare?

Tutto con i driver 61.34, forse sono questi che non vanno con la mia configurazione ?

Sapete quando sono previsti nuovi driver ufficiali da parte di nvidia '??


E' parecchio strano 8700 al 2003..mi sembra + un punteggio da 6800 liscia.

Cmq può essere si il sistema incasinato. Magari fai un bel format.
Magari provati i 61.36 WHQL beta.

Io ho questi adesso è sono ottimi.

Anche se però non so i 61.34...ma i 61.71 ed i 61.36 hanno qlc problemino con l'FSAA in FC se abiliti da pannello...praticamente si abilita e non si abilita.

In ogni caso ti consiglio di selezionare il Profilo Far Cry settare l'AF da pannello di controllo a 16X...mentre dal gioco lascia ad 1. L'FSAA invece "controllato dall'applicazione" e lo setti invece dal gioco impostandolo ad "Alto". Così è tutto ok. :)

Dark Schneider
01-07-2004, 11:13
Originariamente inviato da josefor
:cry: :cry:


tradotto?:confused:

Thunder82
01-07-2004, 11:34
Originariamente inviato da Dark Schneider
Ma tanto il BTX si diffonderà solamente tra 2-3 anni se hai letto il reportage del Computex!! Non c'è bisogno di tali soluzioni per diverso tempo.

Ma le schede madri intel 925 e 915 hanno GIA' ADESSO il connettore 24pin e le schede video PCI-exp hanno il connettore 2x3 tipici degli alimentatori btx... io non spenderei più di 200€ per un ali già vecchio, è questo che voglio dire.

dwfgerw
01-07-2004, 12:02
io ho la versione demo di farcry, posso installarci la patch 1.1 o è solo per la versione finale ?

dwfgerw
01-07-2004, 12:06
Originariamente inviato da Thunder82
Ma le schede madri intel 925 e 915 hanno GIA' ADESSO il connettore 24pin e le schede video PCI-exp hanno il connettore 2x3 tipici degli alimentatori btx... io non spenderei più di 200€ per un ali già vecchio, è questo che voglio dire.


io sto tirando avanti un P4 3Ghz e 6800GT con un ali comprato un anno fa a poco più di 20€ da 400watt che non è neanche di marca...

ynned
01-07-2004, 12:09
CIAO

Vorrei forzare l'oc nella mia 6800 GT dato che con coolbits passati i 404-1100 mi chiede di passare il test ma non accetta freq. + alte.C'e' qualche impostazione che posso cambiare x fare tutto in manuale.....o devo usare un altro soft?

Grazie e ciao

MaBru
01-07-2004, 12:12
Usciti nuovi driver per linux

http://www.nvidia.com/object/linux_display_ia32_1.0-6106.html

Thunder82
01-07-2004, 12:13
Originariamente inviato da dwfgerw
io sto tirando avanti un P4 3Ghz e 6800GT con un ali comprato un anno fa a poco più di 20€ da 400watt che non è neanche di marca...

Allora non hai capito il mio ragionamento...

Che senso ha spendere 200€ su un ali ora che se compri una mobo con intel 925 non te la supporta bene (cioè il 20 pin si può lo stesso inserire nel 24, ma non ti dà la stabilità operativa del 24)

E' questo che intendevo ;) :)

giggino
01-07-2004, 12:14
Originariamente inviato da dwfgerw
a raga la mia pov 6800gt va bene con i giochi, ho provato ut2004 a 1280x1024 4xaa e 16xaf tutto a palla lo stesso per painkiller e non scatta mai, ma nel 3d merd 03 fa solo 8700p ma come è possibile?

ho un p4 3ghz HT FSB800
Intel 865PE con 2x256 ddr400
hd Sata Maxtor

ho fatto anche defrag al disco, forse dovrei formattare?

Tutto con i driver 61.34, forse sono questi che non vanno con la mia configurazione ?

Sapete quando sono previsti nuovi driver ufficiali da parte di nvidia '??

io faccio 11994 :mc: a 402/1.09. Abbiamo quasi lo stesso pc.
Meglio che fai un bel format :cool:

dwfgerw
01-07-2004, 12:26
Originariamente inviato da giggino
io faccio 11994 :mc: a 402/1.09. Abbiamo quasi lo stesso pc.
Meglio che fai un bel format :cool:


che p@lle però.... ho 50gb di roba da archiviare non mi va proprio:cry:

con i giochi va bene, la lascio cosi finchè non collassa....:mad:

;)

josefor
01-07-2004, 12:32
Originariamente inviato da Dark Schneider
tradotto?:confused:

E' che sono Nvidioso di tutto l'entusiasmo per la 6800, non si smette più di postare su sta scheda.
Non è che mi adottate anche se sono passato dall'altra sponda?
Come schede non per altro, che pensate.
Vabbuò lo debbo ammettere sta 6800 è veramente una gran cheda video. ;)

dwfgerw
01-07-2004, 12:37
ma voi avete benchato in 3d mark 03 con le patch 330 e 340 o l'avete lasciato normale ?

Isomarcus
01-07-2004, 12:53
il mio era normale

MaBru
01-07-2004, 12:57
Originariamente inviato da josefor
Non è che mi adottate anche se sono passato dall'altra sponda?

In che senso dall'altra sponda? :asd::eheh:

Pipposuperpippa
01-07-2004, 12:59
Originariamente inviato da Isomarcus
il mio era normale

Il 3dmark o lo fate "aggiornato" alle ultime patch o non vale niente... :(

giggino
01-07-2004, 13:00
Originariamente inviato da dwfgerw
ma voi avete benchato in 3d mark 03 con le patch 330 e 340 o l'avete lasciato normale ?

io uso la 340

amd-novello
01-07-2004, 13:09
Originariamente inviato da dwfgerw
io ho la versione demo di farcry, posso installarci la patch 1.1 o è solo per la versione finale ?


quotissimo sul sito uff non trovo nulla


cmq mi è arrivata mo! la gt è molto bella e pesantina in confronto alla geffo 4 :D


vediamo con PoP come va!!!

Zak84
01-07-2004, 13:14
Prova ad installarla. Penso che male che vada l'installer ti dirà che sulla versione corrente non può essere installata. ;)

Pipposuperpippa
01-07-2004, 13:15
Nessuno ha provato NFS Underground? :eek: :(

amd-novello
01-07-2004, 13:24
ma con i coolbit per overcloccare automaticamente devo iavviare perchè non mi consiglia nessuna frequenza ma lascia le solite 350/500


idle sta a 64 gradi mo gioco un pochino

Dark Schneider
01-07-2004, 13:31
Originariamente inviato da dwfgerw
ma voi avete benchato in 3d mark 03 con le patch 330 e 340 o l'avete lasciato normale ?


Se ti scarichi adesso il 3d mark 2003 da sito futuremark è già aggiornato alla 340. :) Tanto che io non ci avevo fatto caso ed avevo anche la patch pronta...vado a mettere e mi dice che c'era già la 340.

Dark Schneider
01-07-2004, 13:51
Originariamente inviato da Thunder82
Ma le schede madri intel 925 e 915 hanno GIA' ADESSO il connettore 24pin e le schede video PCI-exp hanno il connettore 2x3 tipici degli alimentatori btx... io non spenderei più di 200€ per un ali già vecchio, è questo che voglio dire.


Ma se per questo io non spenderei mai 200 euro per un alimentatore. ;)

Dark Schneider
01-07-2004, 13:57
Originariamente inviato da ynned
CIAO

Vorrei forzare l'oc nella mia 6800 GT dato che con coolbits passati i 404-1100 mi chiede di passare il test ma non accetta freq. + alte.C'e' qualche impostazione che posso cambiare x fare tutto in manuale.....o devo usare un altro soft?

Grazie e ciao


No semplicemente oltre quelle frequenze che ti suggerisce...tu manualmente sposti poi fai fare "prova modifiche".

amd-novello
01-07-2004, 14:18
orpo!!!

mi si riavvia solo con maxpayne2

non con morrowind o RTCW. l'alim è a posto, le temp pure. ho i driver non beta. boh

disabilito qualche feature del gioco. si vede che ci dovrebbero essere patch.

mizzega morrowind non fa + una piega il bastardone!! se abiliti i PS va fluido!!



ORGASMOOOOOOOO VIDEOLUDICOOOOOOOO

amd-novello
01-07-2004, 14:26
mmmmhhhh ho visto con un altro programma che l'ali sui 12v è a 11.80


è pochino

metto l'ali del pcino per vedere.

pon 87
01-07-2004, 14:27
stato dell'ordine: è stata spedita:cool:

silver976
01-07-2004, 14:29
Che nvidia che mi fate!!!!
Tutti a giocherellare con le nuove schedine :cry:

Io sono ancora in lista d'attesa per la mia 6800 ULTRA, ma quanti ne ho davanti...UFFFFFFF:mad:

dwfgerw
01-07-2004, 14:36
Originariamente inviato da Pipposuperpippa
Nessuno ha provato NFS Underground? :eek: :(


più tardi lo provo

dwfgerw
01-07-2004, 14:37
Originariamente inviato da pon 87
stato dell'ordine: è stata spedita:cool:


bene tra poco anche te entri nel club :D

Pipposuperpippa
01-07-2004, 14:42
Originariamente inviato da dwfgerw
più tardi lo provo

thanks :D
Voglio sapere le tue impressioni sulla fluidità ;)

Dark Schneider
01-07-2004, 14:44
Originariamente inviato da josefor
E' che sono Nvidioso di tutto l'entusiasmo per la 6800, non si smette più di postare su sta scheda.
Non è che mi adottate anche se sono passato dall'altra sponda?
Come schede non per altro, che pensate.
Vabbuò lo debbo ammettere sta 6800 è veramente una gran cheda video. ;)


Mmm e va bene!! :D

Cmq te la potevi pure prendere se ti piaceva tanto, no? :)

pon 87
01-07-2004, 15:14
Originariamente inviato da dwfgerw
bene tra poco anche te entri nel club :D
entro nel tunnel:sofico:

pon 87
01-07-2004, 15:16
Originariamente inviato da pon 87
stato dell'ordine: è stata spedita:cool:
mi ero dimenticato quando l'avevo preordinata costava 575€, adesso 540€, mi hanno detto che mi viene a costare 540€:sofico:

dwfgerw
01-07-2004, 15:17
Originariamente inviato da Pipposuperpippa
thanks :D
Voglio sapere le tue impressioni sulla fluidità ;)


l'ho provato, calcolando che ho il sistema da formattare, non posso lamentarmi...

1024x768 tutti i dettagli al massimo (tranne ovviamente il motion blur che sfoca le texture) AA4X e AF16X il gioco con fraps rimane sui 35/40 con picchi superiori ai 50.

Comunque molto fluido, calcolando che sto anche con i driver beta, alla prossima release potrebbe migliorare ancora.

halduemilauno
01-07-2004, 15:17
http://www.digit-life.com/articles2/gffx/nv40-3-p1.html
;)

Pipposuperpippa
01-07-2004, 15:33
Originariamente inviato da dwfgerw
l'ho provato, calcolando che ho il sistema da formattare, non posso lamentarmi...

1024x768 tutti i dettagli al massimo (tranne ovviamente il motion blur che sfoca le texture) AA4X e AF16X il gioco con fraps rimane sui 35/40 con picchi superiori ai 50.



Però pensavo un pochino meglio... 35 siamo al limite... NFS è peggio di Far Cry quanto a pesantezza!! :rolleyes:

andreamarra
01-07-2004, 15:40
Originariamente inviato da Pipposuperpippa
Però pensavo un pochino meglio... 35 siamo al limite... NFS è peggio di Far Cry quanto a pesantezza!! :rolleyes:

Semplicemente NFSU non è programmato benissimo. Anche a me va minimo a 35.

PSYCOMANTIS
01-07-2004, 15:43
Originariamente inviato da halduemilauno
http://www.digit-life.com/articles2/gffx/nv40-3-p1.html
;)

La x800xt non sembra piu' tanto veloce.....

Wizard77
01-07-2004, 15:48
Originariamente inviato da PSYCOMANTIS
La x800xt non sembra piu' tanto veloce.....

dipende da chi fa la recensione

dwfgerw
01-07-2004, 15:54
Originariamente inviato da Wizard77
dipende da chi fa la recensione


digit life come x bit labs è da considerarsi ultra attendibile, le sue recensioni sono sempre estremamente dettagliate e im ho anche migliori di quelle di hwupgrade con tutto il rispetto per corsini.
In particolar modo queste recensioni sviscerano al meglio le architetture, basta che ti guardi le prime uscite per r420 e nv40 con quella miriade di test sintetici volti proprio a capire il funzionamento interno delle due gpu nei minimi particolari.

Cmq i driver sono ancora 61.34 beta, basta aspettare, questa architettura è nuvoa di zecca non può che crescere con il tempo.

nirvanboy81
01-07-2004, 16:30
Arrivata la GT!!!
Ragazzi ci vediamo dopo il formattone, vado!:sofico:

Il formattone? ...:mbe: :cry:
Aiuto! E' come doversi pulire la camera! Vado va..
Dopo torno con la Gt e un bel Raid 0!!
A dopo!:D

Wizard77
01-07-2004, 16:39
Originariamente inviato da nirvanboy81
Arrivata la GT!!!
Ragazzi ci vediamo dopo il formattone, vado!:sofico:

Il formattone? ...:mbe: :cry:
Aiuto! E' come doversi pulire la camera! Vado va..
Dopo torno con la Gt e un bel Raid 0!!
A dopo!:D

io preferisco formattare piuttosto che pulire la camera ahaha

a parte gli scherzi, ormai sono talmente abituato a formattare che ci metto un attimo :D :D

abitrulez
01-07-2004, 16:43
Scusate io vorrei prendere una 6800 della Abit mi potreste dire quando uscira perche dal mio negoziante di fiducia nessuno sa nulla.

Ho letto che qua qualcuno di voi ha preso le POV ma io vorrei rimanere fedele ad abit perche e una marca eccezionale con cui mi sono trovato benissimo per tanti anni e che da un supporto post vendita stupendo e poi per me ha i prodotti migliori e piu personalizzati

e poi ho anche la scheda madre abit per pentium 4 l'ultima che hanno fatto che e

Vi ringrazio delle risposte che mi volete dare, spero solo che non ci voglia un altro mese ciao a tutti e grazie

MaBru
01-07-2004, 16:44
Originariamente inviato da abitrulez
io vorrei rimanere fedele ad abit perche e una marca eccezionale con cui mi sono trovato benissimo per tanti anni e che da un supporto post vendita stupendo e poi per me ha i prodotti migliori e piu personalizzati
Dal tuo nick non si direbbe che ti piace Abit... :D

Jerry65
01-07-2004, 16:53
Originariamente inviato da abitrulez
Scusate io vorrei prendere una 6800 della Abit mi potreste dire quando uscira perche dal mio negoziante di fiducia nessuno sa nulla.

Ho letto che qua qualcuno di voi ha preso le POV ma io vorrei rimanere fedele ad abit perche e una marca eccezionale con cui mi sono trovato benissimo per tanti anni e che da un supporto post vendita stupendo e poi per me ha i prodotti migliori e piu personalizzati

e poi ho anche la scheda madre abit per pentium 4 l'ultima che hanno fatto che e

Vi ringrazio delle risposte che mi volete dare, spero solo che non ci voglia un altro mese ciao a tutti e grazie
Non vorrei deluderti ma se vai sul sito Abit trovi solo Radeon, che peraltro nessuno ha mai visto in giro. Non so se ha in programma di inserire schede con Chip nVidia.

Wizard77
01-07-2004, 17:02
Originariamente inviato da MaBru
Dal tuo nick non si direbbe che ti piace Abit... :D

infatti, io dal suo nick credevo preferisse Asus :D :D

Wizard77
01-07-2004, 17:09
Originariamente inviato da dwfgerw
digit life come x bit labs è da considerarsi ultra attendibile, le sue recensioni sono sempre estremamente dettagliate e im ho anche migliori di quelle di hwupgrade con tutto il rispetto per corsini.
In particolar modo queste recensioni sviscerano al meglio le architetture, basta che ti guardi le prime uscite per r420 e nv40 con quella miriade di test sintetici volti proprio a capire il funzionamento interno delle due gpu nei minimi particolari.

Cmq i driver sono ancora 61.34 beta, basta aspettare, questa architettura è nuvoa di zecca non può che crescere con il tempo.

non ne sono convinto

Dark Schneider
01-07-2004, 17:53
Originariamente inviato da nirvanboy81
Arrivata la GT!!!
Ragazzi ci vediamo dopo il formattone, vado!:sofico:

Il formattone? ...:mbe: :cry:
Aiuto! E' come doversi pulire la camera! Vado va..
Dopo torno con la Gt e un bel Raid 0!!
A dopo!:D


Ehi bravo...adesso vedi che mostro che è!! :D

Dark Schneider
01-07-2004, 17:57
Originariamente inviato da halduemilauno
http://www.digit-life.com/articles2/gffx/nv40-3-p1.html
;)


Bella recensione!! ;)

La 6800 liscia non va affatto male...bella schedina!! :)

abitrulez
01-07-2004, 17:57
Originariamente inviato da Jerry65
Non vorrei deluderti ma se vai sul sito Abit trovi solo Radeon, che peraltro nessuno ha mai visto in giro. Non so se ha in programma di inserire schede con Chip nVidia.

infatti non so , boh credo che aspettero' allora fino a settembre perche io voglio solo ed esclusivamente abit le godo un totale e se a settembre non ci sara allora prendero un radeon

ciao e grazie delle informazioni aggiornate

andreamarra
01-07-2004, 18:00
Originariamente inviato da PSYCOMANTIS
La x800xt non sembra piu' tanto veloce.....

Infatti.

Quindi la domanda è:

Quale bench dice la verità???

Il Demiurgo
01-07-2004, 18:00
Originariamente inviato da abitrulez
credo che aspettero' allora fino a settembre perche io voglio solo ed esclusivamente abit le godo un totale e se a settembre non ci sara allora prendero un radeon


:rolleyes:

silver976
01-07-2004, 18:08
Sicuramente la 800XT è un ottima scheda, bisognerà vedere quando implementeranno il PS3....magari poi li, il divario sarà + grande :sofico:

Cmq al momento, di XT in giro, manco l'ombra :confused:

andreamarra
01-07-2004, 18:11
Originariamente inviato da silver976
Sicuramente la 800XT è un ottima scheda, bisognerà vedere quando implementeranno il PS3....magari poi li, il divario sarà + grande :sofico:




Paradossalmente l'utilizzo dei ps3.0 potrebbe essere un vantaggio per la R420.

[in ogni caso quando implementerano i ps3.0 non se ne accorgerà nessuno -non ci sono differenze visive-]

In ogni caso mi rammarico del fatto che la NV40 non ha il 3DC... :(
Questa features avrebbe dato non solo maggiori guadagni prestazionali, ma soprattutto qualitativi.

Zak84
01-07-2004, 18:15
Originariamente inviato da abitrulez
infatti non so , boh credo che aspettero' allora fino a settembre perche io voglio solo ed esclusivamente abit le godo un totale e se a settembre non ci sara allora prendero un radeon

ciao e grazie delle informazioni aggiornate


Ma stai scherzando vero??? :confused:

Considera che ormai le schede video differiscono da produttore a prosuttore quasi sempre solo per lo stemma sul dissipatore.
Se hai scelto di prendere una scheda, penso che tu lo abbia fatto per il chip che monta e non per la marca del distributore.

Io ad esempio ho optato per una 6800Ultra della Asus solo per il fatto che ho sempre avuto Asus e mi sono sempre trovato bene, ma se Asus non avesse prodotto questa scheda avrei sicuramente scelto un'altra marca.

Comunque fa come vuoi!!! ;)

spak
01-07-2004, 18:20
[QUOTE]Originariamente inviato da andreamarra
Paradossalmente l'utilizzo dei ps3.0 potrebbe essere un vantaggio per la R420.

:confused:

Wizard77
01-07-2004, 18:22
Originariamente inviato da andreamarra
Paradossalmente l'utilizzo dei ps3.0 potrebbe essere un vantaggio per la R420.

[in ogni caso quando implementerano i ps3.0 non se ne accorgerà nessuno -non ci sono differenze visive-]

In ogni caso mi rammarico del fatto che la NV40 non ha il 3DC... :(
Questa features avrebbe dato non solo maggiori guadagni prestazionali, ma soprattutto qualitativi.


già il 3DC è una grande cosa, infatti io sono indeciso se prendermi una 6800 e una X800, vedrò verso sett/ott

andreamarra
01-07-2004, 18:26
Originariamente inviato da spak

:confused:

In linea teorica potrebbe esserlo.

Considera che i ps3.0 "reali" [ovvero quelli che satureranno completamente i ps2.0/2.0B] arriveranno fra molto tempo.
Considera inoltre che un ps3.0 attuale può essere renderizzato perfettamente da un ps2.0/2.0B

Considera inoltre (sempre a livello teorico, ovvio :) ) che

fp24+ps2.0/2.0B di ati

e

fp32+ps3.0 di nvidia

potrebbero avvantaggiare ati. Che non ha l'onere del fp32 (obbligatorio per i 3.0).
Praticamente, se da una parte i ps3.0 saranno gestiti più velocemente (ma bisogna considerare che la features importante della nvidia è proprio quel Dinamyc Branching che adesso è sconsigliatissimo), dall'altra abbiamo l'fp24 che è più leggero.

Ovviamente è tutto a livello teorico, l'ho premesso.

Per vedere come si comporterà la scheda con i ps3.0, occorre aspettaqre i giochi con ps3.0. Ma i veri ps3.0 non si vedranno per molto tempo, addirittura UnrealIII verrà gestito con ps di lunghezza assolutamente gestibile dai ps2.0

andreamarra
01-07-2004, 18:27
Originariamente inviato da Wizard77
già il 3DC è una grande cosa, infatti io sono indeciso se prendermi una 6800 e una X800, vedrò verso sett/ott

Se la Nv40 avesse avuto questo 3DC, non avrei avuto dubbi [GT tutta la vita]. E poi i giochi lo avrebbero utilizzato di sicuro, con grandi vantaaggi per la qualità video (oltre che la velocità)... altro che ps3.0 (che aiuteranno la velocità... la qualità maggiore si avrà solo quando la lunghezza dei ps3.0 sarà superiore alla lunghezza massima di un ps2.0/2.0B.

E avrei aspettato settembre ottobre per vedere dei prezzi calare.

Koji
01-07-2004, 18:42
Originariamente inviato da Dark Schneider
Bella recensione!! ;)

La 6800 liscia non va affatto male...bella schedina!! :)


Bella davvero, c'è anche il test con HL2.

X800XT e 6800Ultra sono più o meno alla pari, mentre la Liscia si difende in ogni situazione molto bene in tutte le situazioni. :)

Dark Schneider
01-07-2004, 18:43
Originariamente inviato da andreamarra
Se la Nv40 aveva questo 3DC, non avrei avuto dubbi [GT tutta la vita].

E avrei aspettato settembre ottobre per vedere dei prezzi calare.


Cmq Andrea non è che sto 3Dc è la tecnologia più importante che ci sia e per di più "indispensabile". E' una bella cosa. Ma potrebbe rivelarsi anche tutto lì. Per di più fino a quando sarà solo una scheda a supportarla...ho i miei dubbi che possa prendere piede nonostante l'implementazione sia semplice. Ma la realtà è un altra. I produttori hanno software house partner anche...e sta pur certo che quelle vicino a nVidia non supporteranno tale tecnologia. Per di più io non prenderei mai una scheda "perchè ha il 3dc".

Per di più nVidia con NV40 mica resta ferma nelle prestazione con l'fp32. Ovvio che aumenteranno anche quelle. A chi ancora si fa le pippe per il banding(risolto) dell'fp16 dico...che può accadere benissimo che come ha cannato Crytek...un domani può cannare un altra software house in un altro gioco e con l'FP24 con il risultato di non avere la corretta visualizzazione dell'FP24 e con tanto di banding. Ma non perchè l'FP24 fa schifo, ma perchè qlc è stato "cannato" a livello di shader. Può benissimo accadere.

Per di più chi ha anche "minimamente" creduto che NV40 ad inizio Maggio è uscito "sconfitto" si è sbagliato ed anche di tanto. :)

Thunder82
01-07-2004, 18:45
Originariamente inviato da Dark Schneider
Cmq Andrea non è che sto 3Dc è la tecnologia più importante che ci sia e per di più "indispensabile". E' una bella cosa. Ma potrebbe rivelarsi anche tutto lì. Per di più fino a quando sarà solo una scheda a supportarla

La stessa cosa si può dire dei ps3.0 :)

Dark Schneider
01-07-2004, 18:46
Originariamente inviato da Koji
Bella davvero, c'è anche il test con HL2.

X800XT e 6800Ultra sono più o meno alla pari, mentre la Liscia si difende in ogni situazione molto bene in tutte le situazioni. :)


Si anche se quella poi è una beta. :)

Cmq bella scheda!! :)

Dark Schneider
01-07-2004, 18:47
Originariamente inviato da Thunder82
La stessa cosa si può dire dei ps3.0 :)


Infatti io non ho comprato di certo una 6800 GT per gli shader 3.0!! ;)

Koji
01-07-2004, 18:47
Originariamente inviato da andreamarra
Se la Nv40 avesse avuto questo 3DC, non avrei avuto dubbi [GT tutta la vita]. E poi i giochi lo avrebbero utilizzato di sicuro, con grandi vantaaggi per la qualità video (oltre che la velocità)... altro che ps3.0 (che aiuteranno la velocità... la qualità maggiore si avrà solo quando la lunghezza dei ps3.0 sarà superiore alla lunghezza massima di un ps2.0/2.0B.

E avrei aspettato settembre ottobre per vedere dei prezzi calare.


Ma se vuoi il 3DC prenditi la x800. La Pro è un pò sotto la Gt, ma se è la qualità visiva che prediligi, non dovresti avere dubbi. ;)

Dark Schneider
01-07-2004, 18:50
Originariamente inviato da abitrulez
infatti non so , boh credo che aspettero' allora fino a settembre perche io voglio solo ed esclusivamente abit le godo un totale e se a settembre non ci sara allora prendero un radeon

ciao e grazie delle informazioni aggiornate


Scusa ma che ti cambia? Abit e company..son tutte uguali. Non capisco perchè fissarsi su Abit.:confused:

giggino
01-07-2004, 18:56
wow, ho installato le directx 9.0c (beta) ed ora Timbury fluuuido a 20 fps :eek:

Dark Schneider
01-07-2004, 19:00
Originariamente inviato da giggino
wow, ho installato le directx 9.0c (beta) ed ora Timbury fluuuido a 20 fps :eek:


Ah si?

Cmq ma secondo me era un problema di swapping...cioè mi ci metteva almeno due minuti solo per caricare la demo!! :confused:

giggino
01-07-2004, 19:02
Originariamente inviato da Dark Schneider
Ah si?

Cmq ma secondo me era un problema di swapping...cioè mi ci metteva almeno due minuti solo per caricare la demo!! :confused:

a me non swappava con 1 Gb di ram, era solo uno slideshow a 3-5 fps prima :oink:

andreamarra
01-07-2004, 19:02
Originariamente inviato da Dark Schneider
Cmq Andrea non è che sto 3Dc è la tecnologia più importante che ci sia e per di più "indispensabile". E' una bella cosa. Ma potrebbe rivelarsi anche tutto lì. Per di più fino a quando sarà solo una scheda a supportarla...ho i miei dubbi che possa prendere piede nonostante l'implementazione sia semplice. Ma la realtà è un altra. I produttori hanno software house partner anche...e sta pur certo che quelle vicino a nVidia non supporteranno tale tecnologia. Per di più io non prenderei mai una scheda "perchè ha il 3dc".

Per di più nVidia con NV40 mica resta ferma nelle prestazione con l'fp32. Ovvio che aumenteranno anche quelle. A chi ancora si fa le pippe per il banding(risolto) dell'fp16 dico...che può accadere benissimo che come ha cannato Crytek...un domani può cannare un altra software house in un altro gioco e con l'FP24 con il risultato di non avere la corretta visualizzazione dell'FP24 e con tanto di banding. Ma non perchè l'FP24 fa schifo, ma perchè qlc è stato "cannato" a livello di shader. Può benissimo accadere.

Per di più chi ha anche "minimamente" creduto che NV40 ad inizio Maggio è uscito "sconfitto" si è sbagliato ed anche di tanto. :)

Io infatti volevo che il 3DC fosse implementato anche da nvidia proprio per far si che prendesse piede.

Se sarà utilizzato in giochi come in HL2, darà un tocco di realismo notevole.

In ogni caso, non significa molto il fatto che una sola famiglia di schede gestisca un effetto. Altrimenti i ps3.0 (gestiti solo dall NV40) non dovrebbero essere neanche presi in considerazione. Eppure...

Per dovere di cronaca, io ero abbastanza scettico prima dell'uscita della NV40. Non credevo mai e poi mai che la nvidia potesse far uscire una scheda che tenesse (e in certi casi oltrepassasse) la R420, poichè sapevo che quest'ultima era veloce più del doppio di una 9800XT.

andreamarra
01-07-2004, 19:07
Originariamente inviato da Koji
Ma se vuoi il 3DC prenditi la x800. La Pro è un pò sotto la Gt, ma se è la qualità visiva che prediligi, non dovresti avere dubbi. ;)

Il 3DC se sarà supportato sarà una gran cosa. Non sono sicuro che verrà utilizzato in maniera massiccia, ma considerando che gli stessi programmatori dicono di averla chiesta a gran voce... Insomma, tra tante features ipotetiche o reali quella del 3DC mi stuzzica di più. Perchè implemeta un sistema capace di rendere le texture incredibilmente realistiche, con un carico di scheda video minore. Se sarà implementata bene, potrebbe essere la vera rivoluzione.

Ecco, diciamo che dopo l'estate quando riaccenderò il computer, vedrò il panorama videoludico molto diverso (spero). Allora li comincerò ad avere le idee più chiare. Vedrò i bench di Hl2 e di DooMIII, allora li si capirà bene cosa comprare.

Considera che non ho la smania di cambiare scheda video, ma lo devo fare per non far svalutare troppo l'attuale in sign (che venderei).

andreamarra
01-07-2004, 19:10
Originariamente inviato da Thunder82
La stessa cosa si può dire dei ps3.0 :)

Tra l'altro consideriamo anche che i ps3.0 sono attualmente gestiti da una sola famiglia di schede video.

Teoricamente, allora neanche i ps3.0 dovrebbero prendere il sopravvento.

Io spero che ps3.0 (ma quelli reali, non quelli facilmente emulabili con ps2.0/2.0B...) vengano utilizzati molto, copsì come i vertex 3.0 e il 3DC.

Koji
01-07-2004, 19:10
A proposito della 6800liscia di MSI, negli shop dove sta per arrivare, leggendo la descrizione scrivono tutti:

128mb DDR3!

Sarà vero? :eek:

MaBru
01-07-2004, 19:14
Koji,
in quali shop?

spak
01-07-2004, 19:15
Originariamente inviato da andreamarra
In linea teorica potrebbe esserlo.

Considera che i ps3.0 "reali" [ovvero quelli che satureranno completamente i ps2.0/2.0B] arriveranno fra molto tempo.
Considera inoltre che un ps3.0 attuale può essere renderizzato perfettamente da un ps2.0/2.0B

Considera inoltre (sempre a livello teorico, ovvio :) ) che

fp24+ps2.0/2.0B di ati

e

fp32+ps3.0 di nvidia

potrebbero avvantaggiare ati. Che non ha l'onere del fp32 (obbligatorio per i 3.0).
Praticamente, se da una parte i ps3.0 saranno gestiti più velocemente (ma bisogna considerare che la features importante della nvidia è proprio quel Dinamyc Branching che adesso è sconsigliatissimo), dall'altra abbiamo l'fp24 che è più leggero.

Ovviamente è tutto a livello teorico, l'ho premesso.

Per vedere come si comporterà la scheda con i ps3.0, occorre aspettaqre i giochi con ps3.0. Ma i veri ps3.0 non si vedranno per molto tempo, addirittura UnrealIII verrà gestito con ps di lunghezza assolutamente gestibile dai ps2.0

E da vedere, di fatto, le ati non saranno mai ps3 (almeno fino a x800) una volta usciti i game ps3 si dovrà vedere che approccio verrà utilizzato da ati se emulare i ps3 con una doppia passata di ps2 e le prestazioni :cry: o rimanere ps2 poi le differenze con i ps3 rispetto a ps2 ??? che non ci sia nesssssuna differenza mi sembra strano altrimenti che senso ha x winzzoz di perderci tempo e denaro.

capoz
01-07-2004, 19:15
Originariamente inviato da Koji
A proposito della 6800liscia di MSI, negli shop dove sta per arrivare, leggendo la descrizione scrivono tutti:

128mb DDR3!

Sarà vero? :eek:


bah non penso sai quelle sono specifiche di nvidia non sò se gli conviene rifare il layout delle schede solo per montare ke ddr3

Thunder82
01-07-2004, 19:17
Originariamente inviato da andreamarra

Io spero che ps3.0 (ma quelli reali, non quelli facilmente emulabili con ps2.0/2.0B...) vengano utilizzati molto, copsì come i vertex 3.0 e il 3DC.

L'unica caratteristica veramente differente nei ps 3.0 è il dynamic branching, ma nVidia stessa ne sconsiglia fortemente l'uso ai programmatori perchè darebbe una sonora mazzata sulle gengive alle prestazioni :)

Alla fine quindi tutto si risolve in tecnologie che danno prestazioni in più e qualità visiva uguale a prima (i ps3.0 danno un vantaggio teorico di velocità a nVidia, il 3dc dà un vantaggio teorico a ATi) quindi sommando le cose si equivalgono...

probabilmente la prox generazione (forse NV48/r480?) potrà gestire decentemente il dynamic branching e allora si vedranno differenze

Koji
01-07-2004, 19:21
Originariamente inviato da MaBru
Koji,
in quali shop?

Ovviamente non italiani. :rolleyes:

Qui (http://www.hardshop.gr/shop/item.asp?itemid=571&catid=15) e qui (http://www.perfect-systems.nl/info.asp?Info=50444)

Se fosse vero sarebbe un valore aggiunto per queste schede, maggiori margini di oc. :)

andreamarra
01-07-2004, 19:22
Originariamente inviato da spak
E da vedere, di fatto, le ati non saranno mai ps3 (almeno fino a x800) una volta usciti i game ps3 si dovrà vedere che approccio verrà utilizzato da ati se emulare i ps3 con una doppia passata di ps2 e le prestazioni :cry: o rimanere ps2 poi le differenze con i ps3 rispetto a ps2 ??? che non ci sia nesssssuna differenza mi sembra strano altrimenti che senso ha x winzzoz di perderci tempo e denaro.

Non ci saranno differenze visive tra ps2.0 e ps3.0 (almemno per i prossimi 2 anni, considera che UnrealIII nonostante sfrutti i ps3.0, ha gli shader di lunghezza tale da essere tranquillamente gestiti anche dai semplici ps2.0... figurati i ps2.0B di R420)

Non centra nulla la "doppia passata".

"emulare" è un termine sbagliato (che io ho erroneamente usato) e significa questo: che di fronte a un ps la nvidia (se il gioco supporterà i ps3.0) utilizzerà l'fp32 e "salterà istruzioni" per ottenere maggiore velocità. Il risultato qualitativo, ad esempio, sarà 5.
La R420 di fronte a un ps (anche qualora il gioco utilizzerà i ps3.0) utilizzerà l'fp24 e renderizzerà un ps2.0/2.oB. IL risultato qualitativo sarà, ad esempio, esattamente come per lo shader di nvidia: 5.

Bisognerà vedere la resa velocistica. Che, a livello teorico, potrebbe non essere un vantaggio per nvidia, nè uno vantaggio per ati.

Praticamente il ps3.0 serve per renderizzare in maniera più veloce (facendo "salti di codice ripetuto" -ma per farlo occorre il branchynd dinamyc, che sega le prestazioni attualmente) uno shader 2.0

Perdita di tempo? Di denaro? Nessuno spreco. Il marketing serve a questo, a far vendere di più, spesso utilizzando slogan o altro.
Pensa a quanti nel mondo compreranno NV40 dopo aver visto le foto fake di FC con ps2.0 e ps3.0...


In pratica è come se tu con la macchina vuoi andare da A a B e fai una strada più lunga (ati), oppure se per passare da Aa B fai alcune deviazioni per arrivare prima (nvidia).
E non è detto che il tempo di percorrenza sia minore.
Cmq leggi qua per vedere cosa faranno effettivamente gli shader 3.0 http://forum.hwupgrade.it/showthread.php?s=&postid=5009178#post5009178

Koji
01-07-2004, 19:22
Originariamente inviato da capoz
bah non penso sai quelle sono specifiche di nvidia non sò se gli conviene rifare il layout delle schede solo per montare ke ddr3

Beh, ma MSI si sa che personalizza molto le proprie schede.

capoz
01-07-2004, 19:23
Originariamente inviato da Koji
Ovviamente non italiani. :rolleyes:

Qui (http://www.hardshop.gr/shop/item.asp?itemid=571&catid=15) e qui (http://www.perfect-systems.nl/info.asp?Info=50444)

Se fosse vero sarebbe un valore aggiunto per queste schede, maggiori margini di oc. :)


vedendo la schea però sembra di si perchè le 6800 non sono identiche alle GT e le ultra (parlo per POV)

abitrulez
01-07-2004, 19:47
Originariamente inviato da Zak84
Ma stai scherzando vero??? :confused:

Considera che ormai le schede video differiscono da produttore a prosuttore quasi sempre solo per lo stemma sul dissipatore.
Se hai scelto di prendere una scheda, penso che tu lo abbia fatto per il chip che monta e non per la marca del distributore.

Io ad esempio ho optato per una 6800Ultra della Asus solo per il fatto che ho sempre avuto Asus e mi sono sempre trovato bene, ma se Asus non avesse prodotto questa scheda avrei sicuramente scelto un'altra marca.

Comunque fa come vuoi!!! ;)

Dici che sono tutte uguali ? mah io non credo nel senso che mi e capitato in passato di aver preso alcune cose di tante marche diverse,io cambio computer molto spesso, e vi giuro ho sempre avuto tanti problemi , invece da quando sono passato ad abit sia per scheda madre (stabile al 100% ) sia come scheda video (ultima una abit siluro 4200) non ho mai avuto problemi e praticamente non ho mai formattato 1 volta in 2 ANNI.

Poco tempo fa circa 7/8 mesi ho preso una abit 9600 radeon e anche questa non mi ha mai dato problemi , ti giuro abit e una favola e io ho deciso che fino a che non mi dara problemi non la cambiero mai.

Poi quelli del mio negozio ne parlano sempre cosi bene dicono che sono i migliori e loro ne installano tante di schede madri abit.

Dici che non e vero forse ? magari mi sbaglio e sono stato solo fortunato boh... e meglio asus ?

abitrulez
01-07-2004, 19:49
Originariamente inviato da Dark Schneider
Scusa ma che ti cambia? Abit e company..son tutte uguali. Non capisco perchè fissarsi su Abit.:confused:

Mi sono fissato e vero ma solo perche non mi ha mai creato problemi ma se voi mi dite che non e vero e sono solo stato fortunato cosa mi consigliate ?

Io vi assicuro che negli ultimi 3 anni cioe da quando ho messo solo componenti abit (scheda madre + scheda video) praticamente non ho mai dovuto formattare e non ho mai avuto alcun problema al computer, prima era un casino... montavo componenti microstar,biostar,gigabyte,creative...

Boh non so cosa dire raga magari sono stato fortunato, pero non ho mai provato asus , voi dite che e migliore ?

ciao

PSYCOMANTIS
01-07-2004, 19:56
Originariamente inviato da andreamarra
Non ci saranno differenze visive tra ps2.0 e ps3.0 (almemno per i prossimi 2 anni, considera che UnrealIII nonostante sfrutti i ps3.0, ha gli shader di lunghezza tale da essere tranquillamente gestiti anche dai semplici ps2.0... figurati i ps2.0B di R420)

Non centra nulla la "doppia passata".

"emulare" è un termine sbagliato (che io ho erroneamente usato) e significa questo: che di fronte a un ps la nvidia (se il gioco supporterà i ps3.0) utilizzerà l'fp32 e "salterà istruzioni" per ottenere maggiore velocità. Il risultato qualitativo, ad esempio, sarà 5.
La R420 di fronte a un ps (anche qualora il gioco utilizzerà i ps3.0) utilizzerà l'fp24 e renderizzerà un ps2.0/2.oB. IL risultato qualitativo sarà, ad esempio, esattamente come per lo shader di nvidia: 5.

Bisognerà vedere la resa velocistica. Che, a livello teorico, potrebbe non essere un vantaggio per nvidia, nè uno vantaggio per ati.

Praticamente il ps3.0 serve per renderizzare in maniera più veloce (facendo "salti di codice ripetuto" -ma per farlo occorre il branchynd dinamyc, che sega le prestazioni attualmente) uno shader 2.0

Perdita di tempo? Di denaro? Nessuno spreco. Il marketing serve a questo, a far vendere di più, spesso utilizzando slogan o altro.
Pensa a quanti nel mondo compreranno NV40 dopo aver visto le foto fake di FC con ps2.0 e ps3.0...


In pratica è come se tu con la macchina vuoi andare da A a B e fai una strada più lunga (ati), oppure se per passare da Aa B fai alcune deviazioni per arrivare prima (nvidia).
E non è detto che il tempo di percorrenza sia minore.
Cmq leggi qua per vedere cosa faranno effettivamente gli shader 3.0 http://forum.hwupgrade.it/showthread.php?s=&postid=5009178#post5009178



http://www.rage3d.com/board/showthread.php?t=33767223

Apparently a reliable source states the X800 series will not be able to reproduce the new visual effects (v. displacement mapping) in the Far Cry 1.2 patch. A Shader Model 3.0 card like the 6800 series is required for these effects.

"Well people, it appears we will not be seeing virtual displacement, or offset, or any other new shaders the upcoming Far Cry patch will bring to the table. I've been talking to my press sources in Crytek/Ubi and a SM 3.0 compliant card is an absolute requirement to see any of the new eye candy"

This somewhat jives with the below statement from Crytek, that implies that SM3.0 adds new effects:
:rolleyes:

pinguino1981
01-07-2004, 19:58
salve a tutti, verso metà luglio avrei intenzione di aquistare una 6800gt e stare così tranquillo per un paio di annetti, il punto è...avete detto che queste schede sono limitate dal processore, e allora vi chiedo se con il mio pc una gt sarebbe una spesa sprecata e mi converrebbe una liscia ????

athlon xp 1800
512 Mb (266)
disco da 7200 giri
epox 8rda3+

e poi un'altra domanda, in seguito alla scheda dovrei aggiornare qualcos'altro e allora una consiglio.
1. è meglio aggiornare la ram a 400 o il proc.?????

2. proc 2800 e ram 400(senza marca) o overclock del 1800 e ram buona di marca?

mille grazie aspetto i vostri consigli.
potreste rispondere sia al punto uno che al punto 2.grazie

:) :) :)

redbaron
01-07-2004, 20:02
Originariamente inviato da pinguino1981
salve a tutti, verso metà luglio avrei intenzione di aquistare una 6800gt e stare così tranquillo per un paio di annetti, il punto è...avete detto che queste schede sono limitate dal processore, e allora vi chiedo se con il mio pc una gt sarebbe una spesa sprecata e mi converrebbe una liscia ????

athlon xp 1800
512 Mb (266)
disco da 7200 giri
epox 8rda3+

e poi un'altra domanda, in seguito alla scheda dovrei aggiornare qualcos'altro e allora una consiglio.
1. è meglio aggiornare la ram a 400 o il proc.?????

2. proc 2800 e ram 400(senza marca) o overclock del 1800 e ram buona di marca?

mille grazie aspetto i vostri consigli.
potreste rispondere sia al punto uno che al punto 2.grazie

:) :) :)

Dipende quanti soldi hai da spendere, scheda compresa. ;)

Zak84
01-07-2004, 20:26
Originariamente inviato da abitrulez
Mi sono fissato e vero ma solo perche non mi ha mai creato problemi ma se voi mi dite che non e vero e sono solo stato fortunato cosa mi consigliate ?

Io vi assicuro che negli ultimi 3 anni cioe da quando ho messo solo componenti abit (scheda madre + scheda video) praticamente non ho mai dovuto formattare e non ho mai avuto alcun problema al computer, prima era un casino... montavo componenti microstar,biostar,gigabyte,creative...

Boh non so cosa dire raga magari sono stato fortunato, pero non ho mai provato asus , voi dite che e migliore ?

ciao

Io non ho detto che Asus sia migliore di altre, ma ho detto che io prendo asus perchè ho sempre avuto questa marca e mi sono sempre trovato molto bene.

Per quanto riguarda le schede video tutte le marche si equivalgono, e quindi secondo me se hai deciso di prendere la 6800 gt non cambiare idea solo perchè non la commercializza abit. Tutto qua. ;)

andreamarra
01-07-2004, 20:29
Originariamente inviato da PSYCOMANTIS
http://www.rage3d.com/board/showthread.php?t=33767223

Apparently a reliable source states the X800 series will not be able to reproduce the new visual effects (v. displacement mapping) in the Far Cry 1.2 patch. A Shader Model 3.0 card like the 6800 series is required for these effects.

"Well people, it appears we will not be seeing virtual displacement, or offset, or any other new shaders the upcoming Far Cry patch will bring to the table. I've been talking to my press sources in Crytek/Ubi and a SM 3.0 compliant card is an absolute requirement to see any of the new eye candy"

This somewhat jives with the below statement from Crytek, that implies that SM3.0 adds new effects:
:rolleyes:

Bene, alcuni dicono una cosa e altri l'opposto.

lanfste
01-07-2004, 20:29
Originariamente inviato da pinguino1981
salve a tutti, verso metà luglio avrei intenzione di aquistare una 6800gt e stare così tranquillo per un paio di annetti, il punto è...avete detto che queste schede sono limitate dal processore, e allora vi chiedo se con il mio pc una gt sarebbe una spesa sprecata e mi converrebbe una liscia ????

athlon xp 1800
512 Mb (266)
disco da 7200 giri
epox 8rda3+

e poi un'altra domanda, in seguito alla scheda dovrei aggiornare qualcos'altro e allora una consiglio.
1. è meglio aggiornare la ram a 400 o il proc.?????

2. proc 2800 e ram 400(senza marca) o overclock del 1800 e ram buona di marca?

mille grazie aspetto i vostri consigli.
potreste rispondere sia al punto uno che al punto 2.grazie

:) :) :)

io prenderei 2 banchi da 512MB di Vitesta DDR400 (costano poco !!) e stai a posto per un bel pò;
poi un procio con bus a 200Mhz (di AMD non conosco molto), che ne sò, almeno un 2600+.

;)

lanfste
01-07-2004, 20:31
oppure un XP-M (mobile) 2500+ !!!!
(costa ancora di meno, scalda di meno e lo OC di più !!!)

andreamarra
01-07-2004, 20:33
Cmq, ne ho un pò le palle piene di leggere da una parte una cosa e poi avere la smentita.

Poi una riconferma, e poi una rismentita.

A dopo l'estate, allora.

pon 87
01-07-2004, 20:37
ma è uscita la nuova patch 1,2 di far cry???

Zak84
01-07-2004, 20:40
Ancora no. ;)

amd-novello
01-07-2004, 21:00
Originariamente inviato da andreamarra
Cmq, ne ho un pò le palle piene di leggere da una parte una cosa e poi avere la smentita.

Poi una riconferma, e poi una rismentita.

A dopo l'estate, allora.

quoto

MaBru
01-07-2004, 22:01
Originariamente inviato da PSYCOMANTIS
http://www.rage3d.com/board/showthread.php?t=33767223

Apparently a reliable source states the X800 series will not be able to reproduce the new visual effects (v. displacement mapping) in the Far Cry 1.2 patch. A Shader Model 3.0 card like the 6800 series is required for these effects.

"Well people, it appears we will not be seeing virtual displacement, or offset, or any other new shaders the upcoming Far Cry patch will bring to the table. I've been talking to my press sources in Crytek/Ubi and a SM 3.0 compliant card is an absolute requirement to see any of the new eye candy"

This somewhat jives with the below statement from Crytek, that implies that SM3.0 adds new effects:
:rolleyes:
Bella cazzata.
Humus ha scritto una demo che sfrutta il parallax mapping che gira tranquillamente su R300. Un conto è non poter fare una cosa, un altro non voler...

abitrulez
01-07-2004, 22:14
Originariamente inviato da Zak84
Io non ho detto che Asus sia migliore di altre, ma ho detto che io prendo asus perchè ho sempre avuto questa marca e mi sono sempre trovato molto bene.

Per quanto riguarda le schede video tutte le marche si equivalgono, e quindi secondo me se hai deciso di prendere la 6800 gt non cambiare idea solo perchè non la commercializza abit. Tutto qua. ;)

Forse hai ragione, ma sono fortemente indeciso... mi sono trovato troppo bene con abit come tu lo sei stato con asus... ho paura a cambiare... e se poi mi da dei problemi ?

credo che alla fine prendero il radeon, in fondo se abit non fa le 6800 qualche motivo potrebbe anche esserci, bho io non me ne intendo komunque a settembre sikuramente devo prendere la scheda e se abit non fa la 6800 nel sito non dice niente di niente a riguardo allora prendere una x800 buona notte a tutti

MaBru
01-07-2004, 22:37
Non notate qualcosa di strano nelle due immagini?

POV 6800 liscia
http://www.hwmagic.com/admini/immagini/POV6800.jpg
POV 6800 GT
http://www.nuxpress.com/admini/immagini/GF6800GT-BOXnh.jpg

Perché la lissia ha così tanti condensatori?

Nelson Muntz
01-07-2004, 22:57
Originariamente inviato da MaBru
Bella cazzata.
Humus ha scritto una demo che sfrutta il parallax mapping che gira tranquillamente su R300. Un conto è non poter fare una cosa, un altro non voler...

Esatto! ;)

Tutti ciò che fa il PS3 può essere fatto anche dal 2... ma vabbé... dopotutto FarCry è "TWIMTBP" :p

nirvanboy81
02-07-2004, 00:33
Cazz@ ragazzi sono nella merda. Ho formattato la prima volta il pc per mettere la 6800 ma non riuscivo a configurare il RAID e ho ricominciato dall'inizio.Solo che ora la situazione è ben peggiore.All'accensione il pc non emette nessun suono e il video resta nero con il messaggio "nessun ingresso video". Che diavolo è successo?? Aiutatemi!!:cry:

Ren
02-07-2004, 00:54
la liscia ne ha di + perchè le Memorie ddr lavorano con voltaggi maggiori.

MaBru
02-07-2004, 09:26
Anand ha testato la patch 1.2 di Far Cry.

http://www.anandtech.com/video/showdoc.html?i=2102

Custode
02-07-2004, 09:36
Appena visionati i bench con la patch 1.2:

a me ha colpito una cosa che con gli SM3 non ci azzecca nulla.

Non ho seguito tutti i bench del mondo, ma ATI in Far Cry non doveva disintegrare Nvidia? Cioè, in quei bench, con i filtri a palla, campo dove ATI dovrebbe andar meglio, sta sempre sotto Nvidia.

E non iniziamo con le tifoserie, la mia è solo una domanda, grazie:)

Ciao.

Il Demiurgo
02-07-2004, 10:14
Originariamente inviato da Custode
Appena visionati i bench con la patch 1.2:

a me ha colpito una cosa che con gli SM3 non ci azzecca nulla.

Non ho seguito tutti i bench del mondo, ma ATI in Far Cry non doveva disintegrare Nvidia? Cioè, in quei bench, con i filtri a palla, campo dove ATI dovrebbe andar meglio, sta sempre sotto Nvidia.

E non iniziamo con le tifoserie, la mia è solo una domanda, grazie:)

Ciao.

A me risulta che l'impatto prestazionale dei filtri sulle nvidia (61.34 in poi) sia minore che sulle ATI nella maggior parte dei giochi.
E' l'impressione generale che ho avuto leggendo un pò di recensioni, potrei sbagliarmi...

crice
02-07-2004, 10:15
i casi sono 2:
o quei bench sono sbagliati, o sono sbaglaite le recensoni di tutto il mondo....ma dai, ma come si fa a pensare di far uscire dei bench così..
ridicolo
si sono anche dimenticati di cancellare le prove..
http://www.anandtech.com/video/showimage.html?u=http://images.anandtech.com/reviews/video/nvidia/farcrysm3/researchati.jpg
http://www.anandtech.com/video/showimage.html?u=http://images.anandtech.com/reviews/video/nvidia/farcrysm3/researchsm3.jpg
quardate in alto i risultati....

cosworth6k
02-07-2004, 10:24
6800 ULTRA pow arrivata (hwmagic),anche questa ha nalu "stampata" sulla scheda.

DjLode
02-07-2004, 10:26
Originariamente inviato da Custode
Appena visionati i bench con la patch 1.2:

a me ha colpito una cosa che con gli SM3 non ci azzecca nulla.

Non ho seguito tutti i bench del mondo, ma ATI in Far Cry non doveva disintegrare Nvidia? Cioè, in quei bench, con i filtri a palla, campo dove ATI dovrebbe andar meglio, sta sempre sotto Nvidia.

E non iniziamo con le tifoserie, la mia è solo una domanda, grazie:)

Ciao.

Ok, ti rispondo :)
Gli unici 4 livelli dove i guadagni sono mostruosi sono demo forniti da Nvidia.
Negli altri si hanno aumenti di 2 fps al massimo.

Il Demiurgo
02-07-2004, 10:32
Originariamente inviato da DjLode
Ok, ti rispondo :)
Gli unici 4 livelli dove i guadagni sono mostruosi sono demo forniti da Nvidia.
Negli altri si hanno aumenti di 2 fps al massimo.

Hai ragione riguardo agli SM3.0.
Però Custode ha fatto una domanda diversa... :D

Custode
02-07-2004, 10:34
Sì, mi rendo conto che gli aumenti prestazionali sono minimi (di fatti gli unici consistenti provengono da demo fornite da Nvidia, pur se facenti parte del gioco reale), ma non mi riferivo a questo, ma al fatto che a prescindere da SM2 o SM3, con i filtri le Nvidia stanno sopra ad ATI...:confused:

Non dovrebbe essere il contrario, e cioè che ATI sfoggia prestazioni migliori proprio con i filtri?

E' questo che mi ha colpito di quei bench, anche in virtù del fatto che ho letto le X800 aumentare in potenza meglio delle Nvidia all'aumentare della potenza della GPU (e credo che l' Athlon 64 3400+ rappresenti il massimo oggi raggiungibile per molti...).

Era solo una curiosità :)

Grazie comunque delle risposte, ciao.

andreamarra
02-07-2004, 10:36
Originariamente inviato da PSYCOMANTIS
http://www.rage3d.com/board/showthread.php?t=33767223

Apparently a reliable source states the X800 series will not be able to reproduce the new visual effects (v. displacement mapping) in the Far Cry 1.2 patch. A Shader Model 3.0 card like the 6800 series is required for these effects.

"Well people, it appears we will not be seeing virtual displacement, or offset, or any other new shaders the upcoming Far Cry patch will bring to the table. I've been talking to my press sources in Crytek/Ubi and a SM 3.0 compliant card is an absolute requirement to see any of the new eye candy"

This somewhat jives with the below statement from Crytek, that implies that SM3.0 adds new effects:
:rolleyes:

Ora che ci penso, lo stesso displacement mapping...

In un articolo leggo che sarà presente sia su NV40 che su R420. Poi leggo che non sarà presente in nessuno dei due. Poi leggo che ci saràò su NV40 e non su R420.

Infine leggo che il displacemente mapping "nativo" non sarà presente nè su NV40, nè su R420. In pratica ti riporto la frase di fek dopo alcuni test e controlli sui nuovi due bolidi. Stando a lui entrambi i chip hanno il displacement mapping. Ma non di tipo adattivo, in pratica ne hanno uno "emulato".

Anche su questo displacement si possono trovare articoli che dicono una cosa, articoli che ne dicono un'altra, articoli che negano e così via.

E non capisco perchè ci siano tutti questi misteri :confused: ???

Insomma, se lo leggo in un articolo, mi fido abbastanza. Se lo dice un programmatore (l'ha confermato anche su nvitalia) allora mi fido di più... :confused:

redbaron
02-07-2004, 10:39
Originariamente inviato da andreamarra
Ora che ci penso, lo stesso displacement mapping...

In un articolo leggo che sarà presente sia su NV40 che su R420. Poi leggo che non sarà presente in nessuno dei due. Poi leggo che ci saràò su NV40 e non su R420.

Infine leggo che il displacemente mapping "nativo" non sarà presente nè su NV40, nè su R420. In pratica ti riporto la frase di fek dopo alcuni test e controlli sui nuovi due bolidi. Stando a lui entrambi i chip hanno il displacement mapping. Ma non di tipo adattivo, in pratica ne hanno uno "emulato".

Anche su questo displacement si possono trovare articoli che dicono una cosa, articoli che ne dicono un'altra, articoli che negano e così via.

E non capisco perchè ci siano tutti questi misteri :confused: ???

Insomma, se lo leggo in un articolo, mi fido abbastanza. Se lo dice un programmatore (l'ha confermato anche su nvitalia) allora mi fido di più... :confused:

Un esempio di displacement mapping lo puoi vedere con chronicles of riddick su xbox. Se ce la fa quella geforce3/4 non vedo problemi per le altre schede video.

DjLode
02-07-2004, 10:41
Originariamente inviato da Il Demiurgo
Hai ragione riguardo agli SM3.0.
Però Custode ha fatto una domanda diversa... :D

Cito a memoria (anzi a copia e incolla):
"Non ho seguito tutti i bench del mondo, ma ATI in Far Cry non doveva disintegrare Nvidia?"

E' una domanda, a cui ho dato una risposta :)

andreamarra
02-07-2004, 10:41
Perfetto :p

Siccome cominciavano a quadrare alcuni tasselli, adesso arriva questo bench di FC che scombussola tutto :p

Perchè ci sono aumenti così consistenti? Non penso che da soli i driver possano fare una cosa del genere.

Vengono usati i sm3.0, insieme al fp32 giusto?

Ma è possibile? Mi sembrano troppo esagerati certi valori.

[se è così: meglio, almeno se dovessi comprare una NV40 avrei meno problemi]

andreamarra
02-07-2004, 10:43
Originariamente inviato da redbaron
Un esempio di displacement mapping lo puoi vedere con chronicles of riddick su xbox. Se ce la fa quella geforce3/4 non vedo problemi per le altre schede video.

Non sapevo :)

Cmq da come si legge, sembra che questo DM sia una trovata della nvidia, in esclusiva solo per la NV40...

Francamente, credevo che con il tempo certi dubbi venissero dissipati.. qua invece ne escono sempre di nuovi :p

DjLode
02-07-2004, 10:44
Originariamente inviato da Custode
Non dovrebbe essere il contrario, e cioè che ATI sfoggia prestazioni migliori proprio con i filtri?


A quanto pare (ma è dall'inizio che si sa la cosa) l'AA 4x Nvidia è più efficiente di quello Ati. Se però si sale (ad esempio si usano le modalità miste di Nvidia e il 6x Ati) l'AA Ati ritorna ad essere più veloce.

DjLode
02-07-2004, 10:45
Originariamente inviato da redbaron
Un esempio di displacement mapping lo puoi vedere con chronicles of riddick su xbox. Se ce la fa quella geforce3/4 non vedo problemi per le altre schede video.

Fek ha detto che è possibile fare una sorta di DM con buoni risultati usando i VS 1.1

Dark Schneider
02-07-2004, 10:50
Originariamente inviato da andreamarra
Io infatti volevo che il 3DC fosse implementato anche da nvidia proprio per far si che prendesse piede.

Se sarà utilizzato in giochi come in HL2, darà un tocco di realismo notevole.

In ogni caso, non significa molto il fatto che una sola famiglia di schede gestisca un effetto. Altrimenti i ps3.0 (gestiti solo dall NV40) non dovrebbero essere neanche presi in considerazione. Eppure...

Per dovere di cronaca, io ero abbastanza scettico prima dell'uscita della NV40. Non credevo mai e poi mai che la nvidia potesse far uscire una scheda che tenesse (e in certi casi oltrepassasse) la R420, poichè sapevo che quest'ultima era veloce più del doppio di una 9800XT.


Si ma quello che voglio dire che la mancanza del 3Dc non è un motivo cmq valido per non comprare NV40.

Sinceramente parlando in passato ne ho visti anche troppi di "annunci di supporto" con una sfilza di titoli...ma poi... mi ricordo ancora l'EMBM.
Insomma ne passerà di tempo anche per il 3Dc nonostante ripeto la sua implementazione non è difficile. Appunto dico non comprerei mai una scheda perchè "supporta il 3Dc". Ci son cose ben più importanti da considerare prima.
Io prima di tutto guardo alla scheda in sè, poi al resto. Certo se c'era anche il 3Dc o qlc di simile mi faceva piacere. :)

Dark Schneider
02-07-2004, 10:57
Originariamente inviato da abitrulez
Mi sono fissato e vero ma solo perche non mi ha mai creato problemi ma se voi mi dite che non e vero e sono solo stato fortunato cosa mi consigliate ?

Io vi assicuro che negli ultimi 3 anni cioe da quando ho messo solo componenti abit (scheda madre + scheda video) praticamente non ho mai dovuto formattare e non ho mai avuto alcun problema al computer, prima era un casino... montavo componenti microstar,biostar,gigabyte,creative...

Boh non so cosa dire raga magari sono stato fortunato, pero non ho mai provato asus , voi dite che e migliore ?

ciao


Ma intanto tu quale 6800 vuoi?liscia? GT o Ultra?
Cmq buone marche sono POV (quella che adesso stanno prendendo tutti..per me la migliore). Poi cmq anche Gigabyte, Asus, Gainward(te la sconsiglio troppo costosa), Chaintech,ecc. son buone.

Dark Schneider
02-07-2004, 11:01
Originariamente inviato da pinguino1981
salve a tutti, verso metà luglio avrei intenzione di aquistare una 6800gt e stare così tranquillo per un paio di annetti, il punto è...avete detto che queste schede sono limitate dal processore, e allora vi chiedo se con il mio pc una gt sarebbe una spesa sprecata e mi converrebbe una liscia ????

athlon xp 1800
512 Mb (266)
disco da 7200 giri
epox 8rda3+

e poi un'altra domanda, in seguito alla scheda dovrei aggiornare qualcos'altro e allora una consiglio.
1. è meglio aggiornare la ram a 400 o il proc.?????

2. proc 2800 e ram 400(senza marca) o overclock del 1800 e ram buona di marca?

mille grazie aspetto i vostri consigli.
potreste rispondere sia al punto uno che al punto 2.grazie

:) :) :)


Si in effetti è un po' sprecata.

Ti consiglio la seconda opzione che hai detto. Vedrai dei benefici migliori...e sfrutti meglio la GT. :)

Pipposuperpippa
02-07-2004, 11:03
Originariamente inviato da Dark Schneider
Ma intanto tu quale 6800 vuoi?liscia? GT o Ultra?
Cmq buone marche sono POV (quella che adesso stanno prendendo tutti..per me la migliore). Poi cmq anche Gigabyte, Asus, Gainward(te la sconsiglio troppo costosa), Chaintech,ecc. son buone.

In realtà per le 6800 in Italia ho trovato solo Gainward (ottima marca ma costosissima), Point of View (buona marca e buoni prezzi), qualche PNY (altrettanto) e qualche Asus (buona ma cara).
Le 6800 si trovano col contagocce, al contrario delle ATI che ormai sono già diffuse :(

Dark Schneider
02-07-2004, 11:09
Originariamente inviato da abitrulez
Forse hai ragione, ma sono fortemente indeciso... mi sono trovato troppo bene con abit come tu lo sei stato con asus... ho paura a cambiare... e se poi mi da dei problemi ?

credo che alla fine prendero il radeon, in fondo se abit non fa le 6800 qualche motivo potrebbe anche esserci, bho io non me ne intendo komunque a settembre sikuramente devo prendere la scheda e se abit non fa la 6800 nel sito non dice niente di niente a riguardo allora prendere una x800 buona notte a tutti


Ma che centra scusa? Cioè tu vuoi una 6800, ma siccome non lo fa Abit..non la prendi?:confused:
Ma guarda che Abit non era nemmeno la migliore di certo. Che poi chi ti assicura che se prendi un altra Abit non avrai problemi?
Se Abit si ritira dal mondo delle schede video che fai? Non ti compri più una scheda video?

Dark Schneider
02-07-2004, 11:12
Originariamente inviato da Pipposuperpippa
In realtà per le 6800 in Italia ho trovato solo Gainward (ottima marca ma costosissima), Point of View (buona marca e buoni prezzi), qualche PNY (altrettanto) e qualche Asus (buona ma cara).
Le 6800 si trovano col contagocce, al contrario delle ATI che ormai sono già diffuse :(


Le POV si trovano...son le migliori e come al solito son quelle che si trovano per prime! :) Non c'è bisogno di altre marche!! :D

Cmq oggi a Pon gli arriva la POV 6800 Ultra. Vediamo come gli va!! :D

Dark Schneider
02-07-2004, 11:17
Originariamente inviato da nirvanboy81
Cazz@ ragazzi sono nella merda. Ho formattato la prima volta il pc per mettere la 6800 ma non riuscivo a configurare il RAID e ho ricominciato dall'inizio.Solo che ora la situazione è ben peggiore.All'accensione il pc non emette nessun suono e il video resta nero con il messaggio "nessun ingresso video". Che diavolo è successo?? Aiutatemi!!:cry:


Ehm..con la vecchia scheda? Sicuro di aver inserito bene?

StIwY
02-07-2004, 11:31
dopo aver letto la recensione i casi sono due..

o non ci vedo più bene.....oppure la differenza degli SM3.0 rispetto ai 2.0 è nulla :D

Dark Schneider
02-07-2004, 11:32
Originariamente inviato da MaBru
Anand ha testato la patch 1.2 di Far Cry.

http://www.anandtech.com/video/showdoc.html?i=2102

Interessante!! :) In alcuni livelli ci sono dei buoni incrementi di velocità (a volte 5 o 10 fps), altre poco più, in altre uguali a prima. Sopratutto con i filtri. :)
Da considerare anche che sono con l'FP32..requisito dei SM 3.0!! :)

Non vedo l'ora di provare questa patch più che altro perchè sto giocando proprio adesso a Far Cry e quindi se vedo miglioramenti mi fa piacere...anche se ci gioco benissimo di già!! :)

Unica cosa..sigh potevano fare anche test a risoluzioni un po' più "umane"!!:cry:

ynned
02-07-2004, 11:34
Se a qualcuno puo' interessare 2 giorni fa' ho aquistato da nexhts un Gainward 6800 gt ( 2ns dvi OEM)...mi sono lasciato convincere dato che avevo in mente di prendere la ultra si dall'inizio..ora sono pentito dell'aquisto dovevo aspettare l'arrivo della ultra ( ho visto le freq che arriva:) ) .
La vorrei rivendere , il prezzo pagato e' 504 E. la lascierei a 400 non meno..e' OEM quindi senza giochi vari ma solo la scheda e dischetto driver Gainward, con scatola senza nessuna scritta. Se vi puo' interessare contattatemi in pvt. Io sono di Cinisello Balsamo in prov. di MI...

ynned1967@yahoo.it

CIAO

crice
02-07-2004, 11:35
quei bench non sono attendibili, e dove vedi quel tipo di miglioramenti(10fps), come è gia stato detto, sono livelli forniti da nvidia..

Dark Schneider
02-07-2004, 11:44
Originariamente inviato da StIwY
dopo aver letto la recensione i casi sono due..

o non ci vedo più bene.....oppure la differenza degli SM3.0 rispetto ai 2.0 è nulla :D


Ma qualititvamente i ps 3.0 e 2.0 sono uguali.

Resta il fatto che mi ha piacevolmente sorpreso. L'aumento di velocità è sempre ben accetta e ci son diversi casi dove ci sono veramente dei buoni incrementi...considerando anche FC che non è il massimo come programmazione a livello di ottimizzazione(potevano farlo meglio IMHO). :)

Brava la GeForcina 6800 GT che si comporta molto bene!!:)

pon 87
02-07-2004, 11:45
E' ARRIVATA


NALU:eek: MMMMM CHE GNOCCA

http://web.rossoalice.it/poncio87/6800%20ULTRA%20001.jpg

http://web.rossoalice.it/poncio87/6800%20ULTRA%20003.jpg

http://web.rossoalice.it/poncio87/6800%20ULTRA%20004.jpg

http://web.rossoalice.it/poncio87/6800%20ULTRA%20002.jpg

POCHI Minuti e parto, la monto lunedì sera quando torno, stay tuned:D :sofico:

StIwY
02-07-2004, 11:46
ynned hai pvt e mail :)

Dark Schneider
02-07-2004, 11:46
Originariamente inviato da crice
quei bench non sono attendibili, e dove vedi quel tipo di miglioramenti(10fps), come è gia stato detto, sono livelli forniti da nvidia..

Il livello Volcano a me risulta che sia stato ideato da Crytek.

Per di più che mi frega a me del confronto con le X800. Io vedo che in quei livelli (tipo il Volcano che è pesante) avrò dei miglioramenti mentre gioco con la mia 6800 GT. Solo questo mi importa.

StIwY
02-07-2004, 11:47
ebbravo giulio !!:D

auguri per questo acquisto coi contro OO :D

Housem@n
02-07-2004, 11:48
Grande Pon:D
la sto aspettando anch'io la POV:mc:
ahh!!!....la frequenza di default per il core e' di 425mhz:sofico:

pon 87
02-07-2004, 11:49
Originariamente inviato da Housem@n
Grande Pon:D
la sto aspettando anch'io la POV:mc:
ahh!!!....la frequenza di default per il core e' di 425mhz:sofico:
425 COSA??????

Dark Schneider
02-07-2004, 11:50
Ehi Pon allora anche la Ultra ha NALU!! Allora si che te la godrai!!!:oink: :D

Dai ma non fai in tempo nemmeno a fare qualch test veloce?:sofico:

Housem@n
02-07-2004, 11:50
Originariamente inviato da pon 87
425 COSA??????
yesssss:D ;)

pon 87
02-07-2004, 11:51
[HO CONTROLLATO SUL SITOZZZZZZZZ]
425 DI CORE:sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico:

andreamarra
02-07-2004, 11:51
Originariamente inviato da StIwY
dopo aver letto la recensione i casi sono due..

o non ci vedo più bene.....oppure la differenza degli SM3.0 rispetto ai 2.0 è nulla :D

Allo stato attuale sono esattamente la stessa cosa in termini qualitativi. Credo che solo quando la lunghezza degli shader 3.0 saranno superiori alla lunghezza massima dei 2.0B allora si avranno differenze visive. COn nostra gioia.

Purtroppo nei demo della nvidia di Far Cry ho notato che il livello di luminosità è "stranamente" inferiore alla versione Ati..

Housem@n
02-07-2004, 11:51
Originariamente inviato da pon 87
[HO CONTROLLATO SUL SITOZZZZZZZZ]
425 DI CORE:sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico: :sofico:

Graphics Engine NVIDIA GeForce 6800 Ultra GPU
Model Name GeForce 6800 Ultra
Video Memory 256 MB
Core Clock 425 Mhz
Memory Clock 1100 Mhz
Memory Access Speed DDR III
AGP AGP 3.0 (8x / 4x / 2x / 1x) Fast Writes
RAMDAC Dual 400 Mhz
D-Sub Optional
DVI-I Yes
TV-Out Yes
Video-In No

:D :D :D

Dark Schneider
02-07-2004, 11:51
Originariamente inviato da Housem@n
Grande Pon:D
la sto aspettando anch'io la POV:mc:
ahh!!!....la frequenza di default per il core e' di 425mhz:sofico:


Davvero?

Lo sapevo io che la POV era come al suo solito la migliore!!:)

andreamarra
02-07-2004, 11:52
Originariamente inviato da Dark Schneider
Ma qualititvamente i ps 3.0 e 2.0 sono uguali.

Resta il fatto che mi ha piacevolmente sorpreso. L'aumento di velocità è sempre ben accetta e ci son diversi casi dove ci sono veramente dei buoni incrementi...considerando anche FC che non è il massimo come programmazione a livello di ottimizzazione(potevano farlo meglio IMHO). :)

Brava la GeForcina 6800 GT che si comporta molto bene!!:)

Se guardi bene le immagini moterai che i ps3.0 hanno un livello di luminosità visibilmente inferiore ai 2.0 della ati....

Housem@n
02-07-2004, 11:53
Originariamente inviato da Dark Schneider
Davvero?

Lo sapevo io che la POV era come al suo solito la migliore!!:)
se non raccontano balle dovrebbe essere a 425...come la XFX(che le da a 425/450:eek: )
:)

pon 87
02-07-2004, 11:56
mi ero ormai abituato al serpente drago del cavolo:confused:

invece c'è nalu:sofico:

Dark Schneider
02-07-2004, 11:56
Originariamente inviato da andreamarra
Allo stato attuale sono esattamente la stessa cosa in termini qualitativi. Credo che solo quando la lunghezza degli shader 3.0 saranno superiori alla lunghezza massima dei 2.0B allora si avranno differenze visive. COn nostra gioia.

Purtroppo nei demo della nvidia di Far Cry ho notato che il livello di luminosità è "stranamente" inferiore alla versione Ati..


No.
Non alla versione Ati. Ma allo SM 2.0 se leggi il commento del recensore. ;)
Per di più se leggi c'è scritto che non è detto che in realtà siano quelli 3.0 ad essere poco luminosi, può essere benissimo che son gli SM 2.0 che hanno una luminosità un po' eccessiva.

pon 87
02-07-2004, 11:56
penso che a 450 ci arrivi:sofico:

pon 87
02-07-2004, 11:59
pagata 540€ nonostante il preordine che avevo fatto era a 575€:cool:

Housem@n
02-07-2004, 11:59
Originariamente inviato da pon 87
penso che a 450 ci arrivi:sofico:
me la affitteresti per i due giorni che sei via?:O
te lo dico domenica sera a quanto arriva:p
:D :D

pon 87
02-07-2004, 12:00
Originariamente inviato da Housem@n
me la affitteresti per i due giorni che sei via?:O
te lo dico domenica sera a quanto arriva:p
:D :D
ok 200€:sofico:

Housem@n
02-07-2004, 12:01
Originariamente inviato da pon 87
ok 200€:sofico:
s.s. comprese pero':rolleyes:
:sofico:

pon 87
02-07-2004, 12:03
Originariamente inviato da Housem@n
s.s. comprese pero':rolleyes:
:sofico:
:D :D
adesso la metto in cassaforte:asd: :fiufiu:

Dark Schneider
02-07-2004, 12:04
Originariamente inviato da pon 87
penso che a 450 ci arrivi:sofico:


Si penso di si. :)

pon 87
02-07-2004, 12:06
Originariamente inviato da Dark Schneider
Si penso di si. :)
ma penso di lasciarla vergine:D

Housem@n
02-07-2004, 12:07
Pon mi daresti un'info?
il cavetto molex e' unico ad Y vero?
qundi era una castroneria il fatto di prendere corrente da molex distinti dall'ali?
tnx:)

andreamarra
02-07-2004, 12:07
Originariamente inviato da Dark Schneider
No.
Non alla versione Ati. Ma allo SM 2.0 se leggi il commento del recensore. ;)
Per di più se leggi c'è scritto che non è detto che in realtà siano quelli 3.0 ad essere poco luminosi, può essere benissimo che son gli SM 2.0 che hanno una luminosità un po' eccessiva.

Ok ma è come l'uso dei colori della matrox all'epoca: chi mi dice che i suoi colori "migliori" fossero sballati?

Credo che sia un pò difficile da verificare questo.

In fondo il termine qualitativo della resa dei ps2.0 in Far Cry è sempre stata quella molto luminosa. E come si stabilisce questo :confused: ?

E' come se in uno screen un muro invece di apparire rugoso appare liscio come appena verniciato: chi lo stabilisce?
Usiamo il valore "soggettività", allora in questo caso la resa più luminosa è la migliore.

Basta, depongo le armi... credevo che con il passare del tempo riuscissi a farmi una idea ben precisa... invece più passa il tempo e più la situazione si ingarbuglia :(

pon 87
02-07-2004, 12:09
Originariamente inviato da Housem@n
Pon mi daresti un'info?
il cavetto molex e' unico ad Y vero?
qundi era una castroneria il fatto di prendere corrente da molex distinti dall'ali?
tnx:)
cavetto molex:confused:

ahhh adesso guardo:D

pon 87
02-07-2004, 12:10
Originariamente inviato da Housem@n
Pon mi daresti un'info?
il cavetto molex e' unico ad Y vero?
qundi era una castroneria il fatto di prendere corrente da molex distinti dall'ali?
tnx:)
nn c'è:D

Dark Schneider
02-07-2004, 12:24
Originariamente inviato da andreamarra
Ok ma è come l'uso dei colori della matrox all'epoca: chi mi dice che i suoi colori "migliori" fossero sballati?

Credo che sia un pò difficile da verificare questo.

In fondo il termine qualitativo della resa dei ps2.0 in Far Cry è sempre stata quella molto luminosa. E come si stabilisce questo :confused: ?

E' come se in uno screen un muro invece di apparire rugoso appare liscio come appena verniciato: chi lo stabilisce?
Usiamo il valore "soggettività", allora in questo caso la resa più luminosa è la migliore.

Basta, depongo le armi... credevo che con il passare del tempo riuscissi a farmi una idea ben precisa... invece più passa il tempo e più la situazione si ingarbuglia :(


Ma appunto. Se è per questo nessuno ci dice che quello 2.0 non sia eccessiva. Non è che il diverso significa sbagliato o non corretto.

Io ti consiglio di comprarti la scheda che più piace a te. Se è X800 vai su X800, se è 6800 vai sulla 6800. Pochi pensieri insomma. :)

Housem@n
02-07-2004, 12:29
Originariamente inviato da pon 87
nn c'è:D
come non c'e':confused:
non e' nemmeno gia' attaccato alla vga?:confused:
io l'ho visto in una foto che riproduceva l'interno della valigetta POV:p

Dark Schneider
02-07-2004, 12:30
Originariamente inviato da pon 87
ma penso di lasciarla vergine:D


Certo magari qlc test in OC si...ma poi tienila a default...che poi sta pure a 425. :)

Poi d'estate...sempre meglio avere temperature migliori. :)

Pipposuperpippa
02-07-2004, 12:38
Originariamente inviato da ynned
La vorrei rivendere , il prezzo pagato e' 504 E. la lascierei a 400 non meno...
CIAO

Mi prenoto io :D

Dark Schneider
02-07-2004, 13:00
Quindi la Gainward GT non è vero che ha le stesse memorie delle Ultra.

Wizard77
02-07-2004, 13:13
Originariamente inviato da Dark Schneider
Quindi la Gainward GT non è vero che ha le stesse memorie delle Ultra.

la gainward dovrebbe avere ram da 2ns

Pipposuperpippa
02-07-2004, 13:14
Originariamente inviato da Wizard77
la gainward dovrebbe avere ram da 2ns

La Ultra che memorie ha?

Dark Schneider
02-07-2004, 13:18
Originariamente inviato da Wizard77
la gainward dovrebbe avere ram da 2ns


Si ma io ne ero convinto che Gainward anche questa volta non era migliore.

Le Ultra hanno le mem da 1.6 ns.


Le POV GT dichiarano 2 ns...anche se probabilmente sono da 1.8 ns (cmq alle frequenze a 1100 ci vanno...2 ns sono 1000).

Il Demiurgo
02-07-2004, 13:23
Sinceramente non capisco tutte queste discussioni su ps2 vs ps3...
Qualità ? Luminosità ?
Guardate che sono fattori dipendenti da come un programmatore li usa, sono entrambi solo e unicamente degli strumenti che possono essere usati in molti modi differenti...
Il vantaggio dei ps3 è unicamente quello di essere + flessibile del ps2 nel suo utilizzo, questo è sicuramente un vantaggio per il programmatore ma non condiziona la qualità della resa visiva...

Ciao ;)

Pipposuperpippa
02-07-2004, 13:24
Originariamente inviato da Dark Schneider
Si ma io ne ero convinto che Gainward anche questa volta non era migliore.

Le Ultra hanno le mem da 1.6 ns.


Le POV GT dichiarano 2 ns...anche se probabilmente sono da 1.8 ns (cmq alle frequenze a 1100 ci vanno...2 ns sono 1000).

Beh io mi accontento :D

amd-novello
02-07-2004, 13:31
Originariamente inviato da ynned
Se a qualcuno puo' interessare 2 giorni fa' ho aquistato da nexhts un Gainward 6800 gt ( 2ns dvi OEM)...mi sono lasciato convincere dato che avevo in mente di prendere la ultra si dall'inizio..ora sono pentito dell'aquisto dovevo aspettare l'arrivo della ultra ( ho visto le freq che arriva:) ) .
La vorrei rivendere , il prezzo pagato e' 504 E. la lascierei a 400 non meno..e' OEM quindi senza giochi vari ma solo la scheda e dischetto driver Gainward, con scatola senza nessuna scritta. Se vi puo' interessare contattatemi in pvt. Io sono di Cinisello Balsamo in prov. di MI...



ynned1967@yahoo.it

CIAO




non potevi comprarla prima e rivenderla a me? :rolleyes: :rolleyes: :rolleyes: :rolleyes:


:D :D :D :sofico: :sofico: :muro:

Dark Schneider
02-07-2004, 13:33
Originariamente inviato da Pipposuperpippa
Beh io mi accontento :D


Certo!! :)

Ma cmq sicuro si OC bene...più che altro intendo che spendere parecchio di più su Gainward ed avere la scheda uguale alle altre non vale la pena. :)

Pipposuperpippa
02-07-2004, 13:40
Originariamente inviato da amd-novello
non potevi comprarla prima e rivenderla a me? :rolleyes: :rolleyes: :rolleyes: :rolleyes:

:D :D :D :sofico: :sofico: :muro:

Giù le mani ormai è mia :D :D :D

Datemi un consiglio: quella scheda non ha cavi video per l'uscita tv, è facile procurarseli? :rolleyes:

Il Demiurgo
02-07-2004, 13:40
Oggi ho smontato la mia GT :D
Ho sostituito tutta la pasta termica originale con della "ArticSilver Ceramique"...
Risultato 4°C in meno in idle e 5°C in load (usando RivaTuner)...
Ma il bello è che ora l'auto OC dei detonator indica 419/1.13 :sofico:

Vi consiglio caldamente di moddare anche la vostra...

;)

Maury
02-07-2004, 13:41
Originariamente inviato da Il Demiurgo

Ma il bello è che ora l'auto OC dei detonator indica 419/1.13 :sofico:

Vi consiglio caldamente di moddare anche la vostra...

;)

e prima del cambio pasta qaunto segnava ?

Il Demiurgo
02-07-2004, 13:42
Originariamente inviato da Maury
e prima del cambio pasta qaunto segnava ?

Un orrendo 393/1.08...

LCol84
02-07-2004, 13:43
Originariamente inviato da Il Demiurgo
Oggi ho smontato la mia GT :D
Ho sostituito tutta la pasta termica originale con della "ArticSilver Ceramique"...
Risultato 4°C in meno in idle e 5°C in OC (usando RivaTuner)...
Ma il bello è che ora l'auto OC dei detonator indica 419/1.13 :sofico:

Vi consiglio caldamente di moddare anche la vostra...

;)

Io metterò la arctic silver 5 su core e ram togliendo la merda siliconica :D

DjLode
02-07-2004, 13:44
Originariamente inviato da Il Demiurgo
Un orrendo 393/1.08...

Di che marca è? Scusami ma non segue assiduamente il thread.

Maury
02-07-2004, 13:44
Ottimo :)

LCol84
02-07-2004, 13:45
Originariamente inviato da Pipposuperpippa
Giù le mani ormai è mia :D :D :D

Datemi un consiglio: quella scheda non ha cavi video per l'uscita tv, è facile procurarseli? :rolleyes:

Io li vendo se ti interessa: http://forum.hwupgrade.it/showthread.php?s=&threadid=711490

Il Demiurgo
02-07-2004, 13:46
Originariamente inviato da DjLode
Di che marca è? Scusami ma non segue assiduamente il thread.

Point of View, il chip è rev A1, prima consegna di nux...

Dark Schneider
02-07-2004, 13:48
Demiurgo invece a me già normalmente rileva 405/1.11 Ghz :)

Ma sinceramente non mi va di smontare e di mettere la pasta.

Cmq più tardi prov a salire un po' di più...anche se purtroppo sto caldo non è che facilità molto l'OC.

Pipposuperpippa
02-07-2004, 13:56
Originariamente inviato da LCol84
Io li vendo se ti interessa: http://forum.hwupgrade.it/showthread.php?s=&threadid=711490

Ti tengo presente, però prima aspetto di avere la scheda nel case, poi proverò i cavi della rad7000 muletto e poi quelli della 9800pro di un amico che non li usa ;)

LCol84
02-07-2004, 13:58
Originariamente inviato da Pipposuperpippa
Ti tengo presente, però prima aspetto di avere la scheda nel case, poi proverò i cavi della rad7000 muletto e poi quelli della 9800pro di un amico che non li usa ;)

k! ;)

andreamarra
02-07-2004, 14:02
Originariamente inviato da Dark Schneider
Demiurgo invece a me già normalmente rileva 405/1.11 Ghz :)

Ma sinceramente non mi va di smontare e di mettere la pasta.

Cmq più tardi prov a salire un po' di più...anche se purtroppo sto caldo non è che facilità molto l'OC.

già con il gran caldo di questi giorni vedo che avete delle frequenze mooolto elevate :oink:

Cmq, in ogni caso, ti conviene smontare il dissy e metterci una bella artic silver o, meglio, ceramique... :cool:

LCol84
02-07-2004, 14:09
Veramente la migliore è l'arctic silver 5, non la ceramique ;)

andreamarra
02-07-2004, 14:11
Originariamente inviato da LCol84
Veramente la migliore è l'arctic silver 5, non la ceramique ;)

In giro ho letto che è meglio nel lungo utilizzo la ceramique.
Praticamente più si scalda e più "copre" ogni piccolo punto del dissy e del core dove potrebbe esserci aria.

Poi, l'ho sperimentato di persona. La Céramique mi sembra leggermente migliore (soprattutto per il procio). Un grado in meno lo dà :oink:

In ogni caso, le differenze sono simili :)

LCol84
02-07-2004, 14:13
Originariamente inviato da andreamarra
In giro ho letto che è meglio nel lungo utilizzo la ceramique.
Praticamente più si scalda e più "copre" ogni piccolo punto del dissy e del core dove potrebbe esserci aria.

Poi, l'ho sperimentato di persona. La Céramique mi sembra leggermente migliore (soprattutto per il procio). Un grado in meno lo dà :oink:

In ogni caso, le differenze sono simili :)

Ma davvero? Sulle rece che ho letto la silver5 era in testa... :muro:

LCol84
02-07-2004, 14:17
Originariamente inviato da LCol84
Ma davvero? Sulle rece che ho letto la silver5 era in testa... :muro:


http://www.gruntville.com/reviews/thermal/as5/page4.php

andreamarra
02-07-2004, 14:19
Originariamente inviato da LCol84
Ma davvero? Sulle rece che ho letto la silver5 era in testa... :muro:
Sempre il solito discorso, da una parte leggi che questo è meglio di quello, e da un'altra parte leggi che quello è meglio di questo :D

Cmq, a mio giudizio, è meglio la céramique perchè abbassa di più le temperature nel tempo. Ovvero, se dopo 5 ore hai 54 gradi, con la céramique ne puoi avere anche 52.

Diciamo che nel breve periodo (poco tempo di utilizzo, stando al recensore) la silver va meglio (ma di poco)... invece a lungo termine la céramique va meglio (sempre di poco, cmq)

:)

In ogni caso un 7-10 MHz di core l'ho presi con la céramique :)

Credo che servirà molto anche con la NV40 (non so che pasta utilizzano all'nvidia, l'unica nvidia che ho avuto è stata la geppo2MX)

LCol84
02-07-2004, 14:23
Originariamente inviato da andreamarra
Sempre il solito discorso, da una parte leggi che questo è meglio di quello, e da un'altra parte leggi che quello è meglio di questo :D

Cmq, a mio giudizio, è meglio la céramique perchè abbassa di più le temperature nel tempo. Ovvero, se dopo 5 ore hai 54 gradi, con la céramique ne puoi avere anche 52.

Diciamo che nel breve periodo (poco tempo di utilizzo, stando al recensore) la silver va meglio (ma di poco)... invece a lungo termine la céramique va meglio (sempre di poco, cmq)

:)

In ogni caso un 7-10 MHz di core l'ho presi con la céramique :)

Credo che servirà molto anche con la NV40 (non so che pasta utilizzano all'nvidia, l'unica nvidia che ho avuto è stata la geppo2MX)

Ma esattamente cosa intendi con poco tempo o lungo tempo? Intendi dopo magati 2 mesi che l'ho messa scende di temperatura o invece nell'utilizzo giornaliero?

andreamarra
02-07-2004, 14:34
Originariamente inviato da LCol84
Ma esattamente cosa intendi con poco tempo o lungo tempo? Intendi dopo magati 2 mesi che l'ho messa scende di temperatura o invece nell'utilizzo giornaliero?

Intendo che la temperatura dopo 30 minuti, ad esempio, con la céramique può essere superiore alla silver (di poco).

Però poi dopo qualche ora (o anche prima) la temperatura subisce un aumento minore rispetto alla silver.

Almeno, è quello che sono riuscito a capire da dei tst casalingi (e quindi non proprio ortodossi)
:D

andreamarra
02-07-2004, 14:36
Cmq, amanti della Gt... credo proprio che (soldi permettendo-e sorprese dell'ultima ora) anch'io entro nel club degli nvidiosi :cool:

:D

Il Demiurgo
02-07-2004, 15:01
Confermo la bontà della "Ceramique" mi ha abbassato le temperature del core del mio bartolino di ca 2°C rispetto alla Silver...
Il problema della Cer. è che appena messa funziona malissimo...
La GT dopo 1 giro di 3DMerd2003 era a 85°C :eek:
Dopo 30 minuti di utilizzo in 2D ho fatto 3 giri di 3DMark ed era MAX 73°C :cool:

nonikname
02-07-2004, 15:05
Ciao a tutti , come vanno le GT ??

Se mi sono perso qualcosa , vi chiedo scusa in anticipo , ma vi consiglio caldamente di leggere (se già non l'avete fatto) queste recensioni sulla patch 1.2 di FARCRY (shader 3.0 )

The Tech Report (http://techreport.com/etc/2004q3/farcry/index.x?pg=1)

PC Perspective (http://www.pcper.com/article.php?aid=55)

T-Break (http://www.tbreak.com/reviews/article.php?id=322)

NVNews (http://www.nvnews.net/vbulletin/showthread.php?t=31104)

Se ne vedono delle belle!!!

Il Demiurgo
02-07-2004, 15:09
Monsieur e Medame, sono lieto di annunciarvi che ho superato i 12K pts a 3DMark2003 v340:

:yeah: 12084 :yeah:



:smack: Cliccami tutto (http://service.futuremark.com/compare?2k3=2723690) :smack:



CPU a 2460 MHz
GPU a 418 MHz /1130 MHz



Qualche info in +:
_________________________________________________________________________________________________

ForceWare v61.34 Beta / Default Settings
nForce v4.24
DirectX 9.0b
Windows XP SP1 / Full update 2 July 2004

CPU Z v1.23:
FSB = 205,5 MHz
Multiplier = 12,0
Voltage = 1,888 V
Channels = Dual
FSB : DRAM = 1:1
CAS Latency = 2,0 clocks
RAS to CAS Delay = 3 clocks
RAS Precharge = 3 clocks
Cycle Time = 11 clocks

RivaTuner 2.0 RC 15:
GPU Core = 416,8 MHz;
GPU RAM = 1128,6 MHz.
_________________________________________________________________________________________________

Non ho visto traccia di errori grafici...



Ho raggiunto il mio obiettivo ed ho migliorato il punteggio rispetto alla configurazione stock di quasi il 20% :sofico:

amd-novello
02-07-2004, 15:24
stica!!!



:eek:



mi dite come cavolo overcloccate? tutti i passaggi in cui lo fate.

vado li meto oc automatico riavvio ma è sempre uguale. che coolbits metto?

ballero
02-07-2004, 15:24
Mi sembrano dei buoni risultati :oink:

http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2792.png

amd-novello
02-07-2004, 15:27
quelli di nvnews m'han lasciato a bocca aperta. azz incrementi del 10/15% :D

Dark Schneider
02-07-2004, 15:33
Originariamente inviato da andreamarra
già con il gran caldo di questi giorni vedo che avete delle frequenze mooolto elevate :oink:

Cmq, in ogni caso, ti conviene smontare il dissy e metterci una bella artic silver o, meglio, ceramique... :cool:


Oddio cmq diciamo che per giocare ora come ora la tengo a default la GT. Se devo fare qlc test di OC naturalmente OC. Però la mia priorità principale è l'OC della CPU. Sta cavolo di Volcano 12 non è arrivata manco ieri a quel negozietto del cavolo e allora l'ho ordinata in rete. L'SDA consegna di sabato?

Il Demiurgo
02-07-2004, 15:36
Originariamente inviato da amd-novello
stica!!!



:eek:



mi dite come cavolo overcloccate? tutti i passaggi in cui lo fate.

vado li meto oc automatico riavvio ma è sempre uguale. che coolbits metto?

Per i coolbits guarda qui:
CoolBits2 (http://www.nvnews.net/vbulletin/showthread.php?t=29541)

Sali di pochi MHz per volta (max +10 !!! e quando superi i 400 fai massimo +3 !!!), fino a quando non trovi il limite.
Per verificare la stabilità fai un bench di 3DMark03, se è instabile lo noti prima di tutto nel 3° test, quello dei trolls; la prima cosa che vedi sono ombre sbagliate che appaiono, scompaiono, si muovono a casaccio.
Sali prima col core, una volta trovato il limite cominci a salire di memoria questa colta con incrementi di 0.01/0.02 GHz max...
Per essere sicuro di non rovinare la scheda facci girare sotto RivaTuner 2 RC 15 (guru3d), con il monitoring delle temperature attivo, quando vedi che hai picchi di +80/85 °C bloccati, non continuare nell'OC...

Scrivi se hai dubbi...

Il Demiurgo
02-07-2004, 15:37
Originariamente inviato da Dark Schneider
Oddio cmq diciamo che per giocare ora come ora la tengo a default la GT. Se devo fare qlc test di OC naturalmente OC. Però la mia priorità principale è l'OC della CPU. Sta cavolo di Volcano 12 non è arrivata manco ieri a quel negozietto del cavolo e allora l'ho ordinata in rete. L'SDA consegna di sabato?

Ovvio, anch'io tengo la GT in default...
Non ho bisogno di OC, anche in stock gira tutto liscio :D
L'OC lo faccio solo per la GLORIA :cool: