PDA

View Full Version : X800-XT o 6800 Ultra??? Adesso si che sono indeciso...


Alastre
24-08-2004, 13:15
Ciao a tutti...per i primi di settembre ho la possibilità di farmi cambiare la mia ex 9800XT (acquistata a marzo per 480 euri...:muro: ) che è andata in garanzia i primi di aprile con una x800XT...ovviamente pagando la differenza...ma la mia domanda è...mi sono imbattuto in alcune recensione sulla 6800 Ultra (in particolare questa http://www.hwhell.com/articles/xfx_geforce_6800_ultra/ ) e su X800XT
(http://www.hwhell.com/articles/his_x800_proxt/ )...a quanto pare con i nuovi driver 61.40 le schede nvidia fanno un groooosso passo avanti...specie per quanto riguarda il sempre lacunoso AA...allora mi chiedo...conviene che prendo Ati o Nvidia? E' vero che in molte cose si equivalgono, ma se non altro nvidia ha gli shader 3.0...voi che mi consigliate?? Grazie a tutti in anticipo!

MasterPJ
24-08-2004, 13:19
Nvidia al 100%
Come hai detto tu, le schede bene o male si equivalgono ma la 6800 dalla sua parte ha gli shader 3.0: uno sguardo al futuro davvero non indifferente.
Se posso permettermi, ti consiglio la GT e non la Ultra. La GT costa meno e ha le stesse prestazioni della Ultra ed è meno esigente in fattori energetici. Come marche scegli una di queste 3 che sono tutte ottime: ASUS, Point Of View, Leadtek.

Ciao ciao

Athlon 64 3000+
24-08-2004, 13:51
Tra la X800XT e la 6800Ultra ti consiglio la X800Xt perchè gli shader model 3.0 ci vorrà parecchio tempo per essere sfruttati e quando lo saranno l'NV40 sarà gia vecchio.
Al massimo potresti ripiegare su una Geforce 6800 GT(te la consiglio al posto della X800Pro perchè ha 16 pipeline contro le 12 della pro)

Matt77
24-08-2004, 14:01
Vai con ATI, costa e consuma di meno...........e serve solo un molex di alimentazione..:D :D
comunque tutte 2 ottime schede.

Eppoi il supporto a Shader 3.0 si vedra' in pieno solo con l'unreal engine 3, cioe' quando nv40 sara' acqua passata.

MasterPJ
24-08-2004, 14:17
Anche la 6800GT ha un solo molex e tecnicamente è superore alla x800xt, anche se per dettaglini. (e costa meno)

Matt77
24-08-2004, 14:58
Originariamente inviato da MasterPJ
Anche la 6800GT ha un solo molex e tecnicamente è superore alla x800xt, anche se per dettaglini. (e costa meno)


......Si lo so ma ormai sono un adepto di ATI dai tempi della prima radeon......
:D :D :D

comunque le prestazioni si equivalgono, forse qualcosina in piu' le ati con i filtri.......

Pippoz0
24-08-2004, 15:22
Caspiterina un altro poveraccio col mio stesso problema... non dormi neanche la notte eh??:D

Ti capisco perfettamente io e da due mesi che penso e ripenso e non sono arrivato a nessuna conclusione!:cry: :muro: :muro:

Alastre te cosa hai in mente?ne hai visti di bench che te ne pare?
Aiutiamoci a togliere questo grosso problema:sofico:

seccio
24-08-2004, 15:32
ma in consigli degli acquisti no eh?? :wtf:

cmq mi fanno ridere le affermazioni che i 3.0 saranno utilizzatissimi quando i 2.0 di trovano nel 2% dei giochi in circolazione, eppure è due anni che dovrebbero essere sfruttati anche dalla 9700......

in quest'ottica , consigliare la 6800 SOLO per gli shader mi sembra un'emerita putt@n@t@.....

come hanno giustamente detto , chissà quando arriveranno i 3.0.....in MASSA.

tra le due , io prenderei chi mi da di più generalmente in TUTTI i giochi , sappiamo che DoomIII va meglio sulle nVidia , ma esclusivamente grazie ai migliori driver .....ma nel resto dei giochi ?

e cmq a questi livelli con due progetti validi , si va anche un po' a simpatia , o al limite con chi mi fa spendere meglio i soldi , vedi a parità di prezzo prenderei quella con il miglior bundle.

Jedi_Master
24-08-2004, 16:18
Originariamente inviato da seccio
cmq mi fanno ridere le affermazioni che i 3.0 saranno utilizzatissimi quando i 2.0 di trovano nel 2% dei giochi in circolazione, eppure è due anni che dovrebbero essere sfruttati anche dalla 9700......

Daccordissimo!
Le attuali speculazioni su cosa sara' sono solo aria fritta.
IMHO fossi in te' andrei o sulla 6800 GT che a quanto pare
si overclocca a Ultra come nulla (meglio di buona marca...POV)
ed eviti di sprecare un molex e magari avere problemi di
alimentazione oppure sulla x800xt se per te overcloccare
e' un tabu da non infrangere!!
In ogni caso compri un ottimo prodotto.

ciao
:)

Praxys
24-08-2004, 16:19
Mi farebbe ridere di più se ati trà 3 o 4 mesi uscisse con una nuova scheda video che supportasse gli shader 3.0:sofico:

DjLode
24-08-2004, 16:24
A quanto si dice la prossima supporterà lo SM4.

Praxys
24-08-2004, 16:41
:sofico: :tapiro:

MasterPJ
24-08-2004, 16:59
Si però considerate che una scheda di fascia alta costa e non si può cambiarla ogni 3 mesi, quindi quando ne compri una devi scegliere quella che guarda di più al futuro e la 6800GT al momento è la migliore sotto questo punto di vista.

LordHam
24-08-2004, 17:21
Anche io sono ancora indecisissimo! Entro il 29Agosto devo decidere quale delle due comprare! La 6800Ultra mi attira parecchio! Ma non vorrei trovarmi con una scheda che con gli altri giochi (escluso Doom3) non vada a dovere! Insomma vorrei sapere secondo voi qual'è la più equilibrata! (Maggior parte dei giochi e DVD).

Saluti Ham :oink:

Matt77
24-08-2004, 17:24
le due schede si equivalgono, quindi quella che ha il miglior prezzo/prestazioni, e la 6800gt sembra la migliore...

Io pero' mi farei una x800xt......:D

Praxys
24-08-2004, 17:24
Guarda LordHam, per i DVD sicuramente ATI, senza pensarci 4 volte!!!!

LordHam
24-08-2004, 17:26
Originariamente inviato da Praxys
Guarda LordHam, per i DVD sicuramente ATI, senza pensarci 4 volte!!!!

Potrei avere la Asus X800XT P.E. o la Asus V9999 Deluxe 6800 Ultra, entrambe a 485€! Quale mi consigliate?? Come mai Ati va meglio con i DVD?

Praxys
24-08-2004, 17:37
Il vero motivo non lo conosco!!! Sicuramente ATI ha maggior esperienza nel campo "multimediale"!
Stà di fatto che tutte le testate Audio/Video, nelle varie prove comparative fanno notare la superiorità ATI.
Ti parlo anche per esperienza personale, domani entro in possesso di una 6800Ultra, adesso ho una usatissima FX5700.
Prima ancora avevo una 9800SE e ti assicuro che i DVD erano sicuramente qualitativamente migliori.
nessun effetto di solarizzazione e pulizia di immagine.
Credo che il merito sia anche dei driver Catalyst sviluppati anche per le funzioni multimediali spinte (Overlay modificabile).
Un periodo (Radeon 8500) erano anche certificati THX (e questo la dice lunga)!!
Non che Nvidia sia così infame, anzi......., ma per quel tipo di utilizzo si deve dare a cesare ciò che è di Cesare ammettendo con pacatezza la superiorità ATI.

P.S.
Guarda io ho provato anche sui VPJ!!!!

Pippoz0
24-08-2004, 19:52
il mio problema e che l'acquisto di una delle due schede non abbia lunga vita....
e onestamente coperare una scheda video da 600€ (cosi costa da me) mi inca**erei da matti!!!:mad:

Cmq io punto x ati se qualcuno ha qualche idea da esporre sulla controparte nvidia sono tutto occhi:p :D

MasterPJ
24-08-2004, 20:37
Originariamente inviato da Pippoz0
il mio problema e che l'acquisto di una delle due schede non abbia lunga vita....
e onestamente coperare una scheda video da 600€ (cosi costa da me) mi inca**erei da matti!!!:mad:

Cmq io punto x ati se qualcuno ha qualche idea da esporre sulla controparte nvidia sono tutto occhi:p :D

In questo topic ho gia espresso il mio parere riguardo alla superiorità qualità/prezzo della 6800GT. E fra l'altro su internet costa 470 circa, fatti un giretto online e comprala. ;)

LordHam
24-08-2004, 20:49
Originariamente inviato da MasterPJ
In questo topic ho gia espresso il mio parere riguardo alla superiorità qualità/prezzo della 6800GT. E fra l'altro su internet costa 470 circa, fatti un giretto online e comprala. ;)

La mia indecisione però è tra 6800Ultra e X800XT P.E.!! Non ho mai avuto così tanta indecisione in vita mia!!! Di solito ho sempre preso schede video al Top ( a partire dalla Geforce 3 Ti500 della Asus, pagata ben 1.300.000!!! :eek: ) ma questa volta la scelta è molto più difficile!

Le prestazioni delle due schede beno o male si equivalgono! Ma non vorrei prendere una scheda che in futuro (non troppo remoto) inizi a perdere colpi dall'altra!
:cry:

Saluti Ham :oink:

Praxys
24-08-2004, 20:49
Non voglio uscire fuori topic ma devo dire una cosa a MasterPJ!!
Non me ne ero accorto, vedo che anche te sei appassionato di FF....:D COMPLIMENTI (siamo in 2)!!!!;)

P.S.
Bello il "www"

Quoto per la GT, ma nessuna scheda sarà mai longeva.
La corsa alla novità e alla prestazione è inarrestabile...:(

Io l'indecisione l'ho tolta, come vedi....!!!!

Pippoz0
24-08-2004, 21:07
Originariamente inviato da MasterPJ
In questo topic ho gia espresso il mio parere riguardo alla superiorità qualità/prezzo della 6800GT. E fra l'altro su internet costa 470 circa, fatti un giretto online e comprala. ;)
non ho proprio voglia di risparmiare:cool: voglio comperare una scheda video al top.
sono ancora indeciso tra ultra e xt ma un punto in merito alla xt dato che si equivalgono ma l ultra richiede due molex quindi piu consumo;)

Praxys
24-08-2004, 21:12
Per il fatto del consumo ho postato un'interessantissimo articolo proprio riguardo a questo argomento.
Prova nella sezione schede video!

Ti assicuro è molto interessante.

MasterPJ
24-08-2004, 21:34
Originariamente inviato da Praxys
Non voglio uscire fuori topic ma devo dire una cosa a MasterPJ!!
Non me ne ero accorto, vedo che anche te sei appassionato di FF....:D COMPLIMENTI (siamo in 2)!!!!;)

P.S.
Bello il "www"


Grazie per tutto! :D Messaggio pvt for you ;)

Alastre
25-08-2004, 14:23
Originariamente inviato da Pippoz0
Caspiterina un altro poveraccio col mio stesso problema... non dormi neanche la notte eh??:D

Ti capisco perfettamente io e da due mesi che penso e ripenso e non sono arrivato a nessuna conclusione!:cry: :muro: :muro:

Alastre te cosa hai in mente?ne hai visti di bench che te ne pare?
Aiutiamoci a togliere questo grosso problema:sofico:

Guarda più passa il tempo e più sono indeciso su quale prendere! :mc: Leggo recensioni a destra e a manca ma chi dice nvidia chi dice ati...boooooh! :muro:

DjLode
25-08-2004, 14:26
Forse perchè la migliore non esiste?

Alastre
25-08-2004, 14:30
Tu si che ne sai una più del diavolo! :D ;)

Pippoz0
25-08-2004, 15:12
Raga avete visto il bench su doom3 di hwupgrade??
le x800xt stanno appiccicate alla ultra a volte anche sopra!!con i cata 4.9 alpha:D :cool: :D :D

non oso pensare con i driver ufficiali:eek: :eek:

X800XT sei mia:D :sofico:

emax81
25-08-2004, 20:09
Originariamente inviato da Pippoz0
Raga avete visto il bench su doom3 di hwupgrade??
le x800xt stanno appiccicate alla ultra a volte anche sopra!!con i cata 4.9 alpha:D :cool: :D :D

non oso pensare con i driver ufficiali:eek: :eek:

X800XT sei mia:D :sofico:

si si pensa pensa....va a guardarti ke trucchetti hanno utilizzato:sofico:

joden
25-08-2004, 21:02
Ora come ora comprerei la 6800 Ultra... ma aspetterei di vedere anche come si comporta con HL2...

emax81
25-08-2004, 21:31
Originariamente inviato da joden
Ora come ora comprerei la 6800 Ultra... ma aspetterei di vedere anche come si comporta con HL2...

Ma XKè nn ti prendi una 6800GT ?? raagiunge senza problemi le frequenze della ultra avendo il miglior compromesso prezzo\prestazioni,,,

x HL2, la maggior parte dei test sono stati effettuati con i 61.77, ora c sono in beta gli ottimi 66.00 e 66.02 con buoni guadagni (quest'ultimi sono x ora solo leaked) in attesa delle serie ForceWare 70.XX:D

MasterPJ
25-08-2004, 22:46
Originariamente inviato da emax81
Ma XKè nn ti prendi una 6800GT ?? raagiunge senza problemi le frequenze della ultra avendo il miglior compromesso prezzo\prestazioni,,,


Ecco, questo è un ottimo ragionamento. Quoto assolutamente!

ThunderTrunks
26-08-2004, 23:58
e che ne dite della qualita' degli shader di nvidia?non vi sembrano un po' troppo scadenti i fp16bit di nvidia rispetto ai 24 di ati?e col temporal AA come la mettiamo?secondo me ati e' un gradino sopra come qualita'.purtroppo non ho avuto il modo di vederlo ad occhio nudo xcio siamo da capo....ci sara' differenza?certo che se si nota, ati sta 2gradini sopra, visto che riesce a stargli dietro anche come prestazioni.voi che dite?

Alastre
27-08-2004, 08:45
Guarda, io pure la pensavo così...poi ho incrocitato sta review e mi sono sorti mille dubbi!

http://www.hwhell.com/articles/xfx_geforce_6800_ultra/3.html

[KabOOm]
27-08-2004, 09:41
...sto valutando anche io l'upgrade della scheda video (e non solo).
Mi intrometto nella discussione per dare la mia opinione.

Premesso che:

- Doom3 da qualche soddisfazione in piu' con Nvidia poiche' e' stato sviluppato in OpenGL sfruttando via hardware risorse che sono disponibili solo su GPU NV.

- HL2 sfruttera' le DirectX e il miglior supporto hardware che ATI garantisce per le stesse, percui HL2 sara' "migliore" con ATI.

- Io giochero' a Tribes Vengenace :sofico: percui i giochi di cui sopra saranno solo passatempi per me :cool:

- Ho un chipset Nvidia e avro' un chipset Nvidia per il mio futuro A64

- Ho avuto 2 ottime esperienze con Nvidia

Io,

...acquistero' Nvidia, se non altro xche' dopo i diversi anni passati assieme so gia' come configurare al meglio i drivers, so dell'ottimo supporto drivers che da Nvidia e visto lo smacco delle precedenti schede video, il progetto 6800 a giudicare dalle race sempre aver dato nuova linfa a Nvidia stessa.

Insomma in poche parole, non affliggetevi con race su race, se ci sono giudizi postivi per entrambi, significa che entrambi sono validi prodotti e che pertanto una puo' tranquillamente scegliere secondo altri fattori:

- simpatia
- portafolgio
- esperienze passate...

ThunderTrunks
27-08-2004, 11:11
Originariamente inviato da Alastre
Guarda, io pure la pensavo così...poi ho incrocitato sta review e mi sono sorti mille dubbi!

http://www.hwhell.com/articles/xfx_geforce_6800_ultra/3.html

dai risultati sembra molto evidente la migliore qualita' di ati...penso proprio che andro' su una x800...

MasterPJ
27-08-2004, 11:20
Originariamente inviato da ThunderTrunks
e che ne dite della qualita' degli shader di nvidia?non vi sembrano un po' troppo scadenti i fp16bit di nvidia rispetto ai 24 di ati?e col temporal AA come la mettiamo?secondo me ati e' un gradino sopra come qualita'.purtroppo non ho avuto il modo di vederlo ad occhio nudo xcio siamo da capo....ci sara' differenza?certo che se si nota, ati sta 2gradini sopra, visto che riesce a stargli dietro anche come prestazioni.voi che dite?

Sei un filino male informato. la NV40 è vero che lavora a 16bit ma anche a 32bit! Mentre ati è ferma a 24 fissi. Per il temporal AA hai ragione, purtroppo però non si sa se e quando i giochi utilizzeranno questa tecnica, che fra l'altro non crea abissi con nvidia.
La NV40 invece ha il grande vantaggio degli shader 3.0, che ati inserirà solo nella prox generazione, quindi la scheda nvidia è più longeva in quanto a tecnologia.

Io dico che questa volta è Nvidia a essere 2 gradini sopra ad ATI.
(notare, fino all'uscita della 6800 sono sempre stato un ATIsta sfegatato!)

DjLode
27-08-2004, 11:32
Il TAA non deve essere sfruttato dal gioco, è possibile usarlo sempre ed ovunque al solo patto di avere un frame rate decente e tenere il Vsynch on.
Le due schede di punta si equivalgono, sarà così per D3, per Hl2 (3 fps di differenza non rendono il gioco inutilizzabile su una scheda e giocabile sull'altra quando si parla di frame rate di oltre 50/60fps) e per ogni gioco in uscita.
Prendi quella che trovi e che ti fa più simpatia, i contenuti tecnici supplementari di una o dell'altra saranno virtualmente inutilizzati appunto perchè una scheda li ha e l'altra no.

Alastre
27-08-2004, 11:49
Originariamente inviato da ThunderTrunks
dai risultati sembra molto evidente la migliore qualita' di ati...penso proprio che andro' su una x800...

Oddio io veramente ci ho letto il contrario :D Vedi le immagini a 16x ti filtro? La qualità nvidia è superiore mi pare...ati li "slava" un pò troppo...sulla roccia sotto acqua dico...o mi sbaglio??

TecliS
27-08-2004, 13:28
decisamente nvidia io, che voglio pensionare lamia geforce3 ti 200 che mi segue dai tempi del p800 :D

dico nvidia perche non voglio avere nessun problema, e amici con la 9600xt si stanno sparando per quella scheda, e cmq io gioco quasi esclusivamente online, tenendo 0 aa e ris basse, per cui penso ce un 6800gt mi andra benissiMO :D

generals
27-08-2004, 15:38
Originariamente inviato da MasterPJ
In questo topic ho gia espresso il mio parere riguardo alla superiorità qualità/prezzo della 6800GT. E fra l'altro su internet costa 470 circa, fatti un giretto online e comprala. ;)


Scusate la mia indecisione, invece, è tra 6800 gt e x800xt pe poichè ho visto che la differenza di prezzo è a volte molto piccola, circa 40-50 euro e inoltre vorrei considerare anche il fattore rumore, sembra che le gt siano cmq più rumorose delle ati. Cosa ne pensate?

ThunderTrunks
27-08-2004, 15:39
Originariamente inviato da MasterPJ
Sei un filino male informato. la NV40 è vero che lavora a 16bit ma anche a 32bit! Mentre ati è ferma a 24 fissi. Per il temporal AA hai ragione, purtroppo però non si sa se e quando i giochi utilizzeranno questa tecnica, che fra l'altro non crea abissi con nvidia.
La NV40 invece ha il grande vantaggio degli shader 3.0, che ati inserirà solo nella prox generazione, quindi la scheda nvidia è più longeva in quanto a tecnologia.

Io dico che questa volta è Nvidia a essere 2 gradini sopra ad ATI.
(notare, fino all'uscita della 6800 sono sempre stato un ATIsta sfegatato!)

be'...non e' che sono male informato...so' ke nvidia puo' fare anche 32bit...ma dovresti aver letto ke le prestazioni decadono vertiginosamente...e allora non c'e'' piu confronto con ati se vuoi metterle a pari qualità...hai visto la recensione su hwupgade?le diff sono molte...si e' vero che ha un filtro trilineare molto curato...ma e' vero che se lo vuoi attivare perdi un altro 10% di prestazioni.tutto si paga.a parere mio ati e' 2gradini sopra.peccato per gli shader3...ma ati ha ottimizzato i suoi 2 in modo che anche i giochi di prossima generazione li sfrutteranno e neanche appieno.non rimanete fissati..tipo io sono da 10anni con nvidia e mi trovo bene e rimango a nvidia.ai tempi della gf, gf2 e gf3 e pure gf4 nvidia e' stata sempre al primo posto...ma con la 9700 e da quella in poi...si e' ripresa con questa 6800 ma qualke cosa deve ancora recuperare.io le ho avute tutte queste skede xcio so cosa dico.e devo dire che nvidia mi aveva quasi convinto questa volta...ma fatevi un bel giro accurato in rete e forse cambierete idea.

Athlon 64 3000+
27-08-2004, 16:08
Originariamente inviato da ThunderTrunks
be'...non e' che sono male informato...so' ke nvidia puo' fare anche 32bit...ma dovresti aver letto ke le prestazioni decadono vertiginosamente...e allora non c'e'' piu confronto con ati se vuoi metterle a pari qualità...hai visto la recensione su hwupgade?le diff sono molte...si e' vero che ha un filtro trilineare molto curato...ma e' vero che se lo vuoi attivare perdi un altro 10% di prestazioni.tutto si paga.a parere mio ati e' 2gradini sopra.peccato per gli shader3...ma ati ha ottimizzato i suoi 2 in modo che anche i giochi di prossima generazione li sfrutteranno e neanche appieno.non rimanete fissati..tipo io sono da 10anni con nvidia e mi trovo bene e rimango a nvidia.ai tempi della gf, gf2 e gf3 e pure gf4 nvidia e' stata sempre al primo posto...ma con la 9700 e da quella in poi...si e' ripresa con questa 6800 ma qualke cosa deve ancora recuperare.io le ho avute tutte queste skede xcio so cosa dico.e devo dire che nvidia mi aveva quasi convinto questa volta...ma fatevi un bel giro accurato in rete e forse cambierete idea.

Quoto!
Anche io ho avuto per 3 anni schede Nvidia e poi sono passato ad ati con la 9700pro e non me ne sono pentito,ora ho la 9800Pro per un motivo lungo dall'essere spiegato brevemente.
Io tra le X800 e le 6800 preferisco l'R420 perchè ritengo ati ancora migliore.

Dark Schneider
27-08-2004, 16:13
Ragà non vorrei dirlo. Ma non avete capito come funziona la questione dell'F16-F24-FP32.

Eppure c'è il buon fek che l'ha spiegato più volte.

Fare FP16-FP32 è un vantaggio, perchè più flessibile.

Molti di voi sbagliano nel credere che l'FP16 sia un handicap. Non lo è. E' un arma in più per nVidia.

Athlon 64 3000+
27-08-2004, 16:32
Originariamente inviato da Dark Schneider
Ragà non vorrei dirlo. Ma non avete capito come funziona la questione dell'F16-F24-FP32.

Eppure c'è il buon fek che l'ha spiegato più volte.

Fare FP16-FP32 è un vantaggio, perchè più flessibile.

Molti di voi sbagliano nel credere che l'FP16 sia un handicap. Non lo è. E' un arma in più per nVidia.

Guarda che io questo cosa la sapevo gia,ma non cambia la mia preferenza per le X800.

Dark Schneider
27-08-2004, 16:55
Originariamente inviato da Athlon 64 3000+
Guarda che io questo cosa la sapevo gia,ma non cambia la mia preferenza per le X800.


Si ma non mi sembra il caso di parlare di FP16 con qualità minore e come un handicap.

Se volete ve lo rispiego io come funziona ed i vantaggi rispetto al solo utilizzo dell'FP24.

Athlon 64 3000+
27-08-2004, 18:11
Originariamente inviato da Dark Schneider
Si ma non mi sembra il caso di parlare di FP16 con qualità minore e come un handicap.

Se volete ve lo rispiego io come funziona ed i vantaggi rispetto al solo utilizzo dell'FP24.

Infatti nella recensione delle X800 della Asus e Powercolor si è visto come l'effetto banding che c'era in Far Cry era stato risolto con L'NV40 a differenza delle Fx.
Il FP nell'NV40 viene gestito molto bene ma come ho detto le mie scelte le ho gia fatte.

ThunderTrunks
27-08-2004, 18:13
Originariamente inviato da Dark Schneider
Si ma non mi sembra il caso di parlare di FP16 con qualità minore e come un handicap.

Se volete ve lo rispiego io come funziona ed i vantaggi rispetto al solo utilizzo dell'FP24.

sinceramente non lo so come funziona il fp, xo' ho visto i risultati del fp16 comparati con gli altri. fp24 e fp32 sono praticamente indistinguibili(scritto anche sulla recensione di hwup), mentre quelli fp16 si distingue e come che sono nettamente inferiori di qualita'.e visto che ati con il suo fp24 riesce a stare alla pari se non superiore a nvidia con il fp16....credo che a parità di prestazioni sceglierei quella con migliore qualità no?se a nvidia metti il fp32 si dimezzano quasi le prestazioni.questo e' quasi l'unico motivo x cui non passero' a nvidia.

LordHam
27-08-2004, 18:33
Originariamente inviato da ThunderTrunks
sinceramente non lo so come funziona il fp, xo' ho visto i risultati del fp16 comparati con gli altri. fp24 e fp32 sono praticamente indistinguibili(scritto anche sulla recensione di hwup), mentre quelli fp16 si distingue e come che sono nettamente inferiori di qualita'.e visto che ati con il suo fp24 riesce a stare alla pari se non superiore a nvidia con il fp16....credo che a parità di prestazioni sceglierei quella con migliore qualità no?se a nvidia metti il fp32 si dimezzano quasi le prestazioni.questo e' quasi l'unico motivo x cui non passero' a nvidia.

Non vorrei dire cavolate, ma io sapevo che l'FP32 viene utilizzato quasi sempre, tranne quando non vi è alcuna differenza con l'FP16 e allora per evitare cali di prestazione viene usato l'FP16 al posto del primo!

Precisamente però neanche io so come funziona esattamente! :oink:

Dark Schneider
27-08-2004, 19:39
Originariamente inviato da ThunderTrunks
sinceramente non lo so come funziona il fp, xo' ho visto i risultati del fp16 comparati con gli altri. fp24 e fp32 sono praticamente indistinguibili(scritto anche sulla recensione di hwup), mentre quelli fp16 si distingue e come che sono nettamente inferiori di qualita'.e visto che ati con il suo fp24 riesce a stare alla pari se non superiore a nvidia con il fp16....credo che a parità di prestazioni sceglierei quella con migliore qualità no?se a nvidia metti il fp32 si dimezzano quasi le prestazioni.questo e' quasi l'unico motivo x cui non passero' a nvidia.


Ecco è qui che sta l'errore. :) Sapevo che spuntava fuori il famoso esempio del banding di Far Cry, che in realtà non dipende dall'FP16....e che tra l'altro non è stato un errore nVidia, ma di Crytek che aveva cannato.

Allora: la verità è che ora come ora è praticamente impossibile vedere la differenza tra le precisioni FP16, FP24 e FP32. Per parecchio tempo sarà così.

Riguardo il problemino del banding di Far Cry in realtà è che pare che l'fp16..non veniva in realtà eseguito quando era abilitato l'fp16. Pare che scalasse a FX12 che aveva quel risultato lì qualitativo. Ma adesso tutto ok con la patch 1.2...anche quando si esegue in fp16..non c'è nessunissima differenza di qualità con le altre precisioni(l'fp16 è più che sufficente in tutto attualmente).

Ma per di più l'fp16 non deve essere visto come un handicap, ma un arma in più di nVidia come detto anche da fek un po' di tempo fa.
Alla fine le DX9.0c ad esempio permetteno e ammettono lo scalare dell'fp16/fp32 ed è solo un vantaggio. Perchè è possibile scalare e quindi magari applicare dove la qualità d'immagine rimane identica l'fp16 così da guadagnare in prestazioni e nessuna perdita qualitatva..dove invece magari si potrebbe avvertire un degrado d'immagine..ci si applica l'fp32!! Hai prestazioni migliori e qualità identica. Perchè alla fine eseguire sempre e solo in fp24 o fp32 è solo uno spreco oltre che inutile...se puoi avere la stessa qualità e magari usare a seconda delle situazioni varie precisioni è meglio. Ecco perchè l'fp16 è solo un arma in più e non una elemento negativo.

Figurati che fek ha detto che praticamente questa cosa rende l'architettura nVidia più flessibile di quella Ati.
E' che è MOLTO più facile ridurre la precisione mantenendo la stessa qualità d'immagine, che riscrivere nuovamente uno shader per migliorare le performance (Ati).

ThunderTrunks
27-08-2004, 19:50
sulla recensione avevo letto che era una cosa negativa e che la scelta di ati era migliore.ma allora e' la skeda che decide dove mettere il fp16 e dove il 32...sempre nella stessa immagine?se fosse cosi' ...

ThunderTrunks
27-08-2004, 19:53
cmq rimane sempre il fatto del temporal AA ke si puo' dire raddoppia la qualità dell'AA.

Dark Schneider
27-08-2004, 20:19
Ma no è che nella recensione appunto c'era questo problema con il banding di Far Cry e quindi l'FP16 veniva incolpato di questo, perchè poi mettendo ad FP32 non si verificava. Quindi era vista come cosa negativa. Ma poi dopo alcune verifiche è venuto fuori che in questo gioco quando si settava in FP16 in realtà scalava pare ad FX12 e quello era il risultato. Con la patch 1.2 praticamente è stato risolto.

Si in pratica nelle specifiche delle DX9.0c è scritto che è permesso e ammesso questo scalare di precisioni. Quindi appunto alla fine è solo un vantaggio. Non è una cosa negativa. :)
Vedrai che anche Ati con la sua prossima generazione (ci manca un pezzo) adotterà una scelta simile. :)

Dark Schneider
27-08-2004, 20:26
Originariamente inviato da ThunderTrunks
cmq rimane sempre il fatto del temporal AA ke si puo' dire raddoppia la qualità dell'AA.


Il fatto è che il Temporal AA ha dei limiti.

Personalmente non lo ritengo una grande feature. Perchè praticamente per funzionare bisogna avere il v-sync attivo e gli fps non devono calare MAI sotto a 60. Se scende sotto questo limite si disattiva automaticamente. Quindi più si va avanti e meno è utilizzabile. Con i vecchi giochi ok. Ma con quelli più pesanti e complessi? Già ci son giochi dove praticamente già attualmente non è utilizzabile.

ThunderTrunks
27-08-2004, 21:17
quoto da una recensione appena vista in rete tra x800pro e 6800gt:
"The X800 Pro still uses FP24 which was the specification for Direct X 9.0, also the shaders used on the X800 Pro are more efficient than the shaders on the 6800 GT, this is why we see the X800 Pro jump into the lead in the older 3D Mark."

anche qua dice che il fp24 e' piu' efficente di quello utilizzato nelle 6800....boooo.

ma insomma alla fine io non ho capito se ad esempio in un fotogramma di un gioco...e' fatto da una parte in fp16(magari una parte meno visibile) e da un altra in fp32(magari le zone piu' vicine) oppure siamo noi a dover scegliere tra i 2 tipi.xke nella recensione dice anche che attivando il fp32 le cose cambiano...ma allora significa che per farglielo fare bisogna attivarlo noi?o e' tutto auto?scusate la testardaggine...

Dark Schneider
27-08-2004, 22:40
No cioè la questione è un po' diversa...se avrei un po' più tempo di questi tempi(scusa il gioco di parole) te le spiegherei meglio. Anche se volendo si possono forzare le precisioni. Ma non ne vedo il motivo. :)

Ma cmq lascia perdere le recensioni, perchè alla fine son molto poco tecniche o cmq non abbastanza.
Queste cose che ti ho detto io, non è che tipo me le son inventate. Son anche cose che ci ha detto Fek.
Fek praticamente è un utente qui dei forum, che è programmatore della Lionhead Studios, una delle maggiori software house di videogiochi e sta lavorando anche Black & White 2. Lui praticamente gli shader li scrive ogni giorno. Più volte ha fatto degli interventi per chiarire la questione della precisione di calcolo.
Quindi si può star certi su queste cose. :)

ThunderTrunks
27-08-2004, 22:46
dici che mi devo fidare e basta?io volevo solo sapere se faceva tutto in auto in modo ke la scena risultasse identica a quella fp24 di ati.ma il Vsync non va' con il refresh dello skermo?oppure e' sempre 60.

Dark Schneider
27-08-2004, 23:29
Lo scalare della precisione è una cosa che avviene automaticamente.

Riguardo al Temporal AA invece il V-Sync deve essere attivo sennò non funziona. In più se gli fps scendono sotto a 60 si disabilita in automatico.

Cmq sul V-Sync si va col refresh dello schermo. :)

ThunderTrunks
27-08-2004, 23:37
allora il mio vsinc sara' a 100fps e non 60? a 1024 faccio 100hz

[KabOOm]
28-08-2004, 09:13
Originariamente inviato da Dark Schneider
Fek praticamente è un utente qui dei forum, che è programmatore della Lionhead Studios, una delle maggiori software house di videogiochi e sta lavorando anche Black & White 2.

OT:
Allora e' lo stesso Fek che ho conosciuto io a SmauILP 2002 quando abbiamo fatto il torneo di Tribes :)
I Tribbari ne sanno un cifro :D


IT:
In poche parole, mi pare di capire che l'architettura Nvidia riesce in automatico a stabilire quale precisione di Shader e' necessaria e sufficiente ad ottenere il miglior risultato qualita'/prestazione.

Proviamo a fare un esempio un po' pratico.
Passatemi l'appiattimento del concetto:

Shader:
Struttura dati con un pracisione massima a 32 cifre (partendo da destra posizione zero fino a sinistra posizione 32).
00000000000000000000000000000000

Cifra:
Singola informazione di una parola che descrive uno shader, puo' assumero valore 0 o 1.

Cifra significativa:
Cifra dal valore 1. Lo zero non si considera significativo in quanto matematicamente valore nullo.

Shader a precisione FP16:
00000000000000001010111110101111
la cifra piu' significativa e' al 16° posto

Shader a precisione FP24:
00000000110011111010111110101111
la cifra piu' significativa e' al 24° posto

Shader a precisione FP32:
11000000110011111010111110101111
la cifra piu' significativa e' al 32° posto

Fatte queste premesse, gli esempi:

Shader esempio 1:
00000000000000000110111110101111
la cifra piu' significativa e' al 15° posto

Lo shader sopra e' descritto con 32 cifre (fp32) ma significative sono 15, percui posso descrivere lo stesso shader con un fp16
0110111110101111 e ipotizzare 16 zero davanti allo stesso se necessito di avere tutte e 32 le cifre.

Shader esempio 2:
00000000000000010110111110101111
la cifra piu' significativa e' al 17° posto

Lo shader sopra e' descritto con 32 cifre (fp32) ma significative sono 17, percui posso descrivere lo stesso shader con un fp24 poiche' fp16 non mi basta 0110111110101111 e ipotizzare 14 zero davanti allo stesso se necessito di avere tutte e 32 le cifre.

Shader esempio 3:
00000010000000010110111110101111
la cifra piu' significativa e' al 26° posto

Lo shader sopra e' descritto con 32 cifre (fp32) ma significative sono 26, percui posso descrivere lo shader solo con un fp32 poiche' fp16 e fp24 non mi bastano e ipotizzare i restanti zero davanti allo stesso se necessito di avere tutte e 32 le cifre.


Quindi: se io riesco a capire quate cifre necessito per descrivere uno shader, invece che usare sempre e solo un fp32 / fp24 / fp16 scelgo in automatico in maniera adattiva quale mi permette di avere la massima qualita' e la massima prestazione.

Da questo esempio emerge anche che se io descrivo uno shader che necessita di 32 cifre per essere al massimo del dettaglio con un fp16 avro' meta' della qualita' che lo shader puo' offrirmi.

Spero di riuscire ad aver azzeccato l'esempio e a renderlo chiaro.
Non sono un esperto di shader e ho appiattito il concetto per cercare di rendere chiara la cosa, spero solo di non aver creato ancora piu' confusione.

mt_iceman
28-08-2004, 10:52
se sei ancora indeciso scegli la x800 xt. mi è appena arrivata e ti assicuro che è una bomba.
altrimenti se ti interessa la qualità/prezzo credo che la 6800gt sia la migliore. almeno a sentire i commenti di tutti gli utenti del forum.

ThunderTrunks
28-08-2004, 11:00
be' allora prendo la pro vivo e la porto a xt....costa circa quanto una gt e va quasi quanto una xt.

DjLode
29-08-2004, 15:16
Originariamente inviato da [KabOOm]
IT:
In poche parole, mi pare di capire che l'architettura Nvidia riesce in automatico a stabilire quale precisione di Shader e' necessaria e sufficiente ad ottenere il miglior risultato qualita'/prestazione.


No, semplicemente è il programmatore che deve usare dati a 16 o a 32 bit, l'architettura non fa niente in automatico.


CUT


Nell'esempio mi sono perso dopo 3 righe :)
Vedo di appiattirti io il concetto se riesco. Hai fatto a scuola o sai cosa sono i numeri in virgola mobile? Ok. Sai che possono essere usate più precisioni (ad esempio nellostandard IEEE 754 c'è la singola precisione a 32bit e la double precision a 64bit, la prima con 10 bit per l'esponente se non ricordo male, uno per il segno e il resto per la mantissa).
Se tu stai facendo operazioni semplici con dati interi puoi usare i numeri fissi (INT12 se non mi sbaglio sono interi a 12 bit). Altrimenti dovrai usare numeri a virgola mobile. In queste operazioni puoi arrivare a risultati rappresentabili con i bit a tua disposizione (ad esempio ho 16 bit, faccio le operazioni e ci sto dentro, allora usare i 32bit o i 24 è inutile) oppure ottenere risultati che eccedono la tua capacità di rappresentazione, quindi scalerai a precisioni superiori oppure tramite approssimazione introdurrai errori.
Ora, se l'errore è solo sul risultato, è un buon compromesso. Se tutte le operazioni che effettui introducono errori, è un problema e dovrai usare precisioni maggiori.
Questo è un discorso introduttivo.
Come dici tu se hai a che fare con dati conosciuti e sai che oltre una certa cifra non ci vai, puoi usare tranquillamente la precisione minore (16 bit o addirittura gli interi) e ottenere uno shader equivalente a uno che usa dati a 32bit, però più velocemente.
Il tutto però deve essere scelto dal programmatore, la gpu tratta i dati, non decide niente se il programmatore non gli dice di decidere.
Ati dal canto suo usa una precisione di calcolo sempre a 24bit, che gli lascia un buon margine per i calcoli senza doversi preoccupare di scalare. Quando i 24 bit saranno usati tutti, si genererà errore, senza la possibilità di usare precisioni superiori. Ma laddove ci sarà bisogno di un dato a 32bit senza che questo però ecceda una precisione di 24 bit (ti ricordo che Nvidia può scegliere, se vado oltre i 16 uso i 32, i 24 non li ha), avrò prestazioni superiori ad una gpu che calcola gli stessi dati a 32bit, con la stessa resa grafica.
Ora come ora gli shader non eccedono mai i 16 bit, e anche Unreal 3 (il suo motore) usa shader che ora come ora non generano (o ne generano pochi) artefatti anche su un R420. Quindi si può stare tranquilli per un pò.

[KabOOm]
29-08-2004, 20:07
Originariamente inviato da DjLode
No, semplicemente è il programmatore che deve usare dati a 16 o a 32 bit, l'architettura non fa niente in automatico.

Nell'esempio mi sono perso dopo 3 righe :)
Vedo di appiattirti io il concetto se riesco. Hai fatto a scuola o sai cosa sono i numeri in virgola mobile? Ok. Sai che possono essere usate più precisioni (ad esempio nellostandard IEEE 754 c'è la singola precisione a 32bit e la double precision a 64bit, la prima con 10 bit per l'esponente se non ricordo male, uno per il segno e il resto per la mantissa).

[cut]



...mi e' chiaro cosa significa la precisione :) avevo cercato di fare un esempio per chi non avesse masticato la precisione matematico/informatica :)

In ogni caso se non c'e' nulla di automatico, significa che da drivers l'utente puo' scegliere la precisione ma se la sceglie e aumenta la qualita' di immagine, come e' possibile?

Ovvero se io setto da driver fp32 perche' ho un aumento della qualita'? Mi spiego il degrado di prestazioni (dati di troppo) ma non l'aumento di qualita' se come dici tu un fp16 e' piu' che sufficiente... se aumenta la qualita' allora fp16 non e' sempre ottimale...

...cmq credo di aver capito meglio i discorsi precedenti e di aver frainteso l'automatismo dell' fp :)

ThunderTrunks
29-08-2004, 20:49
Originariamente inviato da [KabOOm]
...mi e' chiaro cosa significa la precisione :) avevo cercato di fare un esempio per chi non avesse masticato la precisione matematico/informatica :)

In ogni caso se non c'e' nulla di automatico, significa che da drivers l'utente puo' scegliere la precisione ma se la sceglie e aumenta la qualita' di immagine, come e' possibile?

Ovvero se io setto da driver fp32 perche' ho un aumento della qualita'? Mi spiego il degrado di prestazioni (dati di troppo) ma non l'aumento di qualita' se come dici tu un fp16 e' piu' che sufficiente... se aumenta la qualita' allora fp16 non e' sempre ottimale...

...cmq credo di aver capito meglio i discorsi precedenti e di aver frainteso l'automatismo dell' fp :)


anche io credo di aver capito...cmq credevo che non bisognasse attivarlo noi l'fp32 da driver.credevo andasse in auto a 32 quando l'istruzione era troppo corta per entrare nei 16bit.cmq effettivamente ammetto che nvidia ha preso la strada migliore a patto che la qualità non aumenti mettendo il fp32...cioe' che va in auto a 32 quando ne ha bisogno.altrimenti ati x me rimane la piu' azzeccata...visto anche le prestazioni.

Dark Schneider
29-08-2004, 21:18
Originariamente inviato da [KabOOm]



IT:
In poche parole, mi pare di capire che l'architettura Nvidia riesce in automatico a stabilire quale precisione di Shader e' necessaria e sufficiente ad ottenere il miglior risultato qualita'/prestazione.



Scusa se non ti ho risposto, ma mi ero perso sto topic. Lo stavo ritrovando stamattina, ma non mi ricordavo che era qui nella sezione degli acquisti.

Cmq non nel senso che la scheda..lei..va a cambiare. Ovviamente è qualcosa che come ha detto DjLode deve fare il programmatore. E' il programmatore che sceglie dove adottare fp32 e dove fp16. Dopodichè ovviamente la scheda "obbedirà". La scheda video ricordiamoci è pur sempre un pezzo di ferro privo di intelligenza se non c'è programmazione. :D

nVidia cmq ha scelto per l'FP16 e FP32. Quindi già per scelto l'utilizzo di queste due precisioni, ecco che si alzano anche il numero di transistor. Integrare anche l'FP24 oltre a questi due era inutile tra l'altro. Perchè non so se hai visto qualche schema che mostra l'architettura del NV40. Praticamente il NV40 ha delle unità ALU FP32. Quindi può utilizzare ognuna di queste unità come due unità con precisione FP16.

Cmq questo per spiegare insomma a quelli che si attaccano su sto fatto "fp16" uguale qualità schifosa. Invece non è così. L'ho già detto qualche post addietro: l'FP16 è sufficente per tutto e lo sarà per parecchio tempo ancora. Mi spiace che alla Crytek hanno cannato con Far Cry e che è venuto fuori quel pasticcio e che magari adesso la gente crede che con l'FP16 e le altre precisioni ci sia differenza qualitativa attualmente. Con la patch 1.2 hanno cmq risolto.

Vedrai che Ati adotterà lo stesso approccio per questo R520 Fudo di cui si mormora da giorni.: FP16/FP32.

Chissà quando avremo un FP48...magari avremo un FP48/FP24. :)
Magari anche per allora l'FP16 ancora sarà usato. E' chissà quanti transistor le schede avranno. :)
Ma staremo a vedere. Io personalmente il futuro lo vedo più con un utilizzo di più tipi di precisioni, che a singola precisione. Alla fine la maggiore flessibilità è qualcosa che semplifica un sacco le cose, quindi... ;)

DjLode
30-08-2004, 07:50
Originariamente inviato da [KabOOm]
...mi e' chiaro cosa significa la precisione :) avevo cercato di fare un esempio per chi non avesse masticato la precisione matematico/informatica :)


Era per partire da 0 e fare un discorso abbastanza comprensibile :)


In ogni caso se non c'e' nulla di automatico, significa che da drivers l'utente puo' scegliere la precisione ma se la sceglie e aumenta la qualita' di immagine, come e' possibile?


Non può, la precisione identifica il formato dei dati che la gpu digerisce. Se il calcolo è tale da rimanere in un numero floating point a 16 bit, perchè aumentare la complessità dei calcoli (32bit) inserendo 0 nei bit non codificati (per trasformare da 16 bit a 32 bit) e ottenere zero miglioramenti? La cosa diventa utile nel caso in cui ci siano shader che non eccedono la capacità di un numero a 16 bit, così il programmatore può usare dati a 16 bit appunto e ottenere prestazioni superiori.
E' come se tu avessi un immagine a 256 colori, se tu avessi una scheda (è un esempio che fa schifo ma forse aiuta :)) che ne visualizza o 256 o 16 milioni. Perchè trasformarla in immagine a 16 milioni di colori quando l'originale ne ha solo 256? Ma se l'immagine ne avesse 3000 (per dire), il formato 256 colori la peggiorerebbe, ed ecco che la possiamo visualizzare a 16 milioni, porta via più spazio ma i colori li vedo tutti.


Ovvero se io setto da driver fp32 perche' ho un aumento della qualita'? Mi spiego il degrado di prestazioni (dati di troppo) ma non l'aumento di qualita' se come dici tu un fp16 e' piu' che sufficiente... se aumenta la qualita' allora fp16 non e' sempre ottimale...


La qualità aumenta solo se il formato 16 bit non è sufficiente a farci stare dentro tutti i numeri che sto trattando e quindi debbo arrotondare, ottenendo un numero a 16bit che però è diverso da quello che ho ottenuto. Vedi se l'esempio soprati chiarifica la cosa.
In poche parole l'aumento non c'è sempre. Ora come ora i 16 bit sono sufficienti.

Sehelaquiel
30-08-2004, 10:38
Ragazzi, ho un bel dilemma...

Cosa scelgo, la Ati Radeon x800 XT-PE (si, la Platinum) o la Nvidia 6800 GT?

Guardando qualche review ho potuto capire che la XT-PE ha la forza bruta, e' in poche parole un mostro (anche piu' di una 6800 ultra) in molti giochi tranne che DOOM 3...

In Doom 3 la platinum va peggio di una 6800 gt, la sua forza bruta serve a poco...

Non vorrei applicare il Humus tweak per doom 3 perche' danno un incredibile boost si, ma modificano il shader di doom 3 (e percio' la qualita' dell' immaggine potrebbe essere differente dal normale grazie a questa modifica).

La 6800 gt costa meno, molto meno, e va bene in tutti i giochi (specialmente in Doom 3)...

Perche xt-pe vs 6800gt? Perche' sono riuscito a trovare la xt-pe ad un prezzo molto conveniente, e la 6800 gt ad anche di meno :D

Percio' vi prego aiutatemi! Grazie :D

[KabOOm]
30-08-2004, 17:20
Originariamente inviato da Sehelaquiel
Ragazzi, ho un bel dilemma...

Cosa scelgo, la Ati Radeon x800 XT-PE (si, la Platinum) o la Nvidia 6800 GT?



Scegli la scheda in base al gioco che piu' vorrai usare:

Doom 3 e suoi engine (Quake 4): 6800 GT
HL2 / Unreal Engines: X800

poi dai un occhio anche al portafoglio e ricorda che le differenze fra una e l'altra sono alla fine irrisorie.

Wizard77
05-09-2004, 11:13
Originariamente inviato da Sehelaquiel
Ragazzi, ho un bel dilemma...

Cosa scelgo, la Ati Radeon x800 XT-PE (si, la Platinum) o la Nvidia 6800 GT?

Guardando qualche review ho potuto capire che la XT-PE ha la forza bruta, e' in poche parole un mostro (anche piu' di una 6800 ultra) in molti giochi tranne che DOOM 3...

In Doom 3 la platinum va peggio di una 6800 gt, la sua forza bruta serve a poco...

Non vorrei applicare il Humus tweak per doom 3 perche' danno un incredibile boost si, ma modificano il shader di doom 3 (e percio' la qualita' dell' immaggine potrebbe essere differente dal normale grazie a questa modifica).

La 6800 gt costa meno, molto meno, e va bene in tutti i giochi (specialmente in Doom 3)...

Perche xt-pe vs 6800gt? Perche' sono riuscito a trovare la xt-pe ad un prezzo molto conveniente, e la 6800 gt ad anche di meno :D

Percio' vi prego aiutatemi! Grazie :D


In questo momento delle schede Highend secondo me la migliore come prezzo prestazioni è la 6800GT, e credo proprio che sarà la sk che prendero fra un mesetto circa.

Coca-Cola
13-09-2004, 14:19
Anche io sono indeciso su X800proViVo@XT o 6800GT@ULTRA... costano +- uguali...

aiutooooo :D

PS: per i driver dite che si avranno piu' miglioramenti nel corso del tempo per Nvidia o per ATI ?