PDA

View Full Version : Uno sguardo al mercato delle schede video


Redazione di Hardware Upg
26-01-2005, 12:15
Link alla notizia: http://news.hwupgrade.it/13925.html

Fotografia dell'attuale situazione di mercato delle schede video. ATI perde qualche punto percentuale a vantaggio di NVIDIA. Intel domina nel settore delle soluzioni integrate

Click sul link per visualizzare la notizia.

eltalpa
26-01-2005, 12:27
Niente di nuovo invece sul fronte taiwanese (XGI e co?)

seccio
26-01-2005, 12:59
la difficoltà di reperibilità delle X800 si riflette in modo evidente sul confronto con nVidia....
Credo che questa volta Ati abbia sbagliato più di una cosa....prima di tutto ha sottovalutato troppo l'nV40....e poi ha voluto accelerare i tempi per contrastare nVidia....

ma nn ha pensato proprio alle scorte...e alla produzione dei chip con LowK...peccato davvero.

JohnPetrucci
26-01-2005, 13:45
Non mi pento affatto di aver lasciato Ati per puntare alla 6800 ultra.
Piu' trasparenza nei settaggi e funzionalità dei driver assieme a funzioni evolute come gli shader 3.0, seppur questi ultimi ancora non sfruttati a dovere
Basta guardare il demo di unreal 3.
E aggiungo anche che la migliore partnership con gli sviluppatori è tutta a vantaggio di chi possiede Nvidia.
D'altro canto lascio una funzione semi inutilizzata come il truform, e un antialaising temporal che un pò rimpiango.:O

bt52
26-01-2005, 13:57
A mio parere ATI stà pagando il caos generato dai tanti modelli molto simili tra di loro attualmente in commercio che spesso disorientano chi ha neccessità di acquistare una scheda video.

213
26-01-2005, 14:17
[quote]
Basta guardare il demo di unreal 3.
E aggiungo anche che la migliore partnership con gli sviluppatori è tutta a vantaggio di chi possiede Nvidia.
[quote]

E' anche risaputo però che HL2 girà molto meglio su schede video ATI, quindi ciò sta a significare che alcuni giochi sono più "portati" per una casa, altri per l'altra. Non mi è sembrato finora che NVidia prevalga su ATI, casomai si può dire che c'è una situazione di perfetta parità. Gli shader 3.0 probabilmente verranno integrati da ATI in uno dei suoi prossimi chipset, ma per ora, anche se li avessi implementati non sarebbero serviti. Poi non è neppure un discorso di longevità, visto che una scheda video diventa vecchia molto in fretta .... :mad:

Motosauro
26-01-2005, 14:23
Painkiller Battle out of Hell fa uso degli shader 3.0 se non erro, il che significa che tra qualche mese li vedremo implementati in più di un gioco: figurati se Nvidia non paga qualche team di sviluppo...
Btw Riddick usa le softshadows se si ha una geffo 6x00

Hl2 gira meglio sulle ati perché ati ha pagato Valve: in una economia di mercato è una mossa logica e permessa

holydio
26-01-2005, 15:17
Io gioco a 2048x1536 ad half life2 4x e 8x dettagli al massimo ho "abbassato" a 1900 per un po' piu' di velocità e nn tirare troppo la scheda. Io posseggo una 6800 ultra. che senso ha che giri meglio su ati? Inoltre a doom3 la 6800 ultra nn mi è sembrata affatto molto performante rispetto a quello che era stato scritto. Quindi se la ati va meno in doom 3 in proporzione direi che la scelta ricade di logica su nvidia. Poi shader 3.0 4.0 10.0 finchè nn ci sono applicazioni nn hanno senso. quando ci saranno le applicazioni nn avrà piu' senso la 6800 ultra.
Saluti

nonikname
26-01-2005, 15:19
Gli shader 3.0 probabilmente verranno integrati da ATI in uno dei suoi prossimi chipset, ma per ora, anche se li avessi implementati non sarebbero serviti. Poi non è neppure un discorso di longevità, visto che una scheda video diventa vecchia molto in fretta ....

Infatti a maggio ATI presenterà l'R520 : shader 3.0 e 32 bit di precisione (floating point) sulle pipeline.... stesse caratteristiche della "vecchia" NV40...(tutto ad un tratto ora servono :) )

http://www.theinquirer.net/?article=20896

JohnPetrucci
26-01-2005, 15:53
E' anche risaputo però che HL2 girà molto meglio su schede video ATI, quindi ciò sta a significare che alcuni giochi sono più "portati" per una casa, altri per l'altra. Non mi è sembrato finora che NVidia prevalga su ATI, casomai si può dire che c'è una situazione di perfetta parità. Gli shader 3.0 probabilmente verranno integrati da ATI in uno dei suoi prossimi chipset, ma per ora, anche se li avessi implementati non sarebbero serviti. Poi non è neppure un discorso di longevità, visto che una scheda video diventa vecchia molto in fretta .... :mad:

Anche i 64 bit di Amd pare non servano, vistI gli applicativi attuali.
E' anche vero però che se spendo 550 eurozzi, preferisco avere tecnologia più avanzata a parità di prezzo, pur se non ancora utilizzata a dovere.
Inoltre leggiti su tom's hardware l'analisi di filtraggio trilineare di Ati, che col suo "brilineare" (UNA VIA DI MEZZO TRA TRIL. E BIL.) rifila ai suoi clienti funzioni non disattivabili e mirate a taroccare le prestazioni.
Nvidia insegna..... E RIMEDIA......ATI SEGUE E NON RIMEDIA. :D

seccio
26-01-2005, 16:12
Originariamente inviato da JohnPetrucci

Nvidia insegna..... E RIMEDIA......ATI SEGUE E NON RIMEDIA. :D

beh dai questa l'hai tirata grossa....

al di là del fatto che le schede TOP attualmente si eguagliano ...nn mi pare che Ati sia tecnologicamente agli antipodi di nVidia , certo ha qualcosa in meno , ma è stato anche dimostrato che quelle ottimizzazioni nn creano alcun degrado grafico....su questo punto ti stai sbagliando di grosso con nVidia..era lei che abbassava dettagli e tutto per cheattare.nn ATi.

insegnare poi cosa??guarda che nVidia esce da un momento brutto dove ha ben poche cose da insegnare....da schede flop , a schede forno , a schede che erano spacciate per full DX9....

Quindi , ti prego , era prevedibilissimo che NV40 sarebbe stato un prodotto valido ...ottimo...ma nVidia nn ha proprio niente da insegnare a nessuno perchè finora è stata ATi il punto di riferimento tecnologico...e nonostante adesso sia in svantaggio nn è certo nella situazione che Nvidia si è creata con le sue mani in questi 2 anni.

JohnPetrucci
26-01-2005, 16:34
Originariamente inviato da seccio
beh dai questa l'hai tirata grossa....

al di là del fatto che le schede TOP attualmente si eguagliano ...nn mi pare che Ati sia tecnologicamente agli antipodi di nVidia , certo ha qualcosa in meno , ma è stato anche dimostrato che quelle ottimizzazioni nn creano alcun degrado grafico....su questo punto ti stai sbagliando di grosso con nVidia..era lei che abbassava dettagli e tutto per cheattare.nn ATi.

insegnare poi cosa??guarda che nVidia esce da un momento brutto dove ha ben poche cose da insegnare....da schede flop , a schede forno , a schede che erano spacciate per full DX9....

Quindi , ti prego , era prevedibilissimo che NV40 sarebbe stato un prodotto valido ...ottimo...ma nVidia nn ha proprio niente da insegnare a nessuno perchè finora è stata ATi il punto di riferimento tecnologico...e nonostante adesso sia in svantaggio nn è certo nella situazione che Nvidia si è creata con le sue mani in questi 2 anni.

Quando ho scritto Nvidia insegna, mi riferivo appunto alle passate ottimizzazioni a dir poco discutibili da parte di Nvidia.

Ati non è esente da ciò adesso visto che ha seguito l'esempio sbagliato, anche se non si apprezzano degradi qualitativi, dimmi come hanno fatto allora quelli del sito tedesco a rilevare che il bilineare in call of duty era uguale al trilineare su schede Ati?

Tieni in debito conto, che queste ottimizzazioni si resettano in trilineare puro automaticamente nei test delle colorazioni e nei benchmark, quindi non è possibile li avere degradi.
Tornano poi al "brilineare" nei games.

Oggi Nvidia permette di disabilitare tali vecchie ottimizzazioni, Ati non ancora, ecco perchè non rimedia.

seccio
26-01-2005, 17:28
Originariamente inviato da JohnPetrucci
dimmi come hanno fatto allora quelli del sito tedesco a rilevare che il bilineare in call of duty era uguale al trilineare su schede Ati?



per il semplice fatto che cmq se ti metti su un fermo immagine è ovvio che prima o poi una differenza la noti . ma durante il gioco e immagini in movimento è in pratica irrilevante.

Per cui ...sinceramente che si dica che la 6800 è superiore sono ben d'accordo, ma adesso arrivare a dire che ATi sta imparando dagli errori di nVidia in fatto di cheat mi pare grossa....perchè ben vengano ottimizzazioni su giochi e quant'altro se queste sono invisibili all'occhio umano durante il gioco.

come a quanto pare SONO invisibili perchè applicate oramai da 2 anni a questa parte anche su schede come la 9600-9600PRO....e nessuno mai si è lamentato della scarsa qualità grafica di ATi in queste schede.

JohnPetrucci
26-01-2005, 17:47
Originariamente inviato da seccio
per il semplice fatto che cmq se ti metti su un fermo immagine è ovvio che prima o poi una differenza la noti . ma durante il gioco e immagini in movimento è in pratica irrilevante.

Per cui ...sinceramente che si dica che la 6800 è superiore sono ben d'accordo, ma adesso arrivare a dire che ATi sta imparando dagli errori di nVidia in fatto di cheat mi pare grossa....perchè ben vengano ottimizzazioni su giochi e quant'altro se queste sono invisibili all'occhio umano durante il gioco.

come a quanto pare SONO invisibili perchè applicate oramai da 2 anni a questa parte anche su schede come la 9600-9600PRO....e nessuno mai si è lamentato della scarsa qualità grafica di ATi in queste schede.

Daccordo, però sarebbe bene che Ati inserisse nei propri driver la possibilità per chi vuole, di disattivare tali ottimizzazioni.

Ciò gioverebbe alla trasparenza di rapporto verso la clientela, soprattutto la più esigente.

So che l'hanno promesso, ma hanno anche dato come scadenza l'uscita della x850 xt.

Per adesso nei nuovi driver catalyst 5 tale funzione non è ancora stata introdotta e la x850 xt è già sul mercato.....
Staremo a vedere.....

seccio
26-01-2005, 18:01
Originariamente inviato da JohnPetrucci
Daccordo, però sarebbe bene che Ati inserisse nei propri driver la possibilità per chi vuole, di disattivare tali ottimizzazioni.

Ciò gioverebbe alla trasparenza di rapporto verso la clientela, soprattutto la più esigente.

So che l'hanno promesso, ma hanno anche dato come scadenza l'uscita della x850 xt.

Per adesso nei nuovi driver catalyst 5 tale funzione non è ancora stata introdotta e la x850 xt è già sul mercato.....
Staremo a vedere.....


per l'opzione da inserire nei driver sono d'accordo.....
per il resto cmq rimango dell'idea che gli errori dell'una e dell'altra nn siano nemmeno minimamente paragonabili.....e anzi tutto sommato preferisco di gran lunga un comportamento come quello di ATi piuttosto che quello di nVidia che ha iniziato a cheattare driver per dare un boost alle schede come le NV3x (schede che oltre al fatto che erano mediamente più lente erano anche schede che nn facevano quello che DOVEVANO..vedi DX9).....

criminal187
26-01-2005, 18:11
Fatevi un giro nell'archivio news di www.megagames.com dove vengono mostrati 2 screen di doom3 dove viene messa in evidenza la perdita di qualità causata dall'utilizzo di "cheat" se preferite ottimizzazioni...

JohnPetrucci
26-01-2005, 18:16
Originariamente inviato da seccio
per l'opzione da inserire nei driver sono d'accordo.....
per il resto cmq rimango dell'idea che gli errori dell'una e dell'altra nn siano nemmeno minimamente paragonabili.....e anzi tutto sommato preferisco di gran lunga un comportamento come quello di ATi piuttosto che quello di nVidia che ha iniziato a cheattare driver per dare un boost alle schede come le NV3x (schede che oltre al fatto che erano mediamente più lente erano anche schede che nn facevano quello che DOVEVANO..vedi DX9).....

Sono nuovamente daccordo con te.
Ma non digerisco che Ati abbia spacciato fino alla evidente scoperta tale ottimizzazione come trilineare puro, quando sappiamo bene che non lo è affatto, matematicamente.

Potevano mettere le carte in tavola prima e comportarsi con eleganza, invece di difendere ad oltranza una balla come questa.

Ad ogni modo ritengo sia una buona ottimizzazione del filtro trilineare, anche se imposta dall'alto e non disattivabile.
Riconoscendo però che in termini prestazionali si fa sentire, e anche bene.

Tieni conto che io lo disattiverei e la maggior parte di quelli che spendono 500€ o più credo farebbero lo stesso.

Non si compra una X800 xt per poi mettere ottimizzazioni varie, queste infatti hanno senso su schede di fascia medio/bassa.
Poi ci sono sempre le eccezioni......

JohnPetrucci
26-01-2005, 18:23
Originariamente inviato da criminal187
Fatevi un giro nell'archivio news di www.megagames.com dove vengono mostrati 2 screen di doom3 dove viene messa in evidenza la perdita di qualità causata dall'utilizzo di "cheat" se preferite ottimizzazioni...

Molto interessante..., hai il link della pagina in questione x caso?
Ti ringrazio.

seccio
26-01-2005, 18:32
Originariamente inviato da JohnPetrucci

Non si compra una X800 xt per poi mettere ottimizzazioni varie, queste infatti hanno senso su schede di fascia medio/bassa.
Poi ci sono sempre le eccezioni......


infatti....come quelli che tempo fa sul forum spendevano anche 600€ su una scheda nuova blasonata quanto nn solo nn sapevano che cosa fossero i filtri , ma li anche ritenevano completamente inutili....

io da due anni ho filtri al massimo e FSAA4x e per adesso nn li ho mai calati , neppure a FarCry e DoomIII...sia con 9500@9700 sia con l'attuale scheda...ma appunto ...nn tutti sono come me.

JohnPetrucci
26-01-2005, 18:36
Originariamente inviato da seccio
infatti....come quelli che tempo fa sul forum spendevano anche 600€ su una scheda nuova blasonata quanto nn solo nn sapevano che cosa fossero i filtri , ma li anche ritenevano completamente inutili....

io da due anni ho filtri al massimo e FSAA4x e per adesso nn li ho mai calati , neppure a FarCry e DoomIII...sia con 9500@9700 sia con l'attuale scheda...ma appunto ...nn tutti sono come me.

Gli utonti purtroppo esistono.
Come quelli che esaltano le schde madri Asus sino alla morte, come fossero le migliori del pianeta terra.:rolleyes:

Dark Schneider
26-01-2005, 18:47
nVidia è un po' poco presente nel mercato dei portatili ed è un peccato. :(

Infatti non ci vogliono numeri come "70%" per capire il livello di diffussione delle Radeon Mobility. Basta andare in un qualunque negozio e vedere che son tutte Radeon quelle montate nei NB.

E' anche vero che quest'anno nVidia ha presentato tante nuove tecnologie, oltre che ad aver anticipato tutti nel presentare tecnologie(SM 3.0, GoForce 3D 4500, Turbo Cache, SLI,Bridge HSI,ecc.).

Però una certa importanza se fossi in nVidia la darei al mercato dei portatili. Le nVidia Go son montate in pochi portatili davvero.

seccio
26-01-2005, 19:40
Originariamente inviato da JohnPetrucci
Gli utonti purtroppo esistono.
Come quelli che esaltano le schde madri Asus sino alla morte, come fossero le migliori del pianeta terra.:rolleyes:


:rotfl:

mamma mia....personalmente le sconsiglio a tutti , ma pochi mi danno retta , per il resto l'ultima scheda madre che ho avuto ASus è stata per PentiumII... :eek: ...dopo ho sempre avuto Abit (KT7/IC7G) dopo una stupenda parentesi con Gigabyte(8PE800ultra)....

Asus ? evitate sempre come la peste...nonostante la corrispondente della Gigabyte (P4PE) fosse cmq una bella scheda mamma....

JohnPetrucci
26-01-2005, 20:04
Originariamente inviato da seccio
:rotfl:

mamma mia....personalmente le sconsiglio a tutti , ma pochi mi danno retta , per il resto l'ultima scheda madre che ho avuto ASus è stata per PentiumII... :eek: ...dopo ho sempre avuto Abit (KT7/IC7G) dopo una stupenda parentesi con Gigabyte(8PE800ultra)....

Asus ? evitate sempre come la peste...nonostante la corrispondente della Gigabyte (P4PE) fosse cmq una bella scheda mamma....


Siamo fuori tema, ma se si parla di schede madri Asus, non mi stanco mai di sconsigliarle.
Sono stato un felice possessore di Epox 8rda3+, abit nf7-s(la migliore che ho avuto con nf2 ultra 400) e adesso possiedo una Msi k8n neo 2 platinum 939 nf3 ultra(ottima e brillante).

Ma la Gigabyte che ho avuto, era un giocattolo seminutile, a causa però del chipset via kt400.
Cosa mi sai dire sulla gigabyte con nf3 ultra?
Conosci qualcuno che l'ha provata?
Interesserebbe ad un mio amico.

seccio
26-01-2005, 20:50
Originariamente inviato da JohnPetrucci
Siamo fuori tema, ma se si parla di schede madri Asus, non mi stanco mai di sconsigliarle.
Sono stato un felice possessore di Epox 8rda3+, abit nf7-s(la migliore che ho avuto con nf2 ultra 400) e adesso possiedo una Msi k8n neo 2 platinum 939 nf3 ultra(ottima e brillante).

Ma la Gigabyte che ho avuto, era un giocattolo seminutile, a causa però del chipset via kt400.
Cosa mi sai dire sulla gigabyte con nf3 ultra?
Conosci qualcuno che l'ha provata?
Interesserebbe ad un mio amico.


in tutta sincerità ?? nn conosco nessuno che ce l'abbia...ma posso dirti a grandi linee come si sono sempre dimostrati i prodotti Gigabyte a parità di chipset rispetto ad altri!....
La mia 8PE800ultra , la gigabyte con 875P di un mio amico ..e un'altra con nForce2..si sono dimostrati sempre prodotti corredati al massimo da un buon bundle....rispetto alle concorrenti erano tutt'e tre di poco più lente delle altre (forse per garantirne più stabilità) , in overclock erano sempre buone...ma mai come Epox e Abit....
Però un neo..manca sempre un "qualcosa" sotto il bios che le ABIT hanno...le gigabyte spesso peccano sui settaggi AGP e settAggi memorie...o settaggi per l'overclock.

Poi nn so ...magari con Nforce3 la storia è cambiata...in linea di massima direi che se il tuo amico è uno smanettone ...prob la Gigabyte nn è proprio il massimo che potrebbe prendere , se al contrario è un tipo normale che cerca un buon prodotto corredato anche da altri accessori..beh se nForce3 è un buon chipset...sicuramente sarà un buon prodotto anche quella Gigabyte!

fek
26-01-2005, 20:55
Originariamente inviato da nonikname
Infatti a maggio ATI presenterà l'R520 : shader 3.0 e 32 bit di precisione (floating point) sulle pipeline.... stesse caratteristiche della "vecchia" NV40...(tutto ad un tratto ora servono :) )

http://www.theinquirer.net/?article=20896

Non credo che passeranno a 32bit con l'R520, ma speculo: ne sapro' di piu' la settimana prossima.

JohnPetrucci
26-01-2005, 21:34
Originariamente inviato da seccio
in tutta sincerità ?? nn conosco nessuno che ce l'abbia...ma posso dirti a grandi linee come si sono sempre dimostrati i prodotti Gigabyte a parità di chipset rispetto ad altri!....
La mia 8PE800ultra , la gigabyte con 875P di un mio amico ..e un'altra con nForce2..si sono dimostrati sempre prodotti corredati al massimo da un buon bundle....rispetto alle concorrenti erano tutt'e tre di poco più lente delle altre (forse per garantirne più stabilità) , in overclock erano sempre buone...ma mai come Epox e Abit....
Però un neo..manca sempre un "qualcosa" sotto il bios che le ABIT hanno...le gigabyte spesso peccano sui settaggi AGP e settAggi memorie...o settaggi per l'overclock.

Poi nn so ...magari con Nforce3 la storia è cambiata...in linea di massima direi che se il tuo amico è uno smanettone ...prob la Gigabyte nn è proprio il massimo che potrebbe prendere , se al contrario è un tipo normale che cerca un buon prodotto corredato anche da altri accessori..beh se nForce3 è un buon chipset...sicuramente sarà un buon prodotto anche quella Gigabyte!

Ok, proprio come pensavo a grandi linee, x gli smanettoni ci vuole il binomio epox/abit e a volte si inseriscono altre marche come dfi e msi.
Grazie cmq sei stato esaustivo e preciso.

seccio
26-01-2005, 21:54
Originariamente inviato da JohnPetrucci
Ok, proprio come pensavo a grandi linee, x gli smanettoni ci vuole il binomio epox/abit e a volte si inseriscono altre marche come dfi e msi.
Grazie cmq sei stato esaustivo e preciso.



ma di niente figurati! ;)

scusateci cmq per l'OT ;)

Dark Schneider
26-01-2005, 22:35
Originariamente inviato da fek
Non credo che passeranno a 32bit con l'R520, ma speculo: ne sapro' di piu' la settimana prossima.


fek dici che neanche R520 avrà il supporto SM 3.0?

Onda Vagabonda
27-01-2005, 08:42
Siamo usciti fuori tema comunque anche io non mi sono trovato tanto bene con Asus, niente di grave, tuttavia piccole noie qua e la che mi hanno riportato fra le braccia di Gigabyte.
Per quanto riguarda le schede video credo che questa nuova tecnologia abbia un pò rimescolato le carte, ho l'impressione che sia Ati che Invidia, abbiano un sorta di protocollo di intesa, ovvero si inseguano l'una con l'altra step by step, senza fare grandi salti in avanti, credo infatti che stiano osservando il mercato, che stiano aspettando anche verso dove ci orienteremo come mobo, dual o no, come memoria, ddr ddrII, ddeIII, che stiano aspettando l'affermazione delle PCI, che vogliano capire se sarà conveniente puntare su schede dual SLI, o se dovranno produrre schede con più processori...
FORSE PER NOI UTENTI NON E' IL MOMENTO MIGLIORE PER FARE UPGRADE, FORSE CONVIENE RESISTERE PER TUTTO L'INVERNO...

JohnPetrucci
27-01-2005, 10:30
Già potrebbe essere proprio come scrivi tu.
Però io non ho resistito e guardando i test su pci-express, ho deciso di restare all'agp 8x con l'upgrade della sola scheda video.

Fra qualche annetto si vedrà....., tanto escono sempre novità più o meno necessarie.

Adesso pare che con le ddr2 il socket 939 non sia più destinato alla longevità quindi figurati, è solo consumismo sfrenato e spesso poco utile.

Ma se un upgrade diventa utile, io mi ci oriento abbastanza celermente, finanze permettendo......

Sulle schede video vediamo cosa saprà offrire la tecnologia pci-ex. una volta matura e sfruttata a dovere.

Marco0084
27-01-2005, 20:24
NVIDIA con la serie NV3X ha fatto degli adattatori grafici da slot agp a connettore vga, non erano definibili schede video, mentre ATI con la serie R3X0 ha fatto delle schede molto valide rispetto alla concorrenza.
Dopo aver fatto una serie di schede non proprio fortunata NVIDIA ha spremuto tutto e ha tirato fuori 6800, 6600 e compagnia bella, in varie configurazioni diverse che indubbiamente sono schede molto valide, e mentre NVIDIA sputava sangue, ATI si è adagiata sugli allori consapevole della sua superiorità e ha semplicemente ottimizzato l'architettura R3X0 tirando fuori R420, ma non avrebbe mai immaginato che NVIDIA riuscisse a tirare fuori una scheda con un divario prestazionale così ampio rispetto alla generazione precedente (6800 Ultra). Con questo non voglio assolutamente dire che le X800 siano schede non valide, anzi, io sono felice possessore di una X800XT Platinum Edition dell'ASUS e ne sono più che contento... ATI credo che abbia capito l'errore e si sia data una svegliata, adesso aspettiamo questo famigerato R520 e poi si vedrà...
Comunque sia X800XT PE che 6800 Ultra sono 2 schede desisamente molto valide... chi si vuole pigliare ATI si piglia ATI, e chi si vuole pigliare NVIDIA si pigli NVIDIA, sono 2 architetture differenti una va meglio con un tipo di gioco (ATI - Half Life 2) e l'altra va meglio con un altro (NVIDIA - DOOM 3) ma questo non vuole dire che se mi piglio una X800 devo giocare a doom 3 a 800X600!!! Io gioco a Doom 3 con la mia X800 e non mi lamento per niente, anzi, ne sono più che entusiasta...