View Full Version : Ati X800 + veloce del 40% in HL2!
Secondo questa (http://www.tomshw.it/news.php?newsid=1418) news,
le nuove schede ati X800 saranno più veloci del 40% rispetto alle 6800 di nvidia nel nuovo gioco Half Life 2, che Gabel Newell ha confermato per il periodo estivo (basta crederci :D)
Ciuaz Pindol
Stephan86
06-05-2004, 21:37
magari è pure in-bundle con la skeda vero? :D :sofico:
shambler1
06-05-2004, 21:38
Che cos'è hl? ma esiste sto gioco?:oink:
BonOVoxX81
06-05-2004, 21:41
:blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :rolleyes: :muro:
DevilMalak
06-05-2004, 21:46
Originariamente inviato da BonOVoxX81
:blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :rolleyes: :muro:
non posso che quotare.... :rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:
secondo fonti ufficiali hl 5 esce domani in versione budget. Ormai ognuno può scrivere caxxate tanto una vale l'altra, tra quelle ufficiali o non ufficiali non ci si può fidare di niente :D
vingilot
06-05-2004, 21:49
io avevo sentito + dell'80% in HL3 (non lo sapevate che è in preparazione?)
TheRipper
06-05-2004, 21:53
Da possessore di Ati, non puo' che darmi fastidio che questo brand sia sempre piu' spesso affiancato al nome di HL2 o a quello di Gabe Newell...Non vorrei che pure l'azienda canadese possa iniziare a perdere credibilita'...:rolleyes:
Vorrei TANTO che Gabbe la smettesse di parlare di x800...:muro: :muro: :muro:
DevilMalak
06-05-2004, 21:53
Originariamente inviato da vingilot
io avevo sentito + dell'80% in HL3 (non lo sapevate che è in preparazione?)
ma dove vivi ? nei negozi vicino a casa mia vendono in versione economica best seller hl4...:O
già già tutte balle. Torno a giocare a doom 4
Originariamente inviato da BonOVoxX81
:blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :rolleyes: :muro:
TheRipper
06-05-2004, 23:08
Lo so che stiamo off-topic...pero' se volete potete dare un'occhiata a questa bella recensione della raddy x800 xt e pro in comparazione con la 6800ultra.
http://www.hardocp.com/article.html?art=NjEx
Originariamente inviato da BonOVoxX81
:blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :blah: :rolleyes: :muro:
:rolleyes: :rolleyes: :rolleyes:
Originariamente inviato da pindol
Secondo questa (http://www.tomshw.it/news.php?newsid=1418) news,
le nuove schede ati X800 saranno più veloci del 40% rispetto alle 6800 di nvidia nel nuovo gioco Half Life 2, che Gabel Newell ha confermato per il periodo estivo (basta crederci :D)
Ciuaz Pindol
:rotfl: :rotfl: :rotfl:
powerslave
07-05-2004, 01:12
Originariamente inviato da pindol
Secondo questa (http://www.tomshw.it/news.php?newsid=1418) news,
le nuove schede ati X800 saranno più veloci del 40% rispetto alle 6800 di nvidia nel nuovo gioco Half Life 2, che Gabel Newell ha confermato per il periodo estivo (basta crederci :D)
Ciuaz Pindol
di questo passo quando uscirà hl2 la x800 sarà preistoria...:rolleyes:
Thunder82
07-05-2004, 01:17
Beta di HL2
http://www.xbitlabs.com/images/video/r420-2/dx1sf_1024_pure.gif
http://www.xbitlabs.com/images/video/r420-2/dx1sf_1280_pure.gif
http://www.xbitlabs.com/images/video/r420-2/dx1sf_1600_pure.gif
http://www.xbitlabs.com/images/video/r420-2/dx1ud_1024_pure.gif
http://www.xbitlabs.com/images/video/r420-2/dx1ud_1280_pure.gif
http://www.xbitlabs.com/images/video/r420-2/dx1ud_1600_pure.gif
Mi sa che Gabe ha detto l'ennesima cavoltata
TheDarkAngel
07-05-2004, 01:31
è stalker chellì...
Thunder82
07-05-2004, 01:32
Originariamente inviato da TheDarkAngel
è stalker chellì...
nono quello è hl2, stalker è alla pagina successiva della rece ;)
Però hai visto come rulla bene la 5950 ultra? Mi sa che la mia 9600xt la batte (non ho dubbi) :asd:
TheDarkAngel
07-05-2004, 01:34
Originariamente inviato da Thunder82
nono quello è hl2, stalker è alla pagina successiva della rece ;)
Però hai visto come rulla bene la 5950 ultra? Mi sa che la mia 9600xt la batte (non ho dubbi) :asd:
hai ragione anche te..
si vede che per half life va in modalità fp8 :asd:
wolverine
07-05-2004, 02:15
Ma che facciano prima uscire sto benedetto HL2... poi vedremo dove rulla meglio... :rolleyes: :muro: e cmq il tentativo di vendere una vga promettendo prestazioni superiori in HL2 mi sembra una vera cazzata... :rolleyes:
TheRipper
07-05-2004, 03:21
Rega'. ma apparte la strunzata di Gabbe...ma avete visto la rece con comparazione che ho postato?...
La x800XT fa abbastanza paura...
Thunder82
07-05-2004, 03:24
Originariamente inviato da TheRipper
Rega'. ma apparte la strunzata di Gabbe...ma avete visto la rece con comparazione che ho postato?...
La x800XT fa abbastanza paura...
Sì, direi che questo fa abbastanza paura ;)
http://www.hardocp.com/images/articles/1083564189888Adk70te_4_2.gif
A 1600x1200 fa gli stessi fps della 6800 a 1024x768 ;)
Inoltre la qualità...
http://www.hardocp.com/images/articles/1083564189888Adk70te_4_4_l.jpg
:Puke:
TheRipper
07-05-2004, 03:26
Anche la pro pero' non se la cava malaccio...gli da delle belle batostine:D
Thunder82
07-05-2004, 03:28
Originariamente inviato da TheRipper
Anche la pro pero' non se la cava malaccio...gli da delle belle batostine:D
Infatti se ti "accontenti" della 1280x1024 la pro è una signora scheda, va come la XT in 1600x1200 ;)
TheRipper
07-05-2004, 03:32
Infatti se ti "accontenti" della 1280x1024 la pro è una signora scheda, va come la XT in 1600x1200
Na, io gioco sempre in 1024...mi accontenteri di "un po'" di fluidita' in piu';)
No cmq apparte gli scherzi, la XT e' da comprare quando si abbassera'...me la prenoto gia' da ora va:D
Thunder82
07-05-2004, 03:36
Questo è impressionante... nota gli fps MINIMI
http://www.hardocp.com/images/articles/1083564189888Adk70te_8_2.gif
Thunder82
07-05-2004, 03:42
E direi che questa tabellina dice tutto (NB: in need for speed underground la risoluzione max impostabile è 1280x1024): con la XT puoi SEMPRE giocare a 1600x1200 con filtri a manetta :eek:
http://www.hardocp.com/images/articles/1083564189888Adk70te_10_1.gif
TheRipper
07-05-2004, 03:47
Menghia che scheda ha tirato fuori la Ati...:eek: :eek: :eek:
Certo se ci avessero fatto girare la demo dell'Unreal engine 3 sarebbe andato lissssssssssio come l'olio:asd:
powerslave
07-05-2004, 09:43
Originariamente inviato da Thunder82
Questo è impressionante... nota gli fps MINIMI
http://www.hardocp.com/images/articles/1083564189888Adk70te_8_2.gif
ragazzi sono io che sono ciecato o la 6800 qui le sta prendendo anche dalla 9800xt?:eek:
ma dai, sarà questione di drivers..non voglio credere ke la 6800 fa meno della 9800xt.
powerslave
07-05-2004, 10:14
Originariamente inviato da royal
ma dai, sarà questione di drivers..non voglio credere ke la 6800 fa meno della 9800xt.
concordo,sarebbe la fine di Nvidia che, nonostante tutto, è l'unica concorrente di ATI e senza concorrenza a soffrirne saremmo noi utenti...
considerando poi che già a livello di qualità dell'immagine la 6800 non è stata tutto sto gran passo avanti,anzi...(guardare le foto sopra per conferma)
falcon.eddie
07-05-2004, 10:47
:old: :old:
http://forum.hwupgrade.it/showthread.php?s=&threadid=673785&perpage=20&pagenumber=18
C'era bisogno di un altro thread per questo idiota patentato? :rolleyes:
Originariamente inviato da wolverine
cmq il tentativo di vendere una vga promettendo prestazioni superiori in HL2 mi sembra una vera cazzata... :rolleyes:
Evidentemente hanno preso il vizio dopo che hanno visto l' effetto traino di Doom III sulle schede Nvidia ... "Doom III girerà benissimo sulla GF3" by Carmack
Originariamente inviato da Thunder82
Inoltre la qualità...
http://www.hardocp.com/images/articles/1083564189888Adk70te_4_4_l.jpg
:Puke:
Attenzione lo screen delle 6800 è preso a 16 bit, mentre quello delle ati a 24bit (funzionano solo a 24 bit)
Se postate uno screen delle 6800 a 32 bit la qualità è uguale se non leggermente superiore alle ati che usano una profondità di colore di 24bit.
Ciuaz Pindol
davestas
07-05-2004, 13:05
Originariamente inviato da TheRipper
Na, io gioco sempre in 1024...mi accontenteri di "un po'" di fluidita' in piu';)
No cmq apparte gli scherzi, la XT e' da comprare quando si abbassera'...me la prenoto gia' da ora va:D
Temo purtroppo ad inizio 2005.....
:cry: : :cry: :cry: :cry:
Originariamente inviato da pindol
Se postate uno screen delle 6800 a 32 bit la qualità è uguale se non leggermente superiore alle ati che usano una profondità di colore di 24bit.
Tra 24bit e 32 la qualità è perfettamente identica poichè non distinguibile all'occhio umano.
L'unica differenza è che a 32 bit le prestazioni sono sensibilimente inferiori.
Quindi Nvidia ti dice: o vai a 16 bit con prestazioni buone e qualità orribile, o vai a 32 bit con prestazioni ancora più scarse di quelle che già vedi nei test ma una ottima qualità.
Ati invece ti vincola ai 24 bit, eccellenti, con la velocità che vediamo.
wolverine
07-05-2004, 13:32
Originariamente inviato da Cfranco
Evidentemente hanno preso il vizio dopo che hanno visto l' effetto traino di Doom III sulle schede Nvidia ... "Doom III girerà benissimo sulla GF3" by Carmack
Infatti ho pensato lo stesso io... meno male che ci sono bench su Far Cry e altri giochi in commercio... ;)
TheRipper
07-05-2004, 13:32
Se postate uno screen delle 6800 a 32 bit la qualità è uguale se non leggermente superiore alle ati che usano una profondità di colore di 24bit.
Se gia' la 6800 ULTRA viene schiacciata dalla concorrente ATI utilizzando i 16bit non oso pensare cosa succederebbe se utilizzasse i 32...:asd: :asd: :asd:
Mammia mia nVidia come ne sta uscendo male...
Premessa: ATI ha tirato fuori una scheda grafica portentosa, è innegabile.
Ora, però, passiamo ai fatti:
tutto vero, con Nvidia o vai a FP16 o a FP32.
Quello che non è del tutto vero, è che con gli FP16 hai una qualità nettamente inferiore agli FP24 di ATI.
Tutti portano come esempio gli screen incriminati di Far Cry.
Mi raccomando, stiamo parlando di qualità visiva, non di velocità, quindi non uscitevene con frasi"sì, ma ATI è più veloce", che lo sappiamo già.
Ora, sul forum di NVitalia, si sta discutendo da parecchi giorni sul thread della X800, circa questo degrado qualitativo degli FP16 con Far Cry. Bene, Fek, che per chi non lo conoscesse -ha fatto parecchie comparse pure su questo forum- è un ragazzo italiano che lavora per i Lionhead studios di Moulinex e sta scrivendo codice con pixel shader a volontà per il futuro Black and White 2, ha, diciamo, chiarito molti dubbi a noi comuni mortali.
Uno di questi misteri svelati è che con Far Cry, per suo dire, i programmatori hanno cannato di brutto il codice che utilizza gli FP16, questo il motivo del terribile decadimento di qualità visiva.
Per farla breve, si avrebbe lo stesso decadimento visivo pure se fosse una Radeon a farlo girare in FP16.
Quindi Nvidia non ne ha colpa, questa volta.
Inoltre, per sua stessa ammissione, sostiene che con shader con un numero di istruzioni intorno alle 40, lui non nota alcuna differenza visiva tra FP16 ed FP24...e se lo dice lui che gli shader li scrive di mestiere.
Questo almeno è quello che ho capito io:)
Quindi, viva ATI, ma non sputtaniamo Nvidia per colpe che non ha, semmai ha colpe di ben altro tipo.
Ciao!
andreamarra
07-05-2004, 16:33
Originariamente inviato da Custode
Premessa: ATI ha tirato fuori una scheda grafica portentosa, è innegabile.
Ora, però, passiamo ai fatti:
tutto vero, con Nvidia o vai a FP16 o a FP32.
Quello che non è del tutto vero, è che con gli FP16 hai una qualità nettamente inferiore agli FP24 di ATI.
Tutti portano come esempio gli screen incriminati di Far Cry.
Mi raccomando, stiamo parlando di qualità visiva, non di velocità, quindi non uscitevene con frasi"sì, ma ATI è più veloce", che lo sappiamo già.
Ora, sul forum di NVitalia, si sta discutendo da parecchi giorni sul thread della X800, circa questo degrado qualitativo degli FP16 con Far Cry. Bene, Fek, che per chi non lo conoscesse -ha fatto parecchie comparse pure su questo forum- è un ragazzo italiano che lavora per i Lionhead studios di Moulinex e sta scrivendo codice con pixel shader a volontà per il futuro Black and White 2, ha, diciamo, chiarito molti dubbi a noi comuni mortali.
Uno di questi misteri svelati è che con Far Cry, per suo dire, i programmatori hanno cannato di brutto il codice che utilizza gli FP16, questo il motivo del terribile decadimento di qualità visiva.
Per farla breve, si avrebbe lo stesso decadimento visivo pure se fosse una Radeon a farlo girare in FP16.
Quindi Nvidia non ne ha colpa, questa volta.
Inoltre, per sua stessa ammissione, sostiene che con shader con un numero di istruzioni intorno alle 40, lui non nota alcuna differenza visiva tra FP16 ed FP24...e se lo dice lui che gli shader li scrive di mestiere.
Questo almeno è quello che ho capito io:)
Quindi, viva ATI, ma non sputtaniamo Nvidia per colpe che non ha, semmai ha colpe di ben altro tipo.
Ciao!
Verissimo quanto hai riportato. Purtroppo entrambe le schede hanno difetti e pregi, e la cosa assurda è che certi difetti potrebbero diventare dei vantaggi notevoli, e viceversa :eek:
L'unica cosa certa fino ad ora è che la R420 ha una capacità di calcolo che in linea di massimo è decisamente (eufemismo) superiore alla Nv40 per quanto riguarda le prestazioni con filtri al massimo e ruisoluzioni impossibili. Molti dicono che non giocano a 16600*1200 AA e Aniso al massimo... vero. Percò c'è da considerare che se un gioco a 1600*1200 con i filtri al massimo va da dio con la R420 e meno con la Nv40, con i giochi ancora più pesanti potrebbe esserci un divario ancora maggiore anche a risoluzioni minori e filtri a metà.
andreamarra
07-05-2004, 16:34
Originariamente inviato da TheRipper
Se gia' la 6800 ULTRA viene schiacciata dalla concorrente ATI utilizzando i 16bit non oso pensare cosa succederebbe se utilizzasse i 32...:asd: :asd: :asd:
Mammia mia nVidia come ne sta uscendo male...
Ripper, non è detto perchè le due schede hanno vantaggi e svantaggi che possono essere gravissimi o no. Quindi bisogna vedere come si comportano le due schede tutto a palla con giochi FULL DX9. Per ora far cry da una indicazione abb. notevole, se dovesse essere cnfermato anche con gli altri sarebbero guai.
andreamarra
07-05-2004, 17:02
Certo è che se questi bench sono veritieri c'è da dire che le due schede hanno uguali performance in fps min e fps max con differenze di AA&Aniso e risoluzione a dir poco imbarazzante a favore di R420...
http://www.hardocp.com/article.html?art=NjExLDEw
ma è sicura sta cosa :eek: ?
E se fossero veri questi dati non credo ci siano driver che tengano... a quanto ho letto la decadenza prestazionale dell'R420 con i filtri e con le risoluzioni altissime pressochè nulla rispetto a NV40 è dovuto al fatto che la ati ha fatto una revisitazione delle tecniche di smoothvision ecc. ecc....
TheRipper
07-05-2004, 17:32
E se fossero veri questi dati non credo ci siano driver che tengano... a quanto ho letto la decadenza prestazionale dell'R420 con i filtri e con le risoluzioni altissime pressochè nulla rispetto a NV40 è dovuto al fatto che la ati ha fatto una revisitazione delle tecniche di smoothvision ecc. ecc....
Apparte tutto...le due schede si equivalgono a risoluzioni basse e senza filtri semplicemente perche' LA CPU FA DA TAPPO...
cosa che a risoluzioni alte e con abbondanza di filtri non succede perche' entra in gioco il fill-rate della scheda che a risoluzioni elevate ha piu' peso della cpu nella costruzione della scena...
ECCO perche' r420 a risoluzioni elevate e' una scheggia...ha una potenza mostruosa.
andreamarra
07-05-2004, 17:40
Originariamente inviato da TheRipper
Apparte tutto...le due schede si equivalgono a risoluzioni basse e senza filtri semplicemente perche' LA CPU FA DA TAPPO...
cosa che a risoluzioni alte e con abbondanza di filtri non succede perche' entra in gioco il fill-rate della scheda che a risoluzioni elevate ha piu' peso della cpu nella costruzione della scena...
ECCO perche' r420 a risoluzioni elevate e' una scheggia...ha una potenza mostruosa.
Io stesso prima di leggere l'ottima rece di corsini &vifani avevo detto tra me e me che la R420 satura eccessivamente la CPU a differenza degli altri chip creati fino ad oggi.
Ecco perchè non mi stupirei del fatto che con computer con processori di ultima generazione e magari clockati :sbav: il divario potrebbe essere ancora più evidente. tra l'altro il fatto che attualmente sia il doppio della 9800Xt mi meraviglia. Ma non mi meraviglierei se provato con un sostema mostruoso i divari non diventino anche di un rapporto 3 a 1 :eek:
E cmq non è solo potenza come molti credono, perchè la scheda le innovazioni tecniche ce l'ha. Praticamente è un ponte tra gli shader 2.0 e 3.0 (usando i ps2.0b) meno invasivo rispetto alla NV40. Fra qualche mese si comincerà a delineare chi avrà avuto ragione a voler subito lanciarsi verso i 3.0 o chi ci sta arrivando con gradualità.
TheRipper
07-05-2004, 17:46
Io stesso prima di leggere l'ottima rece di corsini &vifani avevo detto tra me e me che la R420 satura eccessivamente la CPU a differenza degli altri chip creati fino ad oggi.
Ma non e' che SATURA la cpu a differenza dei chip costruiti fino ad oggi...dipende dal gioco su cui la provi! Far Cry negli esterni e' molto CPU dipendente e lo dimostrano i bench fatti con la 9800Pro a risoluzioni basse come 640, 800, 1024 e persino 1280, nei quali il framerate oscilla di pochissimo, ma si mantiene sempre stabili senza peggioramenti apprezzabili.
Lo stesso avviene con la x800xt, ma in misura MOLTO maggiore visto la grande potenza in piu' di cui e' dotata. Sicuramente negli interni dove la gpu conta di piu' (per via degli effetti/luci dinamiche/ombre dinamiche e relativamente pochi poligoni) la differenza si vede anche a risoluzioni basse.
Bisogna solo sperare che escano motori molto gpu intensive...cosi' la differenza fra le due schede potra' essere netto anche a risoluzioni basse (mi viene in mente Doom3;) ).
Thunder82
07-05-2004, 18:17
Originariamente inviato da andreamarra
Ripper, non è detto perchè le due schede hanno vantaggi e svantaggi che possono essere gravissimi o no. Quindi bisogna vedere come si comportano le due schede tutto a palla con giochi FULL DX9. Per ora far cry da una indicazione abb. notevole, se dovesse essere cnfermato anche con gli altri sarebbero guai.
A parte che nel momento stesso in cui la GeForce utilizza shader in fp16 NON sta facendo vedere grafica in dx9, in quanto la precisione MINIMA per le dx9 è stata stabilita come 24bit...
ray_hunter
07-05-2004, 18:38
Però ragazzi nessuno sta dicendo che NV40 nei giochi più CPU limited va più veloce di R420 e che in generale a 1024X768 senza filtri è forse qualcosina più veloce. Sia sulla rece di questo sito che quella di Tom hanno detto che in tali condizioni l'NV40 è un filino meglio.
C'è da dire inoltre che mentre si può tranquillamente affermare che X800 XT sia più veloce della 6800 ultra, qunado vado a confrontare le schede intorno i 350-400€ troviamo la X800 PRO e la 6800 GT, che saranno le schede sulle quali, IMHO si indirezzaranno la maggior parte dei giocatori, compresi gli utenti di questo forum. Tra le due mi sembra che il vincitore sia la 6800 GT grazie alle 16 pipelines. IMHO l'ati doveva far uscire anche la PRO con 16 pipes e magari con frequenze un po' più basse, allora si che avrebbe vinto su tutta la linea.
Ora come ora sulla fascia di prezzo in cui mi orineto io solitamente la 6800 GT mi sembra la scelta migliore
TheRipper
07-05-2004, 18:46
C'è da dire inoltre che mentre si può tranquillamente affermare che X800 XT sia più veloce della 6800 ultra, qunado vado a confrontare le schede intorno i 350-400€ troviamo la X800 PRO e la 6800 GT, che saranno le schede sulle quali, IMHO si indirezzaranno la maggior parte dei giocatori, compresi gli utenti di questo forum. Tra le due mi sembra che il vincitore sia la 6800 GT grazie alle 16 pipelines.
Guarda..dai bench del sito che ho postato, persino la x800pro in alcuni bench da la paga alla 6800ultra, percio' non vedo come sia possibile che le possa prendere dalla 6800 liscia...
andreamarra
07-05-2004, 19:14
Originariamente inviato da ray_hunter
Però ragazzi nessuno sta dicendo che NV40 nei giochi più CPU limited va più veloce di R420 e che in generale a 1024X768 senza filtri è forse qualcosina più veloce. Sia sulla rece di questo sito che quella di Tom hanno detto che in tali condizioni l'NV40 è un filino meglio.
Io queste cose le ho sempre dette. Il problema è il seguente: è vero che spesso a risoluzioni basse e senza filtri la Nv40 va di più (ma chi compra una scheda con quel costo senza mettere i filtri???), ed è vero anche che con certi sistemi (e non giochi) CPU limited la NV40 va meglio, di poco, alla R420, però...
...se molti puntano sulla longevità della scheda NV40 per il pieno supporto agli shader 3.0, le stesse persone devono obiettivamente pensare che in tutti i giochi anche dell'anno scorso (tranne quelli in OpenGL) con filtri al massimo e risoluzioni elevate va decisamente meno della R420... io ritengo che in futuro (quello che viene giustamente sbandierato) con cpu più potenti e con giochi più esigenti, e con filtri e risoluzioni anche solo a metà la R420 a mio giudizio può prendere ancora maggiori vantaggi sulla NV40.
In più c'è da chiarire il fattore fp32(lento)/16(blending) che devono essere considerata in ottica futuristica.
Premetto che io non sono un fan boy ati ;)
ma di matrox lo ero davvero :sbav: ... millennium, quanti ricordi :oink:
ray_hunter
07-05-2004, 20:24
Originariamente inviato da TheRipper
Guarda..dai bench del sito che ho postato, persino la x800pro in alcuni bench da la paga alla 6800ultra, percio' non vedo come sia possibile che le possa prendere dalla 6800 liscia...
Datti una riletta ai bench du questo sito e vedrai che in alcuni casi e la 6800 GT a suonarle alla X800 XT
Bò, senza voler entrare nel merito, secondo me questa volta non ha molto senso lamentarsi (prezzi a parte ovvio, gli venisse qualcosa a chi decide di vendere le X800Pro a 500 e passa Euro!!!) o fare guerre di prestazioni.
Per la prima volta dopo parecchi anni, ci ritroviamo con delle schede che letteralmente doppiano la generazione precedente, oh, non era successo nemmeno con la 9700Pro sulla 4600, era sì molto più volece, ma non la doppiava.
Questo per dire che anche prendere la scheda meno veloce, significa comunque portarsi a casa un gran pezzo di hardware, e per me è un vero e proprio evento.
Volendo poi ritornare al più trito discorso prestazionale, a me sembra che in quasi tutti i test, la situazione veda le Radeon dominare in DX9, mentre Nvidia in Open-GL.
E comunque, ho letto alcune recensioni in cui si giustificava la minor prestanza delle ATI in Open-GL sostennedo che comunque sia, anche se indietro, non è che sono lente, anzi!
Bene, trovo che lo stesso discorso possa applicarsi anche ad Nvidia: starà dietro ad ATI in DX9, ma adesso sembra quasi voler far credere che Far Cry o H-L2 scatteranno...mi pare un assurdo, ma magari ce l'avessi una 6800:)
Ciao!
andreamarra
07-05-2004, 20:46
Originariamente inviato da Custode
Bò, senza voler entrare nel merito, secondo me questa volta non ha molto senso lamentarsi (prezzi a parte ovvio, gli venisse qualcosa a chi decide di vendere le X800Pro a 500 e passa Euro!!!) o fare guerre di prestazioni.
Per la prima volta dopo parecchi anni, ci ritroviamo con delle schede che letteralmente doppiano la generazione precedente, oh, non era successo nemmeno con la 9700Pro sulla 4600, era sì molto più volece, ma non la doppiava.
Questo per dire che anche prendere la scheda meno veloce, significa comunque portarsi a casa un gran pezzo di hardware, e per me è un vero e proprio evento.
Volendo poi ritornare al più trito discorso prestazionale, a me sembra che in quasi tutti i test, la situazione veda le Radeon dominare in DX9, mentre Nvidia in Open-GL.
E comunque, ho letto alcune recensioni in cui si giustificava la minor prestanza delle ATI in Open-GL sostennedo che comunque sia, anche se indietro, non è che sono lente, anzi!
Bene, trovo che lo stesso discorso possa applicarsi anche ad Nvidia: starà dietro ad ATI in DX9, ma adesso sembra quasi voler far credere che Far Cry o H-L2 scatteranno...mi pare un assurdo, ma magari ce l'avessi una 6800:)
Ciao!
Ti dò ragione su tutto, però considera che i piccoli divari fisiologici in OpenGL vengono riempiti un pò all'aumento di risoluzione e filtraggi vari. In D3D la situazione attualmente è davvero imbarazzante a favore di R420, test alla mano.
ma magari ce l'avessi io una 6800Ultra io :oink: !
Thunder82
07-05-2004, 20:48
Originariamente inviato da Custode
Bò, senza voler entrare nel merito, secondo me questa volta non ha molto senso lamentarsi (prezzi a parte ovvio, gli venisse qualcosa a chi decide di vendere le X800Pro a 500 e passa Euro!!!) o fare guerre di prestazioni.
Per la prima volta dopo parecchi anni, ci ritroviamo con delle schede che letteralmente doppiano la generazione precedente, oh, non era successo nemmeno con la 9700Pro sulla 4600, era sì molto più volece, ma non la doppiava.
Questo per dire che anche prendere la scheda meno veloce, significa comunque portarsi a casa un gran pezzo di hardware, e per me è un vero e proprio evento.
Volendo poi ritornare al più trito discorso prestazionale, a me sembra che in quasi tutti i test, la situazione veda le Radeon dominare in DX9, mentre Nvidia in Open-GL.
E comunque, ho letto alcune recensioni in cui si giustificava la minor prestanza delle ATI in Open-GL sostennedo che comunque sia, anche se indietro, non è che sono lente, anzi!
Bene, trovo che lo stesso discorso possa applicarsi anche ad Nvidia: starà dietro ad ATI in DX9, ma adesso sembra quasi voler far credere che Far Cry o H-L2 scatteranno...mi pare un assurdo, ma magari ce l'avessi una 6800:)
Ciao!
Anche la 9700 doppiava alla grande la GF4 :)
http://www.hwupgrade.it/articoli/661/ut_2003_anis_fsaa.gif
Qua addirittura con AA4x e AF4x quasi la triplica
TheRipper
07-05-2004, 20:51
Mh se io avessi una 6800Ultra...
La rivenderei!:D E mi comprerei una bella x800XT;)
Cmq il fatto che queste nuove Radeon a 1600x1200 coi filtri attivati danno il meglio di se, vuol dire che sono in qualche modo "strozzate" alle risoluzioni inferiori...
Questa potenza uscira' fuori solo con le prossime generazioni di giochi quando verra' sfruttata appieno la Gpu per effettini, illuminazione e shaders vari...Allora si che ci sara' da divertirsi;).
Ok, chiedo venia per la 9700Pro:)
Thunder82
07-05-2004, 21:03
Originariamente inviato da Custode
Ok, chiedo venia per la 9700Pro:)
E tieni conto che quei driver erano ancora molto acerbi, le sue prestazioni sono aumentate anche di qualche decina di punti percentuali con i driver attuali ;) :)
Imho l'architettura della 9700 è la migliore mai creata in una scheda video (rivive ancora oggi nella X800, dato che in parole povere X800 è come un doppio R300) :)
powerslave
07-05-2004, 21:10
Originariamente inviato da Thunder82
... l'architettura della 9700 è la migliore mai creata in una scheda video ...
non posso che quotare.:mano:
La 9700 è stata ,assieme alla prima geForce, la scheda video più rivoluzionaria di tutti i tempi;) .
TheRipper
07-05-2004, 21:10
Imho l'architettura della 9700 è la migliore mai creata in una scheda video
Quoto...la 9800Pro@XT che ho nel case da poco credo che sia la migliore scheda video che abbia mai avuto fin'ora...Grandissima potenza e ottime prestazioni con i filtri con decadimenti irrilevanti per quanto riguarda gli fps. Veramente un capolavoro.
Anche la vecchia ti4200 era una grande scheda, ma aveva dei seri problemi in presenza di effetti particellari e, soprattutto, veniva sfiancata da qualsiasi tipo di filtro, sia AA che AF.
Originariamente inviato da andreamarra
il fattore fp32(lento)/16(blending)
Volevi scrivere banding suppongo. ;)
Lord_Dark
08-05-2004, 01:04
Originariamente inviato da Thunder82
Anche la 9700 doppiava alla grande la GF4 :)
http://www.hwupgrade.it/articoli/661/ut_2003_anis_fsaa.gif
Qua addirittura con AA4x e AF4x quasi la triplica
sara ma io con la 4200 sto sui 80fps in quella mappa...
Thunder82
08-05-2004, 01:05
Originariamente inviato da Lord_Dark
sara ma io con la 4200 sto sui 80fps in quella mappa...
Senza filtri forse.
Metti AA4x e AF4x quality e ne riparliamo ;)
andreamarra
08-05-2004, 11:50
Originariamente inviato da MaBru
Volevi scrivere banding suppongo. ;)
:D
esatto... :flower:
:)
Se tutte le ciance che girano per la rete fossero vere... da utente ATI sarei contento più a lungo che a breve termine.
OK, vedre HL2 girare alla grande non mi farebbe schifo, ma penso soprattutto a Bloodlines e a tutti i giochi futuri che useranno il Source...
Per me questo motore farà le veci del Q3 engine...
andreamarra
08-05-2004, 13:48
Originariamente inviato da Xilema
Se tutte le ciance che girano per la rete fossero vere... da utente ATI sarei contento più a lungo che a breve termine.
OK, vedre HL2 girare alla grande non mi farebbe schifo, ma penso soprattutto a Bloodlines e a tutti i giochi futuri che useranno il Source...
Per me questo motore farà le veci del Q3 engine...
Neanche a me dispiacerebbe se girasse alla grande con ati :oink:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.