PDA

View Full Version : ATI Radeon X800 [Thread ufficiale]


Pagine : 1 [2] 3 4 5 6 7 8

prova
04-05-2004, 16:04
Originariamente inviato da R@nda
Sisi...e se con la generazione passata i post "E adesso che scelgo tra questa e questa?" spuntavano come funghi con questa sarà un massacro vedrete:D

Speriamo che i mod lockino senza ritegno scemate simili.
C'è una sezione apposta per questo pattume :asd:

Thunder82
04-05-2004, 16:05
Avg. continuous power draw while looping 3DMark03: X800 Pro - 49W, X800 XT - 65W
Avg. continuous power draw while looping 3DMark01: X800 Pro - 58W, X800 XT - 76W



;)

Paoletta Corsini
04-05-2004, 16:06
Originariamente inviato da andreamarra
Invece è facile, basta uscire un paio di volte in più la sera per locali e farò già fatica a mangiare... :asd: :sofico:

Spamma t'invito io per una pizza (solo per quella :asd: ), intanto una foto che mostra la nuova e la vecchia generazione, sono praticamente uguali, cambia solo che i chip delle ram non son raffreddati e il design del cooler è di qualche millimetro più piccolo. Ottimo.

http://www.hothardware.com/articleimages/item517/big_lineup.jpg

andreamarra
04-05-2004, 16:07
Originariamente inviato da prova
Speriamo che i mod lockino senza ritegno scemate simili.
C'è una sezione apposta per questo pattume :asd:

E io siccome sono crudele e flammatore :O :asd: ne approfitto per riportare una info da un utente su nvitalia:


"I 61.11 però non sono ancora nella lista dei driver approvati da Futuremark..."


mentre è notizia che i 4.5 siano rientrati nella lista futuremark

Thunder82
04-05-2004, 16:08
http://www.driverheaven.net/reviews/X800XTdhreview/ATIHTMLPAGES/mapping.jpg

Virtual Displacement Mapping

Also known as “parallax mapping”, this effect is actually an enhanced version of normal mapping. It can produce a stunningly real three-dimensional appearance on flat surfaces, without the intensive tessellation computations and extreme polygon counts required for true displacement mapping. In addition to a base texture, it requires a corresponding normal map and height map to work. With SMARTSHADER HD, performance of this technique is similar to that of standard normal mapping.

For an even more realistic effect, Virtual Displacement Mapping can be combined with horizon mapping to capture self-shadowing effects. It also works nicely with 3Dc, which can compress the normal maps and allow more detailed ones to be used.

prova
04-05-2004, 16:10
Thunder, è abbastanza old! :asd:

Thunder82
04-05-2004, 16:12
Originariamente inviato da prova
Thunder, è abbastanza old! :asd:

L'ho trovato sulla rece di Driverheaven :p

Paoletta Corsini
04-05-2004, 16:12
Originariamente inviato da Thunder82
Avg. continuous power draw while looping 3DMark03: X800 Pro - 49W, X800 XT - 65W
Avg. continuous power draw while looping 3DMark01: X800 Pro - 58W, X800 XT - 76W
;)
Mi sembra assurdo, dove l'hai letto? :eek:

Prometeo_AF
04-05-2004, 16:14
Originariamente inviato da Thunder82
http://www.driverheaven.net/reviews/X800XTdhreview/ATIHTMLPAGES/mapping.jpg

Virtual Displacement Mapping

Also known as “parallax mapping”, this effect is actually an enhanced version of normal mapping. It can produce a stunningly real three-dimensional appearance on flat surfaces, without the intensive tessellation computations and extreme polygon counts required for true displacement mapping. In addition to a base texture, it requires a corresponding normal map and height map to work. With SMARTSHADER HD, performance of this technique is similar to that of standard normal mapping.

For an even more realistic effect, Virtual Displacement Mapping can be combined with horizon mapping to capture self-shadowing effects. It also works nicely with 3Dc, which can compress the normal maps and allow more detailed ones to be used.


Ma il displacement mapping è supportato dall r420? O rientra nelle features mancanti?

andreamarra
04-05-2004, 16:14
Cmq non vorrei sembrare malevolo, però quando si riportano i test per far vedere le differenze a me non interessano affatto quelli a 800*600 senza filtri e con giochi vecchi di due anni o poco recenti...

Insomma, un bel Far Cry a 1600*1200 tutto al max, filtri al massimo. possibilmente sarebbe interessante vedere se ci siano differenze ancora più marcate in caso di processore A64Fx, credo che queste schede satùrino un P4 bus800@3.6giga...

Thunder82
04-05-2004, 16:15
Originariamente inviato da Paoletta Corsini
Mi sembra assurdo, dove l'hai letto? :eek:

http://www.driverheaven.net/reviews/X800XTdhreview/index.htm

R@nda
04-05-2004, 16:15
Si però è impressive:eek:
Non vedo l'ora di vederle applicate nei giochi come si deve tutte queste belle cosucce.

Non dovrebbero richiedere tanto tempo come nella generazione precedente...ormai gli sviluppatori si sono già spostati sull'utilizzo
degli shader e di queste nuove tecniche grazie alle Dx8.1 e 9.0

Figata!

halduemilauno
04-05-2004, 16:16
Originariamente inviato da Paoletta Corsini
Spamma t'invito io per una pizza (solo per quella :asd: ), intanto una foto che mostra la nuova e la vecchia generazione, sono praticamente uguali, cambia solo che i chip delle ram non son raffreddati e il design del cooler è di qualche millimetro più piccolo. Ottimo.

http://www.hothardware.com/articleimages/item517/big_lineup.jpg


per par condicio.
http://www.gamers-depot.com/hardware/video_cards/nvidia/nv40/1.jpg
ciao Paoletta.
;)

andreamarra
04-05-2004, 16:17
ma si, sfruttiamo la par condicio fin quando sarà ancora in vita... :asd:

Thunder82
04-05-2004, 16:18
Cmq il virtual displacement mapping ("parallax" mapping) sembra proprio ricreare gli effetti di Unreal 3.0

E se è vero che richiede molti meno poligoni e meno calcoli rispetto al "vero" displacement mapping (inoltre si può usare il 3DC per comprimere le Normal Maps, cosa non da poco) può essere veramente un grosso punto di forza

prova
04-05-2004, 16:18
Originariamente inviato da Prometeo_AF
Ma il displacement mapping è supportato dall r420? O rientra nelle features mancanti?

Il displacement mapping può applicartelo anche una "semplice" 9700Pro, quindi vai tranquillo ;)

Maury
04-05-2004, 16:18
Originariamente inviato da andreamarra
ma si, sfruttiamo la par condicio fin quando sarà ancora in vita... :asd:

Geppetto R.I.P :(

halduemilauno
04-05-2004, 16:22
altra rece.
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/default.asp
;)

Thunder82
04-05-2004, 16:23
A sinistra: senza compressione 3DC delle normal maps

A destra: con compressione 3DC delle normal maps

http://www.beyond3d.com/reviews/ati/r420_x800/images/ss2_3dc2.jpg

:eek:

Paoletta Corsini
04-05-2004, 16:23
Originariamente inviato da Thunder82
http://www.driverheaven.net/reviews/X800XTdhreview/index.htm
Thunder io non mi spiego come potrebbe essere possibile. Il contrario potevo capirlo visto che il 2003 è più pesante e sfrutta a fondo tutta l'architettura. Hai qualche spiegazione valida? :confused:

Paoletta Corsini
04-05-2004, 16:26
Originariamente inviato da halduemilauno
per par condicio.

ciao Paoletta.
;)
E' bella anche quella. Ma come consumi non ci siamo. Ottimo invece a mio parere l'utilizzo del doppio dvi.

KenMasters
04-05-2004, 16:27
Avg. continuous power draw while looping 3DMark03: X800 Pro - 49W, X800 XT - 65W
Avg. continuous power draw while looping 3DMark01: X800 Pro - 58W, X800 XT - 76W



Ragazzi ho letto bene ? CONSUMA MENO DI UNA 9800 XT ? INCREDIBILE!

andreamarra
04-05-2004, 16:28
Originariamente inviato da KenMasters
Avg. continuous power draw while looping 3DMark03: X800 Pro - 49W, X800 XT - 65W
Avg. continuous power draw while looping 3DMark01: X800 Pro - 58W, X800 XT - 76W



Ragazzi ho letto bene ? CONSUMA MENO DI UNA 9800 XT ? INCREDIBILE!


Non è incredibile, è anzi normale. Tutto questo è merito dell'utilizzo del Low-K...

;)

andreamarra
04-05-2004, 16:31
Originariamente inviato da Paoletta Corsini
E' bella anche quella. Ma come consumi non ci siamo.


Ormai quando parlaimo di schede video sembra che stiamo sul forum di "Quattroruote" :asd: :asd:

"E' bella" "Non mi piace il muso" "consuma troppo"

:asd: ;)

Thunder82
04-05-2004, 16:31
X800XT in shadermark 2.0, con modalità anti-cheat attivata

In alcuni test si avvicina ai 1000 fps!

http://www.driverheaven.net/reviews/X800XTdhreview/shadermarkstock.jpg

Thunder82
04-05-2004, 16:34
In overclock:

http://www.driverheaven.net/reviews/X800XTdhreview/overclock.jpg

http://www.driverheaven.net/reviews/X800XTdhreview/shadermark%20overclocked.jpg

Paoletta Corsini
04-05-2004, 16:34
Originariamente inviato da KenMasters
Avg. continuous power draw while looping 3DMark03: X800 Pro - 49W, X800 XT - 65W
Avg. continuous power draw while looping 3DMark01: X800 Pro - 58W, X800 XT - 76W
Ragazzi ho letto bene ? CONSUMA MENO DI UNA 9800 XT ? INCREDIBILE!
Hai letto male, lì c'è scritto che a seconda dell'applicazione fatta girare, le schede consumino in maniera differente. Ed è una cosa che non mi so spiegare.
Originariamente inviato da andreamarra
Non è incredibile, è anzi normale. Tutto questo è merito dell'utilizzo del Low-K...

;)
Normale il piffero :D
Clock maggiore, il doppio delle pipeline, decine di milioni di transistor in più, e processo sempre 0.13u; è un capolavoro della scienza altro che normale ;)

Thunder82
04-05-2004, 16:37
Originariamente inviato da Paoletta Corsini
Hai letto male, lì c'è scritto che a seconda dell'applicazione fatta girare, le schede consumino in maniera differente. Ed è una cosa che non mi so spiegare.


E' normale invece, il carico sulla scheda non è sempre uguale, a volte si usano dei circuiti, a volte no :)


Normale il piffero :D
Clock maggiore, il doppio delle pipeline, decine di milioni di transistor in più, e processo sempre 0.13u; è un capolavoro della scienza altro che normale ;)

La 9800XT era a 0.15u senza low-k, questa è 0.13 con low-k :)

andreamarra
04-05-2004, 16:37
Originariamente inviato da Paoletta Corsini
Hai letto male, lì c'è scritto che a seconda dell'applicazione fatta girare, le schede consumino in maniera differente. Ed è una cosa che non mi so spiegare.

Normale il piffero :D
Clock maggiore, il doppio delle pipeline, decine di milioni di transistor in più, e processo sempre 0.13u; è un capolavoro della scienza altro che normale ;)

Normale per gli ingegneri ati, fanATIca che non sei altro :O

:asd:

KenMasters
04-05-2004, 16:37
Originariamente inviato da Paoletta Corsini
Hai letto male, lì c'è scritto che a seconda dell'applicazione fatta girare, le schede consumino in maniera differente. Ed è una cosa che non mi so spiegare.

Normale il piffero :D
Clock maggiore, il doppio delle pipeline, decine di milioni di transistor in più, e processo sempre 0.13u; è un capolavoro della scienza altro che normale ;)


le 9800xt sono prodotte con processo 0.15u, mentre le x800 a 0.13. sarà questo il motivo principale di consumi cosi ridotti.

Paoletta Corsini
04-05-2004, 16:40
Originariamente inviato da Thunder82
E' normale invece, il carico sulla scheda non è sempre uguale, a volte si usano dei circuiti, a volte no :)
Se quoti solo questa parte dai fai capire che il senso era un altro!
Prima ti avevo chiesto qualcosa, rileggi dai ;)

Ps: riguardo lo 0.15u avete ragione scusate :mc:

Milotto
04-05-2004, 16:40
Cosa scommettete che la recensione di Hwupgrade , a dispetto di tutte quelle che sono ora online , darà un visione delle due schede quasi paritaria...?
Magari si dirà che Nv 40 supporta gli S.M 3.0 ed ATi no , ma nel contempo per sollevare le sorti della prima ci si basera sui soliti ultravetusti motori OGL : alla faccia dei tanto decantati shaders !!
Cya

falcon.eddie
04-05-2004, 16:40
Originariamente inviato da Paoletta Corsini

Normale il piffero :D
Clock maggiore, il doppio delle pipeline, decine di milioni di transistor in più, e processo sempre 0.13u; è un capolavoro della scienza altro che normale ;)

E' normale,scusa la 6800Ultra con 222 mln di transistor dissipa meno della 9800xt! :D

Paoletta Corsini
04-05-2004, 16:41
Originariamente inviato da andreamarra
Normale per gli ingegneri ati, fanATIca che non sei altro :O

:asd:
Spamma ma ieri non hai più risposto al pvt, perchè? :cry:

TheDarkAngel
04-05-2004, 16:41
Originariamente inviato da falcon.eddie
E' normale,scusa la 6800Ultra con 222 mln di transistor dissipa meno della 9800xt! :D

ma dove :mbe:?

Paoletta Corsini
04-05-2004, 16:42
Originariamente inviato da falcon.eddie
E' normale,scusa la 6800Ultra con 222 mln di transistor dissipa meno della 9800xt! :D
Non ho capito Falcon, in che senso dissipa meno?

Thunder82
04-05-2004, 16:42
Originariamente inviato da Paoletta Corsini
Se quoti solo questa parte dai fai capire che il senso era un altro!
Prima ti avevo chiesto qualcosa, rileggi dai ;)



Sulla perchè il 3dmark2001 consumi di più non ho idea, probabilmente usa più parti del core della vga.

L\'Esecutore
04-05-2004, 16:42
Originariamente inviato da Paoletta Corsini
Non ho capito Falcon, in che senso dissipa meno?

credo fosse ironico...

falcon.eddie
04-05-2004, 16:43
Originariamente inviato da TheDarkAngel
ma dove :mbe:?

Non ho capito Falcon, in che senso dissipa meno?

http://www.tomshw.it/graphic.php?guide=20040504&page=ati-x800-09



:O Miscredenti! :D

Simon82
04-05-2004, 16:43
Originariamente inviato da Paoletta Corsini
Hai letto male, lì c'è scritto che a seconda dell'applicazione fatta girare, le schede consumino in maniera differente. Ed è una cosa che non mi so spiegare.

Normale il piffero :D
Clock maggiore, il doppio delle pipeline, decine di milioni di transistor in più, e processo sempre 0.13u; è un capolavoro della scienza altro che normale ;)
E un dissipatore piuà piccolo della 9800XT, nessun dissi sulle memorie,, single slot.. :sbav:

:ave:

TheDarkAngel
04-05-2004, 16:45
Originariamente inviato da falcon.eddie
http://www.tomshw.it/graphic.php?guide=20040504&page=ati-x800-09



:O Miscredenti! :D


la 6800ultra consuma 27W in + della 9800xt
se mi vai a considerare l'idle nn ti parlo + :P

falcon.eddie
04-05-2004, 16:45
Aggiungo dai grafici si vede come al boot e in 2d sia la x800 che la 6800U dissipano meno della 9800XT ma in 3d entrambe più della 9800. ;)

TheDarkAngel
04-05-2004, 16:46
Originariamente inviato da falcon.eddie
Aggiungo dai grafici si vede come al boot e in 2d sia la x800 che la 6800U dissipano meno della 9800XT ma in 3d entrambe più della 9800. ;)

aggiungo anche che la x800xt consuma 2w in della 9800xt e la geppina6800ultra senza considerare l'EXTREME 25w in più

kikbond
04-05-2004, 16:47
indi l'r420 sembra avere le stessa prestazioni dell'nv40....ma si qualkosa del prezzo??

TheDarkAngel
04-05-2004, 16:47
Originariamente inviato da kikbond
indi l'r420 sembra avere le stessa prestazioni dell'nv40....ma si qualkosa del prezzo??

r420 sembra avere prestazioni maggiori dell'nv40.....

L\'Esecutore
04-05-2004, 16:49
Originariamente inviato da TheDarkAngel
r420 sembra avere prestazioni maggiori dell'nv40.....

Mi hai preceduto di 1 secondo

andreamarra
04-05-2004, 16:50
Originariamente inviato da TheDarkAngel
r420 sembra avere prestazioni maggiori dell'nv40.....

r420 sembra avere prestazioni maggiori dell'nv40, aumentando poi filtri e risoluzione il divario diventa in certi casi mortificante... :eek:

kikbond
04-05-2004, 16:50
Originariamente inviato da TheDarkAngel
r420 sembra avere prestazioni maggiori dell'nv40.....


boh...sto guardando un po' i bench...a me sembrano bene o male allineate...almeno nn c'è la differenza che c'è tra nv35 e le varie 9700/9800

L\'Esecutore
04-05-2004, 16:50
Originariamente inviato da andreamarra
r420 sembra avere prestazioni maggiori dell'nv40, aumentando poi filtri e risoluzione il divario diventa in certi casi mortificante... :eek:
:D

TheDarkAngel
04-05-2004, 16:50
Originariamente inviato da andreamarra
r420 sembra avere prestazioni maggiori dell'nv40, aumentando poi filtri e risoluzione il divario diventa in certi casi mortificante... :eek:

già già... non vedo l'ora di trovarla... non resisto..... devo averla :sbav::sbav:

TheDarkAngel
04-05-2004, 16:51
Originariamente inviato da kikbond
boh...sto guardando un po' i bench...a me sembrano bene o male allineate...almeno nn c'è la differenza che c'è tra nv35 e le varie 9700/9800

mi sembra chiaramente maggiore il divario :mbe:

kikbond
04-05-2004, 16:54
Originariamente inviato da TheDarkAngel
mi sembra chiaramente maggiore il divario :mbe:

dipende....
guardando un po' così i bench nei giochi mi sembra che l'r420 sia superiore in ambiente d3d....in opengl mi sembra alquanto superiore nv40...devo dare un'occhiata migliore però ai bench per dare un giudizio..
;)

R@nda
04-05-2004, 16:54
Originariamente inviato da TheDarkAngel
mi sembra chiaramente maggiore il divario :mbe:

No The Dark ha ragione....le recensioni che ci sono in giro non fanno molta chiarezza sulla situazione.
Anzi...discordano tra loro.

per questo attendo quella di HWUP.

E poi un paio di relase di drivers per vedere come vanno entrambe...tanto stavolta non ho fretta per gli acquisti.

Prometeo_AF
04-05-2004, 16:54
Ma hanno delle funzionalità di power saving durante la navigazione o cmq videoscrittura & 2d? Per arrivare intorno ai 30 watt? O basta tirar giu le frequenze per risparmiare corrente? E' cosi lineare la cosa?

TheDarkAngel
04-05-2004, 16:56
Originariamente inviato da kikbond
dipende....
guardando un po' così i bench nei giochi mi sembra che l'r420 sia superiore in ambiente d3d....in opengl mi sembra alquanto superiore nv40...devo dare un'occhiata migliore però ai bench per dare un giudizio..
;)

se consideri anche i giochi opengl..
ma SECONDO ME non fanno nemmeno testo.. in percentuale sono pochi oltre ad essere tecnologiamente molto indietro e fare fps in + o in - non si compromette MAI la fluidità tanto sono vecchi ormai...

andreamarra
04-05-2004, 17:00
Originariamente inviato da kikbond
dipende....
guardando un po' così i bench nei giochi mi sembra che l'r420 sia superiore in ambiente d3d....in opengl mi sembra alquanto superiore nv40...devo dare un'occhiata migliore però ai bench per dare un giudizio..
;)


non guardare i bench di altri siti. Sono troppo discordanti e "anomali".

Aspettiamo il corsini e lo staff tutto :)

kikbond
04-05-2004, 17:01
Originariamente inviato da andreamarra
non guardare i bench di altri siti. Sono troppo discordanti e "anomali".

Aspettiamo il corsini e lo staff tutto :)


già infatti..aspettiamo che è meglio...se costasse pur relativamente poco sto r420 nn sarebbe male
;)

luca.coggiola
04-05-2004, 17:02
Condivido aspettiamo il Corsini!:O

andreamarra
04-05-2004, 17:02
Originariamente inviato da kikbond
già infatti..aspettiamo che è meglio...se costasse pur relativamente poco sto r420 nn sarebbe male
;)

Teoricamente dovrebbe costare di meno perchè la sua progettazione e costruzione è stata molto meno onerosa dell'NV40 che doveva subire un grossissimo restyling.

JENA PLISSKEN
04-05-2004, 17:03
Originariamente inviato da andreamarra
non guardare i bench di altri siti. Sono troppo discordanti e "anomali".

Aspettiamo il corsini e lo staff tutto :)

Sono 24h che lo dico:sofico:

andreamarra
04-05-2004, 17:10
Originariamente inviato da JENA PLISSKEN
Sono 24h che lo dico:sofico:


Guarda qui http://forum.hwupgrade.it/showthread.php?s=&postid=4355607#post4355607

stando a questi bench la nv40 demolisce con filtri attivi la r420 a Far Cry.

Io alzo le mani.

ATi7500
04-05-2004, 17:15
Originariamente inviato da andreamarra
A quanto pare è il nuovo pannello dei catalyst 4.5...

ovviamente sarà utilizzabile dal R3X0 in poi...

e ki lo dice? :)


bYeZ!

andreamarra
04-05-2004, 17:17
Originariamente inviato da ATi7500
e ki lo dice? :)


bYeZ!


letto su nvitalia, coloro coperti fino alle tre da NDA non hanno detto nulla per smentire.

E poi se cambiano la veste grafica di un dirver non vedo che problemi ci siano ad usarli anche in queli per le schede vecchie. Sempre catalyst sono.

almeno credo... non ci sto capendo una sega...

checo
04-05-2004, 17:17
certo che non si capisce più un pene , i risultati sono troppo diversi per prestazioni cod a parte ci sono situazioni capovolte da rece a rece

fangallo
04-05-2004, 17:21
Originariamente inviato da checo
certo che non si capisce più un pene , i risultati sono troppo diversi per prestazioni cod a parte ci sono situazioni capovolte da rece a rece
infatti..
ogni immagine mostra qualcosa di diverso...

bha

belin
04-05-2004, 17:23
...RECENSIONE PRONTA!!!!!!!!! :D :D :D

Psiche
04-05-2004, 17:24
La rece di Paolo:

http://www.hwupgrade.it/articoli/1013/index.html
;)

kikbond
04-05-2004, 17:27
commenti??

Koji
04-05-2004, 17:29
Originariamente inviato da Psiche
La rece di Paolo:

http://www.hwupgrade.it/articoli/1013/index.html
;)

E uuuai!!! :)

Vado a leggere!!!.....ci vediamo tra una mezz'oretta!!!! :D

andreamarra
04-05-2004, 17:37
Originariamente inviato da kikbond
commenti??

Quello che mi aspettavo: livello generale simile, vantaggio nelle applicazioni OpenGL per nvidia, e prestazioni massicce e con poca perdita di prestazioni per ati nonostante filtri e risoluzioni alte.

ottima rel ;)

Raven
04-05-2004, 17:38
Un thread abbstanza inutile per una buona 10ina di pagine... (-30,.... -5,.... :rolleyes: :muro: )

Speriamo si risollevi... :O

Thunder82
04-05-2004, 17:40
"Purtroppo l'ottimizzazione trilineare è un'opzione che ha influenza solo in ambiente OpenGL. Anche disattivandola, in Direct 3D la resa non subisce cambiamenti e ripropone il brilinear filtering"

nVidia non si smentisce, fa disattivare le ottimizzazioni solo dove rulla di più... mah.

kikbond
04-05-2004, 17:40
Originariamente inviato da Raven
Un thread abbstanza inutile per una buona 10ina di pagine... (-30,.... -5,.... :rolleyes: :muro: )

Speriamo si risollevi... :O


potresti provare ad alzare il livello;)

Raven
04-05-2004, 17:43
Originariamente inviato da kikbond
potresti provare ad alzare il livello;)

beh... se non so cosa dire, piuttosto che scrivere cose a caso mi limito a lurkare e basta! ;)

kikbond
04-05-2004, 17:47
Originariamente inviato da Raven
beh... se non so cosa dire, piuttosto che scrivere cose a caso mi limito a lurkare e basta! ;)


perkè a caso..ognuno dice la propria...poi boh..nn so cosa c'è scritto nelle prime 10pag, nn ho letto il 3d

85kimeruccio
04-05-2004, 17:48
uhm.. come livello siamo li...

vedremo con i prossimi driver xke mi sembrano ancora piuttosto acerbi...

una selta ke potrebbe far scegliere ati piutosto ke nvidia.. è innanzi tutto il 2° molex inesistente.. meno rumore.. temp minori e minor consumo da parte di ati.. poi c'è il prezzo ke come si dice.. sia ovviamente inferiore da parte di ati...

in linea di massima le diff si stabilizzano nella media dei 3/4 fps..

vedo male qui grossi pikki di differenza >40/50fps .. sono dovuti ai driver acerbi...

sono propenso a dare come conclusione ke ati sia leggermente migliore... qualitativamente parlando....

uhm... altra cosa di nn poco conto i PS3.0 ke ati nn supporta... x nvidia puo essere un punto di forza fino ad un certo punto.. dato ke nn ci vuole molto tempo x passare ai nuovi chip grafici.. e i giochi PS3.0 nn ne vedo a breve termine...

:)

TheDarkAngel
04-05-2004, 17:51
Originariamente inviato da Thunder82
"Purtroppo l'ottimizzazione trilineare è un'opzione che ha influenza solo in ambiente OpenGL. Anche disattivandola, in Direct 3D la resa non subisce cambiamenti e ripropone il brilinear filtering"

nVidia non si smentisce, fa disattivare le ottimizzazioni solo dove rulla di più... mah.

io mi aspetterei prima o poi un articolo in merito da parte di hwupgrade...

kikbond
04-05-2004, 17:52
le 12 pipeline della pro mi sembrano strane...proprio sembra essersi pentita delle 12 della 6800 lissia intrucedendo la vers gt...

TheDarkAngel
04-05-2004, 17:54
in call of duty guardando i risultati della x800 mi viene da pensare che i driver opengl di ati siano qualcosa addirittura di abbozzato :eek: :cry:

andreamarra
04-05-2004, 17:55
Originariamente inviato da kikbond
le 12 pipeline della pro mi sembrano strane...proprio sembra essersi pentita delle 12 della 6800 lissia intrucedendo la vers gt...


infatti è un pò un "delusione"... bisogna vedre che differenze d prezzo avranno :)

Thunder82
04-05-2004, 17:56
"Secondo le nostre fonti non sono previste modifiche del pattern di rendering di Far Cry con le schede NVIDIA. Infatti, come vedremo successivamente, il motivo della scelta da parte della Croteam di utilizzare la precisione FP16 al posto della FP32 nonostante il degrado qualitativo è legato principalmente alle prestazioni."

http://www.hwupgrade.it/articoli/1013/fc_1.gif

http://www.hwupgrade.it/articoli/1013/fc_5.gif


... della serie come lasciare i fp16 per una manciata di fps in più... qualcuno dovrebbe spiegare a nVidia che è inutile fare 10fps in più se poi si vedono i colori a bande...

Raven
04-05-2004, 17:58
Originariamente inviato da kikbond
perkè a caso..ognuno dice la propria...poi boh..nn so cosa c'è scritto nelle prime 10pag, nn ho letto il 3d

Mi stavo riferendo ai post del tipo:

"mancano 30 minutiiii!"

"... meno 5!!!!!!"

"Sono le 15.00!!!!!!!"


;)

Chiudiamo qua, comunque...

pandyno
04-05-2004, 17:58
Originariamente inviato da Thunder82
... della serie come lasciare i fp16 per una manciata di fps in più... qualcuno dovrebbe spiegare a nVidia che è inutile fare 10fps in più se poi si vedono i colori a bande...

In stile GF3 :D
Finalmente qualcuno l' ha detto :D

Milotto
04-05-2004, 17:58
Originariamente inviato da Milotto
Cosa scommettete che la recensione di Hwupgrade , a dispetto di tutte quelle che sono ora online , darà un visione delle due schede quasi paritaria...?
Magari si dirà che Nv 40 supporta gli S.M 3.0 ed ATi no , ma nel contempo per sollevare le sorti della prima ci si basera sui soliti ultravetusti motori OGL : alla faccia dei tanto decantati shaders !!
Cya



CVD

TheDarkAngel
04-05-2004, 17:59
Originariamente inviato da Thunder82
"Secondo le nostre fonti non sono previste modifiche del pattern di rendering di Far Cry con le schede NVIDIA. Infatti, come vedremo successivamente, il motivo della scelta da parte della Croteam di utilizzare la precisione FP16 al posto della FP32 nonostante il degrado qualitativo è legato principalmente alle prestazioni."

http://www.hwupgrade.it/articoli/1013/fc_1.gif

http://www.hwupgrade.it/articoli/1013/fc_5.gif


... della serie come lasciare i fp16 per una manciata di fps in più... qualcuno dovrebbe spiegare a nVidia che è inutile fare 10fps in più se poi si vedono i colori a bande...


non potevano sfigurare più di quello che già fanno contro le x800xt ;)

Thunder82
04-05-2004, 18:00
Originariamente inviato da TheDarkAngel
in call of duty guardando i risultati della x800 mi viene da pensare che i driver opengl di ati siano qualcosa addirittura di abbozzato :eek: :cry:

A proposito, è stato attivato il triple buffering nei driver openGL nel test? Perchè di default è disattivato nei catalyst, e se lo si attiva da un discreto boost di prestazioni!

tom03
04-05-2004, 18:00
Originariamente inviato da Thunder82


... della serie come lasciare i fp16 per una manciata di fps in più... qualcuno dovrebbe spiegare a nVidia che è inutile fare 10fps in più se poi si vedono i colori a bande...



Quoto !!!!!!!!!!:O :O



CauZ ! :D

TheDarkAngel
04-05-2004, 18:03
Originariamente inviato da Thunder82
A proposito, è stato attivato il triple buffering nei driver openGL nel test? Perchè di default è disattivato nei catalyst, e se lo si attiva da un discreto boost di prestazioni!

non ne viene fatta menzione...

Thunder82
04-05-2004, 18:03
Originariamente inviato da pandyno
In stile GF3 :D
Finalmente qualcuno l' ha detto :D

Infatti! Così nVidia si rende solo ridicola, perchè a 50fps ci giochi lo stesso al posto di 60, però con una qualità nettamente superiore! :)

Probabilmente hanno troppa paura di rimanere indietro anche di un solo fps, non rendendosi conto che chi compra quelle schede non lo fa per giocare con 5 fps in + o in -, lo fa per giocare fluidamente con la max qualità possibile ;)

TheDarkAngel
04-05-2004, 18:04
Originariamente inviato da Thunder82
Infatti! Così nVidia si rende solo ridicola, perchè a 50fps ci giochi lo stesso al posto di 60, però con una qualità nettamente superiore! :)

Probabilmente hanno troppa paura di rimanere indietro anche di un solo fps, non rendendosi conto che chi compra quelle schede non lo fa per giocare con 5 fps in + o in -, lo fa per giocare fluidamente con la max qualità possibile ;)

si ma fa fatica pure a fp16 :fagiano:
sono 222ml transistor spesi male....

andreamarra
04-05-2004, 18:05
Il test su far cry è sintomatico: per me è inutile dire che vanno uguale se poi la qualità è nettamente inferiore in un caso.

JENA PLISSKEN
04-05-2004, 18:05
La 800xt è un affinamento della serie R3xx...di innovativo ha quella fantastica invenzione che è il Taa...

La 6800 di innovativo ha i PS e VS3.0


Il problema è che ATI si è inventata una teconologia IMMMEDIATAMENTE sfruttabile che addiritturà ricadrà anche sulle schede di vecchia generazione

NV invece ha puntato su una tecnologia che in FUTURO verrà sfruttata...ma quando sarà questo futuro...io sinc dubito che sia un futuro PROSSIMO


Alla fine a mio avviso l' innovazione tecnologia + interessante e soprattutto utile è il Taa


Come resa qualitativa mi pare di aver letto che ATI resta un filino avanti....

mah io ho come la sensazione che l' R420 sia una scheda transitoria....Nn vorrei che fosse una meteora

dal canto suo NV propone un qualcosa di assolutamente Nn sfruttabile ...e qui si rischia di vederlo sfruttare quando usciranno le nuove schede e soprttutto con i filtri attivati e giochi +pesanti credo che arrancherà parecchio...visto che già ora nn è sempre il massimo


OK...mi tengo la 9700:sofico:

JENA PLISSKEN
04-05-2004, 18:05
Originariamente inviato da andreamarra
Il test su far cry è sintomatico: per me è inutile dire che vanno uguale se poi la qualità è nettamente inferiore in un caso.

Concordo;)

L\'Esecutore
04-05-2004, 18:07
Non che la nuava nata di casa ATi mi deluda, ma sinceramente mi aspettavo di +, soprattutto per la XT. Con quelle frequenze e il vantaggio di partire da un R3x0 che era un gioiello, penso che ATi poteva sforzarsi un po' di +. Probabilmente avrebbe potuto farlo, ma x questioni a noi ignote, non lo ha fatto o lo ha fatto ma non lo ha ancora mostrato.:O
Naturalmente questa è una mia opinione

Nie73
04-05-2004, 18:08
quello che mi fà pensare è che nvidia ha mandato all'ultimo momento una versione "extreme" per fare i benk come se sapesse che con la ultra era un po' indietro... ma noi sugli scaffali troveremo la ultra e in pochissimi casi la ext.... o no!

L\'Esecutore
04-05-2004, 18:09
Originariamente inviato da Nie73
quello che mi fà pensare è che nvidia ha mandato all'ultimo momento una versione "extrem" per fare i benk come se sapesse che con la ultra era un po' indietro... ma noi sugli scaffali troveremo la ultra e in pochissimi casi la ext.... o no!
Come ha detto Corsini la extreme è come il P4 EE, costosissimo e con disponibilità limitata

JENA PLISSKEN
04-05-2004, 18:09
Originariamente inviato da L\'Esecutore
Non che la nuava nata di casa ATi mi deluda, ma sinceramente mi aspettavo di +, soprattutto per la XT. Con quelle frequenze e il vantaggio di partire da un R3x0 che era un gioiello, penso che ATi poteva sforzarsi un po' di +. Probabilmente avrebbe potuto farlo, ma x questioni a noi ignote, non lo ha fatto o lo ha fatto ma non lo ha ancora mostrato.:O
Naturalmente questa è una mia opinione

Ripeto mi sembra una scheda di transizione....Nn vorrei che prima di natale in coccasione del PCIx esca qualcosa di veramente nuovo:sofico:

Thunder82
04-05-2004, 18:10
Originariamente inviato da Nie73
quello che mi fà pensare è che nvidia ha mandato all'ultimo momento una versione "extrem" per fare i benk come se sapesse che con la ultra era un po' indietro... ma noi sugli scaffali troveremo la ultra e in pochissimi casi la ext.... o no!

Infatti io la extreme non la considero neanche nei test ;)

Chissà se sarà mai disponibile, e quel suo prezzo "TBD" (to be defined) fa paura al portafoglio :D

L\'Esecutore
04-05-2004, 18:10
E' quello che penso anch'io, forse ATi vuole scatenare tutta la potenza di R4X0 solo con il PCI Express

andreamarra
04-05-2004, 18:13
Originariamente inviato da JENA PLISSKEN
Ripeto mi sembra una scheda di transizione....Nn vorrei che prima di natale in coccasione del PCIx esca qualcosa di veramente nuovo:sofico:

nell'altro 3d le ho definite entrambe "soluzioni tampone" non a caso.

JENA PLISSKEN
04-05-2004, 18:14
Originariamente inviato da L\'Esecutore
E' quello che penso anch'io, forse ATi vuole scatenare tutta la potenza di R4X0 solo con il PCI Express

;) ...io ho questa sensazione...cmq saranno sul mercato a GIUGNO....il periodo estivo io nn gioco....ovviamente se ne parla cmq a SETT...vedremo:oink:

halduemilauno
04-05-2004, 18:15
Originariamente inviato da L\'Esecutore
Non che la nuava nata di casa ATi mi deluda, ma sinceramente mi aspettavo di +, soprattutto per la XT. Con quelle frequenze e il vantaggio di partire da un R3x0 che era un gioiello, penso che ATi poteva sforzarsi un po' di +. Probabilmente avrebbe potuto farlo, ma x questioni a noi ignote, non lo ha fatto o lo ha fatto ma non lo ha ancora mostrato.:O
Naturalmente questa è una mia opinione


che io avevo gia anticipato e che quindi condivido.
ciao.

:) :)

andreamarra
04-05-2004, 18:16
Considerate inoltre che la x800XT viene penalizzata dai sistemi cpu limited, praticamente la sua potenza reale potrebbe essere ancora più mostruosa.

Ovviamente è già tanto per ora avere qualcuno con un A64FX...

TheDarkAngel
04-05-2004, 18:18
Originariamente inviato da JENA PLISSKEN
Ripeto mi sembra una scheda di transizione....Nn vorrei che prima di natale in coccasione del PCIx esca qualcosa di veramente nuovo:sofico:

non ho ben capito... soluzione di transizione?
beh facciano così anche processori di transizione!
r420 alla fine va il doppio del r360...
non mi sarebbe dispiaciuto che fosse andato quattro volte tanto ma penso che così nn avrebbe potuto spolpare bene gli utenti ;)

JENA PLISSKEN
04-05-2004, 18:18
Originariamente inviato da andreamarra
Considerate inoltre che la x800XT viene penalizzata dai sistemi cpu limited, praticamente la sua potenza reale potrebbe essere ancora più mostruosa.

Ovviamente è già tanto per ora avere qualcuno con un A64FX...

Ah...bene...tutto chiarito...fatto tutto?? Adesso vado a giocare....finalmente tanto a netKar e GTR basta una 8500:sofico: :sofico:

Thunder82
04-05-2004, 18:19
Originariamente inviato da L\'Esecutore
Non che la nuava nata di casa ATi mi deluda, ma sinceramente mi aspettavo di +, soprattutto per la XT. Con quelle frequenze e il vantaggio di partire da un R3x0 che era un gioiello, penso che ATi poteva sforzarsi un po' di +. Probabilmente avrebbe potuto farlo, ma x questioni a noi ignote, non lo ha fatto o lo ha fatto ma non lo ha ancora mostrato.:O
Naturalmente questa è una mia opinione

A parte che non mi pare poi così deludente la XT (discorso a parte per la pro), molto spesso è in testa, soprattutto con filtri abilitati.

Cmq può darsi che R423 abbia "una marcia in più", per far credere a tutti che PCI-express è meglio (ipotesi di marketing) :)

manuele.f
04-05-2004, 18:21
tornando in argomento...
il trend è quello già visto...ma a prestazioni raddoppiate......
al dilà delle pure prestazione che sono mediamente allineate o un pelino a vantaggio di ati si possono fare considerazioni (anche perchè il pelino potrebbe essere ribaltato o raddoppiato con driver maturi) sulle due filosofie costruttive delle due soluzioni...

io penso che la soluzione di ati non sia per nulla estrema e da questo ne deriveranno enormi vantaggi Imho a livello di vendite...
l'aquirente storce un po' il naso quando per avere "x" prestazioni deve spendere 100€ + $$ per un ali con le (_)(_) per prendere nvidia rispetto ad ati quando poi sono allineate:rolleyes:
così come lo smanettone lo storce perchè deve usare due molex indipendenti per la sk video....
oltretutto i consumi sembrano non essere neanche paragonabili...

bhè io penso che i punti cruciali saranno questi....

discorso a parte per chi compra "per tifoseria" :oink: :oink: :oink:

ps: il 6800 MegaStraUltra:cool: occupa lo slot pci affianco all'agp?

MaBru
04-05-2004, 18:22
Originariamente inviato da halduemilauno
http://www.beyond3d.com/reviews/ati/r420_x800/images/aces.jpg

dopo questo. basta sciolgo la riserva. me la compro anch'io.
ciao.
:) :)

bella hal. Dove hai beccato questo screen?

Thunder82
04-05-2004, 18:22
Cmq per essere una scheda "tampone" non mi pare vada poi così male :eek: :sbav:

http://www.hwupgrade.it/articoli/1013/tr_4.gif

Redvex
04-05-2004, 18:23
Se la 6800 gt e la x800 pro costano = o poco + la nvidia quest'ultima non credo abbia speranza

JENA PLISSKEN
04-05-2004, 18:25
Originariamente inviato da Thunder82
Cmq per essere una scheda "tampone" non mi pare vada poi così male :eek: :sbav:

http://www.hwupgrade.it/articoli/1013/tr_4.gif

SI...cmq volevo d +:oink:

TheDarkAngel
04-05-2004, 18:26
Originariamente inviato da JENA PLISSKEN
SI...cmq volevo d +:oink:

magari anche una fettina di culatello :asd:

checo
04-05-2004, 18:27
io credo sia il contrario invece a meno che sulla ati non si riescano ad abilitare la 4 pipe la punto GT con 50mhz sul core diventa a tutti gli effetti una ultra

TheDarkAngel
04-05-2004, 18:28
Originariamente inviato da checo
io credo sia il contrario invece a meno che sulla ati non si riescano ad abilitare la 4 pipe la punto GT con 50mhz sul core diventa a tutti gli effetti una ultra

toms dice che nn sarà possibile abilitare le altre 4...
è un pò bizzarra l'offerta nvidia..
3 schede con lo stesso chip con 50mhz di differenza.. mah...

belin
04-05-2004, 18:29
..........forse ad alcuni sono sfuggite le ultime righe dell'articolo:

"Con la scheda Radeon X800 XT Premium Edition ATI è stata capace di raddoppiare, in media, le prestazioni velocistiche della propria precedente top della gamma, modello Radeon 9800 XT. E' questo un risultato la cui portata è forse difficilmente comprensibile e per il quale un esempio può essere d'aiuto: pensate di avere a disposizione, da questo momento, un processore di sistema che è potente esattamente il doppio, in tutte le applicazioni, rispetto a quello che utilizzate in questo momento. Un eventualità di questo tipo è scenario pressoché irrealizzabile nel mercato delle cpu, ma è quanto ci hanno abituato ad ottenere ogni cambio generazionale sia ATI che NVIDIA. E, a pensarci bene, è un risultato strabiliante."

...ok che le X800XT costerà un bel pò, ma le prestazioni si sono in media RADDOPPIATE! cosa volevate di più?!?! ...un Lucano?!?! :D

ciao!

JENA PLISSKEN
04-05-2004, 18:30
Originariamente inviato da TheDarkAngel
magari anche una fettina di culatello :asd:

ALLA fine quella da battere srà a PUNTO GT....la pro con quelle 4 pipe in meno nn mi convince tanto:rolleyes: ....questo qualità a parte:sofico:

checo
04-05-2004, 18:31
Originariamente inviato da TheDarkAngel
toms dice che nn sarà possibile abilitare le altre 4...
è un pò bizzarra l'offerta nvidia..
3 schede con lo stesso chip con 50mhz di differenza.. mah...

4200/4400/4600 non fa una piega

TheDarkAngel
04-05-2004, 18:32
Originariamente inviato da JENA PLISSKEN
ALLA fine quella da battere srà a PUNTO GT....la pro con quelle 4 pipe in meno nn mi convince tanto:rolleyes: ....questo qualità a parte:sofico:

non mi pare che si comporti poi tanto male la pro contro la gt.... anzi
senza contare che sarà molto overclockkabile poi magari con qualche sotterfugio usciranno fuori pro@xt ;)

JENA PLISSKEN
04-05-2004, 18:33
Originariamente inviato da TheDarkAngel
non mi pare che si comporti poi tanto male la pro contro la gt.... anzi
senza contare che sarà molto overclockkabile poi magari con qualche sotterfugio usciranno fuori pro@xt ;)

CI conto:oink:

TheDarkAngel
04-05-2004, 18:33
Originariamente inviato da checo
4200/4400/4600 non fa una piega

ma in questo caso mi pare diverso..
visto che la 4600 è la extreme... e addirittura è senza prezzo..
la 4400 è la ultra a 499
e la 4200 è la gt a 399...
non mi pare la stessa cosa...

Perfectdavid
04-05-2004, 18:34
ma anche nvidia ha raddoppiato...mica bruscoletti...

TheDarkAngel
04-05-2004, 18:36
Originariamente inviato da Perfectdavid
ma anche nvidia ha raddoppiato...mica bruscoletti...

in quel caso nn era per niente difficile :asd:

L\'Esecutore
04-05-2004, 18:36
Originariamente inviato da Thunder82
A parte che non mi pare poi così deludente la XT (discorso a parte per la pro), molto spesso è in testa, soprattutto con filtri abilitati.

Cmq può darsi che R423 abbia "una marcia in più", per far credere a tutti che PCI-express è meglio (ipotesi di marketing) :)

Ma guarda che ho scritto chiaramente che NON mi ha deluso, ho solo detto che mi aspettavo do +

MaBru
04-05-2004, 18:36
Dopo smadonnamenti vari son riuscito a mettere in ordine il primo post in maniera decorosa.

Thunder82
04-05-2004, 18:36
Originariamente inviato da checo
4200/4400/4600 non fa una piega

solo che sto giro la 4200 costa 400$ invece di 200...

Perfectdavid
04-05-2004, 18:37
Originariamente inviato da TheDarkAngel
non mi pare che si comporti poi tanto male la pro contro la gt.... anzi
senza contare che sarà molto overclockkabile poi magari con qualche sotterfugio usciranno fuori pro@xt ;)


bhè anche la gt credo salga molto...

checo
04-05-2004, 18:38
Originariamente inviato da TheDarkAngel
ma in questo caso mi pare diverso..
visto che la 4600 è la extreme... e addirittura è senza prezzo..
la 4400 è la ultra a 499
e la 4200 è la gt a 399...
non mi pare la stessa cosa...

399-499-599 e vedrai che se le rese di chip andranno bene la ultra la tolgono come successo con la 4400

TheDarkAngel
04-05-2004, 18:38
Originariamente inviato da Perfectdavid
bhè anche la gt credo salga molto...

intanto ha un molex in meno...
poi già di suo la ultra sale molto poco...
la gt per molto tempo saranno dei semplici scarti...
quindi

TheDarkAngel
04-05-2004, 18:39
Originariamente inviato da checo
399-499-599 e vedrai che se le rese di chip andranno bene la ultra la tolgono come successo con la 4400

nn mi sembra poco 399 per una 4200 cmq ;)
dubito che facilmente riusciranno ad aumentare le rese produttive...
hanno fatto un chip un pò troppo grande ^^

andreamarra
04-05-2004, 18:39
Originariamente inviato da L\'Esecutore
Non che la nuava nata di casa ATi mi deluda, ma sinceramente mi aspettavo di +, soprattutto per la XT. Con quelle frequenze e il vantaggio di partire da un R3x0 che era un gioiello, penso che ATi poteva sforzarsi un po' di +. Probabilmente avrebbe potuto farlo, ma x questioni a noi ignote, non lo ha fatto o lo ha fatto ma non lo ha ancora mostrato.:O
Naturalmente questa è una mia opinione

il motivo è facilmente ipotizzabile: non ha senso creare prodotti tecnoilogicamente troppo avanzati, in quanto la tecnologia in questi campi viene data con il contagocce. Partire da una base ottima e rifare un progetto per decuplicare il tutto è fattibile ma ci sarebbe una spesa mostruosa e un impiego di anni e anni.

A mio giudizio la ati ha pensato semplicemente di brutalizzare la potenza della precedente 9800XT (ancora estremamente valida...) e di creare una scheda tampone per poter controllare nvidia e non permettergli di prendere il sopravvento. La stessa ati avrà porbabilmente pensato di far uscire la nvidia allo scoperto con queste nuove tecnologie attualmente e per molto tempo inutilizzabili. Infatti quando gli shader 3.0 saranno una realtà queste schede saranno "soppiantate" da altre che le useranno in maniera impeccabile.
Il vantaggio c'è l'ha nvidia dal punto di vista di immagine (considerando la sua immagine ultimamente...) e sarà un trampolino di lancio per i programmatori che potranno cominciare a capire come applicare certe tecnologie. Probabilmente la ati da par suo avranno un prototipo della scheda con full shader 3.0, ma aspettano che la nvidia faccia da apripista. Probabilmente pre corregere al volo degli errori che potrebbero essere gravi o per affinare la tecnica. Insomma, a me sa molto di scheda "cavia" questa NV40, e la ati mi dà l'idea di un avvoltoio che aspetta di capire dove va bene e dove no.

Ovviamente io fossi nella ati avrei fatto un ragionamento del gnere.

checo
04-05-2004, 18:39
Originariamente inviato da TheDarkAngel
intanto ha un molex in meno...
poi già di suo la ultra sale molto poco...
la gt per molto tempo saranno dei semplici scarti...
quindi


la 6800ultra sale di 68mhz sul core non mi pare poco, anzi mi pare un enormità rispetto ai 14mhz di oc della x800xtplatinum edition

L\'Esecutore
04-05-2004, 18:40
Originariamente inviato da belin
..........forse ad alcuni sono sfuggite le ultime righe dell'articolo:

"Con la scheda Radeon X800 XT Premium Edition ATI è stata capace di raddoppiare, in media, le prestazioni velocistiche della propria precedente top della gamma, modello Radeon 9800 XT. E' questo un risultato la cui portata è forse difficilmente comprensibile e per il quale un esempio può essere d'aiuto: pensate di avere a disposizione, da questo momento, un processore di sistema che è potente esattamente il doppio, in tutte le applicazioni, rispetto a quello che utilizzate in questo momento. Un eventualità di questo tipo è scenario pressoché irrealizzabile nel mercato delle cpu, ma è quanto ci hanno abituato ad ottenere ogni cambio generazionale sia ATI che NVIDIA. E, a pensarci bene, è un risultato strabiliante."

...ok che le X800XT costerà un bel pò, ma le prestazioni si sono in media RADDOPPIATE! cosa volevate di più?!?! ...un Lucano?!?! :D

ciao!
Qualcuno si ricorda quando era circolata la voce che ATi avrebbe raddoppiato le prestazioni della serie R3x0 e si era gridato alla bufala xè sembrava impossibile?
:cool: :D

Perfectdavid
04-05-2004, 18:40
Originariamente inviato da TheDarkAngel
intanto ha un molex in meno...
poi già di suo la ultra sale molto poco...
la gt per molto tempo saranno dei semplici scarti...
quindi

la ultra già sale poco?l'hai provata?

Thunder82
04-05-2004, 18:40
HIS Excalibur X800pro IceQ :sbavvv:

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg

Lord style
04-05-2004, 18:41
http://www.hwupgrade.it/articoli/1013/shader_nv38_zoom_1.jpg

Se questa è la qualità degli schader FP16 vuol dire che l'unico modo per giocare con una NV40 è quello di usare sempre FP32.

In questo caso ATi ne esce sempre vincitrice visto che elabora a FP24.

Cester
04-05-2004, 18:42
Per me non ha deluso affatto!! Ma che vi aspettavate??
Comunque non penso che la PCI express porterà grossi incrementi prestazionali, sempre se non verrà fatta qualche evoluzione nel 423 rispetto al 420!
Comunque volevo fare una domanda.
Quali sono le differrenze sostanziali tra x800 pro e XT??
:)E solo una questione di frequenze??

TheDarkAngel
04-05-2004, 18:42
Originariamente inviato da Perfectdavid
la ultra già sale poco?l'hai provata?

leggi un pò di recensioni..
alcuni hanno fatto fatica ad arrivare a 430mhz ;)
e leggi anche la conclusione sulla extreme della rece di hw ;)
fai 2+2 = non sale un cazzo ^^

TheDarkAngel
04-05-2004, 18:43
Originariamente inviato da Thunder82
HIS Excalibur X800pro IceQ :sbavvv:

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg

bella ma...
perchè nn fanno un modello senza dissipatore ^^ ?

L\'Esecutore
04-05-2004, 18:43
Originariamente inviato da Cester
Per me non ha deluso affatto!! Ma che vi aspettavate??
Comunque non penso che la PCI express porterà grossi incrementi prestazionali, sempre se non verrà fatta qualche evoluzione nel 423 rispetto al 420!
Comunque volevo fare una domanda.
Quali sono le differrenze sostanziali tra x800 pro e XT??
:)

La Pro ha solo 12 pipe contro le 16 della XT e frequenze inferiori

Cester
04-05-2004, 18:44
Originariamente inviato da L\'Esecutore
La Pro ha solo 12 pipe contro le 16 della XT e frequenze inferiori
Cavolo , ma perchè l'anno castigata??:(

Cester
04-05-2004, 18:46
Originariamente inviato da Thunder82
HIS Excalibur X800pro IceQ :sbavvv:

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg
Sinceramente a me questo dissi non piace x niente!!:)

R@nda
04-05-2004, 18:48
Originariamente inviato da Lord style
http://www.hwupgrade.it/articoli/1013/shader_nv38_zoom_1.jpg

Se questa è la qualità degli schader FP16 vuol dire che l'unico modo per giocare con una NV40 è quello di usare sempre FP32.

In questo caso ATi ne esce sempre vincitrice visto che elabora a FP24.

Questo come più volte detto,non dipende dalla FP16 ma dal gioco/driver.

Uscirà la patch 1.2 per FarCry e usciranno le DX9C e si avranno risultati diversi sia in qualità che in prestazioni.

Voi dite che FarCry è il banco attuale per vedere come vanno ste schede ma allo stato attuale non è vero.

Il gioco si comporta bene da sempre solo sulle Ati....ma è stato programmato specificatamente per Nv3X....Nv40 è un bel pò diverso.

E' presto per fare paragoni appropriati cmq,troppo presto.

Cmq In questa generazione vedo Ati un pelo avanti acomunque a giochi fatti e driver maturi....mi sembra chiaro no?
E stavolta vedremo un bel balzo nella qualità dei giochi a venire,non vedo l'ora!

TheDarkAngel
04-05-2004, 18:50
Originariamente inviato da R@nda
Cmq In questa generazione vedo Ati un pelo avanti acomunque a giochi fatti e driver maturi....mi sembra chiaro no?
E stavolta vedremo un bel balzo nella qualità dei giochi a venire,non vedo l'ora!


maturi i driver di ati?!?!?! :eek: :eek: :eek:
non so se hai visto... in opengl le x800xt e le 9800xt vanno quasi uguali....
direi che sono tutto forchè lontanamente ottimizzati...
mi aspetto enormi margini di miglioramento

L\'Esecutore
04-05-2004, 18:50
Originariamente inviato da TheDarkAngel
maturi i driver di ati?!?!?! :eek: :eek: :eek:
non so se hai visto... in opengl le x800xt e le 9800xt vanno quasi uguali....
direi che sono tutto forchè lontanamente ottimizzati...
mi aspetto enormi margini di miglioramento

Lo spero, in particolare per OpenGL

alinghi
04-05-2004, 18:51
Ma la X800 si legge diecimilaeotto oppure xottocento ?? :D

hana_il_genio
04-05-2004, 18:51
Originariamente inviato da TheDarkAngel
maturi i driver di ati?!?!?! :eek: :eek: :eek:
non so se hai visto... in opengl le x800xt e le 9800xt vanno quasi uguali....
direi che sono tutto forchè lontanamente ottimizzati...
mi aspetto enormi margini di miglioramento
non hai torto...
da quel che ricordo anche con R300 hanno avuto problemi all'inizio con i driver!:muro:

R@nda
04-05-2004, 18:52
Originariamente inviato da TheDarkAngel
maturi i driver di ati?!?!?! :eek: :eek: :eek:
non so se hai visto... in opengl le x800xt e le 9800xt vanno quasi uguali....
direi che sono tutto forchè lontanamente ottimizzati...
mi aspetto enormi margini di miglioramento

Ho detto
:rolleyes:

Che anche quando i drivers saranno maturi per entrambe Ati sarà comunque in vantaggio nelle prestazioni pure.

Perfectdavid
04-05-2004, 18:52
a vedere questi bench la 9800xt sembra uno schifo...

MaBru
04-05-2004, 18:53
Originariamente inviato da TheDarkAngel
maturi i driver di ati?!?!?! :eek: :eek: :eek:
non so se hai visto... in opengl le x800xt e le 9800xt vanno quasi uguali....
direi che sono tutto forchè lontanamente ottimizzati...
mi aspetto enormi margini di miglioramento

ATI sta riscrivendo da zero il driver OpenGL. Mistero fitto però su quando sarà pronto.

L\'Esecutore
04-05-2004, 18:55
Originariamente inviato da MaBru
ATI sta riscrivendo da zero il driver OpenGL. Mistero fitto però su quando sarà pronto.

Dove hai preso questa informazione?

TheDarkAngel
04-05-2004, 18:55
Originariamente inviato da MaBru
ATI sta riscrivendo da zero il driver OpenGL. Mistero fitto però su quando sarà pronto.

speriamo prima del 2005 ^^
nn voglio aspettare i catalist 5.0 ^^

Lord style
04-05-2004, 18:56
Originariamente inviato da R@nda
Questo come più volte detto,non dipende dalla FP16 ma dal gioco/driver.

Uscirà la patch 1.2 per FarCry e usciranno le DX9C e si avranno risultati diversi sia in qualità che in prestazioni.

Voi dite che FarCry è il banco attuale per vedere come vanno ste schede ma allo stato attuale non è vero.

Il gioco si comporta bene da sempre solo sulle Ati....ma è stato programmato specificatamente per Nv3X....Nv40 è un bel pò diverso.

E' presto per fare paragoni appropriati cmq,troppo presto.

Cmq In questa generazione vedo Ati un pelo avanti acomunque a giochi fatti e driver maturi....mi sembra chiaro no?
E stavolta vedremo un bel balzo nella qualità dei giochi a venire,non vedo l'ora!



Non credo sia come tu dici. Nella recensione di Hardware Upgrade si è comparato un FP32 e un FP16. L'FP16 dava quel risultato scadente, l' FP32 ha una qualita inpercettibilmente superiore rispetto al' FP24 di ATi. Se veniva forzata sulla scheda nVidia l'FP32 la qualità era perfetta come sulle ATi. Io deduco che il problema stia nell'FP16.

R@nda
04-05-2004, 18:56
Originariamente inviato da Lord style
Non credo che sia come tu dici. Nella recensione di Hardware Upgrade si è comparato un FP32 e un FP16. L'FP16 dava quel risultato scadente, l' FP32 ha una qualita inpercettibilmente superiore rispetto al' FP24 di ATi. Se veniva forzata sulla scheda nVidia l'FP32 la qualità era perfetta come sulle ATi. Io deduco che il problema stia nell'FP16.

Non l ho mica detto io....ma gente che ne sa un pelo più di me e di te:)

TheDarkAngel
04-05-2004, 18:57
Originariamente inviato da Lord style
Non credo che sia come tu dici. Nella recensione di Hardware Upgrade si è comparato un FP32 e un FP16. L'FP16 dava quel risultato scadente, l' FP32 ha una qualita inpercettibilmente superiore rispetto al' FP24 di ATi. Se veniva forzata sulla scheda nVidia l'FP32 la qualità era perfetta come sulle ATi. Io deduco che il problema stia nell'FP16.

no è che a FP16 la qualità è quella... altro che bug...

ATi7500
04-05-2004, 18:57
Originariamente inviato da MaBru
ATI sta riscrivendo da zero il driver OpenGL. Mistero fitto però su quando sarà pronto.

fonte? :)


bYeZ!

andreamarra
04-05-2004, 18:58
Originariamente inviato da Lord style
Non credo che sia come tu dici. Nella recensione di Hardware Upgrade si è comparato un FP32 e un FP16. L'FP16 dava quel risultato scadente, l' FP32 ha una qualita inpercettibilmente superiore rispetto al' FP24 di ATi. Se veniva forzata sulla scheda nVidia l'FP32 la qualità era perfetta come sulle ATi. Io deduco che il problema stia nell'FP16.

stando ai programmatori attualmente non ci sono differenze visive tra fp24 e fp32

Thunder82
04-05-2004, 19:00
Originariamente inviato da R@nda
Questo come più volte detto,non dipende dalla FP16 ma dal gioco/driver.

Uscirà la patch 1.2 per FarCry e usciranno le DX9C e si avranno risultati diversi sia in qualità che in prestazioni.

Voi dite che FarCry è il banco attuale per vedere come vanno ste schede ma allo stato attuale non è vero.

Il gioco si comporta bene da sempre solo sulle Ati....ma è stato programmato specificatamente per Nv3X....Nv40 è un bel pò diverso.

E' presto per fare paragoni appropriati cmq,troppo presto.

Cmq In questa generazione vedo Ati un pelo avanti acomunque a giochi fatti e driver maturi....mi sembra chiaro no?
E stavolta vedremo un bel balzo nella qualità dei giochi a venire,non vedo l'ora!

Ti riporto un passo della rece:

Secondo le nostre fonti non sono previste modifiche del pattern di rendering di Far Cry con le schede NVIDIA. Infatti, come vedremo successivamente, il motivo della scelta da parte della Croteam di utilizzare la precisione FP16 al posto della FP32 nonostante il degrado qualitativo è legato principalmente alle prestazioni.

(a parte che non è Croteam ma Crytek, un piccolo errore nella rece può scappare con così poco tempo a disposizione :) )

belin
04-05-2004, 19:02
...vi presento la mia prossima regina:

http://www.gecube.com/files/product/X800_3D_480.jpg


...............:D .................:sbavvv: ..............

...a parte gli scherzi, io penso che i Catalyst usati x i test che leggiamo ora siano ancora "acerbi" x le X800. Coi 4.5 e penso ancor di più con quelli dopo, si vedrà veramente la potenza delle X800... che cmq già adesso, mi piace ripertermi, è il doppio rispetto alla ex regina 9800xt!

ciao!

Lord style
04-05-2004, 19:03
Originariamente inviato da andreamarra
stando ai programmatori attualmente non ci sono differenze visive tra fp24 e fp32

Anche da profano mi accorgo che la differenza fra FP24 e FP32 è "di fatto" nulla, giustamente come anche tu hai detto.




Originariamente inviato da R@nda
Non l ho mica detto io....ma gente che ne sa un pelo più di me e di te

Secondo me non è un bug quella qualità cosi scarsa dell'FP16, semplicemente perchè il problema sparisce forzando l'elaborazione FP32 sulle nVidia. Questo dimostra, secondo me, che il problema sta nell'FP16.

L\'Esecutore
04-05-2004, 19:04
Originariamente inviato da belin
...vi presento la mia prossima regina:

...............:D .................:sbavvv: ..............

...a parte gli scherzi, io penso che i Catalyst usati x i test che leggiamo ora siano ancora "acerbi" x le X800. Coi 4.5 e penso ancor di più con quelli dopo, si vedrà veramente la potenza delle X800... che cmq già adesso, mi piace ripertermi, è il doppio rispetto alla ex regina 9800xt!

ciao!

Per quanto riguarda i driver hai ragione, ma lo stesso discorso vale anche pe nVidia

ballero
04-05-2004, 19:04
non sono previste delle modifiche?
ma se e' in lavorazione la patch per il supporto ai SM 3.0 :rolleyes:

belin
04-05-2004, 19:07
Originariamente inviato da L\'Esecutore
Per quanto riguarda i driver hai ragione, ma lo stesso discorso vale anche pe nVidia

...non lo metto in dubbio, il mio post era riferito alle X800. e soprattutto sto pensando (e spero) che le X800pro potranno dare e fare ancora di più con i driver nuovi.
...certo che se i nuovi Catalyst aumentassero anche le prestazioni delle X800XT... beh... allora non ce ne sarà per nessuno!

R@nda
04-05-2004, 19:08
Scusate eh....siccome anche io mi ero posto la stessa domanda su FarCry e l'FP16 (sulla sua qualità con la 6800) nel thread ufficiale....perchè credevo che la colpa fosse sua,ho fatto la stessa domanda a Yossarian.

Se me lo dice lui,(che la colpa non è della FP16)ci credo....poi vedremo.

Lord style
04-05-2004, 19:10
Originariamente inviato da ballero
non sono previste delle modifiche?
ma se e' in lavorazione la patch per il supporto ai SM 3.0 :rolleyes:


Utilizzando i SM 3.0 si forzerà l'elaborazione sempre a FP32 ecco perchè il problema dovrebbe risolversi.

Rimane comunque la non proponibile qualità di renderizzazione dell' FP16.

andreamarra
04-05-2004, 19:10
Originariamente inviato da ballero
non sono previste delle modifiche?
ma se e' in lavorazione la patch per il supporto ai SM 3.0 :rolleyes:

Sta per uscire la patch ch sfrutterà i ps3.0

Però ovviamente dobbiamo pensare che non miglioreranno (in questa generazione) la qualità visiva ma milgioreranno la velocità saltando istruzioni inutili del codice. Il problema però è che non attualmente facile utilizzare questi shader 3.0.

Forse con l'utilizzo dei ps3.0 e di una fp a 32 (e non 16, perchè i 32 con i ps3.0 saranno forzati)) le prestazioni saranno simili tra 6800ultra e x800xt. O magari ancora no, difficile da stabilire adesso.

Praticamente alla ati manca il supporto agli interessanti dynamic branching che però sono eccessivamente pesanti per l'attuale HW.

Perfectdavid
04-05-2004, 19:12
ma sbaglio o ho letto che le ati già sono in distribuzione?

L\'Esecutore
04-05-2004, 19:12
Originariamente inviato da belin
...non lo metto in dubbio, il mio post era riferito alle X800. e soprattutto sto pensando (e spero) che le X800pro potranno dare e fare ancora di più con i driver nuovi.
...certo che se i nuovi Catalyst aumentassero anche le prestazioni delle X800XT... beh... allora non ce ne sarà per nessuno!

I driver miglioreranno tutti le schede R3x0 e quelle R420, spero cmq che ATi si impegni a migliorare il versante OpenGL decisamente carente rispetto ad nVidia. Cmq sono molto curioso di vedere che genere di innovazioni o miglioramenti ci saranno nei prossimi catalyst 4.5 e non parlo di quelle estetiche nel control panel

L\'Esecutore
04-05-2004, 19:15
Originariamente inviato da andreamarra
Sta per uscire la patch ch sfrutterà i ps3.0

Però ovviamente dobbiamo pensare che non miglioreranno (in questa generazione) la qualità visiva ma milgioreranno la velocità saltando istruzioni inutili del codice. Il problema però è che non attualmente facile utilizzare questi shader 3.0.

Forse con l'utilizzo dei ps3.0 e di una fp a 32 (e non 16, perchè i 32 con i ps3.0 saranno forzati)) le prestazioni saranno simili tra 6800ultra e x800xt. O magari ancora no, difficile da stabilire adesso.

Praticamente alla ati manca il supporto agli interessanti dynamic branching che però sono eccessivamente pesanti per l'attuale HW.

Quello che mi chiedo è: siccome gli shader 3.0 non hanno introdotte grosse innovazioni, non potevano chiamarli 2.1 o 2.5; il 3.0 sembra qualcosa di rivoluzionario o cmq di innovativo:confused:

Haku
04-05-2004, 19:15
Originariamente inviato da Perfectdavid
ma sbaglio o ho letto che le ati già sono in distribuzione?
cosa?:eek: non credo!!

fdadakjli
04-05-2004, 19:16
Originariamente inviato da Perfectdavid
ma sbaglio o ho letto che le ati già sono in distribuzione?
si mi pare che inizia proprio oggi la distribuzione e nelle prox settimane dovrebbe essere negli shop, speriamo non a 1 miliardo di €:(

Perfectdavid
04-05-2004, 19:18
Originariamente inviato da delly
si mi pare che inizia proprio oggi la distribuzione e nelle prox settimane dovrebbe essere negli shop, speriamo non a 1 miliardo di €:(

ma anche negozi italiani o solo in america?

-=Krynn=-
04-05-2004, 19:19
Sto tutto il giorno all'università e quando torno trovo tutta sta roba.

La prima parola che mi viene in mente è: :eek: :eek:

Ora aspetto a settembre, per vedere come si stabilizza la situazion, e poi upgrado tutto il pc, credo che dopo 3 anni sia anche l'ora.

Haku
04-05-2004, 19:20
porca @@@@ di già:eek: :eek: Nvidia cosa aspetta!!! E quanto verrà a costare da noi all'uscita??

andreamarra
04-05-2004, 19:21
Originariamente inviato da L\'Esecutore
Quello che mi chiedo è: siccome gli shader 3.0 non hanno introdotte grosse innovazioni, non potevano chiamarli 2.1 o 2.5; il 3.0 sembra qualcosa di rivoluzionario o cmq di innovativo:confused:


Ritengo sia una mera scelta di marketing. Un codice del tipo ps2.0plus o ps2.2X ha meno impatto negli acquirenti rispetto a un ps3.0 che connota dal punto di vista semiotico un balzo epocale. Che poi in realtà non c'è. O meglio, non attualmente.

L\'Esecutore
04-05-2004, 19:23
Originariamente inviato da andreamarra
Ritengo sia una mera scelta di marketing. Un codice del tipo ps2.0plus o ps2.2X ha meno impatto negli acquirenti rispetto a un ps3.0 che connota dal punto di vista semiotico un balzo epocale. Che poi in realtà non c'è. O meglio, non attualmente.

Verissimo, ma credevo che questi standard non li facessero le case produttrici, in teoria il marketing non dovrebbe centrare, poi si sa, nVidia (in questo caso) ha le mani lunghe

PSYCOMANTIS
04-05-2004, 19:24
Mamma che roba.......la 9800xt nei bench sembra una geppina.

andreamarra
04-05-2004, 19:28
prelevo da nvitalia uno shot preso da TechReport e ritagliato per esigeneze di spazio dall'utente Marcopon di nvitalia in cui vengono raffrontati i pixel shader 2.0 con il programma rthdbril (un demo "massive ps 2.0")... link http://www.daionet.gr.jp/~masa/rthdribl/#Download

http://mark0.ngi.it/var/x800-vs-nv40.jpg


praticamente la ati va più del doppio.


Ecco, questi sono i punti oscuri da chiarire (se dovesse essere reale e non farloccone il bench)...

Da una prima analisi attenta la nv40 ha fatto un progetto che ha completamente stravolto il nv30... ma qualcosa potrebbe essere rimasta come orrenda eredità?

andreamarra
04-05-2004, 19:31
Originariamente inviato da L\'Esecutore
Verissimo, ma credevo che questi standard non li facessero le case produttrici, in teoria il marketing non dovrebbe centrare, poi si sa, nVidia (in questo caso) ha le mani lunghe


non ti credere, il marketing ce l'hanno anche le case che sviluppano le features... Il marketing praticamente è in ogni cosa.

E' un matrix :p

nvidia non centra nulla nella scelta del nome, credo.

R@nda
04-05-2004, 19:32
praticamente la ati va più del doppio.
:eek:

Ce l'ho anche io il demo (ma non ve li dico i fsp:D )

andreamarra
04-05-2004, 19:33
Originariamente inviato da R@nda
:eek:

Ce l'ho anche io il demo (ma non ve li dico i fsp:D )

Io fra un pò lo faccio, e poi vado a vergognarmi... :asd:

andreamarra
04-05-2004, 19:37
Originariamente inviato da ballero



Nel forum di nvitalia chiedevi se la r420 aveva o meno il displacement mapping.

Fek ha assicurato di si, dicendo che la slide in giro su internet è errata.

andreamarra
04-05-2004, 19:40
Rilancio questo screen (dicono che sia certificato, ma come al solito io sono diffidente in queste cose) rilasciato da Hexus.net che confermerebbe il precedente da me postato, inserendo però una terza scheda ovvero la 9800XT


http://mark0.ngi.it/var/hexus-rthdribl.png



possibile?

MaBru
04-05-2004, 19:42
Originariamente inviato da ATi7500
fonte? :)


bYeZ!

Dave Baumann di beyond3d

http://www.beyond3d.com/forum/viewtopic.php?t=12041&postdays=0&postorder=asc&start=60

sanitarium
04-05-2004, 19:42
Originariamente inviato da andreamarra
Rilancio questo screen (dicono che sia certificato, ma come al solito io sono diffidente in queste cose) rilasciato da Hexus.net



http://mark0.ngi.it/var/hexus-rthdribl.png



possibile?

:sbavvv:

Rilancio, possibile??

Vifani
04-05-2004, 19:43
Originariamente inviato da Perfectdavid
ma anche negozi italiani o solo in america?

Le schede Radeon X800 PRO sono in distribuzione da subito. Entro una settimana saranno nei negozi. Almeno due o tre settimane, invece, bisognerà attendere per la X800 XT.

R@nda
04-05-2004, 19:44
Bhe....c'è anche lo shot in realtime,il demo lo abbiamo anche noi.
Devi solo lanciare l'Exe....non è che devi fare chissà cosa.

Secondo me è perchè Ati un'archittettura pienamente negli standard richiesti mentre Nvidia no.
magri dico boiate....

andreamarra
04-05-2004, 19:45
Originariamente inviato da sanitarium
:sbavvv:

Rilancio, possibile??

Sono già due siti a quanto leggo che lo certificano, io aspetterei.

Tra l'altro il demo prevede un uso massiccio di shader e di buffer fp, che non sono proprio da mettere in secondo piano considerando l'uso che ne faranno i prossimi giochi.

Haku
04-05-2004, 19:46
qunto costerà questa x800pro??
300€ ci si arriva? e basterà un ali da 400w non di marca?

Perfectdavid
04-05-2004, 19:46
grazie tante...quindi le pro troveremo settimana prossima nei negozi a che prezzo?
300?
la xt sarebbe cmq proibitico per me...500?
e nvidia invece tra quanto.

andreamarra
04-05-2004, 19:47
A default il mio sta sui 35 fps.....

Thunder82
04-05-2004, 19:47
Per chi chiedeva un bench con Neverwinter Nights:

http://www.anandtech.com/video/showdoc.html?i=2044&p=21

L\'Esecutore
04-05-2004, 19:48
Direttamente dalle parole di Baumann

geo wrote:
Is ATI ever going to invest in OpenGL drivers enough to be competitive with NV in that space? It seems to me that one of the next steps for them in confirming their leadership ought to be in stepping up on OGL and Linux.


An OpenGL re-write is underway internally at ATI now, these things take time though.

Athlon 64 3000+
04-05-2004, 19:48
Originariamente inviato da sanitarium
:sbavvv:

Rilancio, possibile??




Secondo me quel benchmark è fasullo

Raven
04-05-2004, 19:48
Originariamente inviato da Vifani
Le schede Radeon X800 PRO sono in distribuzione da subito. Entro una settimana saranno nei negozi. Almeno due o tre settimane, invece, bisognerà attendere per la X800 XT.

Mittttticcco!!!! :sofico:

R@nda
04-05-2004, 19:49
Originariamente inviato da Athlon 64 3000+
Secondo me quel benchmark è fasullo

Dici?
Ma lo hai scaricato?

Guarda che non è proprio niente di che da eseguire.....come si potrebbe fasullare un bench così semplice?

ballero
04-05-2004, 19:51
l'altro giorno la pubblicità leaked parlava di encoding via gpu anche per r420 ma nelle recensioni non ne ho trovato conferma.
c'è il vpe anche in r420?

goldorak
04-05-2004, 19:51
Originariamente inviato da MaBru
Dave Baumann di beyond3d

http://www.beyond3d.com/forum/viewtopic.php?t=12041&postdays=0&postorder=asc&start=60


Ci andrei con i piedi di piombo quando si ipotizza sui futuri driver per linux.
Fate un giro sul forum di rage3d e l'iimagine che ne viene fuori e' veramente deprimente.
Praticamente nel ultimo anno e mezzo lo sviluppo sotto linux si e' completamente arrestato. Non hanno neanche fatto dei bugfixes etc... :nono:
Ati si deve veramente dare una mossa con l'OpenGl sia sotto windows che sotto linux, perche' oramai privilegiare solo windows non e' accettabile.
Io sono passato da matrox ad ati qualche anno fa', ma nella valutazione della prossima scheda video che comprero' ci sara' anche il supporto sotto *nix.

Dark Schneider
04-05-2004, 19:53
Innanzitutto grande recensione. Complimenti davvero...per di più sto guardando anche altre review...ci son alcuni che la 6800 Ultra Extreme manco ce l'avevano..voi si!! :)

Praticamente due GPU sullo stessissimo livello queste R420 e NV40!!

Sul D3D a volte meglio l'uno a volte meglio l'altro...stessa cosa con i filtri. Anche se però l'Ati X800XT diciamo va un po' più forte in un maggior numero di test...sopratutto quando si parla di 1280x1024 e 1600x1200.

D'altro canto nVidia deve lavorare sui drivers più di Ati, cito le parole del Corsini:

NV40 e R420 sono soluzioni estremamente potenti: se le schede ATI hanno un margine di vantaggio attuale, quelle NVIDIA necessitano ancora di un notevole sviluppo dal versante driver a fronte dell'architettura completamente nuova.

L'Open GL invece che sempre è stato un punto di forza nVidia...ed un punto debole Ati..anche qui la situazione è invariata: nVidia va più forte.
Tra l'altro ho visto anche altri test altrove...con giochi Open GL in cui di solito non si hanno fps altissimi e le nVidia confermano le prestazioni superiori. Penso che SE Doom 3 dovesse uscire è cmq un bell'asso nella manica per nVidia visto che è un titolo Open GL dove appunto di solito nVidia va meglio. Non son un veggente, però se i giochi Open GL solitamente vanno meglio con nVidia, probabilmente accadrà la stessa cosa col titolo ID. HL2 poi sarà meglio Ati...ma cmq siamo alle solite:ci son titoli che va meglio l'una altri in cui va meglio l'altra. Appunto sono sullo stesso livello.

Cmq non c'è niente da dire...R420 è davvero una gran bella GPU..in D3D va un po' meglio di nVidia..anche se poi alla fine son entrambe ad altissimo livello.
Open GL invece conferma la classica tradizione: NV40 e nVidia in generale superiore.

L'unica pecca davvero..di nVidia..l'unica minchiata che ha fatto secondo me con NV40 è non andare sul Low-K o qlc di simile. Secondo me se adottava il Low-K...saliva parecchio ma parecchio. Già senza Low-K è salita tantissimo...chissà se adottavano il Low-K.Con NV40 non son saliti, ma il contrario. Probabilmente sarebbe stata la GPU FINALE con il Low-K incluso in D3D! ;)
La X800XT infatti secondo me molto si avvantaggia dal fatto che Ati è riuscita a salire molto. Cavolo ragà sui 100 Mhz di Core mi pare.....e oltre 400 Mhz come memorie rispetto alla 9800XT son un salto molto elevato. Direi che il Low-K si è rivelata una bella arma!! :)

La scheda migliore del gruppo cmq mi è sembrata la GeForce 6800 GT...migliore nel senso di prezzo/prestazioni. Scheda NON castrata...con tutte le 16 Pipeline e che non consuma granchè. Scheda secondo me da preferire a 6800 Ultra anche.

In definitiva: brava Ati e brava nVidia. Le vostre due nuove GPU mi son piaciute davvero tanto!! :)
Che continuino così.......adesso aspettiamo i prezzi!! :)


Ovviamente TUTTO IMHO!!:)

Vado a mangiare ragà!! :D

Perfectdavid
04-05-2004, 19:54
Originariamente inviato da goldorak
Ci andrei con i piedi di piombo quando si ipotizza sui futuri driver per linux.
Fate un giro sul forum di rage3d e l'iimagine che ne viene fuori e' veramente deprimente.
Praticamente nel ultimo anno e mezzo lo sviluppo sotto linux si e' completamente arrestato. Non hanno neanche fatto dei bugfixes etc... :nono:
Ati si deve veramente dare una mossa con l'OpenGl sia sotto windows che sotto linux, perche' oramai privilegiare solo windows non e' accettabile.
Io sono passato da matrox ad ati qualche anno fa', ma nella valutazione della prossima scheda video che comprero' ci sara' anche il supporto sotto *nix.


andrai su nvidia allora...

goldorak
04-05-2004, 19:58
Originariamente inviato da Perfectdavid
andrai su nvidia allora...

Per adesso mi tengo la fida 9800, in futuro vedro'.
Pero' se la situazione con l'OpenGl rimane invariata comprero' una scheda Nvidia.

Thunder82
04-05-2004, 20:03
http://techreport.com/reviews/2004q2/radeon-x800/power.gif

devis
04-05-2004, 20:07
Originariamente inviato da Thunder82
http://techreport.com/reviews/2004q2/radeon-x800/power.gif

:ave: :ave: :ave:

Grazie ai 0.13 Low-K e GDDR3 (in parte) la X800 a 475/900 e la X800 PRO 520/1120 addirittura consumano meno delle 9800XT a 412/730 :eek:

Peccato per l'openGL in cui la ATI viene demolita, speriamo migliorino i driver in tal senso.

Drio
04-05-2004, 20:07
Originariamente inviato da Perfectdavid
grazie tante...quindi le pro troveremo settimana prossima nei negozi a che prezzo?
300?
la xt sarebbe cmq proibitico per me...500?
e nvidia invece tra quanto.


Sul sito Ati vendono la PRO a $449, quindi se ci va di LUSSO la troveremo da noi a 450 Euro.......................:cry:

spero di sbagliarmi

Haku
04-05-2004, 20:07
400w marci quindi dovrebbero andar bene?

TheDarkAngel
04-05-2004, 20:07
Originariamente inviato da Thunder82
http://techreport.com/reviews/2004q2/radeon-x800/power.gif


come si vede che la extreme è una scheda video butta fuori in tutta fretta per non fare una pessima figura nelle recensioni ;)
non hanno nemmeno fixato l'idle.. bah...

Perfectdavid
04-05-2004, 20:08
mmm per non cambiare ali (350w) l'unica alternativa forse possibile sarebbe la ati pro

Haku
04-05-2004, 20:10
Originariamente inviato da Drio
Sul sito Ati vendono la PRO a $449, quindi se ci va di LUSSO la troveremo da noi a 450 Euro.......................:cry:

spero di sbagliarmi
450 per la pro?:eek: :cry: Io credevo sui 300 eurozzi!

Perfectdavid
04-05-2004, 20:11
piango insieme a te... :cry:
a sto punto spero max 399...

Thunder82
04-05-2004, 20:13
Originariamente inviato da andreamarra
prelevo da nvitalia uno shot preso da TechReport e ritagliato per esigeneze di spazio dall'utente Marcopon di nvitalia in cui vengono raffrontati i pixel shader 2.0 con il programma rthdbril (un demo "massive ps 2.0")... link http://www.daionet.gr.jp/~masa/rthdribl/#Download

http://mark0.ngi.it/var/x800-vs-nv40.jpg


praticamente la ati va più del doppio.


Ecco, questi sono i punti oscuri da chiarire (se dovesse essere reale e non farloccone il bench)...

Da una prima analisi attenta la nv40 ha fatto un progetto che ha completamente stravolto il nv30... ma qualcosa potrebbe essere rimasta come orrenda eredità?


Questo con la mia 9600XT

http://www.tombraiders.it/public/Immag_175.JPG

Haku
04-05-2004, 20:14
se sarà questa la cifra (400/450€) mi sa che dovrò aspettare che scendano coi prezzi!

Perfectdavid
04-05-2004, 20:18
ma io la voglio ora :D

Cfranco
04-05-2004, 20:18
Bisogna fare i complimenti ad ATI e a Nvidia , mai avevo visto un balzo di prestazioni così netto , generalmente le soluzioni "medie" di una generazione sono allineate al top della precedente , ma qui le varie 9800/5950 vengono ridicolizzate :eek:

ATI é ancora avanti , soprattutto nella gestione del filtro anisotropico mostra di aver un buon margine , ma Nvidia ha rimontato parecchio del distacco dovuto al fiasco NV30 .
Nella fascia "Paperon de' Paperoni" la scheda ATI sembra avere una marcia in più .
Nella fascia dei prezzi "umani" ( si fa per dire ) sarà lotta dura tra la 6800GT e la X800Pro , francamente vedo un pelo meglio la GT ma il listino sarà un fattore di scelta decisivo .
La mia 9800 pro é finita in fascia bassa :sob: .

goldorak
04-05-2004, 20:26
Originariamente inviato da Cfranco
La mia 9800 pro é finita in fascia bassa :sob: .

Adesso non esageriamo.
Dubito fortemente che le future schede di fascia media e medio-alta arrivino alle prestazioni delle schede high end 9800/pro etc... Le nostre schede sono tutt'altro che finite in fascia bassa......forse nella fascia bassa della fascia alta :sofico: :D
A me sta bene cosi' ;)

devis
04-05-2004, 20:28
Originariamente inviato da Cfranco
Bisogna fare i complimenti ad ATI e a Nvidia , mai avevo visto un balzo di prestazioni così netto , generalmente le soluzioni "medie" di una generazione sono allineate al top della precedente , ma qui le varie 9800/5950 vengono ridicolizzate :eek:


Il passaggio da 8500 a 9700 era stato ancor più netto.

Drio
04-05-2004, 20:38
Cmq queste nuove schede saranno buone però hanno dei prezzi troppo esagerati.

Io la mia 9700 liscia la ho comprata il giorno che è uscita (con tanto di fila davanti al negozio) a 350 Euro ed era la scheda top considerando la leggera differenza con la Pro.

Adesso una cazzo di scheda castrata a 12 pipeline me la fanno pagare 450 Euro? Questi sono matti..............:eek:

Per non parlare poi del prezzo scandaloso della 9800XT...speriamo che qualcuno torni con i piedi sulla terra.....:rolleyes:

Dark Schneider
04-05-2004, 20:42
Originariamente inviato da devis
:ave: :ave: :ave:

Grazie ai 0.13 Low-K e GDDR3 (in parte) la X800 a 475/900 e la X800 PRO 520/1120 addirittura consumano meno delle 9800XT a 412/730 :eek:

Peccato per l'openGL in cui la ATI viene demolita, speriamo migliorino i driver in tal senso.


Diciamo che non è tanto questione di drivers le prestazioni in Open GL. Semplicemente lì nVidia si è sempre comportata meglio. Un po' una tradizione per nVidia possiam dire!! :)

ATi7500
04-05-2004, 20:43
Originariamente inviato da Dark Schneider
Diciamo che non è tanto questione di drivers le prestazioni in Open GL. Semplicemente lì nVidia si è sempre comportata meglio. Un po' una tradizione per nVidia possiam dire!! :)

bhe sicuramente nn è una cosa legata all'architettura....


bYeZ!

goldorak
04-05-2004, 20:46
Originariamente inviato da Dark Schneider
Diciamo che non è tanto questione di drivers le prestazioni in Open GL. Semplicemente lì nVidia si è sempre comportata meglio. Un po' una tradizione per nVidia possiam dire!! :)


E' prepotentemente questione di drivers altroche'.
La Nvidia ha sempre investito grandi risorse nello sviluppo e nella ottimizzazione della componente OpenGl, cosa che la Ati per vari motivi non ha fatto e questo e' palese.

marwi
04-05-2004, 20:47
avete visto la conclusione della rece di hwupgrade?

"E' una soluzione di nicchia, che verrà proposta solo da alcuni partner di NVIDIA in soluzioni del tutto particolari; la produzione di queste schede sarà presumibilmente molto limitata, a motivo della difficoltà di ottenere buone rese per i chip NV40 all'elevata frequenza di clock di 450 MHz".

ati secondo me ha fatto un lavoro incredibile!

le 6800ultra extreme e le x800xt sono entrambe a 0.13micron, Nvidia però ha un numero di transistor più elevato e un chip a mio parere più complesso, oltre a questo ati utilizza il processo produttivo low-k già collaudato nelle 9600; ciò permette ad ati di ottenere frequenze di lavoro molto più elevate della 6800 senza scaldarsi eccessivamente (quindi con impianto di raffreddamento di tipo standard) e con un minore consumo energetico!

In questo ati ha battuto Nvidia secondo me....

in più ps e vs 3.0 a mio parere sono in questo momento inutili, nel giro di 6 mesi ati rinnoverà la gamma e può tranquillamente introdurli nei nuovi chip. Cmq non credo che verranno utilizzati in modo massiccio prima di 10mesi o 1 anno.

Interessante risulta essere il nuovo AA di ati, spero che i nouvi driver oltre che a dare il giusto bost di prestazioni, implementino questa funzione nel pannello di controllo!

Dark Schneider
04-05-2004, 20:48
Originariamente inviato da goldorak
Ci andrei con i piedi di piombo quando si ipotizza sui futuri driver per linux.
Fate un giro sul forum di rage3d e l'iimagine che ne viene fuori e' veramente deprimente.
Praticamente nel ultimo anno e mezzo lo sviluppo sotto linux si e' completamente arrestato. Non hanno neanche fatto dei bugfixes etc... :nono:
Ati si deve veramente dare una mossa con l'OpenGl sia sotto windows che sotto linux, perche' oramai privilegiare solo windows non e' accettabile.
Io sono passato da matrox ad ati qualche anno fa', ma nella valutazione della prossima scheda video che comprero' ci sara' anche il supporto sotto *nix.


L'Open GL ultimamente è l'ambito dove gioco di più. Oddio si gioco anche a quelli D3D, però c'è ad esempio NWN che è Open GL che è un gioco che gioco costantemente in rete. Gli altri giochi..poi non li riprendo.
Invece per me è una cosa obbligatoria la questione Linux. Alla fine al 90% utilizzo Linux per dire e continuerò ad usarlo sempre di più. Quindi appunto per me non è solo una questione di prestazioni......perchè alla fine le prestazioni ci sono sia se vai su Ati e sia se vai su nVidia...è anche questione non ludica insomma per me. Quindi il mio acquisto sarà la GeForce 6800 GT.

devis
04-05-2004, 20:50
Originariamente inviato da Dark Schneider
Diciamo che non è tanto questione di drivers le prestazioni in Open GL. Semplicemente lì nVidia si è sempre comportata meglio. Un po' una tradizione per nVidia possiam dire!! :)

E' solamente questione di driver. Nvidia essendo strettamente legata a Silicon Graphics (madre dell'OpeGL), è nettamente avvantaggiata nello sviluppo dei driver per questa API.

JoeLatino
04-05-2004, 20:51
Scusate,ma voglio porvi un quesito..tralasciando per un momento i giochi sapete come si comportano le varie schede in ambito opengl,e,cioe' con applicazioni grafiche 3d tipo lightwave,maya,3dmax? un'altra cosa che non se ne e' ancora parlato:da quello che so' io le schede Nvidia hanno la decodifica hardware mpeg/divx e la tv incorporata.Cosa mi dite di cio'?Grazie Joe

ballero
04-05-2004, 20:52
A nessuno interessa sapere se c'è il vpe in r420?:confused: :sofico: :sofico:

Dark Schneider
04-05-2004, 20:53
Originariamente inviato da goldorak
E' prepotentemente questione di drivers altroche'.
La Nvidia ha sempre investito grandi risorse nello sviluppo e nella ottimizzazione della componente OpenGl, cosa che la Ati per vari motivi non ha fatto e questo e' palese.


Si ma infatti è perchè nVidia s'è impegnata maggiormente in questo ambito. Però non è questione che risolvi così di colpo. nVidia son anni che ci lavora molto.

nVidia poi addirittura ha implementato in NV40 quella cosa del 32x0 che devo ancor capire bene come funziona..che cmq darà dei benefici pare in Doom 3 ed i titoli basati su questo motore. Insomma è un ambito in cui nVidia ha sempre investito e lavorato molto.

Non intendevo che non è una questione di drivers.....volevo dire che non è una questione che gli attuali drivers ati siano meno performanti in Open Gl. Semplicemente in generale son sempre stati così. In generale hanno sempre investito meno per l'Open GL come hai detto giustamente tu. :)

Cmq ottima scheda la X800 Xt davvero.

rubex
04-05-2004, 20:56
Originariamente inviato da JoeLatino
Scusate,ma voglio porvi un quesito..tralasciando per un momento i giochi sapete come si comportano le varie schede in ambito opengl,e,cioe' con applicazioni grafiche 3d tipo lightwave,maya,3dmax? un'altra cosa che non se ne e' ancora parlato:da quello che so' io le schede Nvidia hanno la decodifica hardware mpeg/divx e la tv incorporata.Cosa mi dite di cio'?Grazie Joe


X questa fascia di mercato usciranno le quadro nvidia e le firegl ati.

BYe

Dark Schneider
04-05-2004, 20:57
Originariamente inviato da devis
Nvidia essendo strettamente legata a Silicon Graphics (madre dell'OpeGL), è nettamente avvantaggiata nello sviluppo dei driver per questa API.


Certo esattamente.

devis
04-05-2004, 21:03
Aggiungo che NVIDIA ha "scippato" da SGI molti tecnici guru nell'OpenGL. :eek:

JoeLatino
04-05-2004, 21:03
Originariamente inviato da rubex
X questa fascia di mercato usciranno le quadro nvidia e le firegl ati.

BYe



se per questo anche in passato c'erano schede dedicate...ma io volevo sapere con queste come si comportano...

luckye
04-05-2004, 21:09
Toms ha già online la prova dell' R420 !!!!!!!!!!

R@nda
04-05-2004, 21:09
Originariamente inviato da luckye
Toms ha già online la prova dell' R420 !!!!!!!!!!

Ehhh buona seraaa eh?:D

Dark Schneider
04-05-2004, 21:13
Una domanda a Vifani: la Ati Radeon X800 XT Platinum Series è un modello speciale oppure è la X800 XT "classica"? Se ci sarà una classica...il modello classico avrà frequenze inferiori? :)

Maury
04-05-2004, 21:15
Originariamente inviato da luckye
Toms ha già online la prova dell' R420 !!!!!!!!!!

come si stava su marte ? freddo ? :p

TheDarkAngel
04-05-2004, 21:17
Originariamente inviato da Dark Schneider
Una domanda a Vifani: la Ati Radeon X800 XT Platinum Series è un modello speciale oppure è la X800 XT "classica"? Se ci sarà una classica...il modello classico avrà frequenze inferiori? :)

è il modello XT liscio...

Lord style
04-05-2004, 21:17
Originariamente inviato da luckye
Toms ha già online la prova dell' R420 !!!!!!!!!!


Qui stiamo già aspettando R480 e NV45 :D

R420 è obsoleto per noi. :old:


Scherzo, unisciti al discorso. ;)

luckye
04-05-2004, 21:19
Originariamente inviato da R@nda
Ehhh buona seraaa eh?:D

Vabbe non mi insultate :sofico: :sofico: :old:

R@nda
04-05-2004, 21:24
Originariamente inviato da luckye
Vabbe non mi insultate :sofico: :sofico: :old:
Manno figurati....hai già la tua punizione.

Leggere tutte le pagine di questo thread e dell'altro e la recensione messa su HwUpgrade.
:D

Lord style
04-05-2004, 21:27
Originariamente inviato da ballero
A nessuno interessa sapere se c'è il vpe in r420?:confused: :sofico: :sofico:


Interesserebbe anche a me. :)

Comunque non è stato pubblicizzato niente da ATi, quindi deduco che non ci sia nessuna novità rispetto alla vecchia generazione.


Qui ne parlano dettagliatamente. Addirittura NV40, per un probabile bug driver, carica più della generazione precedente la cpu, nonostante abbia via hardware una vpu. :)

Dark Schneider
04-05-2004, 21:27
Originariamente inviato da TheDarkAngel
è il modello XT liscio...


E' come lo chiameranno la versione speciale? Perchè sicuro come da tradizione ci sarà!! :D

luckye
04-05-2004, 21:32
Originariamente inviato da R@nda
Manno figurati....hai già la tua punizione.

Leggere tutte le pagine di questo thread e dell'altro e la recensione messa su HwUpgrade.
:D

Però.......parzialmente deluso. Ok va 2 volte piu veloce del 9800xt ma x la qualitò che ha fatto ati ? Nulla........stessi Vs,Px e il metodo di compressione delle texture. AA e AN neanche vanno più considerati......sono ormai di serie.
Devo dire che mi convince la 6800Ultra,almeno qualche novità di architettura l'ha. L R420 e un R300 modificato e ben poco innovato.

Dark Schneider
04-05-2004, 21:33
Ragà cmq Beyound 3d sarà pure autorevole, ma ha fatto un articolo schifoso: praticamente è solo tra schede Ati.:confused:

checo
04-05-2004, 21:34
Originariamente inviato da luckye
Però.......parzialmente deluso. Ok va 2 volte piu veloce del 9800xt ma x la qualitò che ha fatto ati ? Nulla........stessi Vs,Px e il metodo di compressione delle texture. AA e AN neanche vanno più considerati......sono ormai di serie.
Devo dire che mi convince la 6800Ultra,almeno qualche novità di architettura l'ha. L R420 e un R300 modificato e ben poco innovato.

il chip in se era ottimo gli hanno raddoppiato le prestazioni e che vuoi di più?

emax81
04-05-2004, 21:34
http://www.hardware4you.sm/nucleus/media/1/20040504-6.jpg

ke dite???

:sofico:

Kresselack
04-05-2004, 21:35
Cmq la sfida + interessante rimane quella di fascia media tra 6800GT e X800pro....anche se mi riesce dificile capire come una scheda con 12 pipe se la giochi con una con 16....

luckye
04-05-2004, 21:37
Originariamente inviato da checo
il chip in se era ottimo gli hanno raddoppiato le prestazioni e che vuoi di più?

INNOVAZIONE.........Boh alla fine un R300 pompato e stop. Almeno nvidia ha messo i Vs e Ps 3.0,la storia dei video in real time. Insomma ha provato a innovare un pò......
Ora come ora ho una 9500Pro e sono soddisfattissimo......ma l'R420 oltre le prestazioni 3,5volte maggiore della mia non ha nulla......

;)

Maury
04-05-2004, 21:40
Originariamente inviato da luckye
oltre le prestazioni 3,5volte maggiore della mia non ha nulla......

;)

a beh allora nn serve ad un c@@@@ :sofico:

737373
04-05-2004, 21:40
Originariamente inviato da luckye
3,5volte maggiore della mia non ha nulla......

;)

:sofico: c è chi si accontenta... cosa volevi ?? :rolleyes:

ATi7500
04-05-2004, 21:41
Originariamente inviato da luckye
INNOVAZIONE.........Boh alla fine un R300 pompato e stop. Almeno nvidia ha messo i Vs e Ps 3.0,la storia dei video in real time. Insomma ha provato a innovare un pò......
Ora come ora ho una 9500Pro e sono soddisfattissimo......ma l'R420 oltre le prestazioni 3,5volte maggiore della mia non ha nulla......

;)

- i vantaggi delle 3dc si sono visti e rivisti
- le prestazioni 3.5 volte maggiori t permettono un uso dei filtri maggiore e più continuativo
- se poi a te va bene l'fp 16 (il 32 è solo teorico) d nvidia e non l'fp 24 d ati allora io nn so proprio ke dire


bYeZ!

Gioman
04-05-2004, 21:41
Originariamente inviato da luckye
Però.......parzialmente deluso. Ok va 2 volte piu veloce del 9800xt ma x la qualitò che ha fatto ati ? Nulla........stessi Vs,Px e il metodo di compressione delle texture. AA e AN neanche vanno più considerati......sono ormai di serie.
Devo dire che mi convince la 6800Ultra,almeno qualche novità di architettura l'ha. L R420 e un R300 modificato e ben poco innovato.

Si in effetti per farsi due toast, una torta , etc. la 6800 ultra è veramente innovativa, poi occupa poco spazio, non hai bisogno di cambiare ali (se non hai neanche una periferica installata)

luckye
04-05-2004, 21:43
Oh aspettate un'attimo.......

Dico che è dai tempi della voodoo1 che si va sempre più veloci.....sempre di più.........sempre più in sù ma alla fine per cosa ?
L'unico cosa che ha un pò cambiato le carte in tavola sono stati i Ps e i Vs che solo adesso (vedi far cry) iniziano a essere usati seriamente.
Non sò......e che mi aspetto da ogni nuova generazione di chip contenga specifiche tecniche sempre più raffinate. L'R420 è fermo a due anni fa sotto questo aspetto.

JoeLatino
04-05-2004, 21:47
comunque in opengl Ati fa' un po' schifo,o sbaglio?