View Full Version : Radeon r420 su Hwupgrade
Paolo Corsini
04-05-2004, 15:37
Buongiorno a tutti,
solo per comunicare che
1) si, abbiamo Radeon X800 in redazione
2) si, abbiamo testato le schede
3) si, stiamo per pubblicare l'articolo
ma
4) siamo in ritardo. Ora sono le 15.30, non penso che riusciremo a pubblicare prima delle 17.
Ieri sera, alle 18.30, abbiamo ricevuto due nuove schede video da NVIDIA: GeForce 6800 GT e GeForce 6800 Ultra Extreme. Per questo motivo abbiamo dovuto rifare tutti i test con queste schede, oltre che con la GeForce 6800 Ultra per sfruttare i nuovi driver 61.11
Ancora un po' di pazienza e anche il nostro pezzo sarà on line: garantisco che ci saranno cose molto interessanti.
Grazie :)
Grande! ;)
Mi raccomando però per le 17, che dopo devo andare ad allenamento! :D
Non vorrete mica farmi nuotare senza aver letto la recensione di Hwupgrade?! :asd:
falcon.eddie
04-05-2004, 15:39
:p Non vediamo l'ora!!! :cool:
sanitarium
04-05-2004, 15:41
Restiamo in attesa. :)
JENA PLISSKEN
04-05-2004, 15:41
Grande Paolo....:winner: :winner:
Attendo con ansia.
P\S
Ehmmm...con immensa vergogna...come trovi la mia guida in sign??:D Quando avrai tempo...
Aspetterò, da te mi aspetto di sicuro un articolo completo e ben fatto! :)
Buon lavoro! :)
halduemilauno
04-05-2004, 15:42
Originariamente inviato da Paolo Corsini
Buongiorno a tutti,
solo per comunicare che
1) si, abbiamo Radeon X800 in redazione
2) si, abbiamo testato le schede
3) si, stiamo per pubblicare l'articolo
ma
4) siamo in ritardo. Ora sono le 15.30, non penso che riusciremo a pubblicare prima delle 17.
Ieri sera, alle 18.30, abbiamo ricevuto due nuove schede video da NVIDIA: GeForce 6800 GT e GeForce 6800 Ultra Extreme. Per questo motivo abbiamo dovuto rifare tutti i test con queste schede, oltre che con la GeForce 6800 Ultra per sfruttare i nuovi driver 61.11
Ancora un po' di pazienza e anche il nostro pezzo sarà on line: garantisco che ci saranno cose molto interessanti.
Grazie :)
perfetto e buon lavoro.
:) :)
Ottimo buone notizie, alle 17:00 allora:cool:
melomanu
04-05-2004, 15:45
da alcune recensioni su altri siti, pare ke questa scheda, nonostante nn apporti innovazioni nell'architettura stravolgenti, abilitando i filtri spakki di brutto !!!
aspettiamo la super-rece di Corsini, e vedremo ;)
Una sessione di test interminabile... :muro: ma vedrete che ne varrà la pena ;)
MaxFactor[ST]
04-05-2004, 15:46
Meno male, stavo per aprire una discussione e scatenare un Flame!!!!!!!!!
Ho visto su TGMOnline che ne parlavano e mi stavo preoccupando!
redbaron
04-05-2004, 15:46
Viste le premesse sono sicuro che sara' una recensione davvero completa. ;)
ShadowThrone
04-05-2004, 15:47
go Corsini go!!!!
:D
shinji_85
04-05-2004, 15:47
Originariamente inviato da Paolo Corsini
Buongiorno a tutti,
solo per comunicare che
1) si, abbiamo Radeon X800 in redazione
2) si, abbiamo testato le schede
3) si, stiamo per pubblicare l'articolo
ma
4) siamo in ritardo. Ora sono le 15.30, non penso che riusciremo a pubblicare prima delle 17.
Ieri sera, alle 18.30, abbiamo ricevuto due nuove schede video da NVIDIA: GeForce 6800 GT e GeForce 6800 Ultra Extreme. Per questo motivo abbiamo dovuto rifare tutti i test con queste schede, oltre che con la GeForce 6800 Ultra per sfruttare i nuovi driver 61.11
Ancora un po' di pazienza e anche il nostro pezzo sarà on line: garantisco che ci saranno cose molto interessanti.
Grazie :)
Meno male... Aspettero' con ansia :sofico: (scherzo)
Lo leggero' stasera prima di cena.
Grazie per il vostro lavoro.
redbaron
04-05-2004, 15:48
Originariamente inviato da MaxFactor[ST]
Meno male, stavo per aprire una discussione e scatenare un Flame!!!!!!!!!
Ho visto su TGMOnline che ne parlavano e mi stavo preoccupando!
:rolleyes:
bello
inizialmente me la sono preso con hwu..visto il ritardo ..xò posso capire..
aspetto con ansia..
Buon lavoro alla redazione! Non mettetevi fretta, per me anche se la pubblicate stasera va bene uguale, tanto è questine di poco ormai:D
L'importante è che non facciate errori nella fretta di finire il lavoro;) :cool:
Che spettacolo:D :D :D
nonikname
04-05-2004, 15:53
Bella storia , con le nuove schede Nvidia , i nuovi driver e le nuove ATI dovrebbe uscirne fuori un bell'articolone..
Fra l'altro non ho ancora visto su nessun sito come va , ne la 6800GT , ne la liscia.. quindi un motivo in più per aspettare , perchè sarà sicuramente IL round-up del Millennio.....:sofico:
Se alle 17.01 l'articolo non è pronto vengo su a darvi una mano :D
Ottimo, mi sono collegato giusto adesso e mi aspettavo la recensione in prima pagina, e invece niente!!
Sono andato sul sito ATI, e lì è uscita... panico...
Poi ho letto qui e... tutto ok, non penso di essere il solo disposto ad aspettare qualche ora in più per un'ottima recensione, piuttosto che uscita in fretta e fatta male!
E... uhm... cos'è la 6800 Ultra Extreme?? Una 6800 Ultra con le frequenze promesse all'inizio vero? :p
Legolas84
04-05-2004, 15:56
Ottimo.... non vedo l'ora :cool:
nonikname
04-05-2004, 15:58
Originariamente inviato da BMWZ8
Buon lavoro alla redazione! Non mettetevi fretta, per me anche se la pubblicate stasera va bene uguale, tanto è questine di poco ormai:D
L'importante è che non facciate errori nella fretta di finire il lavoro;) :cool:
Che spettacolo:D :D :D
Io sinceramente passerei volentieri sopra un po di errori di sintassi per vedere l'articolo prima possibile ....(ricordiamocelo , siamo qui per giudicare l'hardware e non gli errori di battitura .........)
melomanu
04-05-2004, 15:59
ollelleee...ollallaaa....
faccela vedeee....
faccela compràààà
:sofico: :sofico:
Originariamente inviato da melomanu
ollelleee...ollallaaa....
faccela vedeee....
faccela compràààà
:sofico: :sofico:
L'ultima strofa sarebbe meglio con un:
faccela regalààà
visto i costi proibitivi! :D
Originariamente inviato da nonikname
Io sinceramente passerei volentieri sopra un po di errori di sintassi per vedere l'articolo prima possibile ....(ricordiamocelo , siamo qui per giudicare l'hardware e non gli errori di battitura .........)
mi pareva ovvio che non intendevo errori di battitura, ma qualche possibile svista nei test, ora che ne so!
errori di battitura...
nonikname
04-05-2004, 16:11
Originariamente inviato da BMWZ8
mi pareva ovvio che non intendevo errori di battitura, ma qualche possibile svista nei test, ora che ne so!
errori di battitura...
Ops , speriamo proprio di no , almeno i test dovrebbero farli bene
:fagiano:
Resta il fatto che avrei preferito leggere la prima rece dell'R420 su HWupg. che su uno di questi siti : ( :rolleyes: )
HardOCP
Ascully
DriverHeaven
TrustedReviews
K-Hardware
Hardware Analysis
Hexus
The Tech Report
Beyond3D
^TiGeRShArK^
04-05-2004, 16:13
meno male ... posso smettere di refreshare l'homepage una volta al minuto....
;)
melomanu
04-05-2004, 16:14
Originariamente inviato da ^TiGeRShArK^
meno male ... posso smettere di refreshare l'homepage una volta al minuto....
;)
ma loool..
sindrome da click impazzito !!??
:sofico: :sofico: :D
Originariamente inviato da ^TiGeRShArK^
meno male ... posso smettere di refreshare l'homepage una volta al minuto....
;)
:asd:
Lo stavo facendo anche io, tanto che pensavo di metterci un bot a farlo! :D
Originariamente inviato da MaxFactor[ST]
Meno male, stavo per aprire una discussione e scatenare un Flame!!!!!!!!!
Ho visto su TGMOnline che ne parlavano e mi stavo preoccupando!
Bravo torna a leggere tgm allora:rolleyes:
insane74
04-05-2004, 16:19
Originariamente inviato da ^TiGeRShArK^
meno male ... posso smettere di refreshare l'homepage una volta al minuto....
;)
uso MyIE2 con l'autorefresh... :sofico:
nonikname
04-05-2004, 16:28
Originariamente inviato da BMWZ8
mi pareva ovvio che non intendevo errori di battitura, ma qualche possibile svista nei test, ora che ne so!
errori di battitura...
Ops , speriamo proprio di no , almeno i test dovrebbero farli bene
:fagiano:
Resta il fatto che avrei preferito leggere la prima rece dell'R420 su HWupg. che su uno di questi siti : ( :rolleyes: )
HardOCP
Ascully
DriverHeaven
TrustedReviews
K-Hardware
Hardware Analysis
Hexus
The Tech Report
Beyond3D
nonikname
04-05-2004, 16:31
Temporal antialiasing — This new antialiasing feature is actually a driver trick that exploits the programmability of ATI's antialiasing hardware. We'll discuss it in more detail in the antialiasing section of the review.
"In practice, temporal AA is nifty, but not perfect. With the right game and the right frame rates, 2X temporal AA looks for all the world like 4X AA. The difference is more subtle with higher AA modes, as one might expect, but temporal AA can be very effective. However, the 60 FPS cutoff seemed a little low on the Trinitron CRT I used for testing. I could see discernible flicker on high-contrast edges from time to time, and I didn't like it. Also, the 60 fps cutoff causes temporal AA to switch on and off periodically during gameplay. The difference between 2X "regular" and 2X temporal (or 4X effective) AA is large enough that I was distracted by the transition. "
Paolo Corsini
04-05-2004, 16:39
Regalino per i più pazienti :D
Praticamente la X800 va il doppio di una 9800XT e si mette dietro nvidia un altra volta :sbavvv: :sbavvv: :sbavvv:
sanitarium
04-05-2004, 16:42
Originariamente inviato da Paolo Corsini
Regalino per i più pazienti :D
In questo test neanche la 6800ultra extreme riesce a superare la X800XT! :eek:
TheDarkAngel
04-05-2004, 16:42
Originariamente inviato da Paolo Corsini
Regalino per i più pazienti :D
:sbav::sbav::sbav:
melomanu
04-05-2004, 16:43
:eek: :eek: :eek:
una bestia di schedaaaa
mitico corsiniiiiiiiiiiiiiiiiiiiiii
:D
andreamarra
04-05-2004, 16:44
Originariamente inviato da sanitarium
In questo test neanche la 6800ultra extreme riesce a superare la X800XT! :eek:
che poi a quanto ho capito dovrebbe essere una versione con frequenze OC rispetto alla ultra...
E la platinum edition della X800Xt dovrebbe essere la stessa cosa...
:oink:
Paolo in redazione avete i Cat.4.5??
BYe
andreamarra
04-05-2004, 16:45
Faccio una richiesta ai gentili redattori di HU ;) :
possibile avere dei bench su game only OpenGl?
Sempre che non li stiate già preparando... :D
sanitarium
04-05-2004, 16:46
Originariamente inviato da andreamarra
che poi a quanto ho capito dovrebbe essere una versione con frequenze OC rispetto alla ultra...
E la platinum edition della X800Xt dovrebbe essere la stessa cosa...
:oink:
Oltretutto se già la 6800ultra costa come la X800XT, quanto costerà la 6800ultra extreme? :D :sofico:
nn vedo l'ora dell'articolo intero
:)
zerothehero
04-05-2004, 16:48
Originariamente inviato da sanitarium
Oltretutto se già la 6800ultra costa come la X800XT, quanto costerà la 6800ultra extreme? :D :sofico:
Da più parti si vocifera 600 euro + un rene..puoi scegliere tu quale vendere però ;)
sanitarium
04-05-2004, 16:50
Originariamente inviato da zerothehero
Da più parti si vocifera 600 euro + un rene..puoi scegliere tu quale vendere però ;)
Fortunatamente per me il problema della scelta del rene non si pone, perché per il momento non mi posso affatto permettere di cambiare la mia bellissima 9700pro! :D :cry:
Originariamente inviato da zerothehero
Da più parti si vocifera 600 euro + un rene..puoi scegliere tu quale vendere però ;)
Sì, avevo sentito anche io. Però hai la possibilità di scegliere tra il rene, e il concedere al CEO di Nvidia lo ius prime noctis con tua moglie.
:asd:
andreamarra
04-05-2004, 16:50
Mancano 10 minuti o giù di li... ma io non ho capito: la Platinum edition è un'altra versione più pompata della X800XT oppure hanno lo stesso nome?
Ovviamente sarebbe interessante sapere come vanno in overclok... :fiufiu: ;)
andreamarra
04-05-2004, 16:53
Originariamente inviato da sanitarium
Fortunatamente per me il problema della scelta del rene non si pone, perché per il momento non mi posso affatto permettere di cambiare la mia bellissima 9700pro! :D :cry:
Anch'io credo di "saltare generazione", a meno che non escano giochi che impongano questa potenza assurda. Ma non credo...
Cmq mi vedrò costretto a vendere la dolce hercolina perchè altrimenti non recupererei niente dal mercatino... insomma non posso farla deprezzare tanto. In più per un collezzionista potrebbe anche essere "un must", essendo a pcb rosso e dissy su ram e su gpu identico alla 9800PRO, neon blu compreso... ;)
Originariamente inviato da Paolo Corsini
Regalino per i più pazienti :D
stica...impressive :eek:
:D
rimango in attesa :p
falcon.eddie
04-05-2004, 16:56
Dov è,dov è??????????
sono le 17:01!!!!!!!!!!!!!!!!!!!!!! :mc: :mc:
16:56...Bon,l'orologio mi va avanti. :sofico:
Paolo Corsini
04-05-2004, 16:57
Altro regalino, anche perché siamo un po' indietro rispetto alla tabella iniziale.
Sorry, ma stiamo ancora finendo gli ultimi test con la NV40 Ultra per via dei nuovi driver. Il resto è tutto pronto e impaginato sul server.
Originariamente inviato da Paolo Corsini
Altro regalino, anche perché siamo un po' indietro rispetto alla tabella iniziale.
Call of Duty ...
Beh, in OpenGL è sempra andata meglio Nvidia.
Quindi ci dobbiamo aspettare la rece per le 17:30? :)
Originariamente inviato da Paolo Corsini
Altro regalino, anche perché siamo un po' indietro rispetto alla tabella iniziale.
Sorry, ma stiamo ancora finendo gli ultimi test con la NV40 Ultra per via dei nuovi driver. Il resto è tutto pronto e impaginato sul server.
Humm...qua la situazione si controbilancia :)
Sarà un'interessantissima rece ;)
Intanto vi faccio i compliments in anticipo...vado in ficucia :D
melomanu
04-05-2004, 16:59
:eek: :eek:
situazione ribaltata... da aspettarselo, essendo opengl....
:what:
mmm... l'attesa si fa snervante
:sofico:
falcon.eddie
04-05-2004, 16:59
Originariamente inviato da Paolo Corsini
Altro regalino, anche perché siamo un po' indietro rispetto alla tabella iniziale.
Sorry, ma stiamo ancora finendo gli ultimi test con la NV40 Ultra per via dei nuovi driver. Il resto è tutto pronto e impaginato sul server.
CVD in OpenGL nvidia rimane sopra...pure la 6800GT sta davanti alla X800XT PE. :eek:
andreamarra
04-05-2004, 17:00
Originariamente inviato da melomanu
:eek: :eek:
situazione ribaltata...
:what:
E' un gioco openGl...
io aspetto un bel far cry...
Originariamente inviato da Paolo Corsini
Altro regalino, anche perché siamo un po' indietro rispetto alla tabella iniziale.
Sorry, ma stiamo ancora finendo gli ultimi test con la NV40 Ultra per via dei nuovi driver. Il resto è tutto pronto e impaginato sul server.
come sempre nvidia va megli in opengl
:gluglu: :gluglu: :gluglu: :eekk:
Paolo sai qualcosa in merito a questo? :p
http://www.beyond3d.com/reviews/ati/r420_x800/images/aces.jpg
BYe
Originariamente inviato da melomanu
:eek: :eek:
situazione ribaltata...
:what:
Sì ma, come detto, che ci frega dell'OpenGL? ;)
I risultati su guardano su Far Cry :D
Cmq speriamo Ati migliori i Catalyst circa le OpenGL, perchè io Doom III lo voglio godere al meglio, avendo anche speso 350€ per una vga
melomanu
04-05-2004, 17:01
Originariamente inviato da andreamarra
E' un gioco openGl...
io aspetto un bel far cry...
si infatti, hai ragione..mi son corretto dopo...
:p
zerothehero
04-05-2004, 17:01
Originariamente inviato da sanitarium
Fortunatamente per me il problema della scelta del rene non si pone, perché per il momento non mi posso affatto permettere di cambiare la mia bellissima 9700pro! :D :cry:
Ma fai bene...se avessi una 9700 pro aspetterei la prossima generazione...in fin dai conti questa scheda inizia a faticare solo a 1600*1200...io invece che ho una 4200 ho già preparato i soldini...questa volta spenderò senza alcun ritegno :angel: spero che i prezzi siano sui 400-450 euro altrimenti mi toccare vendere il :ciapet: :eekk:...vorrei provare finalmente il brivido dell'antialiasing dopo 7 anni di onorata carriera di videogiocatore..:oink:
andreamarra
04-05-2004, 17:02
Originariamente inviato da prova
Sì ma, come detto, che ci frega dell'OpenGL? ;)
I risultati su guardano su Far Cry :D
Cmq speriamo Ati migliori i Catalyst circa le OpenGL, perchè io Doom III lo voglio godere al meglio, avendo anche speso 350€ per una vga
Concordo, io però sarò malizioso ma aspetto ancora qualche giorno. Vorrei evitare di leggere sulla rete notizie truffaldine da una parte o dall'altra...
Originariamente inviato da Paolo Corsini
Altro regalino, anche perché siamo un po' indietro rispetto alla tabella iniziale.
Sorry, ma stiamo ancora finendo gli ultimi test con la NV40 Ultra per via dei nuovi driver. Il resto è tutto pronto e impaginato sul server.
Hmh ... magari sto test togliamolo dalla rece :sofico: :p
Scherzo scherzo :asd:
Originariamente inviato da andreamarra
E' un gioco openGl...
io aspetto un bel far cry...
giusta precisazione, che avevo omesso ;)
andreamarra
04-05-2004, 17:04
Piuttosto, mi piacerebbe vedere una road map dei prossimi giochi OpenGL, sono curioso sul numero.
Originariamente inviato da andreamarra
Piuttosto, mi piacerebbe vedere una road map dei prossimi giochi OpenGL, sono curioso sul numero.
Doom 3 che tanto nn esce, e poi i figli, che tanto se non esce il padre nn vedranno mai la luce :sofico:
luca.coggiola
04-05-2004, 17:05
:O sii benedetto Paolo Corsini :O
Pure la rece :O
E anche le ATI:O
Originariamente inviato da Maury
Doom 3 che tanto nn esce, e poi i figli, che tanto se non esce il padre nn vedranno mai la luce :sofico:
Doom 3 non esiste.
E Carmack è un bot di Usenet :asd:
TheDarkAngel
04-05-2004, 17:07
Originariamente inviato da prova
Sì ma, come detto, che ci frega dell'OpenGL? ;)
I risultati su guardano su Far Cry :D
Cmq speriamo Ati migliori i Catalyst circa le OpenGL, perchè io Doom III lo voglio godere al meglio, avendo anche speso 350€ per una vga
guarda anche per me i driver ati in opengl sono pesantemente poco ottimizzati... figuriamoci ora che hanno una architettura nuova...
xò ati potrebbe darsi na mossa con le opengl...
zerothehero
04-05-2004, 17:07
ok ho capito me ne esco e vado in palestra altrimenti passo un ora a refreshare il sito ....al ritorno voglio la rece :huh::boxe::mano:....certo che nvidia poteva mandarvi un pò prima le schede...:rolleyes:
BRAVISSIMI!!!! :winner:
che bello che è tornato questo forum nella sezione schede video!!!
TheDarkAngel
04-05-2004, 17:07
Originariamente inviato da andreamarra
Piuttosto, mi piacerebbe vedere una road map dei prossimi giochi OpenGL, sono curioso sul numero.
sono sempre meno....
Per Doom 3 ci vuole un cesario ... :D
nonikname
04-05-2004, 17:08
http://techreport.com/reviews/2004q2/radeon-x800/pop.gif
andreamarra
04-05-2004, 17:09
Originariamente inviato da TheDarkAngel
guarda anche per me i driver ati in opengl sono pesantemente poco ottimizzati... figuriamoci ora che hanno una architettura nuova...
xò ati potrebbe darsi na mossa con le opengl...
Ecco perchè chiedevo sul numero. Di DooMIII mi aspetterei un supporto anche da parte ati.
Cmq, ci sarò un motivo se non sfruttano le librerie OpenGL.
andreamarra
04-05-2004, 17:09
Originariamente inviato da nonikname
http://techreport.com/reviews/2004q2/radeon-x800/pop.gif
Non ce n'è uno anche con AA e con risoluzione maggiore...?
nonikname
04-05-2004, 17:12
No però ti do questo che è meglio........
http://www.beyond3d.com/reviews/ati/r420_x800/images/ss2_3dc2.jpg
Edit: Serious Sam 2 --->>3DC Demo Uncompressed (left) and Compressed (Right) Normals
[QUOTE]Originariamente inviato da nonikname
No però ti do questo che è meglio........
Io ... io ... ti amo :smack:
MaxFactor[ST]
04-05-2004, 17:15
quote:
--------------------------------------------------------------------------------
Originariamente inviato da MaxFactor[ST]
Meno male, stavo per aprire una discussione e scatenare un Flame!!!!!!!!!
Ho visto su TGMOnline che ne parlavano e mi stavo preoccupando!
--------------------------------------------------------------------------------
Originariamente inviato da redbaron
:rolleyes:
scusami, visto che non hai capito l'ironia snza la faccina...
la metto ora...
:D
andreamarra
04-05-2004, 17:16
Originariamente inviato da nonikname
No però ti do questo che è meglio........
AHHHHHH!!!!
Ottimo questa tecnica di compressione delle texture... fek ne parla molto bene :)
E dice che non è proprietaria, e può essere sfruttata anche da nvidia ;)
guardate il pallone :sofico:
Slamdunk
04-05-2004, 17:17
Evvai, anche con 2 nuove schede nVidia, mejo di Tom :asd:
PhoEniX-VooDoo
04-05-2004, 17:19
SS2!! stupendo :eek: ...notare anche il Logo ATI dietri i due energumeni pesantemente shaderati...uhmz sarà che le X800 si troveranno particolarmente a loro agio con questo giochillo? :D
cmq molto bella l'interfaccia dei presunti nuovi drivers postata 2 pg fa! Sono i cata 4.5?
andreamarra
04-05-2004, 17:21
Si dovrebbe essere (se il mio tedesco -e non lo conosco affatto- non mi fa toppare) il pannello dei nuovi catalyst... very cool :)
nonikname
04-05-2004, 17:24
Originariamente inviato da andreamarra
:confused: ???
Il fatto è che mi sembra di aver capito che la nv40 soffre particolarmente l'uso di AA e risoluzioni elevate, volevo vedere se era confermato.
Secondo me a 1600x 1200 l'aa è quasi superfluo , ma sembra che alla Nvidia stiano aggiungendo la correzione di gamma per migliorarlo e gia nei driver che ha corsini l'AA8x dovrebbe essere gia piu "usabile"....
Per gli inguaribili sfegATIati :vicini:
Serious Sam 2 ---> 3Dcompression Demo
http://www.beyond3d.com/reviews/ati/r420_x800/images/ss2_3dc1.jpg
andreamarra
04-05-2004, 17:25
Originariamente inviato da PhoEniX-VooDoo
SS2!! stupendo :eek: ...notare anche il Logo ATI dietri i due energumeni pesantemente shaderati...uhmz sarà che le X800 si troveranno particolarmente a loro agio con questo giochillo? :D
cmq molto bella l'interfaccia dei presunti nuovi drivers postata 2 pg fa! Sono i cata 4.5?
A quanto ho letto dovrebbe essere a suo agio con tutti i giochi di prossima uscita che sfrutteranno questa tecnica di compressione....
andreamarra
04-05-2004, 17:27
Originariamente inviato da nonikname
Secondo me a 1600x 1200 l'aa è quasi superfluo , ma sembra che alla Nvidia stiano aggiungendo la correzione di gamma per migliorarlo e gia nei driver che ha corsini l'AA8x dovrebbe essere gia piu "usabile"....
Per gli inguaribili sfegATIati :vicini:
Serious Sam 2 ---> 3Dcompression Demo
Lo so che è superfluo, però mi serviva come idea per vedere sotto stress clamoroso se una delle due cominciava a zoppicare. Diciamo che mi serviva per un raffronto possibile su quello che può succedere nei prossimi giochi che saranno molto più pompati. insomma, come una previsione per il futuro :)
andreamarra
04-05-2004, 17:29
Ok, mi funo una sigaretta 100's e se quandfo torno non trovo la rece... :mad:
me ne funo un'altra :asd:
:)
nonikname
04-05-2004, 17:37
Beccatevi queste allora , mentre fumate una sigaretta!!
http://techreport.com/reviews/2004q2/radeon-x800/ruby1.jpg
Ruby makes her entrance—in red leather
http://techreport.com/reviews/2004q2/radeon-x800/ruby2.jpg
Perhaps the most impressive shot of the demo is this close-up of Ruby's face
http://techreport.com/reviews/2004q2/radeon-x800/ruby3.jpg
Better eyes than Half-Life 2?
http://techreport.com/reviews/2004q2/radeon-x800/ruby4.jpg
Depth of field concentrates the viewer's eye
http://techreport.com/reviews/2004q2/radeon-x800/ruby5.jpg
Optico eyes the gem, which has front and back face
refractions, specular and environmental lighting
http://techreport.com/reviews/2004q2/radeon-x800/ruby6.jpg
Ruby takes out some NVninjas as a throwing star hurtles her way (NVninjas :D )
Originariamente inviato da andreamarra
Ok, mi funo una sigaretta 100's e se quandfo torno non trovo la rece... :mad:
me ne funo un'altra :asd:
:)
idem
Ma fatemi capire: quel filmato di Ruby che ho scaricato ... stava girando IN TEMPO REALE su un R420 o era solo computer graphic?! :eek:
Originariamente inviato da prova
Ma fatemi capire: quel filmato di Ruby che ho scaricato ... stava girando IN TEMPO REALE su un R420 o era solo computer graphic?! :eek:
Ma che domande fai?:D
nonikname
04-05-2004, 17:40
Real time 3d !!!!!!!!!!!!
scusate l'ot da dove si scarica quel fimato di ruby...?
Ma ... ma ... ma allora è impressionante!! :cry:
Con R500 allora potremmo giocare con un motore grafico della qualità di Shrek !?!
:eek:
viste le rece sugli altri siti ormai non ci sono più dubbi...
ATI ha tirato fuori un altra scheda massacra-nVidia...
credo che non ci siano più dubbi su chi sia il nuovo leader tra i produttori di chip video
:)
Sono ancora incredulo ... sto pensando alla qualità grafica dei futuri giochi su console, che implementaranno R500 e cose del genere. :oink:
Mio dio .... sarà la mazzata finale per la mia vita sociale. Praticamente uscirò di casa solo per andare al lavoro e ad allenamento.
Dirò alla mia morosa che se vuole vedermi dovrà trasferirsi il prima possibile in casa mia :asd:
andreamarra
04-05-2004, 17:48
Originariamente inviato da bonjo75
scusate l'ot da dove si scarica quel fimato di ruby...?
sito www.ati.com
cerca il demo... :oink:
TheDarkAngel
04-05-2004, 17:48
a breve chiederò danni al sig corsini per il consumo anomalo del tasto F5 :D
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2122.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2120.png
ci sono ancora dei giochi che sono "feudi" nVidia, ma basta attivare l'AA e la situazione si capovolge...
impressive...
:)
Slamdunk
04-05-2004, 17:50
Originariamente inviato da TheDarkAngel
a breve chiederò danni al sig corsini per il consumo anomalo del tasto F5 :D
ROOOTFL, idem :asd: :asd: :asd:
Originariamente inviato da Manp
viste le rece sugli altri siti ormai non ci sono più dubbi...
ATI ha tirato fuori un altra scheda massacra-nVidia...
credo che non ci siano più dubbi su chi sia il nuovo leader tra i produttori di chip video
:)
Non esagerare.
In opengl tanto per dire ati sta ancora dietro, e anche nel mondo linux.
Certamente è fuori discussione che in directX con filtri ati è nettamente in testa.
Ma in giochi directx senza filtri non c' è una differenza tale da poter affermare che ci sia un sicuro vincitore.
Inoltre a mio parere i migliori confronti sarà possibile farli tr 2-3 mesi quando i driver saranno maturi.
Puo per esempio accadere che con i prossimi cata ati migliori l' opengl e batta nvidia.
Ciao
andreamarra
04-05-2004, 17:53
Originariamente inviato da Manp
ci sono ancora dei giochi che sono "feudi" nVidia, ma basta attivare l'AA e la situazione si capovolge...
impressive...
:)
Aggiungo anche una cosa da non sottovalutare: è vero che le ottimizzazioni HW nv40 sono davvero di blle speranze, e mi rammarico del fatto che ati non abbia fatto la stessa cosa...
però...
praticamente ancora devono uscire giochi che sfruttano i ps2.0 come Far Cry, secondo me la mossa di puntare sulla potenza bruta e sulla potenza di elaborazione degli shader non è stata probabilmente una idea così malsana come credevo inizialmente.
TheDarkAngel
04-05-2004, 17:53
Originariamente inviato da giova22
Non esagerare.
In opengl tanto per dire ati sta ancora dietro, e anche nel mondo linux.
Certamente è fuori discussione che in directX con filtri ati è nettamente in testa.
Ma in giochi directx senza filtri non c' è una differenza tale da poter affermare che ci sia un sicuro vincitore.
Inoltre a mio parere i migliori confronti sarà possibile farli tr 2-3 mesi quando i driver saranno maturi.
Puo per esempio accadere che con i prossimi cata ati migliori l' opengl e batta nvidia.
Ciao
il mondo dei games linux fa testo per considerare questa scheda grafica? :rotfl::rotfl::rotfl::rotfl:
scusa quanti giochi opengl sono in uscita? :asd:
aspetti doom3? :asd::asd::asd::asd::asd:
non c'e' tanto vantaggio.. solo che a momenti devono cambiare la scala per la x800xt per farla restare dentro i grafici :asd:
nonikname
04-05-2004, 17:54
Originariamente inviato da Manp
viste le rece sugli altri siti ormai non ci sono più dubbi...
ATI ha tirato fuori un altra scheda massacra-nVidia...
credo che non ci siano più dubbi su chi sia il nuovo leader tra i produttori di chip video
:)
Bah , io qualche dubbietto ce l'ho ancora , dato che siamo quasi sullo stesso livello , solo che ATI ha gia i driver fiunzionanti perfettamente , dato che è la stessa architettura , mentre nvidia , che già in molti titoli è davanti , deve fare ancora il grosso del lavoro.......
Per essere il leader assoluto , a casa mia , bisogna prevalere in ogni ambito , non solo al RoxiBar.......... e qui vedo la quasi parità totale .........
melomanu
04-05-2004, 17:55
Originariamente inviato da giova22
Non esagerare.
In opengl tanto per dire ati sta ancora dietro, e anche nel mondo linux.
Certamente è fuori discussione che in directX con filtri ati è nettamente in testa.
Ma in giochi directx senza filtri non c' è una differenza tale da poter affermare che ci sia un sicuro vincitore.
Inoltre a mio parere i migliori confronti sarà possibile farli tr 2-3 mesi quando i driver saranno maturi.
Puo per esempio accadere che con i prossimi cata ati migliori l' opengl e batta nvidia.
Ciao
Io credo ke se uno compra 400 euro di skeda super-pmpata, i filtri attivi siano praticamente impliciti, xcui dubito ke si guardino i test sine-filtri..
;)
x linux, nn direi proprio così, xè ati da tempo rilascia driver x linux..magari sulle prestazioni è un pò dietro, ma nn sul supporto..
x il resto, concordo con te x quanto detto...
;)
andreamarra
04-05-2004, 17:56
Originariamente inviato da giova22
Ma in giochi directx senza filtri non c' è una differenza tale da poter affermare che ci sia un sicuro vincitore.
Hai ragione, però non suonerebbe strano comprare una shceda così costosa se poi a certe risoluzioni e con i filtri le prestazioni decadono?
Inoltre a mio parere i migliori confronti sarà possibile farli tr 2-3 mesi quando i driver saranno maturi.
Verissimo, io però sono malfidente ultimamente con nvidia. Aspetto insomma di non ritrovarmi con 2000 fps e un drago in meno, ecco......
Puo per esempio accadere che con i prossimi cata ati migliori l' opengl e batta nvidia.
Difficile ipotizzare uno scenario del genere, la nvidia è molto avanti in questo e difficilmente il gap si riuscirà a colmare. Avvicinarsi si, ma colmare sarà difficilissimo.
nonikname
04-05-2004, 17:57
http://techreport.com/reviews/2004q2/radeon-x800/splinter.gif
Perfectdavid
04-05-2004, 17:58
quanto manca?sono le 18:00.
....................sono le 18..........................sto male..................... voglio la X800.................................:cry: :cry: :cry:
nonikname
04-05-2004, 17:59
http://techreport.com/reviews/2004q2/radeon-x800/ssam-4x8x.gif
Originariamente inviato da giova22
Non esagerare.
In opengl tanto per dire ati sta ancora dietro, e anche nel mondo linux.
Certamente è fuori discussione che in directX con filtri ati è nettamente in testa.
Ma in giochi directx senza filtri non c' è una differenza tale da poter affermare che ci sia un sicuro vincitore.
Inoltre a mio parere i migliori confronti sarà possibile farli tr 2-3 mesi quando i driver saranno maturi.
Puo per esempio accadere che con i prossimi cata ati migliori l' opengl e batta nvidia.
Ciao
sotto linux non si discute, i drivers ATI è come se non ci fossero...
l'OpenGL in effetti l'avevo dimenticato nell'euforia dei bench di Far Cry, e qui nVidia rimane sopra...
il punto è che al momento attuale i giochi OpenGL (non parliamo di applicazioni professionali che quete sono schede fatte per giocare) imho non offrono un banco di prova attendibile... vuoi perchè si tratta di titoli datati, vuoi perchè allo stato attuale l'ultima revisione delle OGL non offre le stesse caratteristiche che si trovano in ambito DX... forse con le OGL2.0 (spero di non aver detto una cavolata) e con i primi giochi che le sfrutteranno capiremo meglio quale sia il valore reale di entrambe le schede...
:)
Originariamente inviato da TheDarkAngel
il mondo dei games linux fa testo per considerare questa scheda grafica? :rotfl::rotfl::rotfl::rotfl:
scusa quanti giochi opengl sono in uscita? :asd:
aspetti doom3? :asd::asd::asd::asd::asd:
non c'e' tanto vantaggio.. solo che a momenti devono cambiare la scala per la x800xt per farla restare dentro i grafici :asd:
Per quanto rigurada linux non è poi così da sottovalutare. Io linux lo uso spessissimo e tanto per farti un esempio potevos scegliere tra una ti 4600 e una 9500pro, ma ho preso la ti4600 (anche se nvidia ultimamente non mi è simpaticissima) per il miglior supporto e velocità su linux.
per quanto riguarda il tuo intervento sul cambiare scala guarda qui per esempio
http://www.tomshw.it/guides/graphic/20040504/images/image041.gif
Non dico che nvidia o ati sia meglio. Ma in generale le differenze sono così piccole che non ci si puo certo sbilanciare a favore dell' una o dell' altra, soprattutto considerando i driver allo stato in cui sono
Ma niente review ancora? :(
nonikname
04-05-2004, 18:04
http://hardwareanalysis.com/images/articles/large/11122.gif
http://hardwareanalysis.com/images/articles/large/11125.gif
http://hardwareanalysis.com/images/articles/large/11131.gif
http://hardwareanalysis.com/images/articles/large/11119.gif
andreamarra
04-05-2004, 18:05
Nonickname, praticamente i bench che hai messo su diomostrano il contario di quello che cominciava a trapelare. Ero arrivato alla conclusione che l'r420 rimaneva granitico di fronte a risoluzioni ninja e filtri a palla a differenza della nv40 e adesso non è più così.
bho :confused: ?
Ca**o è saltato visa il tasto f5 :cry: :cry: :cry: :cry:
:D :D :D
TheDarkAngel
04-05-2004, 18:05
perchè continuano a cambiare i risultati :confused: :confused: :confused:
andreamarra
04-05-2004, 18:06
Originariamente inviato da giova22
Per quanto rigurada linux non è poi così da sottovalutare. Io linux lo uso spessissimo e tanto per farti un esempio potevos scegliere tra una ti 4600 e una 9500pro, ma ho preso la ti4600 (anche se nvidia ultimamente non mi è simpaticissima) per il miglior supporto e velocità su linux.
per quanto riguarda il tuo intervento sul cambiare scala guarda qui per esempio
http://www.tomshw.it/guides/graphic/20040504/images/image041.gif
Non dico che nvidia o ati sia meglio. Ma in generale le differenze sono così piccole che non ci si puo certo sbilanciare a favore dell' una o dell' altra, soprattutto considerando i driver allo stato in cui sono
Lui intedeva sul fuori scala di vedere le differenze in Far Cry. Che è un gioco di nuova generazione che sfrutta tutto lo scibile umano attualmente. E ha ragione, in altri contesti poi è da vedere.
E quei bench non li considero, mi sanno di farloccagine.
Su linux: giustissimo puntare su schede nvidia per il discorso linux. Non lo "accetto" se solo per campanilismo per una o l'altra marca.
Originariamente inviato da nonikname
http://hardwareanalysis.com/images/articles/large/11122.gif
http://hardwareanalysis.com/images/articles/large/11125.gif
http://hardwareanalysis.com/images/articles/large/11131.gif
http://hardwareanalysis.com/images/articles/large/11119.gif
Questi grafici mi ricordano vagamente un certo emilio fede...... bah forse mi staro' sbagliando.....
:sofico:
p.s. se a far cry vince nvidia in questo test allora...........:muro: :muro: :oink: :oink:
Perfectdavid
04-05-2004, 18:09
non si capisce più niente
...aaaaa...ucciamo...bruciamo...follia :sofico: :D
andreamarra
04-05-2004, 18:09
Originariamente inviato da TheDarkAngel
perchè continuano a cambiare i risultati :confused: :confused: :confused:
Ma che ne so, prima uno dice che far Cry sotterra la nv40, poi imporvvisamente diventa la killer application nvidia. intanto il corsini ha messo un bench che dimostra quello che sapevamo...
Non lo so, se continuiamo così fanculo alle recensioni...
edito...
Originariamente inviato da nonikname
http://hardwareanalysis.com/images/articles/large/11122.gif
http://hardwareanalysis.com/images/articles/large/11125.gif
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2096.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2095.png
http://hardwareanalysis.com/images/articles/large/11131.gif
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2122.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2121.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2120.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2119.png
:confused:
edit: i miei vengono da Anandtech
Avviso per corsini...
ho emsso qui mio fratellino a schiacciare F5 e gli ho detto di chiamarmi quando cambia qualcosa nell homepage...
:sofico:
goldorak
04-05-2004, 18:10
Originariamente inviato da IS_Fox_
Questi grafici mi ricordano vagamente un certo emilio fede...... bah forse mi staro' sbagliando.....
:sofico:
Non ne sarei cosi' sicuro.
Halo e' un gioco sviluppato intorno al x-box e portato pari pari su pc.
E quindi normale che viaggi meglio con le gforce che non con le ati.
TheDarkAngel
04-05-2004, 18:10
Originariamente inviato da Manp
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2096.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2095.png
:confused:
inizio a sentirmi preso per il culo
Corsiniiiiiiiiiiiiiiiiiiiiiiiiii dove siete con la rece??:D
oh sarò pirla io ma continuo a vedere grafici che dicono una cosa e altri grafici che dicono l'opposto...
:)
andreamarra
04-05-2004, 18:11
Originariamente inviato da goldorak
Non ne sarei cosi' sicuro.
Halo e' un gioco sviluppato intorno al x-box e portato pari pari su pc.
E quindi normale che viaggi meglio con le gforce che non con le ati.
Esatto, la cosa assurda è che far Cry prima va da dio su ati e di merda su nvidia, adesso diventa il contrario....
aspetto solo la rece ormai fidandomi di paolo
Originariamente inviato da goldorak
Non ne sarei cosi' sicuro.
Halo e' un gioco sviluppato intorno al x-box e portato pari pari su pc.
E quindi normale che viaggi meglio con le gforce che non con le ati.
ma da quando che è sempre andato meglio sulla ATI anche con 9800xt e 5950?
:)
nonikname
04-05-2004, 18:12
Originariamente inviato da andreamarra
Lui intedeva sul fuori scala di vedere le differenze in Far Cry. Che è un gioco di nuova generazione che sfrutta tutto lo scibile umano attualmente. E ha ragione, in altri contesti poi è da vedere.
E quei bench non li considero, mi sanno di farloccagine.
Su linux: giustissimo puntare su schede nvidia per il discorso linux. Non lo "accetto" se solo per campanilismo per una o l'altra marca.
Quali test consideri falsi ,
questi (http://www.hardwareanalysis.com/content/article/1710.1/) ???
E menomale che è considerato uno dei siti fra i più obbiettivi....
P.S. tieni presente che qui anno usato un P4-3.4EE.......
sempreio
04-05-2004, 18:12
Originariamente inviato da 737373
Avviso per corsini...
ho emsso qui mio fratellino a schiacciare F5 e gli ho detto di chiamarmi quando cambia qualcosa nell homepage...
:sofico:
fratellino di 737373, digli ha tuo fratello che corsini viene la a cambiargli i connotati:sofico:
goldorak
04-05-2004, 18:13
Originariamente inviato da andreamarra
Esatto, la cosa assurda è che far Cry prima va da dio su ati e di merda su nvidia, adesso diventa il contrario....
Urge una recensione chiarificatrice :muro: :muro:
falcon.eddie
04-05-2004, 18:13
Originariamente inviato da Manp
oh sarò pirla io ma continuo a vedere grafici che dicono una cosa e altri grafici che dicono l'opposto...
:)
fermi, i grafici non sono al contrario, o meglio tu hai postato grafici con test con NOAA e 8XANISO a 1280, Nonikname grafici con 4xAA8XANISO a 1600x1200.
Ovvio siano diversi!
Thunder82
04-05-2004, 18:13
Originariamente inviato da nonikname
http://hardwareanalysis.com/images/articles/large/11122.gif
http://hardwareanalysis.com/images/articles/large/11125.gif
http://hardwareanalysis.com/images/articles/large/11131.gif
http://hardwareanalysis.com/images/articles/large/11119.gif
Non mi risulta che in Halo funzioni l'antialiasing... ma come li hanno fatti quei bench?
andreamarra
04-05-2004, 18:15
Originariamente inviato da nonikname
Quali test consideri falsi ,
questi (http://www.hardwareanalysis.com/content/article/1710.1/) ???
E menomale che è considerato uno dei siti fra i più obbiettivi....
P.S. tieni presente che qui anno usato un P4-3.4EE.......
A questo punto li considero falsi tutti. Non è possibile che in uno si dica una cosa e nell'altro il contrario!
shinji_85
04-05-2004, 18:15
Originariamente inviato da TheDarkAngel
inizio a sentirmi preso per il culo
e non sei il solo... aspetto la rece di corsini & co...
di solito sono le migliori, percio' niente fretta e lasciateli lavorare :D
Originariamente inviato da Thunder82
Non mi risulta che in Halo funzioni l'antialiasing... ma come li hanno fatti quei bench?
sempreio
04-05-2004, 18:18
dite la verità aspettate la recensione di corsini perchè non sapete l' inglese:sofico:
nonikname
04-05-2004, 18:18
Originariamente inviato da Manp
ma da quando che è sempre andato meglio sulla ATI anche con 9800xt e 5950?
:)
Questi sono di firingsquad , se sono farlocchi pure questi siamo a posto.........
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/halo1600.gif
La 6800GT non e' niente male.
che ne dite?;)
falcon.eddie
04-05-2004, 18:20
E' uscita!!!!!
:eek:
http://software.hwupgrade.it/articoli/1013/
Originariamente inviato da falcon.eddie
fermi, i grafici non sono al contrario, o meglio tu hai postato grafici con test con NOAA e 8XANISO a 1280, Nonikname grafici con 4xAA8XANISO a 1600x1200.
Ovvio siano diversi!
ho editato con quelli di far cry, in ogni salsa sono cmq invertiti... posso capire che abbiano usato timedemo diverse ma differenze del genere sono esagerate...
cmq sono un po' :confused:
:)
Originariamente inviato da falcon.eddie
E' uscita!!!!!
:eek:
http://software.hwupgrade.it/articoli/1013/
si si :asd:
nikki--boohh
04-05-2004, 18:21
18.20
ma quando esce la rece?
nonikname
04-05-2004, 18:21
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/sc1600.gif
falcon.eddie
04-05-2004, 18:22
Originariamente inviato da checo
si si :asd:
:read: :read: Non la vedi?mi sembra strano...:confused:
Originariamente inviato da nonikname
Questi sono di firingsquad , se sono farlocchi pure questi siamo a posto.........
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/halo1600.gif
e grazie che la ultra extreme è meglio della ultra...
già, ma non vedo la X800 in questo schemino... o devo confrontare quei bench con quelli di un altro sito? non credo che i sitemi di prova siano uguali...
:)
fabiannit
04-05-2004, 18:22
sto sbavando........:sbav: non vedo l'ora :p
E' tutto vostro ;)
http://www.hwupgrade.it/articoli/1013/index.html
Originariamente inviato da nonikname
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/sc1600.gif
qua vanno ugali, sul test di paolo no :confused:
andreamarra
04-05-2004, 18:23
Originariamente inviato da nonikname
Questi sono di firingsquad , se sono farlocchi pure questi siamo a posto.........
Ascolta, io non conoscendo le reali situazioni di performance tra le due schede, trovo legittimo diffidare di test così contrastanti. E non ho mai detto che quelli in cui la ati va meglio sono corretti e il resto è spazzatura. Ho detto che li considero io dei fake. Poi vedremo cosa succederà, ma sicuramente poer almeno qualche settimana il dubbio non me lo levo di sicuro... ;)
Perfectdavid
04-05-2004, 18:24
Originariamente inviato da checo
si si :asd:
si si
falcon.eddie
04-05-2004, 18:24
Originariamente inviato da checo
si si :asd:
TE L'AVEVO DETTO! :cool:
ceeeeeeeeeeee la rece c èèèèèèèèè
falcon.eddie
04-05-2004, 18:24
:read: :read: Non la vedi?mi sembra strano...:confused:
:sofico:
Paolo Corsini
04-05-2004, 18:24
http://www.hwupgrade.it/articoli/1013/index.html
E buona lettura a tutti!!
...RECENSIONE PRONTA!!!!!!!!! :D :D :D
fabiannit
04-05-2004, 18:25
la rece è online!!mo me la leggo
uscitaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa[SIZE=4]
Adesso non ci saranno più post per una mezz'ora! :sofico:
leggendo la recenzione e i relativi bech posso dire ke la nuova punta di diamante ati è un ottima skeda ke è un pelino inferiore alla 6800 ultra extreme. complimenti vivissimi sia ad ati ke ad invidia:mano:
TheDarkAngel
04-05-2004, 18:33
Originariamente inviato da Demon81
leggendo la recenzione e i relativi bech posso dire ke la nuova punta di diamante ati è un ottima skeda ke è un pelino inferiore alla 6800 ultra extreme. complimenti vivissimi sia ad ati ke ad invidia:mano:
attento ai bench di farcry..
considerare con FP16 è un grosso errore a mio avviso vista la pessima qualità dell'immagine..
cmq nelle conclusioni si legge chiaramente che l'ati è considerata un pelino superiore ;)
JENA PLISSKEN
04-05-2004, 18:34
Originariamente inviato da Paolo Corsini
http://www.hwupgrade.it/articoli/1013/index.html
E buona lettura a tutti!!
GRAZIE:oink: :oink: :oink: :oink:
Discorso a parte merita la scheda GeForce 6800 Ultra Extreme. Questo prodotto, facendo un paragone con il mercato dei processori, può essere tranquillamente confrontato con la cpu Intel Pentium 4 Extreme Edition. E' una soluzione di nicchia, che verrà proposta solo da alcuni partner di NVIDIA in soluzioni del tutto particolari; la produzione di queste schede sarà presumibilmente molto limitata, a motivo della difficoltà di ottenere buone rese per i chip NV40 all'elevata frequenza di clock di 450 MHz.
Il clock del chip video superiore permette alla scheda GeForce 6800 Ultra Extreme di far segnare livelli prestazionali estremamente elevati, con un generale allineamento alla soluzione ATI Radeon X800 XT Platinum Edition. A favore di quest'ultima abbiamo però il costo inferiore, benché molto elevato in assoluto, e la superiore disponibilità sul mercato.
come ho detto x me visti i risulatati è un pelino superiore detto da un felicissimo possessore di una 9700 pro
parlo solo di prestazioni io;)
andreamarra
04-05-2004, 18:38
Originariamente inviato da TheDarkAngel
attento ai bench di farcry..
considerare con FP16 è un grosso errore a mio avviso vista la pessima qualità dell'immagine..
cmq nelle conclusioni si legge chiaramente che l'ati è considerata un pelino superiore ;)
Praticamente è così, tra l'altro far cry vorrei vederlo girare con fp32.
E volevo vedere qualche test negli interni... mi sembra che i livelli menzionati siano tutti all'esterno... o no ?
ma anche la xt platinum edition è un versione pompata o sbaglio?
considerando che sale solo di 14 mhz sul core.
Originariamente inviato da andreamarra
Praticamente è così, tra l'altro far cry vorrei vederlo girare con fp32.
E volevo vedere qualche test negli interni... mi sembra che i livelli menzionati siano tutti all'esterno... o no ?
ma sulle ati girava a fp24 vero?
TheDarkAngel
04-05-2004, 18:41
"Il clock del chip video superiore permette alla scheda GeForce 6800 Ultra Extreme di far segnare livelli prestazionali estremamente elevati, con un generale allineamento alla soluzione ATI Radeon X800 XT Platinum Edition"
in riferimento al fatto che:
"I risultati prestazionali emersi nel corso dei nostri test evidenziano un andamento medio piuttosto chiaro: ATI Radeon X800 Platinum Edition e NVIDIA GeForce 6800 Ultra fanno registrare prestazioni velocistiche molto vicine tra di loro, anche se la soluzione ATI pare nel complesso superiore."
comunque nn ho letto dove c'e' il prezzo di queste ultra extreme
andreamarra
04-05-2004, 18:42
Originariamente inviato da checo
ma sulle ati girava a fp24 vero?
"Confrontando Radeon X800 XT con i test in modalità FP16 delle varie schede NV40 vediamo che in Research esiste una parità con la GeForce 6800 Ultra Extreme, mentre nella mappa Volcano la scheda estrema di NVIDIA prende la testa della classifica. La Radeon X800 PRO, invece, è più lenta della GeForce 6800 GT. Nel momento in cui attiviamo la precisione di calcolo a 32 bit i risultati subiscono un notevolmente cambiamento e la Radeon X800 XT prende saldamente la testa del lotto. Anche la Radeon X800 PRO guadagna posizioni e riesce a confrontarsi meglio con la GeForce 6800 GT in modalità FP32."
non l'ho capito, in ogni caso il bench dovrebbe girare per nvidia in modalità mix... bho, chiediamo delucidazioni a chi di dovere.. :fiufiu:
andreamarra
04-05-2004, 18:44
Originariamente inviato da TheDarkAngel
"Il clock del chip video superiore permette alla scheda GeForce 6800 Ultra Extreme di far segnare livelli prestazionali estremamente elevati, con un generale allineamento alla soluzione ATI Radeon X800 XT Platinum Edition"
in riferimento al fatto che:
"I risultati prestazionali emersi nel corso dei nostri test evidenziano un andamento medio piuttosto chiaro: ATI Radeon X800 Platinum Edition e NVIDIA GeForce 6800 Ultra fanno registrare prestazioni velocistiche molto vicine tra di loro, anche se la soluzione ATI pare nel complesso superiore."
comunque nn ho letto dove c'e' il prezzo di queste ultra extreme
In ogni caso non se la comprerà nessuna, è un pò come il modello Enzo Ferrari... costerà una barca.
Tra l'altro sarei curioso di vedere con processori estremi a che livelli arriva la ati... praticamente mi sembra di aver capito che satura la cpu molto più della nvidia.
SOno curioso di vedere quanto si possono spingere quei bolidi ati e nvidia :oink:
TheDarkAngel
04-05-2004, 18:47
Originariamente inviato da andreamarra
In ogni caso non se la comprerà nessuna, è un pò come il modello Enzo Ferrari... costerà una barca.
Tra l'altro sarei curioso di vedere con processori estremi a che livelli arriva la ati... praticamente mi sembra di aver capito che satura la cpu molto più della nvidia.
SOno curioso di vedere quanto si possono spingere quei bolidi ati e nvidia :oink:
sai com'e' questione di principio :D
già non vedo l'ora di avere una x800 xt sotto mano da moddare :sbav:
Perfectdavid
04-05-2004, 18:50
chi esprime giudizi?
andreamarra
04-05-2004, 18:51
Originariamente inviato da Perfectdavid
chi esprime giudizi?
io già mi sono espresso qualche post dietro ;)
Perfectdavid
04-05-2004, 18:55
a me sembrano equivalenti bene o male.
JENA PLISSKEN
04-05-2004, 18:55
Originariamente inviato da checo
ma sulle ati girava a fp24 vero?
SI...c 'è scritto...Nn si può forzare il 16
andreamarra
04-05-2004, 18:58
fek (sempre lui :D ) suggrisce che a livello prettamente tecnico la nv40 è preferibile per un programmatore, essendo un vero e proprio gioiellino tecnologico, ma spiega anche (giustamente, in linea con il mio pensiero degli ultimi giorni) che è consigliabile "un X800 a chi deve comprare il top del mercato perche' di applicazioni che useranno pesantemente gli shader 3.0 non se ne vedranno per un po', e quando se ne vedranno... sia ATI sia NVIDIA supporteranno i 4.0..."
:)
andreamarra
04-05-2004, 19:00
Originariamente inviato da Perfectdavid
a me sembrano equivalenti bene o male.
l'unica cosa in cui non differiscono sono i giochi in openGL ovviamente (vantaggio netto nvidia) e quando vengono alzate le frequenze e i filtri (vantaggio ati, per il più importante in questo momento).
Insomma, credevo che ci trovassimo di fronte a una scheda spacca mercato e non è così.
JENA PLISSKEN
04-05-2004, 19:03
La 800xt è un affinamento della serie R3xx...di innovativo ha quella fantastica invenzione che è il Taa...
La 6800 di innovativo ha i PS e VS3.0
Il problema è che ATI si è inventata una teconologia IMMMEDIATAMENTE sfruttabile che addiritturà ricadrà anche sulle schede di vecchia generazione
NV invece ha puntato su una tecnologia che in FUTURO verrà sfruttata...ma quando sarà questo futuro...io sinc dubito che sia un futuro PROSSIMO;)
Alla fine a mio avviso l' innovazione tecnologia + interessante e soprattutto utile è il Taa
Come resa qualitativa mi pare di aver letto che ATI resta un filino avanti....
mah io ho come la sensazione che l' R420 sia una scheda transitoria....Nn vorrei che fosse una meteora;)
dal canto suo NV propone un qualcosa di assolutamente Nn sfruttabile ...e qui si rischia di vederlo sfruttare quando usciranno le nuove schede e soprttutto con i filtri attivati e giochi +pesanti credo che arrancherà parecchio...visto che già ora nn è sempre il massimo
OK...mi tengo la 9700:sofico:
Perfectdavid
04-05-2004, 19:04
bhà forse l'xt (ati è un pò avanti ma...chissà)
..
ma nelle versioni inferiori (pro gt ecc ecc) che saranno quelle di maggiore interesse...nvidia sembra un pò avanti sbaglio?
andreamarra
04-05-2004, 19:11
Originariamente inviato da JENA PLISSKEN
La 800xt è un affinamento della serie R3xx...di innovativo ha quella fantastica invenzione che è il Taa...
La 6800 di innovativo ha i PS e VS3.0
Il problema è che ATI si è inventata una teconologia IMMMEDIATAMENTE sfruttabile che addiritturà ricadrà anche sulle schede di vecchia generazione
NV invece ha puntato su una tecnologia che in FUTURO verrà sfruttata...ma quando sarà questo futuro...io sinc dubito che sia un futuro PROSSIMO;)
Alla fine a mio avviso l' innovazione tecnologia + interessante e soprattutto utile è il Taa
Come resa qualitativa mi pare di aver letto che ATI resta un filino avanti....
mah io ho come la sensazione che l' R420 sia una scheda transitoria....Nn vorrei che fosse una meteora;)
dal canto suo NV propone un qualcosa di assolutamente Nn sfruttabile ...e qui si rischia di vederlo sfruttare quando usciranno le nuove schede e soprttutto con i filtri attivati e giochi +pesanti credo che arrancherà parecchio...visto che già ora nn è sempre il massimo
OK...mi tengo la 9700:sofico:
A mio giudizio la ati sapeva delle mosse della nvidia di creare un mostro tecnologicamente avanzato e ha puntato principalmente sulle prestazioni pure con delle features interessanti e già utilizzabili. Praticamente la nvidia farà da "cavia" per i programmatori che potranno cominciare a divertirsi con il branching (che è poi l'unica features degli shader 3.0 che manca alle schede ati). Praticamente quando usciranno giochi che sfruttano i ps 3.0 e compagnia bella già saranno uscite schede nvidia maggiormente ottimizzate e schede ati con ilpieno supporto.
io cmq queste schede per quanto potenti e meravigliose le considero delle "soluzioni tampone".
Salto la generazione, e se non lo faccio è solo per non far deprezzare troppo la mia hercolina.
JENA PLISSKEN
04-05-2004, 19:12
Originariamente inviato da andreamarra
A mio giudizio la ati sapeva delle mosse della nvidia di creare un mostro tecnologicamente avanzato e ha puntato principalmente sulle prestazioni pure con delle features interessanti e già utilizzabili. Praticamente la nvidia farà da "cavia" per i programmatori che potranno cominciare a divertirsi con il branching (che è poi l'unica features degli shader 3.0 che manca alle schede ati). Praticamente quando usciranno giochi che sfruttano i ps 3.0 e compagnia bella già saranno uscite schede nvidia maggiormente ottimizzate e schede ati con ilpieno supporto.
io cmq queste schede per quanto potenti e meravigliose le considero delle "soluzioni tampone".
Salto la generazione, e se non lo faccio è solo per non far deprezzare troppo la mia hercolina.
La penso così pure io...il problema è che ormai si è deprezzata...Nn la voglio svendere @ 150€ con 200€ e passa da metterci:rolleyes:
Originariamente inviato da JENA PLISSKEN
dal canto suo NV propone un qualcosa di assolutamente Nn sfruttabile ...e qui si rischia di vederlo sfruttare quando usciranno le nuove schede e soprttutto con i filtri attivati e giochi +pesanti credo che arrancherà parecchio...visto che già ora nn è sempre il massimo
VERO però intanto la gente come fek si prende nv40 per smanettarci , quindi quando uscirà qualcosa che sfrutti tale tecnologia nvidia credo sarà avantaggiata un pelino degli sviluppatori.
Originariamente inviato da JENA PLISSKEN
Alla fine a mio avviso l' innovazione tecnologia + interessante e soprattutto utile è il Taa
imho è inutile su x800 datco che non manca certo la potenza per gestire l'aa
goldorak
04-05-2004, 19:30
Originariamente inviato da JENA PLISSKEN
La penso così pure io...il problema è che ormai si è deprezzata...Nn la voglio svendere @ 150€ con 200€ e passa da metterci:rolleyes:
Ma va, stai scherzando vero ?
Dubito che la nuova fascia media di ati/nvidia proponga schede a 150€ con prestazioni superiori alla attuale fascia alta 9700/pro/9800/pro.
Chi svende la sua ati 9700pro per 150€ e' un pazzo !
andreamarra
04-05-2004, 19:30
Originariamente inviato da checo
VERO però intanto la gente come fek si prende nv40 per smanettarci , quindi quando uscirà qualcosa che sfrutti tale tecnologia nvidia credo sarà avantaggiata un pelino degli sviluppatori.
non credo sarà avvantaggiata dagli sviluppatori, ma per il semplice fatto che ha già esperienza sul campo con questa nuova tecnologia. E non è poco. tra l'altro sono convinto che la ati giù abbia pronto un qualcosa per una nuova scheda con ulteriori features simil NV40. Quindi potrebbe essere nel futuro un duello ad armi pari sul campo degli shader quali il dynamic branching.
andreamarra
04-05-2004, 19:31
Originariamente inviato da checo
imho è inutile su x800 datco che non manca certo la potenza per gestire l'aa
Infatti, l'utilità si ha nelle schede R3X0, con somma felicità per i possessori di tali schede :D
JENA PLISSKEN
04-05-2004, 19:32
Originariamente inviato da goldorak
Ma va, stai scherzando vero ?
Dubito che la nuova fascia media di ati/nvidia proponga schede a 150€ con prestazioni superiori alla attuale fascia alta 9700/pro/9800/pro.
Chi svende la sua ati 9700pro per 150€ e' un pazzo !
Nn me la cambio...Nn ti preoccupare:sofico:
hana_il_genio
04-05-2004, 19:47
OK!
FATEMI METTERE GLI OCCHIALI...
ORA SI LEGGEEEEEE!
fabiannit
04-05-2004, 19:54
sei Hanamichi??:confused:
cmq...
a voi funzionano i Tech demo nuovi???(con la 9500pro)
è normale o a qualcuno funziona?
andreamarra
04-05-2004, 20:00
Originariamente inviato da fabiannit
sei Hanamichi??:confused:
cmq...
a voi funzionano i Tech demo nuovi???(con la 9500pro)
è normale o a qualcuno funziona?
tech demo ati va solo su chede che supportano i PS 2.0b (ovvero solo x800 e fx 6800) :(
Perfectdavid
04-05-2004, 20:00
Originariamente inviato da Scarfatio
Butto li una domanda........ ho notato dai vari bench mark che le ATI si esprimono meglio a risoluzioni piu elevate rispetto ad nvidia... ora mi chiedo... quanti giokano a 1600x1200?
La prima risposta la do io... poi vorrei sentire qualke accanito giokatore...
Impossibile giokare a 1600x 1200 per oltre 1 ora senza cominciare ad avere allucinazioni visive! :D
Io che gioko online almeno 3 ore al giorno sono costretto a mettere la risoluzione del gioko a 800x600 per avere un refresh di 120mhz! perchè le case produttrici producono skede video che non solo non stanno dietro alle cpu ma neanche ai monitor?
Secondo me sia nvida che ati hanno fatto na cavolata a fare schede cosi potenti che non verranno sfruttate neanche tra un anno! Per non parlare dei videogames....
la putenza è sempre poca...
andreamarra
04-05-2004, 20:02
Originariamente inviato da Scarfatio
Butto li una domanda........ ho notato dai vari bench mark che le ATI si esprimono meglio a risoluzioni piu elevate rispetto ad nvidia... ora mi chiedo... quanti giokano a 1600x1200?
La prima risposta la do io... poi vorrei sentire qualke accanito giokatore...
Impossibile giokare a 1600x 1200 per oltre 1 ora senza cominciare ad avere allucinazioni visive! :D
Io che gioko online almeno 3 ore al giorno sono costretto a mettere la risoluzione del gioko a 800x600 per avere un refresh di 120mhz! perchè le case produttrici producono skede video che non solo non stanno dietro alle cpu ma neanche ai monitor?
Secondo me sia nvida che ati hanno fatto na cavolata a fare schede cosi potenti che non verranno sfruttate neanche tra un anno! Per non parlare dei videogames....
COncordo sul fatto che sia una stupidaggine far uscire schede video ti tale potenza senza essere a livello software utilizzate minimamente. Però è chiaro che lo scopo di una azienda di quel livello sia quello di diventare leader e di fare utili.
hana_il_genio
04-05-2004, 20:09
Originariamente inviato da fabiannit
sei Hanamichi??:confused:
cmq...
a voi funzionano i Tech demo nuovi???(con la 9500pro)
è normale o a qualcuno funziona?
si :cry:
fabiannit
04-05-2004, 20:12
Originariamente inviato da hana_il_genio
si :cry:
Si che sei hanamichi o ......???:D
hana_il_genio
04-05-2004, 20:14
Originariamente inviato da fabiannit
Si che sei hanamichi o ......???:D
LEGGI LA MIA SIGNATURE!:cry:
fabiannit
04-05-2004, 20:46
e perchè questo nuovo nick?????
Originariamente inviato da hana_il_genio
LEGGI LA MIA SIGNATURE!:cry:
ke t è successo? :confused:
bYeZ!
PhoEniX-VooDoo
04-05-2004, 21:21
Ottima recensione come sempre, complimenti e grazie di esistere! ;)
Vorrei sapere come mai non avete provato a overclockare le X800, dato il basso consumo e la dissipazione termica uniti al processo produttivo ottimizzato queste schede, seppure già clockate parecchio di default sembrerebbero avre buoni presupposti per salire mica male :) . Indicazioni da partedi Ati di non farlo?
Poi volevo segnalare un errore di impaginazione (spero di non sembrare presuntuoso, posso immaginare la mole di lavoro ;) )
a questa pagina: http://www.hwupgrade.it/articoli/1013/17.html sono state invertite le osservazioni in base ai grafici per quanto riguarda Fill Rate e V&P Shader.
ciao
Perfectdavid
04-05-2004, 21:26
ma già si è provato ad attivare le pipe tolte?
PhoEniX-VooDoo
04-05-2004, 21:41
Originariamente inviato da Perfectdavid
ma già si è provato ad attivare le pipe tolte?
se hai letto la recensione a un certo punto viene esplicitamente detto che ATi stavolta le ha bloccate via Hardware non via Software quindi niente attivazione. (a meno che tu non sappia dove mettere le mani su un X800 per attivarci le 4 pipe... :D )
Originariamente inviato da PhoEniX-VooDoo
se hai letto la recensione a un certo punto viene esplicitamente detto che ATi stavolta le ha bloccate via Hardware non via Software quindi niente attivazione. (a meno che tu non sappia dove mettere le mani su un X800 per attivarci le 4 pipe... :D )
come via HW ?? con la saldatura?? beh quella c'era anche prima!! :D :D
sono perplesso da 2 cose...
1) per quanto possa contare ai fini pratici la X800 non supporta gli shader 3.0
2) leggendo i bench di Anandtech, in cui la X800XT era praticamente sempre davanti alla 6800U, mi ero fatto l'idea che nVidia avesse toppato ancora... invece leggendo la rece di HWUpgrade mi sembra che la situazione sia molto più equilibrata anche se imho in generale si fa preferire la schedozza ATI...
su una cosa sono certo... non condivido la scelta di nVidia di puntare sulla precisione degli shader in FP16 o FP32... i numeri e la differenza a livello di qualità d'immagine danno ragione alla scelta ATI dell' FP24... basta vedere i bench di Far Cry
voglio dire ATI in FP24 va come nVidia in FP16, mentra in FP32 le prestazioni calano in modo evidente... in più a livello qualitativo la differenza tra FP16 e FP24 è enorme... tr FP24 e FP32 praticamente non si coglie... alla fine il punto 1 dei miei dubbi potrebbe in realtà essere un vantaggio per ATI (visto che gli shader 3.0 necessitano del pieno supporto a FP32)
:)
PhoEniX-VooDoo
04-05-2004, 23:03
Il non supporto agli Shader 3.0 resterà per molto solo una cosa che si potrà scrivere, ma che all'atto pratico sarà difficile evidenziare.
Per le prestazioni, io mi fido dei test fatti da HwUp ;)
Per quanto riguarda FP16/24/32, non vorrei sembrare poco obiettivo, flammoso ecc, ma gli ingenieri nVidia già che hanno adottato gli stessi sistemi di AA e AF che usa ATi, non potevano implementare pure l'FP24 e tagliare la testa al toro? O al massimo mettere 24 e 32...sarebbe stato molto meglio per loro...vabbeh!
TheDarkAngel
04-05-2004, 23:11
Originariamente inviato da Manp
sono perplesso da 2 cose...
1) per quanto possa contare ai fini pratici la X800 non supporta gli shader 3.0
2) leggendo i bench di Anandtech, in cui la X800XT era praticamente sempre davanti alla 6800U, mi ero fatto l'idea che nVidia avesse toppato ancora... invece leggendo la rece di HWUpgrade mi sembra che la situazione sia molto più equilibrata anche se imho in generale si fa preferire la schedozza ATI...
su una cosa sono certo... non condivido la scelta di nVidia di puntare sulla precisione degli shader in FP16 o FP32... i numeri e la differenza a livello di qualità d'immagine danno ragione alla scelta ATI dell' FP24... basta vedere i bench di Far Cry
voglio dire ATI in FP24 va come nVidia in FP16, mentra in FP32 le prestazioni calano in modo evidente... in più a livello qualitativo la differenza tra FP16 e FP24 è enorme... tr FP24 e FP32 praticamente non si coglie... alla fine il punto 1 dei miei dubbi potrebbe in realtà essere un vantaggio per ATI (visto che gli shader 3.0 necessitano del pieno supporto a FP32)
:)
qui hanno messo in mezzo anche la 6800u extreme che non è altro che una scheda video sulla carta... kekkè dicano...
Originariamente inviato da TheDarkAngel
qui hanno messo in mezzo anche la 6800u extreme che non è altro che una scheda video sulla carta... kekkè dicano...
è vero, ma togli la extreme e la situazione pressapoco è lì... io avendo visto, all'inizio, la sola rece di Anandtech mi ero fatto un impressione sbagliata... molto più pro-ATI di quanto nn fosse...
:)
TheDarkAngel
04-05-2004, 23:37
Originariamente inviato da Manp
è vero, ma togli la extreme e la situazione pressapoco è lì... io avendo visto, all'inizio, la sola rece di Anandtech mi ero fatto un impressione sbagliata... molto più pro-ATI di quanto nn fosse...
:)
devi anche considerare che anand ha usato giustamente e solamente per farcry fp32...
e la situazione è meno pressapoco lì ;)
Originariamente inviato da PhoEniX-VooDoo
Per quanto riguarda FP16/24/32, non vorrei sembrare poco obiettivo, flammoso ecc, ma gli ingenieri nVidia già che hanno adottato gli stessi sistemi di AA e AF che usa ATi, non potevano implementare pure l'FP24 e tagliare la testa al toro? O al massimo mettere 24 e 32...sarebbe stato molto meglio per loro...vabbeh!
più che altro il confronto tra le due piattaforme si fa più difficile, certo in FP16 NV40 va come R420 in FP24, il che fa pensare che in un ipotetica (ma impossibile) sfida a FP24 per entrambe NV40 sarebbe cmq sotto...
ad ogni modo FP32 al momento attuale mi sembra abbastanza inutile visto che io non sono in grado di trovare differenze alivello qualitativo da FP24
ah, naturalmente il discorso vale per Far Cry... anche perchè di altri esempi in merito nn ne abbiamo
:)
Originariamente inviato da TheDarkAngel
devi anche considerare che anand ha usato giustamente e solamente per farcry fp32...
infatti FP16 imho nn va considerato... l'obrobrio che produce in Far Cry è l'esempio di come nn contino gli FPS se poi la qualità grafica lascia a desiderare...
c'è anche da tener presente che per ora il discorso vale SOLO per Far Cry... imho sarà il tempo a dar ragione alla scelta ATI ;)
:)
intakeem
04-05-2004, 23:42
volevo fare solo un plauso all'amministratore/i tecnico/i che svolgono i test:)
complimenti per la professionalità e l'accuratezza dei bench:cool:
^TiGeRShArK^
04-05-2004, 23:50
ci credo ke la recensione di anandtech sembri avvantaggiare ATI ... avete x caso provato a dare un'okkiata alla makkina da test utilizzata???
Athlo 64 3400+ ke mi pare BEN + performanta coi gioki di un p4 a 3.06 ghz col bus a 533...
è ovvio ke in quelle condizioni la skeda ATI riesce a distanziare ancora di + quella nvidia essendo meno CPU limited.....
Originariamente inviato da ^TiGeRShArK^
ci credo ke la recensione di anandtech sembri avvantaggiare ATI ... avete x caso provato a dare un'okkiata alla makkina da test utilizzata???
Athlo 64 3400+ ke mi pare BEN + performanta coi gioki di un p4 a 3.06 ghz col bus a 533...
è ovvio ke in quelle condizioni la skeda ATI riesce a distanziare ancora di + quella nvidia essendo meno CPU limited.....
Interessantissima annotazione...
TheDarkAngel
05-05-2004, 00:27
Originariamente inviato da ^TiGeRShArK^
ci credo ke la recensione di anandtech sembri avvantaggiare ATI ... avete x caso provato a dare un'okkiata alla makkina da test utilizzata???
Athlo 64 3400+ ke mi pare BEN + performanta coi gioki di un p4 a 3.06 ghz col bus a 533...
è ovvio ke in quelle condizioni la skeda ATI riesce a distanziare ancora di + quella nvidia essendo meno CPU limited.....
ecco :eek:
non avevo notato che avessero usato un sottosistema decente..
molto interessante..
quindi ati riesce a spingere decisamente meglio :eek: :eek: :eek:
bisogna chiedere al corsini di rifare la prova solo per xt e extreme con fx53 :D
Hanamichi
05-05-2004, 01:11
Originariamente inviato da fabiannit
e perchè questo nuovo nick?????
:p
andreamarra
05-05-2004, 02:10
Originariamente inviato da ^TiGeRShArK^
ci credo ke la recensione di anandtech sembri avvantaggiare ATI ... avete x caso provato a dare un'okkiata alla makkina da test utilizzata???
Athlo 64 3400+ ke mi pare BEN + performanta coi gioki di un p4 a 3.06 ghz col bus a 533...
è ovvio ke in quelle condizioni la skeda ATI riesce a distanziare ancora di + quella nvidia essendo meno CPU limited.....
Io stesso leggendo l'ottima recensione di Corsini & Co mi sono chiesto se le schede ati non soffrissero maggiormente di cpu limited.
Se volete sapere come vanno le belle schede ati e nvidia con un AthlonFx53 con tanti bei gigozzi di frequenza, andate qui.
http://www.xbitlabs.com/articles/video/display/r420-2.html
Io stento a crederci, ovviamente prendiamo il tutto con le molle perchè in certe cose mai fidarsi pienamente.... se fosse vero adesso capisco l'utilità di una x800pro...
Non ho parole. Davvero. Speriamo che al più presto sia possibile avere ulteriori bench di questi mostri di schede in sistemi non cpu limited basati su AthlonFx53...
JENA PLISSKEN
05-05-2004, 02:23
Originariamente inviato da ^TiGeRShArK^
ci credo ke la recensione di anandtech sembri avvantaggiare ATI ... avete x caso provato a dare un'okkiata alla makkina da test utilizzata???
Athlo 64 3400+ ke mi pare BEN + performanta coi gioki di un p4 a 3.06 ghz col bus a 533...
è ovvio ke in quelle condizioni la skeda ATI riesce a distanziare ancora di + quella nvidia essendo meno CPU limited.....
Si...se ne è parlato nel thread ufficiale;)
Lord style
05-05-2004, 09:13
Ragazzi i problemi di scarsa qualità di FarCry sembrano non dipendere dalla renderizzazione FP16, ma dal fatto che vengano usati PS1.3 al posto dei PS2.0 in default: questo provoca quella caduta di qualità.
Ieri sera espresse una sua opinione in merito Fek.
Qui trovate la discussione dove è intervenuto Fek. http://forum.hwupgrade.it/showthread.php?s=&threadid=677727&perpage=20&pagenumber=27
Originariamente inviato da fek
Sbagliato :)
La differenza fra fp16 e fp24/32 per shader corti e non troppo complessi (tipo uno specular lighting in far cry) e' praticamente inesistente. Fino a shader di 40/50 istruzioni al momento non ho notato differenze.
Secondo me il pixel shader usato in quegli sshot e' un 1.3, la struttura del banding e' tipica dei calcoli interi.
[Gli rispondo]
Interessante la tua considerazione.
Quindi secondo il tuo punto di vista quel degrado di qualità è giustificabile solo con render PS1.3
Nella recensione Hardware Upgrade hanno scritto:
Per analizzare la resa delle schede NV3x e NV40 con gli shader di Far Cry abbiamo effettuato due screenshots, entrambi all'inizio della mappa Volcano. In particolare abbiamo prima utilizzato il percorso di rendering predefinito dal gioco (quello ottimizzato FP16) e successivamente abbiamo forzato quello generico (FP32). Per meglio evidenziare i risultati abbiamo zoomato alcune zone degli screenshots.
Se è stato usato il percorso di rendering predefinito per nv30/nv40, che contiene anche Shader 1st generation e non è un mistero, quei tests fatti sono forvianti ed errati: non si stava solo utilizzando l'FP16 come si lascia intendere, ma si stava utilizzando un "pacchetto" di renderizzazione "performance" attivato di default sulle schede nVidiA.
Originariamente inviato da andreamarra
Io stesso leggendo l'ottima recensione di Corsini & Co mi sono chiesto se le schede ati non soffrissero maggiormente di cpu limited.
Se volete sapere come vanno le belle schede ati e nvidia con un AthlonFx53 con tanti bei gigozzi di frequenza, andate qui.
http://www.xbitlabs.com/articles/video/display/r420-2.html
Io stento a crederci, ovviamente prendiamo il tutto con le molle perchè in certe cose mai fidarsi pienamente.... se fosse vero adesso capisco l'utilità di una x800pro...
Non ho parole. Davvero. Speriamo che al più presto sia possibile avere ulteriori bench di questi mostri di schede in sistemi non cpu limited basati su AthlonFx53...
Terrificante :eek:
Originariamente inviato da Lord style
Ragazzi i problemi di scarsa qualità di FarCry sembrano non dipendere dalla renderizzazione FP16, ma dal fatto che vengano usati PS1.3 al posto dei PS2.0 in default: questo provoca quella caduta di qualità.
Ieri sera espresse una sua opinione in merito Fek.
Qui trovate la discussione dove è intervenuto Fek. http://forum.hwupgrade.it/showthread.php?s=&threadid=677727&perpage=20&pagenumber=27
[Gli rispondo]
Interessante la tua considerazione.
Quindi secondo il tuo punto di vista quel degrado di qualità è giustificabile solo con render PS1.3
Nella recensione Hardware Upgrade hanno scritto:
Se è stato usato il percorso di rendering predefinito per nv30/nv40, che contiene anche Shader 1st generation e non è un mistero, quei tests fatti sono forvianti ed errati: non si stava solo utilizzando l'FP16 come si lascia intendere, ma si stava utilizzando un "pacchetto" di renderizzazione "performance" attivato di default sulle schede nVidiA.
Non è così. Attivando il log anche in modalità standard, cioè il con il path NVIDIA attivo, la console dice che sta usando Vertex Shader e Pixel Shader 2.0. Esiste una specifica opzione per forzare l'uso dei PS1.x, ma non è mai attivata di default, nè nel path rendering di NVIDIA, nè in nessun path. Bisogna attivarla manualmente.
Certo che con il thread ufficiale....
Originariamente inviato da TheDarkAngel
ecco :eek:
non avevo notato che avessero usato un sottosistema decente..
molto interessante..
quindi ati riesce a spingere decisamente meglio :eek: :eek: :eek:
bisogna chiedere al corsini di rifare la prova solo per xt e extreme con fx53 :D
quoto!Spero anch'io che Corsini & Vifani testino con A64-FX.
Originariamente inviato da Vifani
Non è così. Attivando il log anche in modalità standard, cioè il con il path NVIDIA attivo, la console dice che sta usando Vertex Shader e Pixel Shader 2.0. Esiste una specifica opzione per forzare l'uso dei PS1.x, ma non è mai attivata di default, nè nel path rendering di NVIDIA, nè in nessun path. Bisogna attivarla manualmente.
riporto quanto detto fa fek
La differenza fra fp16 e fp24/32 per shader corti e non troppo complessi (tipo uno specular lighting in far cry) e' praticamente inesistente. Fino a shader di 40/50 istruzioni al momento non ho notato differenze.
Secondo me il pixel shader usato in quegli sshot e' un 1.3, la struttura del banding e' tipica dei calcoli interi.
ad essere sincero mi fido più di lui che di un log del gioco :D
Basta dirti che la qualità grafica ottenuta dalla mia 5900XT è identica a quella di un GF3 e agli screen di NV40 ;)
Originariamente inviato da pandyno
Basta dirti che la qualità grafica ottenuta dalla mia 5900XT è identica a quella di un GF3 e agli screen di NV40 ;)
qundi non sono ps2.0
Originariamente inviato da checo
qundi non sono ps2.0
Troppo banding
Originariamente inviato da pandyno
Troppo banding
se ci pensi bene è un controsenso dato che delle 16 pipe della geforce6 le ultime 4 lavoroano solo in float quindi utilizzando codice < di 2.0 la scheda risulta essere più lenta che utilizzando codice 2 puro comportandosi difatto come una 6800 liscia.
con nv3X si avevano vantaggi ad usare ps misti 2.0 e 1.3 con queste nuove no, anzi si hanno dei cali cmq se mi mandate salvataggio di farcry e impostazioni usate vorrei provare a fare uno screen con la 4200
Originariamente inviato da checo
se ci pensi bene è un controsenso dato che delle 16 pipe della geforce6 le ultime 4 lavoroano solo in float quindi utilizzando codice < di 2.0 la scheda risulta essere più lenta che utilizzando codice 2 puro comportandosi difatto come una 6800 liscia.
Probabile che anche con 12 pipe digerisca meglio gli integer rispetto che con 16 e FP ;)
Originariamente inviato da pandyno
Probabile che anche con 12 pipe digerisca meglio gli integer rispetto che con 16 e FP ;)
questo non lo so ma mi par strano
andreamarra
05-05-2004, 12:44
Questo del fp16-32 e della modalità mista ps1.3/2.0 è+ una cosa da non sottovalutare secondo me.
Lo dico perchè non vorrei che l'architettura attuale del gioiello tecnologico (io lo considero così) della NV40 possa avere delle "contaminazioni" con il vecchio progetto. Io credo di no, però essendo una scheda nuovissima e una progettazione high-tech a mio giudizio è meglio aspettare dei tst (ovviamente non di parte) per stabilire se ci sono o meno problemi nella direttrice pixel shader.
Un test postao qua dentro da me (e preso da nvitalia) mostra che in una applicazione "massive pixel shader 2.0" crei un abisso tra la NV40 e la X800Xt, probabilmente a causa dei driver. Però francamente fidarsi è bene...
Originariamente inviato da checo
riporto quanto detto fa fek
ad essere sincero mi fido più di lui che di un log del gioco :D
Non penso che fek abbia a che fare con la programmazione del CryEngine e ogni motore grafico è una cosa diversa da un altro. Quindi a meno che non si abbia a disposizione il codice degli shader del CryEngine, l'unica cosa che possiamo fare è fidarci del log del motore grafico stesso e provare varie impostazioni.
Chiarito questo, come ho già detto esiste un'opzione da console che forza l'uso del PS 1.x. Attivando quell'opzione gli effetti di riflessione sono in numero notevolmente inferiore rispetto al path ottimizzato per NVIDIA. E' tutta un'altra cosa.
Con invece quest'ultimo, vengono usati, e lo ripeto, i Vertex Shader 2.0 ed i Pixel Shader 2.0. Ho inviato una email alla Crytek per chiedere informazioni al riguardo e loro stessi mi hanno detto come attivare i FP32. Tra l'altro se avete visto la lista delle migliorie della patch 1.2 (è stata pubblicata un paio di giorni fa se non erro) non c'è traccia di alcuna modifica per NV40. Modifiche ce ne saranno probabilmente solo se NVIDIA con driver ufficiali farà salire le prestazioni FP32 (cosa possibilissima perché i driver attuali sono probabilmente legati concettualmente a quelli della serie NV3x).
Non capisco perché ci sia tutto questo scetticismo sulla differenza di prestazioni tra FP16 e FP32 al punto tale da affermare che le prestazioni misurate in FP16 siano in realtà in PS1.3. E' una realtà che le schede NV3x e NV4x abbiamo un calo con i PS2.0 e FP32. E' una cosa normalissima. Bisogna gestire molti più dati come registri e bandwith. E del resto la scelta di ATI di non implementare FP32 in R420 probabilmente è stata dettata proprio da questo fattore.
Originariamente inviato da ^TiGeRShArK^
ci credo ke la recensione di anandtech sembri avvantaggiare ATI ... avete x caso provato a dare un'okkiata alla makkina da test utilizzata???
Athlo 64 3400+ ke mi pare BEN + performanta coi gioki di un p4 a 3.06 ghz col bus a 533...
è ovvio ke in quelle condizioni la skeda ATI riesce a distanziare ancora di + quella nvidia essendo meno CPU limited.....
scusa ma nella rece di Anandtech sia la 6800 ultra che la X800xt sono state provate con l'Athlon 64 3400+ quindi nelle stesse condizioni...
allo stesso modo nella rece di HWUpgrade è stato usato un P4 3,06 con bus a 533 per entrambe... quindi entrambe le schede erano nelle stesse condizioni...
io non ho detto di aver confrontato i risultati dei bench in assoluto (è ovvio che i numeri di Anand siano più alti vista la piattaforma utilizzata) ma mi sembra che i distacchi rilevati da Anandtech siano in realtà maggiori di quello che si vede nella rece di HWUpgrade...
se la scheda ATI come architettura riesce a dipendere meno dalla CPU di quella nVidia questo comportamento dovrebbe mostrarlo su ogni sistema, naturalmente nei confronti di bench della 6800 fatti su un sistema uguale... e dalle due rece questo mi pare non succeda...
:)
andreamarra
05-05-2004, 14:06
Originariamente inviato da Manp
scusa ma nella rece di Anandtech sia la 6800 ultra che la X800xt sono state provate con l'Athlon 64 3400+ quindi nelle stesse condizioni...
allo stesso modo nella rece di HWUpgrade è stato usato un P4 3,06 con bus a 533 per entrambe... quindi entrambe le schede erano nelle stesse condizioni...
io non ho detto di aver confrontato i risultati dei bench in assoluto (è ovvio che i numeri di Anand siano più alti vista la piattaforma utilizzata) ma mi sembra che i distacchi rilevati da Anandtech siano in realtà maggiori di quello che si vede nella rece di HWUpgrade...
se la scheda ATI come architettura riesce a dipendere meno dalla CPU di quella nVidia questo comportamento dovrebbe mostrarlo su ogni sistema, naturalmente nei confronti di bench della 6800 fatti su un sistema uguale... e dalle due rece questo mi pare non succeda...
:)
Quto, apparentemente la R420 con un processore di ultima generazione aumenta considerevolmente le proprie prestazioni. Segno che è de facto più cpu limited dell'ottimo NV40.
Io sono curiosissimo di vedere dei bench massicci con degli AFX53 con filtri a palla, risoluzioni assurde e soprattutto giochi nuovi e non quelli meno recenti.
JENA PLISSKEN
05-05-2004, 14:14
Originariamente inviato da Vifani
Non capisco perché ci sia tutto questo scetticismo sulla differenza di prestazioni tra FP16 e FP32 al punto tale da affermare che le prestazioni misurate in FP16 siano in realtà in PS1.3. E' una realtà che le schede NV3x e NV4x abbiamo un calo con i PS2.0 e FP32. E' una cosa normalissima. Bisogna gestire molti più dati come registri e bandwith. E del resto la scelta di ATI di non implementare FP32 in R420 probabilmente è stata dettata proprio da questo fattore.
Capito...qunindi è normale il calo:)
JENA PLISSKEN
05-05-2004, 15:10
TOH
As a result, XT version of the RADEON X800 features 4 pipelines of the kind, which corresponds to 16 “regular” pipelines, while the PRO version features only three of them and can display 12 pixels per clock this way.
The remarkable thing about it is the fact that """"""""""""""""""all versions of the RADEON X800 graphics processors are identical and all of them feature the full set of “wide” pixel pipelines, but only RADEON X800 XT uses all four of them""""""""""""""""". RADEON X800 PRO has one pipeline disabled, and RADEON X800 SE will have two “wide” pipelines disabled. This approach is a good solution for ATI, as the use of """identical dies""" for all VPU versions allows using the solutions with some defects in one or two of the “wide” pipelines for slower VPU modifications by simply disabling the defective quarter. This way they can also increase the overall production yields, as less chips will now go into the waste basket. Moreover, ATI claims that disabling the pipelines will not affect the work of the HYPER Z HD technology. In other words, we should no longer have the same problem as that of RADEON 9800 SE, i.e. when the disabled half of the pipelines and disabled HyperZ resulted into an even more severe performance drop.
Nn è che x caso addirittura qualcuno si inventa come abilitare le 2 sulla ""SE""??? altro che pro
:asd: :asd: :asd:
andreamarra
05-05-2004, 15:17
Praticamente sarà inserita sul mercato una X800SE???
Se è così la ati ha coperto il problema (a mio giudizio gravissimo) della fascia medio-bassa.
halduemilauno
05-05-2004, 15:23
Originariamente inviato da andreamarra
Praticamente sarà inserita sul mercato una X800SE???
Se è così la ati ha coperto il problema (a mio giudizio gravissimo) della fascia medio-bassa.
come sarà? so sei mesi che lo si sa. 8 pipe 128 di bus ti ricorda qualcosa?
ciao.
;)
andreamarra
05-05-2004, 15:51
Originariamente inviato da halduemilauno
come sarà? so sei mesi che lo si sa. 8 pipe 128 di bus ti ricorda qualcosa?
ciao.
;)
Ma non mi ricordo più una pipa in questo mare di sigle e bench... :asd:
:D
halduemilauno
05-05-2004, 15:57
Originariamente inviato da andreamarra
Ma non mi ricordo più una pipa in questo mare di sigle e bench... :asd:
:D
aggiungo il prezzo annunciato è di 299$.
ciao.
;)
Originariamente inviato da halduemilauno
aggiungo il prezzo annunciato è di 299$.
ciao.
;)
troppo
potevano almeno mettere il bus a 256 bit
bYeZ!
nonikname
07-05-2004, 01:09
http://www.clubic.com/photo/00086472.jpg
http://www.clubic.com/photo/00086473.jpg
Bè, mi aspettavo un dissipatore diverso da ASUS, questo è praticamente identico al reference...
Ma copre anche i chip di memoria?
Dragon2002
07-05-2004, 14:21
Originariamente inviato da ATi7500
troppo
potevano almeno mettere il bus a 256 bit
bYeZ!
300 euro una scheda che nn ha nemmeno il bus a 256 bit è un vero affronto almeno che nn abbia frequenze elevatissime,cmq sono quasi sicuro che uscira subito sui 250 euro e in seguito nn sara difficile trovarla a 200euro,almeno lo spero insomma sia ati che nvidia ci propinano mostri di potenza inimaginabile,ma nessuno che presenti una buona scheda sui 200euro.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.