PDA

View Full Version : Gigabyte GeForce Fx 5950 Ultra vs Powercolor Radeon 9800 XT


Redazione di Hardware Upg
27-11-2003, 15:58
Link all'Articolo: http://www.hwupgrade.it/articoli/942/index.html

Con questo articolo vogliamo presentare la scheda GeForce Fx 5950 Ultra realizzata da Gigabyte Technology, partner storico di ATi Technologies, che ha recentemente preso la decisione di abbinare alla propria linea prodotti Radeon anche quella GeForce Fx. Il confronto con la Radeon 9800 XT di Powercolor ci consente di saggiare la validità di questa scelta

Click sul link per visualizzare l'articolo.

megabit
27-11-2003, 16:14
bella rece ... se dovessi comprare una delle due ora comprerei la geforce solo per il fatto che ho una geforce4 e so già come sono le nvidia. ( chi lascia la via vecchia per la nuova sa cosa lascia ma non sa cosa trova... :D )

Wonder
27-11-2003, 16:17
Chiedo scusa ancora una volta, chissà se stavolta qualcuno della redazione si degna di rispondermi...

Ma non siera detto che non avreste più utilizzato il 3dMark per i bench sintetici? Eppure io vedo che anceh parzialmente lo state usando eccome.

halduemilauno
27-11-2003, 16:32
ottima rece. complimenti.

Paolo Corsini
27-11-2003, 16:34
Originariamente inviato da Wonder
Chiedo scusa ancora una volta, chissà se stavolta qualcuno della redazione si degna di rispondermi...

Ma non siera detto che non avreste più utilizzato il 3dMark per i bench sintetici? Eppure io vedo che anceh parzialmente lo state usando eccome.
http://www.hwupgrade.it/articoli/942/13.html

"Fino ad ora abbiamo valutato solo ed esclusivamente la qualità dell’immagine che offrono le due schede video nell’applicazione dell’antialiasing e del filtro anisotropico. Con il 3D Mark 2003 iniziamo la carrellata di benchmark velocistici. Ricordiamo, tuttavia, che i risultati di questa applicazione non influenzano la nostra valutazione, ma sono utili esclusivamente per studiare come lavora l’architettura di un processore grafico."

Del 3D mark 2003 non abbiamo riportato il risultato finale, ma i test di fill rate e quelli di pixel e vertex shader. Si tratta di bench sintetici che aiutano a capire come oepra l'architettura di un chip, e per questo motivo sono stati utilizzati, non quanto un chip andrà veloce con il gioco XYZ.

Proprio per quetso motivo non abbiamo inserito il risultato del benchmark complessivo.

GHz
27-11-2003, 16:42
Ottima rece! Veramente completa e dettagliata! :)

Molto interessante l'analisi dell'antialiasing e del filtro anisotropico!

Ciao,
GHz! ;)

Jaguarrrr
27-11-2003, 17:10
E brava questa new entry !!!

Sono rimasto contento delle conclusioni: non danno un giudizio assoluto ma relativo all'utente che le debba usare.

Ad esempio io prenderei la 9800 !!!

CIAUZZZZZZZZZZZZZZZZZZzzzzzzzzzzzzzzzzzzzzzzzzzzzzz

CS25
27-11-2003, 17:15
Lavoro perfetto come al solito di Raffaele, che mi trova a concordare al 101% con le sue conclusioni. Decisamente un grande acquisto per hwupgrade :)

Spectrum7glr
27-11-2003, 17:27
vado a memoria ma mi sembra che sia la prima volta da diversi anni a sta parte che in un confronto diretto tra i modelli top delle due case non esce fuori in maniera netta un vincitore...concordate?

Raven
27-11-2003, 17:32
Originariamente inviato da CS25
Lavoro perfetto come al solito di Raffaele, che mi trova a concordare al 101% con le sue conclusioni. Decisamente un grande acquisto per hwupgrade :)

Quoto alla stragrande!!! :)

... e grande rece!!! ;)

atomo37
27-11-2003, 17:54
certo se pensiamo che la 9700 pro era disponibile più di un anno fa nei negozi italiani possiamo concludere che il 2003 non ha portato innovazioni radicali ed innovative come gli altri anni, segno che il mercato è un po' in stasi. Quando sono previsti prodotti competamente nuovi da ati e nvidia?

goalie86
27-11-2003, 17:59
imho prenderei la XT (sono possessore di una hercules 9800)... per il fatto dell'ottimo uso di AA e AF.... se dovessi spendere 500€ per una scheda video vorrei una scheda che dia il massimo con i filtri attivati... sarebbe stupido spendere tutti quei soldi se non si sfrutta a dovere una scheda del genere...

lasa
27-11-2003, 17:59
Nulla di più nulla di meno....aspetto l'r420.....

bau
27-11-2003, 18:04
Considerando che, esattamente come per le schede Radeon 9600 XT e GeForce Fx 5700 Ultra, il prezzo di questi due prodotti è il medesimo (siamo nell’ordine dei 500-550 euro iva inclusa), consigliamo la scheda Gigabyte GeForce Fx 5950 Ultra a coloro che pretendono la velocità massima ed una resa delle texture sempre al top. Gli hardcore gamers che, invece, non sanno fare a meno dell’antialiasing e che esigono un comportamento il più equilibrato possibile in ogni situazione, troveranno nella Powercolor Radeon 9800 XT una inseparabile compagna di gioco.

Ho capito che essere di parte non è una bella cosa ma sbilanciarsi un'attimino.....

Grezzo
27-11-2003, 18:15
Ormai sono anni che leggo le rece di Vifani, sono sempre le migliori IMHO....

giovanbattista
27-11-2003, 19:20
io credo che quando una big come ati o nv producono un chip nuovo ogni anno sia + che suff. (se fosse x me solo all'introd. di nuove opengl o direct x spetta forse esagero) in pratica motivi validi, chiaramente il restiling xchè di questo si tratta è politica commerciale ma anche questi affinamenti sicuramente danno un prodotto migliore e si spera anche + affidabile.
ot:sapete mica come si applica il dissy nella parte posteriore della scheda (il retro del chip) per fare un raffr. ha sandwich, bisogna usare IL PAD BIADESIVO?
che dilemmi eh

MiKeLezZ
27-11-2003, 19:49
Anche in questo caso, tuttavia, abbiamo individuato una nota negativa. Durante il normale funzionamento del sistema la ventola ha un regime di rotazione bassissimo e, pertanto, non produce alcun suono distinguibile. Dopo aver avviato un’applicazione tridimensionale il numero di rpm aumenta così come la rumorosità. Il suono è comunque piuttosto grave e non dovrebbe infastidire più di tanto l’utente: il volume è ampiamente sopra il limite dell’usabilità.

Nota negativa??? Quale???
E' negativo che quando è in 2d non si sente neppure da tanto che è silenziosa? :confused:
Grandi schede..peccato per il prezzo.

ti4600
27-11-2003, 20:00
indovinate un po da che parte sto? ;)

Mark0
27-11-2003, 20:51
Solo una nota riguardo agli screenshots "full quality". Penso che, per il futuro, sia decisamente più auspicabile l'utilizzo del formato PNG, in luogo del TGA (o BMP, o oltri) zippato.
PNG è standard (visibile direttamente all'interno di praticamente qualsiasi browser non vecchissimo) e comprime di più (verificato con uno dei pacchetti della review: 11.6MB rispetto ai 15MB del TGA zippato).

Una sola nota: il supporto al formato PNG di un soft come il PhotoShop, ad esempio, è decisamente carente come efficenza di compressione. Un freeware come XnView fa invece un ottimo lavoro, gratis! :)

Bye!

]AdmIn3^[
27-11-2003, 20:52
scusate una cosa...ma avete visto con che velocità la FX accede alla memoria?...eppure i vantaggi non sono quel gran chè.
Pensate a cosa sfornerà l'ati nei prossimi mesi...
gli accessi alle memoria saranno sullo stile della Fx...ed essendo già un bel pò aventi con la velocità dei proc grafici...DARANNO UN ALTRA BASTOSTA ALLA FX!

Radeon SEMPRE...OVUNQUE!

MiKeLezZ
27-11-2003, 20:55
Ho finito ora di leggere la recensione. Bhe, buona, però i grafici potevate evitare di farli fare a Topo Gigio visto che non si capisce assolutamente nulla; sono l'accostamento di colori piu' confusionario che poteva esserci.
Blu, rosso, giallo, beige, arancione, viola, grigio, che bello, un'arcobaleno.. Non sapevo fosse già arrivato carnevale..
IMHO bisognava scegliere due colori (magari anche un po' hi-tech tipo viola/blu non quel verdino schifido e quel arancione mattone di ora) e poi utilizzarli UNO per le Ati e UNO per nVidia. Cambiandoli poi, ovviamente, di sfumatura per differenziare i vari modelli della stessa casa (o le versioni overcloccate o meno).
Poi fate come volete, comunque così come è solo confusionario non si riesce assolutamente a capire a colpo d'occhio qual'è la scheda video migliore. Che forse sia voluto? :rolleyes:

IcemanX
27-11-2003, 21:16
La recensione è molto interessante, ma un paio di dubbi li ho avuti, ovviamente non sulla bontà e onestà del recensore, sia ben chiaro.
Personalmente avrei preferito vedere test con Max Payne 2 e Warcraft 3, sia per diffusione sia x architettura, magari al posto di Splinter Cell che usa lo stesso motore di UT2003 e Enemy Territory che è il solito Quake3, in cui le GeForce si trovano a proprio agio (sempre mio modesto parere anche se abbastanza documentato) xchè OpenGL più che perchè è un motore vecchio; basti pensare che le tech demo nVidia sono in OpenGL pur potendosi permettere le "magnifiche" DX9. La qualità visiva è molto simile, il supporto nei giochi è un po' diverso, mi vengono in mente solo la IdSoftware e il Litech(in qualunque modo si scriva :D), anche Unreal "supporta" l'OpenGL ma mi sento di dire che la controparte DX è nettamente migliore.
Il secondo dubbio è sul 3dMark, tutto ok x l'uso, ma visti i risultati nei PS2 la domanda sorge spontanea, era patchato alla 340? Sennò non serve a nulla... a riguardo la mia opinione è che dovendo testare SOLO il reparto video sia un programma valido.
I test di immagine di questa recensione sono molto validi anch'essi, mi pare proprio la strada giusta;)
Ciauz ^_^

Dumah Brazorf
27-11-2003, 21:16
Originariamente inviato da ]AdmIn3^[
scusate una cosa...ma avete visto con che velocità la FX accede alla memoria?...eppure i vantaggi non sono quel gran chè.
Pensate a cosa sfornerà l'ati nei prossimi mesi...
gli accessi alle memoria saranno sullo stile della Fx...ed essendo già un bel pò aventi con la velocità dei proc grafici...DARANNO UN ALTRA BASTOSTA ALLA FX!

Radeon SEMPRE...OVUNQUE!

Ecco che arrivano gli ULTRA'... :rolleyes:
Meno tifoseria da stadio e + commenti costruttivi ragazzo :O :p
Veramente niente male questa Gefo, contando anche quanto le si può tirar fuori con l'overclock, ma dato che non me la posso permettere una bella 9800SE e un cero alla Madonna perchè si moddi!!!!! :D
(cmq anche avendo i soldi preferisco la XT :) )
Ciao.

OverClocK79®
27-11-2003, 21:25
concordo con le conclusioni nulla da aggiungere
solo una nota
visto a quanto si trovano le 9800PRO e vista la poca diff di prezzo le consiglio ankora adesso
la XT deve calare un altro po'
per il resto concordo :)

BYEZZZZZZZZZZZZZZZZZZ

CriV
27-11-2003, 22:08
Ottima recensione, però trovo questa frase riguardo al FSAA un pochino diminuitiva...

"Il confronto qualitativo e velocistico da noi realizzato ha evidenziato che per quanto riguarda l’antialiasing è da preferire la tecnologia Smoothvision 2.1 del Radeon 9800 XT. L’immagine che ne risulta, infatti, è leggermente migliore rispetto a quella prodotta dalla concorrenza "

Personalmente trovo la differenza tra ATI e nVidia, soprattutto con il filtro FSAA4x molto evidente (non leggermente):

FSAA 4X nVidia (http://www.hwupgrade.it/i.php?img=fsaa_tester_4x_nv38.jpg)

FSAA 4X ATI (http://www.hwupgrade.it/i.php?img=fsaa_tester_4x_r360.jpg)

Saluti
Cristiano

ps. Vi ricordo che stiamo parlando di schede che costano 500/550€ e quindi mi sembra lecito pretendere il massimo della qualità e delle prestazioni

Daytona
27-11-2003, 22:09
Visto che nessuno di noi gioca con uno zum del 400%!!!! (almeno lo spero per lui:p :D )...direi che le due belve sono praticamente uguli!!!!!
Quindi :
W quella che costa meno...
W quella piu' bella:D :D :D

Solo un appuntino:
Manca il filmatino per sentire il rumorino!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!:cry: :cry:
chissa l' NV38?????? :p

1100000110100000

nonikname
27-11-2003, 22:30
Senza ombra di dubbio , la recensione su i due mostri di fine 2003, merita
tutte le 24 pagine che Raffaele Fanizzi ha diligentemente redatto :lamer:

Ho trovato l'articolo particolarmente scorrevole e, finita la lettura , sono
andato a guardare nel dettaglio le foto delle due schede :sbav: !!!

Concludendo ,(e rileggendomi un'altra volta l'intero articolo !!!) posso ,senza

ombra di dubbio , definire questa ,la MIGLIORE recensione italiana FX vs XT esistente :O

E voglio sottolineare la scorrevolezza , la forma , e la precisione per i dettagli ............
e ,sopra ogni cosa , l'obbiettività tenuta per tutto l'articolo :angel:

http://www.hwupgrade.it/articoli/942/r360_0_s.jpg

http://www.hwupgrade.it/articoli/942/nv38_0_s.jpg


GRANDE ,Raffaele Fanizzi , da oggi sei il mio nuovo idolo!!!

:ave: :ave: :ave: :ave: :ave: :ave: :ave: :ave: :ave: :ave: :ave:


P.S. un link per i file del rumore prodotto dalle due schede sarebbe stato la ciliegina ........
Cosi' sono costretto ad assegnarti un 10 meno meno :winner:

nonikname
27-11-2003, 22:34
Quote
___________________________________________________________________________________________________________
Personalmente trovo la differenza tra ATI e nVidia, soprattutto con il filtro FSAA4x molto evidente (non leggermente):
___________________________________________________________________________________________________________

Scommetti che ci azzecco , hai un'ATI nel case???

nonikname
27-11-2003, 22:41
Se rileggi la conclusione del Grande Raffaele Fanizzi noterai che il suo "ergersi sopra le parti in causa" non si smentisce , e l'obbiettività è la parola d'ordine di questa recensione :

Raf: "Il confronto qualitativo e velocistico da noi realizzato ha evidenziato che per quanto riguarda l’antialiasing è da preferire la tecnologia Smoothvision 2.1 del Radeon 9800 XT. L’immagine che ne risulta, infatti, è leggermente migliore rispetto a quella prodotta dalla concorrenza "

falcon.eddie
27-11-2003, 23:11
Complimenti a Fanizzi per l'ottima recensione...

Però la mia sarà meglio :sofico: :sofico:

Scherzi a parte la 5950 con dissi nvidia posso assicurarvi che non è assolutamente udibile.
Sono passato da 5800U a 5900U ora a 5950U,la prima era abbastanza fastidiosa,la seconda si sentiva(ma mai come la 5800 in 3d) all'avvio del sistema(la ventola girava a velocità massima) e appena udibile nei giochi.La 5950 non la sento neanche all'avvio...Che sia rotta? :D (temp di esercizio tra i 40 e i 65 °c max)

CriV
27-11-2003, 23:37
Originariamente inviato da nonikname
Se rileggi la conclusione del Grande Raffaele Fanizzi noterai che il suo "ergersi sopra le parti in causa" non si smentisce , e l'obbiettività è la parola d'ordine di questa recensione :

Raf: "Il confronto qualitativo e velocistico da noi realizzato ha evidenziato che per quanto riguarda l’antialiasing è da preferire la tecnologia Smoothvision 2.1 del Radeon 9800 XT. L’immagine che ne risulta, infatti, è leggermente migliore rispetto a quella prodotta dalla concorrenza "

Gentile nonikname,

Forse non sono stato molto chiaro...
La recensione effettuata da Raffaele Fanizzi è veramente ottima (eseguita a regola d'arte) e obbiettiva.

L'unica mia "critica" riguarda il FSAA4X di ATI che di test effettuati (vedi screenshots sottostanti) risulta di gran lunga migliore e non "leggermente" rispetto a quello proposto da nVidia
(Monitor 17" Sony G200)

http://www.hwupgrade.it/i.php?img=fsaa_tester_4x_r360.jpg

http://www.hwupgrade.it/i.php?img=fsaa_tester_4x_nv38.jpg

Cordiali Saluti
Cristiano

prova
28-11-2003, 00:04
Non mi esprimo sulle conclusioni perchè mi ero già fatto da un po' le mie idee su questi due nuovi mostri di fine 2003.

Quelle che vorrei fare sono invece le congratulazioni ad Hwupgrade per un livello qualitativo assolutamente INEGUAGLIATO nel panorama editoriale italiano. Compreso quello cartaceo.
La "gente" che scrive su Pc Professionale dovrebbe prendere seriamente esempio: quella rivista non vale una frazione di questa.

Saluti, :)
*Er*

DogTaK
28-11-2003, 00:59
complimenti x la rece

TaK

Vifani
28-11-2003, 01:32
Originariamente inviato da MiKeLezZ
Nota negativa??? Quale???
E' negativo che quando è in 2d non si sente neppure da tanto che è silenziosa? :confused:
Grandi schede..peccato per il prezzo.

La nota negativa è che quando si avvia un'applicazione tridimensionale la velocità di rotazione aumenta e si sente che aumenta... certo, non arriviamo a livello del Flow FX, anzi.... è cmq accettabilissimo, però si nota.

Vifani
28-11-2003, 01:35
Originariamente inviato da Mark0
Solo una nota riguardo agli screenshots "full quality". Penso che, per il futuro, sia decisamente più auspicabile l'utilizzo del formato PNG, in luogo del TGA (o BMP, o oltri) zippato.
PNG è standard (visibile direttamente all'interno di praticamente qualsiasi browser non vecchissimo) e comprime di più (verificato con uno dei pacchetti della review: 11.6MB rispetto ai 15MB del TGA zippato).

Una sola nota: il supporto al formato PNG di un soft come il PhotoShop, ad esempio, è decisamente carente come efficenza di compressione. Un freeware come XnView fa invece un ottimo lavoro, gratis! :)

Bye!

Il formato TGA è il formato nativo con cui Serious Sam consente di fare screenshots ed è stato scelto solo per questo motivo.
Grazie della segnalazione :)

Vifani
28-11-2003, 01:40
Originariamente inviato da MiKeLezZ
Ho finito ora di leggere la recensione. Bhe, buona, però i grafici potevate evitare di farli fare a Topo Gigio visto che non si capisce assolutamente nulla; sono l'accostamento di colori piu' confusionario che poteva esserci.
Blu, rosso, giallo, beige, arancione, viola, grigio, che bello, un'arcobaleno.. Non sapevo fosse già arrivato carnevale..
IMHO bisognava scegliere due colori (magari anche un po' hi-tech tipo viola/blu non quel verdino schifido e quel arancione mattone di ora) e poi utilizzarli UNO per le Ati e UNO per nVidia. Cambiandoli poi, ovviamente, di sfumatura per differenziare i vari modelli della stessa casa (o le versioni overcloccate o meno).
Poi fate come volete, comunque così come è solo confusionario non si riesce assolutamente a capire a colpo d'occhio qual'è la scheda video migliore. Che forse sia voluto? :rolleyes:

I colori li ho scelti io. In un precedente articolo alcune persone che soffrono di una leggera daltonia hanno trovato difficoltà a visualizzare i grafici. I daltonici non distinguono colori di una stessa tinta uno affianco all'altro se si differenziano solo per la tonalità. Se metto un celeste, un azzurro e un blu chiaro per i daltonici è l'inferno. Per questo, soffrendo anche io di una leggera daltonia, ho scelto personalmente i colori in modo che siano uno NETTAMENTE diverso dall'altro.

Vifani
28-11-2003, 01:46
Originariamente inviato da IcemanX
La recensione è molto interessante, ma un paio di dubbi li ho avuti, ovviamente non sulla bontà e onestà del recensore, sia ben chiaro.
Personalmente avrei preferito vedere test con Max Payne 2 e Warcraft 3, sia per diffusione sia x architettura, magari al posto di Splinter Cell che usa lo stesso motore di UT2003 e Enemy Territory che è il solito Quake3, in cui le GeForce si trovano a proprio agio (sempre mio modesto parere anche se abbastanza documentato) xchè OpenGL più che perchè è un motore vecchio; basti pensare che le tech demo nVidia sono in OpenGL pur potendosi permettere le "magnifiche" DX9. La qualità visiva è molto simile, il supporto nei giochi è un po' diverso, mi vengono in mente solo la IdSoftware e il Litech(in qualunque modo si scriva :D), anche Unreal "supporta" l'OpenGL ma mi sento di dire che la controparte DX è nettamente migliore.
Il secondo dubbio è sul 3dMark, tutto ok x l'uso, ma visti i risultati nei PS2 la domanda sorge spontanea, era patchato alla 340? Sennò non serve a nulla... a riguardo la mia opinione è che dovendo testare SOLO il reparto video sia un programma valido.
I test di immagine di questa recensione sono molto validi anch'essi, mi pare proprio la strada giusta;)
Ciauz ^_^

Personalmente preferisco utilizzare solo ed esclusivamente titoli che hanno incorporata una funzionalità di benchmark. Non amo usare il FRAPS perché ritengo che sia uno strumento poco preciso e, soprattutto, se usiamo FRAPS con una demo da noi sviluppata, nessuno di voi lettori può riproporre la misurazione allo stesso modo e confrontarsi con quello che legge.

Enemy Territory è incluso nel pacchetto di benchmark essenzialmente per due ragioni. Innanzitutto è uno dei pochi giochi OpenGL recenti disponibili ed è necessario da parte nostra poter valutare anche come funziona questa API. Quindi, in attesa di Doom III, continueremo con questo motore grafico. Inoltre non tutti giocano solo ed esclusivamente ai titoli più nuovi e il motore di Quake III Arena è ancora oggi molto diffuso.

Splinter Cell è basato su una versione del motore di Unreal pesantemente modificata. Ha un nuovo sistema di gestione delle ombre e effetti di Pixel Shading che UT2003 non ha. Quindi è un metro di paragone validissimo.

Per quanto riguarda 3D Mark 2003 ti confermo che è stato patchato all'ultima versione.

Saluti.

PS. Grazie a tutti per i complimenti :)

IcemanX
28-11-2003, 10:56
Ciao Vifani:) Ci sonosciamo dai tempi del KyroII, non so se ti ricordi cmq...
Spero di non far partire una polemica ma mi hai convinto solo parzialmente, su ET xchè un gioco OpenGL ci deve essere giusto, c'è ET, Call of Duty, GLExcess, va bene tutto.
Su FRAPS il parere è opposto in quanto in questo programmino vedo l'unica possibilità di eseguire timedemo senza che sia possibile x le case ottimizzarle specificatemente; anche solo in UT2003 se usi Antalus&Asbestos e risultati sono tot, se già prendi inferno sono diversi e se poi crei un timedemo personale spesso sono ancora "più diversi". (Senza citare che scheda fa cosa, provare x credere)
... e poi di voi ci fidiamo :) sennò sareste passati "alla leggenda" come Tom :D :D :D
X Splinter Cell non so cosa sia cambiato x il Pixel Shanding, ma oltre alla parte di codice che rileva le condizioni di luminosità(che cmq occupa la CPU più che la scheda video) le ombre mi paiono il "solito" insieme di lightmap + le ombre proiettate dei personaggi, forse mi sfugge qualcosa (seriamente) ma le ho viste da UT2003 fino all'ultimo Deus EX 2, sempre allo stesso modo a parte la quantità di utilizzo.

Grazie x il 3dMark, ciò significa quindi che al contrario delle ottimizzazioni il compilatore JIT di nVidia funziona come deve(lo vedo dai test PS2), quindi il risultato è giustissimo, bravi, bravi;)
Saluti!

majin boo
28-11-2003, 11:09
Originariamente inviato da atomo37
certo se pensiamo che la 9700 pro era disponibile più di un anno fa nei negozi italiani possiamo concludere che il 2003 non ha portato innovazioni radicali ed innovative come gli altri anni, segno che il mercato è un po' in stasi. Quando sono previsti prodotti competamente nuovi da ati e nvidia?

nn capisco perchè il mercato sarebbe in stasi..se un'architettura e buona e adeguata ai giochi in uscita vengono apportate delle successive implementazioni.
E poi scusa, non basta la potenza di questi chip?scusa se è poca, sarebbe ora di cambiare architettura...:rolleyes:

fek
28-11-2003, 11:30
Originariamente inviato da atomo37
certo se pensiamo che la 9700 pro era disponibile più di un anno fa nei negozi italiani possiamo concludere che il 2003 non ha portato innovazioni radicali ed innovative come gli altri anni, segno che il mercato è un po' in stasi. Quando sono previsti prodotti competamente nuovi da ati e nvidia?

L'NV40 "dovrebbe" uscire sul mercato a marzo 2004. E' gia' in tape out ora e dovrebbero essere disponibili i primi sample a gennaio.

fek
28-11-2003, 11:38
Originariamente inviato da Vifani
Splinter Cell è basato su una versione del motore di Unreal pesantemente modificata. Ha un nuovo sistema di gestione delle ombre e effetti di Pixel Shading che UT2003 non ha. Quindi è un metro di paragone validissimo.


Ti faccio i complimenti anch'io per l'ottima recensione.

Un piccolo appunto su SC. Secondo me non dovrebbe essere usato come benchmark perche' usa due algoritmi completamente differenti per renderizzare le ombre su ATI e NVIDIA e i due algoritmi hanno un profilo prestazionale molto diverso. E ' come dire che il benchmark non avviene sulla stessa "piattaforma" e credo che i risultati non siano comparabili per architetture diverse.

PS. Lo so, sono scassaballe per questo, ma potete evitare il plurale dei termini inglesi? Scusami ancora per la pedanteria :)

**mUs3**
28-11-2003, 11:44
quanto costa una 9700 al momento ? sempre che si trovi in giro

mg13
28-11-2003, 12:15
Anch'io condivido il pensiero di MiKeLezZ sui colori dei grafici anche se poi è stata data la spiegazione per la scelta.
Volevo chiedere se nelle recensioni che fate potevate mettere i link da dove si possono scaricare i pgm che usate per fare i benchmark, in modo da poter provare e confrontare i Vs. dati anche con hardware diverso e fare confronti.
Grazie e complimenti per la stupenda recensione.

sdjhgafkqwihaskldds
28-11-2003, 14:05
X **mUs3**
Le 9700 ormai sono introvabili, per chi la volesse ancora ATI ha pensato bene di fare la 9800 non pro che gira a 325/580 MHz , io l' ho trovata a 280 euri.

[JaMM]
28-11-2003, 14:40
Che bella rece... complimenti davvero ;) !!!

TripleX
28-11-2003, 14:53
imho visto che chi compra tali schede guarda al futuro avreste dovuto usare piu' bench dx9 e magari la alpha di doom3....sinceramente mi sembra un po' troppo sopra le parti la review....
per esempio perdere 2 slot pci e' una nota piuttosto dolente visto che anche se fisicamente ne perdi uno chi e' che affianca al dissi una scheda impedendo di respirare alla vga....
inoltre perche' non puntualizzare che nonostante i 10gb/s in piu' di banda la FX sta cmq sotto perche' e' carente nell'architettura....infatti l'overclock non porta benefici coi filtri on....
ancora non credo che chi compra tali schede le usi senza filtri (a tal proposito basta una ti4200 ottima scheda) quindi perche' non dire che Ati e' avanti??
la qualita' visiva dell'AA non e' inoltre quantificabile perche' l'immaggine degli shot non e' comunque uguale come resa che nel gioco a causa della staticita' e compressione naturale della stessa....ci sara' un motivo se gli altri siti dicono che l'AA 4x di Nvidia e' uguale al 2x ATi??
un'altra nota dolente...la FX opera a frequenze esagerate e nonostante il processo 0,13 scalda da matti....ad ati basta un dissino per tenerla fresca e sono talmente sicuri da rendere l'overclock garantito con l'overdrive....imho ati aspetta il passaggio a 0,13 per dare una sonora mazzata ulteriore a Nvida....guardiamo la 9600....beh 500mhhz con dissi passivo (vedi pixelview) un utopia x nvidia e qui non e' il processo produttivo a farla da padrone ma l'architettura in se che x l'FX fa acqua e necessita grandi amperaggi x stabilizzare la gpu....quindi assorbimento elevato=calora....
inoltre non mi pare proprio che le 2 schede costino uguali...basta fare un giro on-line....per esempio nella mia citta' la XT si trova a 480Euro....la 5950 a ben 590Euro...come mai??
spendere di piu' per avere di meno : una vga obsoleta con i titoli dx9 o per lo meno che necessita di un sacco di ritocchi software x farli girare (che sappiamo bene quanti bug e cheat nascondano) non fa altro che consolidare la mia idea....Ati top per ora...vedremo in futuro...certo e' che un cenno sull'uso dei forceware driver tanto discussi x l'utilizzo di ottimizzazioni varie lo si poteva anche fare...come anche l'uso di FP 16bit di precisione contro i Full 24bit di Ati....
imho questo non e' essere super partes anzi.......

Vifani
28-11-2003, 14:58
Originariamente inviato da fek
Ti faccio i complimenti anch'io per l'ottima recensione.

Un piccolo appunto su SC. Secondo me non dovrebbe essere usato come benchmark perche' usa due algoritmi completamente differenti per renderizzare le ombre su ATI e NVIDIA e i due algoritmi hanno un profilo prestazionale molto diverso. E ' come dire che il benchmark non avviene sulla stessa "piattaforma" e credo che i risultati non siano comparabili per architetture diverse.

PS. Lo so, sono scassaballe per questo, ma potete evitare il plurale dei termini inglesi? Scusami ancora per la pedanteria :)

Per Splinter Cell è possibile decidere quali delle due modalità per le ombre utilizzare. Noi, in accordo con altri siti che fanno questo tipo di recensioni, usiamo la modalità Projected perché è quella che funziona su tutti i processori grafici. La buffered è meno compatibile. Quindi comunque le GPU sono valutate a parità di condizione.

TripleX
28-11-2003, 15:06
almeno un cenno sulla perdita di affidabilita' di Nvidia no e'??
se domani saltano fuori altre magagne....??
almeno dire che la FX non e' una vga dx9 full compliant mi pare obbligatorio...che poi via software gestisca tali effetti con perdite qualitative bene....ma un domani nei prossimi games dx9 come AOD chi garantisce che rullino a dovere??
quindi viste le conclusioni stilate sulla validita' delle 2 schede mi pare quantomeno obbligatorio avvertire chi legge la review dei potenziali disagi a cui andrebbe incontro comprando tali schede altro che rumorino della ventola....quantomai ridicolo avendo sentito quello dell'FX flow e di secondaria importanza rispetto a un problema grave che non si sa se verra' arginato sempre...visto che occorre riscrivere interi pezzi di codice nei driver per far girare i giochi dx9 senza contare che in futuro piu' titoli ci saranno piu' i driver peseranno in MB e quando saranno solo giochi dx9 beh cosa faranno il service pack???
LOL

TripleX
28-11-2003, 15:07
Benchmark software company Futuremark has dropped its allegation that graphics card maker Nvidia cheated, ending the dispute between the two companies.

"Futuremark now states that Nvidia's driver design is an application-specific optimization and not a cheat," said Futuremark in a statement.

Nvidia and Futuremark issued a carefully worded, fence-mending joint statement on Tuesday. Explaining why it decided to drop its allegation that Nvidia was fudging results, Futuremark said its normal practice was to frown on optimized code, but said it may change this practice.

"3DMark03 is designed as an un-optimized DirectX test, and it provides performance comparisons accordingly. It does not contain manufacturer-specific optimized code paths," the company said. "Because all modifications that change the workload in 3DMark03 are forbidden, we were obliged to update the product to eliminate the effect of optimizations identified in different drivers so that 3DMark03 continued to produce comparable results.

"However, recent developments in the graphics industry and game development suggest that a different approach for game performance benchmarking might be needed, where manufacturer-specific code path optimization is directly in the code source. Futuremark will consider whether this approach is needed in its future benchmarks," the company said.

Last week Futuremark, one of the leading benchmark software providers, alleged that Nvidia tweaked software needed to run its new GeForce FX 5900 processor to distort performance in Futuremark's 3DMark03 testing application.

The company said drivers--software files that govern how a component interacts with the rest of the PC--for the new Nvidia chip were altered to detect activity characteristic of a benchmark and adjust performance accordingly.

Benchmarks can be important to the prestige, if not the market share, of graphics chipmakers. Nvidia is in the midst of a hard-fought battle with rival ATI Technologies to claim the performance lead in PC graphics processors. After years of Nvidia dominating both in market share and performance, ATI took the speed lead last year with new versions of its Radeon chips.

After settling manufacturing issues that resulted in ongoing delays of product launches, Nvidia has hoped to regain the performance lead this year with the 5900.

In the meantime, new ZDNet lab tests show that the scores of Nvidia's latest hardware dropped by between 14 percent and 22 percent using Futuremark's updated testing software, although at higher image-quality settings the Nvidia chip still matches the performance of ATI's latest Radeon. The update of Futuremark's 3DMark03 eliminates the effects of Nvidia's optimizations.

When ZDNet testers originally ran 3DMark03 tests using Build 320, Nvidia's 5900 Ultra ran circles around the ATI 9800 Pro 256MB. Under the updated Build 330, the 5900 Ultra's 3DMark03 scores dropped by between 14 percent and 22 percent, depending on the resolution and the feature settings, testers said.

At both 1,024 by 768 and 1,600 by 1,200, with no advanced features enabled, the Radeon 9800 Pro 256MB is now noticeably faster. However, once anti-aliasing and anisotropic filtering are enabled, the performance of the two cards is almost identical.

Results remained mixed for other tests, as they had been under the original Build 320 results, and testers said that neither card could be said to take a decisive lead. However, that is an improvement for Nvidia, whose previous GeForce FX 5800 Ultra did not measure up to the competition.

Vifani
28-11-2003, 15:10
Originariamente inviato da IcemanX
Ciao Vifani:) Ci sonosciamo dai tempi del KyroII, non so se ti ricordi cmq...
Spero di non far partire una polemica ma mi hai convinto solo parzialmente, su ET xchè un gioco OpenGL ci deve essere giusto, c'è ET, Call of Duty, GLExcess, va bene tutto.
Su FRAPS il parere è opposto in quanto in questo programmino vedo l'unica possibilità di eseguire timedemo senza che sia possibile x le case ottimizzarle specificatemente; anche solo in UT2003 se usi Antalus&Asbestos e risultati sono tot, se già prendi inferno sono diversi e se poi crei un timedemo personale spesso sono ancora "più diversi". (Senza citare che scheda fa cosa, provare x credere)
... e poi di voi ci fidiamo :) sennò sareste passati "alla leggenda" come Tom :D :D :D
X Splinter Cell non so cosa sia cambiato x il Pixel Shanding, ma oltre alla parte di codice che rileva le condizioni di luminosità(che cmq occupa la CPU più che la scheda video) le ombre mi paiono il "solito" insieme di lightmap + le ombre proiettate dei personaggi, forse mi sfugge qualcosa (seriamente) ma le ho viste da UT2003 fino all'ultimo Deus EX 2, sempre allo stesso modo a parte la quantità di utilizzo.

Grazie x il 3dMark, ciò significa quindi che al contrario delle ottimizzazioni il compilatore JIT di nVidia funziona come deve(lo vedo dai test PS2), quindi il risultato è giustissimo, bravi, bravi;)
Saluti!

Le ottimizzazioni esistono ed esisteranno sempre. Provate a prendere un gioco famoso e a modificare il nome dell'eseguibile. Molto probabilmente avrete risultati differenti.
I driver riconoscono i vari giochi e impostano una serie di parametri ai quali noi non abbiamo accesso.

I risultati di Inferno sono differenti da quelli di Antalus esattamente come lo sono quelli di Asbestos. Ogni mappa ha le sue caratteristiche in termini di dimensioni, effetti grafici, overdraw, ecc... A seconda che un processore grafico sia più o meno veloce nel gestire tali caratteristiche, abbiamo risultati differenti.
L'uso del FRAPS aumenterebbe la dipendenza dalla CPU e porterebbe in più di un caso a situazioni CPU Limited. Le timedemo dei vari giochi sono studiate per appoggiarsi in primis alla GPU e per questo sono più adatte per valutare quello che a noi interessa: quanto è veloce un processore grafico. Inoltre, come già detto nel mio precedente intervento, è fondamentale da parte nostra potervi offrire risultati che voi possiate comparare direttamente ai vostri.
Usiamo 8 diversi titoli, tra cui due diverse mappe (entrambe con caratteristiche molto diverse) per Splinter Cell e UT2003. Penso che questo sia più che sufficiente per delineare il comportamento di una scheda video nella maggioranza delle situazioni di gioco.

Il sistema di ombre di Splinter Cell è più complesso rispetto a quello di UT2003. Mentre per l'uso dei pixel shader, il confronto non esiste nemmeno. Splinter Cell usa Pixel Shader ogni volta che si visualizza l'acqua o si usano una delle differenti modalità di visualizzazione (infrarossi, visione nottura, ecc...).

TripleX
28-11-2003, 15:12
le mie conclusioni sarebbero invece state queste....:
se volete una scheda performante con i giochi dx8 (e solo dx8 xche' anche con i vecchi dx7 e' carentissima e addirittura va peggio di una 4200 e non sto a elencarne il perche') puntate alla FX soprattutto se non usate filtri e siete appassionati di sparatutto da giocare on-line (sappiamo che i progamers disabilitano tutto tanto che i giochi sembrano quelli di un vic20) .....se volete qualcosa di piu' longevo senza nessun compromesso e che rende sempre e comunque bene puntate a Ati....
sempre e comunque imho....

TripleX
28-11-2003, 15:24
un conto e' ottimizzare...cioe' rendere piu' veloce senza alterare i dettagli grafici un conto e cheattare cioe' abbassare la qualita' grafica per rendere di piu'...
Ati lo fece con quack (quake3) e scoppio' uno scandalo lo fa Nvidia ripetutamente a scapito dei clienti e manco un cenno sulla review??
un piccolo ? ci starebbe non credi....sia sui titoli dx9 futuri sia sui cheat possibili futuri...invece manco un cenno...boh....
lasciamo stare il vizietto di nvidia di aggiungere features alle sue schede che in realta' non hanno sin dai tempi del GF3 che dicevano fosse dx8.1 invece e' una vga dx8 e basta ....lasciamo sta' l'architettura dell'FX prima 8x1 ....poi ibrida 4x2 8x1 ora 4x2 .....non commentiamo manco il supporto dx9++ che invece e' un dx8.1++ visto che la mancanza del displacement mapping assieme alle carenza architetturali dei motori ps2.0 e vs2.0 la rendono di fatto tale...a tal proposito non mi stupirei se un domani si scoprisse altra roba nascosta...chi applica una tale politica commerciale e' difficile torni sulla retta via....nonostante le mazzate prese con fx flow sono stati capaci di fare un video gli ingegneri Nvidia stessi dove schernivano la 5800ultra in tutti i modi tanto chi l'ha comprata ride pure no??
spende 500euro e lo prendono per il culo pure bella politica...UN CENNNNNO ALMENO A QUESTE AMENITA'.....un avviso per i niubbi che leggano...una review serve come informazione generale ma anche per orientare un determinato acquisto.....bene...mi pare manchino info fondamentali ad un indirizzo corretto....

MiKeLezZ
28-11-2003, 15:31
Originariamente inviato da Vifani
I colori li ho scelti io. In un precedente articolo alcune persone che soffrono di una leggera daltonia hanno trovato difficoltà a visualizzare i grafici. I daltonici non distinguono colori di una stessa tinta uno affianco all'altro se si differenziano solo per la tonalità. Se metto un celeste, un azzurro e un blu chiaro per i daltonici è l'inferno. Per questo, soffrendo anche io di una leggera daltonia, ho scelto personalmente i colori in modo che siano uno NETTAMENTE diverso dall'altro.
Nell'altro articolo avevo sentito di gente con problemi non di daltonia ma che si lamentava della scarsissima visibilità perchè c'era uno sfondo scuro e dei colori scuri sopra (tremendo).
La tua è una scelta personale opinabile ma comunque da rispettare (per carità) comunque a regola non si mette in croce il 95% delle persone solo perchè un 5% è daltonico, così si crea solo disagio per entrambi (perchè non credo che per i daltonici siano stati molto più chiari..). Comunque un giallo e un arancione (e di conseguenza rosso chiaro e beige), per esempio, sono nettamente diversi ma possono essere facilmente riconducibile ad una stesa famiglia di schede vista la somiglianza di tonalità..

Originariamente inviato da Vifani
La nota negativa è che quando si avvia un'applicazione tridimensionale la velocità di rotazione aumenta e si sente che aumenta... certo, non arriviamo a livello del Flow FX, anzi.... è cmq accettabilissimo, però si nota.
Forse non hai capito ciò che intendevo dire..Secondo te è meglio:
-Ventola a velocità costante (la sua velocità sarà sempre al massimo perchè deve prevedere i "picchi" di potenza del 3d)
-Ventola a velocità variabile (la velocità varia da un limite inudibile ad uno strettamente necessario per il raffredamento; tutto costantemente termocontrollato)
La risposta credo sia ovvia.

IcemanX
28-11-2003, 16:25
X Vifani
Grazie x Splinter Cell xchè non mi ricordavo le visuali in Pixel Shader, mentre per quanto riguarda giochi e mappe continuo a non essere d'accordo e ovviamente mi spiego: timedemo custom verificati con Fraps danno esiti diversi, soprattuto sugli FPS minimi, cosa molto importante; sul CPU limited il problema riguarda i test con intelligenza artificiale o fisica, la scelta di usare Flyby o cmq di testare il solo reparto grafico dovrebbe far si che il problema non si ponga.
Sulla ripetizione dei test a casa posso dire che è molto difficile dare tutte le informazioni, di ogni gioco bisognerebbe fornire versione della Patch e configurazione, ma direttamente dal .ini nella maggior parte dei casi, in modo da avere la massima qualità AA&AF a parte. Mi pare molto macchinoso, ma è l'unico modo x fare gli stessi test; usare un gioco non aggiornato o con settaggi intermedi mi pare discretamente inutile xchè poi nessuno lo usa così a meno che non possa aggiornarlo.(Ma in questo caso non l'ha pagato...) Resto della mia opinione ma finisco qui, credo che nessuno dei 2 cambierà parere. :)
Hai ovviamente diritto (e la scocciatura:) ) a replicare, nel caso leggerò costruttivamente come sempre.
Grazie cmq x la disponibilità.

asterix3
28-11-2003, 16:59
triplex per caso sei di parte ?

no comment

Modhi
28-11-2003, 17:28
Originariamente inviato da TripleX
un conto e' ottimizzare...cioe' rendere piu' veloce senza alterare i dettagli grafici un conto e cheattare cioe' abbassare la qualita' grafica per rendere di piu'...
Ati lo fece con quack (quake3) e scoppio' uno scandalo lo fa Nvidia ripetutamente a scapito dei clienti e manco un cenno sulla review??
un piccolo ? ci starebbe non credi....sia sui titoli dx9 futuri sia sui cheat possibili futuri...invece manco un cenno...boh....
lasciamo stare il vizietto di nvidia di aggiungere features alle sue schede che in realta' non hanno sin dai tempi del GF3 che dicevano fosse dx8.1 invece e' una vga dx8 e basta ....lasciamo sta' l'architettura dell'FX prima 8x1 ....poi ibrida 4x2 8x1 ora 4x2 .....non commentiamo manco il supporto dx9++ che invece e' un dx8.1++ visto che la mancanza del displacement mapping assieme alle carenza architetturali dei motori ps2.0 e vs2.0 la rendono di fatto tale...a tal proposito non mi stupirei se un domani si scoprisse altra roba nascosta...chi applica una tale politica commerciale e' difficile torni sulla retta via....nonostante le mazzate prese con fx flow sono stati capaci di fare un video gli ingegneri Nvidia stessi dove schernivano la 5800ultra in tutti i modi tanto chi l'ha comprata ride pure no??
spende 500euro e lo prendono per il culo pure bella politica...UN CENNNNNO ALMENO A QUESTE AMENITA'.....un avviso per i niubbi che leggano...una review serve come informazione generale ma anche per orientare un determinato acquisto.....bene...mi pare manchino info fondamentali ad un indirizzo corretto....


Giusto, ed aggiungo la mancaza sulla qualità dello sviluppo dei drivers ATI, soprattutto le ultime versioni 3.8 - 3.9. Forse era meglio se non li sviluppavano, sulla mia 9500 pro ci gira la metà dei giochi vecchi :( (parlo per esperienza personale non per articoli letti).


Ma per favore va!!!

Vifani
28-11-2003, 17:46
Originariamente inviato da MiKeLezZ
Nell'altro articolo avevo sentito di gente con problemi non di daltonia ma che si lamentava della scarsissima visibilità perchè c'era uno sfondo scuro e dei colori scuri sopra (tremendo).
La tua è una scelta personale opinabile ma comunque da rispettare (per carità) comunque a regola non si mette in croce il 95% delle persone solo perchè un 5% è daltonico, così si crea solo disagio per entrambi (perchè non credo che per i daltonici siano stati molto più chiari..). Comunque un giallo e un arancione (e di conseguenza rosso chiaro e beige), per esempio, sono nettamente diversi ma possono essere facilmente riconducibile ad una stesa famiglia di schede vista la somiglianza di tonalità..

Ricordo benissimo che si trattava di persone con problemi di daltonia e li ho scelti io proprio per mettermi nei panni di queste persone. Negli scorsi articoli i colori li ha scelti Paolo e poiché lui non vede come un daltonico non può rendersi conto a colpo d'occhio del problema.

I colori non possono piacere esteticamente, ma di certo sono leggibili in questo modo da tutti senza problemi.


Forse non hai capito ciò che intendevo dire..Secondo te è meglio:
-Ventola a velocità costante (la sua velocità sarà sempre al massimo perchè deve prevedere i "picchi" di potenza del 3d)
-Ventola a velocità variabile (la velocità varia da un limite inudibile ad uno strettamente necessario per il raffredamento; tutto costantemente termocontrollato)
La risposta credo sia ovvia.

A me sarebbe stato bene se la massima velocità variabile sarebbe stata comunque silenziosa. La Radeon 9800 Pro è a velocità costante e funziona sempre in modo silenzioso. Pertanto preferisco quest'ultima.

IcemanX
28-11-2003, 17:54
Modhi:
Giusto, ed aggiungo la mancaza sulla qualità dello sviluppo dei drivers ATI, soprattutto le ultime versioni 3.8 - 3.9. Forse era meglio se non li sviluppavano, sulla mia 9500 pro ci gira la metà dei giochi vecchi (parlo per esperienza personale non per articoli letti).


Ma per favore va!!!


Il commento di TripleX è di parte, d'accordo, ma sulla bontà degli ultimi drv non ho nulla da dire; ora uso i 3.9 FIXATI xCoD (a cui cmq ho giocato completamento con il FW giù) e gioco sia alle nuove uscite che ai vari FF7/8, F22 TAW e molti altri vecchi giochi. Molti non tutti, cmq tutti i giochi originali che ho girano; magari posta qualcosa nel forum se non l'hai già fatto, così ci diamo un'occhiata, a volte basta poco x farli andare... Ciao

[JaMM]
28-11-2003, 20:57
X Triplex: ma guarda che nessuno ti dice che ATi o XGI o chi vuoi tu non faccia lo stesso; ricorda che lo scopo di qualunque azienda è guadagnare, e se sarà necessario anche tutte le altre aziende si comporteranno allo stesso modo. Semplicemente, gli avversari di nVIDIA si trovano in una situazione decisamente più rosea, grazie ad un progetto (R300) nato bene ed evolutosi meglio... nVIDIA invece prima di ottenere un risultato all'altezza della concorrenza ne ha passate di cotte e di crude. Con ciò non giustifico il comportamento di queste aziende, ma purtroppo al mondo le cose funzionano così.

MiKeLezZ
28-11-2003, 21:49
Originariamente inviato da Vifani
A me sarebbe stato bene se la massima velocità variabile sarebbe stata comunque silenziosa. La Radeon 9800 Pro è a velocità costante e funziona sempre in modo silenzioso. Pertanto preferisco quest'ultima.
Non sapevo la 9800pro risultasse più silenziosa della xt (d'altronde purtroppo non possiedo nessuna delle due schede in questione), la mia teoria si basava semplicemente sul fatto che una ventola di maggior diametro produce a parità di cfm spostati un rumore minore. Cadendo quindi le fondamenta, cadono anche le affermazioni basate su di esse.
Grazie dellesauriente spiegazione ;) . Probabilmente non sarebbe stato male aggiungere quest'informazione sull'articolo, fare dei paragoni è un ottimo modo per rendersi conto di una cosa.

lzeppelin
29-11-2003, 19:45
Vifiani,
davvero complimenti!
Per le schede video sei un mago,
così come Corsini X le MoBo ;)
Ho sempre in mente la rece che hai fatto sulla 8500 due anni fa! che avanti che sei! :)
Ottimo acquisto HW-UP!

cdimauro
30-11-2003, 06:48
x TripleX. Basta con i soliti attacchi a nVidia! E' chiaro che ti fanno schifo queste schede, ma almeno evita di dire assurdità tipo "non sono full DX9".
Abbiamo capito che ti piace Ati, e che se vedessi Gesù Cristo giocare con una scheda nVidia, ti offriresti volontario per appenderlo al palo e piantargli i chiodi... :rolleyes:

P.S. Ho una splendida 9600Pro... ;)

ti4600
30-11-2003, 06:55
io non tifo per nessuna delle due case , vado dove mi porta il migliore investimento

Raven
30-11-2003, 12:50
Originariamente inviato da cdimauro
x TripleX. Basta con i soliti attacchi a nVidia! E' chiaro che ti fanno schifo queste schede, ma almeno evita di dire assurdità tipo "non sono full DX9".
Abbiamo capito che ti piace Ati, e che se vedessi Gesù Cristo giocare con una scheda nVidia, ti offriresti volontario per appenderlo al palo e piantargli i chiodi... :rolleyes:

P.S. Ho una splendida 9600Pro... ;)

:eek:

... grande! :D

cdimauro
30-11-2003, 20:22
Grazie. M'è venuta d'istinto, dopo essermi sorbito tutti quei messaggi.
E poi è anche colpa del mai rimpianto abbastanza Kubrick... :D

TripleX
30-11-2003, 20:45
ad ogni modo le FX NON SONO FULL DX9

non supportano displacement mapping....
non supportano ps2.0 e vs2.0 in full24bit ma solo 16 bit o 32bit ...nel primo caso con decadimento grafico nel secondo con decadimento prestazionale....
hanno 4pipeline x 2 texture unit...soluzione antica e irrazionale visto che in single texturing hanno la meta' del fill rate di una soluzione 8x1 quando Nvidia ha sempre asserito che usava un architettura 8x1 come riporta la scatola...poi sputtanati dal fill rate...hanno corretto dicendo che usano modalita' ibrida a seconda dei casi......cioe' MAI

se per te questa e' una scheda dx9++ le Radeon cosa sono DX9+++++++++++++++++++ ...brutto vizio ...anche le ottime 4200-4600 erano spacciate per dx8.1 invece supportano solo le dx8.....
per chi dice che tutte le aziende truffano dico....una cosa e farlo una tantum e bene una cosa e dopo essere sputtanti perseverare vedi patch340....chiedi ai possessori obiettivi di FX se dopo tutte ste magagne o per lo meno sul momento che le hanno sapute se erano-sono contenti....
NO COMMENT....

ps se le FX fossero state delle grandi vga come la 4200 non avrei avuto problemi ad ammetterlo...ma cercare di correggere un progetto nato male asserendo una montagna di cazzate non mi pare degno di una casa nota come Nvidia...e farsi pagare oro le sue schede...sapendo che la gente continua a comprare Nvidia solo per la nomea fattasi...una azienda cosi' in Italia la avrebbero fatta chiudere da tempo (vedi associazione tutela consumatori che per ben meno da' noie) ....ma in un continente dove in alcuni stati puoi comprare le armi quasi al supermercato senza porto d'armi e patente a 16anni...e in altri c'e' proibizionismo cosa puoi pretendere??
se la philips vendesse i famosi tv 100hz e si scoprisse che in realta' sono normali 50hz sarebbe fallita da mo' e chi sa con quali sanzioni...bah

TripleX
30-11-2003, 21:14
VERTEX SHADERS 2.0+
With CineFX, vertex-processing capabilities are greatly expanded while programming complexity is greatly reduced, giving game developers the power to achieve any effect imaginable. Fully generalized loops and branches can be data-dependent, giving the CineFX engine a much more straightforward programming methodology than previous architectures. One shader can be written to encompass all the skinning methods and operations, and since the shader can branch on a per-vertex basis, it is not required to break up the model. With these advances, CineFX shatters previous vertex shading limitations.

PIXEL SHADERS 2.0+
CineFX engine raises pixel shading to a first-class programmable citizen of the graphics pipeline, and gives developers a host of new capabilities for controlling pixels and producing effects that are only limited by the imagination.

Advanced CineFX features include the support of 1024 instructions in a single rendering pass, allowing for complex effects that aren’t practical in any other architectures. For example, volumetric effects such as smoke, fur, fire and grass add significant depth and realism to a scene, but require multiple instructions to achieve. What CineFX achieves in one rendering pass takes competing products many more. Procedural texture support obviates the need for spending video memory on large texture maps, and allows for subtle, realistic differences across surfaces. Complex lighting can dramatically improve the realism of images, but traditionally adds to rendering time. With the GeForce FX GPUs all of these gorgeous enhancements are possible without sacrificing performance.

In addition, shaders can now handle multiple textures in one pass for optimized execution, making layered or mixed effects such as paint peeling off a metallic surface possible. The CineFX engine allows fetching from up to 16 unique texture maps in a single pixel shader program. These textures can be anything that defines surface or subsurface properties such as bump maps, ?????displacement maps????, gloss/specular maps, environment maps, shadow maps and albedo maps.


notare le bugie ps2.0+ LOL vs2.0+ RILOL....Displacement mapping...stralol...
specifiche tratte dal sito ufficiale cheats.com....ops....nvidia.com

TripleX
30-11-2003, 21:15
With the GeForce FX GPUs all of these gorgeous enhancements are possible without sacrificing performance.

questa parte la propongo a Claudio Bisio x zelig circus...without scrificing performnce e' troooooooopppppo avanti sta scheda!!

cdimauro
01-12-2003, 06:27
Il displacement mapping si può emulare tramite i vertex shader, il fatto che puoi utilizzare solo i 16 o i 32 bit e non i 24 non è un problema (puoi sempre usare i 32 bit), l'implementazione della pipeline 8x1 non è un diktat di Microsoft, ecc. ecc. ecc.
Queste schede SONO DX 9 compliant, checché tu ne dica. E' chiaro il supporto completo alle feature di cui sopra sarebbe stato fantastico (specialmente il DMH), ma nessuno ti obbliga a comprare nVidia: difatti ho scelto una 9600Pro proprio per questo, mentre altri preferiscono le schede nVidia.
Libertà di scelta in libero mercato, insomma.
Adesso piantala con le tue lamentele perché è tutta roba che ho sentito e risentito "a tinchité" (traduzione dal siciliano: una quantità spropositata di volte :D ).
Per il resto, vedi sopra... :sofico:

johnson
01-12-2003, 11:09
Le affermazioni di triplex sono gravi e stridono nettamente con la recensione di raffaele.
Forse sarebbe il caso che raffaele faccia cmq un po' di chiarezza su alcuni punti. Anche se non è assolutamente dovuto, questo renderebbe la recensione ancora più unica, precisa e completa. Mentre questo silenzio suona un po' presuntuoso, come a dire "che ti rispondo a fare, tanto non capisci 'na mazza": io approfitterei di questa occasione per far tacere per sempre tutti quelli che la pensano come triplex(sempre che abbia torto)... stando zitto ci lasci a tutti nel dubbio :))))
Anch'io avrei voluto dei test sulla alpha di doom3 e sulla leaked di hl2.

IcemanX
01-12-2003, 13:53
Ma?!?!? :p
Johnson d'accordo x la buona fede, non sei neanche il primo che chiede test con Doom3 e HL2, ma dovresti considerare che sono 2 versioni Alpha E rubate.
Tralasciando la totale inesattezza di risultati x il mancato sviluppo non credo sia possibile x motivi legali neanche dichiarare di averli;)
Dobbiamo avere pazienza, cmq i test si possono fare su Max Payne 2(stesso motore di HL2) e CoD (ultimo gioco OpenGL)...
Doom3 e HL2 avranno gli stessi risultati ribaltati, in Doom3 sarà avanti nVidia x maggior velocità di calcolo in OpenGL, FP16 invece di 24/32 e Path proprietario(NV30; R300 invece pare non esista); in HL2 ATI x maggior velocità in PS2.0 [ nonostante FP16 su FX :D] <-- Attenzione! Commento di parte, maneggiare con prudenza :D :D :D

swarzy85
01-12-2003, 23:17
Vorrei associarmi a chi, precedendomi (chiedo umilmente scusa per il ritardo) ha elogiato la recensione.
Sinceramente non comprendo questa impellente necessità ormai RICORRENTE di attribuire ad ogni recensione un vinto ed un vincitore. Come ha puntualizzato Raffaele, le ottimizzazioni esisteranno SEMPRE. Faranno sempre parte di quel gioco di mercato in cui il benchmark sintetico svolge il suo importantissimo ruolo. Siccome le nostre parole non serviranno a nulla (credo contino ben più i fatti; tipo comprare una vga dell'altra casa) l'unica cosa condannabile è l'etica del discorso.
Spostandomi sulla recensione su quanto emerge cosa posso dire? semplice. La premessa che alludeva a semplici overclock, taglia subito corto il discorso. Si ripresenta in effeti la medesima situazione prospettate nelle recensioni di qualche mese fa che vedevano a confronto 9800 Pro e 5900 Ultra con la schede di nVidia generalmente più veloce in Dx 8.1. La sua pecca? alternare ottimi frame rate a decadimenti che la fanno etichettare come schede non conveniente (probabilmente la critica è eccessiva). Nella recensione io vedo due schede che si equivalgono prestazionalmente (col soloito TRAOD in cui le prestazioni delle Fx cadono vertigginosamente) e sinceramente nell'analisi comparativa sull'antialiasing mi aspettavo maggiori differenze qualitative (a vantaggio di ATI) e così non è stato. Insomma...quanto si è visto nel confronto 5900 Ultra 9800 Pro.
Per quanto riguarda le proposte di qualche utente di utilizzare Doom III o Hl2 per i bench...beh sapesse quanto nei forum in giro per la rete si è dibattuto su chi invece li ha utilizzati....
direi che è preferibile non confondere le idee della gente utilizzando come test (qualcosa che dovrebbe rispecchiare la realtà) ciò che in verità altro non è che un qualcosa di incompleto e nemmeno ufficiale.

Il resto sono tutte polemiche da bar che evidentemente piacciono a troppe persone

TripleX
02-12-2003, 10:07
X CDmauro
in confidenza Gesu' Cristo usa una XT limited edition...quindi no problem...truffaldini come sono alla Nvidia ci mancherebbe pure...quindi sia fatta la SUA volonta'!

fek
02-12-2003, 10:43
Originariamente inviato da Vifani
Per Splinter Cell è possibile decidere quali delle due modalità per le ombre utilizzare. Noi, in accordo con altri siti che fanno questo tipo di recensioni, usiamo la modalità Projected perché è quella che funziona su tutti i processori grafici. La buffered è meno compatibile. Quindi comunque le GPU sono valutate a parità di condizione.

Oki, in questo caso il risultato e' paragonabile. Scusa per l'errore.

fek
02-12-2003, 10:51
[B]Originariamente inviato da TripleX non commentiamo manco il supporto dx9++ che invece e' un dx8.1++ visto che la mancanza del displacement mapping assieme alle carenza architetturali dei motori ps2.0 e vs2.0 la rendono di fatto tale...

Sfatiamo un mito. Il disp mapping manca su entrambe le schede o, meglio, c'e' su entramble schede. Le specifiche richiedono che sia possibile effettuare un accesso a texture dall'interno del vertex shader e questo entrambe le schede fanno come richiesto e si comportano allo stesso modo.

Il disp mapping adattivo era appannaggio della sola parhelia.

Come nota aggiuntiva, il disp mapping adattivo sara' disponibile su entrambe le nuove architetture ati e nvidia.

Riguardo ai cosi' detti cheat, vado contro corrente. Fanno benissimo a cheatare i benchmark e lo fanno sia ATI sia NVIDIA (e' una cosa semplicissima da fare). In questo modo spero che la gente si renda conto che i benchmark sintetici sono perfettamente inutili e non danno risultati significativi.

Al limite, come dice giustamente vifani, e' meglio un timedemo.

fek
02-12-2003, 10:57
Originariamente inviato da TripleX
ad ogni modo le FX NON SONO FULL DX9

non supportano displacement mapping....
non supportano ps2.0 e vs2.0 in full24bit ma solo 16 bit o 32bit ...nel primo caso con decadimento grafico nel secondo con decadimento prestazionale....

Le FX sono FULL DX9. In realta' la definizione di FULL DX9 non esiste o, meglio ancora, e' molto fluida.

Ho gia' affrontato il discorso sul disp. mapping, il discorso sui 16/32 bit e' ancora piu' semplice: lo standard DX9 richiede minimo 16 bit e ne consiglia 24. L'architettura NV3X ne offre 16 o 32, quindi e' perfettamente "in regola".

La dicitura PS2.0+ e VS2.0+ si riferisce al set di istruzioni esteso rispetto al PS2.0 e VS2.0 che effettivamente l'architettura supporta.

Per amore di corretta informazione, ti pregherei di evitare di dare giudizi cosi' radicali (e infamanti) soprattutto basandoti su informazioni sbagliate.

swarzy85
02-12-2003, 19:32
Originariamente inviato da fek
Riguardo ai cosi' detti cheat, vado contro corrente. Fanno benissimo a cheatare i benchmark e lo fanno sia ATI sia NVIDIA (e' una cosa semplicissima da fare). In questo modo spero che la gente si renda conto che i benchmark sintetici sono perfettamente inutili e non danno risultati significativi.

perfettamente d'accordo con tutti i tipo post (compreso quello che precede questo;))...meno sulla parte appena quotata. Mi spiego meglio...
credo che gran parte dell'utenza meno esperta si affidi a riviste, voci di corridoio, al parere del proprio negoziante. Voci che in gran parte mettono in risalto il rendimento della VGA X al 3D Mark che fa quindi TOT punti....
se da un lato, come dici, è giusto continuare i cheats (personalmente 3d mark è utile al momento solo per constatere il grado di ottimizzazione del proprio pc e divertirsi ad overcloccare gareggiando con gli amici...), dato che c'è gente che legge costantemente news in rete e sa che ormai Futuremark e i suoi benchmarks hanno perso di credibilità, ugualmente corretto non è nei confronti di chi ne sa meno e si affida a quel numerino per un acquisto.
Spero di aver reso bene il concetto :)

cdimauro
03-12-2003, 07:01
Originariamente inviato da TripleX
X CDmauro
in confidenza Gesu' Cristo usa una XT limited edition...quindi no problem...
Lo dici tu: vedo già poverociccio che sta affilando i chiodi... :D
truffaldini come sono alla Nvidia ci mancherebbe pure...
C'è tanta gente che va a nozze con nVidia: è così difficile poterlo accettare? Non siamo forse dotati di libero arbitrio?
Poi quel che dici è ampiamente opinabile: bisogna vedere come e quando avrebbe truffato. Se mi porti il disassemblato degli ultimi Detonator e mi fai vedere le righe di codice "tarocche", ti crederò... :D
quindi sia fatta la SUA volonta'!
Appunto. Se ci credi, prova a essere più tollerante e ragionevole... ;)

TripleX
03-12-2003, 17:02
32 bit precision e' come non averli visto il decadimento prestazionale
i 16bit danno decadimento qualitativo...bel progresso

TripleX
03-12-2003, 17:03
il displacement mapping viene emulato e non supportato in hw...quindi pena decadimento prestazionale...

TripleX
03-12-2003, 17:05
mica l'ho dico io...l'ha detto un pr nvidia quando sorse la questione...quindi una cosa e' avere un engine programmabile capace di emulare qualsiasi effetto compreso il displacement mapping una cosa e' averlo gestito nativamente...vado in ferramente a prendere i chiodi

TripleX
03-12-2003, 17:06
ps
Ati non cheatta xche' sa che e' contoproducente visto la figura che ha fatto Nvidia...vedi patch340 e decadimento prestazionale di una e dell'altra vga

cdimauro
04-12-2003, 06:44
Anche Ati ha usato dei cheat: con Quake quando arrivarono le prime Radeon, e col 3DMark 2003 prima dello scandalo. Certo, nVidia ha fatto molto di più, ma anche Ati ha le sue colpe (anzi, forse ha iniziato la moda del cheating con Quake :rolleyes: )

Quanto al DMH, penso che fek t'abbia già ampiamente risposto...

TripleX
04-12-2003, 10:19
sbagliare e' umano perseverare e' da bastardi

cdimauro
05-12-2003, 13:39
Appunto: non vedo perché tu debba continuare con questa storia... ;)

halduemilauno
05-12-2003, 14:08
Originariamente inviato da cdimauro
Appunto: non vedo perché tu debba continuare con questa storia... ;)

MiKeLezZ
05-12-2003, 15:15
Originariamente inviato da cdimauro
Appunto: non vedo perché tu debba continuare con questa storia... ;)
Grande, con questa frase l'hai troppo strinato!!!

Raven
05-12-2003, 19:42
Triplex... ancora 1 post (UNO) su questa linea e ci rivediamo fra 15gg... chiaro?! Adesso BASTAAAA!!! Hai STUFATO! Abbiamo capito da che parte stai, ma ti prego di non insistere oltre...

TripleX
15-12-2003, 16:22
beware of nvidiots.........

Raven hai rotto anche te con sta censura fai quello che ti pare.........

Raven
15-12-2003, 19:53
Originariamente inviato da TripleX
beware of nvidiots.........

Raven hai rotto anche te con sta censura fai quello che ti pare.........

Ok... sei sospeso 15gg

mccapiz
18-05-2004, 19:39
X chi volesse acquistare 1 Sapphire ati 9800XT 256 Mb con 3 settimane di vita, scontrino etc... La vendo a 380 € da subito. Mia sorella mi porta dagli USA la X800
eh eh eh.
La mia mail è [email protected]