PDA

View Full Version : Primi benchmark con Half-Life 2


Redazione di Hardware Upg
11-09-2003, 08:27
Link alla notizia: http://news.hwupgrade.it/10762.html

Assieme a Doom 3 il titolo più atteso di quest'anno, Half-Life 2 fa segnare prestazioni nettamente più elevate con le schede video ATI

Click sul link per visualizzare la notizia.

M4st3r
11-09-2003, 08:29
Mi sa che questa notizia creerà nn poche perplessità :D

ally
11-09-2003, 08:29
....questa è LA mazzata per nVidia :O

metrino
11-09-2003, 08:33
c'è da crederci? :o

Wonder
11-09-2003, 08:33
vorrei scoppiare in una fragorosa risata ma mi trattengo. Ora mi sento fortunato ad aver scelto ATi

ally
11-09-2003, 08:36
.....interessanti queste due immagini...

http://techreport.com/etc/2003q3/valve/Image7.jpg

http://techreport.com/etc/2003q3/valve/Image8.jpg

Diadora
11-09-2003, 08:37
mmm, c'è qualcosa che non mi quadra. Comunque mi sto cominciando ad alterare per tutte queste prove che mi sembrano sempre più false...

spetro
11-09-2003, 08:46
Tra l'altro dalle schermate la scheda in oggetto sembra una 9600 NON Pro

Lexon
11-09-2003, 08:46
e chi ha una scrausa 9000 come il sottoscritto dovra' accontertarsi solo del WireFrame o potro vedere anche i poligoni (senza texture ovviamente) :(

Cuiaoz

ULTRA_MASSI
11-09-2003, 08:49
Può essere anche una farsa .... è ancora presto per saperlo....

ma se non lo è ...... è scandaloso che NV chieda una patch per fare bella figura....

the_joe
11-09-2003, 08:50
Ma prima di spararle grosse, almeno aspettare il gioco definitivo no?
Magari includerà delle patch che riequilibrano il tutto.

Si_Vis_Pacem_Para_Bellum
11-09-2003, 08:52
La 5200, come prestazioni, a quale ATI può essere paragonata?

"mmm, c'è qualcosa che non mi quadra. Comunque mi sto cominciando ad alterare per tutte queste prove che mi sembrano sempre più false... "

Forse, o forse è il 3D Mark ad essere falsato (e quindi inutile)?

sanitarium
11-09-2003, 08:52
http://techreport.com/etc/2003q3/valve/Image8.jpg

Praticamente da questa immagine si deduce che la 9600 è di gran lunga la scheda con il miglior rapporto prestazioni/prezzo (FPS/$) tra quelle prese in esame.

kikkobna
11-09-2003, 08:53
per una volta sembra che ne ho azzeccata una ..... la mia 9600pro :)

~efrem~
11-09-2003, 08:54
... domanda che apparirà di certo indegna...

ma che caspiteronzola è il "DirectX 9 con double precision" O_o

un ci capisco nulla...

il conte
11-09-2003, 08:57
Non è sicuramente una verità assoluta e potrebbero smentirsi dall'oggi al domani, ma credo che la Valve non bistratterebbe così la maggioranza dei possessori di schede video "giocose", perdendo compratori, se non ci fosse un fondo CONSISTENTE di verità. Che poi le prestazioni possano essere deficitarie per carenze di programmazione e non di HW, non lo metto in discussione. Rimane il fatto che questi bench non provengono da un sito misconosciuto, magari in ostrogoto e fatti con una pre-alfa su dischetti raffazzonata alla bene e meglio: qui la Valve si è esposta in prima persona. Fa riflettere, quanto meno.

Mirus
11-09-2003, 08:59
Quello che mi irrita, e non poco, è il fatto che le DX9 dovrebbero essere uno standard, perchè mai dobbiamo andare avanti a colpi di patch?!

Scezzy
11-09-2003, 09:07
"Stando agli sviluppatori Valve, questi risultati sono legati alla particolare architettura del chip NV3x di nVidia, che ha richiesto l'implementazione di un path code specifico all'interno dell'engine del gioco così da ottenere discrete prestazioni velocistiche con DirectX 9 abilitate"

Come si interpreta questa affermazione? Che i chip Nvidia non sono compatibili a pieno con lo standard directx9 o che quelli di half life lo hanno sviluppato su misura per i chip ATI ?

E pensare che da notizie come queste... si decidono le sorti di una scheda video :|

leoneazzurro
11-09-2003, 09:08
Sinceramente questa era una che mi aspettavo. Ma non per meriti ATI/demeriti nVIDIA (nVIDIA puo´anche fare delle cazzate, e ne ha fatte parecchie, ma una cosi´abnorme non la vedo possibile). Me lo aspettavo semplicemente da quando e´stato annunciato che Half Life 2 sarebbe stato messo in vendita in bundle con le card ATI. Cosi´come DOOM 3, visto che la ID ha rapporti molto stretti con nVIDIA stranamente dai primi benchmark apparsi in rete, sembra andare molto meglio sulle schede GeForce FX (e sicuramente sara´venduto in bundle con le schede GeForce FX).
Purtroppo il dualismo ATI-nVIDIA a quanto pare ha colpito anche gli sviluppatori, purtroppo. Dico purtroppo perche´andra´a finire che non ti bastera´avere UNA scheda al top per giocare bene, te ce ne vorranno almeno DUE.

Filippo75
11-09-2003, 09:12
Sarei curioso di sapere se è veramente colpa delle schede Nvidia, o di Valve che ha ottimizzato per Ati.
Spero che i programmatori non si mettano ad ottimizzare i titoli per Ati o Nvidia a seconda di quanti soldi prendano dalle suddette case, altrimenti un appassionato di videogames cosa fa, si compra due schede in modo da poter giocare a tutto? :rolleyes:

Si_Vis_Pacem_Para_Bellum
11-09-2003, 09:12
Beh, magari faranno motherboards con 2 slot AGP, così gli utenti più "benestanti" potranno comprare sia la 9800 che la 5900 Ultra e scegliere al boot quale scheda video usare :D :D

~efrem~
11-09-2003, 09:17
macchè

Go buy TI4600 & Radeon 8500 & do it DX8.1 :D

Si_Vis_Pacem_Para_Bellum
11-09-2003, 09:26
Si beh, io magari che di soldini non ne ho tanti sceglierò quella configurazione :)

ultimate_sayan
11-09-2003, 09:27
L'idea di titoli che girano su una o l'altra scheda non è una bella prospettiva ma se questo dovesse servire a sfruttare al 100% le nostre schede pagate oro... beh, allora ben vengano titoli come Half-Life, ottimizzati e performanti!

halduemilauno
11-09-2003, 09:32
Originariamente inviato da kikkobna
per una volta sembra che ne ho azzeccata una ..... la mia 9600pro :)

sbagliato dovevi prendere la liscia.
:D :D

Wonder
11-09-2003, 09:35
Nell'articolo di Techreport si legge anche che in HL2, nVidia ha rimosso la fog via software con i driver e anceh che:
drivers detect screen capture attempts and output higher quality data than what's actually shown in-game

questo si che è giocare sporco...

e nonostante tutto nVidia ha queste penose prestazioni?????

Deuced
11-09-2003, 09:39
alla faccia,quando si fanno gli screen le immagini sembrano più dettagliate? :eek: Riesce a barare anche in questo nvidia!VERGOGNA,ai fatti di ati ribattono con queste porcherie!Sono da denuncia per falsa pubblicità.Intanto sapere che la mia 9500pro andrà bene con hl2 mi fa ben sperare,ma per ora non è nulla di ufficiale.




Ps:Certo che la valve è andata proprio a braccetto con ati,per far andare una 9600 non pro a quei livelli....

leoneazzurro
11-09-2003, 09:45
Originariamente inviato da Wonder
Nell'articolo di Techreport si legge anche che in HL2, nVidia ha rimosso la fog via software con i driver e anceh che:
drivers detect screen capture attempts and output higher quality data than what's actually shown in-game

questo si che è giocare sporco...

e nonostante tutto nVidia ha queste penose prestazioni?????

Questo e´quanto dichiara Valve ma veramente credo che sia fantascienza.....

Uzi[WNCT]
11-09-2003, 09:46
Mi tocca vendere la 4200 eh :( :rolleyes:

zac1
11-09-2003, 09:47
Quale vantaggio potrebbe avere la Valve a realizzare un gioco dove solo gli utenti ati avrebbero prestazioni migliori, ben sapendo che molti utenti hanno schede video nvidia.
Considerate che la cosa principale finalizzata alla realizzazione di un videogioco è cercare di vendere più copie possibili, quindi se emergono queste cose dai test qualche magagna effettivamente ci potrà essere, d'altronde giochi DX9 non ce ne sono ancora in giro a parte i test del 3dmark che come abbimo visto si può ingannare facilmente.
Per ora sono contento di aver scelto ati

ShinjiIto
11-09-2003, 09:47
Scusate sono rimasto un po' indietro con questi numeri e non mi ricordo.. è meglio la 9500 o la 9600? la 9500 vero?

leoneazzurro
11-09-2003, 09:53
La 9500 Pro va meglio.

(Ma la 9600 va meglio della 9500 "liscia")

Murdorr
11-09-2003, 10:09
Quindi io che ho una bella Ati Radeon 9500 pro 128 mega avrò sicuramente delle prestazioni migliori rispetto a una 9600 pro o liscia che sia. Sono molto contento che half life vada alla grande con le Radeon però ora mi preoccupo per doom 3, non è che nvidia spingerà la id a ottimizzare il gioco per schede nvidia??? e lascieranno le radeon indietro??? se così fosse tutta la potenza di una 9500 pro o 9700 pro non sarebbe sfruttata e sarebbe veramente triste e ingiusto. Credo che ci sarebbe una bella rivolta d aparte di noi consumatori.

IcemanX
11-09-2003, 10:14
Uhm... sicuro, mi pareva avessero prestazioni analoghe, 9600 Pro e 9500... cmq
Dov'è la novità? Più o meno 6 mesi fa John Carmack, pur sviluppando DoomIII in OpenGL, aveva detto le stesse identiche cose, tranne per un particolare.
All'incirca ha detto che in modalità ARB2, ossia OpenGL standard "full optional" la 9700Pro ottiene prestazioni superiori alla 5800FX del ? 40/50% non mi ricordo, cmq un numero molto grande... Al contrario, utilizzando i path NV30 ed R300 l'FX è più veloce di circa il 30%, qui la differenza.
In poche parole, le schede ATI eseguono il codice standard in modo molto efficiente, le nVidia no; che poi Carmack sia stato più bravo, più pagato o che la Valve stando con ATI non abbia voluto/avuto voglia di ottimizzare il path, nessuno lo può dire...
Un po' come con il P4, senza SSE2 la sua virgola mobile fa praticamente pena( ve lo ricordate il primo Sandra uscito, che faceva vedere i risultati anche senza ottimizzazioni? Bè ora non lo fa più ;) ), xò ora tutti usano SSE2.
Finchè i programmatori ne hanno voglia o nVidia paga x ottimizzare, nessun problema...
Con Single, Extended e Double Precision si intende appunto la precisione della virgola mobile a 64, 80 o 128 bit; nelle DX9 xò credo indichi la precisione del colore...
Ho sbagliato qualcosa? Scusate se sono prolisso
Byez

dm69
11-09-2003, 10:15
E per fortuna che questo gioco doveva funzionare solo su schede NVIDIA (pochi mesi fa' era passata questa notizia).

Sicuramente NV3x hanno dei problemi con DX9, ma che il 5900 ultra faccia solo 30 FPS mi sembra veramente un pessimo lavoro da parte dei programmatori.

falcon.eddie
11-09-2003, 10:17
Originariamente inviato da zac1
Quale vantaggio potrebbe avere la Valve a realizzare un gioco dove solo gli utenti ati avrebbero prestazioni migliori

$$$?

Chissà quanti ne ha sborsati Ati per avere il proprio logo e per farlo girare meglio...Indubbiamente ha una tecnologia più efficiente ma i risultati mi sembrano davvero troppo scarsi per una 5900Ultra. :confused:
Sicuramente gli stessi che ha sborsato nvidia per far girare meglio doom3(o forse nvidia ne ha cacciati anche di più,Carmack magari è più caro :sofico: ).
Mi stupiscono davvero questi risultati ma dopo che hardocp ha pubblicato questi riguardo a doom3:

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_1_3.gif

Nel primo screen credo che i catalyst davano qualche problema...Mi sembrano valori esageratamente bassi.

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_1.gif

Qui il link di riferimento:

http://www.hardocp.com/article.html?art=NDc0LDI=

Toccherà davvero comprarsi due schede. :muro: :sob:
PS=Diamine la 5200 è la FX più conveniente per fps! :tapiro:

Wonder
11-09-2003, 10:18
A quantio dice Valve, a quanto dice FutureMark....un po' troppa gente dice che nVidia bara, caro mio e sono colossinei rispettivi settori, non i primi sprovveduti ceh passavano di lì. Cmq quando vedremo screenshot della stessa sezione del gioco, una con la fog e una senza, sapro certo riconoscere quale è con nVidia e quale con ATi :) oltre che a capirlo dagli FPS

KAISERWOOD
11-09-2003, 10:18
Originariamente inviato da sanitarium
http://techreport.com/etc/2003q3/valve/Image8.jpg

Praticamente da questa immagine si deduce che la 9600 è di gran lunga la scheda con il miglior rapporto prestazioni/prezzo (FPS/$) tra quelle prese in esame.


scusate ma questo bench f arisultare migliore la 5200ultra al 5900 puo essere?

ally
11-09-2003, 10:28
....come rapporto prezzo/FPS...:)

the_joe
11-09-2003, 10:29
@ kaiserwood

Il grafico indica il costo per frame/sec quindi che ci può essere di strano, le schede che costano meno sono + avanti!!! ;)

BYE

IamWace
11-09-2003, 10:34
Certo che può essere...Anzi sicuramente è! La 5200 ha sicuramente un miglior rapporto Frame al secondo/preezzo visto che costa molto meno...
Situazione simile ma molto più estesa è quella tra 9800Pro e 9600... Da questo si deduce che la 9600 sia un gran bel prodotto!

KAISERWOOD
11-09-2003, 10:35
non avevo cpaito il grafico :). Credo che adesso sia nvidia ch eati staranno lavorando sui driver di questi schede.

IamWace
11-09-2003, 10:42
Penso che i programmatori dei drivers sia di Ati che di NVidia non dormiranno molto nelle notti a venire... Sinceramente credo che a causa delle "alleanze" Ati abbia avuto una preview del codice di HL2 e abbia ottimizzato già un po' i drivers e lo stesso abbia fatto NVidia con D3... Suppongo che NVidia non abbia avuto preview di HL2 e Ati di D3... Secondo me ecco spiegati i bassi framerate.

the_joe
11-09-2003, 10:44
Pulce nell'orecchio, ma che sia che tutte le "dicerie" che sono circolate circa la non "perfetta" implementazione delle DX9 da parte dei chip di NVidia siano in parte vere? Oramai le voci stanno diventando un coro, poi che con Open GL vadano meglio di ATI, non c'è niente di strano, lo hanno sempre fatto.

royal
11-09-2003, 10:50
è guerra aperta.ki pensa di comprare oggi una scheda top(500-600€) e giacare al max qualsiasi cosa..sbaglia di brutto.prima o poi doveva succedere......infatti è successo.

pg08x
11-09-2003, 10:56
Che sfruttasse appieno le directx9 fino ad ora c'era solo il 3dMark2003.
Ati non ha bisogno di ottimizzazioni per essere performante appieno con questa versione del directX.

the_joe
11-09-2003, 10:59
In realtà esistono degli standard proprio per evitare queste situazioni, se esistono OPENGL e DIRECTX, produttori sono tenuti a fare dei prodotti che le eseguano correttamente e magari fra un prodotto e l'altro le differenze dovrebbero essere di pochi punti percentuali come è sempre stato fino alle DX 8.1 dove si combatteva per un 5% e idem per Open GL, ora le differenze sembrano cresciute di un ordine di grandezza (50%) e questo mi sembra inammissibile, c'è qualcosa che non mi quadra o i produttori stanno facendo delle grosse c@@@te o i bench sono tarocchi.

tacito77
11-09-2003, 11:14
Spero che questa sia l'apice di questa assurda lotta "sporca" tra ATI e NVIDIA!
è compito nostro (utenti e compratori) far tornare le cose in ambito più accettabile!
Aspettavo HF2 da tempo ..... ma non cambio scheda per lui ......se non gira decentemente con la mia nvidia (4200) allora non lo compro!

nonnovi
11-09-2003, 11:21
beh se veramente è così la faccenda...per Nvidia si prospettano notti insonni a creare driver nuovi...non credo sia questione di scheda non valida...io ho una 9800 pro,ma ritengo che la 5900 sia cmq un ottima scheda...

OverClocK79®
11-09-2003, 11:28
leggetevi l'articolo di Techreport e nn fermatevi ai primi benk :)

cmq sta di fatto che nVidia su questo titolo qlk problemino lo ha
credo che alla fine forse è il modo con cui viene fatto eseguire il gioko e che di sicuro gli utenti nVidia che hanno le varie 5600/5900 nn posso di certo stare li con quei pochi frames......

indi per cui credo che in futuro, tramite ottimizzazioni specifiche, tramite implementazioni che favoriranno l'architetuttura di nVidia magari anke dopo qlk mese dall'uscita.......
nvidia si rialzerà
speriamo che siano solo ottimizzazioni software e nn trucchi alla sparisce questo sparisce quest'altro....

per il fatto dei PS 2.0 si sapeva che le skede NV fossere inferiori ma nn credevo influsse così tanto....
quindi o il benk fa girare solo scene con i PS attivi o altro nn saprei.....

aspettiamo la versione finale o una demo/benk rilasciato per fare qlk test :)

forse avremo come per doom3
varie modalità con cui far girare il gioko

BYEZZZZZZZZZZZZZZ

P.S.aggiungo che spero che sistemino questo bug per nVidia anke perchè credo che il motore di HL2 credo verrà utlizzato in futuro anke per altri gioki

Wonder
11-09-2003, 11:28
Se i programmatori delal VALVE hanno seguito alla lettera le specifiche DX 9 allroa è chiaro che c'è una certa deficenza da parte di nVidia a rendere bene in DX9, visto che come affermate, Doom3 è stato codificato apposta per seguire le particolari specifiche nVidia.

Al di là che fate dei paragoni fra giochi DX e giochi OGL (mele con pere), credo ceh le 2 scehde top di gamma di ATi e nVidia vadano, per cosi dire, su rotaie con un passo diverso, e ognuna rende il massimo solo sulal sua rotaia. Al tempo l'ardua decisione di vedere quale delle due rotaie è piu vicina a quella del DX9

DjLode
11-09-2003, 11:41
Originariamente inviato da Scezzy
Come si interpreta questa affermazione? Che i chip Nvidia non sono compatibili a pieno con lo standard directx9 o che quelli di half life lo hanno sviluppato su misura per i chip ATI ?


Semplicemente che per fornire prestazioni in linea con le concorrenti Ati il codice deve essere ottimizzato per i chip Nv3x.
Da qui creazioni di path apposite e, pare, l'inserimento di un compilatore/ottimizzatore on the fly nei deto 50.xx.

ally
11-09-2003, 11:44
...ma allora puo' anche esserci un ottimizzazione per ATI? ....sarebbe veramente interessante sapere se ci sono state o meno ottimizzazioni per quest'ultima :)

TheDarkAngel
11-09-2003, 11:46
ah si come sono belle perfomanti le sk video nvidia...
kissà se qualcuno oserà ancora consigliarle...
ora nvidia passerà notti x fare driver ke ti dimezzino la qualità pure di avere una fluidità umana...
tanto è normale x loro abbassare la qualità x le prestazioni...

HyperOverclockII
11-09-2003, 11:48
Chissà quanto ha pagato ati per far sviluppare half life 2 in modo ottimizzato per le sue schede....

TheDarkAngel
11-09-2003, 11:49
ma ke pagato...
ha solo detto alla valve di seguire le dx9...
nn ha fatto molta fatica...

jcvandamme
11-09-2003, 11:52
Io lo avevo sempre detto.

L'architettura NV3X e' un vero fallimento..

I nodi stanno venendo tutti al pettine.

E per chi crede che doom 3 avvantaggera' nvidia sappia che HARDOCP ha negato tutto in seguito , con un editoriale nel quale ha accusato Nvidia che non si possono fare test su un gioco che deve uscire piu' di un anno dopo.

HL2 invece esce il mese prossimo e ormai e' definitivo.

Io con la mia bella bella 9600 PRO giochero' meglio dei poveretti che si prendono una 5900 FX MUAHAHHAHAHAH

jcvandamme
11-09-2003, 11:55
A questo punto chi non crede che nvidia sia nel torto con i trucchi dei driver eccetera... HA PROPRIO DELLE FETTE DI PROSCIUTTO SUGLI OCCHI.

Adesso chi recensisce le schede sta attento ai driver... E QUANDO CI SONO TRUCCHI TIPO EFFETTO NEBBIA DISABILITATO , O QUALITA' VISIVA INFERIORE...

VENGONO BECCATI SUBITO.

IL CRIMINE NON PAGA E NVIDIA VERRA' LINCIATA DAL GRANDE PUBBLICO ALL'USCITA DI HALF LIFE 2.

Tutti quelli che conosco ormai comprano Ati.

Gia' il mese scorso erano pochissimi quelli che compravano 5600 o 5900 fx... poveretti che fregatura...

C'e' qualcuno in questo forum che alla luce di questi dati HA IL CORAGGIO DI COMPRARE UNA SCHEDA NVIDIA ORA ?

andrewxx
11-09-2003, 11:58
A prescvindere da patch varie, mi sa che è l'hardware della NV che è uscito maluccio, nel senso che fino a poco tempo fa, malvidia, sviluppava in collaborazione , per i titoli + blasonati perciò aveva sempre un passo in + rispetto alla concorrente, ma da quando ati ha rafforzato i suoi rapporti con le varie software house il trucchetto è andato a farsi benedire ma nn solo, in + ati ha + dindini e si può permettere ricerca e sviluppo maggiore , domm 3 non va a manetta con ati..... nel giro di un mese dalla sua uscita, uscirà la patch "elimina freno a mano per schede ati" è il problema si risolverà , ma un gioco solo nn fa na piega , la maggior parte dei giochi verranno svilupati per dx9 in futuro , e le S.H. nn si stresseranno di certo ad implementare patch per l'una o l'altra scheda, saranno gli sviluppatori di driver a pensare ai miglioramenti da apportare nel complesso del parco giochi , perciò un hardware con pieno supporto a dx9 è già nettamente + avanti di uno che deve utilizzare patch e quant'altro per avere il supporto .

falcon.eddie
11-09-2003, 12:00
Originariamente inviato da jcvandamme
Io lo avevo sempre detto.

A questo punto chi non crede che nvidia sia nel torto con i trucchi dei driver eccetera... HA PROPRIO DELLE FETTE DI PROSCIUTTO SUGLI OCCHI.


IL CRIMINE NON PAGA E NVIDIA VERRA' LINCIATA DAL GRANDE PUBBLICO ALL'USCITA DI HALF LIFE 2.

Io con la mia bella bella 9600 PRO giochero' meglio dei poveretti che si prendono una 5900 FX MUAHAHHAHAHAH


:blah: :blah:

Sempre peggio eh...Ma non eri già stato sospeso due volte? :rolleyes: Mah...
Flame sempre e comunque eh?

Ck
11-09-2003, 12:01
http://www.multiplayer.it/oldnews.php3?id=24249

Se fosse vera questa notizia, e quindi che HL2 sarebbe il miglior benchmark per le dx 9, nVidia è messa maluccio...

Smasher_Devourer
11-09-2003, 12:02
Originariamente inviato da TheDarkAngel
ma ke pagato...
ha solo detto alla valve di seguire le dx9...
nn ha fatto molta fatica...
Ragazzi, leggiamo meglio gli articoli linkati prima di parlare...ATI e Valva hanno stipulato un accordo OEM per HL2 (cioè HL2 sarà in bundle con le schede ATi ed avrà il logo ATi da qualche parte) così come Id (e Epic per UT2003) lo hanno con Nvidia.
Spero che non si avveri l'assurdità di avere due giochi di punta che girano in maniera completamente diversa con le due schede: ottimizzazione ci può anche essere ma a me pare che ci sia da parte di Ati e Nv la volontà di confrontarsi con l'avversario non solo sul piano delle prestazioni ma anche sul piano economico (pago per non far andare HL2 sulle tue schede ed io pago per non far andare D3 sulle tue).
Insomma una situazione francamente insammissibile!

jcvandamme
11-09-2003, 12:06
NVIDIA's NV3x-derived chips are way off the pace set by the ATI DirectX 9-class cards. The low-end GeForce FX 5200 Ultra and mid-range GeForce FX 5600 Ultra are wholly unplayable. The high-end GeForce FX 5900 Ultra ekes out just over 30 fps, well behind ATI's mid-range Radeon 9600 Pro (and yes, that score is from a 9600 Pro, not a stock 9600—the slide was mis-labeled). The Radeon 9800 Pro is twice the speed of the GeForce FX 5900 Ultra"

kronos2000
11-09-2003, 12:12
Se leggete anche la FINE dell'articolo vedete che la Valve ha risposto punto per punto alle critiche(rumors, le ha definite la Casa)che le hanno mosso i più critici. Inutile sparare ad alzo zero se le informazioni sono ancora così poche. Di certo c'è solo una cosa: sono mesi e mesi che vien fuori che l'hardware nVidia mostra ottimi risultati solo taroccando i bench oppure, come in questo caso, utilizzando codice mirato e scritto a mano!

jcvandamme
11-09-2003, 12:16
La valve ha chiesto esplicitamente di non usare i DETonators 50 per i test ai principali siti, poiche' contentono ottimizzazioni NON VALIDE, cioe' truccate come quelle del 3dmark... aumentano la velocita' a spese di una qualita' inferiore.
------------------
nVidia has been circulating its Det50 driver to analysts in hopes that we would use it for our Half-Life 2 benchmarking. The driver contains application-specific optimizations that will likely improve nVidia's overall performance picture, however Valve's Gabe Newell expressed concerns that some of nVidia's optimizations may go too far. Doug Lombardi of Valve has explicitly asked that beta versions of the Det50 drivers not be used for benchmarking.


At this point, we'll have to withhold judgment on the matter until we've had some time to benchmark the Det50 drivers and look at their image quality running Half-Life 2. As we've seen, performance is only one piece of the puzzle. We all want good performance, but not at the expense of image quality

jcvandamme
11-09-2003, 12:21
Valve is pissed at all of the benchmarking "optimizations" they've seen in the hardware community;
- Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates.
- even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath;
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra;
- ATI didn't need these special optimizations to perform well and Valve insists that they have not optimized the game specifically for any vendor.

There you have it folks, there's much more coming tomorrow.

S4dO
11-09-2003, 12:23
buahahahaha!!!!! nvidia!!!!!!!!!! ahahahahaahahahahahahahahahahahahahahahahahah

lasa
11-09-2003, 12:27
Mi sa tanto che terrò la mia 9700pro@9800pro per ancora un bel po'....almeno fintanto non uscirà la r420....ma a quel punto spero di avere una mobo con PCIX64 100mhz....e penso che tanti attendano tale soluzione....soprattutto dopo aver provato mobo multiprocessore dotate di tale feature, forse non rivoluzionarla ma sicuramente superiore al vecchio AGP......

nanix78
11-09-2003, 12:36
Originariamente inviato da metrino
c'è da crederci? :o


a mio parere proprio no....questi test sono completamente fasulli SECONDO ME! e presto la verita' verra a galla!...
ho provato e fatto molti benchmark sia con una 9800 pro, sia 9600pro e fx5900 ultra....
la 5900 e la 9800 hanno prestazioni quasi identiche, anzi la 5900 a volte sembra essere + performante....come diavolo si fa a credere ad un test che la 9600pro e' + performante del 50% della 5900????

ma dai che cazzate...

mike65
11-09-2003, 12:41
Ma dove sono finiti i bei tempi in cui potevi usare una scheda video anche due anni???

TheDarkAngel
11-09-2003, 12:42
proprio vero ke te di sk video ci capisci zero...

goldorak
11-09-2003, 12:43
Originariamente inviato da nanix78
a mio parere proprio no....questi test sono completamente fasulli SECONDO ME! e presto la verita' verra a galla!...
ho provato e fatto molti benchmark sia con una 9800 pro, sia 9600pro e fx5900 ultra....
la 5900 e la 9800 hanno prestazioni quasi identiche, anzi la 5900 a volte sembra essere + performante....come diavolo si fa a credere ad un test che la 9600pro e' + performante del 50% della 5900????

ma dai che cazzate...



Scusa, ma come fai a dire che sono test fasulli. Per caso disponi della versione benchmark di hl2 ? :rolleyes:

zac1
11-09-2003, 12:45
Qui si parla di giochi DX9.0 e non di giochi sviluppati con Dx 8.0, per cui se esistono delle magagne dal punto di vista architetturale della scheda ecco che saltano fuori....
Per quanto riguarda i det.50 nvidia, non capisce che per gudagnare qualche frame in più prende in giro i suoi utenti che hanno riposto fiducia nei suoi prodotti.
Nvidia vergogna una bella tirata d'orecchi.... almeno per ora

OverClocK79®
11-09-2003, 12:47
prevedo flame in arrivo :rolleyes:

BYEZZZZZZZZZ

IcemanX
11-09-2003, 12:51
x nanix78
Scusa ma x curiosità, con cosa li hai fatti i test? ;)
Qua cmq si parla di prestazioni DX9 pure, senza motori ottimizzati, x esempio ho visto di persona girare 3dmark 2003 su 5900FX, a parte il fatto che i Det 45.23 bypassano la patch di futurmark e siamo di nuovo al punto di prima, è palese la compenetrazione tra ombre e poligoni del volto del soldato nella scena dell'ascensore in Battle of Proxicon. Xchè? Evidentemente la precisione di FP o ZBuffer è LIEVEMENTE ridotta in funzione delle prestazioni. Oppure 3dmark 2001, avete mai visto la scena complessa del drago con gli ultimi Det e una 4600? Il drago sfarfalla; mettete AA4X, il drago non c'è proprio! Carino xò vedere la tipa che svolazza dietro a 2 bagliori rossi...
DoomIII, potrebbe essere un altro bench, ma solo in modalità OpenGL standard, altrimenti (e cito una rivista) stiamo solo guardando quanto sono stati bravi/pagati alla ID x ottimizzare un path piuttosto che un altro...
Che dire di Splinter Cell? Prima demo, con la mia vecchia 8500 ci gioco, finisce, carina, tutto a posto. Seconda demo, in modalità infrarossi rigazze e quadrati bianchi in giro x lo schermo, cavoli che ottimizzazione.
This is the nVidia way to pay... (perdonatemelo ;) )

Zak84
11-09-2003, 12:52
Ragazzi sono molto perplesso sull'autenticità di questi bech.
Come è possibile che se una FX5900 Ultra va alla metà di una 9800pro, nVidia metta dei loghi di HL2 sul proprio sito????

Link (http://www.nvidia.com/object/winxp-2k_45.23)


Riflettiamo bene e aspettiamo il gioco o un bench che possiamo eseguire noi stessi sui nostri PC prima di intasare il forum con ovazioni da stadio o voci di corridoio.


BYEZZZZ!!!!!!!!!! ;)

PeK
11-09-2003, 12:53
Originariamente inviato da nanix78
a mio parere proprio no....questi test sono completamente fasulli SECONDO ME! e presto la verita' verra a galla!...
ho provato e fatto molti benchmark sia con una 9800 pro, sia 9600pro e fx5900 ultra....
la 5900 e la 9800 hanno prestazioni quasi identiche, anzi la 5900 a volte sembra essere + performante....come diavolo si fa a credere ad un test che la 9600pro e' + performante del 50% della 5900????

ma dai che cazzate...

uomini dalle fette di prosciutto

TripleX
11-09-2003, 12:59
Beh forse nessuno di voi ha notato che nei test Pixel shader....advanced pixel shader e vertex shader nvidia con le FX sta dietro del 50% di fps ad Ati....i giochi futuri come hl2 basati su tale motore pix e ver avranno quindi carenze del 50% proprio come si evince dal 3dmerd....questo e' quanto...sorry x chi ha nvidia nel case ma il motore dx9 di questa vga e' pietoso lo si sapeva....ora escono giochi dx9 e le magagne escono e il divario aumenta...doom3 e0 OPENGL quindi e' storia a se...

TripleX
11-09-2003, 13:00
ps
ecco perche' non andava l'AA con HL2....xche' gia' senza la 599ultra faceva 10fps con non parte manco....LOL

ciales
11-09-2003, 13:07
Se c'era la 3DFX erano dolori per tutti!!!! :-)
Cmq secondo me bisogna aspettare la versione definitiva e se la situazione nn cambia la cosa mi pare ovvia se due schede dovrebbero essere equivalenti e una va più veloce o c'è qualche problema vario ma in questo caso per me le case (Ati,Nvidia) pagano una casa software (di punta tra l'altro) per fare giochi che vadano BENE solo sulla propria scheda....Io ho una geffo 2 recentemente acquistata ma accuso ugualmente la nvidia tra 3dmark "truccato" e questi giochi.....BAH....

Marino5
11-09-2003, 13:13
quello che mi sento di dire è che i giochi NON devono essere ottimizzati per questa o per quella scheda ma per le directx e le vga devono girare perfettamente senza caxxate varie (600€ di scheda video..) con codice standard dx9, senza ottimizzazioni. questo perkè oramai stiamo cadendo nel ridicolo!!! serviranno davvero 2 vga per giocare decentemente! eccheccaxxo!

sanitarium
11-09-2003, 13:17
Originariamente inviato da ciales
Se c'era la 3DFX erano dolori per tutti!!!! :-)
Cmq secondo me bisogna aspettare la versione definitiva e se la situazione nn cambia la cosa mi pare ovvia se due schede dovrebbero essere equivalenti e una va più veloce o c'è qualche problema vario ma in questo caso per me le case (Ati,Nvidia) pagano una casa software (di punta tra l'altro) per fare giochi che vadano BENE solo sulla propria scheda....Io ho una geffo 2 recentemente acquistata ma accuso ugualmente la nvidia tra 3dmark "truccato" e questi giochi.....BAH....

Secondo me invece i pagamenti alle software house non c'entrano... E' più probabile che con l'uso dei pixel shader, abbondantemente presenti nelle applicazioni basate sulle dx9, stiano venendo a galla in modo evidente i problemi che le schede basate su NV3X hanno già mostrato nei test sintetici condotti finora.

leoneazzurro
11-09-2003, 13:18
Originariamente inviato da Wonder
A quantio dice Valve, a quanto dice FutureMark....un po' troppa gente dice che nVidia bara, caro mio e sono colossinei rispettivi settori, non i primi sprovveduti ceh passavano di lì. Cmq quando vedremo screenshot della stessa sezione del gioco, una con la fog e una senza, sapro certo riconoscere quale è con nVidia e quale con ATi :) oltre che a capirlo dagli FPS

Intendevo dire la storia dello screen capture. A me che nVIDIA abbia fatto cazzate e´palese. Ma fare una cosa del genere da driver non e´facile ne´credo economicamente "fattibile".
Per inciso, io a casa ho una GeForce Ti 4200 (Il miglior rapporto prezzo/prestazioni quando e´uscita) e se dovessi comprare una scheda adesso propenderei per le ATI 9500pro (a trovarle) oppure una 9700 o 9800 liscie (sempre ottimi rapporto prezzo prestazioni).
Resta poi da spiegare come mai in Doom 3 (gioco directX 9 pure lui) le cose siano totalmente ribaltate senza andare a toccare nebbie o altro. La cosa che fa paura qui non e´che gli utenti facciano i fanatici di questa o quella marca (Io son fedele a chi mi da´le prestazioni ad un prezzo ragionevole) ma che pure gli sviluppatori si mettano ad incasinare il tutto supportando appieno solo una scheda e garantendo solo prestazioni mediocri con le altre, per mere ragioni economiche.
Se domani venisse fuori Doom 3, ti piacesse ma poi vien fuori che la ID lo fa girare su una 9500 pro a 10 FPS, cosa diresti?

pg08x
11-09-2003, 13:21
Nel rendering dei pixel shaders 2.0 del directx9 su schede nvidia se le istruzioni non vengono ordinate ad hoc assistiamo a pesanti cali di performance.
Per le schede ATI qualsiasi sia l'ordine il risultato cambia ben poco

Doom3 verrà pesantemente ottimizzato per nvidia, altrimenti sarebbe già pronto, considerate anche che sono stati sborsati milioni di $ per il porting a xbox.

sanitarium
11-09-2003, 13:23
Originariamente inviato da leoneazzurro
Resta poi da spiegare come mai in Doom 3 (gioco directX 9 pure lui) le cose siano totalmente ribaltate senza andare a toccare nebbie o altro.

Doom III è sviluppato in OpenGL. Inoltre va sottolineato che Doom III è lungi dall'uscire, mentre Half Life 2 lo vedremo sugli scaffali tra qualche settimana, quindi il fatto che i catalyst 3.6 andassero male con DIII per me non è assolutamente motivo di preoccupazione.

EDIT: I catalyst ai quali mi riferivo erano i 3.4.

ally
11-09-2003, 13:32
.....ma come mai in DX8 la super geffo ha prestazioni quasi identiche alla 4600TI? :p

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchmarks/hl2_valve_dx9v8.gif

TripleX
11-09-2003, 13:36
xche' e' una 4600 overcloccata ...LOL

DjLode
11-09-2003, 13:38
Originariamente inviato da HyperOverclockII
Chissà quanto ha pagato ati per far sviluppare half life 2 in modo ottimizzato per le sue schede....

Sicuramente meno di Nvidia per farsi creare un path apposito Nv30 in Doom3.
A parte gli scherzi, i commenti li legge qualcuno? Dubito. C'è scritto semplicemente che HL2 si attiene agli standard dx9, Nvidia non lo fa e quindi va peggio. Punto.
Poi gli accordi che tanto decantate ci sono dai tempi di UT2003 (il primo che mi viene in mente), con logo Nvidia all'inizio. Su Ati infatti questo gioco andava da schifo.

IcemanX
11-09-2003, 13:39
x marino5
Giusto! D'altronde se c'è uno standard non vedo xchè non rispettarlo, non capisco invece Microsoft come faccia a certificare WHQL certi Drv...

DjLode
11-09-2003, 13:40
Originariamente inviato da ally
.....ma come mai in DX8 la super geffo ha prestazioni quasi identiche alla 4600TI? :p



Per lo stesso motivo per cui una Gf2 Ultra va meglio in Dx 7 di una Gf3. Vi state facendo problemi strani su questioni inutili.

leoneazzurro
11-09-2003, 13:45
D´accordo, sono standards diversi,
ma che in Open GL le operazioni di rendering non vengono eseguite? Che non esistono effetti grafici in Open GL?
Doom 3 e Hl 2 supporteranno entrambi tutti i vari effetti grafici tanto cari a chi ha sviluppato le direct x 9. E quindi, come cacchio e´possibile che ci sia una contraddizione cosi´enorme in termini prestazionali basandosi sul solo hardware?
Secondo me chi programma drivers/API/giochi dovrebbe talvolta passarsi una mano sulla coscienza e chiedersi se sta lavorando bene. Se poi e´in malafede, peggio.

Non e´la prima volta che le software houses vanno a fare preferenze per questa o quella marca, il caso Intel vs. AMD e´emblematico.
Leggo sul sito di AMDzone che un amatore (leggi amatore) ha creato delle dll per quake 3 ottimizzate per Athlon XP. Viene fuori che le dll normali forzano sempre e comunque le istruzioni 3DNow! al posto delle SSE che l´Athlon XP ha. non solo, ma che persino il codice 3D now! e´fallato. Risultato? L´autore dichiara che con le sue dll (che non toccano minimamente la grafica del gioco) si hanno incrementi di prestazioni incredibili, fino a pareggiare/sorpassare quelle di un P4 di rating molto maggiore (sicuramente con una ottimizzazione SSE2 le cose si ristabilirebbero, comunque il fatto esiste).
Ora: come mai la ottimizzazione SSE funzionava e la 3Dnow! no ?
(e 3D now! e´uscito un anno prima di SSE)
Come mai nessuna patch ha corretto il riconoscimento di Athlon XP e forzato il motore grafico di Quake 3 ad usare le SSE ?(e di patch per quake 3 continuano ad uscirne parecchie anche ora)
Evidentemente perche´chi paga di piu´gli sviluppatori vince.
Ora non voglio entrare nel merito di "E´meglio ATI che nVIDIA", per me, come ho detto, il miglior rapporto prezzo/prestazioni ce l´ha l´ ATI e questo e´indubbio, pero´mi viene paura a pensare állo schifo che si puo´combinare col benchmarking. Sempre senza entrare nel merito di ATIvsnVIDIA, vi invito a consultare il sito www.aceshardware.com per una discussione sul 3DMark 2003.

nanix78
11-09-2003, 13:52
[B]Scusa, ma come fai a dire che sono test fasulli. Per caso disponi della versione benchmark di hl2 ?


[B]
x nanix78
Scusa ma x curiosità, con cosa li hai fatti i test?
Qua cmq si parla di prestazioni DX9 pure, senza motori ottimizzati, x esempio ho visto di persona girare 3dmark 2003 su 5900FX, a parte il fatto che i Det 45.23 bypassano la patch di futurmark e siamo di nuovo al punto di prima, è palese la compenetrazione tra ombre e poligoni del volto del soldato nella scena dell'ascensore in Battle of Proxicon. Xchè? Evidentemente la precisione di FP o ZBuffer è LIEVEMENTE ridotta in funzione delle prestazioni. Oppure 3dmark 2001, avete mai visto la scena complessa del drago con gli ultimi Det e una 4600? Il drago sfarfalla; mettete AA4X, il drago non c'è proprio! Carino xò vedere la tipa che svolazza dietro a 2 bagliori rossi...
DoomIII, potrebbe essere un altro bench, ma solo in modalità OpenGL standard, altrimenti (e cito una rivista) stiamo solo guardando quanto sono stati bravi/pagati alla ID x ottimizzare un path piuttosto che un altro...
Che dire di Splinter Cell? Prima demo, con la mia vecchia 8500 ci gioco, finisce, carina, tutto a posto. Seconda demo, in modalità infrarossi rigazze e quadrati bianchi in giro x lo schermo, cavoli che ottimizzazione.
This is the nVidia way to pay... (perdonatemelo )


vero...chiedo scusa ho sbagliato...non ho letto bene la news, anche se prima di farmi un'idea precisa preferirei aspettare qualche altro bench....



PEK ha scritto:
uomini dalle fette di prosciutto


ci sono modi e modi per far notare un errore, il tuo e' tipico da cafone e da chi vuol creare flame...

sanitarium
11-09-2003, 13:53
Originariamente inviato da leoneazzurro
D´accordo, sono standards diversi,
ma che in Open GL le operazioni di rendering non vengono eseguite? Che non esistono effetti grafici in Open GL?
Doom 3 e Hl 2 supporteranno entrambi tutti i vari effetti grafici tanto cari a chi ha sviluppato le direct x 9. E quindi, come cacchio e´possibile che ci sia una contraddizione cosi´enorme in termini prestazionali basandosi sul solo hardware?

Per quanto riguarda il netto divario prestazionale tra GeforceFX e Radeon visto su Doom III, credo sia possibile affermare che si è trattato di un problema di driver e nient'altro (se non sbaglio i driver ATi "incriminati" erano i 3.4), visto che coi vecchi catalyst si avevano fps ben maggiori.

DjLode
11-09-2003, 13:56
Originariamente inviato da leoneazzurro
D´accordo, sono standards diversi,
ma che in Open GL le operazioni di rendering non vengono eseguite? Che non esistono effetti grafici in Open GL?
Doom 3 e Hl 2 supporteranno entrambi tutti i vari effetti grafici tanto cari a chi ha sviluppato le direct x 9. E quindi, come cacchio e´possibile che ci sia una contraddizione cosi´enorme in termini prestazionali basandosi sul solo hardware?
Secondo me chi programma drivers/API/giochi dovrebbe talvolta passarsi una mano sulla coscienza e chiedersi se sta lavorando bene. Se poi e´in malafede, peggio.


Le FX hanno due precisioni possibili. Full precision a 32bit e single precision a 16bit. Le Radeon solo una possibile (attenendosi alle dx9 a cui la modalità 32bit è stata aggiunta in seguito per far rientrare anche le Fx nello standard, standard in cui la modalità 16bit non mi pare presente, o almeno non lo era fino a qualche tempo fa) a 24bit.
D3 nella path specifica NV30 utilizza i 32bit solo dove strettamente necessario, se no calcola in 16bit (il rapporto non è del doppio in più o meno ma in full 32bit il chip Nv3x muore). Da qui il motivo per cui con la path standard Arb2 le radeon sono di tanto più veloci, nella path specifica Nv30 invece le Nvidia passano davanti. Le radeon per fare i 32bit calcolano a 24 e poi scalano a 32bit o a 16bit a seconda di cosa si utilizza.
La contraddizione oltre ai Ps e Vs non proprio standard, sta tutta qui.

KAISERWOOD
11-09-2003, 13:57
x quanto riguarda doom 3 è da apprezzare che la scheda ati da lo stsseo numero di frame alle risoluzioni + elevate. Sicuramente x ati è un problema di driver che sono poco compatibili con il gioco. Il fatto che nvidi se ne esce con un benchmark di un gioco che usicrà molto tempo dopo la dice lunga....

L'ati quando ha progettato l'r300 l'ha fatto con i giusti tempi, l'r300 è usicto molto tempo dopo l'8500. Mentre nvidia si riposava sulle vendite del geppo 3 e 4, ati concentrava tutti gli sforzi sull'r300. Adesso ati rispetto a parecchio tmepo fa è igliorata parechcio sul fronte dei driver, infatti solo ora il radeon 8500 (con i suoi derivati) ma anche gli altri radeon dlela serie 7xxx sono sfruttati adeguatamente. Ati stanno sottraendo ad nvidia molto mercato, perché a eliminato i suoi punti deboli (driver e perfomance convincenti)e anche per il fatto che il progetto r300 è stato fatto seriamente con il giusto tempo. Nvidia è uscita con l'nv30 che non è un progetto ma una abozzo per arginare ATI, dopo nvidia ha fatto come l'intel con il p4 ha messo le sue toppe, ma alla fine se le fondamenta sono fatte male la casa nel tempo si sentono le conseguenze. Ad esempio Intel che andava tanto sicura nella scalat ai mhz, sta rallentando per problemi di dissipazione termica. Secondo Me L'nvida deve ripartire da 0 e far un progetto con le p@lle. ATi con l'r300 sa coprendo tutte le fascie e bene o mal e il progetto r300 è in giro da parecchio. Il pregio di ati è sfruttare un chip per molto tmepo i 9200 bene o male sono gli 8500 (anche se castrati) che si erano scontrati con il ge-force 3 e il radeon 7xxx che sono i chip che dovevano scontrarsi con le prime 2 generazioni dell'nvidia.

Wonder
11-09-2003, 13:59
Ma alla vittoria si aggiunge l'umiliazione...HL2 ha incorporata una patch per far girare meglio nVidia e nonostante tutto vince ATi....figuriamoci allora se non ci fosse questa patch e se ce ne fosse una pro ATi.

Al di là di tutto, HL2 ha avuto una gestazione lunga 5 (cinque)(cazzo cinque!!!) anni, e 5 anni fa non esisteva la diatriba ATi nVidia ai livelli di adesso, quindi suppongo che l'intero progetto sia partito con le DX7, poi DX8 e solo in ultima istanza sia stato aggiornato alle DX9. Fare un nuovo engine 3D cosi graficamente appagante non è certo frutto di un lavoretto fatto negli ultimi mesi, ma di un lavoro di un team di persone in periodi dove non esistevano nè 5800 o 5900 nè 9700 o 9800. Quindi mi sembra abbastanza corretto pensare che Valve sia stata imparziale nella programmazione.

TripleX
11-09-2003, 14:23
DOOM3 e' OPENGL................quindi non c'endtra na mazza con dx9....

Half LIFE e' DX9....ed e' un ottimo metro di giudizo(a presto il bench) x valutare l'efficenza dei motori DX9 delle schede video compatibili....

DOOM3 avra' qualita' identica sia su una 8500 (dx8) che su una 9800 (dx9) xche' opengl...Half life no....alcuni effetti dx9 saranno a pannaggio delle sole dx9 compatibili...

Gohansupersaiyan4
11-09-2003, 14:25
A me non pare che doom3 vada meglio sulle nvidia...anzi...carmack ha dettto che con la modalità abr2 con maggiore precisione va meglio la radeon...le nvidia con quella manco vanno...


Ciao !

DjLode
11-09-2003, 14:27
Guarda che il conto è usare una Api, un conto è usare solo l'hw compatibile con quella Api. D3 sarà OGL ma su una 8500 non avrà la stessa grafica di una 9800, semplicemente perchè farà uso di Ps 2.0 e Vs 2.0 che le 8500 non hanno.

DjLode
11-09-2003, 14:28
Originariamente inviato da Gohansupersaiyan4
A me non pare che doom3 vada meglio sulle nvidia...anzi...carmack ha dettto che con la modalità abr2 con maggiore precisione va meglio la radeon...le nvidia con quella manco vanno...
Ciao !

Già, ma Carmack ha sviluppato una path apposita per Nv3x e con questa vanno meglio delle radeon, e a detta sua, forniscono la stessa qualità grafica.

Skeletor
11-09-2003, 14:28
ma ad esempio, l'ultimo tomb raider che usa tra l'altro i pixel shader 2.0, non gira bene sulle nvidia? e perchè hl2 andrebbe così male? (ok, hl2 ha MOLTI più poligoni, però me lo chiedo lo stesso)

Dragon2002
11-09-2003, 14:29
Per i maligni che parlano di ottimizazzioni proAti contro Nvidia ci sarebbe solo un sistema per provare se queste ottimizazzioni ci sono o no e cioè l'uscita di una scheda video concorrente anche inferiore alle schede di punta di Ati e di Nvidia ma che rispetti a pieno lo standard delle dx9,cmq la voce che la fx nn supportasse le dx9 era gia uscita ai tempi delle Npatch,poi ancora qualche dubbio quando si è vista la differenza di prestazioni nel 3dmark2003 tra le due schede sopratutto nei test specifici per i pixel shader2.0 che sono la carateristica più importante delle dx9,insomma possibile che tutto c'è l'hanno improvvisamente con Nvidia perchè nn più sul carro del vincitore in fatto di prestazioni e quindi tutti si alleano con Ati,beh che da sempre sono uno che vede spie e complotti dapertutto dico che potrebbe anche essere possibile vista l'enorme differenza tra le due schede sopratutto in Half Life2 certo sarei contento di vedere questa fantomatica terza scheda completamente dx9 per togliermi un dubbio che forse nn mi togliero mai e cioè se l'Fx è una scheda dx9 o qualcosa che gli si avvicina.

DjLode
11-09-2003, 14:32
Originariamente inviato da Skeletor
ma ad esempio, l'ultimo tomb raider che usa tra l'altro i pixel shader 2.0, non gira bene sulle nvidia? e perchè hl2 andrebbe così male? (ok, hl2 ha MOLTI più poligoni, però me lo chiedo lo stesso)

Nei bench di Tomb raider le Fx fanno circa la metà di fps delle Ati.

Skeletor
11-09-2003, 14:42
Originariamente inviato da DjLode
Nei bench di Tomb raider le Fx fanno circa la metà di fps delle Ati.

Ah, credevo invece il contrario..

cmq io ho una 9800 pro :sofico:

~efrem~
11-09-2003, 14:55
V3ndo geffo 4600ti e/o rad 8500 ai più bisognosi in attesa di HL2... chi ne vuole??? :D

(oddio che ridere sti bench)

KAISERWOOD
11-09-2003, 15:03
Mi sa che l'ati è l'unicica ad attnersi agli standard delle dx 9. Pare che sis-xgi, via-s3 e intel non implementeranno completamente le dx9 nei loro core per chipset.

slime
11-09-2003, 15:15
kaiserwood. La sparo grossa. Non è che siccome ATI sarà il prossimo fornitore di chip grafici per x-box2 Microsoft gli abbia dato qualche dritta in più????
Grossa è ...........? Forse non ci credo neanche io, ma .......... chissà ................

TripleX
11-09-2003, 15:48
http://www.hardocp.com/article.html?art=NTE5

credo non ci sia altro da aggiungere soprattutto quando affermano che le FX di compatibilita' dx9 hanno solo la scritta sulla scatola...LOL

Blisset
11-09-2003, 15:49
Ohhhh, finalmente un bel grafico prestazioni/prezzo che rende chiarissime le cose.
Alla fine che senso ha prendere una scheda che va il 10% più veloce se poi costa il doppio?
Con un bel grafico prestazioni/prezzo diventa lampante quale sia la scheda (o la cpu, ecc.) più conveniente.
Da un sacco di tempo propongo questa innovazione pratica che viene regolarmente ignorata e quindi occorre ogni volta fare un sacco di calcoli a mano per vedere la convenienza dei componenti.
La discussione sulle pure prestazioni velocistiche non ha senso se slegata dal fattore prezzo sul quale si fanno poi sempre i conti.
E' chiaro che la migliore scheda è sempre ovviamente il top della gamma, ma che senso ha spendere 500€ per qualcosa che ha solo un 10-20% in più di prestazioni rispetto a qualcos'altro che costa un terzo?

TripleX
11-09-2003, 15:50
sapevate che in ut2003 le fx non applicano il trilinear manco forzandolo.....forse xche' attivandolo decadono gli fps e farebbero figuraccie....bah dovrebbero gettare nel cesso il progetto NV e rifarlo da 0

Cfranco
11-09-2003, 15:53
Originariamente inviato da DjLode
Nei bench di Tomb raider le Fx fanno circa la metà di fps delle Ati.
E tre ...
Prima il 3dMerd 2003 "non era realistico"
Poi "Tomb Raider é programmato coi piedi"
E adesso "Per HL2 bisogna usare i Detonator 50"
Sarà , ma ogni volta che i bench usano i PS 2.0 le schede Nvidia soffrono da cani , forse sarà il caso di riabilitare il 3DMark , alla fine aveva ragione lui ...

Smasher_Devourer
11-09-2003, 16:07
Boh...senza nulla togliere alla interessantissima discussione "Nvidia fa schifo", vorrei far notare che in HL2 la 9600 sembrerebbe una scheda eccezionale.... insomma in tutti i test va (in termini di fps) dal 40 al 150 percento meno della 9800 (e più il test è pesante più c'è differenza) mentre qui....miracoli la 9800 fa 60 e la 9600 fa 47!!!!!!
Grandissima resurrezione.... mah sono perplesso...moooolto perplesso!

the_joe
11-09-2003, 16:24
Ed io che fui crocifisso perchè tacciato di scatenare flame quando alla presentazione della FX5900 dissi che praticamente non era saggio comprare una scheda "bacata" in partenza, cioè, sapendo che ha dei problemi con le DX9 io non la avrei comprata come del resto ogni altro prodotto di cui sono a conoscenza di problemi non perchè è NVidia, cancellai il post per il quieto vivere, ora che i problemi sono o stanno venendo fuori mi sento autorizzato a riabilitare le mie affermazioni.
Si può dire di ATI che ha dei problemi in alcuni giochi a causa dei driver, ma un conto è avere dei driver non perfetti che sono sempre migliorabili mentre se è l'hardware ad essere fallato le uniche cure sono delle patch che aggirano il problema, ma non possono certo correggerlo ad esempio il famoso southbridge VIA 686B.
Tutto questo non per scatenare flame, ma solo per prendere una piccola rivincita nei confronti di chi a suo tempo mi sparò addosso.

TripleX
11-09-2003, 16:29
e il 2D flickering altro bug pauroso di Nvidia che con immaggini statiche crea sfarfalli nei gichi........bah

Wonder
11-09-2003, 16:38
Hai perfettamente ragione

Vedi, la storia insegna che al mondo ci sono stati fanatici che hanno ucciso milioni di persone e purtroppo c'è ancora chi crede in queste persone e gli da credito...idem vale per nVidia. Quando vi stancherete di vedere oro dove non ce n'è?

ciuccia
11-09-2003, 17:04
see mo' e' la geffo 5th reich :D,skerzi apparte,la cosa piu' sbalorditiva e' ke sto r300 e' in commercio da 1 anno tondo qui in italia,e l'nv30 ke e' uscito tipo 6 mesi dopo (e subito scartato) non sia riuscito a raggiungere i livelli delle concorrenti ATI neppure con la 5900 ultra ( comboooo!!..),diciamola tutta,a sto giro nvidia e' rimasta indietro roba,questa e' veramente una ti4600 overcloccata :),le prestazioni in dx9 parlano chiaro,be' almeno una volta ho avuto culo a comprare ati (9700 pro 1 anno fa'),ma devo ammettere ke ho avuto anke culo a comprare una geffo 3 2 annetti fa',non si tratta ti essere pro nv o pro ati,si tratta di comprare l'hw migliore..e sto anno ha vinto ati,se ne riparlera' poi con r420 e nv40...

ally
11-09-2003, 17:08
...sempre che nv40 non parta da basi poco solide :)

ciuccia
11-09-2003, 17:14
onestamente spero ke escano 2 skedone eccezziunali sia da parte di ati che nv,perke' ce ne sara' un bel gran bisogno per l'anno a finire e per quello venturo ke vedra' impeganto l'engine di hl su svariati titoli,e poi non so' se so' maco ma mi sa' ke per nv40 la nvidia si scoredera' la sua bella uscita a 650€ :D,fra i vari meriti di ati,ammettiamo pure questo,direi che se r420 uscira' sui 500-550€ come e' successo per la 9700 1 anno fa',la nv sara' costretta ad allinearsi assai a sto giro,gia' si e' all'ineata con l'uscita delle prime fx 5800,ke dovevano per l'appunto uscire a 650 euri e invece sono uscite a meno di 600,dato il successo di ati di quest'anno... magari nv40 costera' qualkosina meno di ati! naa ;D

sanitarium
11-09-2003, 17:14
Originariamente inviato da TripleX
http://www.hardocp.com/article.html?art=NTE5

credo non ci sia altro da aggiungere soprattutto quando affermano che le FX di compatibilita' dx9 hanno solo la scritta sulla scatola...LOL

Consiglio a tutti - soprattutto agli scettici - di leggere questo articolo.
Eccone un paio di estratti alquanto importanti:

http://www.hardocp.com/images/articles/1063263488s0MUgBR2lv_3_4.gif

Now hearing this is certainly bad news for any game development company that is producing much of its own original shaders and content. Having to spend 5X the number of hours for a specific video card certainly raises the cost of the game, maybe to the end user, and certainly to the publisher. In the end it will mean more expensive games with longer development times.

Ci rendiamo conto che, stando alle dichiarazioni di Newell, per ottimizzare un path specifico per NV30 c'è voluto un tempo 5 volte superiore alle ore necessarie per ottimizzare il codice generico in dx9??!!
Insomma, indipendentemente dalla simpatia che si ha per una marca di schede video o per l'altra, bisogna riflettere su questa cosa: come giustamente ricorda il giornalista autore dell'articolo di HardOCP, infatti, questi tempi supplementari non fanno altro che alzare il costo complessivo dello sviluppo del videogioco, con conseguente probabile rincarro di costi anche per l'utente finale. Penso che il fatto si commenti da solo, basterebbe che i produttori di schede video si attenessero agli standard delle dx9 per evitare tutti questi fastidiosi problemi.

http://www.hardocp.com/images/articles/1063263488s0MUgBR2lv_4_3.gif

Altra dichiarazione molto interessante, che dovrebbe chiarire le cose in merito all'accordo ATi-Valve, è riportata nel secondo punto dell'immagine, e dovrebbe far tacere parecchie polemiche a proposito di bench truccati a favore di ATi e compagnia bella.

ciuccia
11-09-2003, 17:18
no r300?? AIAIAIAI !

Raven
11-09-2003, 17:22
Originariamente inviato da jcvandamme
A questo punto chi non crede che nvidia sia nel torto con i trucchi dei driver eccetera... HA PROPRIO DELLE FETTE DI PROSCIUTTO SUGLI OCCHI.

Adesso chi recensisce le schede sta attento ai driver... E QUANDO CI SONO TRUCCHI TIPO EFFETTO NEBBIA DISABILITATO , O QUALITA' VISIVA INFERIORE...

VENGONO BECCATI SUBITO.

IL CRIMINE NON PAGA E NVIDIA VERRA' LINCIATA DAL GRANDE PUBBLICO ALL'USCITA DI HALF LIFE 2.

Tutti quelli che conosco ormai comprano Ati.

Gia' il mese scorso erano pochissimi quelli che compravano 5600 o 5900 fx... poveretti che fregatura...

C'e' qualcuno in questo forum che alla luce di questi dati HA IL CORAGGIO DI COMPRARE UNA SCHEDA NVIDIA ORA ?

Sospeso 10gg...

nonikname
11-09-2003, 18:45
http://www.guru3d.com/newsitem.php?id=464

HalfLife 2 diff 9800pro 5900u F.P.DX9 50%
------------------------------------------


http://www.guru3d.com/forum/showthread.php?&threadid=63181

Aquamark 3 F.P.DX9 (detonator 45.23-> 51.75FX) la differenza fra 9800pro e 5900u è del 2%???

-------------------------------------------------
Mentre in Aquamark e in Gun Metal ,le prestazioni con i vecchi driver Nvidia , sono leggermente inf. in Half life2 c'è un divario troppo marcato di prestazioni fra le 2 schede , e il fatto di aver sentito circa 4 mesi fà che halfLife2 usciva ottimizzato per Ati dovrebbe far riflettere...

Io ho una 9700pro , ma dinnanzi a tali test non posso che rimanere perplesso : le prestazioni della 9600 LISCIA nei confronti della 9800pro sono del tutto inattendibili ........la 9600 è una 9800 dimezzata in tutto e per tutto ma con processo costruttivo .13m , come puo' essere solo del 12% inferiore ????

Qui c'è sicuramente lo zampino di Microsoft , se no non si spiega!!!

GeForce-Fx
11-09-2003, 19:09
Mi viene da piangere....Io possiedo una Msi GeForce Fx 5600 256 ddr e per avere una qualità accettabile devo rinunciare alle directX9 e ritornare alla directX 8?Pazzesco!!!

Fottemberg
11-09-2003, 19:22
Che fortuna avere una Radeon 7000 ...
A questo punto conviene aspettare e osservare.

pg08x
11-09-2003, 19:39
Da Anald (sito che era o è pro nvidia) riporto testualmente:
Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath

Qui si parla di codice standard (di default) per DirectX9 che permette al gioco di funzionare su schede ATI mentre su schede nvidia è stata necessario del codice Speciale scritto appositamente.

Magari questo codice speciale pro nvidia non è ancora ottimizzato al 100% ma considera l'investimento in tempo e denaro per non parlare del costo in termini di immagine e mancati profitti nel ritardare di troppo l'immissione sul mercato del gioco.

Riguardo alla 9600pro potrebbe anche essere che sulla macchina di test la 9800 sia stata cpu limited :D

pg08x
11-09-2003, 19:43
Gun Metal più che un gioco è stata un'operazione commerciale per spingere il cg:sofico:

Rayse
11-09-2003, 19:43
Ragazzi scusate...io ho una 9700pro e non credo a tutto sto divario (è a mio avviso una cosa da suicidio commerciale) ma 2 sono le cose che converrete sono giuste:

1) l' ATI esegue correttamente le DX9 comme mamma le ha fatte NON HA BISOGNO di nessun'ottimizzazione,si finisce per dire che se un gioco non è ottimizzato NV 3.X è ottimizzato ATI e non è vero è la nVIdia che non segue le "regole".

2) La nVidia ha bisogno di farsi da sola i propri aggiustamenti facendo uscire i driver con patch per tal e tale gioco...la cosa brutta è che l' ATI dovrà fare altrettanto per giochi dell' EA probabilmente.

Nessuno si ricorda l'accordo EA-nVIdia? Secondo voi per cosa è stato fatto?

Doom 3 per FX?

Io non credo...come lo fanno il porting per X-BOX rifacendolo?

No è più facile che anche Doom3 girerà degnamente per ATI perchè è la cosa più simile a un' X-BOX della sua controparte nVidia.

DjLode
11-09-2003, 20:23
Originariamente inviato da Cfranco
E tre ...
Prima il 3dMerd 2003 "non era realistico"
Poi "Tomb Raider é programmato coi piedi"
E adesso "Per HL2 bisogna usare i Detonator 50"
Sarà , ma ogni volta che i bench usano i PS 2.0 le schede Nvidia soffrono da cani , forse sarà il caso di riabilitare il 3DMark , alla fine aveva ragione lui ...

E' quello che penso anche io. Qualche sostenitore di Nvidia (anzi fan) mi ha detto che non crede finchè non vede, quindi anche i bench di halo per lui sono falsi (quelli che girano in questi giorni). Ovviamente quando ho detto che altri bench esistevano ed erano alla portata di tutti mi ha detto che sono programmati con i piedi.
I deto 50 cmq pare che oltre ad ottimizzazioni per hl2 portino un compilatore on the fly per ottimizzare il codice. Un cheat di qua, via la nebbia di là...

DjLode
11-09-2003, 20:27
Originariamente inviato da nonikname

Qui c'è sicuramente lo zampino di Microsoft , se no non si spiega!!!

Ma che senso ha confrontare la differenza prestazionale di schede diverse su giochi diversi e sistemi diversi? Nessuno.
In Traod ci sono differenze del 100% e nell'esecuzione di alcuni vertex o shader program del 400% in favore di Ati. Chi crede a differenze prestazionali 4 volte superiore della 9800 rispetto alla 5900?

dddaaannn
11-09-2003, 20:48
tutto sto casino per nulla..
ragazzi mettetevi l'anima in pace...
il progetto NV3x è andato male...
si può anke rimediare ma.. dai inutile girarci stavolta è andato proprio male... nn diciamo fallimento ma siamo li..
come venditore io ho sempre consigliato Geforce e tutt'ora se nn si vuole spendere cifre alte con 100 120€ una 4200 esce...
siccome io VENDO DEVO VENDERE qualcosa che abbia qualità altrimenti me li sento io i clienti e siccome nn ci posso rimettere nei prossimi mesi o settimane devo consigliare di comprare la seria ATI 9xxx per chi vuole un pc con cui si possa giocare serenamente

come venditore quindi vi posso consigliare solo di acquistare un prodotto valido in questo caso costruito dalla ATI oppure una geforce 4200 se si vuole spendere poco

da chiarire nn sono ne pro ati ne pro nvidia ne pro pinco o pro pallino
vendo e basta e per vendere di + devo vendere prodotti di ottima qualità in questo caso.. ATI..
su qeusta discussione ci risentiremo alla prossima generazione di GPU.. (praticamente fra qualche settimana.... )

falcon.eddie
11-09-2003, 22:27
Originariamente inviato da sanitarium
Consiglio a tutti - soprattutto agli scettici - di leggere questo articolo.
Eccone un paio di estratti alquanto importanti:

Ci rendiamo conto che, stando alle dichiarazioni di Newell, per ottimizzare un path specifico per NV30 c'è voluto un tempo 5 volte superiore alle ore necessarie per ottimizzare il codice generico in dx9??!!
Insomma, indipendentemente dalla simpatia che si ha per una marca di schede video o per l'altra, bisogna riflettere su questa cosa: come giustamente ricorda il giornalista autore dell'articolo di HardOCP, infatti, questi tempi supplementari non fanno altro che alzare il costo complessivo dello sviluppo del videogioco, con conseguente probabile rincarro di costi anche per l'utente finale. Penso che il fatto si commenti da solo, basterebbe che i produttori di schede video si attenessero agli standard delle dx9 per evitare tutti questi fastidiosi problemi.


Non sono d'accordo:

Chi mi assicura che alla Valve si sono DAVVERO spremuti 5 volte il cervello per farlo andare meglio con le NV3X?Normale che lo dicono,sono sponsorizzati ATi e presumibilmente le nuove 9800 usciranno anche con HL2 in bundle! Penso che sappiate che in modalità standard L'NV3X esegue i calcoli in modalità FP32 contro la modalità FP24 di Ati,di suo Ati ha una tecnologia più efficiente a parita di Mhz(un pò come amd-intel) ma eseguire i calcoli con un fp più basso penso che l'agevoli parecchio.
D'altronde l'architettura Nvidia può anche calcolare in fp16(vedi il caso della path nv30 su doom3 cha alterna fp32 a fp16 a seconda dei casi ma SENZA perdita di qualità a suo dire).
Se davvero si fossero spremuti tanto il cervello avrebbero tirato fuori una path come quella di Carmack...Altro che 5 volte il tempo normale di lavorazione...Per farla andare meno di una 9600 mi sembra che non si siano sprecati,anzi!

IMHO tutto ciò è molto "politically incorrect".

Cmq Nvidia di sua risposta ha dichiarato inaffidabili quei bench rimandando all'uscita dei DET 50.XX ogni test:

"The Optimiziations for Half-Life 2 shaders are in the 50 series of drivers which we made available to reviewers on Monday [Sept. 8, 2003]. Any Half-Life 2 comparison based on the 45 series driver are invalid. NVIDIA 50 series of drivers will be available well before the release of Half-Life 2"

Qui un test di guru3d in merito ai nuovi det.:

http://www.guru3d.com/forum/showthread.p hp?&threadid=63181

Anche l'aquamark3 è un test fulldirectx9 e come vedete siamo su valori allineati tra 5900 e 9800(con un leggero vantaggio da parte di quest'ultima fino a 1280x1024).
Notate che i nuovi det. danno aumenti prestazionali dell'ordine del 10-15%.
Io aspetto di toccare con mano questo bench previsto per il 30/09 prima di esprimere un effettivo giudizio.

EDIT: Come volevasi dimostrare sembra sia dovuto ad un problema di drivers,qui il link alla dichiarazione di Derek Perez PR di Nvidia:

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchmarks/003.htm

xcdegasp
11-09-2003, 22:52
Io voglio far ricordare che in UT2003 appare subito all'inizio del gioco il logo di nVidia quindi HL2 è solo un altro gioco che ovviamente ha dei partener..
Cmq sia, in UT2003 non si erano visti gup prestazionali troppo evidenti delle Ati e neanche ora con le schede più recenti..
Vorrei altresì ricordare che nVidia aveva ideato e creato un linguaggio apposito per i propri chip, e questo spigherebbe (imho) perchè le schede di tale produttore non reggano la competizione senza questa specifica patch nel gioco. ;)
Solo ora possiamo avere una prova su strada corretta delle nv30 perchè solo ora verranno stressate a dovere prima avevamo solo giochi che son usciti un anno fa' e come si poteva pretendere di avere riscontri reali?
bhè vedremo con doom3 se ci saranno risultati similari, altrimenti la causa è sicuramente un'altra...

nicgalla
11-09-2003, 23:00
Ho provato a scaricare le demo interattive di ATI (Debevec e Chimp) e quella di nVidia (Dusk).
Su una Radeon 9500 Dusk non gira, mi dice che mancano alcune istruzioni NV*. Meno male che esiste lo standard DirectX....
Al momento non ho schede nVidia DX9, qualcuno sa se su queste girano le demo di ATI?
Sarebbe molto interessante...

xcdegasp
11-09-2003, 23:06
dimenticavo.. possiedo una gf4ti4200 e non mi ritengo ne di schiera ati ne nVidia...
Prima era tutto imho..
Tanto per ora posso aspettare e non ho fretta a cambiarla, magari aspetto qualche test in più e sopratutto con le versioni finali sia di doom3 che HL2 :D :D :D :D :D :D

Mazzulatore
11-09-2003, 23:53
C'era scritto grosso così :sofico: sul sito di ATI che HL2 sarebbe ottimizzato per le schede ATI.

E non conviene neanche a Valve... vedrete che alla fine saranno competitive.

Gohansupersaiyan4
12-09-2003, 02:22
ATI RULEZ !

zac1
12-09-2003, 07:03
Un problema di driver è .....
Spiegatemi realizzano una scheda dx9.0, e fino adesso non hanno realizzato driver per sfruttare le dx9.0 questa è proprio bella .....
Vedo già i responsabili nvidia con la frusta sui loro programmatori, per tirare fuori dal cilindro chissà quale ottimizzazione ma dai......

Cfranco
12-09-2003, 08:28
Originariamente inviato da falcon.eddie
Chi mi assicura che alla Valve si sono DAVVERO spremuti 5 volte il cervello per farlo andare meglio con le NV3X?
Perché é gente che ha lavorato 5 anni , e quando parla non lo fa per niente , sono quelli che hanno scritto Half Life non dei pagliacci ;)
Originariamente inviato da falcon.eddie Penso che sappiate che in modalità standard L'NV3X esegue i calcoli in modalità FP32 contro la modalità FP24 di Ati,di suo Ati ha una tecnologia più efficiente a parita di Mhz(un pò come amd-intel) ma eseguire i calcoli con un fp più basso penso che l'agevoli parecchio.
D'altronde l'architettura Nvidia può anche calcolare in fp16(vedi il caso della path nv30 su doom3 cha alterna fp32 a fp16 a seconda dei casi ma SENZA perdita di qualità a suo dire).
Lo standard Dx9 prevede una precisione in 24 bit , e così ha fatto ATI , se Nvidia non rispetta lo standard sono c@##i suoi , le specifiche c' erano quando hanno progettato NV30 .
Per inciso , se hai letto bene la "modalità speciale" per NV30 che riesce a colmare parzialmente il fossato usa un mix di istruzioni a 32 e 16 bit per accelerare un po' la 5900 senza perdere troppo in precisione .
Originariamente inviato da falcon.eddie Se davvero si fossero spremuti tanto il cervello avrebbero tirato fuori una path come quella di Carmack...Altro che 5 volte il tempo normale di lavorazione...Per farla andare meno di una 9600 mi sembra che non si siano sprecati,anzi!
La path NV30 di Carmack fa tutto in 16 bit anziché 24 , quindi la qualità é decisamente minore .

Cmq Nvidia di sua risposta ha dichiarato inaffidabili quei bench rimandando all'uscita dei DET 50.XX ogni test:
Valve ha già risposto che i beta 50.xx li ha testati ma sono pieni di cheating , tra cui nebbie che scompaiono e addirittura il tentativo dei driver di intercettare i più noti programmi di cattura delle schermate per migliorare la qualità della schermata nel fotogramma catturato :eek: .
Francamente penso che Nvidia ultimamente stia facendo un lavoro patetico per coprire NV30 , la debolezza dei PS 2.0 é ormai un dato di fatto , quello che mancava di capire é quanto questa debolezza avrebbe influito nei prossimi giochi ... ebbene le risposte arrivano e sono pessime .

ally
12-09-2003, 08:34
....ma le voci dei possibili ritardi per HL2 possono essere spiegate da questi problemi riscontrati con l'uso delle nVidia?
....potrà essere anche ottimizzato per ATI ma la Valve ha bisogno che il suddetto gioco rulli anche su nVidia....non è che perchè ha un accordo con la prima si sputt@n@ tutti i clienti geffo :)
.....sempre e rigorosamente secondo me :)

halduemilauno
12-09-2003, 09:03
Update (9/12/03 12:52am): Interestingly, in Anand's article addressing the HL2 performance issue, Valve specifically gave instructions to NOT use the Release 50 drivers which seems rather odd to me. If they could improve HL2's performance, then they would want that to be known, right?


http://www.amdmb.com/article-display.php?ArticleID=257

sanitarium
12-09-2003, 09:53
Originariamente inviato da halduemilauno
Update (9/12/03 12:52am): Interestingly, in Anand's article addressing the HL2 performance issue, Valve specifically gave instructions to NOT use the Release 50 drivers which seems rather odd to me. If they could improve HL2's performance, then they would want that to be known, right?


http://www.amdmb.com/article-display.php?ArticleID=257

Valve ha espressamente chiesto di non utilizzare i deto 50.xx perché conterrebbero delle "ottimizzazioni" illecite, che aumenterebbero le performance del gioco in modo non ortodosso, minando la qualità grafica.
Poi ovviamente bisogna vedere se questo corrisponde alla realtà.

falcon.eddie
12-09-2003, 09:56
Originariamente inviato da Cfranco
Perché é gente che ha lavorato 5 anni , e quando parla non lo fa per niente , sono quelli che hanno scritto Half Life non dei pagliacci ;)

Lo standard Dx9 prevede una precisione in 24 bit , e così ha fatto ATI , se Nvidia non rispetta lo standard sono c@##i suoi , le specifiche c' erano quando hanno progettato NV30 .
Per inciso , se hai letto bene la "modalità speciale" per NV30 che riesce a colmare parzialmente il fossato usa un mix di istruzioni a 32 e 16 bit per accelerare un po' la 5900 senza perdere troppo in precisione .

La path NV30 di Carmack fa tutto in 16 bit anziché 24 , quindi la qualità é decisamente minore .


Valve ha già risposto che i beta 50.xx li ha testati ma sono pieni di cheating , tra cui nebbie che scompaiono e addirittura il tentativo dei driver di intercettare i più noti programmi di cattura delle schermate per migliorare la qualità della schermata nel fotogramma catturato :eek: .
Francamente penso che Nvidia ultimamente stia facendo un lavoro patetico per coprire NV30 , la debolezza dei PS 2.0 é ormai un dato di fatto , quello che mancava di capire é quanto questa debolezza avrebbe influito nei prossimi giochi ... ebbene le risposte arrivano e sono pessime .

Essendo sponsorizzati in modo pesante da Ati non vedo perchè non potrebbero smerdare nvidia con queste uscite della lavorazione 5 volte maggiore.IL pr nvidia ha dichiarato che x hl2 i det 45.xx non sono ottimizzati e che con i 50.xx i risultati saranno molto più consoni alle sue schede.Ricordati che con la demo alpha di doom3 la 9800pro faceva ben 10 fps con i cat 3.4,cosa poi risolta con i 3.5 con risultati più attinenti alla fascia a cui appartiene.L'unico bug dei det 50.xx è quello della nebbia che scompare come dichiarato su gamersdepot dal PR nvidia ma ciò non comporta nessun vantaggio prestazionale poichè la scheda lo esegue lo stesso.Il resto sono parole...La path di carmack non esegue interamente in fp16 ma alterna con fp32 proprio per mantenere intatta la qualità(questo a suo dire,non possiamo sapere ancora se sia vero).L'architettura NV3X nei pixel shader è debole e non si discute(bisogna vedere poi nei giochi futuri se vengano usati in modo massiccio oppure no) ma anche aquamark3 è un bench full directx9 e con i det 50.xx la 5900 è un pelino sotto la 9800Pro.Su guru3d c'è un test in anteprima.
Sta di fatto che se andiamo avanti così si avrà davvero la necessita di avere due schede.

Eraser|85
12-09-2003, 09:58
Francamente... Oramai i tifosi della nvidia dovrebbero solo tacere.. non hanno un solo motivo per aprire bocca dopo i bench su HL2, Halo ed altri... stendiamo un velo pietoso...

Inoltre per tutti coloro che dicono che non si fidano di questi bench, e che sono truccati.... chi è che ha sempre truccato fin'ora^^ e chi è che avrà sborsato un pò di soldi per far tacere una nota casa produttrice di bench... su su siate coerenti ^^

Non è un flame, ma solo la verità. Chi non la sa accettare, è pregato di non innescare flame... grazie. ;)



Ps: Doom3 era una alpha.. HL2 esce a settembre... ;)

falcon.eddie
12-09-2003, 10:07
Originariamente inviato da Eraser|85
Francamente... Oramai i tifosi della nvidia dovrebbero solo tacere.. non hanno un solo motivo per aprire bocca dopo i bench su HL2, Halo ed altri... stendiamo un velo pietoso...

Inoltre per tutti coloro che dicono che non si fidano di questi bench, e che sono truccati.... chi è che ha sempre truccato fin'ora^^ e chi è che avrà sborsato un pò di soldi per far tacere una nota casa produttrice di bench... su su siate coerenti ^^

Non è un flame, ma solo la verità. Chi non la sa accettare, è pregato di non innescare flame... grazie. ;)


E' vero i tifosi non sono graditi...A me sembra che il flame lo voglia creare tu(te ne esci con frasi del tipo " chi è che avrà sborsato un pò di soldi...",)...Vorrei cmq ricordarti che ne ati ne nvidia sono dei "santarellini".Guarda un pò indietro e vedrai che di illeciti ce ne sono stati da entrambe le parti. ;)
Per inciso vendo ati e nvidia.Ho una 5900 e una 9600... :sofico:

halduemilauno
12-09-2003, 10:12
Originariamente inviato da Eraser|85
Francamente... Oramai i tifosi della nvidia dovrebbero solo tacere.. non hanno un solo motivo per aprire bocca dopo i bench su HL2, Halo ed altri... stendiamo un velo pietoso...

Inoltre per tutti coloro che dicono che non si fidano di questi bench, e che sono truccati.... chi è che ha sempre truccato fin'ora^^ e chi è che avrà sborsato un pò di soldi per far tacere una nota casa produttrice di bench... su su siate coerenti ^^

Non è un flame, ma solo la verità. Chi non la sa accettare, è pregato di non innescare flame... grazie. ;)


ti ha gia risposto Falcon Eddie.


"Non è un flame, ma solo la verità. Chi non la sa accettare, è pregato di non innescare flame... grazie. ;)"

:rotfl:

Eraser|85
12-09-2003, 10:19
indi per cui credo che in futuro, tramite ottimizzazioni specifiche, tramite implementazioni che favoriranno l'architetuttura di nVidia magari anke dopo qlk mese dall'uscita.......

questo è sbagliato! Tu devi eseguire il codice nello stesso modo che l'altra scheda lo esegue, senza nessun path o nessun'altra ottimizzazione che avvantaggi una sola scheda. Se poi una scheda, grazie alle ottimizzazioni (come in D3) non riesce a far ottenere prestazioni migliori dell'altra, allora scusa eh ma fa proprio schifo!

Anche se poi questa situazione la ritroviamo in HL2... :)

Cfranco
12-09-2003, 10:47
Anand (http://www.anandtech.com/video/showdoc.html?i=1863&p=1) ha pubblicato un test approfondito .

Gordon
12-09-2003, 10:53
bhè vedremo :D

cmq ormai è 1 anno ke ho la 9700pro vediamo quanto me la tengo ancora.. :D

byz

Giovanni
12-09-2003, 11:05
Premetto che non ho letto tutti i commenti (15 pagine!).
Il dubbio che ho è il seguente e forse qualcuno potrà illuminarmi: le librerie DirectX nelle varie versioni non sono state scritte per creare un livello di astrazione software al sottosistema hardware? In pratica uno sviluppatore di software usa delle chiamate a funzioni definite dallo standard senza preoccuparsi del device che produrra' il risultato finale, poiche' questa funzione viene risolta in prima istanza dai driver del device e successivamente dall'hardware dello stesso. Quindi veniamo alla domanda: come fa lo sviluppatore a ottimizzare il suo software per un particolare device se (e solo se) ha scritto utilizzando lo standard?
Ciao

Cfranco
12-09-2003, 11:07
Una frase interessante :
"Here we see something very interesting, and something we haven't really seen before - the Radeon 9600 all the way up to the Radeon 9800 Pro all perform within 12% of each other. This is because with shader-heavy games such as Half-Life 2, the bottleneck is no longer memory bandwidth - rather it is pure computational power; basically how quickly these GPUs can process through those shader programs. "
Azz se sono gli shader a fare da collo di bottiglia le 9500 Pro andranno come missili , ma per i possessori di schede Nvidia la vedo grigia assai , sono semplicemente troppo poco potenti .

IcemanX
12-09-2003, 11:09
x falcon.eddie
"Essendo sponsorizzati in modo pesante da Ati non vedo perchè non potrebbero smerdare nvidia con queste uscite della lavorazione 5 volte maggiore.IL pr nvidia ha dichiarato che x hl2 i det 45.xx non sono ottimizzati e che con i 50.xx i risultati saranno molto più consoni alle sue schede."

Uhm... non mi pare abbia molto senso, far uscire drv ottimizzati x un gioco credo sia la cosa più fasulla che esista, nel senso che c'è uno standard, ed è su quello che si deve lavorare; i drv dovrebbero ogni volta migliorare le prestazioni o la qualità in DX9 & OGL, NON di un gioco. Al massimo puoi accorgerti di una cattiva implementazione di istruzioni e correggerla in modo che cmq il benificio sia x tutte le applicazioni, ma qua mi sembra di tornare ai 3 mesi in cui ho tenuto un KyroII, finchè non uscivano drv x ogni gioco a volte manco partivano... La situazione è chiaramente diversa ma il concetto mica tanto.
I Det50 partono con questa bella pubblicità e dopo che i 45.23 hanno bypassato le restrizioni del 3dmark, se ci si vuol far prendere in giro... Ricordo anche che inizialmente il test PS2.0 degli elefanti presentava venature nere, la seconda release di Det x FX forzava FP16 ma futuremark ha valutato che era ulteriormente inferiore, intorno ai 12bit.
Se avessi una scheda nVidia avrei montato gli unici drv full quality, ma in questi giorni sarei cmq pentito, cmq ne riparliamo quando esce DOOMIII, magari si capovolge la situazione...
Anche se avrò 10 fps in meno ma ATI usa ARB2 sarà lungi da me lamentarsi ;)

Cfranco
12-09-2003, 11:11
link (http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/003.htm)
Qui trovate anche dei test con AA 4x e Anis 8x :O

ilmanu
12-09-2003, 13:01
premetto che non ho letto tutto ma mi pare di capire che stiamo ancora cercando di vendere la pelle del lupo prima di averlo catturato...queste cose vanno prese con le pinze, nvidia si deve dare una regolata e buttare la serie fx nel cesso cominciando da capo...ati non se la deve tirare tanto perche' ha preso merda per anni...mi ricorda molto la vecchia sfida 3dfxVSnvidia....ora nvidia fa la parte di 3dfx (le voodoo 3-4-5 facevano pensa come tutta la serie fx) mentre ati fa la parte di nvidia (le tnt.tnt2 e geforge 1 hanno segnato il passaggio ad una grafica eccezzionale) quindi ben presto si vedra se nvidia fara la fine di 3dfx (acquistata da lei tralaltro) o se riuscira' con la prossima serie di chip (non fx)....bisogna solo aspettare cmq un altro gaf come la fx farebbe colare a picco Nvidia senza possibilita' di resurrezione

the_joe
12-09-2003, 14:59
Esprimere un concetto senza usare parolacce è chiedere troppo?

Manuel77
12-09-2003, 17:55
Originariamente inviato da Giovanni
Premetto che non ho letto tutti i commenti (15 pagine!).
Il dubbio che ho è il seguente e forse qualcuno potrà illuminarmi: le librerie DirectX nelle varie versioni non sono state scritte per creare un livello di astrazione software al sottosistema hardware? In pratica uno sviluppatore di software usa delle chiamate a funzioni definite dallo standard senza preoccuparsi del device che produrra' il risultato finale, poiche' questa funzione viene risolta in prima istanza dai driver del device e successivamente dall'hardware dello stesso. Quindi veniamo alla domanda: come fa lo sviluppatore a ottimizzare il suo software per un particolare device se (e solo se) ha scritto utilizzando lo standard?
Ciao

Le DirectX effettivamente funzionano come dici tu offrendo il noto HAL (Hardware Abstraction Layer): posso scrivere un programma senza preoccuparmi troppo della scheda video che lo eseguirà.
Ci pensano le API DirectX ad interagire con il driver della scheda video per svolgere una certa istruzione.
Il driver a sua volta interagisce con l'hardware sottostante:
se l'hardware supporta quella istruzione bene, altrimenti il driver ritorna all'API un messaggio del tipo "funzione non supportata".
Teoricamente l'API dovrebbe gestire cmq la situazione, demandando alla CPU di sistema l'esecuzione di quella particolare istruzione non supportata dall'hardware video.
A questo punto l'unico modo che ha il programmatore (a livello di API DirectX) di ottimizzare il suo software è quello di seguire un certo approcio, o percorso di programmazione.
Per esempio se decido di eseguire tutte le istruzioni con una precisione a 32bit invece di 16bit, so che il mio programma darà il meglio quando girerà su device che supportano in hardware tale precisione mentre gli altri ne risentiranno.
Oltre alla precisione, tieni presente che alcune istruzioni (equivalenti a livello di API) sono meglio implementate in un chip/driver video rispetto al suo diretto concorrente, quindi utilizzarle o meno e in modo massiccio peserà non poco sulle prestazioni finali che il mio programma otterrà a seconda del device utilizzato.

Helstar
23-09-2003, 15:32
Bei tempi.

fek
24-09-2003, 10:27
Originariamente inviato da Cfranco
Lo standard Dx9 prevede una precisione in 24 bit , e così ha fatto ATI , se Nvidia non rispetta lo standard sono c@##i suoi , le specifiche c' erano quando hanno progettato NV30 .

Nope. Lo standard DX9 prevede precisione minima a 16bit.


La path NV30 di Carmack fa tutto in 16 bit anziché 24 , quindi la qualità é decisamente minore .

La differenza di qualita' fra 16 e 24 e' mediamente minima. Si nota una differenza solo in shader particolari e solo se ci stai attento e ci guardi.

fek
24-09-2003, 10:38
Originariamente inviato da Giovanni
Premetto che non ho letto tutti i commenti (15 pagine!).
Il dubbio che ho è il seguente e forse qualcuno potrà illuminarmi: le librerie DirectX nelle varie versioni non sono state scritte per creare un livello di astrazione software al sottosistema hardware? In pratica uno sviluppatore di software usa delle chiamate a funzioni definite dallo standard senza preoccuparsi del device che produrra' il risultato finale, poiche' questa funzione viene risolta in prima istanza dai driver del device e successivamente dall'hardware dello stesso. Quindi veniamo alla domanda: come fa lo sviluppatore a ottimizzare il suo software per un particolare device se (e solo se) ha scritto utilizzando lo standard?
Ciao

In un mondo perfetto accade quello che dici tu e l'HAL astrae effettivamente l'hardware fornendo un'unica architettura per ogni scheda in commercio. Il programmatore scrive il codice e lo vede eseguito allo stesso modo su tutte le GPU con l'unica differenza che le prestazioni scalano in maniera lineare (una scheda e' piu' veloce dell'altra).

Il mondo non e' perfetto :)

Le differenze architetturali fra le GPU esistono e non sono completamente nascoste dall'HAL per quanto faccia gia' un ottimo lavoro.
Anche a livello di prestazioni, queste non scalano linearmente, significa che e' necessario scrivere del codice particolare (quelle che si chiamano code-path) per ottimizzare per una particolare GPU. Questo e' ancora piu' vero quando si ha a che fare con sistemi molto a basso livello e vicini all'hardware, quali i pixel shader, che risentono molto delle differenze architetturali.

Qualcuno ha scritto che il codice dev'essere scritto una volta e poi la scheda deve eseguirlo al meglio: gli consiglio di seguire un corso di progettazione di reti logiche per capire quanto quest'affermazione sia inesatta. E' normale amministrazione ottimizzare, anzi, piu' si vuole andare veloci piu' il codice che si scrive dev'essere particolare e non generico (l'essato contrario di quell'affermazione).

Rispondo alla domanda che ho quotato. Per ottimizzare per una particolare architettura usando lo standard lo sviluppatore deve conoscere quali operazioni dello standard sono gradite (sono eseguite piu' velocemente) sulla particolare architettura e in quale ordine sono eseguite piu' velocemente.

Piccola nota, lo standard e' a livello funzionale non prestazionale: si e' ragionevolmente garantiti che quello che si scrive funzioni allo stesso modo su tutte le GPU (salvo le capability di ogni GPU), ma NON che venga eseguito in maniera ottimale su ogni GPU. Non e' questo lo scopo di uno standard.