PDA

View Full Version : GeForce 4 MX e Doom


Redazione di Hardware Upg
13-02-2002, 10:57
Link alla notizia : <a href="http://news.hwupgrade.it/5627.html">http://news.hwupgrade.it/5627.html</a>

Come noto, nVidia ha presentato la scorsa settimana la nuova serie di schede video; oltre alla gamma GeForce 4, per soluzioni ad elevate prestazioni, nVidia ha presentato la famiglia di schede GeForce 4 MX, pensate per sistemi entry level.
<br><br>
John Carmak, programmatore capo della ID Software e "mente" di vari giochi, tra i quali l'indimenticabile Doom, ha fatto le seguenti dichiarazioni in merito alle schede GeForce 4 MX e alla compatibilità con la nuova versione di Doom, attesa da tutti gli appassionati di shooter.

<blockquote><i>Do not buy a GeForce4-MX for Doom.
<br><br>
Nvidia has really made a mess of the naming conventions here. I always thought it was bad enough that GF2 was just a speed bumped GF1, while GF3 had significant architectural improvements over GF2. I expected GF4 to be the speed bumped GF3, but calling the NV17 GF4-MX really sucks.
<br><br>
GF4-MX will still run Doom properly, but it will be using the NV10 codepath with only two texture units and no vertex shaders. A GF3 or 8500 will be much better performers. The GF4-MX may still be the card of choice for many people depending on pricing, especially considering that many games won't use four textures and vertex programs, but damn, I wish they had named it something else.
<br><br>
As usual, there will be better cards available from both Nvidia and ATI by the time we ship the game.
</i></blockquote>

Nonostante il nome possa far pensare ad altro, le schede GeForce 4 MX mancano di unità vertex shader e pixel shader, elementi che limitano di parecchio le prestazioni velocistiche con Doom. Per questo motivo, le schede GeForce 4 MX potranno far girare Doom ma utilizzando la movalità NV10, che prevede l'impiego di due sole texture units e non di vertex shader. Per questo motivo, oltre alle prestazioni velocistiche più limitate una scheda geForce 4 MX avrà un'immagine finale, con il gioco Doom, sensibilmente inferiore rispetto a quella di una scheda GeForce 4, nonché a quella delle schede GeForce 3.

<br><br>
Fonte: <a href=http://www.shacknews.com/finger/[email protected]>www.shacknews.com</a>.

Orion_1
13-02-2002, 11:05
Era ovvio!! Bastava guardare attentamente le caratteristiche del chip...spero tanto che l'uscita di queste schede (GF4/GF4MX) faccia calare di prezzo le GF3, cosi' e' la volta buona che compro una onestissima GF3Ti200 :D :D

nickwing
13-02-2002, 11:58
sono contento anche che la mia 8500 insieme alla GF3 "...will be much better performers".

new
13-02-2002, 12:07
e perché c'erano dubbi......

Florio
13-02-2002, 12:29
Mi sembra ovvio, sia che andrà con le ottimizzazioni nv10 e che la 8500 insieme alla g3 sarà meglio della gf4mx, che bel commento eh :rolleyes:

Florio
13-02-2002, 12:30
Ah no forse ho capito, volevi fare bela figura perchè hai la 8500 :rolleyes: se è per questo io ne ho 2 :D :rolleyes:

sidew
13-02-2002, 12:46
era ovvio... Si capiva da 10 miglia che le GF4MX erano delle sole garantite...

Quindi o GF4 pura o GF3 Ti200

devis
13-02-2002, 12:55
Vediamo sulle schede precedenti:

La GF2(NV15) ha 4 pipeline
La radeon 7500 ha 2 pipeline

Quindi si deduce che la GF2 straccerà la Radeon 7500 in doom3? commenti?

Filippo75
13-02-2002, 13:37
Sono discussioni inutili, scommetto la palla sinistra che quando sarà uscito Doom3 ci saranno già in circolazione le GeForce 5! :rolleyes:

Supersubway
13-02-2002, 13:38
A me preoccupa il fatto che dica che "tanto quando uscirà il gioco Nvidia e ati avranno schede ancora più potenti"... ma quando cazzo esce???
Spero prima di duke nuken whenever

piripicchio
13-02-2002, 13:53
come no...
peccato che la Gf2 abbia 4 pipeline ad applichi 2 texture x ciclo...invece la 7500 ha si 2 pipeline ma puo' applicare 3 texture x ciclo...quindi...la 7500 andra' come la gf2...xche' in ogni caso entrambe necessitando 2 cicli e le 2 texture in + prodotte dal gf2 (4x2=8) te le appendi xche' serve in ogni caso un altro ciclo (il motore di doom2 necessita di 12 texture x ciclo) .
Lo stesso dicasi x la 7500 che pero' non spreca niente visto che con 2 cicli renderizza proprio 12 texture...
CIAOZ

Crisidelm
13-02-2002, 16:23
DoomIII esce in autunno-fine anno insomma...

araknis
13-02-2002, 16:36
Geffo 4 cessi? Eh sì. ATI RULEZ!

rubex
13-02-2002, 17:09
Scusate,un gf4 440mx costa meno di 99€ al pubblico.
Ma dico siete tutti convinti che le schede che si vendono d + nel mercato sono le costosissime 8500 o Gf3?Illusi!!

BYe

krokus
13-02-2002, 17:30
In effetti non so quanto sia sensato comprare una scheda video superpotente che viene sfruttata da sì e no tre giochi in circolazione.
Poi, odiatemi, devo dire che secondo me il buon Carmack avrebbe diverse cose da imparare dalla concorrenza...vedi Epic e il motore di Unreal

rubex
13-02-2002, 18:53
Scuate era saltato un 1,il prezzo è 199€

BluE-Mik
13-02-2002, 18:54
mi sembra giusto
come la geffo 2 mx era peggio della 1 ddr è ovvio che la 4mx sia peggio della 3 :P

Zelos
13-02-2002, 19:00
si ma dai che scheda cesso non è la gf4-mx siamo realisti, 90 euro? come acconto ;))) (sucks=cosa merdosa cessosa,repellente,farlocca,ciffonica)
rimango dell'idea che comunque ati è migliore sia come fsaa multisampling e non supersamplig come nvdia e come prezzo per le prestazioni che offre superiori a una gf4-mx ps Italia=30% costo in piu' sull'harware e poi il num30 perde in borsa bah......

Mizar74
14-02-2002, 00:34
Io intanto continuerò ad usare la mia povera Geforce3 Ti200 perché non ho trovato alcun gioco che la rallenti a 1024x768x32 sul mio 17".
Il resto sono solo chiacchiere...

ermetallo
14-02-2002, 02:42
Per 199$, cioè 225 euro ci si può comprare una bella GF 4 Ti4200 che tutto è fuorchè una cosa merdosa cessosa,repellente,farlocca,ciffonica!!! 225 euro non è poi tanto, se si pensa che avrà prestazioni x il momento allineate con la GF 3 Ti 500, non credete? pensate poi all'unità vertex in più ;)
225 euro sono un po' pochini secondo la politica dei prezzi di nVidia... MAH, io non ci credo...

raziel_tg
14-02-2002, 10:37
misa che era una cosa scontata......

FabioD77
14-02-2002, 17:15
Comprate gente, comprate le schede da 500€ per invogliare ati e nvidia a farne altre più potenti che poi arriva la gente come me che si cucca le schede più economiche a prezzi interessati: grazie!

ciocia
14-02-2002, 21:47
Ricopio la traduzione fatta dall'utente CS25 sul forum di nv italia:

Intervento INTEGRALE di J. Carmack e traduzione [MOLTO LUNGO]
Poiche' molte persone (spinte evidentemente dalle proprie insicurezze) hanno chiamato in causa cio' che ha detto Carmack, riportandone parti, spezzoni o stravolgendone il senso, eccovi TUTTO cio' che ha detto in italiano
Il link del testo originale e' http://www.shacknews.com/finger/[email protected] per chi mettesse in dubbio la fedelta' della traduzione

-----------------

11 Febbraio 2002

Il mese scorso ho scritto riguardo il supporto della Radeon8500 per Doom. La conclusione e' che sara' una buona scheda per il gioco, ma i dettagli sono piuttosto interessanti.
Io ricevetti una scheda di pre-produzione prima del Siggraph lo scorso anno, e abbiamo discusso la possibilita' di lasciare che Ati mostrasse un demo di Doom a porte chiuse. Eravamo tutti molto occupati in quel momento, ma io provai a mettere su il supporto nell'arco di un weekend. Non codificai ancora nulla del supporto per le estensioni proprietarie ATI, ma eseguii il gioco usando solamente le chiamate Opengl standard (non e' una via supportata, poiche' senza bump mapping tutto sembra orribile) per vedere come sarebbe andato. Non disegno' nemmeno la console correttamente, poiche' c'erano bug nei driver riguardo la texGen (texture generation, generazione delle texture Nd CS25).
Pensai che le possibilita' erano assai distanti dall'avere tutte le nuove e non testate estensioni funzionare correttamente, cosi' misi da parte il lavoro fino a che non avessero revisionato i driver un altro po' di volte.
Il mio giudizio era colorato dall'esperienza di far girare Doom sulla Radeon originale un anno prima, che richiese la caccia ad un mare di bug nei driver. E' da notare che ATI rispondeva alacremente, lavorando vicino a me su essi (i bug Nd CS25) e cosi' fummo in grado di risolvere tutto quanto, ma ancora non avevo nessuna aspettativa sul fatto che poi le cose avrebbero funzionato correttamente la prima volta.
I driver Opengl di Nvidia sono il mio "Standard Dorato", ed e' passano un pezzo da quando io segnalai loro un problema, ed anche le loro nuove estensioni funzionano come documentato la prima volta che le provo. Quando ho un problema con una Nvidia, parto dal presupposto che e' un mio errore. Con i driver di qualsiasi altro produttore, parto dal presupposto che e' un loro errore. Tutto questo s'e' dimostrato corretto praticamente tutte le volte. Ho sentito molte segnalazioni anedottiche di instabilita' su alcuni sistemi con driver Nvidia di recente, ma io distinguo la stabilita' dalla correttezza, poiche' puo' essere influenzata da veramente tanti fattori esterni.
ATI ha continuato a chiedermi pazientemente riguardo il supporto per alcuni mesi, cosi' alla fine ho dato un'altra occhiata al tutto. Il percorso Opengl standard funziono' correttamente, cosi' decisi di avvantaggiarmi delle caratteristiche specifiche del Radeon8500. Come mi aspettavo, andai incontro ad ulteriori bug dei driver, ma ATI mi fece ricevere i fix rapidamente, e presto riuscii a far funzionare tutto a dovere. E' interessante confrontare la funzionalita' di Nvidia ed ATI :
Le estensioni vertex program (o estensioni dei vertex programmabili Nd CS25) danno praticamente le stesse funzionalita'. L'Hardware ATI e' un pochino piu' capace, ma non nella modalita' che a me interessa. L'interfaccia delle estensioni ATI e' assai piu' incasinata da usare dell'interfaccia text phasing di Nvidia. D'altro canto, i vertex programs di Ati sono poco dissimili dalla normale processazione vertex Opengl, cosa che mi permise di riciclare un bel po' di codice. I vertex programs di Nvidia di Nvidia non possono essere usati in algoritmi multipassaggio con i passaggi standard Opengl, poiche' essi generano minuscole differenze nei valori di profondita', forzandoti ad implementare TUTTO con i vertex programs. Nvidia sta pianificando di renderlo opzionale in futuro, ma al costo di una leggera perdita di velocita' (vedi appendice 2 a fine traduzione Nd CS25).
Nutro sentimenti contrastanti riguardo le estensioni "vertex object / vertex array range". Le estenbsioni ATI sembrano piu' "giuste" nel senso che si occupano automaticamente della sincronizzazione gia' di loro, e potrebbero essere implementate come un protocollo wire, ma ci sono vantaggi nella estensione VAR (vertex array range) essendo solamente un "hint" (e vi dico che questa frase e quella che segue faccio fatica a capirle pure io Nd CS25). E' semplice avere un VAR program tornare indietro alla normale memoria virtuale semplicemente non settando gli "hint" ed usando malloc, ma le estensioni ATI richiedono differenti chiamate di funzione per usare i vertex objects e i normali vertex array.
La processazione fragment level e' chiaramente assai migliore sulla 8500 che sui prodotto nvidia, incluse le ultime GF4. Tu hai 6 texture individuali, ma puoi accedere alle texture due volte, dandoti fino a 11 possibili accessi alla texture in un singolo passaggio, e l'operare con texture dipendenti e' assai piu' sensibile. Questo andrebbe ad incastrarsi perfettamente per Doom, poiche' il percorso standard potrebbe essere implementato con 6 uniche texture, ma richiese che una texture (una "normalization cube map") venisse richiamata due volte. La stragrande maggioranza del rendering delle interazioni luce / superficie sara' eseguita in un solo passo sulla 8500, in contrasto ai due o tre passi, a dipendere dal numero di componenti del colore della luce, per GF3/GF4 (*nota discussioni sul Geforce4 piu' avanti).
I test delle performance iniziali e' stato piuttosto interessante. Io settai 3 casi estremi per mettere alla prova le differenti caratteristiche :
Un test di ombre stencil non texturizzate mostro' il GF3 circa il 20% piu' veloce del 8500. Credo che Nvidia abbia una migliore architettura della memoria.
Un test di velocita' di interazione delle luci, che inizialmente mostrava la 8500 significantemente piu' lenta del GF3, cosa shockante visa la differenza nel numero dei passaggi. ATI identifico' il problema in alcuni problemi dei driver, e la velocita' venne fuori cosicche' l'8500 risulto' piu' veloce in tutte le combinazioni di attributi delle texture, in alcuni casi di + del 30%.
Questo era cio' che mi aspettavo, visto il grande risparmio nel traffico della memoria facendo tutto in un solo passaggio.
Una scena con un alto numero di poligoni, piu' rappresentativa della grafica del gioco reale sotto pesante lavoro, diede risultati sorprendenti. Mi aspettavo che la scheda ATI stritolasse la Nvidia per via della minore capaciota' di muovere triangoli e della ASSAI minore funzionalita' di fronte al singolo passaggio, ma risulto' piu' lenta. ATI indentifico' un problema che pare sia la causa della mancanza di prestazioni, ma potrebbe essere qualcosa di non risolvibile sull'attuale hardware.
Posso mettere su test e parametri che facciano vincere l'una o l'altra scheda, ma penso che attualmente le schede Nvidia siano in qualche modo la scelta migliore per consistenza di prestazioni e qualita'.
Riguardo le attuali schede Nvidia :
Non comprate un geforce4 MX per DOOM.
Nvidia ha realmente fatto un casino delle convenzioni dei nomi qui. Io ho sempre pensato che fosse abbastanza negativo che il GF2 fosse giusto un GF1 piu' veloce, mentre il GF3 aveva significanti miglioramenti d'architettura rispetto al GF2. Mi aspettavo che il GF4 fosse la versione potenziata del GF3, ma chiamare l'NV17 GF4-MX fa veramente schifo.
GF4-MX fara' girare correttamente Doom, ma usera' il condice per l'NV10 con solo 2 unita' di texture e niente vertex shaders. Una GF3 o 8500 saranno molto piu' prestanti. La GF4-MX sara' comunque la scheda da scegliere per tante persone a causa del prezzo, specialmente considerato che molti giochi non useranno 4 unita' di texture e i vertex programmabili, ma accidenti, vorrei che l'avessero chiamata differentemente.
Come sempre, ci saranno schede migliori sul mercato sia da Nvidia che da Ati quando noi cominceremo a distribuire il gioco.

-----------

padellino
15-02-2002, 11:19
grazie ciocia per la traduzione.
direi che se le due fazioni ( ATI-Nvidia) mettessero insieme le loro tecnologie
ne uscirebbe qualcosa di veramente spettacolare ...
ma purtroppo si pensa solo al mercato...
Byez

StepsOTM
17-02-2002, 11:41
sono veramente curioso di sapere come andrà sulla mia gf3ti200.
dite che si potrebbe metterlo a 1024*768@32 o dovrò andare a 640*480@16 e sfruttare il mio XP 1500+?


P.S. ho fatto quel paragone con Unreal Tournament e andava parecchio + fluido con la prima risoluzione...............


io cmq penso che i videogiochi debbano evolversi dalle sv così ke tutti ci possano giocare, e non come accade oggi che le sv si evolvano dai giochi e quindi solo pochi eletti si divertiranno attualmente con risoluzioni a palla!!!!!!

vedi Aquanox: si diceva fosse il gioco per eccellenza, oltre a Doom3, a far lavorare ben bene le Gf3, sfruttando a dovere vertex e pixel shader, ma poi dai primi test letti su questo sito vengo a sapere che ai canonici 1024*768@32 è molto facile andare a scatti!!!! a chi legge ciò passa la voglia di comprare un 19" o più visto che si possono immaginare gli fps a risoluzioni >, e deve buttare quei soldi per tenersi sempre al passo con le sv!!!!!!



MI PIACEREBBE RICEVERE COMMENTI SU QUESTO MIO MESSAGGIO, SOPRATTUTTO PER QUANTO RIGUARDA L'ULTIMA PARTE. GRAZIE!!!

ciocia
18-02-2002, 10:25
Noto con piacere che Paolo ha messo a posto anche le notifiche dei post scritti nella sezione news!!

x steps
sinceramente non capisco cosa tu voglia dire...
i videogiochi separarsi dalle vga? che dici?
Chi gioca su pc deve accettare il fatto di aggiornare "spesso" il proprio pc se vuole avere sempre il meglio della grafica. E' una scelta personale, chi non lo vule fare oggi sta giocando felicemente acora con una TNT2 oppure una playstation.

Per doom3 e la tua ti200 e' presto per dirlo. Per me potrai giocare a 1024 32bit ma non tutti i dettagli al max, a patto di overcloccarla al limite ( alcune ti200 overcloccate al limite, raggiungono come prestazioni la ti500 )
http://www6.tomshardware.com/graphic/01q4/011218/geforce-ti-27.html

StepsOTM
18-02-2002, 19:01
bè il mio mex era solo un lamento al costo delle Vga, e della dipendenza che abbiamo su di loro (i processori evolvono molto + velocemente, ma nn serve per forza l'utlimo modello per giocare;) ).

Sai ho appena speso a novembre 700k per quella sv!!!!:eek:
è anche per questo ke NON la overcloccherò MAI come anche la CPU (se guardi il mio sondaggio sul forum generale: "chi overclocca qui?" io ho votato "assolutamente mai":D )

piuttosto mi accontento, o farò upgrades, ma MAI rischierò ad overcloccare, neanche per gioco di pochi Mhz.

bye e grazie per il commento

HaloMaster
20-02-2002, 19:14
Ermetallo ha ragione: non ci avevo proprio pensato ad una 4200... ma sei davvero sicuro che costi "solo" 225 €?
Se sì, me la prendo appena esce!!! :D