PDA

View Full Version : Doom 3- The way it's meant to be played?


abracadabra84
15-01-2004, 07:30
Ragazzi girando nel sito NVidia ho visto sta pagina
http://www.nvidia.com/object/nzone_doom3_home.html
e niente popò di meno vedo che la cara Nvidia ha messo la scritta:The way it's meant to be played su DOOM3!!!!!:confused:
Ma non girava male x NVidia?e non solo,c'è scritto:
Recommended GPU: GeForce FX:confused: :confused:
Speriamo che sia vero xkè io ho una 5900 ultra della Asus che mi fa girare tutto alla grande:cool:
Che ne pensate?a me pare che da come ne parlano il gioco stia x uscire(ed è anche ora....);)

Redvex
15-01-2004, 08:21
Mah anke se non fosse meant to be ecc ecc se uscisse sarebbe già un miracolo

Korn
15-01-2004, 09:05
Originariamente inviato da abracadabra84
Ragazzi girando nel sito NVidia ho visto sta pagina
http://www.nvidia.com/object/nzone_doom3_home.html
e niente popò di meno vedo che la cara Nvidia ha messo la scritta:The way it's meant to be played su DOOM3!!!!!:confused:
Ma non girava male x NVidia?e non solo,c'è scritto:
Recommended GPU: GeForce FX:confused: :confused:
Speriamo che sia vero xkè io ho una 5900 ultra della Asus che mi fa girare tutto alla grande:cool:
Che ne pensate?a me pare che da come ne parlano il gioco stia x uscire(ed è anche ora....);) lo conosci il marketing?

R@nda
15-01-2004, 09:14
Originariamente inviato da Korn
lo conosci il marketing?

E tu lo conosci il reale significato di quella sigla?
Non c'entra il marketing....e nemmeno che Nvidia ha pagato quella
software House per far andare meglio il gioco sulle sue schede.
Significa solo che Nvidia ha collaborato con loro allo sviluppo del gioco....per accertarsi che con le sk video Nvidia non ci sia nessun problema di compatibilità con il gioco.

E' stato spiegato bene da Nvidia all'ultimo meeting che avevano organizzato..non ricordo il nome della manifestazione.

Quindi non significa che va più veloce o meglio con sk Nvidia....ma solo che ci va senza nessun problema...e direi anche ben venga

Tutto qui...

Korn
15-01-2004, 10:12
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare la "scarsa" gpu nvidia

Deuced
15-01-2004, 10:41
Originariamente inviato da Korn
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare lo "scarsa" gpu nvidia



l'ha detto r@nda,perchè hanno collaborato allo sviluppo del gioco.E' ovvio che poi per aumentare la compatibilità forniscono informazioni più dettagliate sulle loro schede e drivers.


Doom 3 all'e3 girava su una 9700 in fin dei conti...

cesko
15-01-2004, 10:48
e magari questa domanda l'avranno già posta, ma sulla mia 4400@4600 128mb riuscirò a farlo girare in maniera accettabile??

:S

R@nda
15-01-2004, 11:05
Originariamente inviato da Korn
non avrà pagato ma spiegami perchè hanno programmato il gioco in maniera specifica per rattoppare la "scarsa" gpu nvidia

Ma quale scarsa....
Anche qui ti dico di informarti....l'architettura nv30 nv35 è diversa
da quella di Ati e va prgrammata a modo.
Tanto che devono uscire le Dx9.1 per risparmiare in parte questo lavoro ai programmatori.

Insomma....finiamola con le solite polemiche Nvidiane...

Intanto sto cavolo di gioco,che comunque andrà su qualsiasi tipo di scheda dx8.1 dx9 non esce mai,questo è quello che conta.

Redvex
15-01-2004, 11:22
Eppoi il progetto nv35 non è male soprattutto vedendo le 5700ultra 5900 xt

ray_hunter
15-01-2004, 13:15
Ammettiamo che le FX non sono state schede eccezionali, dato che per andare come le ATI hanno bisogno di software ottimizzato nell'utilizzo degli shader's.
Di fatto molti però ottimizzano i giochi per le FX, mentre le ATI vanno molto bene anche con driver generici.
Qualche mese fa J.C. disse che avrebbe fatto una modalità specifica per NV30 mentre le 9700/9800 non la avrebbero avuta dato che in Doom III erano già spremute al max con la modalità standard. Con tale modalità le FX andavano male perciò ha dovuto implementare delle limitazioni nella modalità NV30 che però non incidono nell'aspetto visivo complessivo.
In tal modo sulle FX Doom III gira un po' più fluido che sulle ATI anche se con delle semplificazioni nella visualizzazione degli shader's (di quella intervista mi ricordo, si discusse molto in questo forum).
Un punto a favore delle FX è lo stencil shadows che fa si che in giochi con illuminazione i tempo reale come Doom III vadano benissimo.

L'architettura tra ATI e Nvidia è sicuramente molto diversa.
Personalemente preferisco le scelte di ATI, ma le FX, in particolare NV35 e NV36 sono delle schede molto buone.

shambler1
15-01-2004, 13:20
[

shambler1
15-01-2004, 13:21
Originariamente inviato da cesko
e magari questa domanda l'avranno già posta, ma sulla mia 4400@4600 128mb riuscirò a farlo girare in maniera accettabile??

:S

secondo me no.

Alberto Falchi
15-01-2004, 13:26
Originariamente inviato da ray_hunter
Ammettiamo che le FX non sono state schede eccezionali, dato che per andare come le ATI hanno bisogno di software ottimizzato nell'utilizzo degli shader's.


Beh, non mi sembra un difetto, per lo meno sino a quando si riescono a ottenere prestazioni simili alle concorrenti.
Si tratta di architetture radicalmente diverse, e nVidia da parte sua paga lo scotto di aver fatto delle scelte progettuali a mio avviso parecchio interessanti, ma non adatte a gestire al meglio le DX a meno di ottimizzare il codice. Per fare un esempio, le schede ATI hanno delle limitazioni sul numero e la complessità degli shader, cosa che non tocca le FX. Ovviamente questo vantaggio risulta inutile all'utente finale, in quanto sfruttare l'architettura NV3X al meglio del suo potenziale equivarrebbe a tagliare fuori i possessori di schede ATI, un suicidio economico. Anche i 32 bit di precisione sono, per certi aspetti, importantissimi e aderenti a qualsiasi standard, ma per qualche incomprensibile motivo MS ha preferito limitarsi ai 24 bit delle DX9. ATI, supportando solo i 24 bit, non necessità quindi di ottimizzazione del codice.

Pape

sanitarium
15-01-2004, 13:36
Originariamente inviato da GMCPape
[...] Per fare un esempio, le schede ATI hanno delle limitazioni sul numero e la complessità degli shader, cosa che non tocca le FX. Ovviamente questo vantaggio risulta inutile all'utente finale, in quanto sfruttare l'architettura NV3X al meglio del suo potenziale equivarrebbe a tagliare fuori i possessori di schede ATI, un suicidio economico. [...]

Se non sbaglio la tecnologia F-buffer, introdotta nella 9800pro, ha eliminato le suddette limitazioni.

TheRipper
15-01-2004, 13:38
Secondo me i progettisti di nVidia hanno toppato a non seguire lo standard delle DX9 per gli shaders...hanno voluto fare il passo piu' lungo della gamba implementando shaders misti a profondita' diverse per ottimizzarne l'esecuzione, ma cio' comporta a un distaccamento dal codice standard a 24bit con conseguente doppio lavoro per i programmatori e cio' non mi sembra corretto.
Sarebbe stato piu' comodo per tutti se nVidia avesse rispettato le specifiche dx9, i programmatori avrebbero avuto molto meno lavoro e i giochi che tanto stiamo aspettando sarebbero usciti molto prima.

Xilema
15-01-2004, 13:46
Io davvero non capisco la nVidia: Microsoft "impone" il suo standard Direct X a 24 bit... e la casa californiana si mette a giocherellare con i 16 e i 32 bit ?
Va bene che la nVidia vuole mantenere il primato per le applicazioni OpenGL, ma a parte Doom 3... quali altri videogiochi quest' anno useranno un motore scritto per le OpenGL che richieda davvero qualche innovazione tecnologica ?
Nessuno !
Si continuerà ad usare il vecchio engine di Quake 3... che comunque le schede ATI fanno girare alla stragrande, e le differenze con nVidia sono pressochè nulle.
Lo standard futuro sarà senza ombra di dubbio il Direct 3D, soprattutto grazie a giochi come Half life 2 e STALKER (nonchè Far cry, Thief 3 e molti altri...) che baseranno il loro engine appunto sulle librerie Microsoft.
La storia degli "shader infiniti" di nVidia per me non ha molto senso: si possono fare grandissimi giochi anche con shader "limitati", proprio come insegna Half life 2.
Il fatto è che ci vogliono programmatori seri che sfruttino al massimo le tecnologie che ci sono, che sinceramente... sono tante e davvero incredibili.
Alla fine la qualità paga, e dove non si spendono soldi in prodotti veramente solidi... si spendono in pubblicità di basso livello che come al solito accalappia i meno esperti e lascia indifferenti qualli che un po' se ne intendono.

Alberto Falchi
15-01-2004, 13:48
Originariamente inviato da TheRipper
Secondo me i progettisti di nVidia hanno toppato a non seguire lo standard delle DX9 per gli shaders...hanno voluto fare il passo piu' lungo della gamba implementando shaders misti a profondita' diverse per ottimizzarne l'esecuzione, ma cio' comporta a un distaccamento dal codice standard a 24bit con conseguente doppio lavoro per i programmatori e cio' non mi sembra corretto.


Fa un po' sorridere la tua affermazione, più che altro perché di fronte a un simile intervento, ho visto MArk Rein scoppiare in una fragorosa risata, spiegando come se fosse questo il problema la vita sarebbe una passeggiata per gli sviluppatori. A sentire il presidente di Epic, ciò che li rallenta maggiormente è trovare il modo di rendere compatibile i giochi con i vari chip integrati o quelli dei portatili, più che ottimizzare per ati o nVidia. Bisogna poi calcolare che, nel caso di nVidia, è la casa stessa a occuparsi delle ottimizzazioni, quindi il discorso dei programmatori più affaticati viene a cadere.

Cmq non credo che si sia trattato di fare ilò passo più lungo della gamba, quanto di aver puntato le carte sui 32 bit, come dovevano essere in origine le DX 9, mentre alla fine la scelta è caduta sui 24.

Pape

Xilema
15-01-2004, 13:52
Originariamente inviato da GMCPape
Fa un po' sorridere la tua affermazione, più che altro perché di fronte a un simile intervento, ho visto MArk Rein scoppiare in una fragorosa risata, spiegando come se fosse questo il problema la vita sarebbe una passeggiata per gli sviluppatori. A sentire il presidente di Epic, ciò che li rallenta maggiormente è trovare il modo di rendere compatibile i giochi con i vari chip integrati o quelli dei portatili, più che ottimizzare per ati o nVidia. Bisogna poi calcolare che, nel caso di nVidia, è la casa stessa a occuparsi delle ottimizzazioni, quindi il discorso dei programmatori più affaticati viene a cadere.

Cmq non credo che si sia trattato di fare ilò passo più lungo della gamba, quanto di aver puntato le carte sui 32 bit, come dovevano essere in origine le DX 9, mentre alla fine la scelta è caduta sui 24.

Pape

Si, ma allora quello di nVidia è un clamoroso errore di valutazione e di NON-informazione !
Come mai ATI ha puntato forte sui 24 bit e nVidia si è persa con i 32 ?
Stando alla Microsoft... le direct X 9x regneranno sovrane fino all' arrivo del presunto Longhorn (e forse anche dopo...), quindi non prima di 2-3 anni.
Forse è il caso che con la sua prossima serie di schede nVidia passi ai 24 bit...

Alberto Falchi
15-01-2004, 13:52
Originariamente inviato da Xilema
Io davvero non capisco la nVidia: Microsoft "impone" il suo standard Direct X a 24 bit... e la casa californiana si mette a giocherellare con i 16 e i 32 bit ?


Lo standard è stato abbastanza travagliato, se ben ricordi, e le specifiche delle DX 9 continuavano a cambiare.


La storia degli "shader infiniti" di nVidia per me non ha molto senso: si possono fare grandissimi giochi anche con shader "limitati", proprio come insegna Half life 2.


Certo, ma si potrebbero ottenere migliori effetti se si potessero usare shader più complessi, no?


Il fatto è che ci vogliono programmatori seri che sfruttino al massimo le tecnologie che ci sono, che sinceramente... sono tante e davvero incredibili.
Alla fine la qualità paga, e dove non si spendono soldi in prodotti veramente solidi... si spendono in pubblicità di basso livello che come al solito accalappia i meno esperti e lascia indifferenti qualli che un po' se ne intendono.

Mah, io vedo dai benchmark che, nonostante tutto, ATI e nVidia bene o male si equivalgono, dimostrando la validità di entrambe le architetture. In alcuni test vince ATI, in altri nVidia, ma solitamente i margini di distacco non sono enormi.

Pape

Alberto Falchi
15-01-2004, 13:53
Originariamente inviato da Xilema
Si, ma allora quello di nVidia è un clamoroso errore di valutazione e di NON-informazione !
Come mai ATI ha puntato forte sui 24 bit e nVidia si è persa con i 32 ?
Stando alla Microsoft... le direct X 9x regneranno sovrane fino all' arrivo del presunto Longhorn (e forse anche dopo...), quindi non prima di 2-3 anni.
Forse è il caso che con la sua prossima serie di schede nVidia passi ai 24 bit...

Si, ma che te frega? Sino a che i giochi vanno bene e sono visivamente identici alla controparte ATI, che usi codice a 24 bit, o 32, o un mix delle tue non ti cambia assolutamente nulla

Pape

seccio
15-01-2004, 13:54
Originariamente inviato da R@nda
Ma quale scarsa....
Anche qui ti dico di informarti....l'architettura nv30 nv35 è diversa
da quella di Ati e va prgrammata a modo.
Tanto che devono uscire le Dx9.1 per risparmiare in parte questo lavoro ai programmatori.

Insomma....finiamola con le solite polemiche Nvidiane...

Intanto sto cavolo di gioco,che comunque andrà su qualsiasi tipo di scheda dx8.1 dx9 non esce mai,questo è quello che conta.

io sapevo che le FX erano scadenti in DX9......e le DX9.1 sarebbero uscite x colmare le toppe delle VPU nVidia........se questo te nn la chiami scarsità di features....


certo tutto a vantaggio degli utenti con le Dx9.1 indubbiamente! ma.....se nn c'erano....beh era possibile chiamarla frode...perchè le FX nn sono mai compatibili al 100% con le DX9.....
:muro:

Xilema
15-01-2004, 13:55
Originariamente inviato da GMCPape
Lo standard è stato abbastanza travagliato, se ben ricordi, e le specifiche delle DX 9 continuavano a cambiare.



Certo, ma si potrebbero ottenere migliori effetti se si potessero usare shader più complessi, no?



Mah, io vedo dai benchmark che, nonostante tutto, ATI e nVidia bene o male si equivalgono, dimostrando la validità di entrambe le architetture. In alcuni test vince ATI, in altri nVidia, ma solitamente i margini di distacco non sono enormi.

Pape

Ma allora non potrebbero mettersi insieme e "monopolizzare" il mercato video ?
Andrebbe bene a loro perchè detterebbero gli standard, e bene a noi perchè finalmente non avremo più problemi di compatibilità/scelta della scheda di turno...
Altrimenti... parlando meno utopisticamente... sarebbe ora di definire uno standard al quale entrambe le case devono adattarsi, sia per quanto riguarda le Direct X che le OpneGL !

P.S. Io comunque aspetto ancora una scheda che "canalizzi" il flusso dati in modo da avere un framerate costante, tipo... 45 FPS, senza puntare sulla forza bruta a priori...

TheRipper
15-01-2004, 14:05
Guarda io sto parlando specificatamente di Carmack e non della Epic o di altri...E sinceramente non credo proprio che Carmack si faccia far le ottimizzazioni sul suo motore da qualcun'altro.
Anzi in una sua intervista rilasciata a gennaio 2003 dichiara di aver spremuto il progetto r300 all'osso e dopo di essersi dedicato all'ottimizzazione del codice per nv30...
Cmq a parte tutto dubito fortemente che nVidia stessa di metta li ad ottimizzare il codice al posto dei programmatori stessi.
nVidia ha la fortuna di essere una casa ormai affermata e diffusa in tutto il mondo e si e' potuta permettere di uscire fuori standard come le pareva, ma se fosse stata una casetta da 4 soldi a uscire fuori standard sono sicuro che le ottimizzazioni se le sarebbe sognate.
Cmq e' ancora tutto da vedere se le ottimizzazioni di nVidia comportino una regressione della qualita' dell'immagine o meno...

Alberto Falchi
15-01-2004, 14:09
Originariamente inviato da Xilema
Andrebbe bene a loro perchè detterebbero gli standard, e bene a noi perchè finalmente non avremo più problemi di compatibilità/scelta della scheda di turno...


io credo che la concorrenza possa solo fare bene: sia ATI che nVidia hanno fatto le loro minchiate negli anni, e hanno imparato dagli errori. Se non ci fosse la concorrenza, chissà che problemi ci tireremmo indietro (pensa ai bug irrisolti di Win ^_^)


P.S. Io comunque aspetto ancora una scheda che "canalizzi" il flusso dati in modo da avere un framerate costante, tipo... 45 FPS, senza puntare sulla forza bruta a priori...

Non so cosa tu intenda con questo: è l'engine del gioco a gestire questo, al massimo, non la scheda in se. E Doom 3 infatti sarà lockato a 60 FPS (per fortuna, aggiungo)

Pape

Alberto Falchi
15-01-2004, 14:17
Originariamente inviato da TheRipper
Guarda io sto parlando specificatamente di Carmack e non della Epic o di altri...E sinceramente non credo proprio che Carmack si faccia far le ottimizzazioni sul suo motore da qualcun'altro.


Ognuno sceglie se farsi ottimizzare il codice o meno, ovviamente. Calcola che le nuove GPU sono realizzate insieme ai principali developer, e la precisione a 32 bit era, in effetti, una delle richieste di Carmack da parecchio tempo. Che io sappia, attualmente Epic è coinvolta nelle feature delle prossime NV50 (notizia ufficiosa, cmq)


Anzi in una sua intervista rilasciata a gennaio 2003 dichiara di aver spremuto il progetto r300 all'osso e dopo di essersi dedicato all'ottimizzazione del codice per nv30...


Purtroppo Carmack ne ha dette troppe: ogni nuova scheda, indipendentemente dal produttore, risultava la più idonea a far girare il gioco, e non che ci voglia un grosso sforzo a immaginarlo, anche senza che lo dica carmack ^_^


Cmq a parte tutto dubito fortemente che nVidia stessa di metta li ad ottimizzare il codice al posto dei programmatori stessi.


è uno dei punti del programma TWISTBP, invece. Nel caso di Halo e UT 2004 i programmatori hanno ricevuto supporto, ma per altri titoli (IW e MoH, per esempio), nVidia stessa ha ottimizzato alcune istruzioni.


nVidia ha la fortuna di essere una casa ormai affermata e diffusa in tutto il mondo e si e' potuta permettere di uscire fuori standard come le pareva, ma se fosse stata una casetta da 4 soldi a uscire fuori standard sono sicuro che le ottimizzazioni se le sarebbe sognate.


Come ti dicevo, i programmatori perdono molto più tempo con gli I740 o le MAtrox che con qualsiasi altra scheda


Cmq e' ancora tutto da vedere se le ottimizzazioni di nVidia comportino una regressione della qualita' dell'immagine o meno...

Beh, i test pubblicati da qualsiasi sito o rivista dimostrano come nVidia e ATI siano praticamente identiche sotto questo profilo. Anzi, nel caso di Aquamark e UT 2003 è ATI a offrire immagini diverse (non necessariamente peggiori, ma diverse dal Reference Rasterizer)

Pape

R@nda
15-01-2004, 14:18
io sapevo che le FX erano scadenti in DX9......e le DX9.1 sarebbero uscite x colmare le toppe delle VPU nVidia........se questo te nn la chiami scarsità di features....

Ripeto sono diverse...e basta.
Il progetto Nv30 sappiamo tutti come è andato,erano fornetti rumorosi....e son daccordo.
Nv35 è un affinamento dove l'Nv30 peccava.

In Nvidia si sono fissati sul calcolo misto 16/32 per i calcoli in virgola mobile.....tutto questo non fa parte delle Dx9.
Ma non vuol dire che sia scadente,solo che il codice va programmato con degli accorgimenti diversi.....ed è per questo che escono le dx9.1 e che nella serie 5 dei detonator è stato inserito un minicompilatore (e non mi pare che con i forceware ci sia perdita di qualità)....ah già in quell'esplosione la sfumatura è un pochino meno arancione (ma daiiii!!:) ).
Insomma tutto mi potete dire ma non che Nv30 faccia schifo,e che Nv35 sia scadente.
Anche perchè i giochi stanno uscendo,i driver vengono aggiornati...e risultati si vedono,zero perdita di qualità,prestazioni allineate a quelle della concorrenza.

Quando le Dx9....o 9.1 verranno realmente sfruttate dai giochi
avremo per le mani schede video che saranno ben altre di quelle che ci sono ora....ed è meglio così anche perchè a quanto vedo con le schede attuali basta qualche effetto dx9 per mettere in crisi schede che costano fior di€€€.

Alberto Falchi
15-01-2004, 14:21
Originariamente inviato da R@nda
ed è meglio così anche perchè a quanto vedo con le schede attuali basta qualche effetto dx9 per mettere in crisi schede che costano fior di€€€.

Concordo. Sembra che proprio i PS 2.0, tanto sbandierati da ATI e nVidia, alla fine non siano alla portata delle schede attuali: Halo, per esempio, usa i PS 2.0, e si palesa relativamente lento anche sulle migliori GPU. Idem IW, solo che al posto dei PS (il gioco usa ancora le DX 8.1) sono le Stencil Shadow a far crollare il frame rate

Pape

TheRipper
15-01-2004, 14:27
Sinceramente non mi fido di nessun test o benchmarck uscito fin'ora su queste fantomatiche dx9.0.
In quello di Half-Life 2 Ati stracciava nVidia e lo stesso accade con quello di Stalker, ma si vedra' quando finalmente uscira' un gioco dx9 programmato in modo decente. No Tomb Raider o Halo...a proposito in quest'ultimo NON sono i ps 2.0 a rallentare l'esecuzione, infatti anche forzando i ps 1.1 la situazione cambia poco.

JENA PLISSKEN
15-01-2004, 14:29
tempo fa lo stesso Carmack kiarì questo punto...in qualità al max l' r300 era superiore all' nv30...con l' ottimizzazione x nv 30 NV guadagnava, ma a scapito della qualità....molto semplice noo??;)

TheDarkAngel
15-01-2004, 14:31
Originariamente inviato da JENA PLISSKEN
tempo fa lo stesso Carmack kiarì questo punto...in qualità al max l' r300 era superiore all' nv30...con l' ottimizzazione x nv 30 NV guadagnava, ma a scapito della qualità....molto semplice noo??;)

si ma se devi abbassare la qualità grafica...
uno spende 500€ x abbassare la qualità grafica? mah...
ciofeca è e ciofeca resterà sempre nv30 o nv35 ke sia -.-

R@nda
15-01-2004, 14:33
Originariamente inviato da JENA PLISSKEN
tempo fa lo stesso Carmack kiarì questo punto...in qualità al max l' r300 era superiore all' nv30...con l' ottimizzazione x nv 30 NV guadagnava, ma a scapito della qualità....molto semplice noo??;)

Provando la famosa Alpha nessuno si è lamentato della qualità
provandole con le 5800.
Figurati con le 5900.

Quel che conta è che le sk video vanno entrambi bene.....e quindi
non capisco il perchè di tutta questa discussione.
E ancora più importante....nonostante tutto le prestazioni sono quelle che sono,e son curioso di vedere questi giochi quando usciranno sul mercato cosa richiederanno per essere giocati
al loro massimo.

R420 o NV40 con Amd64 fx?
Scommettiamo?;)

R@nda
15-01-2004, 14:34
ciofeca è e ciofeca resterà sempre nv30 o nv35 ke sia -.-

Piuttosto stai zitto....

Alberto Falchi
15-01-2004, 14:41
Originariamente inviato da JENA PLISSKEN
tempo fa lo stesso Carmack kiarì questo punto...in qualità al max l' r300 era superiore all' nv30...con l' ottimizzazione x nv 30 NV guadagnava, ma a scapito della qualità....molto semplice noo??;)

Siamo arrivato a NV38, però ^_^

Pape

JENA PLISSKEN
15-01-2004, 14:41
Originariamente inviato da R@nda
Provando la famosa Alpha nessuno si è lamentato della qualità
provandole con le 5800.
Figurati con le 5900.

Quel che conta è che le sk video vanno entrambi bene.....e quindi
non capisco il perchè di tutta questa discussione.
E ancora più importante....nonostante tutto le prestazioni sono quelle che sono,e son curioso di vedere questi giochi quando usciranno sul mercato cosa richiederanno per essere giocati
al loro massimo.

R420 o NV40 con Amd64 fx?
Scommettiamo?;)

L' unica differenza è quella...poi ke sia risibile o meno...sarà da dimostrare nelle versione fin del gioco....xò x carità tenete presente ke x allora saranno state già presentate le skede nuove (come minimo)...quindi stiamo parlando dell' aria fritta
:sofico:

p\s
Alla fine io il giga di mem l' ho comprato...nn si sa mai:oink:

JENA PLISSKEN
15-01-2004, 14:44
Originariamente inviato da GMCPape
Siamo arrivato a NV38, però ^_^

Pape


si...ma staimo parlando di un gioco ke cmq metterà alla frusta la NUOVA generazione di skede...quindi 2° me questi discorsi sono abbastanza inutili, anke xkè JC su questi nuovi affinamenti nn si è pronunciato....anke xkè 2° me sarebbe inutile;)

Xilema
15-01-2004, 14:50
Sarebbe bello vedere un unico motore 3D di sublime qualità, flessibilità e perfezione tecnica adoperato da tutte le soft. house per fare i propri giochi, un po' come sta accadendo ultimamente per l' Havoc.
In questo modo ci sarebbe un unico motore 3D di riferimento e le soft. house sarebbero più libere di occuparsi di trama, personaggi, level design dei loro giochi.
Avendo un unico motore da adoperare... anche le schede video potrebbero adattarsi di conseguenza.
In caso di effettive migliorie estetiche... questo motore universale potrebbe essere modificato, e una nuova famiglie di schede video potrebbe stargli dietro di pari passo.
Si avrebbe così una vita media dell' hardware molo più lunga, con motori che sfruttano tutti gli effetti grafici possibili al 100 % e prestazioni sempre ottimali.
Probabilmente è un' utopia, ma la troppa diversità sta creando problemi a tutti: programmatori, distributori e soprattutto utenti.

TheRipper
15-01-2004, 14:53
Sarebbe bello vedere un unico motore 3D di sublime qualità, flessibilità e perfezione tecnica adoperato da tutte le soft. house per fare i propri giochi, un po' come sta accadendo ultimamente per l' Havoc.
In questo modo ci sarebbe un unico motore 3D di riferimento e le soft. house sarebbero più libere di occuparsi di trama, personaggi, level design dei loro giochi.
Avendo un unico motore da adoperare... anche le schede video potrebbero adattarsi di conseguenza.
In caso di effettive migliorie estetiche... questo motore universale potrebbe essere modificato, e una nuova famiglie di schede video potrebbe stargli dietro di pari passo.
Si avrebbe così una vita media dell' hardware molo più lunga, con motori che sfruttano tutti gli effetti grafici possibili al 100 % e prestazioni sempre ottimali.
Probabilmente è un' utopia, ma la troppa diversità sta creando problemi a tutti: programmatori, distributori e soprattutto utenti


Sei il Karl Marx dell'informatica!:eek:

Una sola parola: Utopia!:sofico:

R@nda
15-01-2004, 14:54
Originariamente inviato da TheRipper
Sei il Karl Marx dell'informatica!:eek:

Una sola parola: Utopia!:sofico:

Lol:D
Però è vero tecnologie spremute e giochi che finalmente escono
in tempo....
Chissà mai....

Xilema
15-01-2004, 14:59
Originariamente inviato da TheRipper
Sei il Karl Marx dell'informatica!:eek:

Una sola parola: Utopia!:sofico:

Lo so, ma pensaci bene: sarebbe la panacea di tutti i mali videoludici...
e sinceramente... non mi sembra nemmeno così utopistico...
Se si pensa che attualmente il mercato delle schede video è un duopolio ATI/nVidia, mentre quello dei motori grafici è un oligopolio Quake 3 engine/Unreal engine/Lith Tech con poche novità all' orizzonte (anche se quest' anno ne vedremo delle belle)...
Si mettessero d' accordo su qualcosa almeno...

Jarlaxle
15-01-2004, 15:01
Originariamente inviato da Xilema
Sarebbe bello vedere un unico motore 3D di sublime qualità, flessibilità e perfezione tecnica adoperato da tutte le soft. house per fare i propri giochi, un po' come sta accadendo ultimamente per l' Havoc.
In questo modo ci sarebbe un unico motore 3D di riferimento e le soft. house sarebbero più libere di occuparsi di trama, personaggi, level design dei loro giochi.
Avendo un unico motore da adoperare... anche le schede video potrebbero adattarsi di conseguenza.
In caso di effettive migliorie estetiche... questo motore universale potrebbe essere modificato, e una nuova famiglie di schede video potrebbe stargli dietro di pari passo.
Si avrebbe così una vita media dell' hardware molo più lunga, con motori che sfruttano tutti gli effetti grafici possibili al 100 % e prestazioni sempre ottimali.
Probabilmente è un' utopia, ma la troppa diversità sta creando problemi a tutti: programmatori, distributori e soprattutto utenti.

Speriamo di no! la filosofia del "motore unico" e' diametralmente opposta a quella intrinseca del pc stesso, la morte di tutte le software house, dire utopia e' un eufemismo.

Alberto Falchi
15-01-2004, 15:02
Originariamente inviato da Xilema
Lo so, ma pensaci bene: sarebbe la panacea di tutti i mali videoludici...
e sinceramente... non mi sembra nemmeno così utopistico...


MMmhh, la vedrei molto dura. Chi ha i soldi compra l'engine di Quake III, chi non se lo può permettere "ripiega" su Lithtech o Unreal Engine. Ognuno ha le sue peculiarità, e sono convinto che un solo engine che dovesse adattarsi a tutto rischierebbe di essere o maledettamente pesante o ben poco elastico. Non mi dispiace la presenza di vari competitori, mentre mi spaventerebbe questo scenario da 1984 videoludico, con un solo Grande Engine che detta legge :-P

Pape

JENA PLISSKEN
15-01-2004, 15:06
Io dico solo ke con la nuova gen di skede...l' hW sarà troppo avanti rispetto al SW... Far Cry """"PARE""" vada bene su una 5700...stiamo proprio a posto:rolleyes:

R@nda
15-01-2004, 15:14
Speriamo che sia l'inverso come dici tu!:D

seccio
15-01-2004, 16:21
Originariamente inviato da R@nda

Nv35 è un affinamento dove l'Nv30 peccava.


guarda....mi sa che nn ci siamo capiti , io nn ho mai detto che fanno cagare.
però....io le vedo come difettate in DX9 , te no. questi sono solo punti di vista.....

e cmq....di grazia, quali sono questi affinamenti da nv30 a nv35?? il bus a 256bit ?????:doh: se si.....è una parola grossa "affinamento".....piuttosto c'ha messo una pezza perchè la 5800 con i filtri tirava il calzino...ma alivello di features le due schede sono identiche che io sappia......quindi...come ci casca una ...casca anche l'altra sugli shaders.........

sslazio
15-01-2004, 17:10
Originariamente inviato da seccio
guarda....mi sa che nn ci siamo capiti , io nn ho mai detto che fanno cagare.
però....io le vedo come difettate in DX9 , te no. questi sono solo punti di vista.....

e cmq....di grazia, quali sono questi affinamenti da nv30 a nv35?? il bus a 256bit ?????:doh: se si.....è una parola grossa "affinamento".....piuttosto c'ha messo una pezza perchè la 5800 con i filtri tirava il calzino...ma alivello di features le due schede sono identiche che io sappia......quindi...come ci casca una ...casca anche l'altra sugli shaders.........

guarda che con la mia 5800 non ho alcun tipo di problema con nessun gioco anche dx9.
Per altro non credo che quando sarà inutilizzabile la mia sarà molto utilizzabile una 9700 antagonista.
Comunque non cambierei mai la mia scheda nemmeno con una 9800, la potenza è nulla senza il controllo.

TheRipper
15-01-2004, 17:16
guarda che con la mia 5800 non ho alcun tipo di problema con nessun gioco anche dx9.
facile, visto che di giochi dx9 ancora non ce ne sono...:rolleyes:

R@nda
15-01-2004, 17:34
Originariamente inviato da seccio
guarda....mi sa che nn ci siamo capiti , io nn ho mai detto che fanno cagare.
però....io le vedo come difettate in DX9 , te no. questi sono solo punti di vista.....

e cmq....di grazia, quali sono questi affinamenti da nv30 a nv35?? il bus a 256bit ?????:doh: se si.....è una parola grossa "affinamento".....piuttosto c'ha messo una pezza perchè la 5800 con i filtri tirava il calzino...ma alivello di features le due schede sono identiche che io sappia......quindi...come ci casca una ...casca anche l'altra sugli shaders.........

Non solo...hanno rimaneggiato un pochino Pixel/Vertex shader
e poco altro quel tanto che bastava amigliorarne un pò le prestazioni e a non aver bisogno di un sistema di raffreddamento così grosso e rumoroso.

Di test in giro ce ne sono una marea....guarda gli ultimi,fatti con delle 5900Xt o 5950Ultra....vedrai che non casca proprio niente.

Le due architetture hanno risultati alternati...alla fine si equivalgono.

Poi se criticare Nvidia vi fa bene,bhè continuate:)

Posterei qualche test....ma si finisce in schede video,basta guardare cmq...

Redvex
15-01-2004, 18:03
Nvidia se manterrà davvero il prezzo di 200-220 euro x la 5900xt probabilmente sbaraglierà la concorrenza nel settore medio.

Dato che xilema sogna dirò quale sarebbe il mio sogno: una scheda video in grado di far girare un gioco indipendentemente dalla potenza della cpu e della ram

seccio
15-01-2004, 18:05
Originariamente inviato da sslazio
guarda che con la mia 5800 non ho alcun tipo di problema con nessun gioco anche dx9.
Per altro non credo che quando sarà inutilizzabile la mia sarà molto utilizzabile una 9700 antagonista.
Comunque non cambierei mai la mia scheda nemmeno con una 9800, la potenza è nulla senza il controllo.

mi riferisco ai benchmark di HL2....dove una 5900 se la batteva contro una 9600pro.....

almeno tempo fa.....e cmq nn ho detto problemi....solo enormi cali di prestazioni.

questa nn è una critica, ma nVidia vende una full dx9.0 quando tale nn è .....e cmq meno male che c'è microsoft...che ci pensa lei a tappare le falle dei progetti nVidia......e tutto a favore dell'utente finale ovviamente. dopo ognuno è libero di fare le proprie scelte.

ho speso 250€ per questa 9800 , e guardacaso vengo da una vita di nVidia(a dirla tutta ce l'ho ancora) e la tua frase la potenza è nulla senza controllo mi fa solo ridere....perchè si vede che si sta ancora troppo dietro alle leggende dei driver ATi schifosi...cmq , se proprio la mettiamo sotto questo punto di vista, preferisco i miei driver "senza controllo" che i detonator-Forceware fin troppo "controllati...." pieni di cheat.....:rolleyes:

TheDarkAngel
15-01-2004, 18:09
Originariamente inviato da seccio
mi riferisco ai benchmark di HL2....dove una 5900 se la batteva contro una 9600pro.....

almeno tempo fa.....e cmq nn ho detto problemi....solo enormi cali di prestazioni.

questa nn è una critica, ma nVidia vende una full dx9.0 quando tale nn è .....e cmq meno male che c'è microsoft...che ci pensa lei a tappare le falle dei progetti nVidia......e tutto a favore dell'utente finale ovviamente. dopo ognuno è libero di fare le proprie scelte.

ho speso 250€ per questa 9800 , e guardacaso vengo da una vita di nVidia(a dirla tutta ce l'ho ancora) e la tua frase la potenza è nulla senza controllo mi fa solo ridere....perchè si vede che si sta ancora troppo dietro alle leggende dei driver ATi schifosi...cmq , se proprio la mettiamo sotto questo punto di vista, preferisco i miei driver "senza controllo" che i detonator-Forceware fin troppo "controllati...." pieni di cheat.....:rolleyes:

se fossi microsoft nn lo farei...
ki è causa del suo mal pianga se stesso... nn pianga microsoft -.-

seccio
15-01-2004, 18:30
Originariamente inviato da TheDarkAngel
se fossi microsoft nn lo farei...
ki è causa del suo mal pianga se stesso... nn pianga microsoft -.-
io invece la trovo una mossa molto molto intelligente.......nVidia è pur sempre un bel nome.....e molti utenti comprano anche a occhi chiusi.......è giusto anche andare incontro a chi ci rimette perchè disinformato....!

R@nda
15-01-2004, 18:47
Oddio ma qui non si tratta di una scheda non full DX9
Nvidia ha fatto le unità PS VS in grado di calcolare con precisione 16 o 32 o misto 16/32 bit laddove le dx9 ne richiedono almeno 24bit (se non erro)......quindi figurati se non è full dx9.
E' solo diversa da programmare.....

Chi ha ragione?Non lo so....
Di fatto un gioco calcolato interamente a 32bit non gira bene nemmeno su 9800xt e 5950ultra.
Il 24bit è un ibrido come lo è il calcolo misto 16/32.
le schede si equivalgono.....

So solo che non è vero che le prestazioni crollano nei giochi dx9...ripeto leggetevi le ultime recensioni,con gli ultimi giochi
e gli ultimi driver....

Le cose sono cambiate sapete?

Edit:

Cmq cpisco l'antifona....quello che dovevo dire l'ho detto:)

Alberto Falchi
15-01-2004, 19:14
Originariamente inviato da seccio
mi riferisco ai benchmark di HL2....dove una 5900 se la batteva contro una 9600pro.....


VOlendo essere onesti sarebbe da ammettere che i test sono stati condotti, senza dare spiegazioni, con driver della serie 4X, quando erano disponibili i 5x. CHissà, magari non sarebbe cambiato nulla, ma quando Valve e ATI si sono rifiutate di far testare con la nuova release qualche sospetto veniva, eh...


questa nn è una critica, ma nVidia vende una full dx9.0 quando tale nn è .....e cmq meno male che c'è microsoft...che ci pensa lei a tappare le falle dei progetti nVidia......e tutto a favore dell'utente finale ovviamente. dopo ognuno è libero di fare le proprie scelte.


è pienamente compatibile DX9. Il fatto che utilzzi i 32 bit di precisione al massimo può avere un'impatto sulle prestazioni in casol di mancato supporto al mixed mode, ma è pienamente compatibile con l'API di MS.


ho speso 250€ per questa 9800 , e guardacaso vengo da una vita di nVidia(a dirla tutta ce l'ho ancora) e la tua frase la potenza è nulla senza controllo mi fa solo ridere....perchè si vede che si sta ancora troppo dietro alle leggende dei driver ATi schifosi...cmq , se proprio la mettiamo sotto questo punto di vista, preferisco i miei driver "senza controllo" che i detonator-Forceware fin troppo "controllati...." pieni di cheat.....:rolleyes:

Anche i cheat appartengono al passato, però. O quantomeno non si sono scoperte ulteriori ottimizzazioni poco pulite.

Pape

seccio
15-01-2004, 19:21
Originariamente inviato da GMCPape


Anche i cheat appartengono al passato, però. O quantomeno non si sono scoperte ulteriori ottimizzazioni poco pulite.

Pape

infatti....appartengono al passato almeno quanto le leggende dei driver instabili di ATi. l'ho tirato apposta fuori l'esempio......visto che si continua a dire..."la potenza è nulla senza controllo".....per di più detto per sentito dire.....solo perchè è una voce che fa sempre tendenza.

per il resto, nulla di dire, sono d'accordo, io nn ho guardato ultimamente le recensioni , ma se con le nuove release nVidia ha recuperato quel che le mancava tanto meglio!

ray_hunter
15-01-2004, 20:25
Io penso che le schede siano entrambe valide.

Da un lato nvidia, pur avendo fatto delle scelte progettuali discutibili ha intrapreso delle forti collaborazioni con le softwarehouse, per cui anche avendo una scheda che con modalità DX9 standard ed in generale nell'utilizzo degli shader's non è eccezionale, alla fine troviamo che il parco giochi che maggiormente sfrutta le GPU va quanto le ATI.

Se dovessi scegliere una GPU adesso sarebbe un bel problema.
D'altro canto credo anch'io che l'attuale generazione di schede faccia fatica a gestire PS2.0 e stencil shadows nello stesso gioco, per cui ci credo poco che i giochi che faranno massiccio uso di tali effetti gireranno al max.

Per cambiare la mia 9700 (che gran scheda, da un anno nel case e mi permette di giocare al max a tutto), sto aspettando R420 e NV40; da queste schede mi aspetto 60fps costanti da Doom III e Half Life 2, anche con CPU sotto i 3Ghz.

Penso inoltre che gli engine di prox generazione saranno quelli più longevi mai usciti e si andrà verso un livellamento dei requisiti di sistema per i games. Almeno spero...

Buffus
15-01-2004, 20:45
[ot=on] hai fatto un bel macello di inglese nel titolo eh?? :D
Si dice: "Is the way meant to be played?" :p [ot=off]

ray_hunter
15-01-2004, 22:23
Originariamente inviato da Redvex
Nvidia se manterrà davvero il prezzo di 200-220 euro x la 5900xt probabilmente sbaraglierà la concorrenza nel settore medio.

Dato che xilema sogna dirò quale sarebbe il mio sogno: una scheda video in grado di far girare un gioco indipendentemente dalla potenza della cpu e della ram


ANCH'IO HO QUESTO SOGNO DA ANNI.

Sentii parlare per la prima volta di accellerazione video 5-6 masi prima che uscisse la 3dfx e si parlava delle matrox mystique che sarebbero uscite e che avrebbero tolto carico alla cpu nei giochi.
Corsi ad ordinarla non appena disponibile.
Da li a poco fu disponibile la RIVOLUZIONE.
Le voodoo permettevano di ottenere 30fps nei giochi che a malepena andavano a 15fps.
Vidi la luce ma da li ad un anno ci si accorse che ci volevano cpu sempre più veloci.
Microsoft ha già previsto una cosa del genere grazie a longhorn e alle tecnologie presenti nel futuro che permetteranno di standradizzare molto le configurazioni, rendendole più compatibili e longeve. Speriamo sia vero ma non è che ci creda molto...
Poi fu la volta del T&L, e tutti sappiamo come è andata a finire.
Ora con gli shader's programmabili sembrerebbe la volta buona e i nuovi engine promettono di usare la cpu solo per la fisica e l'AI.
A me sta anche bene cambiare una scheda video l'anno, ma gradirei vedere la mia CPU finchè i prigrammi e i S.O. girano bene su di essa. Ciò si tradurrebbe in cambiare CPU e MB una volta ogni 4-5 anni.

JENA PLISSKEN
16-01-2004, 17:18
A stò punto....il mio sogno :

una bella VGA in stile MB con possibilità di aggiornare solo GPU e ram....:sofico: :sofico: :sofico:

shambler1
16-01-2004, 19:52
Originariamente inviato da ray_hunter
ANCH'IO HO QUESTO SOGNO DA ANNI.

Sentii parlare per la prima volta di accellerazione video 5-6 masi prima che uscisse la 3dfx e si parlava delle matrox mystique che sarebbero uscite e che avrebbero tolto carico alla cpu nei giochi.
Corsi ad ordinarla non appena disponibile.
Da li a poco fu disponibile la RIVOLUZIONE.
Le voodoo permettevano di ottenere 30fps nei giochi che a malepena andavano a 15fps.
Vidi la luce ma da li ad un anno ci si accorse che ci volevano cpu sempre più veloci.
Microsoft ha già previsto una cosa del genere grazie a longhorn e alle tecnologie presenti nel futuro che permetteranno di standradizzare molto le configurazioni, rendendole più compatibili e longeve. Speriamo sia vero ma non è che ci creda molto...
Poi fu la volta del T&L, e tutti sappiamo come è andata a finire.
Ora con gli shader's programmabili sembrerebbe la volta buona e i nuovi engine promettono di usare la cpu solo per la fisica e l'AI.
A me sta anche bene cambiare una scheda video l'anno, ma gradirei vedere la mia CPU finchè i prigrammi e i S.O. girano bene su di essa. Ciò si tradurrebbe in cambiare CPU e MB una volta ogni 4-5 anni.

ottimo ,però la scheda video costa 2000 euro.

ray_hunter
16-01-2004, 21:35
Originariamente inviato da shambler1
ottimo ,però la scheda video costa 2000 euro.


:sbavvv: :sbavvv: :sbavvv: :sbavvv: :sbavvv:


ESAGERATO

shambler1
16-01-2004, 22:09
1000 euro l'anno le dovra
i cacciare, no? :D