PDA

View Full Version : Halo e 5900ultra LOL


TripleX
20-09-2003, 17:22
http://www.sudhian.com/showdocs.cfm?aid=431&pid=1535

dopo half life.....ecco la conferma che aspettavo.....
:eek: :cry: :cry:

xche' piango....ho una 9700:sofico: :sofico:

;)

ah....pero' che ha una FX ora dira'.....ma e' beta ....halo finale avra' miglioramenti netti:rolleyes:

ps
driver 51.75

OKUTOBOY
20-09-2003, 17:58
OT

scusa Triplex, tutti voi (del forum ;)) dite sempre:
-LOL
-IMHO

Ma se pò sapè che vogliono dì?

Leron
20-09-2003, 18:04
Originariamente inviato da OKUTOBOY
OT

scusa Triplex, tutti voi (del forum ;)) dite sempre:
-LOL
-IMHO

Ma se pò sapè che vogliono dì?


LOL: (Laughing Out Loud = Grassa Risata!). :D

IMHO: Abbreviazione utilizzata spesso sui forum e sui newsgroup.
Deriva dall'inglese in my humble opinion, e significa letteralmente "per mio modesto parere", "per quanto mi riguarda", etc.
Se si inserisce un messaggio in un newsgroup parlando del proprio parere, è bene specificare sempre che si tratta di una opinione personale. :O


;)

MaBru
20-09-2003, 18:04
Originariamente inviato da OKUTOBOY
OT

scusa Triplex, tutti voi (del forum ;)) dite sempre:
-LOL
-IMHO

Ma se pò sapè che vogliono dì?

LOL= Laughing Out Loud = grassa risata

IHMO= In My Humble Opinion = secondo il mio modesto parere

Ciao

Leron
20-09-2003, 18:05
Originariamente inviato da MaBru
LOL= Laughing Out Loud = grassa risata

IHMO= In My Humble Opinion = secondo il mio modesto parere

Ciao


lo ho detto prima io tiè :D :D :D :D :sofico:

OKUTOBOY
20-09-2003, 18:07
Beh, cmq tormando alla pagina che hai postato, io direi così:

-con 3dmark sono pari (le 2 schede video sono il soggetto eh :D )
-con aquamark sono pari
-con gunmetal, anche se credo non dovrebbe essere preso in considerazione, vince la 5900 (anche se di poco)
-con halo vince assai la 9800
-con half life vince assai la 9800


Totale: 2 a 1 x la 9800 tenendo però conto che ancora non è uscito nulla..........
E quelli di nvidia sono troppo potenti con i driver. Penso che anche questa volta riusciranno a cavarsi d' impiccio.

MaBru
20-09-2003, 18:08
Originariamente inviato da Leron
lo ho detto prima io tiè :D :D :D :D :sofico:

Non vale... Porca pupazza... fregato di qualche secondo...LOL ;)

Ciao

Leron
20-09-2003, 18:10
Originariamente inviato da MaBru
Non vale... Porca pupazza... fregato di qualche secondo...LOL ;)

Ciao


ma io c'ho il trucco: un txt per le domande + frequenti :D

copia-incolla :D

pardon per l'OT, torno in topic ;)

OKUTOBOY
20-09-2003, 18:11
oh, grazie a tutti e 2.

Mo mi faccio un file di testo e me lo tengo sul desktop così non me lo dimentico più:D :D

OKUTOBOY
20-09-2003, 18:12
Originariamente inviato da Leron
ma io c'ho il trucco: un txt per le domande + frequenti :D

copia-incolla :D

pardon per l'OT, torno in topic ;)

Leron sei un demonio.......:D

pandyno
20-09-2003, 18:18
Originariamente inviato da OKUTOBOY


E quelli di nvidia sono troppo potenti con i driver
Questa me la segno
:D

MaBru
20-09-2003, 18:18
Originariamente inviato da OKUTOBOY
E quelli di nvidia sono troppo potenti con i driver. Penso che anche questa volta riusciranno a cavarsi d' impiccio.

Prima di tirare (ohhh issa...) qualche conclusione bisognerebbe fare anche un confronto apples to apples per quanto riguarda la qualità dell'immagine. Fare 20fps in più con una IQ peggiore a occhio nudo ha poco senso, imho ;)

Ciao

TheDarkAngel
20-09-2003, 18:19
Originariamente inviato da OKUTOBOY
Beh, cmq tormando alla pagina che hai postato, io direi così:

-con 3dmark sono pari (le 2 schede video sono il soggetto eh :D )
-con aquamark sono pari
-con gunmetal, anche se credo non dovrebbe essere preso in considerazione, vince la 5900 (anche se di poco)
-con halo vince assai la 9800
-con half life vince assai la 9800


Totale: 2 a 1 x la 9800 tenendo però conto che ancora non è uscito nulla..........
E quelli di nvidia sono troppo potenti con i driver. Penso che anche questa volta riusciranno a cavarsi d' impiccio.


peccato ke i primi tre nn servono a nulla...
gun metal è fatto da nvidia praticamente...
3dmark a furia di cheat fa un punteggio decente...
aquamark è troppo poco dx9.0...

sono pari in dx8.0
e nelle dx9.0 la 9800pro da almeno il doppio...

checo
20-09-2003, 18:39
è proprio un troiaio sta sckeda!

OKUTOBOY
20-09-2003, 18:50
Originariamente inviato da MaBru
Prima di tirare (ohhh issa...) qualche conclusione bisognerebbe fare anche un confronto apples to apples per quanto riguarda la qualità dell'immagine. Fare 20fps in più con una IQ peggiore a occhio nudo ha poco senso, imho ;)

Ciao

Ma io credo che riusciranno anche a mettere a posto il discorso delle qualità visiva......cmq se non ci riescono pace......
Tanto la 9800 è imminente........:D (anzi no! mi faccio la Volari Duo V8 Ultra!! :D :D )

OKUTOBOY
20-09-2003, 18:50
Originariamente inviato da MaBru
Prima di tirare (ohhh issa...) qualche conclusione bisognerebbe fare anche un confronto apples to apples per quanto riguarda la qualità dell'immagine. Fare 20fps in più con una IQ peggiore a occhio nudo ha poco senso, imho ;)

Ciao

Ma io credo che riusciranno anche a mettere a posto il discorso delle qualità visiva (IMHO ovviamente ;))......cmq se non ci riescono pace......
Tanto la 9800 è imminente........:D (anzi no! mi faccio la Volari Duo V8 Ultra!! :D :D )

Leron
20-09-2003, 21:45
Originariamente inviato da checo
è proprio un troiaio sta sckeda!
LOL bello il numero dei tuoi messaggi:D

Hanamichi
21-09-2003, 00:19
lo si è sempre saputo che le geppo fx nn erano schede per giochi dx 9!:muro:

TheRipper
21-09-2003, 00:21
??? E allora che le hanno fatte a fare? per i giochi dx8 sono perfette le titanium!:confused:
Mamma mia..la serie FX andrebbe buttata tutta nel cassonetto...Che passaccio brutto che ha fatto nVidia.:(

Hanamichi
21-09-2003, 00:22
Originariamente inviato da TheRipper
??? E allora che le hanno fatte a fare? per i giochi dx8 sono perfette le titanium!:confused:
Mamma mia..la serie FX andrebbe buttata tutta nel cassonetto...Che passaccio brutto che ha fatto nVidia.:(

mi ricorda un pò 3dfx!:muro:

TheRipper
21-09-2003, 00:31
Speriamo che non faccia la stessa fine brutta...Perche' senno' chi ci sara' a fare concorrenza spietata ad ATI questa volta?? la XGI?;)

MaBru
21-09-2003, 00:42
Originariamente inviato da TheRipper
Speriamo che non faccia la stessa fine brutta...Perche' senno' chi ci sara' a fare concorrenza spietata ad ATI questa volta?? la XGI?;)

Sarà, ma da quando nVidia ha comprato 3dfx non ne ha più azzeccata una sul fronte schede grafiche...

L'ultimo prodotto veramente azzeccato è la GeForce 4 4200.

Ciao

TheRipper
21-09-2003, 00:43
Quella che porto ancora baldanzosamente nel case...:D

halduemilauno
21-09-2003, 09:04
Originariamente inviato da MaBru
Sarà, ma da quando nVidia ha comprato 3dfx non ne ha più azzeccata una sul fronte schede grafiche...

L'ultimo prodotto veramente azzeccato è la GeForce 4 4200.

Ciao


per la serie quando la disinformazione(per non dire altro)regna sovrana.
nVidia ha comprato la 3dfx a dicembre 2000 e le geffo 4ti sono del febbraio 2002.
:rolleyes:

OKUTOBOY
21-09-2003, 09:25
Originariamente inviato da MaBru
Sarà, ma da quando nVidia ha comprato 3dfx non ne ha più azzeccata una sul fronte schede grafiche...

L'ultimo prodotto veramente azzeccato è la GeForce 4 4200.

Ciao

Nvidia non ha azzeccato le sue prime schede video, quelle che montavano il chip 128ZX o qualcosa del genere. Ma da quando è uscita, la serie GeForce è stata tutta azzaccata, dalla 1 fino alla 4.
Ora la FX sembra non proprio azzeccatissima. Ma io direi, prima di dichiararla definitivamente una "chiavica", di aspettare l' uscita di sti benedetti game DX9. (non i demo benchmark, ma i giochi completi e finiti).

MaBru
21-09-2003, 10:01
Originariamente inviato da halduemilauno
per la serie quando la disinformazione(per non dire altro)regna sovrana.
nVidia ha comprato la 3dfx a dicembre 2000 e le geffo 4ti sono del febbraio 2002.
:rolleyes:

Touché, ma la GeForce3 (aprile 2001) e la GeForce3 Ti (ottobre 2001) non mi sono sembrati questi gran prodotti. Sono sostanzialmente dei chip DX7 a cui per motivi di hype sono stati aggiunti i vertex e pixel shader. Sfido chiunque a fare girare titoli che sfruttino gli shader (ma ce ne sono poi?;) ) a velocità giocabili.

Ciao

halduemilauno
21-09-2003, 10:22
Originariamente inviato da MaBru
Touché, ma la GeForce3 (aprile 2001) e la GeForce3 Ti (ottobre 2001) non mi sono sembrati questi gran prodotti. Sono sostanzialmente dei chip DX7 a cui per motivi di hype sono stati aggiunti i vertex e pixel shader. Sfido chiunque a fare girare titoli che sfruttino gli shader (ma ce ne sono poi?;) ) a velocità giocabili.

Ciao


ottimi prodotti. e comunque erano lo stato dell'arte dell'epoca.
;)

OKUTOBOY
21-09-2003, 10:24
Originariamente inviato da MaBru
Touché, ma la GeForce3 (aprile 2001) e la GeForce3 Ti (ottobre 2001) non mi sono sembrati questi gran prodotti. Sono sostanzialmente dei chip DX7 a cui per motivi di hype sono stati aggiunti i vertex e pixel shader. Sfido chiunque a fare girare titoli che sfruttino gli shader (ma ce ne sono poi?;) ) a velocità giocabili.

Ciao

IMHO (ormai ho imparato ad usarlo...) mi sa che ti sbagli.
La GF3 è stata la scheda video con la quale è iniziata la nuova era dei pixel e vertex shader. E' ovvio poi che essendo la prima ad integrare un hardware del genere, non poteva essere potentissima come prestazioni. E' però la capostipite.

MaBru
21-09-2003, 10:57
Originariamente inviato da OKUTOBOY
IMHO (ormai ho imparato ad usarlo...) mi sa che ti sbagli.
La GF3 è stata la scheda video con la quale è iniziata la nuova era dei pixel e vertex shader. E' ovvio poi che essendo la prima ad integrare un hardware del genere, non poteva essere potentissima come prestazioni. E' però la capostipite.

[OT mode on]

Hai notato che abbiamo il pc molto simile? ;)

[OT mode off]

Forse non mi sono spiegato bene. Volevo dire che l'introduzione degli shader è stata senza dubbio un'ottima cosa, ma da lì a dire che la Geffo3 possa farli girare a velocità decenti ce ne passa. Gli shader sono stati introdotti due anni fa, ma solo adesso vengono implementati a livello di motore di rendering. Come mai? Secondo me perché l'hardware comincia ad avere potenza sufficiente per eseguirli a velocità decenti.

Ciao

ShadowMan
21-09-2003, 11:06
Originariamente inviato da OKUTOBOY
E quelli di nvidia sono troppo potenti con i driver. Penso che anche questa volta riusciranno a cavarsi d' impiccio.

Come hanno fatto per 3dMark2003???:rolleyes:

Ciao.

JENA PLISSKEN
21-09-2003, 12:10
Originariamente inviato da OKUTOBOY
Beh, cmq tormando alla pagina che hai postato, io direi così:

-con 3dmark sono pari (le 2 schede video sono il soggetto eh :D )
-con aquamark sono pari
-con gunmetal, anche se credo non dovrebbe essere preso in considerazione, vince la 5900 (anche se di poco)
-con halo vince assai la 9800
-con half life vince assai la 9800


Totale: 2 a 1 x la 9800 tenendo però conto che ancora non è uscito nulla..........
E quelli di nvidia sono troppo potenti con i driver. Penso che anche questa volta riusciranno a cavarsi d' impiccio.


:rolleyes: peccato ke il 3d e l' aqua nn servano ad una cippa:sofico:

Dragon2002
21-09-2003, 12:20
:eek: :eek: :eek: Strana sta cosa che io sappia Halo è uscito prima per X-box su un hardware al 100% Nvidia,scritto e ottimizzato per le dx8,ora perchè vanno a suicidarsi e riscrivono il gioco sulla base della dx9,a dir la verita io dalle immagini del gioco nn ho visto nulla che possa far pensare alle dx8,forse è dx7,ma ha me ha fatto veramente una brutta impressione per dirvela tutta ut2003 che spreme le dx7 al massimo è tutta un'altra cosa rispetto ad Halo quindi mi chiedo in che modo verrano implementate queste dx9,forse solo in fatto di shader cioè per aumentarne la velocita di esecuzione ma nulla dal punto di visto visivo che renda gioia ai nostri occhi????????:confused: :confused: :confused:

OKUTOBOY
21-09-2003, 12:20
Originariamente inviato da MaBru
Forse non mi sono spiegato bene. Volevo dire che l'introduzione degli shader è stata senza dubbio un'ottima cosa, ma da lì a dire che la Geffo3 possa farli girare a velocità decenti ce ne passa. Gli shader sono stati introdotti due anni fa, ma solo adesso vengono implementati a livello di motore di rendering. Come mai? Secondo me perché l'hardware comincia ad avere potenza sufficiente per eseguirli a velocità decenti.

Ciao

Si va bene ti do ragione, ma bisogna dare atto ad nvidia di essere stata cmq la prima compagnia ad inserire px e vx shader nelle sue schede video. Tra l' altro, la 8500 di ati non è che fosse molto + veloce delle Ti500, anzi, xcui le GF3 x me erano ottime schede video.

OKUTOBOY
21-09-2003, 12:21
Originariamente inviato da JENA PLISSKEN
:rolleyes: peccato ke il 3d e l' aqua nn servano ad una cippa:sofico:

Non servono a niente ma per ora possono andare bene come metro di paragone.

Leron
21-09-2003, 12:29
Originariamente inviato da OKUTOBOY
Non servono a niente ma per ora possono andare bene come metro di paragone.
imho ormai non servono neanche a questo :D

Gohansupersaiyan4
21-09-2003, 13:00
Originariamente inviato da Dragon2002
:eek: :eek: :eek: Strana sta cosa che io sappia Halo è uscito prima per X-box su un hardware al 100% Nvidia,scritto e ottimizzato per le dx8,ora perchè vanno a suicidarsi e riscrivono il gioco sulla base della dx9,a dir la verita io dalle immagini del gioco nn ho visto nulla che possa far pensare alle dx8,forse è dx7,ma ha me ha fatto veramente una brutta impressione per dirvela tutta ut2003 che spreme le dx7 al massimo è tutta un'altra cosa rispetto ad Halo quindi mi chiedo in che modo verrano implementate queste dx9,forse solo in fatto di shader cioè per aumentarne la velocita di esecuzione ma nulla dal punto di visto visivo che renda gioia ai nostri occhi????????:confused: :confused: :confused:


Perchè la versione di halo per xbox non usa le dx8, ma delle dx specifiche per l'xbox, che hanne effetti presenti solo nelle dx9, così gli sviluppatori o usavano le dx9 o non usavano tutti gli effetti...


Ciao !

Gohansupersaiyan4
21-09-2003, 13:04
Forse non mi sono spiegato bene. Volevo dire che l'introduzione degli shader è stata senza dubbio un'ottima cosa, ma da lì a dire che la Geffo3 possa farli girare a velocità decenti ce ne passa. Gli shader sono stati introdotti due anni fa, ma solo adesso vengono implementati a livello di motore di rendering. Come mai? Secondo me perché l'hardware comincia ad avere potenza sufficiente per eseguirli a velocità decenti.

Ciao


Non penso proprio...perchè Motogp, gioco che usa pesanmetente vertex e pixel shaders gira benissimo su geforce3...ora, forse era il caso di dire che non c'erano ancora programmatori così bravi da fare bei giochi...perchè ricordo che il team ninja, quelli che hanno fatto doa3 su xbox all' inizio avevano un kit beta fatto da un pc con geffo3...e li ci facevano girare doa3 a 180 fps...ma quelli sono programmatori veri...che si programmano in assemby direttamente a livello hw...se facessero giochi per pc già ora saremmo ad un livello di grafica tipo ad hl2...


Ciao !

NightStalker
21-09-2003, 13:58
di gente che programma ancora in assembly, mi sa che non ce n'è molta... :D pensa che ai tempi di Screamer (1996) la Graffiti (ora Milestone) avevano detto esplicitamente di aver scritto la maggior parte del gioco in C/C++ e solo alcune funzioni qua e là in assembly per ottimizzarne la velocità (questo chiaramente solo per funzioni particolari e cruciali per le performance del gioco). E così è rimasto per tanto tempo... Oggi di gente che scrive in assembly mi sa che ce n'è decisamente poca... :fiufiu:

OKUTOBOY
21-09-2003, 15:42
Originariamente inviato da Leron
imho ormai non servono neanche a questo :D

Ma guarda, a me i benchmark ed i techdemo piacciono parecchio.
So che a parecchi del forum non piace tanto il 3dmark, ma a me invece farlo girare sul pc piace e x me un minimo di idea te la da.
Probabilmente mi piacciono anche xchè non è che io sia uno di quelli che abbia un pc ninja. quindi succede che quando aggiorno qualcosa, mi sfogo abbastanza caricando qualche bench che magari fino ad allora non potevo usare. Come ad esempio adesso per il 3dmark03, sul mio pc ora non gira, ma quando cambierò la vga mi sa che lo farò girare x 3 giorni e 3 notti di fila....... così, solo x togliermi la soddisfazione.....:D

andreamarra
21-09-2003, 19:54
Originariamente inviato da OKUTOBOY
Ma guarda, a me i benchmark ed i techdemo piacciono parecchio.
So che a parecchi del forum non piace tanto il 3dmark, ma a me invece farlo girare sul pc piace e x me un minimo di idea te la da.
Probabilmente mi piacciono anche xchè non è che io sia uno di quelli che abbia un pc ninja. quindi succede che quando aggiorno qualcosa, mi sfogo abbastanza caricando qualche bench che magari fino ad allora non potevo usare. Come ad esempio adesso per il 3dmark03, sul mio pc ora non gira, ma quando cambierò la vga mi sa che lo farò girare x 3 giorni e 3 notti di fila....... così, solo x togliermi la soddisfazione.....:D

Effettivamente i bench 3d, per quanto se ne possa parlare male (essendo tra l'altro scene pre-costruite) sono particolarmente utili per scoprire quale configurazione possa rendere al meglio. Ad esempio io ho visto che a certe di frequenze di bus le migliorie erano talmente piccole da farmi abbassare leggermente il bus e aumentare il molti. Servono anche per sapere se sto "in linea" con pc simili.

Detto questo: il 3d marks 2003 fa abbastanza schifo in parecchi suoi test (v.d. troll's lair et similia...), se ne salvano alcuni (un paio invece sono decisamente gradevoli (quello dei pixel shading 2.0, la statuetta dell'elefante e del rinoceronte).

Ma non ti fissare troppo su questi bench, corri il rischio (serio) di diventare un fanatico :D !!!

Ciao :)

checo
21-09-2003, 19:58
Originariamente inviato da MaBru
Touché, ma la GeForce3 (aprile 2001) e la GeForce3 Ti (ottobre 2001) non mi sono sembrati questi gran prodotti. Sono sostanzialmente dei chip DX7 a cui per motivi di hype sono stati aggiunti i vertex e pixel shader. Sfido chiunque a fare girare titoli che sfruttino gli shader (ma ce ne sono poi?;) ) a velocità giocabili.

Ciao

oddio la geforce 3 rende come circa una 8500le ivi tanto male non mi sembra

Leron
21-09-2003, 20:01
Originariamente inviato da OKUTOBOY
Ma guarda, a me i benchmark ed i techdemo piacciono parecchio.
So che a parecchi del forum non piace tanto il 3dmark, ma a me invece farlo girare sul pc piace e x me un minimo di idea te la da.
Probabilmente mi piacciono anche xchè non è che io sia uno di quelli che abbia un pc ninja. quindi succede che quando aggiorno qualcosa, mi sfogo abbastanza caricando qualche bench che magari fino ad allora non potevo usare. Come ad esempio adesso per il 3dmark03, sul mio pc ora non gira, ma quando cambierò la vga mi sa che lo farò girare x 3 giorni e 3 notti di fila....... così, solo x togliermi la soddisfazione.....:D
sono daccordo che 3dmark sia un buon parametro per testare le variazioni nei settaggi delle schede video, ma dopo le ultime "rivelazioni" di driver ottimizzati non sono più attendibili per fare un confronto fra diverse marche di schede video...

poi cmq anche a me piace mettere su un bench ogni tanto e godermi le animazioni, ma non lo uso per confrontare il pc con altre configurazioni, e come potrai leggere in molti forum, 3dmark (2003) non è più obiettivo :(

aquamark non è fullDX9 :(

3dmark2001 è DX8

poi la scheda non si compra per il 3dmark (o almeno spero che tu non lo abbia fatto per questo:D)

di conseguenza l'UNICO modo di fare un test ATTENDIBILE sulle prestazioni di una scheda o di una configurazione e poterlo confrontare, è un gioco. e questo non è un'opinione personale ma un dato di fatto :)

Leron
21-09-2003, 20:10
Originariamente inviato da andreamarra
Effettivamente i bench 3d, per quanto se ne possa parlare male (essendo tra l'altro scene pre-costruite) sono particolarmente utili per scoprire quale configurazione possa rendere al meglio. Ad esempio io ho visto che a certe di frequenze di bus le migliorie erano talmente piccole da farmi abbassare leggermente il bus e aumentare il molti. Servono anche per sapere se sto "in linea" con pc simili.

Detto questo: il 3d marks 2003 fa abbastanza schifo in parecchi suoi test (v.d. troll's lair et similia...), se ne salvano alcuni (un paio invece sono decisamente gradevoli (quello dei pixel shading 2.0, la statuetta dell'elefante e del rinoceronte).

Ma non ti fissare troppo su questi bench, corri il rischio (serio) di diventare un fanatico :D !!!

Ciao :)
quoto :)

Pakko
21-09-2003, 20:25
ho provato oggi halo... uhm... a parte la grafica secondo me MOLTO deludente, con una 9800 pro senza filtri nel macello piu totale tra alieni ecc skattikkia un po... cmq mi ha veramente deluso un sacco... nn è neanke 1/5 della grafica di doom 3 :cry:

Gohansupersaiyan4
21-09-2003, 22:39
Originariamente inviato da Pakko
ho provato oggi halo... uhm... a parte la grafica secondo me MOLTO deludente, con una 9800 pro senza filtri nel macello piu totale tra alieni ecc skattikkia un po... cmq mi ha veramente deluso un sacco... nn è neanke 1/5 della grafica di doom 3 :cry:

E' impossibile...la versione completa non è ancora fuori...e se hai provato la beta allora..vabbè...:rolleyes:


Ciao !

andreamarra
22-09-2003, 00:40
Originariamente inviato da Leron
quoto :)

:cool:


;)

OverClocK79®
22-09-2003, 00:42
c'è da dire che per ora la 5900ULTRA è sicuramente uno skedone
però "ARRANCA" sempre dei benk proiettati verso il futuro......

anke lo stesso 3dmark 2003 la skeda rende molto bene nei 1 2 3 game
ma nel 4 si nota un ANOMALO abbassamento......

idem HL2 predemo e questo Halo.......
insomma........
c'è da preoccuparsi nn poco per i possessori di tale skeda.......
sembra quasi che + si andrà avanti e + soffrirà del progresso nel campo Dx9 ed affini......

speria alla NVIDIA sistemino con qlk driver miracoloso......
anke se ormai è una frase fin troppo battuta

BYEZZZZZZZZZZZ

andreamarra
22-09-2003, 00:48
Originariamente inviato da OverClocK79®

speria alla NVIDIA sistemino con qlk driver miracoloso......
anke se ormai è una frase fin troppo battuta

BYEZZZZZZZZZZZ

Non penso che un driver possa risolvere questo problema... probabilmente il limite è proprio di tipo strutturale e i tecnici nvidia dovrebbero rivedere qualcosa...

Custode
22-09-2003, 09:49
Mah, ho difeso più volte in altri interventi la presunta bontà dell' NV35 perchè andava fatto, si accusava su fatti infondati o non certi, e per me questo, oltre a essere scorretto, non ha alcun valore. Oggi, tuttavia, ci si può basare su argomentazioni più concrete, anche perchè tutte le varie prove effettuate sulla rete con i nuovi titoloni DX9 (prendendo per buone tali prove, ma non vedo perchè dovrebbero essere tutti corrotti contro Nvidia:) ) stanno evidenziando un solo ed incontrovertibile fatto: l'NV35 è una scheda che nonostante tutte le sue sbandierate dichiarazioni di supporto a DX9+ o Pixel Shader 2.0++, tracolla proprio con i titoli che sfruttano tali caratteristiche. Nulla da dire: con i titoli DX8 è una bomba, forse la più veloce (possessori ATI, non mi uccidete!), ma quando entrano in gioco titoli DX9 con uso dei PS 2.0, oplà, capitombolo a faccia in giù. E non è una gran pubblicità per una scheda che costa sui 600 Euro e che si pensa sia pensata per dare il meglio di sè col passare del tempo...qui sembrarebbe il contrario, cioè che più passa il tempo, e più sbocceranno i suoi limiti. A questo punto mi chiedo quanto margine di miglioramento si possa ottenere, non sperando in miracolosi driver che secondo me sono un'utopia di ogni credulone, ma programmando seguendo specifici pattern o regole che possano esaltare la complessità dell' hardware Nvidia. Doom3 e là a dimostrarlo...ma è anche molto in là a venire...e allora mi chiedo come possa girare uno S.T.A.L.K.E.R., titolo dalla grafica e potenziale sbalorditivo, espressamente pensato per NV3x...scopriremo che anche in tal caso su hardware ATI girerà a quasi il doppio?

^TiGeRShArK^
22-09-2003, 10:48
si ma se i programmatori si devono mettere a perdere tempo solo x quegli sventurati ke hanno comprato un nv3x .... nn mi pare neanke tanto onesto, perchè avrebbero potuto impiegare quel tempo per migliorare il gioco nel suo complesso. Se solo quei coxxxoni di nvidia si fossero attenuti allo standard dx 9 anzikè uscirsene con sistemi proprietari!!! :muro:

DjLode
22-09-2003, 11:51
Bhè considerando che tale chip è montato su Fx 5200/5600/5800/5900 e future schede 5700 e non ricordo cos'altro... Direi che è una buona fetta del mercato. Per questo gli sviluppatori di giochi ci "perdono" su del tempo, se no col cacchio. Poi non capisco perchè da un pò di tempo i possessori di FX sono diventati sventurati...

CS25
22-09-2003, 12:03
Effettivamente al momento l'unica sventura dei possessori di FX e' di avere un 10-15% di fps in meno in splinter cell e un distacco superiore in Tomb Raider 5...
... al momento e' un po' pochino, considerato come girano gli altri giochi, per dire "sventurati" :)
Certo se fosse uscito HL2 staremmo tutti qui a discutere, ma visto che si parla di febbraio 04 comincio a credere fermamente che la generazione di schede attuale fara' girare solo titoli dx8.1 e titoli dx9 "di nome" e non "di fatto".
Appena usciranno NV40 ed R420 buona parte di quelli che hanno speso fior di euro per R350 ed NV35 cacceranno di nuovo fuori il portafoglione a fisarmonica... e il tutto ricomincera'. Certo che visto cosi' il mercato fa veramente paura :eek:

andreamarra
22-09-2003, 14:33
Originariamente inviato da CS25
Effettivamente al momento l'unica sventura dei possessori di FX e' di avere un 10-15% di fps in meno in splinter cell e un distacco superiore in Tomb Raider 5...
... al momento e' un po' pochino, considerato come girano gli altri giochi, per dire "sventurati" :)
Certo se fosse uscito HL2 staremmo tutti qui a discutere, ma visto che si parla di febbraio 04 comincio a credere fermamente che la generazione di schede attuale fara' girare solo titoli dx8.1 e titoli dx9 "di nome" e non "di fatto".
Appena usciranno NV40 ed R420 buona parte di quelli che hanno speso fior di euro per R350 ed NV35 cacceranno di nuovo fuori il portafoglione a fisarmonica... e il tutto ricomincera'. Certo che visto cosi' il mercato fa veramente paura :eek:

Il presunto problema dovrebbe in effetti apparire quando usciranno finalmente giochi full dx9...

Già Hl2 darà un saggio delle reali prestazioni di queste schede fx... e da quello che si evince da alcuni bench non sembra ci sia un futuro roseo per le fx...

Spero per i possessori di tale scheda che non sia così... un pò meno per quei fanatici che aprivano 3d solo per affermare la superiorità estrema della fx.

TripleX
22-09-2003, 14:59
;) ;)

andreamarra
22-09-2003, 15:35
Cmq rimango sempre di più sbalordito dalla 9700 Pro e non... una scheda video uscita da moooolto tempo e ancora non sfruttata e pronta a macinare fps in dx9 (sperèm). Normalmente una scheda video più di un certo tempo non rende più...

Pakko
22-09-2003, 18:29
Originariamente inviato da Gohansupersaiyan4
E' impossibile...la versione completa non è ancora fuori...e se hai provato la beta allora..vabbè...:rolleyes:


Ciao !

beta 1.5 :)

TheDarkAngel
22-09-2003, 18:49
Originariamente inviato da CS25
Effettivamente al momento l'unica sventura dei possessori di FX e' di avere un 10-15% di fps in meno in splinter cell e un distacco superiore in Tomb Raider 5...
... al momento e' un po' pochino, considerato come girano gli altri giochi, per dire "sventurati" :)
Certo se fosse uscito HL2 staremmo tutti qui a discutere, ma visto che si parla di febbraio 04 comincio a credere fermamente che la generazione di schede attuale fara' girare solo titoli dx8.1 e titoli dx9 "di nome" e non "di fatto".
Appena usciranno NV40 ed R420 buona parte di quelli che hanno speso fior di euro per R350 ed NV35 cacceranno di nuovo fuori il portafoglione a fisarmonica... e il tutto ricomincera'. Certo che visto cosi' il mercato fa veramente paura :eek:

come si sta nascosti dietro un dito ? :rolleyes:

DjLode
22-09-2003, 23:18
Dito? Guarda che ha completamentee ragione, se invece di giudicare una scheda con roba che per i comuni mortali non esiste la giudichi con il mercato attuale (come fa CS25 nel suo post, forse ti è sfuggito), quella è la realtà. Che ti piaccia o no, dito o no.

MaBru
22-09-2003, 23:25
Originariamente inviato da andreamarra
Il presunto problema dovrebbe in effetti apparire quando usciranno finalmente giochi full dx9...

Quando usciranno giochi full DX9 (e con full intendo un massiccio uso di vertex e pixel shaders 3.0) saremo qui a discutere con la bava alla bocca sulle specifiche del nv50.

Ciao

TheDarkAngel
22-09-2003, 23:42
Originariamente inviato da DjLode
Dito? Guarda che ha completamentee ragione, se invece di giudicare una scheda con roba che per i comuni mortali non esiste la giudichi con il mercato attuale (come fa CS25 nel suo post, forse ti è sfuggito), quella è la realtà. Che ti piaccia o no, dito o no.

qui si parla della elite delle sk video...
almeno la metà di quelli ke le prendono le predono x durare
se uno come cs25 ti va a dire ke perdi solo il 10% confronto alla radeon
poi il tipo tra 6 mesi si ritroverà a giocare con hl2 a 30fps o con una grafica di merda...
e ke potrà fare il povero utente?
nulla s'attacca al tram... (maledicendo cs25 ovviamente)

andreamarra
22-09-2003, 23:43
Originariamente inviato da MaBru
Quando usciranno giochi full DX9 (e con full intendo un massiccio uso di vertex e pixel shaders 3.0) saremo qui a discutere con la bava alla bocca sulle specifiche del nv50.

Ciao

Infatti ho detto "presumibilmente". Cmq c'è un 3d dove si discute proprio sulla incapacità del chip nvidia in questione a stare al passo del radeon. Prestazione addirittura dimezzate. E non ho niente contro nvidia, venendo proprio da sue schede con cui mi sono trovato sempre benissimo.

http://forum.hwupgrade.it/showthread.php?s=&threadid=516216&perpage=20&pagenumber=1

E poi si disquisisce su schede già all'opera come la fx 5900 ultra. Sicuramente fra qualche tempo l'nv50 farà gridare al miracolo, come magari fra due anni esce un nuova cirrus logic (non so come) che sotterra chiunque...

In ogni caso per la nvidia, stando ad alcuni bench (non truccati, almeno questi :rolleyes: ...) la fx ha probabilmente dei problemi strutturali con le full dx9. In futuro non sarà così (spero) ma nel futuro prossimo come spiegare (se i bench confermeranno questo dato sconfortante) agli acquirenti di una scheda da 600 EURO che con poco più di 300 avrebbero potuto prendere una scheda lanciata verso il full dx9??

Ciao :)

andreamarra
22-09-2003, 23:56
E poi scusa ma la nvidia invece di rincorrere la velocità assoluta farebbe meglio ad aumentare la qualità visiva... Purtroppo è innegabile che la qualità dell'AA del radeon sia notevolmente migliore rispetto alla Geppo. Convieni?

TheRipper
23-09-2003, 01:22
Seeeee...:D
Cosi' se aumentassero la qualita' dell'AA la radeon non e' che sarebbe il doppio piu' veloce, il TRIPLO! :p
Cmq apparte tutto...La nVidia e' stata costretta a ridurre drasticamente la qualita' video per mantenere alte le prestazioni velocistiche e purtroppo i tagli non ci sono stati solo nell'AA...
Guarda per esempio la precisione dei PS...La FX non supporta i 24 bit ma solo 16 o 32, percio' se si crea un'applicazione con ps a 24 la fx ha due possibilita'...o eseguirla a 16 e perdere qualita' o a 32 e perdere prestazioni...La terza possibilita' sarebbe che il programmattore debba fare una versione di PS creata apposta per sfruttare le FX...Ma anche cosi' le prestazioni non sono affatto eccellenti...
E questo e' solo un blando esempio del lavoro dozzinale compiuto dai progettatori di nVidia...:(

OverClocK79®
23-09-2003, 03:14
ormai siamo abituati a farci girare solo i BENK sulle skede

R3xx è arrivata talmente in anticipo che ormai è un anno che è uscita e l'unico gioko DX9 che ha visto è il 3dmark TEST 4 forse......
e pochi altri BENK ma gioki DX9 manco l'ombra.......

TDA nn so a cosa ti riferisci con quel dito ma il discorso fila.......
gli unici che forse se la prenderanno un po' li è chi ha preso NV3x/35 per tenerselo
gli altri cambieranno.........nn ci sono ne santi ne madonne......

ci rimangono i FILTRI almeno :)

BYEZZZZZZZZZZZZZZZZ

CS25
23-09-2003, 11:51
Originariamente inviato da TheRipper
Seeeee...:D
Cosi' se aumentassero la qualita' dell'AA la radeon non e' che sarebbe il doppio piu' veloce, il TRIPLO! :p
Cmq apparte tutto...La nVidia e' stata costretta a ridurre drasticamente la qualita' video per mantenere alte le prestazioni velocistiche e purtroppo i tagli non ci sono stati solo nell'AA...
Guarda per esempio la precisione dei PS...La FX non supporta i 24 bit ma solo 16 o 32, percio' se si crea un'applicazione con ps a 24 la fx ha due possibilita'...o eseguirla a 16 e perdere qualita' o a 32 e perdere prestazioni...La terza possibilita' sarebbe che il programmattore debba fare una versione di PS creata apposta per sfruttare le FX...Ma anche cosi' le prestazioni non sono affatto eccellenti...
E questo e' solo un blando esempio del lavoro dozzinale compiuto dai progettatori di nVidia...:(

Mi spiace ma dimostri di aver capito veramente poco della questione della precisione di calcolo, pertanto mi stupisce vederti parlare di "lavoro dozzinale" riferendoti ai progettisti di un hw che evidentemente non hai capito.
Facciamo un po' di chiarezza :)

Tu dici :

La FX non supporta i 24 bit ma solo 16 o 32, percio' se si crea un'applicazione con ps a 24 la fx ha due possibilita'...o eseguirla a 16 e perdere qualita' o a 32 e perdere prestazioni...


24, 16 e 32 bit? E mica e' profondita' di colore, bensi' precisione di calcolo!
Riassumiamo un attimo con la terminologia corretta :
FP32 = precisione di calcolo float 128 bit (32 + 32 + 32 + 32)
FP24 = precisione di calcolo float 96 bit (24 + 24 + 24 + 24)
FP16 = precisione di calcolo float 64 bit (16 + 16 + 16 + 16)
Il geforceFX supporta 16 e 32, Nvidia si era ispirata alle specifiche opengl ARB2 che per l'appunto prevedono solo quelle due modalita' (e non fp24 per capirci...). Ricordate quando Carmack diceva che l'R300 eseguiva l'arb2 assai piu' veloce delle FX? Uno dei motivi, al di la' dei problemi delle schede Nvidia, era che lo esegue in FP24 per cio' che riguarda i PS.
La famiglia di gpu Ati R3xx infatti supporta l'FP32, l'FP24 e l'FP16, ma c'e' da fare una distinzione per i PS : in tale ambito le schede radeon 95xx/96xx/97xx/98xx in presenza di richieste di calcolo in FP32 *accettano* il tutto ma elaborano ad FP24, in quanto non supportano in hw la modalita' 128 bit. Invece viceversa se un programma fa una richiesta di calcolo in FP24 ad una FX, essa lo elabora in FP32.
Fatte queste doverose precisazioni, torniamo un attimo al nocciolo del problema, ovvero le difficolta' delle FX.

Il problema non e' tanto il dover scalare la precisione di calcolo, bensi' una serie di scelte non azzeccatissime di Nvidia (anzi direi disastrose) a livello di registri : le stesse unita' di calcolo sono costrette a condividere le risorse per lavorare le texture *E* contemporaneamente svolgere i calcoli in FP. Cio' significa che nella maggior parte delle situazioni la FX si litiga internamente le risorse (o per meglio dire i registri) e arriva a dare l'output ideale solo in alcune circostanze. Cio' non accade nel Radeon.
Con l'NV35 Nvidia ha cercato di porre rimedio al problema, aggiungendo 2 unita' FP supplementari al posto di unita' integer classiche, alleggerendo il peso del lavoro al resto della gpu. Questo spiega perche' a fronte di una frequenza inferiore (450 contro 500) le 5900 ultra eseguono PS e VS 2.0 assai meglio delle 5800 ultra : li' i 128 o 256 bit di bus c'entrano poco o niente, quelle operazioni non sono certo bw limited se non a 1600x1200 con filtri! :)
Cosa si propone di fare Nvidia coi detonator 50? Un compilatore real time che non assorbe risorse dal sistema, ma che appoggiandosi sull'architettura delle FX "riordina" gli shaders (quindi NON li sostituisce) in modo da renderli piu' digeribili all'architettura. I vantaggi ovviamente si notano principalmente sulle 5900 ultra per via delle 2 FP aggiunte (ed infatti se date un occhio ad HL2, le schede FX 5600 non si avvantaggiano granche' coi dets 51.75).
Insomma l'hw Nvidia non e' completamente sbagliato, ma sembra non aver assolutamente centrato le specifiche "ideali" per le dx9.
E' strano veder fare errori del genere da uno sviluppatore di queste dimensioni... ma tant'e' che e' capitato.

Theripper scusa se sono intervenuto a correzione del tuo intervento, ma sinceramente non si capiva cosa volessi dire e mi sembrava stessi semplificando la questione in maniera un pelino eccessiva. Oltretutto ricorda che il discorso del calo qualitativo, basato sui 51.75, e' sempre un costrutto abbastanza fragile visto che fino a prova contraria si dovrebbero giudicare i driver finali, non certo i beta.

Leron
23-09-2003, 12:11
Originariamente inviato da TheDarkAngel
qui si parla della elite delle sk video...
almeno la metà di quelli ke le prendono le predono x durare
se uno come cs25 ti va a dire ke perdi solo il 10% confronto alla radeon
poi il tipo tra 6 mesi si ritroverà a giocare con hl2 a 30fps o con una grafica di merda...
e ke potrà fare il povero utente?
nulla s'attacca al tram... (maledicendo cs25 ovviamente)

un po' "barbaro" :D ma mi trovo daccordo sul concetto

CS25
23-09-2003, 13:46
Originariamente inviato da TheDarkAngel
come si sta nascosti dietro un dito ? :rolleyes:

Benissimo, visto che la mia recensione l'ho scritta i primi di agosto, e' finita online i primi di settembre ben prima della questione HL2.
Ma ricordiamolo, tu sei quello che va a dare dei "patetici" a quelli di nvitalia, quindi come potremmo non prendere per oro colato le tue illuminanti parole? :)
Buon divertimento :)

P.S. Se ti sforzi (e ci capisci qualcosa), ho illustrato in maniera piuttosto chiara i problemi delle NV30-NV35 proprio sopra, che poi sono tutte cose che trovi sparpagliate in vari articoli per il web. Alla faccia del nascondersi dietro un dito, c'e' chi le cose cerca pure di spiegarle, senza ridurre tutto al risibile "X fa cagare, Y va da dio".

CS25
23-09-2003, 13:52
Originariamente inviato da Leron
un po' "barbaro" :D ma mi trovo daccordo sul concetto

Solo che il furbo darkangel non si e' nemmeno accorto che alla fine la scheda consigliata e' stata proprio la 9800pro 128 mb (strano, la scheda che ho scelto per me stesso). Il caos riguardante HL2 e' uscito fuori successivamente alla recensione, quindi credo che il caro dark dovrebbe rivolgere le medesime critiche a Corsini ed a mezzo web.
Ma siccome il suo unico scopo non e' discutere delle cose ma ribadire il suo atteggiamento di presa per i fondelli nei confronti di tutto cio' che comincia con nV (che sia nvidia, nvitalia o nvitapapere), non mi aspettavo lo notasse.

Leron
23-09-2003, 14:17
non intendevo la tua "diffida" :D

ma il fatto che ...tra 6 mesi si ritroverà a giocare con hl2 a 30fps o con una grafica di merda...

e questo mi dispiace :(

Custode
23-09-2003, 14:32
Io vorrei un attimo riprendere il discorso precedentemente affrontato da CS25: giustamente, bisogna saper fare delle distinzioni e, solitamente, una scheda va giudicata con i titoli presenti attualmente sul mercato, non con inutili benchmark sintetici o con beta di titoli ancora non usciti. Quintri trovo giusto affermare che attualmente, col software disponibile ora, l'NV35 è un'ottima scheda. La questione si complica un pò andando a considerare il target di mercato della scheda: chi compra un NV35, si distingue in 2 categorie. Chi non ha problemi di soldi e, quindi, butterà via la sua 5900Ultra pagata 500-600 Euro appena uscirà l'NV40 -e per questa fascia le successive considerazioni non hanno alcun valore- e chi, come me magari, è da una vita che sta cercando di racimolare i fondi necessari per potersi portare a casa il non plus ultra delle schede video, quella che ti costa un rene, ma che ti garantisce il meglio del meglio senza compromessi. Il punto è questo: se io compro una scheda simile, non mi aspetto certo che possa durare anni, dai, tra 6-8 mesi sarà sorpassata, ma almeno potrò avere un'aspettativa di utilizzo maggiore di quello di una scheda pagata la metà o anche meno.
Ma se -e sottolineo se- i risultati che stanno trapelando ora per la rete dovessero trovare conferma, l'NV35 perde tutta la sua utilità e l'investimento iniziale va a farsi benedire: ottengo le stesse prestazioni con i titoli futuri comprando, che ne so, una 9600Pro che costa la metà. A titolo di confronto l'attuale 4200 che monto è stato un buon investimento: è costata poco e se almeno all'inizio le differenze prestazionali con i titoli che giravano un anno fa erano irrisorie, oggi ne sfrutto meglio la potenza potendomi permettere di giocare fluido con gli ultimi titoli DX8 del momento...mentre l'NV35 rischia di fallire proprio in questo importantissimo, almeno per me, valore aggiunto.
Che ne pensate?

TheDarkAngel
23-09-2003, 15:12
Originariamente inviato da CS25
Solo che il furbo darkangel non si e' nemmeno accorto che alla fine la scheda consigliata e' stata proprio la 9800pro 128 mb (strano, la scheda che ho scelto per me stesso). Il caos riguardante HL2 e' uscito fuori successivamente alla recensione, quindi credo che il caro dark dovrebbe rivolgere le medesime critiche a Corsini ed a mezzo web.
Ma siccome il suo unico scopo non e' discutere delle cose ma ribadire il suo atteggiamento di presa per i fondelli nei confronti di tutto cio' che comincia con nV (che sia nvidia, nvitalia o nvitapapere), non mi aspettavo lo notasse.

giusto x dire
la mia sk madre è una N(V)Force ghgh....
e nn mi sono mai lamentato...
solo ke x me se qualcosa rende poco nn bisogna girarci intorno...
lo so dice e basta... senza rosikamenti o palle varie...
e senza dire ma tanto ora va poco meno dell'altra -.-

CS25
23-09-2003, 16:52
Non ti sei mai lamentato del nforce? Beh e' un buon inizio, visto che almeno e' qualcosa che hai e che sai come va. A buon intenditor... :D :D

"Se qualcosa rende poco non bisogna girarci intorno", tu dici.

Vediamo il sottoscritto come c'e' girato intorno nelle conclusioni.


Problemi invece sembrano venire dal tipo di architettura. Confrontandola con quella della concorrente ATi R3x0, la GeForce FX 5900 si trova a disagio nei titoli più vecchi, per i quali fortunamente è sufficiente l'enorme potenza assoluta della scheda, e anche nei titoli più recenti, dove i primi esempi di uso dei Pixel Shaders 2.0 (Tomb Raider 6: Angel of Darkness) mette alla luce altre difficoltà di natura differente. Il più grande problema attuale del NV35 (cosi' come lo e' stato del NV30) è che richiede, per lavorare in condizioni ideali, degli shader programmati in un certo modo. Non si tratta di problemi di "complessità" delle istruzioni, o di "precisione di calcolo", bensi' di vere e proprie accortezze che un programmatore dovrebbe avere per far sì che la scheda possa dare il suo meglio. Ma è lecito aspettarsi tanto dagli sviluppatori? Non tutti hanno il tempo e le risorse di John Carmack, che sta lavorando da tempo al motore di Doom3 e si è potuto permettere di creare un apposito path per le schede nVidia in modo da poter sfruttare a fondo la loro possibilità di lavorare con precisioni di calcolo FP differenzìate.

In prospettiva futura è difficile quindi oggi inquadrare l'NV35, almeno fino a che nVidia non riuscirà a sviluppare nei suoi driver (Detonator 50, questa volta "probabilmente" in arrivo, con l'NV36-38) un compilatore in grado di rendere più "digeribili" quegli shader che al momento non lo sono per la sua attuale GPU. In ogni caso, in questo momento vi è in circolazione solo un titolo che utilizza i PS 2.0 e probabilmente ne vedremo col contagocce anche nei prossimi mesi (Half Life 2 e poco altro...); titoli di grande richiamo tutt'ora usano l'engine OpenGL di Quake3 Arena (Call for Duty, Jedy Accademy,etc)... A queste riflessioni ne va aggiunta una di natura più spicciola : la convenienza. La scelta di nVidia di dotare la versione di punta del NV35 con 256 Mb senza alternativa, si scontra con la presenza sul mercato della versione 128 mb del Radeon 9800 PRO, di costo decisamente inferiore. Al momento non c'e' _nessun_ bisogno di dotazioni di ram "apocalittiche", e poco rincuora vedere che in ogni caso i circa 550 Euro richiesti per la 5900 Ultra 256 Mb siano in linea col prezzo della 9800 PRO con 256 Mb. La 5900 non Ultra possiede la frequenza della GPU ridotta di 50 mhz, il che la porta a confrontarsi con la 9800 normale di ATi, quindi è fuori questione compararla alla PRO.



Sul piatto credo ci sia tutto :

- difficolta' coi titoli piu' vecchi
- difficolta' con ps 2.0
- 256 mb "obbligatori" che stroncano la convenienza

Di piu' cosa si doveva dire? Se fossero usciti all'epoca della recensione i numeri di HL2 e quelli dei dets 50.xx beta, avrei potuto aggiungere ulteriori annotazioni, ma mi sembra che qualsiasi persona sana di mente abbia capito bene quale scheda convenga, non certo per il "10-15% di prestazioni" in piu' o in meno, bensi' per l'elenco di cui sopra.
Sai, di fondo, c'e' una cosa che non tollero : che qualcuno cerchi di appoggiare critiche poco sensate sul piano personale, piuttosto che trovare un valido appoggio tecnico e dirmi "Guarda li' hai scritto una cazzata".
Vogliamo poi sommare l'intervento in questo thread in cui riassumo brevemente tutti i problemi che caratterizzano l'hw del nv3x? Devo forse quotarlo? No, credo semplicemente che tu debba smetterla di giudicare le cose secondo il tuo infantile preconcetto "Tutto quello che esce da nvitalia e' merda", perche' alla lunga rischi solo di trovare qualcuno che ha tempo e voglia di confutare punto per punto le tue tesi al riguardo.

prova
23-09-2003, 17:00
Coff coff ... ehm ... W la fig@!! :nonio:

halduemilauno
23-09-2003, 17:07
perfettamente daccordo con quanto detto da CS25.
grazie e un saluto.
:) :)

andreamarra
23-09-2003, 17:24
Originariamente inviato da TheRipper
Seeeee...:D
Cosi' se aumentassero la qualita' dell'AA la radeon non e' che sarebbe il doppio piu' veloce, il TRIPLO! :p
Cmq apparte tutto...La nVidia e' stata costretta a ridurre drasticamente la qualita' video per mantenere alte le prestazioni velocistiche e purtroppo i tagli non ci sono stati solo nell'AA...
Guarda per esempio la precisione dei PS...La FX non supporta i 24 bit ma solo 16 o 32, percio' se si crea un'applicazione con ps a 24 la fx ha due possibilita'...o eseguirla a 16 e perdere qualita' o a 32 e perdere prestazioni...La terza possibilita' sarebbe che il programmattore debba fare una versione di PS creata apposta per sfruttare le FX...Ma anche cosi' le prestazioni non sono affatto eccellenti...
E questo e' solo un blando esempio del lavoro dozzinale compiuto dai progettatori di nVidia...:(

Infatti io intendevo dire questo: nei prossimi progetti la nVIDIA farebbe molto meglio a concentrare gli sforzi sulla qualità, sulla resa grafica nei giochi. Ptrebbe anche farmi 300 frames al secondo (potrebbe... :rolleyes: ...) ma se la resa grafica non si avvicina ad altre marche che ne fanno un pò di meno (e anche un pò di più...) non ha senso!

Per raggiungere il fotorealismo occorre qualità e frame rate costanti... non me ne faccio niente di un gioco che in certe situazioni mi fa 2000 frame e in altre 21... (tra l'altro nei bench figura che la scheda nei vari game ha ottenuto 100, non sapendo l'acquirente che in un test va da dio e in altri fa cac@re...

Infatti da questo punto di vista ho sempre ammirato matrox, le cui schede basano tutto (ma proprio tutto........ :( ) sulla qualità e sulla fantastica resa dei colori... poi per le performance è un altro discorso, of course!

-=Krynn=-
23-09-2003, 19:33
Originariamente inviato da CS25
Non ti sei mai lamentato del nforce? Beh e' un buon inizio, visto che almeno e' qualcosa che hai e che sai come va. A buon intenditor... :D :D

[cut]

preconcetto "Tutto quello che esce da nvitalia e' merda", perche' alla lunga rischi solo di trovare qualcuno che ha tempo e voglia di confutare punto per punto le tue tesi al riguardo.


Hai ragione, ma permettimi di dire che anche Custode ha ragione.
Io penso di rientrare nella seconda categoria da lui descritta, quelli che si comprano il massimo e poi aspettano 2 anni per cambiarlo, confidando che permetterà di giocare bene anche con i titoli futuri.
Ma ora, ed è sotto gli oicchi di tutti, se i bench con Hl2, Halo e compagni abella dovessero essere realtà (non dubito del contrario), beh, tutto questo discorso va a farsi benedire, lasciando il povero utente medio come me incavolato e squattrinato, per un acquisto da 600 euro che non li merita nemmeno.

Imho, la penso così, e penso che la mia scheda video sarà una bella 9800 appena cala di prezzo^^

CS25
23-09-2003, 23:32
Beh, se prima ancora dei risultati di HL2 ho consigliato la 9800pro.... ;)

OKUTOBOY
25-09-2003, 19:26
Originariamente inviato da Leron
sono daccordo che 3dmark sia un buon parametro per testare le variazioni nei settaggi delle schede video, ma dopo le ultime "rivelazioni" di driver ottimizzati non sono più attendibili per fare un confronto fra diverse marche di schede video...

poi cmq anche a me piace mettere su un bench ogni tanto e godermi le animazioni, ma non lo uso per confrontare il pc con altre configurazioni, e come potrai leggere in molti forum, 3dmark (2003) non è più obiettivo :(

aquamark non è fullDX9 :(

3dmark2001 è DX8

poi la scheda non si compra per il 3dmark (o almeno spero che tu non lo abbia fatto per questo:D)

di conseguenza l'UNICO modo di fare un test ATTENDIBILE sulle prestazioni di una scheda o di una configurazione e poterlo confrontare, è un gioco. e questo non è un'opinione personale ma un dato di fatto :)

Se guardi la mia configurazione ti accorgi che le schede video non le compro di certo x far girare il 3dmark :rolleyes:
Io sto solo aspettando half life!!

Leron
25-09-2003, 19:32
... e allora non preokkupiamoci dei punteggi:D