View Full Version : nVidia GeForce 6800 - Thread Ufficiale
Originariamente inviato da andreamarra
Parrebbe di si.
Davvero?! :eek:
Hanno migliorato la qualità (a livello di r360) e aumentato i frame?! ... bueno! :)
Paoletta Corsini
03-05-2004, 19:54
Originariamente inviato da Raven
Davvero?! :eek:
Hanno migliorato la qualità (a livello di r360) e aumentato i frame?! ... bueno! :)
Dove l'avete letto?
Dark Schneider
03-05-2004, 19:55
Originariamente inviato da andreamarra
Qualitativamente mi sembra ottima, anche se è un semplice shot e non è facile capire tutti i dettagli... e poi ripeto: dopo le magagne aspetterei a essere trionfalistico. Anch'io sarei portato a dire che questi driver sono ottimi davvero, però come è giusto difendere i driver ancora acerbi non è corretto usare toni di soddisfazione per questi.
Ripeto, io aspetterei. Non vorrei che si riscontrassero delle magagne come in passato (anche se francamente non credo)
Infatti sono daccordo. Alla fine sono dei drivers beta ed i drivers beta son sempre dei drivers che a magari ad alcuni possono andare perfettamente, ad altri no,ecc. o magari risolvono un problema ma ne hanno un altro. Insomma son pur sempre drivers non ufficiali.
Originariamente inviato da Paoletta Corsini
Dove l'avete letto?
ah... non quotare me! :D
... è stato andremarra a dirlo!!!.... è stato luiiii!!! :ahahah:
Thunder82
03-05-2004, 20:00
Originariamente inviato da andreamarra
Magari con \r_displayinfo 1... ;)
Cosa c'entra, quel comando ti fa vedere i fps e i poligoni :D :)
andreamarra
03-05-2004, 20:05
Originariamente inviato da Raven
ah... non quotare me! :D
... è stato andremarra a dirlo!!!.... è stato luiiii!!! :ahahah:
:D
Il parrebbe è dovuto al fatto che stando a dei bench che sono stati postati si vedono dei grossi miglioramenti con i nuovi forceware in far Cry, qualche aumento negli altri giochi.
La qualità ancora è una incognita, ecco il perchè del "parrebbe" :D
In ogni caso ho detto più volte che considerando i trucchetti&affini di nvidia aspetterei almeno una settimana prima di sancire il tutto :D
insomma, il parrebbe era sulla fiducia :D
andreamarra
03-05-2004, 20:06
Originariamente inviato da Thunder82
Cosa c'entra, quel comando ti fa vedere i fps e i poligoni :D :)
Lo so, ma se lo metti e ti dice che in quella scena fai 3 fps, che fai :asd: ;)
andreamarra
03-05-2004, 20:07
Originariamente inviato da Paoletta Corsini
Dove l'avete letto?
zitta tu e rispondi ai PVT :asd:
andreamarra
03-05-2004, 20:14
Originariamente inviato da Raven
Giusto! ;)
Inoltre mi piacerebbe sapere se hanno risolto il problema della patch-nv30 su nv40... :D
http://www.vr-zone.com/?i=751&s=1
Da quello che ho capito (cioè poco, ho il cervello in pappa tra sreen, rumors, drivers, flames e birra :D ) potrebbero aver risolto il problema. Non so se qualitativamente hanno raggiunto la ati.
Alcuni screen dietro di nonick dimostrano che in fin dei conti l'attuale AA Nv40 è al livello di quello di 9800XT.
Anche se io credo che l'AA Nv40 rimanga sempre un pelo dietro.
C'è ovviamente che dice che il gamma correction risolverebbe tranquillamente il "gap", però ancora non lo applicano gli ingegneri nvidia... io una mezza idea sul perchè ce l'avrei :p
Spero tu abbia chiesto questo. Altrimenti puoi sospendermi per due giorni dal forum, fino a uscita del R420 :eek:
Paoletta Corsini
03-05-2004, 20:17
Originariamente inviato da andreamarra
zitta tu e rispondi ai PVT :asd:
Non ne ho ricevuti di nuovi, puoi rimandare? :)
ps: questo sabato cmq no :ciapet:
JENA PLISSKEN
04-05-2004, 00:05
Originariamente inviato da Paoletta Corsini
Non ne ho ricevuti di nuovi, puoi rimandare? :)
ps: questo sabato cmq no :ciapet:
Ehy voi 2 state insozzando questo thread:O :O
http://www.crazynet.it/Immagini%20web/foto/images/boyscout.jpg
andreamarra
04-05-2004, 00:40
:eek:
Nino Grasso
04-05-2004, 00:57
allora non rispondo da tantop tempo perché ho beccato tutte le piaghe dell'umanità in questo weekend nel pc (molti di voi diranno: e che ce frega, ma mi sento meglio con me stesso se scrivo sto post)... allora per la faccenda della ultra extreme... mi sembra abbastanza una cazzata... ritengo che i 450mhz si basano sulla versione rivista e corretta del sample presentato da nVidia per la preview iniziale... come si pensava anche da prima visti le basse temperature del chip anche sotto overclock... poi riguardo qualità filtri o shader... vorrei chiedere una cosa a thunder82 e al fortunato possessore della MITICA 9700pro Jena "cell'ho solo io la 9700" Plisken ... gioia, ce l'hai il video di Unreal 3 engine? credo di si, sennò scaricalo... ecco in quel video non credo ci sia nè anti alias nè anisotropic filtering... che gran cagata la resa finale grafica vero? ah a un certo punto si vede la coscia di uno dei modelli poligonali in cui una soft shadow (shader) colpisce un modello poligonale coperto da displacement mapping (shader... vertex shader 3.0 del resto) e bump mapping (shader), che cacca vero??? senza aa dà un risultato deprecabile.. cmq scusami, forse ho le mortadelle sugli occhi come hai spesso ribadito... allora io credo che gli shader FANNO la grafica di un gioco, i filtri stanno là ad impreziosirla... non credo che anche se a unreal 3 engine tolgano l'uso degli shader e mettano un aa in post processing stile studio puoi arrivare a un millesimo di quella resa grafica... e scusami... diamo un giusto peso a tutto!!! si va avanti nell'evoluzione grafica a forza di modifiche come pixel e vertex shader, gpu, innovazioni fisiche architetturali, poi l'aa o l'af fanno solo da contorno...
ah se ho scatenato un flame scusatemi, bannatemi pure ma non ditemi che ho detto solo cazzate
Originariamente inviato da Lestat.me
ah se ho scatenato un flame scusatemi, bannatemi pure ma non ditemi che ho detto solo cazzate
Fatto. Ho già segnalato il tuo messaggio ad un mod.
:sofico:
Te la sei fatta sotto?
:p
Nino Grasso
04-05-2004, 01:12
lollonissimo
un po' c'ho creduto:muro: :muro: :muro:
andreamarra
04-05-2004, 01:29
Originariamente inviato da Lestat.me
allora non rispondo da tantop tempo perché ho beccato tutte le piaghe dell'umanità in questo weekend nel pc (molti di voi diranno: e che ce frega, ma mi sento meglio con me stesso se scrivo sto post)... allora per la faccenda della ultra extreme... mi sembra abbastanza una cazzata... ritengo che i 450mhz si basano sulla versione rivista e corretta del sample presentato da nVidia per la preview iniziale... come si pensava anche da prima visti le basse temperature del chip anche sotto overclock... poi riguardo qualità filtri o shader... vorrei chiedere una cosa a thunder82 e al fortunato possessore della MITICA 9700pro Jena "cell'ho solo io la 9700" Plisken ... gioia, ce l'hai il video di Unreal 3 engine? credo di si, sennò scaricalo... ecco in quel video non credo ci sia nè anti alias nè anisotropic filtering... che gran cagata la resa finale grafica vero? ah a un certo punto si vede la coscia di uno dei modelli poligonali in cui una soft shadow (shader) colpisce un modello poligonale coperto da displacement mapping (shader... vertex shader 3.0 del resto) e bump mapping (shader), che cacca vero??? senza aa dà un risultato deprecabile.. cmq scusami, forse ho le mortadelle sugli occhi come hai spesso ribadito... allora io credo che gli shader FANNO la grafica di un gioco, i filtri stanno là ad impreziosirla... non credo che anche se a unreal 3 engine tolgano l'uso degli shader e mettano un aa in post processing stile studio puoi arrivare a un millesimo di quella resa grafica... e scusami... diamo un giusto peso a tutto!!! si va avanti nell'evoluzione grafica a forza di modifiche come pixel e vertex shader, gpu, innovazioni fisiche architetturali, poi l'aa o l'af fanno solo da contorno...
ah se ho scatenato un flame scusatemi, bannatemi pure ma non ditemi che ho detto solo cazzate
Guarda, è notevole l'uso degli shader nel video dell'engine di U3. Però io ritengo che non sia infondato il fatto che i filtri aumentano sostanzialmente la resa grafica. Ovvero: meglio che ci siano filtri e shader, purchè non diminuisca la "purezza" dei filtri.
Detto questo, io gioco a Far Cry senza AA e con gli shader a palla :D
Se riuscissi a vederlo fluido con gli shader e con i filtri sarebbe mooooolto meglio :)
JENA PLISSKEN
04-05-2004, 01:47
Originariamente inviato da andreamarra
Guarda, è notevole l'uso degli shader nel video dell'engine di U3. Però io ritengo che non sia indonfato il fatto che i filtri aumentano sostanzialmente la resa grafica. Ovvero: meglio che ci siano filtri e shader, purchè non diminuisca la "purezza" dei filtri.
Detto questo, io gioco a Far Cry senza AA e con gli shader a palla :D
Se riuscissi a vederlo fluido con gli shader e con i filtri sarebbe mooooolto meglio :)
Grazie x aver risposto al posto mio...x fortuna in giro c' è gente che fa funzionare il cervello...;)
Poi Lesta nn sei credibile con quell' AVATAR...lascia perdere:D ed inoltre nn ti prendere il permesso di rivolgerti a me con quei nomignoli...ai perso l' occasione x dimostrarti una persona educata
E poi ancora co' stò video dell' U3 engine...ma andassero a rubare...prova a fare un gioco così adesso ed andrebbe a 3 fps sulla macchina + potente...e senza filtri...NV40 e R420 comprese...mi sa che ti fai abbindolare troppo dal FUMO fatto dalle SWhouse:D
Legolas84
04-05-2004, 10:18
Jena mia uguro che la X800XT dia la via a NV40.....
Altrimenti ne avresti sparate davvero troppe...... :rolleyes:
JENA PLISSKEN
04-05-2004, 10:36
Originariamente inviato da Legolas84
Jena mia uguro che la X800XT dia la via a NV40.....
Altrimenti ne avresti sparate davvero troppe...... :rolleyes:
ma quali risposte hai letto ???:confused: :confused: ....mah...2° me avete dei problemi alla vista:what: :what: :uh: :uh: :what: :what:
Qualcosa di + costruttivo...noo?:)
Legolas84
04-05-2004, 10:40
Originariamente inviato da JENA PLISSKEN
Qualcosa di + costruttivo...noo?:)
Potrei girarti la domanda.....
JENA PLISSKEN
04-05-2004, 10:50
Originariamente inviato da Legolas84
Potrei girarti la domanda.....
già detto anche nel thread su R420;)
6800 .
Filtri a livello dell' R3xx
Aborro l' AF Nn Full Screen
Cheats da chiarire
Ottima la Punto Gt e soprattutto il pieno supporto DX9c
X800xt(tenendo presente che aspetto le 15.00)
Manca il doppio DVI
Manca scheda a prezzo inf con 16pipe
Nn c 'è il supporto pieno DX9c
MA FANTASTICO il TAA
Quello che nn ha detto nulla sei tu:) :) ...quindi evita di offendere e cerca di fare qualche commento costruttivo;)
Legolas84
04-05-2004, 10:57
ahahahah non ho detto nulla? vatti a leggere il commento sui Bench sul Thread R420....
PS
E cmq non è una gara a chi posta di più... ma a come posta....
Non ho gradito particolarmente quella dei paraocchi Jena.... proprio no....
KenMasters
04-05-2004, 10:58
Su sd c'e in arrivo la 6800 ultra alla modica cifra di 674 euro :eek:
Originariamente inviato da KenMasters
Su sd c'e in arrivo la 6800 ultra alla modica cifra di 674 euro :eek:
Regalata:D
Perfectdavid
04-05-2004, 11:35
la compro subito;)
andreamarra
04-05-2004, 12:11
Originariamente inviato da Legolas84
ahahahah non ho detto nulla? vatti a leggere il commento sui Bench sul Thread R420....
PS
E cmq non è una gara a chi posta di più... ma a come posta....
Non ho gradito particolarmente quella dei paraocchi Jena.... proprio no....
No no bello, tu sei nvidioso :asd: :ciapet: :fuck: !
Non sei obbiettivo :fuck:
;)
JENA PLISSKEN
04-05-2004, 12:48
Originariamente inviato da R@nda
Regalata:D
Beh...cmq meno dei mitici 1.400.000£ della Geforce II ULTRA:sofico: :sofico: ...un affarone quindi:sofico: :sofico:
OverClocK79®
04-05-2004, 12:57
Originariamente inviato da KenMasters
Su sd c'e in arrivo la 6800 ultra alla modica cifra di 674 euro :eek:
bhe c'era da aspettarselo
nn credevate mica a i 399 o 499€ spero???
da che mondo e mondo dalle G4 alle 5800
appena esce la nuova generazione nvidia nn si scende mai sotto i 600€
mi ricordo la mia 4600 Leadtek stava al pubblico a 630€
ma anke ATi vedrete nn deluderà in fatto di prezzo....
forse farà qlkosa meno di nVidia come tradizione ma nn credo molto
550/600€ ce lo cucchiamo tutti :p
BYEZZZZZZZZZZZZZZZ
550/600€ ce lo cucchiamo tutti
Si ce lo chucchiamo qui:ciapet:
Maledetti prezzi Italiani....
andreamarra
04-05-2004, 13:26
Originariamente inviato da JENA PLISSKEN
Beh...cmq meno dei mitici 1.400.000£ della Geforce II ULTRA:sofico: :sofico: ...un affarone quindi:sofico: :sofico:
Zitto Jena-Flames :asd:
Dopo le tre potrai parlare :asd:
;)
JENA PLISSKEN
04-05-2004, 13:55
Originariamente inviato da andreamarra
Zitto Jena-Flames :asd:
Dopo le tre potrai parlare :asd:
;)
:D ....- 1 ora:oink:
Nino Grasso
04-05-2004, 14:47
non mi pare di aver mancato di rispetto... sarò poco credibile con il mio avatar ma se noti sono solo i pezzi che ho nel pc, e ho già spiegato che la configurazione non dipende da me... se avessi la mitica metterei il logo ati, se avessi una voodoo 5 metterei quello 3dfx... chiaro il concetto?
ho solo detto cmq che secondo me gli shader sono + importanti dei filtri, ovvio che avendoceli tutt'e due è molto meglio ma il paragone con u3e te l'ho fatto apposta per farti capire a cosa ci si può arrivare grazie all'uso di shader... allora se la qualità è data solo dai filtri gioca a tomb raider 2 con taa248x e af a 1024x e poi vedi se è minimamente paragonabile anche a un far cry senza nè aa e af...
e scusa se ho le mortadelle agli occhi io eh?
JENA PLISSKEN
04-05-2004, 15:33
Originariamente inviato da Lestat.me
non mi pare di aver mancato di rispetto... sarò poco credibile con il mio avatar ma se noti sono solo i pezzi che ho nel pc, e ho già spiegato che la configurazione non dipende da me... se avessi la mitica metterei il logo ati, se avessi una voodoo 5 metterei quello 3dfx... chiaro il concetto?
ho solo detto cmq che secondo me gli shader sono + importanti dei filtri, ovvio che avendoceli tutt'e due è molto meglio ma il paragone con u3e te l'ho fatto apposta per farti capire a cosa ci si può arrivare grazie all'uso di shader... allora se la qualità è data solo dai filtri gioca a tomb raider 2 con taa248x e af a 1024x e poi vedi se è minimamente paragonabile anche a un far cry senza nè aa e af...
e scusa se ho le mortadelle agli occhi io eh?
Lascia perdere...il confrinto fra TR e Fc fa capire che Nn hai capito un granchè...a questo punto confronta FC con Quake 3:sofico: :sofico:
nonikname
04-05-2004, 16:21
GeForce 6800 GT reference card
http://techreport.com/reviews/2004q2/radeon-x800/card-x6800gt-2.jpg
andreamarra
04-05-2004, 16:35
Quindi il doppio molex verrà eliminato?
carina cmq, mi piace il layout :)
Legolas84
04-05-2004, 17:37
Quella sembra l'offerta migliore di Nvidia.... a default mi pare di aver capito macini circa 15Fps in meno di media della Ultra....
Inoltre con un pò di overclock si dovrebbe portare a Ultra (spero).
Originariamente inviato da Legolas84
Quella sembra l'offerta migliore di Nvidia.... a default mi pare di aver capito macini circa 15Fps in meno di media della Ultra....
Inoltre con un pò di overclock si dovrebbe portare a Ultra (spero).
imho...una bella 6800 gt della pov e siamo a posto.....:cool:
JENA PLISSKEN
04-05-2004, 19:08
La Punto GT...è l' offerta + interessante...purtroppo in Iatalia costerà cmq un mare;)
halduemilauno
04-05-2004, 19:09
Originariamente inviato da nonikname
GeForce 6800 GT reference card
http://techreport.com/reviews/2004q2/radeon-x800/card-x6800gt-2.jpg
basta sciolgo la riserva compro questa.
ciao Nik.
:) :)
JENA PLISSKEN
04-05-2004, 19:10
Originariamente inviato da halduemilauno
basta sciolgo la riserva compro questa.
ciao Nik.
:) :)
E che ti volevi comprare quella da 674€...con quella ci pagoil mutuo:D
Legolas84
04-05-2004, 20:11
Originariamente inviato da Francvs
imho...una bella 6800 gt della pov e siamo a posto.....:cool:
Quoto la POV in pieno ;)
andreamarra
04-05-2004, 20:18
Originariamente inviato da halduemilauno
basta sciolgo la riserva compro questa.
ciao Nik.
:) :)
Io aspetterei a comprare simili schede sia ati che nvidia... almeno aspettiamo che esca un gioco che la sfrutti almeno un pò ;)
E poi, non vorrei fare il guastafeste, ma aspetterei un pò di tempo perchè se è vero che il gioeillino nvidia è davvero sorprendente, potrebbe nascondere qualcosa di poco gradito. Ovviamente lo dico semplicemente perchè per un pò nvidia ha fatto cose poco simpatiche ;)
premetto anche che una r420 non ha senso attualmente, anzi ha più senso per lo sviluppo tecnico dei programmatori la NV40 ;)
Dark Schneider
04-05-2004, 22:04
Originariamente inviato da Legolas84
Quoto la POV in pieno ;)
Legolas la nostra prossima scheda si chiamerà POV GeForce 6800 GT!!:sofico:
Cavolo avete visto che bella scheda: NON castrata, solo frequenze minori, ottima in D3D, eccellente in Open GL e Linux a go go!! :sofico:
E' cavolo mi sembrava strano che nVidia s'era reincretinata a castrare le schede. La liscia vabbè...ma mi sembrava strano che non c'erano modelli identici alla Ultra ma con solo frequenze minori!!
Dark tu ci esci pazzo con sta scheda video nuova!:sofico:
Nino Grasso
04-05-2004, 22:27
jena mi sa che non hai capito tu qualcosina... rileggi il mio post...
Kresselack
04-05-2004, 22:43
Originariamente inviato da R@nda
Dark tu ci esci pazzo con sta scheda video nuova!:sofico:
Be, un po lo capisco, era indeciso se prendere, ai tempi, una 5900xt della POV e ha poi deciso di aspettare....adesso ci credo che non ci sta + dentro x questa....
ma quanto costa questa 6800gt?E quando si vedrà negli scaffali?
Originariamente inviato da halduemilauno
basta sciolgo la riserva compro questa.
ciao Nik.
:) :)
Ma non l'avevi già sciolta per la X800 nell'altro topic? :wtf:
Cmq accidenti ad Nvidia, si sono accorti solo dopo la presentazione che la storia del doppio molex creava forti perplessita e sono corsi ai ripari con la GT...ma possibile che solo 50mhz in meno abbia permesso di togliere un molex e mettere un dissy meno pesante? O viceversa, con soli 50mhz in più hanno dovuto mettere un doppio molex e dissy che occupa lo slot pci a fianco....:mc:
Non so, ho la sensazione che Nvidia si sia ripresa bene ma che ancora qualche "ruggine" dagli errori di Nv30 se li porti dietro...come se soffrissero di insicurezza e paura, basti vedere anche la Extreme, buttata fuori in fretta e furia per paura, appunto, di non reggere il confronto con Ati. :rolleyes:
Avete fatto un'ottima scheda con una architettura avanzata, se siete convinti del vostro progetto andate avanti per la vostra strada, nn c'è bisogno di rincorrere ogni secondo la concorrenza, perchè appunto, danno la sensazione tangibile, prima ancora di vedere i bench, che la stessa Nvidia si senta battuta.....e secondo me non è così.
;)
Dark Schneider
05-05-2004, 01:51
Originariamente inviato da Kresselack
Be, un po lo capisco, era indeciso se prendere, ai tempi, una 5900xt della POV e ha poi deciso di aspettare....adesso ci credo che non ci sta + dentro x questa....
Esattamente ho aspettato tanto e finalmente adesso so esattamente quale sarà la scheda che entrerà nel mio case!! Non vedo l'ora!! :)
JENA PLISSKEN
05-05-2004, 01:55
Originariamente inviato da andreamarra
Io aspetterei a comprare simili schede sia ati che nvidia... almeno aspettiamo che esca un gioco che la sfrutti almeno un pò ;)
E poi, non vorrei fare il guastafeste, ma aspetterei un pò di tempo perchè se è vero che il gioeillino nvidia è davvero sorprendente, potrebbe nascondere qualcosa di poco gradito. Ovviamente lo dico semplicemente perchè per un pò nvidia ha fatto cose poco simpatiche ;)
premetto anche che una r420 non ha senso attualmente, anzi ha più senso per lo sviluppo tecnico dei programmatori la NV40 ;)
Ma hai visto i test su piattaforma 64:sofico: :sofico: ...sono allucinanti...a questo punto è meglio la 800pro...la Xt diventa quasi un bel soprammobile...bello e di lusso...ma inutile;)
Dark Schneider
05-05-2004, 02:08
Originariamente inviato da Koji
Ma non l'avevi già sciolta per la X800 nell'altro topic? :wtf:
Cmq accidenti ad Nvidia, si sono accorti solo dopo la presentazione che la storia del doppio molex creava forti perplessita e sono corsi ai ripari con la GT...ma possibile che solo 50mhz in meno abbia permesso di togliere un molex e mettere un dissy meno pesante? O viceversa, con soli 50mhz in più hanno dovuto mettere un doppio molex e dissy che occupa lo slot pci a fianco....:mc:
Non so, ho la sensazione che Nvidia si sia ripresa bene ma che ancora qualche "ruggine" dagli errori di Nv30 se li porti dietro...come se soffrissero di insicurezza e paura, basti vedere anche la Extreme, buttata fuori in fretta e furia per paura, appunto, di non reggere il confronto con Ati. :rolleyes:
Avete fatto un'ottima scheda con una architettura avanzata, se siete convinti del vostro progetto andate avanti per la vostra strada, nn c'è bisogno di rincorrere ogni secondo la concorrenza, perchè appunto, danno la sensazione tangibile, prima ancora di vedere i bench, che la stessa Nvidia si senta battuta.....e secondo me non è così.
;)
Koji non è insicurezza e paura, semplicemente nVidia ha più da lavorare come sviluppo dei drivers in realtà, come già detto da Corsini. Questo perchè l'architettura della sua GPU è nuovissima. Ati invece ha proposto il medesimo prodotto di prima che era già affermato e maturo e l'ha raddoppiato. R420 è praticamente R300x2 e quindi un architettura già in stadio avanzato. nVidia invece ha introdotto adesso...e adesso deve lavorare su questa architettura.
Nel prossimo futuro sarà Ati che dovrà stare molto molto attenta: R500 sarà una GPU nuova...e nVidia avrà accumulato tanta esperienza grazie all'architettura avanzatissima di NV40. Raddoppiare significa andare sul sicuro, mentre quando immetti una nuova architettura ti esponi a dei rischi. Direi proprio che la bontà di NV40 fa sperare realmente ad un futuro roseo per nVidia. :) Questa volta è andata davvero bene nonostante i rischi che c'erano. ;)
Cmq queste due nuove GPU sono ottime. NV40 anche è davvero una gran GPU. In D3D stanno lì tutte due...magari Ati attualmente nelle risoluzioni più alte quando si va a combinare i filtri va meglio(l'anisotropico Ati ce l'ha più veloce), ma sennò stanno lì. Ma ripeto: nVidia ha da lavorare vista che l'architettura è nuova e deve prendere confidenza.
In Open GL invece come da tradizione si comporta meglio nVidia. Doom 3 se si degna ad uscire...si esalterà ancora di più con NV40.
Insomma ragà noi che siam interessati si NV40 direi che non ci possiam proprio lamentare. Il quadro della situazione è tutto tranne che quello che era successo a NV30. ;)
andreamarra
05-05-2004, 02:16
Originariamente inviato da JENA PLISSKEN
Ma hai visto i test su piattaforma 64:sofico: :sofico: ...sono allucinanti...a questo punto è meglio la 800pro...la Xt diventa quasi un bel soprammobile...bello e di lusso...ma inutile;)
Sono tornato poco fa e li ho visti...
sto raccogliendo in questo momento le palline da terra. Non voglio crederci.
Io spero vivamente che non siano suffragati perchè sono semplicemente imbarazzanti. In ogni caso io paventavo l'ipotesi (non difficile da pensare, però) che le ati subivano dei ritardi in sistemi CPU limited.
Eeeeeeeeeeeeeeehhhhhhhhhhhhhhhhhhhhh
odio dire "vel'avevo detto"
cmq non saprei dove andare a ripescare un post di qualche mese fa...dove tutti dicevano
"ah...cambio di nome equivale a progetto nuovo"
ed io che invece dicevo..."ragazzi...R420 sarà un R300 molto migliorato..."
Ho avuto ragione...e ne sono pure contento!
Per quale motivo uno dovrebbe rifare da capo un progetto che ha ancora così tanto da dare?
Dark Schneider
05-05-2004, 02:20
Ragazzi a tutti quelli che sono interessati alla GeForce 6800 GT consiglio di andare nel primo post e andare a leggere la recensione di Fire Squad quella "(GeForce 6800 GT e GeForce 6800 Ultra Extreme)". :)
Figo hanno provato ad OC la GT, ora come ora pare salire bene...e son sample. :)
Da 350/1000 a 425/1200 e con incrementi dei giochi dagli 8 ai 15-20 fps!! ;)
Dark Schneider
05-05-2004, 03:12
Originariamente inviato da andreamarra
Sono tornato poco fa e li ho visti...
sto raccogliendo in questo momento le palline da terra. Non voglio crederci.
Io spero vivamente che non siano suffragati perchè sono semplicemente imbarazzanti. In ogni caso io paventavo l'ipotesi (non difficile da pensare, però) che le ati subivano dei ritardi in sistemi CPU limited.
Peccato che in quella recensione non hanno usato i più performanti 61.11. Ad esempio già se leggi la review delle 6800 Ultra Extreme e GT (che poi è uguale a quella della Radeon solo che c'è il test di OC delle GeForce) che ho consigliato nel post sopra....medesimo Pc utilizzato...e con i 61.11 le 6800 già vanno un bel po' meglio che con i 60.70!! ;)
Dark Schneider
05-05-2004, 03:17
Unica cosa, domanda al Vifani: che aveva la GeForce 6800 GT? :(
Ho letto che alcuni test non è riuscita ad eseguirli per l'instabilità del bios e drivers. Era un pre-sample? O magari è un po' difettosa?
Da tutti i test che ho visto mi pare che la migliore sia la GT, ha 16 pipes rispetto alle 12 della X800 PRO.
poi non mi va giù che la ati non sia conforme allo shader model 3.0:mad:
Chi compra una scheda da 450€ se la tiene almeno 18 mesi, e sul sito nvidia già sono elencati una ventina di titoli che utilizzerano shader 3.0..
Legolas84
05-05-2004, 09:44
Originariamente inviato da Dark Schneider
Legolas la nostra prossima scheda si chiamerà POV GeForce 6800 GT!!:sofico:
Se prendo una scheda di questa generazione è sicuro.... ;)
(soprattutto perchè NWN è OpenGL.... il solito motivo in pratica:D )
halduemilauno
05-05-2004, 10:12
Originariamente inviato da Dark Schneider
Legolas la nostra prossima scheda si chiamerà POV GeForce 6800 GT!!
Originariamente inviato da Legolas84
Se prendo una scheda di questa generazione è sicuro.... ;)
(soprattutto perchè NWN è OpenGL.... il solito motivo in pratica:D )
mi associo. una bella POV 6800 GT e passa la paura.
;)
Ciao a tutti!Ho seguito sin dall'inizio entrambi i thread(R420 e questo) anche se ho partecipato poco alle discussioni..
Alla fine mi sono fatto la mia idea..
Considerando i pro e i contro di entrambi le schede, devo dire che la 6800gt è quella che mi piace di +!!(il fatto che non è castrata gli ha fatto guadagnare parecchi punti!!! :sofico: ) Speriamo solo che il prezzo non sia troppo gonfiato..
:rolleyes:
P.S.Mi confermate che la dovremmo vedere sugli scaffali x metà giugno???Avevo letto da qualche parte che la distribuzione di questa scheda era prevista x dopo l'estate..:cry:
redbaron
05-05-2004, 10:54
Originariamente inviato da halduemilauno
Originariamente inviato da Dark Schneider
Legolas la nostra prossima scheda si chiamerà POV GeForce 6800 GT!!
mi associo. una bella POV 6800 GT e passa la paura.
;)
:cincin:
andreamarra
05-05-2004, 13:00
Originariamente inviato da Dark Schneider
Peccato che in quella recensione non hanno usato i più performanti 61.11. Ad esempio già se leggi la review delle 6800 Ultra Extreme e GT (che poi è uguale a quella della Radeon solo che c'è il test di OC delle GeForce) che ho consigliato nel post sopra....medesimo Pc utilizzato...e con i 61.11 le 6800 già vanno un bel po' meglio che con i 60.70!! ;)
nel test in questione però mi sembra di aver capito che siano utilizzati dei driver beta catalyst. Insomma, qualunque siano le reali prestazioni sono dell'idea che la R420 saturi maggiormente la cpu a differenza della NV40. Quindi chi non ha un computer extreme ninja può tranquillamente scegliere un modello NV40 a seconda dei gusti e dei prezzi ;)
Rimane il fatto che per chi vuole usare AA e filtri in maniera massiccia NV40 non mi sembra la migliore scelta...e francamente non capisco come nel 2004 uno debba giocare senza filtri...
La X800Pro avrà anche soltanto 12 pippe...ma scalda molto poco...quindi si oc bene (secondo me) e poi con il TAA stai a 4X xon la caduta di prestazioni di un 2X...cioè nulla...
Insomma...secondo me...se uno vuol fare i timedemo a 1024 senza filtri...fa bene a comprarsi l'NV40...altrimenti...non mi sembra una grande scelta...
Ah..e per quanto riguarda l'OC della 6800GT pensate anche al fatto che potrebbe trattarsi di una ULtra downclocckata...e che quelle definitive potrebbero essere effettivamente scarti che non arrivano alle frequenze della ultra...
Per lo meno le prime sicuramente saranno così...come accadde con le 4200...le prime nn salivano tanto...le ultime si
Rinnovo i miei complimenti per la Xt, davvero una scheda molto veloce.
un po' deludenti, imho, i risultati della Xpro.
halduemilauno
05-05-2004, 13:31
Originariamente inviato da Dark Schneider
Ragazzi a tutti quelli che sono interessati alla GeForce 6800 GT consiglio di andare nel primo post e andare a leggere la recensione di Fire Squad quella "(GeForce 6800 GT e GeForce 6800 Ultra Extreme)". :)
Figo hanno provato ad OC la GT, ora come ora pare salire bene...e son sample. :)
Da 350/1000 a 425/1200 e con incrementi dei giochi dagli 8 ai 15-20 fps!! ;)
letta. meravigliosa.
;)
Ripeto...potrebbe essere una Ultra Downcloccata...non è detto che tutte salgano così...
halduemilauno
05-05-2004, 13:33
Originariamente inviato da ballero
Rinnovo i miei complimenti per la Xt, davvero una scheda molto veloce.
un po' deludenti, imho, i risultati della Xpro.
mi associo. anche se da un 120 in + mi sarei aspettato...cmq i complimenti ci sono tutti.
ciao Clark.
;)
halduemilauno
05-05-2004, 13:35
Originariamente inviato da GURU
Ripeto...potrebbe essere una Ultra Downcloccata...non è detto che tutte salgano così...
le foto che accompagnano le rece fanno vedere una scheda diversa. con un solo molex.
ciao.
;)
andreamarra
05-05-2004, 13:53
Originariamente inviato da ballero
Rinnovo i miei complimenti per la Xt, davvero una scheda molto veloce.
un po' deludenti, imho, i risultati della Xpro.
Effettivamente la x800pro mi ha deluso, però la situazione sembrerebbe ribaltarsi incredibilmente qualora venga associata cin una CPU estrema (che ovviamente non tutti hanno). In pratica le scehde R420 sono attualmente troppo limitate dal processore, come spiega anche corsini nell'articolo.
La stessa cosa la X800XT, che è potentissima... ma quasi sicuramente associato con una cpu di ultima generazione prende proprio il volo. Aspetto test effettuati con dirver non beta e con processori nuovi. Magari anche con giochi e bench che sfruttano al massimo gli effetti di shader per valutare un eventuale acquisto.
Gatz1980
05-05-2004, 14:08
Si sa qualcosa sui chip di codifica TV?
Suppongo che NVidia userà un'evoluzione del chipset integrato NV17 (magari migliore... :( )
Originariamente inviato da GURU
Ripeto...potrebbe essere una Ultra Downcloccata...non è detto che tutte salgano così...
Non sono ultra downcloccate, hanno un dissi che occupa un solo slot!
per il resto si sono identiche alla ultra per fortuna hanno 16 pipes invece delle 12 di x800pro e in open gl rullano (doom III...)
;)
andreamarra
05-05-2004, 14:41
Originariamente inviato da dwfgerw
Non sono ultra downcloccate, hanno un dissi che occupa un solo slot!
per il resto si sono identiche alla ultra per fortuna hanno 16 pipes invece delle 12 di x800pro e in open gl rullano (doom III...)
;)
Ti dirò, credevo che il divario in openGL fosse più clamoroso. In ogni caso prendere una scehda solo per l'OpenGL mi senìmbra una forzatura. Anche perchè con un gioco come DooMIII magari la nv40 farà 100 e la X800Xt farà 90 (anche di meno, è una ipotesi), poi c'è da vedere se i driver (ma non ci credo/spero) ati prevederanno un miglioramento nelle OpenGL (che non sono il futuro assolutamente, magari i gichi derivati dal DooMIII si, ma poi credo verrà soppiantato in favore delle DX).
E se questa differenza dovesse essere marcata nelle OpenGL con filtri nulli e risoluzioni basse, potrebbe essere (dico potrebbe) limato il gap alzando filtri e risoluzione (e chi si prende una scheda del genere lo fa per giocare con filtri e risoluzioni assurde).
La ati ha sbagliato a non immettere sul mercato una X800 normale o una x800PRO più "pompata" per prendere la fascia intermedia che dovrebbe andare ad nvidia se i prezzi non saranno esagerati. La X800PRO mi ha infatti un pò deluso, però sono rimasto impressionato da dei bench (da verificare) fatto su processori di ultima generazione: praticament la xt800pro fa uscire tutta la sua potenza e va a volte come una 6800ultra. Ovviamente rimarco il "da verificare".
Una considerazione sulla NV40 che è un gioiello di tecnica e che servirà ai programmatori per mettere le manine sugli shader e fare esperimenti carucci... :oink:
io apsetterei l'uscita di giochi che minino pesantemente le prestazioni della scheda in questione, e non vorrei che si ripetesse per motivi assurdi il "flop" in certe applicazioni che hanno caratterizzato i meno recenti fx5200/5500 ecc. ecc.
Il punto di debolezza di queste schede erano proprio gli shader 2.0 delle DX9. Ora, premettendo che i tecnici nvidia hanno fatto un'opera da applauso, io mi chiedo se è possibile mettere mano a un progetto come quello della NV40 da zero con conoscenze "blande e approssimative" con gli shader 2.0 e immettere nella scheda nuova direttamente i 3.0. ovviamete non è un'accusa, ma mi sembra doveroso riflettere su questi punti, considerando i prezzi di simili schede.
non vorrei, insomma, che la scheda apparentemente mostruosa fosse un gigante con i piedi di argilla e che nel giro di qualche mese si comincino a riscontrare dei limiti gravi. Tutto qui.
Dopo il disastro della serie fx io starei un pò attento, anche perchè l'architettura è davvero futuristica, ma la possibilità di inciampare nella progettazione (soprattutto per chi deve rifare le cose da zero è una possibilità ben m,aggiore purtroppo) possibile. Difficiel ma non impossibile.
Ecco il perchè attendo quei giochi che sfrutteranno pesantemente gli shader 2.0 (per i 3.0 ottimizzati se ne passerò molto tempo ancora, anche se verranno sfruttati da Far Cry -con che performance? Se non si è bravi e sperti con i 3.0 si rischia di rendere ancora più pesante lo shader, è un rischio da non sottovalutare-).
Ovviamente spero capiate che la mia è una disanima tecnica e possibilistica, non volta a creare flames :)
nonikname
05-05-2004, 15:15
Per misurare il consumo energetico delle schede video usiamo un semplice strumento di misurazione fornito da Conrad Elektronik (Energy Check 3000), che rileva la quantità di energia richiesta dall’intero sistema, compresi quindi motherboard, processore, ecc. Ancora una volta ringraziamo calorosamente i lettori che ci hanno suggerito questo test.
L’efficienza dell’alimentatore usato per i test (Antec True Control 550W, efficienza 69%) non è stata scomposta dai risultati sottostanti: del resto dovete pagare per tutta l’elettricità che usate, sia che i consumi derivino dall’inefficienza dell’alimentatore o dall’effettivo utilizzo di componenti del PC.
Per la massima chiarezza, sottolineiamo ancora una volta che i numeri che seguono non rappresentano il consumo energetico della sola scheda video, ma dell’intero sistema di test.
Molte schede video attuali necessitano di un quantitativo di energia maggiore di quanto possa fornire l’AGP, quindi fanno uso di un’alimentazione aggiuntiva. Questo rende difficile misurare i consumi di una scheda video. La nostra procedura semplificata dà comunque l’idea dei consumi dei vari prodotti.
http://www.tomshw.it/guides/graphic/20040504/images/power005.gif
Per assicurarci che i consumi di componenti quali i drive ottici e gli hard disk non risultino nel risultato finale, abbiamo misurato il consumo energetico al momento della navigazione nel BIOS. Le nuove schede X800 richiedono meno energia della Radeon 9800XT e molta meno rispetto alla GeForce 6800 Ultra.
http://www.tomshw.it/guides/graphic/20040504/images/power007.gif
Questa misurazione è presa mentre Windows è in attesa di comandi dopo il boot e il caricamento di driver. Entrambe le schede X800 si dimostrano molto frugali e richiedono meno energia della Radeon 9800XT e della GeForce 6800 Ultra.
http://www.tomshw.it/guides/graphic/20040504/images/power008.gif
Questi valori rappresentano la richiesta energetica massima misurata durante i vari test di di 3DMark 2003 con differenti impostazioni di risoluzione e qualità (FSAA, anisotropic filtering). La punta di richiesta energetica della X800 XT è leggermente più alta di quella della Radeon 9800XT. La e X800 Pro, d'altro canto, richiede molta meno energia. La GeForce 6800 Ultra di NVIDIA si dimostra la più vorace.
ATi dichiara che il consumo energetico dell'X800 XT con i giochi 3D è di 67,48 Watt, contro i 67,54 della Radeon 9800XT. Ci è sembrato strano. In una email successiva, ATi ha cominciato a parlare di richiesta energetica "media"... Un'informazione inutile, siccome l'alimentatore del sistema deve essere in grado di gestire i picchi di richiesta.
Usando i 110 Watt della GeForce 6800 Ultra come punto di riferimento, nel nostro ultimo articolo abbiamo calcolato una richiesta energetica di 91.5 Watts!
Siccome è improbabile che NVIDIA suggerisca un alimentatore da 480Watt per la GeForce 6800 Ultra ed equipaggi la scheda con due Molex addizionali se non fosse veramente necessario, abbiamo concluso che la richiesta massima dichiarata di 110 Watt è corretta. Calcolando l'efficienza al 99% dell'alimentatore da noi usato, abbiamo dedotto che la X800 XT durante i nostri test ha richiesto circa 17 Watt in meno rispetto alla GF 6800 Ultra. Naturalmente dovete consentirci un margine di tolleranza, siccome non siamo certi di aver raggiunto lo scenario peggiore durante le nostre prove con 3DMark 2003.
fonte (http://www.tomshw.it/graphic.php?guide=20040504)
Da Firing Squad:
"The power requirements for the GeForce 6800 GT are considerably tamer than the Ultra board. NVIDIA hasn’t come up with a final wattage figure on the PSU, but since power requirements are similar to the 5900 Ultra, they claim a PSU in the 300-watt range should be sufficient for the 6800 GT".
Solo 300W per la 6800GT??? :eek:
Ma allora, e rilancio, come mai così tante differenze con la Ultra???
1 molex in più, dissy doppio, ali minimo da 480W....per 50mhz in più!!!!! :eek:
Qualcuno mi può spiegare una volta per tutte, a me da l'impressione che....boh...la butto lì....con la GT abbiano fatto qualche cambiamento a livello fisico alla scheda per farle consumare molto meno e produrre meno calore, oltre al semplice abbassamento di frequenze, voi che dite?
Ripeto, mi sembra a questo punto di trovarmi di fronte a due schede diverse, nn posso credere che 50mhz facciano tutta questa differenza a livello di costruzione. :confused:
Non saprei, ma la GT mi interessa sempre di più:D
Gatz1980
05-05-2004, 15:52
Originariamente inviato da dwfgerw
Non saprei, ma la GT mi interessa sempre di più:D
Concordo in pieno, alla fine poco importa chi vince la battaglia dei benchmark. La guerra vera e propria si fa sul mercato, e un prodotto come la 6800GT, IMHO, è destinato a risquotere un grosso successo.
TheDarkAngel
05-05-2004, 15:54
Originariamente inviato da Gatz1980
Concordo in pieno, alla fine poco importa chi vince la battaglia dei benchmark. La guerra vera e propria si fa sul mercato, e un prodotto come la 6800GT, IMHO, è destinato a risquotere un grosso successo.
nn mi pare che la pro sia da meno anzi...
Gatz1980
05-05-2004, 16:03
Originariamente inviato da TheDarkAngel
nn mi pare che la pro sia da meno anzi...
Ognuno ha i suoi gusti. :)
Io, a parità di prezzo, sceglierei la GT.
Se poi alla NVidia decidessero di adottare una politica di prezzi aggressiva come per la 5900XT, allora non avrei dubbi.
TheDarkAngel
05-05-2004, 16:12
Originariamente inviato da Gatz1980
Ognuno ha i suoi gusti. :)
Io, a parità di prezzo, sceglierei la GT.
Se poi alla NVidia decidessero di adottare una politica di prezzi aggressiva come per la 5900XT, allora non avrei dubbi.
ok i gusti.. ma sul puro piano prestazionale..
è un pelo sopra... c'e' poco da fare...
Gatz1980
05-05-2004, 16:33
Originariamente inviato da TheDarkAngel
ok i gusti.. ma sul puro piano prestazionale..
è un pelo sopra... c'e' poco da fare...
Io aspetterei ancora un po' a dare questo tipo di giudizi.
Ho l'impressione che il grosso contenuto tecnologico di NV40 non sia ancora sfruttato a dovere, non dimentichiamoci che manca ancora un layer fondamentale all'intera architettura, cioè le DirectX 9.0c, le quali potrebbero portare dei vantaggi anche prestazionali alle schede NVidia.
Inoltre molto dipenderà anche dalla direzione che sarà seguita d'ora in poi dai programmatori. Se essi decideranno di sfruttare la maggiore facilità di programmazione degli shader 3.0, può essere che questo comporti un ulteriore vantaggio per NV40, che lo supporta in HW senza bisogno di un livello intermedio di precompilazione (non ho detto una fesseria, vero? :D).
Ovviamente, ben lungi da me l'idea parteggiare per qualcuno. Spero anzi che le due siano costrette a darsi battaglia a colpi di prezzi, per conquistarsi la propria fetta di mercato :)
TheDarkAngel
05-05-2004, 16:37
Originariamente inviato da Gatz1980
Io aspetterei ancora un po' a dare questo tipo di giudizi.
Ho l'impressione che il grosso contenuto tecnologico di NV40 non sia ancora sfruttato a dovere, non dimentichiamoci che manca ancora un layer fondamentale all'intera architettura, cioè le DirectX 9.0c, le quali potrebbero portare dei vantaggi anche prestazionali alle schede NVidia.
Inoltre molto dipenderà anche dalla direzione che sarà seguita d'ora in poi dai programmatori. Se essi decideranno di sfruttare la maggiore facilità di programmazione degli shader 3.0, può essere che questo comporti un ulteriore vantaggio per NV40, che lo supporta in HW senza bisogno di un livello intermedio di precompilazione (non ho detto una fesseria, vero? :D).
Ovviamente, ben lungi da me l'idea parteggiare per qualcuno. Spero anzi che le due siano costrette a darsi battaglia a colpi di prezzi, per conquistarsi la propria fetta di mercato :)
emh.... con i se e i ma nn ci fai niente ;)
ci sono i ps2.0... ci saranno i ps2.0... dei ps3.0 nemmeno c'e' la semplice ombra.. quindi... quei 222ml di transistor sono per ora inutili ^^
andreamarra
05-05-2004, 16:54
Originariamente inviato da TheDarkAngel
emh.... con i se e i ma nn ci fai niente ;)
ci sono i ps2.0... ci saranno i ps2.0... dei ps3.0 nemmeno c'e' la semplice ombra.. quindi... quei 222ml di transistor sono per ora inutili ^^
Quoto, la scheda è avveneristica ma attualment inutile. tanto quanto lo era a suo tempo il full supporto alle DX9 da parte della R300.
Poi una cosa da non sottovalutare MAI è il fatto che la tecnologia non porta sempre ad applicazioni migliori nel tempo. Anzi. Ci sono diverse direttrici che può seguire, e non è detto che tutte le novità siano sul piano pratico le migliori. Penso al truform...
QUindi in pratica quando queste tecnologie saranno sfruttate, la ati e l'nvidia avranno un supporto a questi shader (con il vantaggio foprse per invidia di averli implementati prima) in maniera superiore. Ecco perchè queste scehde ati e nvidia per me sono "tampone". Stupende, velocissime, ma stazionarie e volte a far approdare il progetto a NV50 e soprattutto a R500.
Aggiungo anche che rivoluzionare qualcosa dal punto di vista tecnologico non sempore porta a benefici. Ci sono troppi salti nel buio possibili, ecco perchè io fossi in voi apsetterei a prendere una NV40, soltanto perchè a livello teorico sono mostruose, ma a livello pratico con certe applicazioni che ancora non sono uscite come si comporteranno?
Le tecnologie presentate con Nv40 sono sfruttate dall'Unreal 3 engine.....d'accordo che si parla del 2005...ma se nessuno comincia a spingerle non le avremo mai.
E chissà nel frattempo quanti altri titoli ne faranno uso...prima si comincia meglio è.
Adesso va bene tutto....ma di ogni casa bisogna essere in grado di giudicare i meriti e i demeriti a prescindere dalla marca.
Gatz1980
05-05-2004, 17:05
Originariamente inviato da andreamarra
Quoto, la scheda è avveneristica ma attualment inutile. tanto quanto lo era a suo tempo il full supporto alle DX9 da parte della R300.
Poi una cosa da non sottovalutare MAI è il fatto che la tecnologia non porta sempre ad applicazioni migliori nel tempo. Anzi. Ci sono diverse direttrici che può seguire, e non è detto che tutte le novità siano sul piano pratico le migliori. Penso al truform...
QUindi in pratica quando queste tecnologie saranno sfruttate, la ati e l'nvidia avranno un supporto a questi shader (con il vantaggio foprse per invidia di averli implementati prima) in maniera superiore. Ecco perchè queste scehde ati e nvidia per me sono "tampone". Stupende, velocissime, ma stazionarie e volte a far approdare il progetto a NV50 e soprattutto a R500.
Aggiungo anche che rivoluzionare qualcosa dal punto di vista tecnologico non sempore porta a benefici. Ci sono troppi salti nel buio possibili, ecco perchè io fossi in voi apsetterei a prendere una NV40, soltanto perchè a livello teorico sono mostruose, ma a livello pratico con certe applicazioni che ancora non sono uscite come si comporteranno?
Le tue argomentazioni, a mio avviso, sono giuste se diamo per scontato che la gente cambi continuamente scheda video tenendosi costantemente aggiornato con tutte le ultime novità.
Secondo te una persona che vuole cambiare scheda a questo giro, per prendere un prodotto che gli duri qualche anno, non farebbe bene a puntare su quella delle due che potrebbe rivelarsi vincente in un futuro non proprio immediato?
Originariamente inviato da Gatz1980
Le tue argomentazioni, a mio avviso, sono giuste se diamo per scontato che la gente cambi continuamente scheda video tenendosi costantemente aggiornato con tutte le ultime novità.
Secondo te una persona che vuole cambiare scheda a questo giro, per prendere un prodotto che gli duri qualche anno, non farebbe bene a puntare su quella delle due che potrebbe rivelarsi vincente in un futuro non proprio immediato?
Quoto.
Per uno come me, che ha da poco messo un P4 3Ghz e mobo i865 l'agp se lo vuole tenere per un bel po, quindi punto sulla tecnologia più versatile e futuribile possibile.
Ciao;)
andreamarra
05-05-2004, 17:12
Originariamente inviato da Gatz1980
Le tue argomentazioni, a mio avviso, sono giuste se diamo per scontato che la gente cambi continuamente scheda video tenendosi costantemente aggiornato con tutte le ultime novità.
Secondo te una persona che vuole cambiare scheda a questo giro, per prendere un prodotto che gli duri qualche anno, non farebbe bene a puntare su quella delle due che potrebbe rivelarsi vincente in un futuro non proprio immediato?
Sicuro, ma non credere che il mio pensiero sia quello solo perchè ho una 9700Pro anche abbastanza fortunella :)
Chi ha una scheda video di fascia attualmente troppo bassa come una R200 o una geppo4 o peggio una fx non può che fare un discorso sul futuro. Però a mio avviso prima di fare una scelta sarebbe necessario aspettare almeno a dopo l'estate perchè attualmente l'unico gioco che sodomizza letteralmente la scheda video nonchè il sistema è soltanto Far Cry. Se nel giro di du o tre mesi dovessero uscire dei giochi che spremeranno ancora di iùle schede di fascia lata come la 9800pro/XT e la FX5950 allora li sarà a discrezione dell'utente. Ma solo se usciranno questi giochi.
Infatti, anche se avessi una scheda di generazione passata di basso profilo non comprerei nè la nv40 nè la r420, aspetterei qualche mese (non giocandoci d'estate, avrò altro da fare) fino a che non escano altre schede. Per questo definisco queste due schede "tampone", con però il punto di forza indiscutibile nell'architettura NV40 che è molto più avveniristica della controparte ati.
E ripeto che la NV40 per quanto formidabile non mi da lo stesso gartanzie sul futuro. Purtroppo c'è da attendere....
Quindi, fa bene a puntare sulla tecnologia. Ma il rischio è che certe features si rivelino buchi nell'acqua, E non lo dico per essere pessimista, ma perchè spesso succede.
andreamarra
05-05-2004, 17:15
Originariamente inviato da R@nda
Le tecnologie presentate con Nv40 sono sfruttate dall'Unreal 3 engine.....d'accordo che si parla del 2005...ma se nessuno comincia a spingerle non le avremo mai.
E chissà nel frattempo quanti altri titoli ne faranno uso...prima si comincia meglio è.
Adesso va bene tutto....ma di ogni casa bisogna essere in grado di giudicare i meriti e i demeriti a prescindere dalla marca.
Certamente, infatti la scelta di nvidia è stata coraggiosa. Coraggiosa a dir poco. Amo le soluzioni avveniristiche, perchè fanno andare avanti la tecnologia. Per farti un esempio io la mia attuale scheda l'ho comprata solo l'anno scorso, semplicemente perchè il supporto alle DX9 non era assolutamente esistente. Era in forse. Dopo aver visto che cominciavano ad uscire titoli pseudo DX9 allora non ho avuto dubbi di sorta.
Adesso ce li avrei e non pochi.
Jedi_Master
05-05-2004, 17:20
Originariamente inviato da Gatz1980
Secondo te una persona che vuole cambiare scheda a questo giro, per prendere un prodotto che gli duri qualche anno, non farebbe bene a puntare su quella delle due che potrebbe rivelarsi vincente in un futuro non proprio immediato?
Purtroppo secondo me quel futuro sara' abbastanza lontano.
Le DX9 ci sono gia' da un bel po', eppure nemmeno Far Cry
le sfrutta appieno e anche se escono nell'annata i soliti
HL2, DOOM3 e STALKER non e' detto facciano molto di piu'.
Insomma tra due anni potremmo essere ancora all'alba
degli shader 3.0 e tra un anno se si continua cosi' ci saranno
skede che andranno il doppio di queste......
:)
andreamarra
05-05-2004, 17:20
Originariamente inviato da dwfgerw
Quoto.
Per uno come me, che ha da poco messo un P4 3Ghz e mobo i865 l'agp se lo vuole tenere per un bel po, quindi punto sulla tecnologia più versatile e futuribile possibile.
Ciao;)
hai perfettamente ragione, però il futuribile e versatile sono concetti che vanno presi con le pinze. Ti immagini spendere 500 euro per una scheda attualmente mostruosa che ha magari dei problemi seri su certi versanti e su certe features che attualmente non hanno riscontro? Ecco perchè a mio giudizio ogni cosa che deve essere fatta adesso sarebbe rischiosa, siua prendere NV40 che R420. Io siccome non vedo ancora nulla che possa sgretolare l'attuale HW starei alla finestra. Se uscisse ad esempio il gioco X che ha certe features 3.0 e la Nv40 nonostante le supporti non riesca a stargli dietro, che si fa?
Tutte le schede si sposteranno su VS e PS 3.0 e la precisione di calcolo aumenterà ancora,il displacement mapping potrà essere utilizzato e chissà che altro.
Queste sono tecnologie che verranno utilizzate per certo,senza nessun forse.
Il dubbio è...ma l'Nv40 è in grado di reggere tutto questo a FPS accettabili?
NI....perchè come abbiamo visto l'Unreal Engine 3 girava sie no a una 20ntina di fps,ed è un demo.
Insomma un gioco con un impatto visivo minore potrebbe essere gestito decentemente pur utilizzando nuove tecnologie.
Ma come sempre sarà la generazione successiva a farla da padrone in queste cose.
Già con il passaggio a fine anno del PCIX qualcosa nei modelli lo cambieranno di sicuro...affinamenti tecnologici,frequenze.
Per questo non voglio comprare ora nessuna delle due schede.....se ce la faccio:D
andreamarra
05-05-2004, 17:25
Originariamente inviato da Jedi_Master
Purtroppo secondo me quel futuro sara' abbastanza lontano.
Le DX9 ci sono gia' da un bel po', eppure nemmeno Far Cry
le sfrutta appieno e anche se escono nell'annata i soliti
HL2, DOOM3 e STALKER non e' detto facciano molto di piu'.
Insomma tra due anni potremmo essere ancora all'alba
degli shader 3.0 e tra un anno se si continua cosi' ci saranno
skede che andranno il doppio di queste......
:)
Giustamente il problema di molti è l'avere una scheda ormai alla frutta (e vedendo i bench anche la mia sembra essere arrivata :p ).
Io consiglierei di aspettare. Non è detto che quando escono giochi con il motore di unreal III la scheda sia sufficiente, e soprattutto non è detto che sia esente da problemi apparentemente invisibili.
Io starei alla finestra...
andreamarra
05-05-2004, 17:33
Originariamente inviato da R@nda
Tutte le schede si sposteranno su VS e PS 3.0 e la precisione di calcolo aumenterà ancora,il displacement mapping potrà essere utilizzato e chissà che altro.
Queste sono tecnologie che verranno utilizzate per certo,senza nessun forse.
Il dubbio è...ma l'Nv40 è in grado di reggere tutto questo a FPS accettabili?
NI....perchè come abbiamo visto l'Unreal Engine 3 girava sie no a una 20ntina di fps,ed è un demo.
Insomma un gioco con un impatto visivo minore potrebbe essere gestito decentemente pur utilizzando nuove tecnologie.
Ma come sempre sarà la generazione successiva a farla da padrone in queste cose.
Già con il passaggio a fine anno del PCIX qualcosa nei modelli lo cambieranno di sicuro...affinamenti tecnologici,frequenze.
Per questo non voglio comprare ora nessuna delle due schede.....se ce la faccio:D
Ascolta, io capisco cosa diciate voi e sono convinto che sarà sicuramente così. Gli shader 3.0 saranno sicuramente usati senza se e senza ma. Il mio dubbio, legittimo, è: la scheda in questione siamo sicuri che non ha problei di architettura che possa minare la velocità dei ps 3.0? L'ipotesi non è tanto fantascientifica, chi credeva che con i ps 2.0 le fx facessero una fine misera?
Sicuramente la ati ha lasciato andare nvidia avanti nella progettazione degli shader 3,0 (ma non credo che la ati non abbia fatto nulla in questo senso) per valutare le mosse, i rischi, i benefit. E lo sapevano perchè da che mondo e mondo lo spionaggio industriale non è fantasia di un regista. Ecco il motivo personale per cui non comprerò nessun modello NV40 nè R420. Perchè si comincerà a ragionare verso la fine dell'anno..
Praticamente la ati ha puntato sulla potenza bruta spendendo a livello economico molto meno della controparte di nvidia che ha dovuto fare ricerche onerosissime. E sicuramente come "avvoltoi" controlleranno la situazione per verificare eventuali problemi tecnici-strutturali di cui può essere affetta la NV40. Essendo un progetto nuovissimo non è detto che ne sia esente, ecco.
Tra l'altro potrò valutare (io e gli altri) i driver ati e i driver nvidia.
Originariamente inviato da dwfgerw
Non sono ultra downcloccate, hanno un dissi che occupa un solo slot!
per il resto si sono identiche alla ultra per fortuna hanno 16 pipes invece delle 12 di x800pro e in open gl rullano (doom III...)
;)
E' logico che la scheda è diversa...io mi riferivo strettamente alla GPU...e vorrei aspettare a vedere quelle che si trovano sugli scaffali per vedere come e se salgono.
Per quanto riguarda l'openGl è vero..la Nvidia va un po di più...ma che te ne fai di un po di più a 1024 o a 1280 senza i filtri?
Io personalmente niente...e con queste nuove schede pretendo di giocare con l'AA a 4X per lo meno...e tanto di anisotropico...
Quindi ripeto...buona scheda si...soprattutto per i programmatori...ma l'R420 è sfruttabile adesso...e non richiede nessun codice specifico per avere buone prestazioni...
Jedi_Master
05-05-2004, 17:36
Originariamente inviato da R@nda
Il dubbio è...ma l'Nv40 è in grado di reggere tutto questo a FPS accettabili?
NI....perchè come abbiamo visto l'Unreal Engine 3 girava sie no a una 20ntina di fps,ed è un demo.
Giusto.
Questa e' un'altra bella incognita.
Infatti va' bene supportare tante belle novita',
pero' poi si riuscira' a renderle operative al 100%??
:boh:
andreamarra
05-05-2004, 17:40
Originariamente inviato da Jedi_Master
Giusto.
Questa e' un'altra bella incognita.
Infatti va' bene supportare tante belle novita',
pero' poi si riuscira' a renderle operative al 100%??
:boh:
Quoto e aggiungo che se è vero che il fatto che nvidia abbia fatto un chip rivoluzionario (un applauso per questo), non è detto che sia esente da problemi. E' una ipotesi, ma nella fretta di voler recuperare terreno su ati è uno scenario tanto assurdo quello che penso possa succedere col tempo?
E se dovessero esserci altri casi Far Cry?
Ormai sono convinto al 100% di saltare generazione..
andreamarra
05-05-2004, 17:42
http://mark0.ngi.it/var/fartcrypromo.jpg
Dark Schneider
05-05-2004, 18:27
Originariamente inviato da GURU
Rimane il fatto che per chi vuole usare AA e filtri in maniera massiccia NV40 non mi sembra la migliore scelta...e francamente non capisco come nel 2004 uno debba giocare senza filtri...
Scusa Guru....ma non ho capito questa frase....in che senso se uno sceglie NV40 non può giocare con i filtri?
:confused:
Ma stai scherzando?
Scusa ma se ci giocano chi ha 9700, 9800,ecc. e NV40 non permette l'uso dei filtri?:confused:
A me pare che la scheda viaggi parecchio anche con i filtri.
Dark Schneider
05-05-2004, 18:39
Originariamente inviato da andreamarra
nel test in questione però mi sembra di aver capito che siano utilizzati dei driver beta catalyst. Insomma, qualunque siano le reali prestazioni sono dell'idea che la R420 saturi maggiormente la cpu a differenza della NV40. Quindi chi non ha un computer extreme ninja può tranquillamente scegliere un modello NV40 a seconda dei gusti e dei prezzi ;)
Andrea certo quei catalyst anche sono beta anche loro.....ma cmq sono gli stessi drivers utilizzati anche dalle altre recensioni, incluso HwUpgrade!! :) Son dei beta drivers...hanno ancora un po' di margine, ma sai bene anche tu(anzi hai fatto un osservazione correttissima l'altro giorno) che cmq i drivers di R420 sono in uno stadio più avanzato, visto che si tratta di drivers che devono sfruttare un architettura già affermata da quasi 2 anni come quella di R300...con la sola differenza che R420 è il suo raddoppio. R420 quindi già può esprimere bene la sua potenza. :) Riguardo alla cpu che satura di più non so...può anche essere..staremo a vedere...poi trà un po' escono altre cpu più potenti che ci permetteranno di capire meglio. Ma non penso che ci possano essere sinceramente differenze abbissali..sopratutto una volta che nVidia avrà preso abbastanza confidenza con la nuova architettura. :)
Dark Schneider
05-05-2004, 18:44
Originariamente inviato da andreamarra
Quoto e aggiungo che se è vero che il fatto che nvidia abbia fatto un chip rivoluzionario (un applauso per questo), non è detto che sia esente da problemi. E' una ipotesi, ma nella fretta di voler recuperare terreno su ati è uno scenario tanto assurdo quello che penso possa succedere col tempo?
E se dovessero esserci altri casi Far Cry?
Ormai sono convinto al 100% di saltare generazione..
Semplicemente nVidia al momento deve fare un bel lavoro nello sviluppo dei drivers come ha ricordato giustamente il Corsini per meglio adattare e appunto rendere operative le proprie tecnologie al meglio. Tutto questo perchè ha una GPU nuovissima e quindi deve prendere confidenza. :)
La GeForce 6800 è una scheda che mi fa ricordare molto la mitica Radeon 8500 che tecnologicamente era cmq più avanzata della concorrenza...ma ha avuto bisogno di tempo per poter dare il meglio di se. Diamo tempo a nVidia e al suo NV40.
Dark Schneider
05-05-2004, 19:06
Originariamente inviato da andreamarra
Ti dirò, credevo che il divario in openGL fosse più clamoroso. In ogni caso prendere una scehda solo per l'OpenGL mi senìmbra una forzatura. Anche perchè con un gioco come DooMIII magari la nv40 farà 100 e la X800Xt farà 90 (anche di meno, è una ipotesi), poi c'è da vedere se i driver (ma non ci credo/spero) ati prevederanno un miglioramento nelle OpenGL (che non sono il futuro assolutamente, magari i gichi derivati dal DooMIII si, ma poi credo verrà soppiantato in favore delle DX).
Il divario potrebbe essere anche un po' maggiore per quel titolo...considerando quella cosetta del 32x0 implementata da nVidia in quel titolo. Cmq staremo a vedere.
E' cmq Open GL non può morire mica...si utilizza anche in altri ambiti,eh? E' l'Open GL ci sarà sempre....e così i giochi basati su essi.Nel 2005 arriveranno poi i 2.0!! ;) Stai pur certo che non sarà soppiantato! :)
Poi una cosa..non esistono solo titoli Open GL sparatutto...ma anche altri...ad esempio NWN...un gioco dove gli fps non sono altissimi...avere un 6-7 fps in più fa una bella differenza...ma poi ti assicuro che in multyplayer è anche più evidente. Non si tratta di giochi da 100 fps e passa insomma :) Più che altro il problema un po' riscontrato da questo titolo quando lo si gioca in rete è anche una questione di stabilità degli fps in tutte le situazioni...magari lo giochi bene..poi però c'è un punto che si ha un crollo. nVidia con questo titolo va molto stabile in tutte le situazioni da gestire.
Certo Ati può cmq migliorare...perchè si può sempre migliorare e dare tempo per migliorare!! ;)
Diciamo che nVidia ha sempre il vantaggio che è legatissima alla Silicon Grhapics e quindi sta in uno stadio più avanzato come sviluppo rispetto ad Ati negli ultimi anni in questo ambito.
Legolas84
05-05-2004, 19:10
Dark ha ragione..... in NWN con i dettagli ombre al massimo la scheda soffre sia che sia una 9800XT che una 5950Ultra (la 5950 molto meno.... infatti puoi far uso massiccio dei Filtri... con ATi no).
Con la 6800 GT spero di poterlo giocare tutto a palla sui 50 FPS...
(Naturalemnte la GT che mi capiterà tra le mani diventerà una ULTRA come minimo:p )
PS
L'OpenGL non può morire....
Dark Schneider
05-05-2004, 19:20
Originariamente inviato da Koji
Da Firing Squad:
"The power requirements for the GeForce 6800 GT are considerably tamer than the Ultra board. NVIDIA hasn’t come up with a final wattage figure on the PSU, but since power requirements are similar to the 5900 Ultra, they claim a PSU in the 300-watt range should be sufficient for the 6800 GT".
Solo 300W per la 6800GT??? :eek:
Ma allora, e rilancio, come mai così tante differenze con la Ultra???
1 molex in più, dissy doppio, ali minimo da 480W....per 50mhz in più!!!!! :eek:
Qualcuno mi può spiegare una volta per tutte, a me da l'impressione che....boh...la butto lì....con la GT abbiano fatto qualche cambiamento a livello fisico alla scheda per farle consumare molto meno e produrre meno calore, oltre al semplice abbassamento di frequenze, voi che dite?
Ripeto, mi sembra a questo punto di trovarmi di fronte a due schede diverse, nn posso credere che 50mhz facciano tutta questa differenza a livello di costruzione. :confused:
Ragà ma cmq non è che la Ultra vuole per forza un ali da 480 Watt. Alla fine bisogna pensare anche ad altro,eh? Tipo quando consumano le nostre CPU...io per dire con un 2600+ consumo molto molto meno rispetto a chi ha chessò un P4 spinto. Per dire, il mio Thoro 2600+ consuma 62 watt e max 68 sotto sforzo. I P4 3 Ghz.....80 normalmente...e può arrivare a putne di 105 Watt sotto sforzo. Magari è tutta una cosa vista "nell'insieme" questo dei 480 Watt. Ma che poi sicuramente non ci vuo,e un ali da 480 watt...uno che ha un P4 spinto.....e la 6800 Ultra un chieftech da 420 Watt che ha ottimi amperaggi starà tranquillo.
Ma cmq a me non frega nulla della Ultra, perchè tanto prendo la GT che poi ha un solo molex, consuma molto meno...ha frequenze solo più basse....e dai primi test...considerando anche che son sample..pare salgano bene, molto bene. Da 350/1000 a 425/1200!! E' si tratta di sample non definitivi quelli testati. :)
Se richiede solo un 300 Watt....meglio ancora. Sennò un 350 è più che sufficente al 100%. ;)
Dark Schneider
05-05-2004, 19:30
Originariamente inviato da Jedi_Master
Purtroppo secondo me quel futuro sara' abbastanza lontano.
Le DX9 ci sono gia' da un bel po', eppure nemmeno Far Cry
le sfrutta appieno e anche se escono nell'annata i soliti
HL2, DOOM3 e STALKER non e' detto facciano molto di piu'.
Insomma tra due anni potremmo essere ancora all'alba
degli shader 3.0 e tra un anno se si continua cosi' ci saranno
skede che andranno il doppio di queste......
:)
Si ma come dice giustamente Gatz non è che tutti cambiamo schede continuamente, quindi prima o poi uno la scelta la deve fare!! :) Pensare che tra un anno NV50 andrà il doppio alla fin fine poco importa. Andranno sempre il doppio l'anno dopo, ma uno deve attuare una scelta.
Dark Schneider
05-05-2004, 19:35
Originariamente inviato da R@nda
Tutte le schede si sposteranno su VS e PS 3.0 e la precisione di calcolo aumenterà ancora,il displacement mapping potrà essere utilizzato e chissà che altro.
Queste sono tecnologie che verranno utilizzate per certo,senza nessun forse.
Il dubbio è...ma l'Nv40 è in grado di reggere tutto questo a FPS accettabili?
NI....perchè come abbiamo visto l'Unreal Engine 3 girava sie no a una 20ntina di fps,ed è un demo.
Insomma un gioco con un impatto visivo minore potrebbe essere gestito decentemente pur utilizzando nuove tecnologie.
Ma come sempre sarà la generazione successiva a farla da padrone in queste cose.
Già con il passaggio a fine anno del PCIX qualcosa nei modelli lo cambieranno di sicuro...affinamenti tecnologici,frequenze.
Per questo non voglio comprare ora nessuna delle due schede.....se ce la faccio:D
Vabbè cmq Unreal 3 Engine è veramente immane!! Non penso si possa raggiungere da subito una certa pesantezza. Nel senso che quello mi sa che è un titolo che sfrutta i 3.0 ma in maniera immane...non a caso non sarà presto sugli scaffali.:D
Dark Schneider
05-05-2004, 19:48
Originariamente inviato da Legolas84
Dark ha ragione..... in NWN con i dettagli ombre al massimo la scheda soffre sia che sia una 9800XT che una 5950Ultra (la 5950 molto meno.... infatti puoi far uso massiccio dei Filtri... con ATi no).
Con la 6800 GT spero di poterlo giocare tutto a palla sui 50 FPS...
(Naturalemnte la GT che mi capiterà tra le mani diventerà una ULTRA come minimo:p )
PS
L'OpenGL non può morire....
Ehehe si buone notizie possiam dire riguardo l'OC della GeForce 6800 GT. In un test ho visto che il Core è stato portato da 350 Mhz a 425 Mhz. Quindi più della Ultra. Le memorie da 1000 a 1200 Mhz!! Più della Ultra. E' le prestazioni pare che ne giovano molto da questo OC...ho visto dagli 8 ai 15-20 fps!! :) E' c'è da dire che si parla di un sample!! :) La versione definitiva magari sale anche di più come Core!! :)
Ragà secondo voi le memorie da 500 Mhz (1000) son in realtà delle memorie rimarchiate? Secondo me si.....proprio perchè da 1000(500x2) s'è portata a 1200(600 Mhz). Ben 200 Mhz in più.
Legolas84
05-05-2004, 19:58
chissà cosa farà POV :sbav: :D
andreamarra
05-05-2004, 20:09
Originariamente inviato da Legolas84
chissà cosa farà POV :sbav: :D
Claudio, io sinceramente aspetterei un bel pò prima di prendere una NV40 o una R420..
Sei un ingordo :oink:
Legolas84
05-05-2004, 20:23
Originariamente inviato da andreamarra
Claudio, io sinceramente aspetterei un bel pò prima di prendere una NV40 o una R420..
Sei un ingordo :oink:
Ma mi sa che alla fine aspetto..... ora voglio il monitor nuovo per prima cosa....
l'aggiornamento Hardware potrebbe slittare a dopo l'estate.... in questo caso si parla di Athlon 64 + NV45 :sbav: :D
Originariamente inviato da GURU
E' logico che la scheda è diversa...io mi riferivo strettamente alla GPU...e vorrei aspettare a vedere quelle che si trovano sugli scaffali per vedere come e se salgono.
Per quanto riguarda l'openGl è vero..la Nvidia va un po di più...ma che te ne fai di un po di più a 1024 o a 1280 senza i filtri?
Io personalmente niente...e con queste nuove schede pretendo di giocare con l'AA a 4X per lo meno...e tanto di anisotropico...
Quindi ripeto...buona scheda si...soprattutto per i programmatori...ma l'R420 è sfruttabile adesso...e non richiede nessun codice specifico per avere buone prestazioni...
a si in quel senso certamente, la GT è una ultra usa tutte e 16 le pipes e opera a 350/1000.
Dai test di firingsquad è stato possibile portarla oltre le frequenze di una ultra pur avendo un molex.
bye
nn dimenticatevi dell'encoding video.
dimezzare i tempi di una conversione video, penso interessi a tutti no......
andreamarra
05-05-2004, 20:45
Originariamente inviato da Ren
nn dimenticatevi dell'encoding video.
dimezzare i tempi di una conversione video, penso interessi a tutti no......
Che funzione è? Della NV40?
Dark Schneider
05-05-2004, 20:46
Originariamente inviato da Ren
nn dimenticatevi dell'encoding video.
dimezzare i tempi di una conversione video, penso interessi a tutti no......
Certo!! Questa è un altra funziona motlo interessante!! :)
Legolas84
05-05-2004, 20:46
Originariamente inviato da andreamarra
Che funzione è? Della NV40?
si è un chip che sta sulla scheda e toglie peso alla cpu
Originariamente inviato da andreamarra
Che funzione è? Della NV40?
certo c'e' encoding e decoding di flussi video WMV9 e Mpeg1/2/4
Se ne parla da tempo, c'e' anche nella rece di hwupgrade
Originariamente inviato da Legolas84
si è un chip che sta sulla scheda e toglie peso alla cpu
no è fatto da un chip integrato nella gpu, ma si pensa sia fatto dalle stesse unità pixel shader, sfruttandone la loro programmabilità
andreamarra
05-05-2004, 20:47
Originariamente inviato da Legolas84
Ma mi sa che alla fine aspetto..... ora voglio il monitor nuovo per prima cosa....
l'aggiornamento Hardware potrebbe slittare a dopo l'estate.... in questo caso si parla di Athlon 64 + NV45 :sbav: :D
Sei super ingordo :oink:
Originariamente inviato da Dark Schneider
Scusa Guru....ma non ho capito questa frase....in che senso se uno sceglie NV40 non può giocare con i filtri?
:confused:
Ma stai scherzando?
Scusa ma se ci giocano chi ha 9700, 9800,ecc. e NV40 non permette l'uso dei filtri?:confused:
A me pare che la scheda viaggi parecchio anche con i filtri.
Volevo dire che R420 con i filtri va di più di NV40...tutto qui...
e che se uno sceglie Nvidia perkè vede che a 1024 senza filtri è la scheda più veloce...boh..allora probabilmente ha una concezione di scheda video che io non capisco
Originariamente inviato da GURU
Volevo dire che R420 con i filtri va di più di NV40...tutto qui...
e che se uno sceglie Nvidia perkè vede che a 1024 senza filtri è la scheda più veloce...boh..allora probabilmente ha una concezione di scheda video che io non capisco
pensi che scatterà un gioco con AA4X e AF8/16 con la 6800? allora hai una concezione molto strana di queste nuove vga...
inoltre la potenza bruta in ps 2.0 della GT che vanta tutte e 32 le unita FP nelle 16 pipeline èimpressionante e superiore a X800PRO
http://www.hwupgrade.it/articoli/1013/3dmark_1.gif
Originariamente inviato da Dark Schneider
Certo!! Questa è un altra funziona motlo interessante!! :)
quindi se non ho capito male dovrebbe aiutare parecchio durante le estenuanti compressioni....
Originariamente inviato da Francvs
quindi se non ho capito male dovrebbe aiutare parecchio durante le estenuanti compressioni....
si un bel po direi dato la potenza impressionante che sprigiona in fp
andreamarra
05-05-2004, 21:08
Originariamente inviato da dwfgerw
pensi che scatterà un gioco con AA4X e AF8/16 con la 6800? allora hai una concezione molto strana di queste nuove vga...
inoltre la potenza bruta in ps 2.0 della GT che vanta tutte e 32 le unita FP nelle 16 pipeline èimpressionante e superiore a X800PRO
http://www.hwupgrade.it/articoli/1013/3dmark_1.gif
Ho visto dei bench sui ps 2.0 non di 3d mark (di cui per motivi "inconsci" non mi fido tantissimo :D ) in cui è la ati a fare paura... :confused: almeno il doppio...
Poi vedo che nei vertex shader va un pò meglio la ati... :confused:
ma non ci capisco più una mazza :cry:
andreamarra
05-05-2004, 21:09
Originariamente inviato da dwfgerw
si un bel po direi dato la potenza impressionante che sprigiona in fp
Questa è una ottima cosa, ci sono dei bench per vedere come funge :oink: ??
Originariamente inviato da andreamarra
Questa è una ottima cosa, ci sono dei bench per vedere come funge :oink: ??
ancora mancano plug in ottimizzati che possano far vedere la differenza, ma usciranno presto;)
Originariamente inviato da andreamarra
Questa è una ottima cosa, ci sono dei bench per vedere come funge :oink: ??
quotissimo! :O
Quelli sono calcoli puramente teorici...
guarda qui
http://www.xbitlabs.com/articles/video/display/r420-2_7.html
la situazione non mi pare rispecchi quel pezzo di 3dmark...con il quale tra l'altro non ci si gioca...
si si visti tutti i bench della rete, ma rimango del parere che ati poteva innovare di più e non ridarci un r300x2
la gt a 16 pipes continua ad essere la mia scelta ideale
L'unico test che proprio non quadra è quello specifico HDRI di cui parla andreaspam...ehm...andreamarra (:D ).
Per il resto driver maturi porteranno risultati migliori,anche le Dx9c non sono da sottovalutare.
E' comunque presto per tirare le somme.
Ma quel test HDRI puzza però.....
TheDarkAngel
05-05-2004, 21:30
Originariamente inviato da R@nda
L'unico test che proprio non quadra è quello specifico HDRI di cui parla andreaspam...ehm...andreamarra (:D ).
Per il resto driver maturi porteranno risultati migliori,anche le Dx9c non sono da sottovalutare.
E' comunque presto per tirare le somme.
Ma quel test HDRI puzza però.....
http://www.xbitlabs.com/images/video/r420-2/pkiller_1024_candy.gif
http://www.xbitlabs.com/images/video/r420-2/traod_1024_candy.gif
http://www.xbitlabs.com/images/video/r420-2/rally_1024_candy.gif
anche queste cose non riesco a capire...
Ma dai The dark che cavolo significa optimization off?
Già i drivers sono beta.....ma che recensione è quella?
TheDarkAngel
05-05-2004, 21:32
Originariamente inviato da R@nda
Ma dai The dark che cavolo significa optimization off?
Già i drivers sono beta.....ma che recensione è quella?
xbitlabs..
per questo ho detto che nn capisco...
non mi è mai sembrato un sito poco professionale... mi è sempre parso imparziale ed equo...
Dark Schneider
05-05-2004, 21:32
Originariamente inviato da GURU
Volevo dire che R420 con i filtri va di più di NV40...tutto qui...
e che se uno sceglie Nvidia perkè vede che a 1024 senza filtri è la scheda più veloce...boh..allora probabilmente ha una concezione di scheda video che io non capisco
Beh cmq penso che chi compra NV40 non andrà di certo a settare 1024 senza filtri!! :D No perchè se ci sarà qlc che lo farà...non lo capirei nemmeno io.
Visto che la scheda lo permtte tranquillamente..si abilitano!! :)
Cmq più che altro la X800 XT risulta superiore nel D3D con i filtri diciamo dai 1280 in su.
E' anche vero però che nVidia ha bisogno di un po' di tempo per prendere confidenza con questa nuova architettura. Sono fiducioso che riesca a recuperare parte del gap a quelle risoluzioni. Magari non supera(l'Af ce l'ha meno veloce)...ma cmq recuperà un bel po'. Lo vedo probabile con un buon lavoro di sviluppo. :)
In Open GL cmq riesce a comportarsi meglio anche con i filtri...ovviamente merito dell'ottimo supporto che ha da sempre in ambito Open GL.
Dark Schneider
05-05-2004, 21:35
Originariamente inviato da TheDarkAngel
xbitlabs..
per questo ho detto che nn capisco...
non mi è mai sembrato un sito poco professionale... mi è sempre parso imparziale ed equo...
Praticamente è l'unica se non quasi dove non son stati utilizzati i più performanti 61.11 per le 6800.
Beyound 3d invece mi è parso che addirittura ha comparato le radeon nuove solo con le Radeon. :confused:
Io a proposito di quei test ho letto che nei driver 61.11 ci sono delle modfiche che attivano delle funzioni della scheda...che altrimenti non vanno...ne parlavano nel post r420.
Di più non so...
Però preferisco basarmi su HwUpgrade.....
E aspettare comunque un paio di relase di drivers(ufficiali)...se poi va ancora come visto lì....bhè,ciao ciao.
TheDarkAngel
05-05-2004, 21:37
Originariamente inviato da R@nda
Io a proposito di quei test ho letto che nei driver 61.11 ci sono delle modfiche che attivano delle funzioni della scheda...che altrimenti non vanno...ne parlavano nel post r420.
Di più non so...
Però preferisco basarmi su HwUpgrade.....
E aspettare comunque un paio di relase di drivers...se poi va ancora come visto lì....bhè,ciao ciao.
anche quella di hwup non è comunque affidabile...
il sottosistema usato è troppo scarso...
Originariamente inviato da TheDarkAngel
anche quella di hwup non è comunque affidabile...
il sottosistema usato è troppo scarso...
Vero...ma è quella che tira le somme meglio delle altre.
Hanno detto che rifaranno i test.
Nel frattempo per entrambe faranno drivers nuovi.
TheDarkAngel
05-05-2004, 21:40
Originariamente inviato da Dark Schneider
Praticamente è l'unica se non quasi dove non son stati utilizzati i più performanti 61.11 per le 6800.
Beyound 3d invece mi è parso che addirittura ha comparato le radeon nuove solo con le Radeon. :confused:
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2121.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2117.png
http://www.anandtech.com/video/showdoc.html?i=2044&p=9
continuo cmq a non capire...
Dark Schneider
05-05-2004, 21:41
Originariamente inviato da TheDarkAngel
anche quella di hwup non è comunque affidabile...
il sottosistema usato è troppo scarso...
A me sembra ben fatta quella del Corsini-Vifani!!
Vabbè che ci son CPU più potenti ma un P4 3 Ghz tanto lento non mi sembra!!:D
TheDarkAngel
05-05-2004, 21:43
Originariamente inviato da Dark Schneider
A me sembra ben fatta quella del Corsini-Vifani!!
Vabbè che ci son CPU più potenti ma un P4 3 Ghz tanto lento non mi sembra!!:D
i risultati da siti che usano sottosistemi scarsi (hw) a siti che usano sottosistemi come a64 3400+ cambiano completamente... come xbitlabs e anandtech...
vedere per credere...
per me restano comunque troppo discordanti i siti... la recensione di hw non ha portato chiarezza...
Dark Schneider
05-05-2004, 21:48
Originariamente inviato da TheDarkAngel
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2121.png
http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2117.png
http://www.anandtech.com/video/showdoc.html?i=2044&p=9
continuo cmq a non capire...
Non so se hai fatto caso che c'è un buon aumento di prestazioni con i 61.11 in FC rispetto a i 60.xx di X-Bit Labs.
Anche quest'altra è stata fatto con un sistema simile che confermano che già i 61.11 fanno avere un buon boost di prestazioni in più rispetto ai 60.xx di X-Bit Labs.
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page4.asp
Si perchè per te è normale che una 5950Ultra va come una 6800Ultra solo perchè è montata su un A64?:D
ma bho.
Di sicuro HWUpgrade ha in programma un nuovo round con procio a 64 AMD :)
TheDarkAngel
05-05-2004, 21:49
Originariamente inviato da R@nda
Si perchè per te è normale che una 5950Ultra va come una 6800Ultra solo perchè è montata su un A64?:D
ma bho.
infatti aspetto una spiegazione...
e non mi venite a dire che anand dice cazzate e solo hwup detiene la verità assoluta ;)
e non mi venite a dire che anand dice cazzate e solo hwup detiene la verità assoluta
Assolutamente....le recensioni le ho lette quasi tutte.
per questo preferisco aspettare un pò di tempo.
Dark Schneider
05-05-2004, 22:01
Originariamente inviato da TheDarkAngel
infatti aspetto una spiegazione...
e non mi venite a dire che anand dice cazzate e solo hwup detiene la verità assoluta ;)
Cmq sbagli!! Prova ad andare sulla sezione degli articoli che il Corsini sta rispondendo personalmente su questa questione e leggi quello che dice. Non si possono fare delle comparazioni in realtà...HwUpgrade ha fatto i test con diverse mappe.....Anandtech o anche X-Bit labs non dicono nulla riguardo le varie mappe....quindi non è che se vedi che c'è un test chessò su X-Bit va di più...e vedi che su HwUpgrade va meno...è perchè hanno usato sistema diversi.
La recensione del Corsini-Vifani è ben fatta e non falso.
Dark Schneider
05-05-2004, 22:04
Per questa questione vi rimando qua ;) Avete l'occasione di discuterne direttamente con Corsini e Vifani!!
http://forum.hwupgrade.it/showthread.php?s=&threadid=677995
TheDarkAngel
05-05-2004, 22:13
Originariamente inviato da Dark Schneider
Cmq sbagli!! Prova ad andare sulla sezione degli articoli che il Corsini sta rispondendo personalmente su questa questione e leggi quello che dice. Non si possono fare delle comparazioni in realtà...HwUpgrade ha fatto i test con diverse mappe.....Anandtech o anche X-Bit labs non dicono nulla riguardo le varie mappe....quindi non è che se vedi che c'è un test chessò su X-Bit va di più...e vedi che su HwUpgrade va meno...è perchè hanno usato sistema diversi.
La recensione del Corsini-Vifani è ben fatta e non falso.
io invece dissento...
oh ma muovere solo un pezzo di critica a hwupgrade nn è possibile?
invece no.. hanno sbagliato ad usare il p4 che ti piaccia o meno...
non solo ma anche il prendere in considerazione far cry in FP16 è sbagliato... non sussiste la stessa qualità... non ha senso nemmeno averli fatti
anche aver preso in considerazione alcuni giochi a dir poco vetusti a cui potevano sostituire painkiller che aveva per lo meno senso!
Dark Schneider
05-05-2004, 22:24
Originariamente inviato da TheDarkAngel
io invece dissento...
oh ma muovere solo un pezzo di critica a hwupgrade nn è possibile?
invece no.. hanno sbagliato ad usare il p4 che ti piaccia o meno...
non solo ma anche il prendere in considerazione far cry in FP16 è sbagliato... non sussiste la stessa qualità... non ha senso nemmeno averli fatti
anche aver preso in considerazione alcuni giochi a dir poco vetusti a cui potevano sostituire painkiller che aveva per lo meno senso!
Non è giusto nemmeno prendere FC in FP32 se per questo. Ma se queste sono le schede...così bisogna farli i test. Queste schede mica sono identiche fra di loro. Secondo me hanno fatto bene a fare test specifici. Per te no. Alla fine ognuno si fa la sua idea. Per me non hanno sbagliato.
Cmq certo che puoi muovere una critica personale, ed infatti per questo ho detto, qui è il topic giusto dove farlo:
http://forum.hwupgrade.it/showthread.php?s=&threadid=677995
Si ha la possibilità di parlarne direttamente con chi ha fatto la recensione. Io trovo bella questa interazione tra recensore-utente. :) Il mio è un consiglio a chi è interessato e vuol far sentire la propria voce. L'interazione recensore-utente è anche un modo per recepire...e magari le vostre critiche/consigli saranno ascoltati per i futuri articoli!! :)
TheDarkAngel
05-05-2004, 22:27
Originariamente inviato da Dark Schneider
Non è giusto nemmeno prendere FC in FP32 se per questo. Ma se queste sono le schede...così bisogna farli i test. Queste schede mica sono identiche fra di loro. Secondo me hanno fatto bene a fare test specifici. Per te no. Alla fine ognuno si fa la sua idea. Per me non hanno sbagliato.
Cmq certo che puoi muovere una critica personale, ed infatti per questo ho detto, qui è il topic giusto dove farlo:
http://forum.hwupgrade.it/showthread.php?s=&threadid=677995
Si ha la possibilità di parlarne direttamente con chi ha fatto la recensione. Io trovo bella questa interazione tra recensore-utente. :) Il mio è un consiglio a chi è interessato e vuol far sentire la propria voce. L'interazione recensore-utente è anche un modo per recepire...e magari le vostre critiche/consigli saranno ascoltati per i futuri articoli!! :)
i test sono validi se e solo se l'immagine renderizzata risulta UGUALE su tutte e due le schede video..
come puoi confrontare due cose che generano immagini diverse?
è illogico...
e visto che l'UNICO metodo per nvidia di generare un output uguale visivamente a quello di ati è usare fp32... il resto nn ha senso... non si tratta della stessa cosa...
Dark Schneider
05-05-2004, 22:40
Originariamente inviato da TheDarkAngel
i test sono validi se e solo se l'immagine renderizzata risulta UGUALE su tutte e due le schede video..
come puoi confrontare due cose che generano immagini diverse?
è illogico...
e visto che l'UNICO metodo per nvidia di generare un output uguale visivamente a quello di ati è usare fp32... il resto nn ha senso... non si tratta della stessa cosa...
Appunto queste son le schede..anche Fp32 contro Fp24 non è giusto ed illogico. Fp32 è qlsina meglio come qualità e più pesante naturalmente. Ma come non si può fare FP16 contro FP24 non si può nemmeno FP24 contro FP32. Quindi l'unica cosa è eliminare Far Cry come test. Ma visto che è una novità recente non penso che tutti i siti hardware lo tolgano...visto che è un titolo cmq di richiamo.
TheDarkAngel
05-05-2004, 22:46
Originariamente inviato da Dark Schneider
Appunto queste son le schede..anche Fp32 contro Fp24 non è giusto ed illogico. Fp32 è qlsina meglio come qualità e più pesante naturalmente. Ma come non si può fare FP16 contro FP24 non si può nemmeno FP24 contro FP32. Quindi l'unica cosa è eliminare Far Cry come test. Ma visto che è una novità recente non penso che tutti i siti hardware lo tolgano...visto che è un titolo cmq di richiamo.
no... forse abbiamo concetti di test diversi...
per testare è obbligatori fissare un punto...
ovvero bisogna settare le schede grafiche affinche renderizzino la medesima immagine...
ora se ati e nvidia usano strade differenti non vedo problema...
ati ha scelto una strada migliore... nvidia peggiore.. semplice...
ognuno deve farsi carico della proprio scelta progettuale...
quindi l'unico metodo per generare una medesima immagine è usare FP32...
A dire il vero non è nemmeno detto che la qualità scarsa sia dovuta all'Fp16....ma si continuano a dire le stesse cose.
FarCry poi è programmato per Nv30 e su Nv40 a quanto pare non usa nemmeno i Ps2.0.
l'unico modo per farlo andare in fp32 o fargli usare i Ps2.0 è forzarlo con il path r300.....come dire....fai finta di essere un altra scheda,non sfruttare la tua architettura.
Prima di tirare conclusioni aspettate....
Ho già detto,molto probabilmente Ati rimarra in vantaggio...ma almeno la situazione e le prestazioni/qualità saranno chiare no?
TheDarkAngel
05-05-2004, 22:53
Originariamente inviato da R@nda
A dire il vero non è nemmeno detto che la qualità scarsa sia dovuta all'Fp16....ma si continuano a dire le stesse cose.
FarCry poi è programmato per Nv30 e su Nv40 a quanto pare non usa nemmeno i Ps2.0.
l'unico modo per farlo andare in fp32 o fargli usare i Ps2.0 è forzarlo con il path r300.....come dire....fai finta di essere un altra scheda,non sfruttare la tua architettura.
Prima di tirare conclusioni aspettate....
Ho già detto,molto probabilmente Ati rimarra in vantaggio...ma almeno la situazione e le prestazioni/qualità saranno chiare no?
con se e con i ma non si arriva da nessuna parte..
ora come ora è così...
quindi l'unico modo per benchare con farcry è questo... che piaccia o meno...
se la situazione con la patch 1.2 cambierà ben venga... l'importante è che l'immagine finale sia uguale.. se no che senso ha testare due schede grafiche con due metri diversi?
Originariamente inviato da TheDarkAngel
con se e con i ma non si arriva da nessuna parte..
ora come ora è così...
quindi l'unico modo per benchare con farcry è questo... che piaccia o meno...
Ma non puoi giudicare una scheda basandoti su un bench farlocco.....allora non lamentarti nemmeno dei cheat in 3dmark03 seguendo il tuo ragionamento no?
TheDarkAngel
05-05-2004, 22:56
Originariamente inviato da R@nda
Ma non puoi giudicare una scheda basandoti su un bench farlocco.....allora non lamentarti nemmeno dei cheat in 3dmark03 seguendo il tuo ragionamento no?
bench farlocco?
è la massima espressione dei videogames... se non si usa questo..
che vuoi tornare al quake3?
ovvio che mi lamento..... i cheat e questo caso sono tutt'altra cosa...
è implicito il fatto che è sbagliato ottimizzare qualcosa partendo dal presupposto che sai quello che visualizzerà il bench ;)
Ma io che scrivo a fare....
TheDarkAngel
05-05-2004, 23:00
Originariamente inviato da R@nda
Ma io che scrivo a fare....
non hai di meglio da fare come me? :asd:
Il bello è che ce l'avrei pure:eek:
Adesso devo andare comunque.....
Dai The Dark.....tanto ti compreresti comunque l'Ati e Dark nvidia.
e io niente fino a fine anno.
Quindi:D
TheDarkAngel
05-05-2004, 23:04
Originariamente inviato da R@nda
Il bello è che ce l'avrei pure:eek:
Adesso devo andare comunque.....
Dai The Dark.....tanto ti compreresti comunque l'Ati e Dark nvidia.
e io niente fino a fine anno.
Quindi:D
due dark due destini diversi :D
cmq io compro ciò che va di più... non per niente annovero tra le mie schede grafiche anche una geffo2 ;) e una quasi mancata geffo4 che avrei preso se non mi fossero mancati i fondi improvvisamente causa arrostimento di cpu e mobo ^^
TheDarkAngel la tua critica riguardo il discorso FP16 o FP32 non ha alcun senso sai perché? Tutti i test che usano VS e PS 2.0 su schede NVIDIA usano quasi certamente FP16 (o al massimo FP32).
Ovviamente dove possibile (con i settaggi dei filtri ad esempio) si tende a fare in modo da comparare le schede a parità di condizione, ma riguardo gli shader non è possibile farlo. NVIDIA non può fare FP24 e ATI non può fare FP16 e FP32. Allora che facciamo?
In Far Cry abbiamo proposto entrambi i settaggi (e siamo stati uno dei pochi siti che l'ha fatto perché gli altri hanno usato solo FP16) proprio per dare il modo a voi lettori di giudicare la qualità (con gli screenshots) e le prestazioni (con i grafici).
Dark Schneider
05-05-2004, 23:20
Originariamente inviato da TheDarkAngel
no... forse abbiamo concetti di test diversi...
per testare è obbligatori fissare un punto...
ovvero bisogna settare le schede grafiche affinche renderizzino la medesima immagine...
ora se ati e nvidia usano strade differenti non vedo problema...
ati ha scelto una strada migliore... nvidia peggiore.. semplice...
ognuno deve farsi carico della proprio scelta progettuale...
quindi l'unico metodo per generare una medesima immagine è usare FP32...
Ognuno si fa un opinione sul quale ha fatto la scelta migliore. Di sicuro non si può dire chi ha fatto la scelta migliore. Noi invece possiamo farci delle opinioni. Perchè la si potrebbe mettere anche su un altro piano: con la 6800 nVidia ha voluto dare una scheda che cmq permette di giocare in fp32 che è qlsina meglio qualititivamente dell'fp24 anche se si va un po' meno con la modalità meno bella FP16 e "purtroppo" Ati non ha implementato anche l'fp32 e quindi non si può fare il confronto. Non è che quando Ati fa il passo dell'fp32 significa che è la scelta giusta. Non è che Ati introduce una cosa e quindi ha fatto bene. Introduce nVidia ha fatto male.
No...nVidia si vabbè ha messo sta cosa dell'FP16, secondo alcuni ragionamenti che cmq ci ha spiegato yoss. Magari non è il max come scelta. Ha però introdotto anche fp32 e ora come ora le prestazioni sono cmq buone. Per di più c'è molto lavoro da fare per lo sviluppo e la crescita di questa architettura che è nuova e che quindi richiede un po' di tempo per dare il meglio di sè come giustamente ricordato dal Corsini. :) Con il passare del tempo miglioreranno anche le prestazioni in fp32 anche se poi son un po' più pesanti di fp24 cmq...e qualitivamente leggermente meglio.
Che purtroppo non si può fare un vero confronto non ci si può far niente...mica da adesso i siti hardware possono non fare più articoli. Ma poco male...basta che siam soddisfatti degli acquisti che facciamo. :)
E' se ci pensi...la cosa migliore l'hanno fatta proprio il Corsini e Vifani: facendo test più specifici si possono avere informazioni più utili e quindi una persona può scegliere. :) Vogliamo giocare in fp16? Giochiamo in FP16. Vogliamo giocare in FP32? Giochiamo in FP32. Non ci piace questo approccio? Prendiamo R420. :)
TheDarkAngel
05-05-2004, 23:21
Originariamente inviato da Vifani
TheDarkAngel la tua critica riguardo il discorso FP16 o FP32 non ha alcun senso sai perché? Tutti i test che usano VS e PS 2.0 su schede NVIDIA usano quasi certamente FP16 (o al massimo FP32).
Ovviamente dove possibile (con i settaggi dei filtri ad esempio) si tende a fare in modo da comparare le schede a parità di condizione, ma riguardo gli shader non è possibile farlo. NVIDIA non può fare FP24 e ATI non può fare FP16 e FP32. Allora che facciamo?
In Far Cry abbiamo proposto entrambi i settaggi (e siamo stati uno dei pochi siti che l'ha fatto perché gli altri hanno usato solo FP16) proprio per dare il modo a voi lettori di giudicare la qualità (con gli screenshots) e le prestazioni (con i grafici).
no la mia critica ha perfettamente senso...
non ha senso confrontare due risultati diversi...
e se mi vieni a dire che la prima modalità di test di nvidia è uguale alla seconda scusa ma ti rido in faccia ;)
Originariamente inviato da R@nda
FarCry poi è programmato per Nv30 e su Nv40 a quanto pare non usa nemmeno i Ps2.0.
L'ho già scritto almeno 2 volte. A parte il fatto che la patch 1.1 aggiunge il supporto ufficiale a NV40 (leggi il readme). In ogni caso il log del motore grafico afferma che con NV40 sono attivi VS e PS 2.0. Per piacere smettiamola di dire il contrario perché è falso.
Tra l'altro, supponendo che NV40 usasse davvero i PS1.x invece dei PS2.0 FP16, visti i risultati prestazionali, sarebbe proprio un cattivo risultato per NVIDIA.
Originariamente inviato da TheDarkAngel
no la mia critica ha perfettamente senso...
non ha senso confrontare due risultati diversi...
e se mi vieni a dire che la prima modalità di test di nvidia è uguale alla seconda scusa ma ti rido in faccia ;)
Scusa fammi capire tu escluderesti Far Cry dai test perché con NV40 usa FP16 ? E' corretto ?
TheDarkAngel
05-05-2004, 23:24
Originariamente inviato da Vifani
Scusa fammi capire tu escluderesti Far Cry dai test perché con NV40 usa FP16 ? E' corretto ?
riportiamo quello che ho scritto poco più sopra...
"bench farlocco?
è la massima espressione dei videogames... se non si usa questo..
che vuoi tornare al quake3? "
non sono io che voglio eliminare farcry..... anzi... leggi meglio chi ha detto di volerlo eliminare...
Originariamente inviato da TheDarkAngel
riportiamo quello che ho scritto poco più sopra...
"bench farlocco?
è la massima espressione dei videogames... se non si usa questo..
che vuoi tornare al quake3? "
non sono io che voglio eliminare farcry..... anzi... leggi meglio chi ha detto di volerlo eliminare...
Ok allora secondo te avremmo dovuto pubblicare solo i risultati FP32, senza pubblicare quelli FP16, giusto ?
TheDarkAngel
05-05-2004, 23:28
Originariamente inviato da Vifani
Ok allora secondo te avremmo dovuto pubblicare solo i risultati FP32, senza pubblicare quelli FP16, giusto ?
questo è giusto...
come mi pare sia stato fatto dalla maggioranza degli altri recensori ;)
Dark Schneider
05-05-2004, 23:30
Originariamente inviato da TheDarkAngel
riportiamo quello che ho scritto poco più sopra...
"bench farlocco?
è la massima espressione dei videogames... se non si usa questo..
che vuoi tornare al quake3? "
non sono io che voglio eliminare farcry..... anzi... leggi meglio chi ha detto di volerlo eliminare...
Io ho detto "Quindi l'unica cosa è eliminare Far Cry come test."
C'è però un piccolo particolare: ho detto questa frase seguendo il tuo ragionamento. In questo senso.;) Io non ho detto che voglio realmente eliminare FC come test. Però secondo il tuo ragionamento l'unico modo è fare ciò perchè sennò se si continua ad usare FC...è tutto falso.
E' penso che Raffaele ha capito che intendevo questo. ;)
TheDarkAngel
05-05-2004, 23:31
Originariamente inviato da Dark Schneider
Io ho detto "Quindi l'unica cosa è eliminare Far Cry come test."
C'è però un piccolo particolare: ho detto questa frase seguendo il tuo ragionamento. In questo senso.;) Io non ho detto che voglio realmente eliminare FC come test. Però secondo il tuo ragionamento l'unico modo è fare ciò perchè sennò se si continua ad usare FC...è tutto falso.
E' penso che Raffaele ha capito che intendevo questo. ;)
io mi riferivo comunque alla frase che ho quotato nel mio post
"Ma non puoi giudicare una scheda basandoti su un bench farlocco....."
scritta da randa....
il mio ragionamento portava soltano a eliminare il bench in fp16....
non mi pare di essere stato molto contorto :confused: ....
Dark Schneider
05-05-2004, 23:33
Originariamente inviato da TheDarkAngel
questo è giusto...
come mi pare sia stato fatto dalla maggioranza degli altri recensori ;)
Non è giusto nemmeno così.
Che la differenza tra fp24 e fp32 è minore visivamente rispetto a fp24 e fp16 è vero...ma c'è. Ed fp32 è più pesante di fp24.
Non puoi confrontare fp24 e fp32.
Quindi la cosa migliore mostrare tutte le modalità. :)
TheDarkAngel
05-05-2004, 23:35
Originariamente inviato da Dark Schneider
Non è giusto nemmeno così.
Che la differenza tra fp24 e fp32 è minore visivamente rispetto a fp24 e fp16 è vero...ma c'è. Ed fp32 è più pesante di fp32.
Non puoi confrontare fp24 e fp32.
Quindi la cosa migliore mostrare tutte le modalità. :)
allora...
la differenza visiva tra fp24 e fp32 non c'e'...
trovamela se ci riesci :)
se fp32 è più pesante è colpa di nvidia che non ha implementato fp24... mancanza di nvidia... non bench sbagliato... l'immagine alla fine deve risultare uguale se no non ha senso paragonare due cose diverse (e non di poco oltretutto...) (sarà la decima volta che lo scrivo vabbeh...)
Originariamente inviato da TheDarkAngel
questo è giusto...
come mi pare sia stato fatto dalla maggioranza degli altri recensori ;)
Non penso proprio. Gli altri recensori hanno usato tutti le impostazioni di default, cioè gli FP16. Nessuno ha mai specificato nulla riguardo gli FP32 e trattandosi di una forzatura che si abilita nel gioco, se lo avessero fatto lo avrebbero scritto.
Ti ricordo che la maggioranza della gente che compra un PC o una scheda video non si mette a giocherellare che le impostazioni di ogni gioco (sopratutto se queste sono nascoste nella console come per Far Cry). E' giusto che si sappia come va una scheda video su un gioco senza forzare nulla.
Originariamente inviato da Vifani
Ti ricordo che la maggioranza della gente che compra un PC o una scheda video non si mette a giocherellare che le impostazioni di ogni gioco (sopratutto se queste sono nascoste nella console come per Far Cry). E' giusto che si sappia come va una scheda video su un gioco senza forzare nulla.
Parole sante...:)
Legolas84
05-05-2004, 23:43
Sono daccordo con Vifani... meglio metterle tutte le modalità....
non vedo che ci sia di male....
Dark Schneider
05-05-2004, 23:44
Allora secondo te perchè Ati il suo fp24 non l'ha chiamato fp32 se è uguale?
Ripeto la differenza è leggera...se vuoi leggerissima...ma se son 2 precisioni diverse significa anche qlc.
nVidia non ha colpa proprio: non ha voluto implementare l'fp24 ma l'fp32. Prestazionalmente si va un po' meno e come qualità leggermente meglio. Ha fatto una semplice scelta. Che poi per te è sbagliata...sei liberissimo di pensarlo. :)
Ma se bisogna seguire il tuo ragionamento di confronto allora nemmeno fp24 vs fp32 è proprio corretto.
Ripeto, Raffaele ed il Corsini hanno fatto bene a mostrare tutte le modalità: all'utente la scelta. :)
TheDarkAngel
05-05-2004, 23:46
Originariamente inviato da Vifani
Non penso proprio. Gli altri recensori hanno usato tutti le impostazioni di default, cioè gli FP16. Nessuno ha mai specificato nulla riguardo gli FP32 e trattandosi di una forzatura che si abilita nel gioco, se lo avessero fatto lo avrebbero scritto.
Ti ricordo che la maggioranza della gente che compra un PC o una scheda video non si mette a giocherellare che le impostazioni di ogni gioco (sopratutto se queste sono nascoste nella console come per Far Cry). E' giusto che si sappia come va una scheda video su un gioco senza forzare nulla.
e altrettanto giusto sarebbe stato specificare meglio la cosa e nei grafici separare i bench con fp16 dagli altri...
perchè dopo che ho letto i commenti alla recensione ho capito che ben pochi hanno capito che cambiava in fp16...
se fosse come dici te perchè nelle altre recensioni i vari bench di far cry sono completamente diverse? ok avranno usato altre mappe ma dai vostri risultati sembra quasi che ati non renda bene quanto nvidia cosa che viene smentita dalla maggioranza delle altre recensioni...
TheDarkAngel
05-05-2004, 23:47
Originariamente inviato da Dark Schneider
Allora secondo te perchè Ati il suo fp24 non l'ha chiamato fp32 se è uguale?
Ripeto la differenza è leggera...se vuoi leggerissima...ma se son 2 precisioni diverse significa anche qlc.
nVidia non ha colpa proprio: non ha voluto implementare l'fp24 ma l'fp32. Prestazionalmente si va un po' meno e come qualità leggermente meglio. Ha fatto una semplice scelta. Che poi per te è sbagliata...sei liberissimo di pensarlo. :)
Ma se bisogna seguire il tuo ragionamento di confronto allora nemmeno fp24 vs fp32 è proprio corretto.
Ripeto, Raffaele ed il Corsini hanno fatto bene a mostrare tutte le modalità: all'utente la scelta. :)
il mio ragionamento si basa solamente su come viene riprodotta l'immagine...
e ti sfido a trovare anche queste leggerissime differenze...
(purtroppo ora vado a dormire e quindi tornerò a leggere la discussione domani pomeriggio)
notte a tutti ;)
altro punto a favore dell'architettura nv40 :
Un pezzo tratto dalla rece di X800Pro fatta su 3dcenter.org (la mia è una libera traduzione):
quote:
--------------------------------------------------------------------------------
Sebbene NV40 sembra sia più difficile da ottimizzare (qui probabilmente si riferiscono alla difficoltà di salire di frequenze), la GPU può fare tante cose che R420 può solo 'emulare'. Si consideri il cosiddetto HDR. R420 deve prelevare almeno 4 FP texture samples, filtrarli nei pixel shader e renderizzarli in una texture FP. NV40 ha una circuiteria dedicata per il filtering FP fino a 16x AF (effettuato dalla TMU, liberando le unità pixel shader che possono così fare altri calcoli) e può renderizzare su un frame buffer FP (diciamo che in quest'ultimo caso però, viene pregiudicata la possibilità di applicare multisampling AA).
Il "back-end" dell'HDR/MDR, ovvero il tone mapping, può essere fatto direttamente nella RAMDAC-Logic dell'NV40, mentre R420 deve utilizzare sempre i suoi pixel shader. NV40 offre un parziale supporto hardware all'OpenEXR (standard sviluppato da Industrial Light & Magic per il formato delle immagini con effetti di High Dynamic Range). I veri effetti cinematografici si basano su tali tecnologie. Anche R420 può renderizzare tali effetti, ma la sua architettura non è molto congeniale per essi.
Dark Schneider
06-05-2004, 00:04
Originariamente inviato da TheDarkAngel
il mio ragionamento si basa solamente su come viene riprodotta l'immagine...
e ti sfido a trovare anche queste leggerissime differenze...
(purtroppo ora vado a dormire e quindi tornerò a leggere la discussione domani pomeriggio)
notte a tutti ;)
Ma io infatti ho detto delle determinate cose prima: che non possiamo dire "nVidia ha sbagliato" o "ci ha azzeccato" o "ha sbagliato ati"...emettere sentenze s'intende. Noi possiamo farci semplicemente delle nostre opinioni e mi sembra chiaro che tu prediligi più la scelta ati che è quasi di uguale qualità e prestazioni nel mezzo. Quindi miglior compromesso. :)
Io tra l'altro ho detto che in effetti l'fp16 non è stato il max come scelta. L'aver puntato sull'fp32 cmq non lo ritengo un errore. Ha semplicemente voluto puntare sull'fp32. Che poi si riveli più pesante è vero. Ma a me non importa. Alla fine ho visto che cmq le prestazioni son buone con un titolo come FC e col tempo possono migliorare. Prestazionalmente sarà sempre un po' meno veloce dell'fp24? A me personalmente non importa. Tanto alla fine..i grafici li guardo fino ad un certo punto...non m'interessa se magari l'altro fa lo sborone col suo fp24. Tanto una bella scheda me la godo lo stesso anchio. :)
Lord style
06-05-2004, 00:10
Originariamente inviato da Vifani
Non penso proprio. Gli altri recensori hanno usato tutti le impostazioni di default, cioè gli FP16. Nessuno ha mai specificato nulla riguardo gli FP32 e trattandosi di una forzatura che si abilita nel gioco, se lo avessero fatto lo avrebbero scritto.
Ti ricordo che la maggioranza della gente che compra un PC o una scheda video non si mette a giocherellare che le impostazioni di ogni gioco (sopratutto se queste sono nascoste nella console come per Far Cry). E' giusto che si sappia come va una scheda video su un gioco senza forzare nulla.
Vifani, nella recensione avete fatto la migliore scelta: pubblicare i risultati sia dell'FP16 che dell'FP32.
Solo in questo modo si possono avere le idee chiare sul decremento delle prestazioni rispetto al path default. Questa scelta ha fatto veramente la differenza rispetto alle altre recensioni. ;)
Cambiamo discorso.
Questo è il file log di una FX5900xt con FC1.1 e full detail
Driver description: NVIDIA GeForce FX 5900XT
Full stats: HAL (pure hw vp): NVIDIA GeForce FX 5900XT
Hardware acceleration: Yes
Full scene AA: Disabled
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 4096x4096 (Max Aspect: 4096)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for NV3x GPUs
Pixel shaders usage: PS.2.0 and PS.1.1
Vertex shaders usage: VS.2.0 and VS.1.1
Shadow maps type: Depth maps
Stencil shadows type: Two sided
Nella renderizzazione viene usato, a seconda delle circostanze, entrambe le generazioni: Shader1Generation e Shader2Generation. Anche per le ATi il file log è uguale nella parte evidenziata.
Quindi in nessun caso si utilizza ESCLUSIVAMENTE una renderizzazione ONLY Shader 2nd Generation.
Detto questo, francamente, non posso escludere che l'ipotesi di shader2 convertiti in shader1 sia errata quando è attiva la path di default su nVidia.
Se però i programmatori Crytek ti hanno confermato ed assicurato che l'unica differenza di renderizzazione con path nVidia rispetto allo standard è l'elaborazione in FP16, be allora c'è da penderne atto.
Però lo devono dire chiaro e tondo i programmatori Crytek, altrimenti l'ipotesi sollevata da Fek dell'uso di Shader1 non può essere scartata.
Ciao e dinuovo complimenti per il lavoro fatto e che state tuttora facendo con dedizione. ;)
Originariamente inviato da Dark Schneider
Allora secondo te perchè Ati il suo fp24 non l'ha chiamato fp32 se è uguale?
Finché gli shader sono corti e pochi non puoi notare alcuna differenza semplicemente perché non c'è.
Quando sullo stesso pixel verranno eseguite MOLTE operazioni allora il fp32 avrà senso perchè il fp24 genererà artefatti e color banding.
Originariamente inviato da Lord style
Vifani, nella recensione avete fatto la migliore scelta: pubblicare i risultati sia dell'FP16 che dell'FP32.
Solo in questo modo si possono avere le idee chiare sul decremento delle prestazioni rispetto al path default. Questa scelta ha fatto veramente la differenza rispetto alle altre recensioni. ;)
Cambiamo discorso.
Questo è il file log di una FX5900xt con FC1.1 e full detail
Driver description: NVIDIA GeForce FX 5900XT
Full stats: HAL (pure hw vp): NVIDIA GeForce FX 5900XT
Hardware acceleration: Yes
Full scene AA: Disabled
Projective EMBM: enabled
Detail textures: Yes
Z Buffer Locking: Yes
Use multitexture mode: Yes (8 texture(s))
Use bumpmapping : Yes (DOT3)
Use paletted textures : No
Current Resolution: 1024x768x32 Full Screen
Maximum Resolution: 1280x1024
Maximum Texture size: 4096x4096 (Max Aspect: 4096)
Texture filtering type: TRILINEAR
Use 32 bits textures
Gamma control: Hardware
Vertex Shaders version 2.0
Pixel Shaders version 2.0
Use Hardware Shaders for NV3x GPUs
Pixel shaders usage: PS.2.0 and PS.1.1
Vertex shaders usage: VS.2.0 and VS.1.1
Shadow maps type: Depth maps
Stencil shadows type: Two sided
Nella renderizzazione viene usato, a seconda delle circostanze, entrambe le generazioni: Shader1Generation e Shader2Generation. Anche per le ATi il file log è uguale nella parte evidenziata.
Quindi in nessun caso si utilizza ESCLUSIVAMENTE una renderizzazione ONLY Shader 2nd Generation.
Detto questo, francamente, non posso escludere che l'ipotesi di shader2 convertiti in shader1 sia errata quando è attiva la path di default su nVidia.
Se però i programmatori Crytek ti hanno confermato ed assicurato che l'unica differenza di renderizzazione con path nVidia rispetto allo standard è l'elaborazione in FP16, be allora c'è da penderne atto.
Però lo devono dire chiaro e tondo i programmatori Crytek, altrimenti l'ipotesi sollevata da Fek dell'uso di Shader1 non può essere scartata.
Ciao e dinuovo complimenti per il lavoro fatto e che state tuttora facendo con dedizione. ;)
Garantisco quanto detto dalla Crytek. Un'ultima cosa. Provate ad attivare solo gli PS1.x e vedete quale è la qualità con questa versione.
andreamarra
06-05-2004, 09:14
Daccordo anch'io nell'utilizzare grafici a fp16 e a 32fp.
L'utente finale capirà infine se la resa qualitativa/velocistica è la migliore o meno.
In goni caso il punto "oscuro" della NV40 è proprio l'utilizzo del fp16/32. Vorrei sapere da chi più esperto cosa comporta questo nei game di prossima generazione, perchè ora come ora non saprei cosa scegliere tra le schede offerte (sempre che me lo possa permettere... :D )
Originariamente inviato da Vifani
L'ho già scritto almeno 2 volte. A parte il fatto che la patch 1.1 aggiunge il supporto ufficiale a NV40 (leggi il readme). In ogni caso il log del motore grafico afferma che con NV40 sono attivi VS e PS 2.0. Per piacere smettiamola di dire il contrario perché è falso.
Tra l'altro, supponendo che NV40 usasse davvero i PS1.x invece dei PS2.0 FP16, visti i risultati prestazionali, sarebbe proprio un cattivo risultato per NVIDIA.
La smetterò quando verrà provato per certo che il color banding
è dovuto o no alla Fp16....e quando sarà certo che in quegli shot
senza rimestare negli exe e nella console o con il 3danalyze verranno utilizzati i Ps2.0 e non come ipotizzato gli 1.x
Fino ad allora si possono spendere quante parole volete....
se nn sbaglio nella recensione di corsini si è detto che P.S 3 garantiscono effetti pari ai 2.0+ però permettono prestazioni velocistiche maggiori. Perciò sperate che gli sviluppatori si diano una svegliata e li implementino, in modo che potrete giocare ad fp32 con prestazioni maggiori.
cmq penso che se nvidia sporsa qualche dindo i sui PS3 verranno supportati ;) e penso che lo farà!!!
andreamarra
06-05-2004, 12:49
Originariamente inviato da Ren
se nn sbaglio nella recensione di corsini si è detto che P.S 3 garantiscono effetti pari ai 2.0+ però permettono prestazioni velocistiche maggiori. Perciò sperate che gli sviluppatori si diano una svegliata e li implementino, in modo che potrete giocare ad fp32 con prestazioni maggiori.
Io non vorrei dire una cazzata, ma dovendo necessariamente utilizzare il fp32 per i 3.0 e 2.0 se i programmatori non implemetano perfettamente entro breve i ps 3.0 (e non ci spero) la NV40 potrebbe subire un duro colpo a livello di prestazioni negli 2.0b fp32 in diversi giochi, a differenza di R420 con fp24+ps2.0b.
E poi quando davvero usciranno giochi che implemeteranno i ps 3.0 potrebbero essere poco potenti le scehde in questione per far girare correttamente un gioco...
Secondo voi un panorama così è ipotizzabile oppure no :confused:??
severance
06-05-2004, 12:58
quoto andreamarra, ogni scheda che propone innovazioni queste non sono mai fruibili da questa generazione ma da quella seguente;)
se si vuole giocare i giochi di ora e si hanno i soldi allora si prenda una x800xt, se si vuole giocae i giochi coi shader 3 si aspetti la prox gen di schede secondo me.
resta un fatto che ora come ora pero avendo un budget sui 399€ cambierei la mia 9800 pro solo con una 6800gt:D .
ah ecco un riassunto per voi
http://www.nvnews.net/images/news/200405/comparison.png
Jedi_Master
06-05-2004, 13:01
Originariamente inviato da andreamarra
Io non vorrei dire una cazzata, ma dovendo necessariamente utilizzare il fp32 per i 3.0 e 2.0...
Che sia obbligatoria la fp32 per i ps 3.0 non lo so'.......
Fek?? ci seiiiiiiiii?? sei connessooooooooo??
:D
E poi quando davvero usciranno giochi che implemeteranno i ps 3.0 potrebbero essere poco potenti le scehde in questione per far girare correttamente un gioco...
No su questo dovrebbe essere il contrario i
ps 3.0 dovrebbero dare un piccolo vantaggio
prestazionale a pari qualita' di un 2.0
sono vs 3.0 e la fp 32 che rallentano il tutto.
nn dovrebbero esserci delle ottimizzazioni d nvidia utilizzando il nuovo nforce3 250Gb ke voi sappiate??? avevo letto qualkosa un pò d tempo fà, cmq vedo d rimettermi alla ricerca,,,
:)
andreamarra
06-05-2004, 13:26
Originariamente inviato da Jedi_Master
Che sia obbligatoria la fp32 per i ps 3.0 non lo so'.......
Fek?? ci seiiiiiiiii?? sei connessooooooooo??
:D
No su questo dovrebbe essere il contrario i
ps 3.0 dovrebbero dare un piccolo vantaggio
prestazionale a pari qualita' di un 2.0
sono vs 3.0 e la fp 32 che rallentano il tutto.
Sul fatto che la fp32 sia necessaria è una dato di fatto :)
La cosa che michiedevo era: il vantaggio dell'avere degli shader più veloci con i 3.0 non sarà controbilanciata dalla fp32?
Si può arrivare al paradosso (e neanche tanto) che ps3.0+fp24 di ati vada meglio con i prossimi giochi? Almeno fino a quando non coi saranno titoli full 3.0 e gli sviluppatori saèranno usare bene i vari branchyng ecc.ecc. (cioè tra almeno due anni :confused: ??? )
andreamarra
06-05-2004, 13:28
Originariamente inviato da severance
quoto andreamarra, ogni scheda che propone innovazioni queste non sono mai fruibili da questa generazione ma da quella seguente;)
se si vuole giocare i giochi di ora e si hanno i soldi allora si prenda una x800xt, se si vuole giocae i giochi coi shader 3 si aspetti la prox gen di schede secondo me.
resta un fatto che ora come ora pero avendo un budget sui 399€ cambierei la mia 9800 pro solo con una 6800gt:D .
ah ecco un riassunto per voi
http://www.nvnews.net/images/news/200405/comparison.png
:D Magari poi mi sbaglio e le schede andranno bene anche per due-tre anni :D
sulla tabella
Sarà, (tralasciando il fatto che nei giochi più recenti c'è un vantaggio ati, e poi consideriamo che l'AA è stato messo max a 4x, e l'ANISO?) ma il fatto che gli unici giochi che sfruttano gli shader in modo intensivo (TRAOD, CMR4 e soprattutto FAR CRY) sono sotto controllo R420 -e di brutto- a me non farebbe dormire sogni così tranquilli...
andreamarra
06-05-2004, 13:38
Originariamente inviato da emax81
nn dovrebbero esserci delle ottimizzazioni d nvidia utilizzando il nuovo nforce3 250Gb ke voi sappiate??? avevo letto qualkosa un pò d tempo fà, cmq vedo d rimettermi alla ricerca,,,
:)
Mi sembra di aver letto di si, ovviamente c'è da valutare in quanto consistono questi presunti vantaggi.
Lo ripeto, quando escono tecnologie nuove è sempre meglio andare con i piedi di piombo...
Jedi_Master
06-05-2004, 13:47
Originariamente inviato da andreamarra
Sul fatto che la fp32 sia necessaria è una dato di fatto :)
Ciao andrea.
Ne sei certo??
Non era per i vertex??
Queste sono foto prese con una 5950 in tutte le modalità il color banding non c'è,quindi non è un problema di FP16.
E' FarCry che ha qualcosa che non quadra....altrimenti il degrado c'era anche in Halo.
http://www.nvnews.net/reviews/gainward_fx_5950_golden_sample/images/halo_panel2.png
http://www.nvnews.net/reviews/gainward_fx_5950_golden_sample/images/halo_panel.png
Se non ne soffre la 5950 in Fp16 non vedo perchè dovrebbe l'NV40:)
ronaldovieri
06-05-2004, 14:12
Che dite quando sarà in vendita faccio bene a prenderla cambiando la mia geforce4 ti4600?
Originariamente inviato da R@nda
Queste sono foto prese con una 5950 in tutte le modalità il color banding non c'è,quindi non è un problema di FP16.
E' FarCry che ha qualcosa che non quadra....altrimenti il degrado c'era anche in Halo.
Se non ne soffre la 5950 in Fp16 non vedo perchè dovrebbe l'NV40:)
Il banding c'è ed è presente anche su NV38. Nella recensione ci sono anche gli screenshots di NV38 e anche le prestazioni di NV38 in FP16 e FP32.
In halo?
Quelle sono foto di Halo in tutte le modalità di rendering.....non c'è colorbanding.
E se non ce l'ha Halo penso che sia FarCry ad avere qualche problema e non le schede video in oggetto.
andreamarra
06-05-2004, 14:42
Originariamente inviato da Vifani
Il banding c'è ed è presente anche su NV38. Nella recensione ci sono anche gli screenshots di NV38 e anche le prestazioni di NV38 in FP16 e FP32.
Nv38, e il NV40 :confused: ??
sto cominciando a non capire più nulla :p
andreamarra
06-05-2004, 14:43
Originariamente inviato da R@nda
In halo?
Quelle sono foto di Halo in tutte le modalità di rendering.....non c'è colorbanding.
E se non ce l'ha Halo penso che sia FarCry ad avere qualche problema e non le schede video in oggetto.
halo è DX9 per caso? E Far Cry? Potebbe essere questo il problema?
andreamarra
06-05-2004, 14:45
Originariamente inviato da ronaldovieri
Che dite quando sarà in vendita faccio bene a prenderla cambiando la mia geforce4 ti4600?
Che te la prendi a fare quando sarà in vendita? Ti scippano la testa e non si è sicuri sulle prestazioni a lungo termine, io aspetterei dopo l'estate :D
Tanto se hai tirato con questa scheda per tanto tempo, ancora non sono usciti giochi che rendono vitale l'acquisto di NV40 e di R420, Far Cry a parte...
Originariamente inviato da andreamarra
halo è DX9 per caso? E Far Cry? Potebbe essere questo il problema?
I Ps2.0 sono Dx9 Fp32 (in Halo) e Fp16 nelle altre modalità 1.1 e 1.4 Dx8/8.1
Ma non è questo il punto....in Halo qualsiasi modalità imposti il colorbanding non c'è.
R@nda per cortesia metti il link invece dell'iimagine, che e' un po' pesante da caricare.
Originariamente inviato da ballero
R@nda per cortesia metti il link invece dell'iimagine, che e' un po' pesante da caricare.
Io ci metterei anche i link...ma poi non le guarda nessuno.
Quando qui qualcuno ha ipotizzato che il problema della qualità degli shader in FarCry era più un problema di scrittura degli stessi che non di Fp16 la cosa è passata del tutto inosservata.....
andreamarra
06-05-2004, 14:58
Originariamente inviato da R@nda
I Ps2.0 sono Dx9 Fp32 (in Halo) e Fp16 nelle altre modalità 1.1 e 1.4 Dx8/8.1
Ma non è questo il punto....in Halo qualsiasi modalità imposti il colorbanding non c'è.
Mistero... :confused:
Motivo in più per aspettare altri test e revision di driver e altro... :Perfido:
Originariamente inviato da R@nda
I Ps2.0 sono Dx9 Fp32 (in Halo) e Fp16 nelle altre modalità 1.1 e 1.4 Dx8/8.1
Ma non è questo il punto....in Halo qualsiasi modalità imposti il colorbanding non c'è.
Non é che magari halo ha calcoli più corti e quindi meno necessità di precisione più alta?
Originariamente inviato da dwfgerw
altro punto a favore dell'architettura nv40 :
Un pezzo tratto dalla rece di X800Pro fatta su 3dcenter.org (la mia è una libera traduzione):
quote:
--------------------------------------------------------------------------------
Sebbene NV40 sembra sia più difficile da ottimizzare (qui probabilmente si riferiscono alla difficoltà di salire di frequenze), la GPU può fare tante cose che R420 può solo 'emulare'. Si consideri il cosiddetto HDR. R420 deve prelevare almeno 4 FP texture samples, filtrarli nei pixel shader e renderizzarli in una texture FP. NV40 ha una circuiteria dedicata per il filtering FP fino a 16x AF (effettuato dalla TMU, liberando le unità pixel shader che possono così fare altri calcoli) e può renderizzare su un frame buffer FP (diciamo che in quest'ultimo caso però, viene pregiudicata la possibilità di applicare multisampling AA).
Il "back-end" dell'HDR/MDR, ovvero il tone mapping, può essere fatto direttamente nella RAMDAC-Logic dell'NV40, mentre R420 deve utilizzare sempre i suoi pixel shader. NV40 offre un parziale supporto hardware all'OpenEXR (standard sviluppato da Industrial Light & Magic per il formato delle immagini con effetti di High Dynamic Range). I veri effetti cinematografici si basano su tali tecnologie. Anche R420 può renderizzare tali effetti, ma la sua architettura non è molto congeniale per essi.
Beh, lo emula alquanto bene però:
http://mark0.ngi.it/var/x800-vs-nv40.jpg
La precisione è sempre FP16 comunque,se la qualità dipendeva da questo il difetto rimaneva.
Jedi_Master
06-05-2004, 15:05
Originariamente inviato da R@nda
Quando qui qualcuno ha ipotizzato che il problema della qualità degli shader in FarCry era più un problema di scrittura degli stessi che non di Fp16 la cosa è passata del tutto inosservata.....
A vederli, sia come girano che come bellezza di immagine
tra i due se devo dire che uno e' programmato col :ciapet:
Io voto Halo!
:)
Originariamente inviato da Jedi_Master
A vederli, sia come girano che come bellezza di immagine
tra i due se devo dire che uno e' programmato col :ciapet:
Io voto Halo!
:)
Anche io;)
Ma a me interessava avere conferma di ciò che mi è stato detto qui a proposito della qualità in FP16....e se il colorbanding poteva dipenedere da questo....mi è stato detto di no.
Oggi ho visto la conferma.
(tutto questo da solo appassionato e profano)
No, la precisione influisce sulla qualità solo quando ti perdi per strada dei dati a causa di arrotondamenti.
In soldoni avere fp16 vuol dire avere come cifre significative in un calcolo un numero inferiore di cifre di fp32.
Ti fo un esempio stupido (nonché banale) e spero di aver capito come funziona da yossarian:
prendiamo il calcolo di 3/2*5 (che come risultato dà 7,5)
Senza possibilità di usare cifre in fp,
3/2= 1 (puoi usare solo interi) *5 = 5. Bene, hai un errore di 2,5 (e sono solo due operazioni).
Se hai la possibilità di usare una cifra in piu come significativa, 3/2 = 1,5*5= 7,5.
Quindi se non devi fare calcoli che portano con se cifre lunghe e se non hai molte istruzioni su cui far conto per le successive, una precisione bassa non crea problemi. Se invece devi calcolare funzioni piu complesse (e lunghe) hai bisogno di una precisione minore
E' stato proprio lui a dirmi che il color banding in FarCry non dipende dalla Fp16 ma da come sono stati scritti gli shader.
Tra l'altro proprio in queso thread....io mi ero posto la stessa domanda e mi è stato risposto,cerca tra le pagine (auguri:D )
e troverai cosa si era detto.
scusate mi è sembrato di capire dalla recensione che tutti gli effetti PS3 possono essere eseguiti anke in PS2.
Perciò quando i PS2 saranno maturi, matematicamente anke i PS3 lo saranno, ma con la variante che offriranno l'fp32 e una velocità maggiore.
Correggetemi se ho detto una castroneria............
Jedi_Master
06-05-2004, 15:23
Quasi certamente la complessita' degli shader
di Far Cry e' maggiore di Halo (e si vede direi).
Potrebbe essere questo a fare la differenza.
Comunque bravo R@nda!
;)
Originariamente inviato da Jedi_Master
Quasi certamente la complessita' degli shader
di Far Cry e' maggiore di Halo (e si vede direi).
Potrebbe essere questo a fare la differenza.
Comunque bravo R@nda!
;)
Guarda per me questa è una faccenda molto importante.
Perchè se è vero che in FP16 c'è il decadimento di qualità che si vede in FarCry (ma non in Halo) la scheda non merita l'acquisto.
Ecco perchè vorrei chiarezza.
Vabbé, in ogni caso non é di difficile risoluzione con una 6800, sembra basti rinominare farcry in fartcry...
hanno gia trovato il bug: i driver non digerivano bene il nome
andreamarra
06-05-2004, 15:41
Originariamente inviato da Ren
scusate mi è sembrato di capire dalla recensione che tutti gli effetti PS3 possono essere eseguiti anke in PS2.
Perciò quando i PS2 saranno maturi, matematicamente anke i PS3 lo saranno, ma con la variante che offriranno l'fp32 e una velocità maggiore.
Correggetemi se ho detto una castroneria............
Gli shader 2.0 differiscono dagli shader2.0b che differiscono dai 3.0
La differenza tra i tre (perchè sono tre...) consiste nella velocità di esecuzione. Ma non vuol dire che puoi creare ps3.0 come ti pare, in quanto devono avere una lunghezze di istruzioni decisamente maggiore rispetto alle versioni 2.0 e 2.0b
Quindi anche quando usciranno giochi in ps3.0 i giochi saranno sfruttabili anche con i ps2.0b della R420. La versione "b" è una via di mezzo tra i ps2.0 e i 3.0, come un modo per entrare nei ps3.0 in modo meno invasivo e più prudente.
Bisognerà considerare quindi con che velocità di render avverrà questo, e se quindi (l'ho scritto un miliardo di volte nel forum... :eek: :D ) sappiamo che i fp32 sono obbligatori per gli shader 3.0 avremo
per NV40 fp32+ps3.0+la potenza di render della scheda
per R420 fp24+ps2.0b+ la potenza di render della scheda
La domanda è: sarà più veloce la prima o la seconda?
:confused:
andreamarra
06-05-2004, 15:52
Originariamente inviato da street
Beh, lo emula alquanto bene però:
http://mark0.ngi.it/var/x800-vs-nv40.jpg
:asd:
Io aspetto un abella rece più in la anche con questi test, voglio essere sicuri siano veritieri... ;)
sanitarium
06-05-2004, 16:30
Originariamente inviato da R@nda
Guarda per me questa è una faccenda molto importante.
Perchè se è vero che in FP16 c'è il decadimento di qualità che si vede in FarCry (ma non in Halo) la scheda non merita l'acquisto.
Ecco perchè vorrei chiarezza.
Come per il momento non si vede differenza fra precisione FP24 e FP32, allo stesso modo per gli shader di Halo una precisione FP16 a quanto pare è sufficiente a garantire una qualità grafica alla pari di quella generata da una precisione FP24, senza effetti di banding. Quando invece si considerano gli shader di Far cry, che dovrebbero essere più complessi come diceva Jedi_Master, allora la differenza fra FP24 e FP16 in alcuni casi diventa lampante.
Molto più in là, quando ci saranno giochi che sfrutteranno shader ben più complessi di quelli che siamo abituati a vedere oggi, allora ci sarà differenza anche fra FP24 e FP32, cosa che per il momento non accade.
Io la vedo così, ma sono pronto a ricevere smentite. :)
Io aspetto qualche tempo,driver ufficiali e Dx9c.
ma se le cose non vanno tutte a posto....:huh:
Ci sono troppe domande in sospeso.
La qualità in FP16
La Validità degli shader 3.0
La velocita in HDRI
I Drivers beta
La velocità del filtro AF
Pochi giochi di nuova generazione.
Ci vorrà un pò di tempo...
halduemilauno
06-05-2004, 16:44
Originariamente inviato da sanitarium
Come per il momento non si vede differenza fra precisione FP24 e FP32, allo stesso modo per gli shader di Halo una precisione FP16 a quanto pare è sufficiente a garantire una qualità grafica alla pari di quella generata da una precisione FP24, senza effetti di banding. Quando invece si considerano gli shader di Far cry, che dovrebbero essere più complessi come diceva Jedi_Master, allora la differenza fra FP24 e FP16 in alcuni casi diventa lampante.
Molto più in là, quando ci saranno giochi che sfrutteranno shader ben più complessi di quelli che siamo abituati a vedere oggi, allora ci sarà differenza anche fra FP24 e FP32, cosa che per il momento non accade.
Io la vedo così, ma sono pronto a ricevere smentite. :)
sostanzialmente d'accordo.
ciao.
:) :)
Originariamente inviato da R@nda
Io aspetto qualche tempo,driver ufficiali e Dx9c.
ma se le cose non vanno tutte a posto....:huh:
Ci sono troppe domande in sospeso.
La qualità in FP16
La Validità degli shader 3.0
La velocita in HDRI
I Drivers beta
La velocità del filtro AF
Pochi giochi di nuova generazione.
Ci vorrà un pò di tempo...
Sono completamente daccordo, decretare un vincitore adesso è impossibile, ci sono ancora troppe cose da chiarire.
ATI sembra andare meglio in molti campi, dalla qualità (24 vs 16) alla velocità in molti giochi, nVidia ha le caratteristiche giuste per emergere, ma ci sono troppe cose ancora insolute...
Folgore70
06-05-2004, 18:30
sta news su nvidia mi lascia decisamente perplesso..date un occhio QUI (http://discuss.futuremark.com/forum/showflat.pl?Board=techdisplayadapters&Number=3786455) ..mah :rolleyes:
Originariamente inviato da Folgore70
sta news su nvidia mi lascia decisamente perplesso..date un occhio QUI (http://discuss.futuremark.com/forum/showflat.pl?Board=techdisplayadapters&Number=3786455) ..mah :rolleyes:
è vecchiotta ormai come notizia....fai una ricerca sul forum.
http://forum.hwupgrade.it/showthread.php?s=&threadid=678492&highlight=fartcry
Romolo85
06-05-2004, 19:22
Ma esattamente quando dovrebbe uscire???? America... Europa... etc etc... per i prezzi poi c'è un tale casino...
Stessa cosa vale per le x800!
Ragazzi, ma della 6800 liscia non si sa ancora nulla? Dovrebbe uscire insieme alle sorelle maggiori a giugno, ma come è possibile che ancora non ci sia un bench??? :eek:
nonikname
07-05-2004, 02:45
Per i bench di quella liscia c'è da aspettare un paio di settimane o meno , ma per la GT e la ultra Extreme c'è un bell'articolone su FiringSquad ...... e la cosa più bella dell'articolo sono le prove di overclock : per la GT 425/1200 !!!!! :eek: mentre per la ultraEX 475/1225..... ( tutto con dissi originali ;) )
Overclocking 6800 GT & 6800ultra-Ex
Far Cry
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ocfc1024.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ocfc1600.gif
Tomb Raider
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/octr1024.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/octr1600.gif
A quanto pare overclockando la GT si supera anche la UltraExtreme :399$ e passa la PAURA di doom3 !!! ( Dato che HalfLife 2 lo vedremo a 2005 inoltrato :muro: )
FiringSquad::"We have a feeling though that NVIDIA’s GeForce 6800 GT is going to be NVIDIA’s real breakthrough product on the high end. It sports all the features of NVIDIA’s top-of-the-line GeForce 6800 Ultra, including high-speed GDDR3 memory and 16 pixel pipes, but without the excessive price and higher power requirements found on the Ultra."
Alimentatore da 480W ????
FiringSquad:: " To test our 12V rail theory out, I installed the GeForce 6800 Ultra Extreme in my personal system. It’s an Epox KT333-based motherboard with an Athlon XP 2100+, 512MB DDR266 memory, SB Live!, Promise RAID controller card, and 3Com 10/100 NIC. I also have my system outfitted with four hard drives, a DVD-ROM drive, and a CD-R/RW burner (for those of you who were wondering, I’ve been running it with a RADEON 9800 PRO 256MB).
On the power side, the real gem is the Enermax Whisper Quiet EG365P-VE PSU I purchased over a year ago to go with my Cooler Master aluminum case (it’s one of the later model ATC-110 series cases with exhaust/intake fans, before they messed it all up with the Wavemaster line). This PSU is only 350 watts total, but capable of delivering up to 26A on the 12V rail, four amps more than the Antec TruePower I bought at Fry’s a few weeks ago for the 6800 Ultra test bed.
As theorized in our 6800 Ultra preview article, the system ran flawlessly with this setup. 3DMark 03, Call of Duty, and UT 2004 all ran with complete stability on a 350-watt power supply with GeForce 6800 Ultra. Clearly, NVIDIA’s 480-watt PSU recommendation errs on the side of extreme caution, as a high quality sub-$50 350W PSU like the Enermax EG365P-VE can be used with no problems. "
Fonte (http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/default.asp)
zerothehero
07-05-2004, 11:25
Originariamente inviato da Vifani
Non penso proprio. Gli altri recensori hanno usato tutti le impostazioni di default, cioè gli FP16. Nessuno ha mai specificato nulla riguardo gli FP32 e trattandosi di una forzatura che si abilita nel gioco, se lo avessero fatto lo avrebbero scritto.
Ti ricordo che la maggioranza della gente che compra un PC o una scheda video non si mette a giocherellare che le impostazioni di ogni gioco (sopratutto se queste sono nascoste nella console come per Far Cry). E' giusto che si sappia come va una scheda video su un gioco senza forzare nulla.
sono perfettamente d'accordo con questo..è stata la cosa migliore far vedere come lavorano le nvidia sia su fp 16 che su 32...anche per testare se sto benedetto fp 32 vienecalcolato senza troppa fatica...certo che l'nvidia avrebbe fatto molto meglio a fare 16/24/32...passare da una precizione 16 bit a 32 bit senza una via di mezzo mi sembra sbagliato...anche perchè se con far cry si ha una perdita da fp 16 a 32 del 10/15 % non so quanto sia stato lungimirante questa scelta dato che la differenza di qualità è impercettibile...
Perfectdavid
07-05-2004, 11:31
mamma mai quanto sale la ultra...da paura....
NV40 meno costoso da produrre di R420
di Ciro Santoro
Ieri Nvidia ha annunciato i suoi risultati finanziari per il 1° trimestre fiscale 2005.
Durante la tradizionale conferenza con gli investitori, il presidente (e CEO) di Nvidia, Jen-Hsun Huang, ha parlato anche di GeForce 6 (NV40).
Durante il suo discorso, Jen-Hsun Huang ha spiegato che la GeForce 6 supporta l`attuale versione 1.0 del compilatore integrato nei drivers Forceware, ma ha promesso un aumento delle prestazioni con la prossima versione del compilatore e dei drivers.
Jen-Hsun Huang ha dichiarato che i margini di guadagno della gamma di processori grafici NV4x saranno migliori di quelli della famiglia GeForce FX. Inoltre ha aggiunto che nonostante NV40 ha il 40% di transistor in più dell`ATi R420, la dimensione del die è solo il 9% più grande (grazie all`utilizzo delle note librerie CellMath di Arithmatica).
Jen-Hsun Huang ritiene anche che il costo per wafer della GPU NV40 sarà il 10-15% inferiore a quello della VPU R420, perchè quest`ultimo prodotto con un metodo low-K dielettrico più costoso. Inoltre secondo Huang, grazie al carattere "riconfigurabile" del design di NV40, è più facile recuperare i chip che presentano difetti di produzione.
Bha...tanto noi le pagheremo oro lo stesso,meno costi per loro significa solo più guadagni per loro.
mai prezzi inferiori per noi....
Buona invece la notizia dei drivers...anche se penso che si sapesse già una cosa del genere.
Perfectdavid
07-05-2004, 11:51
potrebbe anche significare riuscire a fare prezzi migliori della concorrenza con lo stesso guadagno...e quindi vincere la lotta per il 1 posto:sofico:
Eh si...interessante per le mie azioni Nvidia:read: :asd:
Per me nvidia con la 6800liscia 12x1 DDR700 256bit 350€ ha una scheda che può rifare il successo della ti4200.
ATi sembra che a quel prezzo metta la X800SE bus a 128bit e 8pipe:doh:
andreamarra
07-05-2004, 12:02
Originariamente inviato da R@nda
Io aspetto qualche tempo,driver ufficiali e Dx9c.
ma se le cose non vanno tutte a posto....:huh:
Ci sono troppe domande in sospeso.
La qualità in FP16
La Validità degli shader 3.0
La velocita in HDRI
I Drivers beta
La velocità del filtro AF
Pochi giochi di nuova generazione.
Ci vorrà un pò di tempo...
Quotissimo Ronda, io stesso fatico a capire quale sia la possibile ciccina nel mio case... sono cose troppo importanti per non conoscerle a menadito prima dell'acquisto.
Originariamente inviato da andreamarra
Quotissimo Ronda, io stesso fatico a capire quale sia la possibile ciccina nel mio case... sono cose troppo importanti per non conoscerle a menadito prima dell'acquisto.
Sono rAnda:huh: :sofico: (Randa = Randagio)
Perfortuna comunque questa volta posso prendermela comoda e vedre quale effettivamente andrà meglio.
andreamarra
07-05-2004, 13:52
Originariamente inviato da R@nda
Sono rAnda:huh: :sofico: (Randa = Randagio)
Perfortuna comunque questa volta posso prendermela comoda e vedre quale effettivamente andrà meglio.
Ho sbagliato a digitare, lo so che sei Randa... :(
:ave:
;)
Dark Schneider
07-05-2004, 17:20
Originariamente inviato da xpiuma
Sono completamente daccordo, decretare un vincitore adesso è impossibile, ci sono ancora troppe cose da chiarire.
ATI sembra andare meglio in molti campi, dalla qualità (24 vs 16) alla velocità in molti giochi, nVidia ha le caratteristiche giuste per emergere, ma ci sono troppe cose ancora insolute...
Infatti bisogna aspettare un po' di tempo!! :)
TheDarkAngel
07-05-2004, 17:23
Originariamente inviato da Dark Schneider
Infatti bisogna aspettare un po' di tempo!! :)
aspettando aspettando si arriverà all'r500....
Dark Schneider
07-05-2004, 17:23
Originariamente inviato da nonikname
Per i bench di quella liscia c'è da aspettare un paio di settimane o meno , ma per la GT e la ultra Extreme c'è un bell'articolone su FiringSquad ...... e la cosa più bella dell'articolo sono le prove di overclock : per la GT 425/1200 !!!!! :eek: mentre per la ultraEX 475/1225..... ( tutto con dissi originali ;) )
Overclocking 6800 GT & 6800ultra-Ex
Far Cry
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ocfc1024.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/ocfc1600.gif
Tomb Raider
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/octr1024.gif
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/octr1600.gif
A quanto pare overclockando la GT si supera anche la UltraExtreme :399$ e passa la PAURA di doom3 !!! ( Dato che HalfLife 2 lo vedremo a 2005 inoltrato :muro: )
FiringSquad::"We have a feeling though that NVIDIA’s GeForce 6800 GT is going to be NVIDIA’s real breakthrough product on the high end. It sports all the features of NVIDIA’s top-of-the-line GeForce 6800 Ultra, including high-speed GDDR3 memory and 16 pixel pipes, but without the excessive price and higher power requirements found on the Ultra."
Alimentatore da 480W ????
FiringSquad:: " To test our 12V rail theory out, I installed the GeForce 6800 Ultra Extreme in my personal system. It’s an Epox KT333-based motherboard with an Athlon XP 2100+, 512MB DDR266 memory, SB Live!, Promise RAID controller card, and 3Com 10/100 NIC. I also have my system outfitted with four hard drives, a DVD-ROM drive, and a CD-R/RW burner (for those of you who were wondering, I’ve been running it with a RADEON 9800 PRO 256MB).
On the power side, the real gem is the Enermax Whisper Quiet EG365P-VE PSU I purchased over a year ago to go with my Cooler Master aluminum case (it’s one of the later model ATC-110 series cases with exhaust/intake fans, before they messed it all up with the Wavemaster line). This PSU is only 350 watts total, but capable of delivering up to 26A on the 12V rail, four amps more than the Antec TruePower I bought at Fry’s a few weeks ago for the 6800 Ultra test bed.
As theorized in our 6800 Ultra preview article, the system ran flawlessly with this setup. 3DMark 03, Call of Duty, and UT 2004 all ran with complete stability on a 350-watt power supply with GeForce 6800 Ultra. Clearly, NVIDIA’s 480-watt PSU recommendation errs on the side of extreme caution, as a high quality sub-$50 350W PSU like the Enermax EG365P-VE can be used with no problems. "
Fonte (http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/default.asp)
La GeForce 6800 GT è assolutamente la scheda che conviene.
Tra l'altro sale molto bene e le prestazioni anche. Spesso ci son degli OC che portano miglioramenti poco significativi. Invece questo è l'esatto contrario: salgono molto anche le prestazioni rispetto al default :)
Per di più ha 1 solo molex e consuma meno.
Dark Schneider
07-05-2004, 17:29
Originariamente inviato da Perfectdavid
mamma mai quanto sale la ultra...da paura....
A me fa più impressione la GT.:D
E' si parla di un sample...secondo me si può salire anche di più come Core.
Perfectdavid
07-05-2004, 17:30
concordo ma dico:parliamo cmq di schede di circa 500 euro quindi secondo me si dovrebbe vedere ancora più in basso...cosa uscirà di fascia inferiore?
Dark Schneider
07-05-2004, 17:44
Io penso che in realtà la fascia media (NV43) non sarà altro che il medesimo NV40 solo con 8 Pipeline. Un po' come è successo con R300: 9500 e 9700...differenza nelle Pipeline e nel bus.
andreamarra
07-05-2004, 18:40
Aspettate che nvidia e ati sfornino un numero sufficiente di schede e i prezzi scenderanno lentamente, ma scenderanno :oink:
I costi di produzione si sa che sono eccessivi all'inizio.
Dark Schneider
07-05-2004, 18:47
Originariamente inviato da andreamarra
Aspettate che nvidia e ati sfornino un numero sufficiente di schede e i prezzi scenderanno lentamente, ma scenderanno :oink:
I costi di produzione si sa che sono eccessivi all'inizio.
Si infatti. E' una questione di produzione. Quando ci sarà la produzione di massa i prezzi saranno minori. Comprare adesso significa addirittura comprare al di sopra del prezzo ufficiale.
Paoletta Corsini
07-05-2004, 18:50
Originariamente inviato da andreamarra
Aspettate che nvidia e ati sfornino un numero sufficiente di schede e i prezzi scenderanno lentamente, ma scenderanno :oink:
I costi di produzione si sa che sono eccessivi all'inizio.
Ciao Andrea :oink:
Credo che i prezzi resteranno alti a lungo, lasciate stare queste preview che non son affatto affidabili, ma sinceramente 500€ (ma anche 400€) per le mie finanze son dei prezzi fuori dal mondo.
Ma ci pensate che con la stessa cifra si prende un pc completo? :eek:
Dark Schneider
07-05-2004, 19:18
Originariamente inviato da Paoletta Corsini
Ciao Andrea :oink:
Credo che i prezzi resteranno alti a lungo, lasciate stare queste preview che non son affatto affidabili, ma sinceramente 500€ (ma anche 400€) per le mie finanze son dei prezzi fuori dal mondo.
Ma ci pensate che con la stessa cifra si prende un pc completo? :eek:
Si ma i prezzi non saranno quelli che saltano in questo momento. Quando la disponibilità arà ampia cmq diminuirà. Ricordo ancora la 5900xt a natale..dove si trovava...stava a 270..perchè erano "poche". Da gennaio con la produzione di massa: 200-220 euro.
Non penso che quando la produzione sarà maggiore ad esempio la X800 Pro costerà ancora 549 euro di adesso.
andreamarra
07-05-2004, 19:20
Originariamente inviato da Dark Schneider
A me fa più impressione la GT.:D
E' si parla di un sample...secondo me si può salire anche di più come Core.
Non credevo potessero salire così tanto... :eek:
E neanche la X800XT, che qualche folle l'ha tirata a liquido a 715 :eek:
Che belle scheduzze :oink:
Dark Schneider
07-05-2004, 19:31
Originariamente inviato da andreamarra
Non credevo potessero salire così tanto... :eek:
E neanche la X800XT, che qualche folle l'ha tirata a liquido a 715 :eek:
Che belle scheduzze :oink:
Vabbè al liquido si!! :sofico: Normalmente ho visto che sale di una 40ina di Mhz pare il Core.
Ma il liquido costa eheh!! Sono curioso di vedere anche le 6800 con il liquido cmq! :)
andreamarra
07-05-2004, 19:40
Originariamente inviato da Dark Schneider
Vabbè al liquido si!! :sofico: Normalmente ho visto che sale di una 40ina di Mhz pare il Core.
Ma il liquido costa eheh!! Sono curioso di vedere anche le 6800 con il liquido cmq! :)
Lo so che al liquido sale anche la 6800 :eek:
Solo che credevo che il limite fisico fosse intorno ai 600 per la X800XT :eek:
Insomma, quando usciranno schede con un core più rodato e un bel dissy come un VGA Silencer ci sarà da godere... magari anche con dei lunzini sulle ram... :oink:
E io che volevo saltare generazioneeee :cry:
Non dipende solo dal liquido..ho montato un wb(non faccio nomi altrimenti mi linciano) sulla mia scheda è ho guadagnato qualche Mhz..:rolleyes: .Quindi imho dipende parecchio dalla gpu!:)
P.S.cmq io ho già deciso..6800GT!!:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.