View Full Version : nVidia GeForce 6800 - Thread Ufficiale
Originariamente inviato da Gustavo Dandolo
http://www.tomshw.it/guides/graphic/20040414/images/power1.gif
http://www.tomshw.it/guides/graphic/20040414/images/power2.gif
http://www.tomshw.it/guides/graphic/20040414/images/power3.gif
guarda si è persa la testa altro che non ci son preoccupazioni..
Va bene il psu efficiency, ma siamo proprio sicuri di questi valori???ho messo la 9800xt nel mio xpc con alimentatore da 200watt e giocando per diverse ore mai 1 problema... :confused:
Beh,dimenticavo che stiamo parlando di benchmark di Tom's... :rolleyes:
Originariamente inviato da Blade^R
Su gfzone.it hanno messo una comparativa sul PS2.0 e PS3.0 con Farcry....
allora non bisogna proprio aspettare le directx9.0c per vederli implementati se il gioco li supporta..... altrimenti queste foto come le hanno fatte ?
PS2.0
http://www.pcper.com/images/reviews//FarCry_before3_small.jpg
PS3.0
http://www.pcper.com/images/reviews//FarCrafter3_small.jpg
Cmq,
i PS3.0 non c'entrano una fava con la seconda immagine; è solo marketing da parte di nVidia. La tecnica usata si chiama offset mapping (o parallax mapping) ed è un'evoluzione del bump mapping tradizionale e può benissimo essere implementato usando i PS2.0. L'offset mapping è stato scoperto da un utente del forum di www.opengl.org , tale Mogumbo, qualche mese fa.
http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/011292.html
Originariamente inviato da LCol84
La 6800ultra forse farà fatica a causa dei 2 molex ma nulla è possibile! Al max si può ripiegare sulla x800xt con 1 solo molex...
E chi l'ha detto che le X800 XT hanno un solo molex ? :rolleyes: :p
Originariamente inviato da danige
E chi l'ha detto che le X800 XT hanno un solo molex ? :rolleyes: :p
Ehehhehe....:D
Gustavo Dandolo
18-04-2004, 04:49
Originariamente inviato da swarzy85
Io conosco cose che non potete nemmeno immaginare:cool:
guardare la sign :sofico:
P.S. ovviamente scherzo....per qualsiasi cosa il responsabile è Raffaele :D:D:D
Vifani mi ha offerto un bel cornetto alla nutella
:eek: :oink:
Ok lo ammetto.... tra me e swarzy85 c'è una relazione che dura da tempo immemorabile ormai :D
P.S: Scusate l'OT
swarzy85
18-04-2004, 11:42
Originariamente inviato da Vifani
Ok lo ammetto.... tra me e swarzy85 c'è una relazione che dura da tempo immemorabile ormai :D
P.S: Scusate l'OT
dormiglione
:O
JENA PLISSKEN
18-04-2004, 11:43
Originariamente inviato da swarzy85
Io conosco cose che non potete nemmeno immaginare:cool:
guardare la sign :sofico:
P.S. ovviamente scherzo....per qualsiasi cosa il responsabile è Raffaele :D:D:D
OK...PVTIZZAMI:sofico: :sofico: :sofico: :sofico: :sofico: :sofico:
JENA PLISSKEN
18-04-2004, 11:44
Originariamente inviato da Vifani
Ok lo ammetto.... tra me e swarzy85 c'è una relazione che dura da tempo immemorabile ormai :D
P.S: Scusate l'OT
Spero che NN c 'entri nulla l' ARCIGAY:eek: :eek: :eek:
.....please gimme more info...in quanto conterraneo:sofico:
swarzy85
18-04-2004, 11:48
Originariamente inviato da JENA PLISSKEN
OK...PVTIZZAMI:sofico: :sofico: :sofico: :sofico: :sofico: :sofico:
se mi dai l'antec ti dico le frequenze della 6800Ultra
:sofico: :sofico: :sofico:
JENA PLISSKEN
18-04-2004, 11:53
Originariamente inviato da swarzy85
se mi dai l'antec ti dico le frequenze della 6800Ultra
:sofico: :sofico: :sofico:
OK...affare fatto:mano:
....io ti do lo SCATOLO + 2 FOTO del pannello frontale TC col Rheobus Vantec da 3 e 1\2 e tu me le dici:O
Che SBORO'N che SO'N:sofico:
Originariamente inviato da danige
E chi l'ha detto che le X800 XT hanno un solo molex ? :rolleyes: :p
In effetti potrebbe anche averne tre o quattro:cool:
Vabbè che quelli dell'Ati non sanno fare i driver, ma forni a microonde non ne hanno mai venduti (non faccio nomi)
Anonized
18-04-2004, 12:29
Originariamente inviato da MaBru
Cmq,
i PS3.0 non c'entrano una fava con la seconda immagine; è solo marketing da parte di nVidia. La tecnica usata si chiama offset mapping (o parallax mapping) ed è un'evoluzione del bump mapping tradizionale e può benissimo essere implementato usando i PS2.0. L'offset mapping è stato scoperto da un utente del forum di www.opengl.org , tale Mogumbo, qualche mese fa.
http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/011292.html
ah ahi ahi...
Hanamichi
18-04-2004, 13:10
Originariamente inviato da Gioman
Vabbè che quelli dell'Ati non sanno fare i driver, ma forni a microonde non ne hanno mai venduti (non faccio nomi)
:rotfl: :rolleyes: :mad:
goldorak
18-04-2004, 13:17
Vabbe' dai, mi pare ovvio fosse ironico no ?:p
Athlon 64 3000+
18-04-2004, 13:18
Veramente è da un'anno e mezzo che Ati ha cominciato a fare degli ottimi driver e è solo una leggenda il ricordo di Ati che non sapeva fare i Driver.
Un'Altra domanda è che dato che si è parlato che L'NV40 è cpu Limited anche perchè si dice che non ci siano processori in grado di sfruttarla.Allora io chiedevo se il mio Athlon 64 3000+ era sufficiente e se lo sono anche L'Athlon 64 FX-53 e L'Athlon 64 3400+.
Dark Schneider
18-04-2004, 14:04
Originariamente inviato da shinji_85
Infatti... non credo proprio che bisognera' avere per forza un ali che eroghi 480W e non uno di meno...
Penso che l'importante siano gli amperaggi!! :)
shinji_85
18-04-2004, 14:20
Originariamente inviato da Dark Schneider
Penso che l'importante siano gli amperaggi!! :)
Certamente... Cmq chi ha speso per un buon ali (Enermax ecc.) di recente si sta solo preoccupando inutilmente...
Certo è che se io mi dovessi comprare una di queste schede poi non mi lamenterei se dovessi ricomprare anche l'alimentatore:
Che senso ha aver speso soldi (tanti) per una scheda cosi' potente e poi risparmiare sull'ali???
dario fgx
18-04-2004, 16:13
Originariamente inviato da Athlon 64 3000+
Veramente è da un'anno e mezzo che Ati ha cominciato a fare degli ottimi driver e è solo una leggenda il ricordo di Ati che non sapeva fare i Driver.
Un'Altra domanda è che dato che si è parlato che L'NV40 è cpu Limited anche perchè si dice che non ci siano processori in grado di sfruttarla.Allora io chiedevo se il mio Athlon 64 3000+ era sufficiente e se lo sono anche L'Athlon 64 FX-53 e L'Athlon 64 3400+.
.....tu citi dei mostri...nel mio discorso precedente su cpu limited io mi riferivo alla gente comune..magari nn maga dell'oc che ha cpu dai 2.4 ai 3.0 ghz allora spesso sarà cpu limited...credo che l'A 64 fx 53 sia + che in grado di far rullare alla grande quella scheda...ma avrai un sis che la sfrutta in pieno solo dopo la barriera dei 3500mhz!ed oltre!
dario fgx
18-04-2004, 16:15
tuttavia sul 3000+ avrei i miei dubbi!
dario fgx
18-04-2004, 16:19
Originariamente inviato da shinji_85
Certamente... Cmq chi ha speso per un buon ali (Enermax ecc.) di recente si sta solo preoccupando inutilmente...
Certo è che se io mi dovessi comprare una di queste schede poi non mi lamenterei se dovessi ricomprare anche l'alimentatore:
Che senso ha aver speso soldi (tanti) per una scheda cosi' potente e poi risparmiare sull'ali???
tu xo' nn tieni conto di quella larga categoria(Vedi gli studenti) che nn lavorano e che devono fare i salti mortali + acquistare una vga con le contropalle....poi xo' vedono il loro q-tec 500w erogare troppa poca potenza x far funzionare 600€ di vga!
uno i soldi li spende x la scheda e nn deve spenderli x l'ali nvidia deve fare in modo che nn ci voglia una centrale enel nel case far funzionare una vga...se quando la compro nn mi funziona gliela infilo su x il a quelli che l'hanno prodotta
TheDarkAngel
18-04-2004, 16:25
Originariamente inviato da dario fgx
tu xo' nn tieni conto di quella larga categoria(Vedi gli studenti) che nn lavorano e che devono fare i salti mortali + acquistare una vga con le contropalle....poi xo' vedono il loro q-tec 500w erogare troppa poca potenza x far funzionare 600€ di vga!
uno i soldi li spende x la scheda e nn deve spenderli x l'ali nvidia deve fare in modo che nn ci voglia una centrale enel nel case far funzionare una vga...se quando la compro nn mi funziona gliela infilo su x il a quelli che l'hanno prodotta
se la gente compra dei simil alimentatori..
non ci si può far niente...
e se arriva a comprare una sk video da 600€
un alimentatore da 70€ è doveroso
Athlon 64 3000+
18-04-2004, 16:41
Originariamente inviato da dario fgx
tuttavia sul 3000+ avrei i miei dubbi!
In che senso avresti dei dubbi?
Thunder82
18-04-2004, 16:45
Originariamente inviato da Athlon 64 3000+
In che senso avresti dei dubbi?
Nel senso che anche con un 3000+ la 6800 ultra è cpu limited.
Jaguar64bit
18-04-2004, 16:47
Originariamente inviato da Thunder82
Nel senso che anche con un 3000+ la 6800 ultra è cpu limited.
Come ho gia' detto nelle pag precedenti , per tirargli il collo ci vuole una cpu da 4 giga....a mio avviso.
Thunder82
18-04-2004, 16:51
Originariamente inviato da Jaguar64bit
Come ho gia' detto nelle pag precedenti , per tirargli il collo ci vuole una cpu da 4 giga....a mio avviso.
sì, ma dipende da gioco a gioco. In alcuni giochi basta un 3000, in altri ci vorrebbe un 4000 :)
Dark Schneider
18-04-2004, 16:53
Originariamente inviato da TheDarkAngel
se la gente compra dei simil alimentatori..
non ci si può far niente...
e se arriva a comprare una sk video da 600€
un alimentatore da 70€ è doveroso
Ma infatti è quello che ha scritto il Corsini. Uno che si prende na scheda costosissima si presuppone che abbia anche un buon ali. :)
Dark Schneider
18-04-2004, 16:55
Ragazzi ma cmq novità sui prezzi? La liscia ad esempio quando dovrebbe costare? Io ritengo che se costa oltre 300...è una ladrata.
P.S. io son interessato alle 16 Pipeline ;)
Jaguar64bit
18-04-2004, 16:56
Originariamente inviato da Thunder82
sì, ma dipende da gioco a gioco. In alcuni giochi basta un 3000, in altri ci vorrebbe un 4000 :)
Concordo ;)
Athlon 64 3000+
18-04-2004, 17:01
Adesso ho capito.Dato che io ho cambiato il processore a inizio febbraio e non ho intenzione di cambiare la CPU per almeno il 2004 e tutto il 2005(Vengo da un Athlon XP 1700+ che mi è durato un'anno)e ho la scheda video che ogni tanto quando accendo il PC mi visualizza l'immagine sul monitor con tutta una serie di difetti grafici che mi costringe a spegnere il PC per risolvere il problema.Il bello che questi diffetti me li ha gia fatti 6 volte in due settimane.La scheda non la posso far sostituire in garanzia perchè la ventola originale mi si è spaccata e la ho sostituita con il Thermaltake crystal orb.E non so se sono intenzionato a prendere la Geforce6800 o 6800 ultra o una delle tre versioni dell'R420 che devono ancora essere presentate.Quasi quasi prendo una 9800pro e aspetto a prendere le nuove schede video quando stanno sparendo dal mercato.
Athlon 64 3000+
18-04-2004, 17:03
Io per L'alimentatore dovrei essere a posto in quanto ho un Enermax da 460W preso un mese fa e pagato 104,50 euro.
shinji_85
18-04-2004, 17:04
Originariamente inviato da dario fgx
tu xo' nn tieni conto di quella larga categoria(Vedi gli studenti) che nn lavorano e che devono fare i salti mortali + acquistare una vga con le contropalle....poi xo' vedono il loro q-tec 500w erogare troppa poca potenza x far funzionare 600€ di vga!
uno i soldi li spende x la scheda e nn deve spenderli x l'ali nvidia deve fare in modo che nn ci voglia una centrale enel nel case far funzionare una vga...se quando la compro nn mi funziona gliela infilo su x il a quelli che l'hanno prodotta
non so se lo si legge... ma IO SONO uno studente... e non posso permettermi di spendere troppo per qls cosa piu' di 2 volte l'anno (natale e compleanno :D ).
percio' dubito fortemente che uno studente possa comprarsi una vga da 600€... E se lo fa... Che si compri pure un alimentatore... Visto che c'è...
Dark Schneider
18-04-2004, 17:13
Originariamente inviato da Athlon 64 3000+
Adesso ho capito.Dato che io ho cambiato il processore a inizio febbraio e non ho intenzione di cambiare la CPU per almeno il 2004 e tutto il 2005(Vengo da un Athlon XP 1700+ che mi è durato un'anno)e ho la scheda video che ogni tanto quando accendo il PC mi visualizza l'immagine sul monitor con tutta una serie di difetti grafici che mi costringe a spegnere il PC per risolvere il problema.Il bello che questi diffetti me li ha gia fatti 6 volte in due settimane.La scheda non la posso far sostituire in garanzia perchè la ventola originale mi si è spaccata e la ho sostituita con il Thermaltake crystal orb.E non so se sono intenzionato a prendere la Geforce6800 o 6800 ultra o una delle tre versioni dell'R420 che devono ancora essere presentate.Quasi quasi prendo una 9800pro e aspetto a prendere le nuove schede video quando stanno sparendo dal mercato.
Ma non ti preoccupare che col tuo processore andrai bene. Guarda scegli 6800 liscia o Ultra o X800Pro o XT.....ma NON andare su X800SE o 9800 Pro. Cioè da una 9700 Pro prendi una di quelle 4. Poi da 9700 Pro a 9800 Pro non è tanto conveniente. Ho capito che hai dei prblemi visivi con la 9700 Pro...però davvero prenditi una delle nuove schede. O cmq poi male che vada se vai su 6800 liscia o X800 Pro...si tratta di schede che cmq vanno più dell'attuale top: hanno pur sempre 12 Pipeline e tecnologicamente più avanzati.
Dark Schneider
18-04-2004, 17:15
Originariamente inviato da Athlon 64 3000+
Io per L'alimentatore dovrei essere a posto in quanto ho un Enermax da 460W preso un mese fa e pagato 104,50 euro.
Alimentatore eccellente.
Jaguar64bit
18-04-2004, 17:16
Originariamente inviato da Dark Schneider
Ragazzi ma cmq novità sui prezzi? La liscia ad esempio quando dovrebbe costare? Io ritengo che se costa oltre 300...è una ladrata.
P.S. io son interessato alle 16 Pipeline ;)
La liscia in Italia , penso la si trovera' sui 400€ , mi spiace distruggere i sogni di qualcuno ma penso costi cosi'.
Jaguar64bit
18-04-2004, 17:18
Originariamente inviato da Dark Schneider
Alimentatore eccellente.
Gli Enermax ad amperaggi sulla linea dei +12 v sono i migliori ma sono ottimi anche sui + 3,3v e sui + 5 v.
Ottimi anche gli Antec e i thermaltake.
Dark Schneider
18-04-2004, 17:20
Originariamente inviato da Thunder82
sì, ma dipende da gioco a gioco. In alcuni giochi basta un 3000, in altri ci vorrebbe un 4000 :)
Ragà cmq a velocità pura probabilmente ci vuole una cpu ancora non uscita per sfruttarla...è anche vero che ci sono giochi cpu limited (soprattutto i vecchi), però secondo me quando si pensa alla 6800 bisogna pensare che obbligatoriamente si gioca con i filtri. Diciamo che con i filtri attivi si sfrutta meglio le attuali cpu. Se si ricerca la velocità pura...penso che la cpu in grado di sfruttarla deve ancora uscire. Perchè abbiamo visto che a velocità pura...la scheda si comporta bene con le attuali cpu...ma con una cpu più veloce...staccherebbe di moltissimo le attuali schede top...invece di staccarle come attualmente. Invece con i filtri attivi già si notano delle differenze molto molto nette.
Jaguar64bit
18-04-2004, 17:22
Originariamente inviato da Dark Schneider
Ragà cmq a velocità pura probabilmente ci vuole una cpu ancora non uscita per sfruttarla...è anche vero che ci sono giochi cpu limited (soprattutto i vecchi), però secondo me quando si pensa alla 6800 bisogna pensare che obbligatoriamente si gioca con i filtri. Diciamo che con i filtri attivi si sfrutta meglio le attuali cpu. Se si ricerca la velocità pura...penso che la cpu in grado di sfruttarla deve ancora uscire.
Un athlon64 Fx 53 gia' la spinge bene , fidati ;)
Originariamente inviato da Jaguar64bit
Un athlon64 Fx 53 gia' la spinge bene , fidati ;)
non è vero... devono ancora uscire le cpu che la spingono a dovere
Dark Schneider
18-04-2004, 17:24
Originariamente inviato da Jaguar64bit
La liscia in Italia , penso la si trovera' sui 400€ , mi spiace distruggere i sogni di qualcuno ma penso costi cosi'.
Se una scheda del genere con 128 MB DDR1 costerà così tanto ripeto che siamo di fronte ad una ladrata.
shinji_85
18-04-2004, 17:45
Quand'è che potrò vedere una 6800U (o liscia) sullo scaffale di un negozio italiano?? C'è qualche data ufficiale?
Athlon 64 3000+
18-04-2004, 17:53
bisognerà aspettare a giugno.
Per non essere cpu limited basta giocare a 1600*1200 con i filtri a palla, tanto 200 fps 0 40 non fa differenza.
Semmai la questione è un altra, cioè se tutt'ora sia veramente necessario comprare ll'ultima scheda video spendendo una barca di soldi
Jaguar64bit
18-04-2004, 17:59
Originariamente inviato da Gen.Web
non è vero... devono ancora uscire le cpu che la spingono a dovere
Allora chi ha usato P4 3 giga x le rece , va castigato....se dici che un Fx 53 non la spinge almeno decentemente.
shinji_85
18-04-2004, 18:08
Originariamente inviato da Athlon 64 3000+
bisognerà aspettare a giugno.
Quindi bisognerà aspettare GIUGNO per le prime schede a prezzi come al solito assurdi... Bah... Forse per Natale prossimo... O forse dopo ci farò un pensierino.
per vedere un pò come si comporta la scheda con un 3000mhz, un AMD fx, oppure un semplice barton 2500 bisognerebbe vederne il comportamente a 1280 e 1600 con filtri attivati. Un confronto tra processori era stato fatto su Hardwareupgrade, se non sbaglio, qualche tempo fà per la radeon 9700, che risultava pienamente sfruttabile anche senza processori di ultima generazione.
Che dire, questo test potrebbe essere fatto dal primo utente con in mano una 6800, magari agendo su mopltiplicatore e bus per testarla con processore "diverso" da quello normalmente utilizzato. Ma solo a 1280 e a 1600di risoluzione (con filtri attivati) la cosa avrebbe senso.
Oppure bisognerebbe scovare qualche recensione con un test del genere.
Originariamente inviato da Jaguar64bit
La liscia in Italia , penso la si trovera' sui 400€ , mi spiace distruggere i sogni di qualcuno ma penso costi cosi'.
400€:eek: :cry: Sarebbe un furto! Non può venire a costare così tanto:muro:
Gustavo Dandolo
18-04-2004, 19:19
Originariamente inviato da Jaguar64bit
Un athlon64 Fx 53 gia' la spinge bene , fidati ;)
Concordo decisamente. Ti chiedo se hai visto qualche bench di questa gpu sulla soluzione ATi, grazie :)
Athlon 64 3000+
18-04-2004, 19:21
Io ho deciso che lascio perdere la 9800Pro e per questioni di budget punterò tutto sulla 6800 liscia o sulla X800pro che verranno a costare al massimo 400 euro perchè non mi posso proprio permettere di andare a spendere 550 euro o più per una scheda video.
Speriamo che diano un bel boost prestazionale rispetto alla mia Radeon 9700Pro.
Gustavo Dandolo
18-04-2004, 19:22
Originariamente inviato da Haku
400€:eek: :cry: Sarebbe un furto! Non può venire a costare così tanto:muro:
Una domanda Haku: ma fra 300 (o 330, 350) e 400€ cosa cambia? se un utente ha intenzione di prendere un pezzo così costoso per la propria workstation, non credo che queste piccole differenze vadano ad intaccare la sua scelta.
Una bella scheduzza da 100-150€ (in garanzia :p) sul mercatino sono la migliore scelta che qualcuno potrebbe fare in questo momento secondo me :)
Gustavo Dandolo
18-04-2004, 19:24
Originariamente inviato da Athlon 64 3000+
Io ho deciso che lascio perdere la 9800Pro e per questioni di budget punterò tutto sulla 6800 liscia o sulla X800pro che verranno a costare al massimo 400 euro perchè non mi posso proprio permettere di andare a spendere 550 euro o più per una scheda video.
Speriamo che diano un bel boost prestazionale rispetto alla mia Radeon 9700Pro.
Una domanda mi sovviene, e ti prego di rispondermi con tutta franchezza.
A quale risoluzione giochi? e che giochi non vanno con la tua (poco sfruttata) configurazione?
goldorak
18-04-2004, 19:25
Beh tra 300 e 400€ ci sono solo 200.000£ di differenza. :rolleyes:
A meno che i soldi non crescano in giardino anche 100.000£ di differenza mi sembra rilevante.
Gustavo Dandolo
18-04-2004, 19:28
Originariamente inviato da goldorak
Beh tra 300 e 400€ ci sono solo 200.000£ di differenza. :rolleyes:
A meno che i soldi non crescano in giardino anche 100.000£ di differenza mi sembra rilevante.
A me per una vga anche 300€ sembrano esagerate. Ho fatto anche fesserie del calibro di pagare la mia AIW 550€ quando è uscita in europa, ma non per questo lo rifarei ;)
goldorak
18-04-2004, 19:30
Originariamente inviato da Gustavo Dandolo
A me per una vga anche 300€ sembrano esagerate. Ho fatto anche fesserie del calibro di pagare la mia AIW 550€ quando è uscita in europa, ma non per questo lo rifarei ;)
Anche per me il prezzo massimo che sono disposto a spendere per una vga si aggira sui 300€.
Tanto non la cambio per minimo 3 anni.
Mi tengo la mia fida 9800 finche' nessun gioco risucira' a girare a 640x480.
si infatti! giocherò anche a 640x480 con la mia 9700 pro
shinji_85
18-04-2004, 19:48
Originariamente inviato da goldorak
Anche per me il prezzo massimo che sono disposto a spendere per una vga si aggira sui 300€.
Tanto non la cambio per minimo 3 anni.
Mi tengo la mia fida 9800 finche' nessun gioco risucira' a girare a 640x480.
Anch'io non credo che spendero' mai piu' di 300 euro per una scheda video... Poi in futuro non so... magari vinco al super enalotto (senza giocare) :sofico:
" Albatron said that their 'Geforce6800UV' has core clock running at 600Mhz and the ram is reaching 1Ghz. "
link (http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=228)
Dark Schneider
18-04-2004, 21:02
Originariamente inviato da ballero
" Albatron said that their 'Geforce6800UV' has core clock running at 600Mhz and the ram is reaching 1Ghz. "
link (http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=228)
Mmm hanno abbassato le frequenze della ram e aumentato il core a 600 Mhz.
Lo ritengo attendibile che cmq la versione nei negozi della GeForce 6800 Ultra avrà frequenze superiori ai sample attuali. O forse è una versione speciale...e magari con costo maggiore.
Originariamente inviato da ballero
" Albatron said that their 'Geforce6800UV' has core clock running at 600Mhz and the ram is reaching 1Ghz. "
link (http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=228)
Anche se NV40 non scalda molto durante il funzionamento.... la vedo dura un incremento di 200 Mhz... ci sono altre limitazioni oltre a quelle della dissipazione nell'innalzare le frequenza di un chip. Comunque se ci riescono.... buon per loro :)
Dark Schneider
18-04-2004, 21:05
Originariamente inviato da Gustavo Dandolo
Una domanda mi sovviene, e ti prego di rispondermi con tutta franchezza.
A quale risoluzione giochi? e che giochi non vanno con la tua (poco sfruttata) configurazione?
Alla fine ha dei problemi di visualizzazione con la sua attuale scheda...penso faccia bene a cambiarla per sicurezza. Però appunto visto che la deve cambiare...meglio se va su una scheda nuova a sto punto.
Dark Schneider
18-04-2004, 21:06
Originariamente inviato da Vifani
Anche se NV40 non scalda molto durante il funzionamento.... la vedo dura un incremento di 200 Mhz... ci sono altre limitazioni oltre a quelle della dissipazione nell'innalzare le frequenza di un chip. Comunque se ci riescono.... buon per loro :)
Magari sarà una versione speciale con super raffreddamento a liquido!:sofico:
__M@ster__
18-04-2004, 21:06
Originariamente inviato da Gustavo Dandolo
Una domanda mi sovviene, e ti prego di rispondermi con tutta franchezza.
A quale risoluzione giochi? e che giochi non vanno con la tua (poco sfruttata) configurazione?
te lo dico io...con una 9700pro gira ancora tutto a meraviglia...e per meraviglia intendo 1280*1024..con dettagli al max ..incluso far cry.
E se poi nel 5% del gioco in una o 2 scene vado a 25-30fps...chi se ne fraga!:cool: ..io per ora la 9700pro non la cambierei mai con una 6800! (ammeno di non aver soldi da buttare:sofico: )
Dark Schneider
18-04-2004, 21:15
Originariamente inviato da __M@ster__
te lo dico io...con una 9700pro gira ancora tutto a meraviglia...e per meraviglia intendo 1280*1024..con dettagli al max ..incluso far cry.
E se poi nel 5% del gioco in una o 2 scene vado a 25-30fps...chi se ne fraga!:cool: ..io per ora la 9700pro non la cambierei mai con una 6800! (ammeno di non aver soldi da buttare:sofico: )
Vabbè ma nel caso di Athlon 64 3000+....la sua 9700 Pro ha dei problemi.
Originariamente inviato da Vifani
Anche se NV40 non scalda molto durante il funzionamento.... la vedo dura un incremento di 200 Mhz... ci sono altre limitazioni oltre a quelle della dissipazione nell'innalzare le frequenza di un chip. Comunque se ci riescono.... buon per loro :)
ma la vostra cos'era? una A1 o A2?
Gustavo Dandolo
18-04-2004, 22:04
Originariamente inviato da Vifani
Anche se NV40 non scalda molto durante il funzionamento.... la vedo dura un incremento di 200 Mhz... ci sono altre limitazioni oltre a quelle della dissipazione nell'innalzare le frequenza di un chip. Comunque se ci riescono.... buon per loro :)
Raffaele ma la frequenza standard non era di 475mhz contro il vostro sample che andava a 400? perchè se così fosse l'overclock è poco più del 20%.
ecco i prezzi !!!
Si parte dalla 6800 128mb
http://www.1000ordi.fr/products.php?p=eb7de3
6800 ultra 256 mb
http://www.1000ordi.fr/products.php?p=7182b4
la foto utilizzata è la stessa anche per la liscia, dato che non ne avranno vista neanche una.
date un occhiata qui
http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=228
http://www.technoa.co.kr/content/latestnews/2004/04/17/aopen.jpg
un solo molex per la aeolus, questo testimonia che un molex ce la fa, ma per evitare fenomeni di diafonia tra le piste del pcb nvidia ne consiglia due, a meno che non si è cosi bravi da arginarli.
ShadowThrone
18-04-2004, 22:29
la sparkle è ridicola..
cmq 600 eurozzi per l'italia... e vai!!!!
Gatz1980
18-04-2004, 22:38
Originariamente inviato da dwfgerw
ecco i prezzi !!!
Si parte dalla 6800 128mb
http://www.1000ordi.fr/products.php?p=eb7de3
6800 ultra 256 mb
http://www.1000ordi.fr/products.php?p=7182b4
la foto utilizzata è la stessa anche per la liscia, dato che non ne avranno vista neanche una.
date un occhiata qui
http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=228
http://www.technoa.co.kr/content/latestnews/2004/04/17/aopen.jpg
un solo molex per la aeolus, questo testimonia che un molex ce la fa, ma per evitare fenomeni di diafonia tra le piste del pcb nvidia ne consiglia due, a meno che non si è cosi bravi da arginarli.
350 per la liscia da 128MB sono un prezzo indecente!
m9nckia ragazzi ho finito di leggere il tutto!(ci ho messo tutto il pom...) cmq da quello ke ho letto mi pare di capire ke sta scheda video...è un concentrato solo per adesso di fps da muovere e nient'altro.....vado ricordando ke a doom3 si potrà giocare massimo a 60 fps( è limitato software per motivi di gameplay) quindi a che cazzo mi servono 200 fps?mejio qualità! speriamo ke risolvano...se no bella scheda del caxxo...
Originariamente inviato da Gatz1980
350 per la liscia da 128MB sono un prezzo indecente!
secondo me non così tanto..se si suppone che la liscia vada come una 9800xt guardando il prezzo di quest'ultima...
Gatz1980
18-04-2004, 22:41
Originariamente inviato da kikbond
secondo me non così tanto..se si suppone che la liscia vada come una 9800xt guardando il prezzo di quest'ultima...
Che vada come una 9800XT è ancora tutto da dimostrare, visto che non esistono benchmarks... :)
Nino Grasso
18-04-2004, 22:42
enigmos, nulla di personale nè voglio scatenare un flame, ma non c'hai capito proprio un ca...
forse se rileggi tutto da capo riesci ad ottenere risultati migliori :sofico: :sofico: :sofico:
e tra parentesi... doom3 ha solo l'engine fisico bloccato a 60hz... tutto il resto (fra cui animazioni, spostamenti del personaggio e scene precalcolate) non ha nessun limite
Originariamente inviato da Gatz1980
Che vada come una 9800XT è ancora tutto da dimostrare, visto che non esistono benchmarks... :)
infatti supponendo..
:p
se poi nn sarà così..boh:)
Dark Schneider
18-04-2004, 22:58
Originariamente inviato da Gatz1980
350 per la liscia da 128MB sono un prezzo indecente!
Prezzo ladro.
Dark Schneider
18-04-2004, 23:00
Originariamente inviato da kikbond
secondo me non così tanto..se si suppone che la liscia vada come una 9800xt guardando il prezzo di quest'ultima...
E' probabile che vada più di una 9800XT visto che ne ha 12 di Pipeline e tecnologicamente più avanzata.
Però per una scheda da 128 MB di tipo DDR1....è esagerato.
Originariamente inviato da Dark Schneider
E' probabile che vada più di una 9800XT visto che ne ha 12 di Pipeline e tecnologicamente più avanzata.
Però per una scheda da 128 MB di tipo DDR1....è esagerato.
fosse per me la venderei a 100€:p
Originariamente inviato da kikbond
secondo me non così tanto..se si suppone che la liscia vada come una 9800xt guardando il prezzo di quest'ultima...
Infatti il prezzo e' stra-ottimo se pensi che al 5900 liscia e' apparsa sui 450 euro.
Spero davvero che ATI riesca a tirar fuori una scheda super competitiva perche' altrimenti ....:(
Dark Schneider
18-04-2004, 23:04
Originariamente inviato da kikbond
fosse per me la venderei a 100€:p
Al max dovrebbe costare 300 una simile scheda....non un euro di più.
Dark Schneider
18-04-2004, 23:05
Originariamente inviato da ballero
Infatti il prezzo e' stra-ottimo se pensi che al 5900 liscia e' apparsa sui 450 euro.
Spero davvero che ATI riesca a tirar fuori una scheda super competitiva perche' altrimenti ....:(
Si ma era un anno fa. Un anno dopo mettere a 350 una scheda da 128 MB per me è esageratissimo.
Originariamente inviato da Dark Schneider
Si ma era un anno fa. Un anno dopo mettere a 350 una scheda da 128 MB per me è esageratissimo.
Fammi capire: fanno uscire nv35 a 450 euro nel '03; nel 2004 fanno uscire una scheda che va il doppio a 100 euro in meno e per te sarebbe "esageratissimo"? :rolleyes:
"il doppio"?!?!... io della liscia devo ancora vedere un bench...
Athlon 64 3000+
18-04-2004, 23:31
Io gioco alla risoluzione di 1024x768x32 con tutti i giochi con il dettaglio al massimo compreso Far Cry.
Però qui nasce il problema.Nei seguenti giochi Ut2004 e Colin 4 quando li provo senza filtri filano lisci come l'olio a 1024x768.
Colin 4 mi sa a dei fps di 90-100 minimo e UT2004 sempre sopra gli 80, i dolori iniziano quando attivo il Filtro il frame rate a Colin 4 scende sui 60-70 con punte massime di 80 e il gioco quando arriva a 50 inizia ad avere dei rallentamenti.
Con UT2004 il frame rate scende in maniera assurda la media sta sui 60 ma spesso gia a 50 fps il gioco mi rallentamente in maniera incomprensibile e ogni tanto gli fps mi crollano sotto i 40,io gioco sempre off-line con 5 bot controllati dall'intelligenza artificiale.
In far cry non utilizzo i filtri perchè è troppo pesante e senza mi gira sui 40-50 frame senza filtri con tutto al massimo tranne le ombre su low a 1024x768.
A 3DMark2001 SE faccio 17500 senza filtri e 13800 con il filtro anisotropico a 8x quality.
Quando avevo il 1700+ se giocavo con o senza filtro anisotropico 8x quality avevo gli stessi identici fps anche pechè sicuramente ero cpu-limited.
Il problema delle righe me lo ha dato anche stasera per una volta quando sono tornato ad accedendere il pc che era stato spento per circa un'ora.:muro: :muro: :muro: :muro: :muro:
Athlon 64 3000+
18-04-2004, 23:31
La 6800 liscia con quel quantitativo di memoria dovrebbe costare sui 300 euro al massimo.
Originariamente inviato da Lestat.me
enigmos, nulla di personale nè voglio scatenare un flame, ma non c'hai capito proprio un ca...
forse se rileggi tutto da capo riesci ad ottenere risultati migliori :sofico: :sofico: :sofico:
e tra parentesi... doom3 ha solo l'engine fisico bloccato a 60hz... tutto il resto (fra cui animazioni, spostamenti del personaggio e scene precalcolate) non ha nessun limite
boh se lo dici tu!! io so solo ke epr quello ke ho visto per adesso...fa veramente cagare(intendo per il potenziale sprecato)
Originariamente inviato da Dark Schneider
Alimentatore eccellente.
Il mio thermaltake spero che vada bene, vero?
ShadowThrone
18-04-2004, 23:44
se dovessi prendere nv40 e il mio chieftec 420w moddato non dovesse farcerla prendo un 300w commerciale (no qtec) lo moddo e lo dedico alla vga.
Dark Schneider
18-04-2004, 23:46
Originariamente inviato da LCol84
Il mio thermaltake spero che vada bene, vero?
I Thermatalke e i Chieftech in realtà non sono altri che dei Siertec rimarchiati. Sono ottimi perchè garantiscono la potenza e gli amperaggi "promessi". ;)
Andrà sicuramente bene.
Dark Schneider
18-04-2004, 23:47
Originariamente inviato da ShadowThrone
se dovessi prendere nv40 e il mio chieftec 420w moddato non dovesse farcerla prendo un 300w commerciale (no qtec) lo moddo e lo dedico alla vga.
Io dico che anche il tuo è sufficente!! :) I Chieftech sono dei bei ali. :)
Originariamente inviato da Raven
"il doppio"?!?!... io della liscia devo ancora vedere un bench...
Ok, ma di materiale ne hai parecchio sulla 6800U e sai che la liscia sara' una 12x con la stessa architettura. Un'idea di massima te la puoi fare benissimo.
Noi stiamo parlando della 5900 liscia e non della 5950; vuoi davvero che una 6800 12x1 non vada il doppio della 5900 liscia?
Se non sara' esattamente il 100% sara' il 90%, ma sempre li'...
lunaticgate
18-04-2004, 23:48
Originariamente inviato da Athlon 64 3000+
Io gioco alla risoluzione di 1024x768x32 con tutti i giochi con il dettaglio al massimo compreso Far Cry.
Però qui nasce il problema.Nei seguenti giochi Ut2004 e Colin 4 quando li provo senza filtri filano lisci come l'olio a 1024x768.
Colin 4 mi sa a dei fps di 90-100 minimo e UT2004 sempre sopra gli 80, i dolori iniziano quando attivo il Filtro il frame rate a Colin 4 scende sui 60-70 con punte massime di 80 e il gioco quando arriva a 50 inizia ad avere dei rallentamenti.
Con UT2004 il frame rate scende in maniera assurda la media sta sui 60 ma spesso gia a 50 fps il gioco mi rallentamente in maniera incomprensibile e ogni tanto gli fps mi crollano sotto i 40,io gioco sempre off-line con 5 bot controllati dall'intelligenza artificiale.
In far cry non utilizzo i filtri perchè è troppo pesante e senza mi gira sui 40-50 frame senza filtri con tutto al massimo tranne le ombre su low a 1024x768.
A 3DMark2001 SE faccio 17500 senza filtri e 13800 con il filtro anisotropico a 8x quality.
Quando avevo il 1700+ se giocavo con o senza filtro anisotropico 8x quality avevo gli stessi identici fps anche pechè sicuramente ero cpu-limited.
Il problema delle righe me lo ha dato anche stasera per una volta quando sono tornato ad accedendere il pc che era stato spento per circa un'ora.:muro: :muro: :muro: :muro: :muro:
40/50 frame ti scatta?
:eek:
Ma io non saprei con il sistema in sign a UT2004 AA4X Aniso16X non scatta un bel niente nemmeno nelle fasi più incasinate!
Dark Schneider
18-04-2004, 23:55
Originariamente inviato da ballero
Fammi capire: fanno uscire nv35 a 450 euro nel '03; nel 2004 fanno uscire una scheda che va il doppio a 100 euro in meno e per te sarebbe "esageratissimo"? :rolleyes:
Certo...mettere 128 MB adesso per una scheda top e abbinarci 350 euro è a mio parere una ladrata. Cavolo se devo prendere una scheda di nuova generazione e me la devo tenere per 2 anni sinceramente non mi va proprio di andare su una scheda da 128 MB e pagarla 350 euro. Già la scelta di dotare di 128 MB non mi è piaciuta tantissimo guardando al futuro, se mettono pure a 350 euro...
ShadowThrone
19-04-2004, 00:19
Originariamente inviato da Dark Schneider
Io dico che anche il tuo è sufficente!! :) I Chieftech sono dei bei ali. :)
ora che ho agito sul trimmer ho dei voltaggi sotto sforzo da paura
La Ultra 550 €urozzi:muro:
Dark Schneider
19-04-2004, 01:07
Originariamente inviato da Miky83
La Ultra 550 €urozzi:muro:
Beh era prevedibile.
nn so se avete visto questi grafici (http://www.pcunleash.com/bbs/zboard.php?id=PerformanceBenchmark&page=1&sn1=&divpage=1&sn=off&ss=on&sc=on&select_arrange=headnum&desc=asc&no=234)
JENA PLISSKEN
19-04-2004, 02:29
Originariamente inviato da Dark Schneider
Io dico che anche il tuo è sufficente!! :) I Chieftech sono dei bei ali. :)
Concordo;)
Nino Grasso
19-04-2004, 03:35
ragazzi, ho visto l'intera conferenza al Lan Party di San Francisco in cui veniva presentata NV40... ebbene proprio là sono comparse le immagini che evidenzavano in Far Cry la differenza fra PS2.0 e PS3.0 con evidenti banfate inq uanto tutti sappiamo che l'immagine dei presunti 2.0 era persino molto peggiore rispetto ai PS1.0 di Geforce3... ebbene nella conferenza (non capisco molto bene l'inglese parlato) mi sembra che dicessero che era + che altro la differenza fra la versione della texture senza uso di pixel shader e la versione con i PS3.0!! quindi + che banfata mi sa che è stato un equivoco del sito che ha riportato le foto... cmq sempre nella conferenza è stato mostrato uno spezzone di Far Cry 3.0 (chiamiamolo così :D) con una qualità notevolmente superiore a quella del nostro conosciuto Far Cry con PS2.0, con l'utilizzo del nuovo fantomatico Displacement Mapping... quì il mio appello è soprattutto a coloro che si ostinano a condannare la qualità di NV40 solo per i filtri (tra l'altro per niente insufficienti)...
halduemilauno
19-04-2004, 09:01
Originariamente inviato da ballero
Fammi capire: fanno uscire nv35 a 450 euro nel '03; nel 2004 fanno uscire una scheda che va il doppio a 100 euro in meno e per te sarebbe "esageratissimo"? :rolleyes:
concordo.
ah se ci riuscite cercate di leggere anche tra le righe.
ciao.
;)
Athlon 64 3000+
19-04-2004, 09:08
Si quando UT2004 mi arriva a 50 frame il gioco mi incomincia ad avere dei rallentamenti e nelle scene più incasinate mi può capitare anche che il frame rate crolli sotto i 40 incominciandomi a rallentare di Brutto.Se gioco 1280x1024 senza filtri il gioco non riesce ad avere una fluidità decente appena arriva a 50 fps mi incomincia a rallentare.
Originariamente inviato da Lestat.me
ragazzi, ho visto l'intera conferenza al Lan Party di San Francisco in cui veniva presentata NV40... ebbene proprio là sono comparse le immagini che evidenzavano in Far Cry la differenza fra PS2.0 e PS3.0 con evidenti banfate inq uanto tutti sappiamo che l'immagine dei presunti 2.0 era persino molto peggiore rispetto ai PS1.0 di Geforce3... ebbene nella conferenza (non capisco molto bene l'inglese parlato) mi sembra che dicessero che era + che altro la differenza fra la versione della texture senza uso di pixel shader e la versione con i PS3.0!! quindi + che banfata mi sa che è stato un equivoco del sito che ha riportato le foto... cmq sempre nella conferenza è stato mostrato uno spezzone di Far Cry 3.0 (chiamiamolo così :D) con una qualità notevolmente superiore a quella del nostro conosciuto Far Cry con PS2.0, con l'utilizzo del nuovo fantomatico Displacement Mapping... quì il mio appello è soprattutto a coloro che si ostinano a condannare la qualità di NV40 solo per i filtri (tra l'altro per niente insufficienti)...
Ti dò un consiglio....la gente che esordisce con "la scheda fa cagare" non le calcolare,temo che di sk video comprendano ben poco per poter giudicare qualcosa.
Eviti arrabbiature e non risolveresti comunque nulla a rispondere
:D
halduemilauno
19-04-2004, 09:46
Originariamente inviato da R@nda
Ti dò un consiglio....la gente che esordisce con "la scheda fa gacare" non le calcolare,temo che di sk video comprendano ben poco per poter giudicare qualcosa.
Eviti arrabbiature e non risolveresti comunque nulla a rispondere
:D
parole sante.
ciao.
;)
Athlon 64 3000+
19-04-2004, 09:47
Io della 6800 la cosa che non mi è piaciuta è che hanno fatto i test a FP16 e il filtro anisotropico con il bilineare,ma dato che è una revision non definitiva e i driver sono dei beta c'è tutta la possbilità che migliorino questi due aspetti.
Athlon 64 3000+
19-04-2004, 09:50
in questi giorni mio cugino mi passa una Radeon 9700pro della Hercules con PCB rosso,voglio vedere se è colpa della scheda video o di qualche altro pezzo delle presunte basse prestazioni con i filtri.
Più o meno sono daccordo......la qualità in Fp16 così non va bene,questo a parer mio è l'unica vera magagna da risolvere.
Originariamente inviato da R@nda
Più o meno sono daccordo......la qualità in Fp16 così non va bene,questo a parer mio è l'unica vera magagna da risolvere.
Quello che mi arrovella non poco è che, se lo shader model 2.0 richiede una precisione FP24 mentre quello 3.0 una FP32, perché gli ingegneri nVidia hanno mantenuto quella FP16 quando questa non è sufficiente perché causa il famigerato color banding (assumendo che i difetti grafici di FC non siano da imputare ai driver)?
I PS 2.0 possono farli anche in FP32......quindi due sono le cose:
O in Nvidia sono sicuri di avere comunque prestazioni sufficienti
per elaborare sempre in Fp32
O si tratta di un problema di driver (secondo me no).
Chi lo sa?
Ah....è anche possibile che la scheda sia così e basta....Fp16/32 come le precedenti....
Jedi_Master
19-04-2004, 10:07
Originariamente inviato da R@nda
Ah....è anche possibile che la scheda sia così e basta....Fp16/32 come le precedenti....
Il che' non sarebbe molto bello!
Direi che tra un paio di mesi quando sia questa che la
risposta ati avranno driver piu' o meno definitivi si
potra' incominciare a tirare le somme.
Originariamente inviato da MaBru
Quello che mi arrovella non poco è che, se lo shader model 2.0 richiede una precisione FP24 mentre quello 3.0 una FP32, perché gli ingegneri nVidia hanno mantenuto quella FP16 quando questa non è sufficiente perché causa il famigerato color banding (assumendo che i difetti grafici di FC non siano da imputare ai driver)?
Esistono casi in cui il calcolo in FP16 è più che sufficiente e non comporta un degrado qualitativo. In tal caso l'uso del FP16 è un vantaggio nelle prestazioni perché i numeri in FP16 sono più facili da gestire sia a livello di calcolo che di bandwidth.
halduemilauno
19-04-2004, 10:43
Originariamente inviato da Vifani
Esistono casi in cui il calcolo in FP16 è più che sufficiente e non comporta un degrado qualitativo. In tal caso l'uso del FP16 è un vantaggio nelle prestazioni perché i numeri in FP16 sono più facili da gestire sia a livello di calcolo che di bandwidth.
scusa Vifani approfitto della tua competenza e per il fatto che sei tra i pochissimi che hanno testato la scheda.
Tu se necessario miglioreresti qualcosa alla NV40?
io per esempio tornerei al AF di prima e lavorerei di più sul FSAA. (che forse con driver più maturi...).
e Tu?
grazie ciao.
:) :)
Ho trovato questo:
http://www.gamershell.com/download_5593.shtml
Sono tre mini filmati dei 3 demo dell'Nv40.
Dark Se ti va linkalo:)
PhoEniX-VooDoo
19-04-2004, 11:17
Gigabyte GeForce 6800 Ultra - 256 Mb
http://www.1000ordi.fr/pics/gigabyte/6800.jpg
503.21 Euro
Leadtek Winfast A400 Ultra TDH MyVIVO - 256MB
http://www.1000ordi.fr/pics/leadtek/a400u.jpg
551.28 Euro
http://www.1000ordi.ch/products.php?g1=cf535c
:)
JENA PLISSKEN
19-04-2004, 11:20
LA Leadtek è un mostro...ma quel TDH mi attizza:oink:
ki vuole una 9800xt sapphire a 503€ lool
Originariamente inviato da MaBru
Quello che mi arrovella non poco è che, se lo shader model 2.0 richiede una precisione FP24 mentre quello 3.0 una FP32, perché gli ingegneri nVidia hanno mantenuto quella FP16 quando questa non è sufficiente perché causa il famigerato color banding (assumendo che i difetti grafici di FC non siano da imputare ai driver)?
Cmq da quanto ne so io lo shader model 2.0 ha come minima precisione i 16bit, mentre lo shader model 3 ha come minima precisione i 24bit. Magari Fek ci aiuta meglio ma non mi pare che la richiesta minima dei Ps 3 sia 32bit.
JENA PLISSKEN
19-04-2004, 11:46
Originariamente inviato da DjLode
Cmq da quanto ne so io lo shader model 2.0 ha come minima precisione i 16bit, mentre lo shader model 3 ha come minima precisione i 24bit. Magari Fek ci aiuta meglio ma non mi pare che la richiesta minima dei Ps 3 sia 32bit.
Anch 'io sapevo questo;)
PhoEniX-VooDoo
19-04-2004, 11:51
Originariamente inviato da DjLode
Cmq da quanto ne so io lo shader model 2.0 ha come minima precisione i 16bit, mentre lo shader model 3 ha come minima precisione i 24bit. Magari Fek ci aiuta meglio ma non mi pare che la richiesta minima dei Ps 3 sia 32bit.
quindi l'X800 può restare in specifica PS3.0 usando ancora l'FP24?
La differenza tra 24 e 32 è davvero poca e le prestazioni ne giovano...chissa Ati cosa ha adottato :)
io nutro pure una piccola speranza per un FSAA 8X di tipo "reale" (non mi ricordo i nomi tecnici, scusate) e non mixed come quello nVidia...
Jedi_Master
19-04-2004, 11:56
Infatti la scelta + saggia imho sarebbe fare 24 e la
scheda che viaggia come un TGV!!
vedremo.....
:)
Originariamente inviato da PhoEniX-VooDoo
quindi l'X800 può restare in specifica PS3.0 usando ancora l'FP24?
Pare che non sia questa la funzione che manca ma quella di salto in avanti e indietro (non ricordo il nome e non ho voglia dic ercarlo :)).
io nutro pure una piccola speranza per un FSAA 8X di tipo "reale" (non mi ricordo i nomi tecnici, scusate) e non mixed come quello nVidia...
A quanto pare questo sembra molto probabile, e ovviamente si parla di 8x reale.
Originariamente inviato da DjLode
A quanto pare questo sembra molto probabile, e ovviamente si parla di 8x reale.
mah....già è difficile vedere la differenza pratica tra un 4x e un 6x...
bYeZ!
Dark Schneider
19-04-2004, 12:08
Originariamente inviato da Lestat.me
ragazzi, ho visto l'intera conferenza al Lan Party di San Francisco in cui veniva presentata NV40... ebbene proprio là sono comparse le immagini che evidenzavano in Far Cry la differenza fra PS2.0 e PS3.0 con evidenti banfate inq uanto tutti sappiamo che l'immagine dei presunti 2.0 era persino molto peggiore rispetto ai PS1.0 di Geforce3... ebbene nella conferenza (non capisco molto bene l'inglese parlato) mi sembra che dicessero che era + che altro la differenza fra la versione della texture senza uso di pixel shader e la versione con i PS3.0!! quindi + che banfata mi sa che è stato un equivoco del sito che ha riportato le foto... cmq sempre nella conferenza è stato mostrato uno spezzone di Far Cry 3.0 (chiamiamolo così :D) con una qualità notevolmente superiore a quella del nostro conosciuto Far Cry con PS2.0, con l'utilizzo del nuovo fantomatico Displacement Mapping... quì il mio appello è soprattutto a coloro che si ostinano a condannare la qualità di NV40 solo per i filtri (tra l'altro per niente insufficienti)...
Il tuo discorso non fa una grinzia!!;)
Dark Schneider
19-04-2004, 12:09
Originariamente inviato da R@nda
Ho trovato questo:
http://www.gamershell.com/download_5593.shtml
Sono tre mini filmati dei 3 demo dell'Nv40.
Dark Se ti va linkalo:)
Inserito!:D
E' adesso me li vedo! :)
zerothehero
19-04-2004, 12:09
Originariamente inviato da Gatz1980
350 per la liscia da 128MB sono un prezzo indecente!
perchè? 5-6 mesi fa la 9800 pro costava proprio questo prezzo..
Dark Schneider
19-04-2004, 12:10
Originariamente inviato da JENA PLISSKEN
LA Leadtek è un mostro...ma quel TDH mi attizza:oink:
Ammazza ti piacciono i mattoni?:sofico:
Dark Schneider
19-04-2004, 12:17
Originariamente inviato da zerothehero
perchè? 5-6 mesi fa la 9800 pro costava proprio questo prezzo..
Hai detto bene...5-6 mesi fa.
Ma adesso nelle nuove schede...di nuova generazione basta mettere ancora 128 MB. O se vogliono mettere 128 MB il prezzo dovrebbe essere più basso.
E' meglio iniziare a gurdare anche un po' al futuro e non al presente. Nelle schede medie o di bassa fascia vabbè son inutili...ma quelle di alta bisogna dotarle con maggiore ram: 256 MB sono l'ideale. Son già 2 anni che si adottano 128 MB...ed io personalmente l'ultima cosa che farò sarà di prendere un altra scheda da 128 MB e andarci avanti due anni. Da adesso pretendo 256 MB nella fascia alta.
zerothehero
19-04-2004, 12:20
Originariamente inviato da Dark Schneider
Hai detto bene...5-6 mesi fa.
Ma adesso nelle nuove schede...di nuova generazione basta mettere ancora 128 MB. O se vogliono mettere 128 MB il prezzo dovrebbe essere più basso.
E' meglio iniziare a gurdare anche un po' al futuro e non al presente. Nelle schede medie o di bassa fascia vabbè son inutili...ma quelle di alta bisogna dotarle con maggiore ram: 256 MB sono l'ideale. Son già 2 anni che si adottano 128 MB...ed io personalmente l'ultima cosa che farò sarà di prendere un altra scheda da 128 MB e andarci avanti due anni. Da adesso pretendo 256 MB nella fascia alta.
Anch'io sono convinto che oramai 256 mb di ram sono l'ideale..per questo prenderò l'ultra....ma non ho ancora capito la questione dell'fp 16-32....perchè su questa scheda non ha fatto un fp 16-24-32?
Originariamente inviato da zerothehero
Anch'io sono convinto che oramai 256 mb di ram sono l'ideale..per questo prenderò l'ultra....ma non ho ancora capito la questione dell'fp 16-32....perchè su questa scheda non ha fatto un fp 16-24-32?
le dx prevedono modalità fp 16/32 ati ha invece ""inventanto"" una modalità ibrida a fp24 che non gli consentirà di essere PS 3.0 compilant al 100%.
Comunque dando uno sguardo al concorrente credo che con architetture molto simili, ma con circa 40 mln in meno di transistor e Low-K, R420 sia nettamente in vantaggio.
Io vedo una X800 Pro 12pipes @ 500mhz superiore alla 6800 e una X800XT 16pipes @ 550/600 superiore a 6800 ultra.
spero siano allineate, ma questa differenza cosi grande di clock potrebbe fare una notevole differenza, senza contare i miglioramenti agli engine interni
Dark Schneider
19-04-2004, 13:09
Originariamente inviato da dwfgerw
le dx prevedono modalità fp 16/32 ati ha invece ""inventanto"" una modalità ibrida a fp24 che non gli consentirà di essere PS 3.0 compilant al 100%.
Si sapevo anchio così.
Originariamente inviato da dwfgerw
Comunque dando uno sguardo al concorrente credo che con architetture molto simili, ma con circa 40 mln in meno di transistor e Low-K, R420 sia nettamente in vantaggio.
Io vedo una X800 Pro 12pipes @ 500mhz superiore alla 6800 e una X800XT 16pipes @ 550/600 superiore a 6800 ultra.
spero siano allineate, ma questa differenza cosi grande di clock potrebbe fare una notevole differenza, senza contare i miglioramenti agli engine interni
Ma anche secondo me il Low-K è una carta vincente, però non credo che se R420 si dimostrerà più veloce lo sarà di molto.....ma di poco.
Tra l'altro è attendibile il fatto che le versioni che di NV40 che saranno nei negozi avranno clock più spinti. Ricordiamoci sempre che il sample utilizzato nella recensione non scaldava molto.....e le versioni finali magari con qlc sistema di raffreddamento migliore potrebbero benissimo partire con frequenze più alte. :) Ah tra l'altro adesso ho appena riletto...anche sotto OC la scheda era tiepida.
Originariamente inviato da dwfgerw
le dx prevedono modalità fp 16/32 ati ha invece ""inventanto"" una modalità ibrida a fp24 che non gli consentirà di essere PS 3.0 compilant al 100%.
No.
Le DX9(a-b) prevedono una precisione per l'esecuzione degli shader minima di fp24.
Ecco perchè il "mixed mode" non viene ritenuto "corretto", perchè oltre a degradare in particolari condizioni la resa, con l'fp 16 non applica i ps2.0 e superiori secondo quanto richiesto da Microzzoz(la differenza è quella che si vede negli shot di far cry).
I ps della versione 9 DX sono i ps2.0, ps2.0a(DX9a), ps2.0b(DX9b), ps3.0(DX9c, ancora non rilasciate).
Le uniche a richiedere l'fp32 sono quelle che avranno i ps3.0, che beninteso non sono da considerarsi "contemplati" se un "compilatore" dei driver ne decide l'eventuale scalatura a fp16, dovrebbe essere l'applicazione a dire al driver come impostare l'hw, non l'hardware a eseguire un'aplicazione crackandone i parametri tramite i driver, se una scheda è capace di far girare un'applicazione "sempre" in fp32 secondo le specifiche minime indispensabili della stessa, perchè esegue l'applicazione senza rispettare le specifiche?
In nv40 "probabilmente" c'è tutta la potenza per farlo, forse per rendere il numero di fps + impressionante al debutto hanno deliberatamente evitato di farlo, nella serie precedente no, per questo personalmente reputo tutta la serie che deriva da nv30 una sorta di DX8 1/2.
Originariamente inviato da DjLode
Cmq da quanto ne so io lo shader model 2.0 ha come minima precisione i 16bit, mentre lo shader model 3 ha come minima precisione i 24bit. Magari Fek ci aiuta meglio ma non mi pare che la richiesta minima dei Ps 3 sia 32bit.
Allora non ci capisco più niente io. Nel filmato della presentazione dell'NV40 che ho linkato parecchi post fa ad un certo punto viene mostrato una slide dove si confronta lo shader madel 3.0 a quello 2.0. Beh, li c'è scritto chiaramente FP24 per SM2.0 e FP32 per SM3.0. Appena ho tempo ricontrollo il filmato.
JENA PLISSKEN
19-04-2004, 13:13
Originariamente inviato da Cifer
No.
Le DX9(a-b) prevedono una precisione per l'esecuzione degli shader minima di fp24.
Ecco perchè il "mixed mode" non viene ritenuto "corretto", perchè oltre a degradare in particolari condizioni la resa, con l'fp 16 non applica i ps2.0 e superiori secondo quanto richiesto da Microzzoz(la differenza è quella che si vede negli shot di far cry).
I ps della versione 9 DX sono i ps2.0, ps2.0a(DX9a), ps2.0b(DX9b), ps3.0(DX9c, ancora non rilasciate).
Le uniche a richiedere l'fp32 sono quelle che avranno i ps3.0, che beninteso non sono da considerarsi "contemplati" se un "compilatore" dei driver ne decide l'eventuale scalatura a fp16, dovrebbe essere l'applicazione a dire al driver come impostare l'hw, non l'hardware a eseguire un'aplicazione crackandone i parametri tramite i driver, se una scheda è capace di far girare un'applicazione "sempre" in fp32 secondo le specifiche minime indispensabili della stessa, perchè esegue l'applicazione senza rispettare le specifiche?
In nv40 "probabilmente" c'è tutta la potenza per farlo, forse per rendere il numero di fps + impressionante al debutto hanno deliberatamente evitato di farlo, nella serie precedente no, per questo personalmente reputo tutta la serie che deriva da nv30 una sorta di DX8 1/2.
Qundi DX9c--->PS3.0--->fp32:confused: :confused:
Originariamente inviato da dwfgerw
Comunque dando uno sguardo al concorrente credo che con architetture molto simili, ma con circa 40 mln in meno di transistor e Low-K, R420 sia nettamente in vantaggio.
Io vedo una X800 Pro 12pipes @ 500mhz superiore alla 6800 e una X800XT 16pipes @ 550/600 superiore a 6800 ultra.
spero siano allineate, ma questa differenza cosi grande di clock potrebbe fare una notevole differenza, senza contare i miglioramenti agli engine interni
:eek: :eek: :eek:
http://www.nvitalia.com/forum/showthread.php?s=&postid=432289
Ciao DST!!! :eek: :muro: :ahahah:
... beccato! :p
la tua sign è azzaccata in questa situazione:p
Bye;)
Originariamente inviato da MaBru
Allora non ci capisco più niente io. Nel filmato della presentazione dell'NV40 che ho linkato parecchi post fa ad un certo punto viene mostrato una slide dove si confronta lo shader madel 3.0 a quello 2.0. Beh, li c'è scritto chiaramente FP24 per SM2.0 e FP32 per SM3.0. Appena ho tempo ricontrollo il filmato.
Che culo!!! Ho beccato subito il punto giusto. Date un'occhiata dal minuto 21:10 in poi. Lì c'è la slide. Se non mi sono rimbambito all'improvviso (probabile cmq:D) sulla riga "Required shader precision" c'è scritto FP24 per SM2.0 e FP32 per SM3.0.
Originariamente inviato da dwfgerw
la tua sign è azzaccata in questa situazione:p
Bye;)
Si però qui su HWUp ti se dato un nick impronunciabile eh?:D
Originariamente inviato da JENA PLISSKEN
Qundi DX9c--->PS3.0--->fp32:confused: :confused:
In teoria, in pratica dubito che l'nv40 si potrà permettere di farlo realmente, anche perchè rispetto ad una rivale con maggiore frequenza che lavora in fp24 si ritroverebbe dinuovo fortemnte svantaggiata, insomma per riequilibrare sarebbe plausibile una situazione come la precedente, nella quale il ricorso alla scalatura da fp32 a fp16, + che per ottenere il miglior compromesso qualità/velocità servirebbe per ottenere il miglior compromesso fps/concorrenza.
imho.
Originariamente inviato da dwfgerw
la tua sign è azzaccata in questa situazione:p
PVT! ;)
Originariamente inviato da R@nda
Si però qui su HWUp ti se dato un nick impronunciabile eh?:D
... più che altro una volta era DST anche qua...
Chi ha orecchie per intendere... :p
Originariamente inviato da Cifer
In teoria, in pratica dubito che l'nv40 si potrà permettere di farlo realmente, anche perchè rispetto ad una rivale con maggiore frequenza che lavora in fp24 si ritroverebbe dinuovo fortemnte svantaggiata, insomma per riequilibrare sarebbe plausibile una situazione come la precedente, nella quale il ricorso alla scalatura da fp32 a fp16, + che per ottenere il miglior compromesso qualità/velocità servirebbe per ottenere il miglior compromesso fps/concorrenza.
imho.
giusto, infatti fek ha detto più volte dopo anche aver assistito a meeting con nvidia che l'attuale generazione farà ancora largo uso di fp16 e solo dove necessario (per il DBM) FP32.
sarebbe già tanto se iniziassero a scirevere un pochino più di shader dx9 nei giochi anche fp16.
l'FP 32 vero arriverà solo con le prossime architetture R500 e nV50
halduemilauno
19-04-2004, 13:35
Originariamente inviato da dwfgerw
Comunque dando uno sguardo al concorrente credo che con architetture molto simili, ma con circa 40 mln in meno di transistor e Low-K, R420 sia nettamente in vantaggio.
Io vedo una X800 Pro 12pipes @ 500mhz superiore alla 6800 e una X800XT 16pipes @ 550/600 superiore a 6800 ultra.
spero siano allineate, ma questa differenza cosi grande di clock potrebbe fare una notevole differenza, senza contare i miglioramenti agli engine interni
come ti ho gia detto di là bisogna aspettare le frequenze definitive della 6800 ultra.
ciao.
:) :)
Dark Schneider
19-04-2004, 13:38
Originariamente inviato da halduemilauno
come ti ho gia detto di là bisogna aspettare le frequenze definitive della 6800 ultra.
ciao.
:) :)
Io dico saranno più alte. Perchè appunto già OC a 450/1140 la scheda viene definita "tiepida". :)
Ehi magari possiamo chiedere al Vifani di provare ad andare oltre i 450/1140 con il suo sample anche se non definitivo...e vedere un po'!! :)
halduemilauno
19-04-2004, 13:40
Originariamente inviato da Raven
... più che altro una volta era DST anche qua...
Chi ha orecchie per intendere... :p
ricordo. azz se ricordo.
ciao.
;)
Thunder82
19-04-2004, 13:49
Originariamente inviato da halduemilauno
come ti ho gia detto di là bisogna aspettare le frequenze definitive della 6800 ultra.
ciao.
:) :)
p.s. mi avevi mandato un pvt l'altro giorno? :)
Avevo la casella piena, ora l'ho svuotata :)
halduemilauno
19-04-2004, 13:50
Originariamente inviato da Thunder82
p.s. mi avevi mandato un pvt l'altro giorno? :)
Avevo la casella piena, ora l'ho svuotata :)
si. lo rimando subito.
ciao.
;)
ShadowThrone
19-04-2004, 13:51
raga, un favore...
sto cercando il mess col link dell'intera conferenza nvidia ma non lo trovo!!! a che pagina si trova???
Originariamente inviato da Dark Schneider
Io dico saranno più alte. Perchè appunto già OC a 450/1140 la scheda viene definita "tiepida". :)
Ehi magari possiamo chiedere al Vifani di provare ad andare oltre i 450/1140 con il suo sample anche se non definitivo...e vedere un po'!! :)
molto probabilmente non si superano i 450Mhz con la revision A1 del core.
volevo anche segnalarvi alcune cose dette da "Hellbinder" una sorta di YOSSARIAN di B3D molto ben informato
http://www.beyond3d.com/forum/viewtopic.php?t=11507&postdays=0&postorder=asc&start=140
ecco alcune cose molto interessanti :
You people should listen to Hellbinder, he is "in the know" about most of ATI's GFX cards. Here are some quotes for you all to ponder :
Quote:
Something most of you are not considering. R420 could actually SURPASS PS3.0 in some very important ways, yet not have some of the more transistor consuming and not very usefull features like Branching and Swizzle...
Something you guys should think about.
What if R420 can push 2,000 Shader instructions per clock at full game speed yet does not have Branching? Is that not better than a card that *claims* full shader 3.0 yet barely has the transistors in place to actually meet every detail of the spec? You dont need Branching and half that stuff for really great Shader Quality and performance.
Ultimately when R500 and Nv50 comes out then you will see full power to the Shader 3.0 banks so to speak. By then the Chips will be closing on 300million transistors.
Quote:
Look at the Nv40. 222 MILLION transistors. Much of their die space taken up with slow initial implimentation of PS 3.0. Which is sad becuase non of it is required or actually affects the Visual output.
Ati is sitting at about 180 million transistors, has 16 pipelines and each one is beeffed to the Gills to just push shader instructions etc like a runaway freight train.
If their was an actual visual difference between PS2.0 and 3.0 then it would mean something.
Quote:
There is not one effect than can be rendered in PS3.0 that cannot also be done in Ps 2.0 Further a really powerful PS 2.0+ shader system will likely vastly outperform the same exact effect written in Nv40's PS3.0
I think you guys may end up finding that there is little or no difference at all, except when Nvidia influences developers to do PS.30 *only* shaders in a game.
Quote:
I just learned something that has me twice as excited as before. Launch day cannot come fast enough.
This is going to be great
Dark Schneider
19-04-2004, 13:56
Originariamente inviato da dwfgerw
molto probabilmente non si superano i 450Mhz con la revision A1 del core.
Si ma appunto non si capisce se hanno giusto provato quelle frequenze oppure hanno tentato più frequenze trovando poi quella giusta. Perchè nell'articoloè scritto che il rilevamento era esagerato...e poi si è provato a quelle frequenze.
se fossi nvidia lavorerei alacremente con ibm per sfruttare i suoi innumerevoli brevetti...
il SOI tanto per citarne uno sarebbe ottimo con gpu di questo tipo.
Thunder82
19-04-2004, 14:12
Originariamente inviato da dwfgerw
volevo anche segnalarvi alcune cose dette da "Hellbinder" una sorta di YOSSARIAN di B3D molto ben informato
http://www.beyond3d.com/forum/viewtopic.php?t=11507&postdays=0&postorder=asc&start=140
ecco alcune cose molto interessanti :
You people should listen to Hellbinder, he is "in the know" about most of ATI's GFX cards. Here are some quotes for you all to ponder :
Quote:
Something most of you are not considering. R420 could actually SURPASS PS3.0 in some very important ways, yet not have some of the more transistor consuming and not very usefull features like Branching and Swizzle...
Something you guys should think about.
What if R420 can push 2,000 Shader instructions per clock at full game speed yet does not have Branching? Is that not better than a card that *claims* full shader 3.0 yet barely has the transistors in place to actually meet every detail of the spec? You dont need Branching and half that stuff for really great Shader Quality and performance.
Ultimately when R500 and Nv50 comes out then you will see full power to the Shader 3.0 banks so to speak. By then the Chips will be closing on 300million transistors.
Quote:
Look at the Nv40. 222 MILLION transistors. Much of their die space taken up with slow initial implimentation of PS 3.0. Which is sad becuase non of it is required or actually affects the Visual output.
Ati is sitting at about 180 million transistors, has 16 pipelines and each one is beeffed to the Gills to just push shader instructions etc like a runaway freight train.
If their was an actual visual difference between PS2.0 and 3.0 then it would mean something.
Quote:
There is not one effect than can be rendered in PS3.0 that cannot also be done in Ps 2.0 Further a really powerful PS 2.0+ shader system will likely vastly outperform the same exact effect written in Nv40's PS3.0
I think you guys may end up finding that there is little or no difference at all, except when Nvidia influences developers to do PS.30 *only* shaders in a game.
Quote:
I just learned something that has me twice as excited as before. Launch day cannot come fast enough.
This is going to be great
Molto interessante come ipotesi ;)
In effetti quei transistor su nV40 sono lì a scaldare per niente perchè i ps 3.0 non li vedremo mai implementati prima di un bel pezzo.
L'unica è aspettare ATi e vedere cosa riuscirà a tirare fuori :)
ShadowThrone
19-04-2004, 14:16
Originariamente inviato da Thunder82
Molto interessante come ipotesi ;)
In effetti quei transistor su nV40 sono lì a scaldare per niente perchè i ps 3.0 non li vedremo mai implementati prima di un bel pezzo.
L'unica è aspettare ATi e vedere cosa riuscirà a tirare fuori :)
vediamo se nvidia ha voluto fare la sborona. queste cose mi fanno ancor di più aspettare ATI.
mi date il link per favore?!!!
:cry:
Originariamente inviato da dwfgerw
giusto, infatti fek ha detto più volte dopo anche aver assistito a meeting con nvidia che l'attuale generazione farà ancora largo uso di fp16 e solo dove necessario (per il DBM) FP32.
sarebbe già tanto se iniziassero a scirevere un pochino più di shader dx9 nei giochi anche fp16.
l'FP 32 vero arriverà solo con le prossime architetture R500 e nV50
Se lo facessero non rispetterebbero le specifiche(dx9), oltre ad avere parte dell'hw(ati) in circolazione sottosfruttato, cioè stessa prestazione ma qualità inferiore rispetto a quella ottenibile.
Fp16 vuol dire la radice quadrata dei colori disponibili invece in fp32, il che in degli shaders che servono a simulare effetti di rifrazione fa una gran differenza, tanto per capirci è come prendere la foto di un tubo con la rifrazione della luce, prima la visualizzi a 32 bit (circa 4300 milioni di colori), poi a 24 bit(circa 18 milioni di colori), poi a 16 bit(circa 65.000 colori).
L'occhio umano è in grado di percepire in modo molto + sensibile la differenza fra 32-16 bit di quanto non lo sia nei confronti di 32-24bit.
Programmare aggirando le DX9, cioè considerando la palette di partenza di alcuni shaders a 16bit allontana parecchio dal fotorealismo, comunque non cambierebbe la resa, ansichè essere il diver a "comprimere"(Nvidia) in modo automatico il numero di colori disponibili per lo shader, sarebbe l'applicazione a farlo (solo in openGL credo sia possibile, usando le dx[sono comunque librerie esterne] si richiamano dei comandi preimpostati, così come lo è l'esecuzione di uno shader, quindi la palette di partenza è comunque quella minima richiesta, credo che solo il driver possa incidere).
Dark Schneider
19-04-2004, 14:24
Originariamente inviato da Thunder82
Molto interessante come ipotesi ;)
In effetti quei transistor su nV40 sono lì a scaldare per niente perchè i ps 3.0 non li vedremo mai implementati prima di un bel pezzo.
L'unica è aspettare ATi e vedere cosa riuscirà a tirare fuori :)
Non è corretto: non dimenticarti delle funzionalità di deconding/encoding di questa GPU che è qlc in più di una scheda video. Quei transistor in più non sono inutili.
sanitarium
19-04-2004, 14:25
Errore! :D
JENA PLISSKEN
19-04-2004, 14:26
Originariamente inviato da sanitarium
Errore! :D
Orrore:D
Originariamente inviato da dwfgerw
volevo anche segnalarvi alcune cose dette da "Hellbinder" una sorta di YOSSARIAN di B3D molto ben informato
Non offendiamo :)
A parte gli scherzi, anche io leggo con interesse i post di Hellbinder (e i rumors che ho postato nell'altro post su R420 vengono da lì), perchè o ha una sfera di cristallo funzionante o è ben informato. Anche lui però riporta rumors, magari sentiti in giro da PR o altri suoi agganci. Sinceramente i post di yossarian mi sembrano di un altro pianeta in quanto a contenuti tecnici e yoss non parla di rumors, di solito fa qualche conto e poi spaccia (scherzo :)) i risultati :) che sempre di solito se non sono giusti poco ci manca.
http://www.tombraiders.it/public/103_0368.jpg
-=Krynn=-
19-04-2004, 14:35
Originariamente inviato da ShadowThrone
vediamo se nvidia ha voluto fare la sborona. queste cose mi fanno ancor di più aspettare ATI.
mi date il link per favore?!!!
:cry:
NOn posso che essere daccordo. Mettere i PS 3.0 IMho è inutile al momento.....
Originariamente inviato da -=Krynn=-
NOn posso che essere daccordo. Mettere i PS 3.0 IMho è inutile al momento.....
guarda che i ps 3.0 rispetto alla modalit ps 2.0 estesa di ati si differenziano per un paio di istruzioni.
peril resto sono interessantissimi i VS 3.0.
Dark Schneider
19-04-2004, 14:45
Originariamente inviato da DjLode
Non offendiamo :)
A parte gli scherzi, anche io leggo con interesse i post di Hellbinder (e i rumors che ho postato nell'altro post su R420 vengono da lì), perchè o ha una sfera di cristallo funzionante o è ben informato. Anche lui però riporta rumors, magari sentiti in giro da PR o altri suoi agganci. Sinceramente i post di yossarian mi sembrano di un altro pianeta in quanto a contenuti tecnici e yoss non parla di rumors, di solito fa qualche conto e poi spaccia (scherzo :)) i risultati :) che sempre di solito se non sono giusti poco ci manca.
Infatti yoss sta su un altro livello!! :D
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/AssemblyLanguageShaders/PixelShaders/Registers/ps_3_0_Registers.asp
Qua non si fa menzione di niente del genere.
Altro per ora non trovo.
yossarian
19-04-2004, 15:05
Originariamente inviato da Cifer
Se lo facessero non rispetterebbero le specifiche(dx9), oltre ad avere parte dell'hw(ati) in circolazione sottosfruttato, cioè stessa prestazione ma qualità inferiore rispetto a quella ottenibile.
Fp16 vuol dire la radice quadrata dei colori disponibili invece in fp32, il che in degli shaders che servono a simulare effetti di rifrazione fa una gran differenza, tanto per capirci è come prendere la foto di un tubo con la rifrazione della luce, prima la visualizzi a 32 bit (circa 4300 milioni di colori), poi a 24 bit(circa 18 milioni di colori), poi a 16 bit(circa 65.000 colori).
L'occhio umano è in grado di percepire in modo molto + sensibile la differenza fra 32-16 bit di quanto non lo sia nei confronti di 32-24bit.
Programmare aggirando le DX9, cioè considerando la palette di partenza di alcuni shaders a 16bit allontana parecchio dal fotorealismo, comunque non cambierebbe la resa, ansichè essere il diver a "comprimere"(Nvidia) in modo automatico il numero di colori disponibili per lo shader, sarebbe l'applicazione a farlo (solo in openGL credo sia possibile, usando le dx[sono comunque librerie esterne] si richiamano dei comandi preimpostati, così come lo è l'esecuzione di uno shader, quindi la palette di partenza è comunque quella minima richiesta, credo che solo il driver possa incidere).
vero, però il discorso sulla precisione di calcolo è ben più ampio e non si limita solo all'utilizzo dei colori ma anche a calcoli aritmetici. I PS2.0 prevedono l'utilizzo di FP24 come requisito minimo (tranne nel caso di dependant read, per cui è ammesso l'uso di FP16) perchè si prevede una certa lunghezza complessiva delle istruzioni. I PS3.0, invece, prevedono FP32 perchè la lunghezza teorica delle istruzioni può essere infinita (in pratica saranno sempre fisicamente limitate dalla capacità dei registi interni dei chip). Tutto ciò nasce da esigenze legate al problema della propagazione degli errori. Immaginate di avere un'istruzione che richieda l'utilizzo del PI greco, oppure della SQRT(2) o di un qualunque numero irrazionale. E' ovvio che qualunque sia la notazione utilizzata, si dovrà procedere ad un'approssimazione; quest'approssimazione sarà tanto più "drastica" quanto minore è il numero di bit utilizzati per rappresentare il risultato dell'operazione. Se questo risultato si trova alla fine di una sequenza di istruzioni, il problema è trascurabile; se si trova all'inizio di una sequenza breve di istruzioni, può introdurre degli errori, nei successivi passaggi, facilmente gestibili. Se si trova all'inizio di una sequenza molto lunga, invece, può essere disastroso e portare ad errori di calcolo sensibili (ogni passaggio successivo introduce ulteriori approssimazioni aumentando il termine relativo all'errore).
Originariamente inviato da yossarian
vero, però il discorso sulla precisione di calcolo è ben più ampio e non si limita solo all'utilizzo dei colori ma anche a calcoli aritmetici. I PS2.0 prevedono l'utilizzo di FP24 come requisito minimo (tranne nel caso di dependant read, per cui è ammesso l'uso di FP16) perchè si prevede una certa lunghezza complessiva delle istruzioni. I PS3.0, invece, prevedono FP32 perchè la lunghezza teorica delle istruzioni può essere infinita (in pratica saranno sempre fisicamente limitate dalla capacità dei registi interni dei chip). Tutto ciò nasce da esigenze legate al problema della propagazione degli errori. Immaginate di avere un'istruzione che richieda l'utilizzo del PI greco, oppure della SQRT(2) o di un qualunque numero irrazionale. E' ovvio che qualunque sia la notazione utilizzata, si dovrà procedere ad un'approssimazione; quest'approssimazione sarà tanto più "drastica" quanto minore è il numero di bit utilizzati per rappresentare il risultato dell'operazione. Se questo risultato si trova alla fine di una sequenza di istruzioni, il problema è trascurabile; se si trova all'inizio di una sequenza breve di istruzioni, può introdurre degli errori, nei successivi passaggi, facilmente gestibili. Se si trova all'inizio di una sequenza molto lunga, invece, può essere disastroso e portare ad errori di calcolo sensibili (ogni passaggio successivo introduce ulteriori approssimazioni aumentando il termine relativo all'errore).
nei chip video odierni abbiamo unità d prefetching analoghe a qll ke s trovano ad esempio nei P4?
bYeZ!
yossarian
19-04-2004, 15:18
Originariamente inviato da DjLode
Non offendiamo :)
A parte gli scherzi, anche io leggo con interesse i post di Hellbinder (e i rumors che ho postato nell'altro post su R420 vengono da lì), perchè o ha una sfera di cristallo funzionante o è ben informato. Anche lui però riporta rumors, magari sentiti in giro da PR o altri suoi agganci. Sinceramente i post di yossarian mi sembrano di un altro pianeta in quanto a contenuti tecnici e yoss non parla di rumors, di solito fa qualche conto e poi spaccia (scherzo :)) i risultati :) che sempre di solito se non sono giusti poco ci manca.
ragazzi, vi ringrazio per gli attestati di stima, però vi faccio presente che parlando di Hellbinder e di B3D si parla di uno che ha molti agganci in ATi e di un forum che è il punto di riferimento del web a livello internazionale.
Comunque, tanto per fare un altro po' di calcoli (sempre in teoria, basandosi sui rumors), se la X800 Pro avrà circa 160 mln di transistor e architettura 12x1 con 6 unità VS, allora la XT, per essre realmente un R3x0x2 (16x1 con 8 unità VS) dovrebbe avere, all'incirca, 195 mln di transistor (uno più uno meno :D ), oppure avere architettura 16x1 con 6 unità VS (con poco più di 180 mln di transistor)
Il processo low-k, diminuendo l'accoppiamento delle metallizzazioni, permette di raggiungere frequenze fino al 25% superiori, a parità di architettura; quindi, da questo punto di vista, l'R420 dovrebbe riuscire a lavorare sempre a frequenze superiori rispetto all'NV40
yossarian
19-04-2004, 15:24
Originariamente inviato da ATi7500
nei chip video odierni abbiamo unità d prefetching analoghe a qll ke s trovano ad esempio nei P4?
bYeZ!
si, anche se i chip grafici non hanno pipeline così lunghe come quelle del PIV, per cui gli algoritmi predittivi hanno un'importanza leggermente inferiore. Comunque ci sono e sono estremamente sofisticati, anche se non infallibili (purtroppo)
Originariamente inviato da yossarian
si, anche se i chip grafici non hanno pipeline così lunghe come quelle del PIV, per cui gli algoritmi predittivi hanno un'importanza leggermente inferiore. Comunque ci sono e sono estremamente sofisticati, anche se non infallibili (purtroppo)
e a tecnologie tipo HT si è gia pensato? :)
bYeZ!
halduemilauno
19-04-2004, 15:51
http://www.theinquirer.net/?article=15406
:)
yossarian
19-04-2004, 16:14
Originariamente inviato da ATi7500
e a tecnologie tipo HT si è gia pensato? :)
bYeZ!
se per HT intendi hyper threading, nel caso di un chip grafico non serve; i campi di applicazione sono molto diversi: piuttosto generico per le cpu, altamente specialistico per le gpu. Ciò comporta che una cpu può trovarsi a svolgere più compiti in contemporanea, una gpu è chiamata a svolgere sempre lo stesso tipo di lavoro e a farlo il più velocemente possibile. Anche le architetture interne sono indicative del diverso carico di lavoro e della diversa tipolologia dei due dispositivi; le cpu hanno architetture a 32 o 64 bit, mentre le gpu hanno, già da tempo, architetture a 256 bit e, dalla Parhelia in poi. addirittura a 512 bit.
Quando si passerà ad architetture di tipo SIMD pipelined, allora il discorso sarà molto diverso, però, in tal caso, è la natura stessa delle architetture in questione che permetterà lo svolgimento di differenti tipologie di calcolo in contemporanea.
zerothehero
19-04-2004, 16:47
Originariamente inviato da Cifer
Se lo facessero non rispetterebbero le specifiche(dx9), oltre ad avere parte dell'hw(ati) in circolazione sottosfruttato, cioè stessa prestazione ma qualità inferiore rispetto a quella ottenibile.
Fp16 vuol dire la radice quadrata dei colori disponibili invece in fp32, il che in degli shaders che servono a simulare effetti di rifrazione fa una gran differenza, tanto per capirci è come prendere la foto di un tubo con la rifrazione della luce, prima la visualizzi a 32 bit (circa 4300 milioni di colori), poi a 24 bit(circa 18 milioni di colori), poi a 16 bit(circa 65.000 colori).
L'occhio umano è in grado di percepire in modo molto + sensibile la differenza fra 32-16 bit di quanto non lo sia nei confronti di 32-24bit.
Programmare aggirando le DX9, cioè considerando la palette di partenza di alcuni shaders a 16bit allontana parecchio dal fotorealismo, comunque non cambierebbe la resa, ansichè essere il diver a "comprimere"(Nvidia) in modo automatico il numero di colori disponibili per lo shader, sarebbe l'applicazione a farlo (solo in openGL credo sia possibile, usando le dx[sono comunque librerie esterne] si richiamano dei comandi preimpostati, così come lo è l'esecuzione di uno shader, quindi la palette di partenza è comunque quella minima richiesta, credo che solo il driver possa incidere).
vedo che sei molto competente mi hai chiarito molti miei dubbi :)
Secondo te come mai nvidia non ha privilegiato la precisione a 24 e 32 bit tralasciando la 16 bit ? A me pare un pò assurdo aver evitato il 24 bit da parte di nvidia dato che è un buon compromesso prestazioni/velocità...il 16 bit è un pò indecente con solo 65000 colori...:muro:
zerothehero
19-04-2004, 16:48
Originariamente inviato da Cifer
Se lo facessero non rispetterebbero le specifiche(dx9), oltre ad avere parte dell'hw(ati) in circolazione sottosfruttato, cioè stessa prestazione ma qualità inferiore rispetto a quella ottenibile.
Fp16 vuol dire la radice quadrata dei colori disponibili invece in fp32, il che in degli shaders che servono a simulare effetti di rifrazione fa una gran differenza, tanto per capirci è come prendere la foto di un tubo con la rifrazione della luce, prima la visualizzi a 32 bit (circa 4300 milioni di colori), poi a 24 bit(circa 18 milioni di colori), poi a 16 bit(circa 65.000 colori).
L'occhio umano è in grado di percepire in modo molto + sensibile la differenza fra 32-16 bit di quanto non lo sia nei confronti di 32-24bit.
Programmare aggirando le DX9, cioè considerando la palette di partenza di alcuni shaders a 16bit allontana parecchio dal fotorealismo, comunque non cambierebbe la resa, ansichè essere il diver a "comprimere"(Nvidia) in modo automatico il numero di colori disponibili per lo shader, sarebbe l'applicazione a farlo (solo in openGL credo sia possibile, usando le dx[sono comunque librerie esterne] si richiamano dei comandi preimpostati, così come lo è l'esecuzione di uno shader, quindi la palette di partenza è comunque quella minima richiesta, credo che solo il driver possa incidere).
vedo che sei molto competente mi hai chiarito molti miei dubbi :)
Secondo te come mai nvidia non ha privilegiato la precisione a 24 e 32 bit tralasciando la 16 bit ? A me pare un pò assurdo aver evitato il 24 bit da parte di nvidia dato che è un buon compromesso prestazioni/velocità...il 16 bit è un pò indecente con solo 65000 colori...:muro: ....un'altra cosa : chi decide la precisione dello shader? i driver oppure il gioco? se ad esempio uno shader è scritto con precisione 16 bit una scheda non potrà mai eseguirlo con una precisione maggiore? o sbaglio?
Athlon 64 3000+
19-04-2004, 16:49
anche io non capisco perchè Nvidia non abbia voluto anche utilizzare il FP24 che da un'ottimo compromesso velocità/qualità.
Originariamente inviato da zerothehero
vedo che sei molto competente mi hai chiarito molti miei dubbi :)
Secondo te come mai nvidia non ha privilegiato la precisione a 24 e 32 bit tralasciando la 16 bit ? A me pare un pò assurdo aver evitato il 24 bit da parte di nvidia dato che è un buon compromesso prestazioni/velocità...il 16 bit è un pò indecente con solo 65000 colori...:muro:
ragazzi non si parla di 16 bit come il rendering dei primi voodoo...
I pixel shader modificano il colore dei pixel tramite delle formule matematiche, ora, ad esempio:
Quando esegui una radice quadrata di un numero che non è un quadrato perfetto, ottieni un numero illimitato, quindi, se hai a disposizione più "caselle" per memorizzare questo numero, l'approssimazione è minore e quindi hai più "precisione".
Con unità che operano solo con gli interi il grado di approssimazione è elevato, ma già il solo utilizzo di unità floating point permette di avere un numero enormemente più grande di "caselle".
Quando si parla di precisione in questo caso quindi si intende la precisione dei "passaggi intermedi", infatti se approssimi un numero, ed esegui altri calcoli sul numero approssimato, otterrai un valore decisamente diverso da quello reale. Alla fine il dato del colore verrà comunque scalato a 32-bit, ma il valore che verrà scalato, sarà più vicino al reale se utilizzi una unità floating point.
Con gli shader attuali, che non hanno complessità eccezionale, sarà molto difficile notare delle differenze tra unità a 96 e 128-bit.
Quindi, le texture sono sempre a 32-bit, i pixel shader eseguono dei calcoli per modificarne il colore, a questo punto viene sfruttata la maggior precisione, quindi il risultato ottenuto verrà di nuovo convertito a 32-bit per essere inviato al monitor
Norbrek™
19-04-2004, 16:50
La cosa ideale sarebbe stata implementare la precisione a 16 24 e 32bit in modo da usare la più adatta a seconda dei casi...
Athlon 64 3000+
19-04-2004, 16:58
Originariamente inviato da Norbrek™
La cosa ideale sarebbe stata implementare la precisione a 16 24 e 32bit in modo da usare la più adatta a seconda dei casi...
D'accordo.
ragazzi non si parla di 16 bit come il rendering dei primi voodoo
Si sono calcoli matematici ma il concetto rimane praticamente lo stesso....+ precisione hai più fedele e quindi omogeneo è il risultato a video.
Non centra con i colori,si parla di shader e di superfici trattate in shader....ma il risultato è lo stesso.
Originariamente inviato da R@nda
Si sono calcoli matematici ma il concetto rimane praticamente lo stesso....+ precisione hai più fedele e quindi omogeneo è il risultato a video.
Non centra con i colori,si parla di shader e di superfici trattate in shader....ma il risultato è lo stesso.
da quando è stata introdotto il calcolo fp il livello di approssimazione è diventato talmente sottile che non vedi differenza quando si usa.
non è come nel calcolo in integer che dalla modalità 16 a 32 c'e' un abisso.
e poi chi vi dice che nvidia in determinati titoli utilizzerà sempre a palla fp32?
yossarian for president :yeah: :ave: :cool:
Originariamente inviato da dwfgerw
da quando è stata introdotto il calcolo fp il livello di approssimazione è diventato talmente sottile che non vedi differenza quando si usa.
non è come nel calcolo in integer che dalla modalità 16 a 32 c'e' un abisso.
e poi chi vi dice che nvidia in determinati titoli utilizzerà sempre a palla fp32?
E' questo il punto....nessuno ti garantisce che a 32bit abbia delle prestazioni decenti....al momento anche non è possibile saperlo con certezza.
Ma se ti ricordi...alla presentazione dell' Nv30,Nvidia si vantava molto del fatto di avere la precisione "fino" a 32bit e addirittura c'erano delle immagini nelle loro slide (che saranno finite chi sa dove) che mostravano il rendering di particolari (un paio di pantaloni e di scarpe di un personaggio tipo Toystory) fatti prima
in Fp16 e poi in FP32......e cosa mostravano?Il "difetto" che adesso stiamo vedendo in FarCry e LockON....chi se le ricorda le immagini?
Quindi il problema sta nella precisione a 16bit.....che è così e non può fare di più.
Sinceramente,la differenza si vede negli shot....è evidente ma mentre giochi no,è talemente lieve che non si vede.
Quindi il metodo di operare 16/32 non è sbagliato...ma sono gli sviluppatori che devono operarsi per farlo...usare dove si può la fp16 (senza perdita di qualità) e dove ce n'è bisogno la fp32.
Mi rendo conto che non dev'essere semplice una cosa del genere per chi sviluppa.....e capendone io zero di programmazione non sò fino a che punto sia possibile.
Nino Grasso
19-04-2004, 17:22
vorrei precisare solo una cosa... le persone che adesso dicono che i ps3.0 e i vs3.0 sono del tutto inutili (che può essree anche vero a mio parere) sono gli stessi che ai tempi dell'nv30 gridavano allo scandalo perché il chip in questione si supponeva non supportasse (sbagliandosi cmq in quanto utilizzava un algoritmo differente) l'hardware displacement mapping!!! Ricordo tra l'altro che ancora manco un gioco lo supporta in hardware!!
Parlare di colori serviva a semplificare il concetto, mettiamola così:
Esegui uno shader che crea la rifrazione dell'acqua, l'effetto quindi automatizza il processo che riprende l'ambientazione circostante, viene impostato automaticamente l'alfa e la distorzione che crea l'effeto increspatura, il pixel che alla fine verrà scritto nel buffer avrà "tot"bit di dati che andranno nell'unità che gestice i pixel shader, altri "tot" che andranno all'unità vertex, la risultante di entrambe sarà scritta nel buffer e darà luogo all'esecuzione dello shader.
Maggiori sono i bit, maggiore è la profondità di colore e la precisione rispetto all'asse Z che l'esecuzione avrà.
In sostanza, oltre ad esserci differenze nel colore in alcuni casi ci possono essere anche differenze nel realismo con il quale viene riprodotta la profondità di un'effetto (il suo posizionamento sull'asse z).
Parlare di colore è forse in generale + giusto, anche perchè non tutti gli shaders passano necessariamente per l'unità vertex prima di essere scritti nel buffer (alcuni effetti tipo fuoco).
E' comunque corretto intendere "bit" come quantità di dati da elaborare, naturalmente + sono e maggiore è la precisione.
yossarian
19-04-2004, 17:53
Originariamente inviato da Cifer
Parlare di colori serviva a semplificare il concetto, mettiamola così:
Esegui uno shader che crea la rifrazione dell'acqua, l'effetto quindi automatizza il processo che riprende l'ambientazione circostante, viene impostato automaticamente l'alfa e la distorzione che crea l'effeto increspatura, il pixel che alla fine verrà scritto nel buffer avrà "tot"bit di dati che andranno nell'unità che gestice i pixel shader, altri "tot" che andranno all'unità vertex, la risultante di entrambe sarà scritta nel buffer e darà luogo all'esecuzione dello shader.
Maggiori sono i bit, maggiore è la profondità di colore e la precisione rispetto all'asse Z che l'esecuzione avrà.
In sostanza, oltre ad esserci differenze nel colore in alcuni casi ci possono essere anche differenze nel realismo con il quale viene riprodotta la profondità di un'effetto (il suo posizionamento sull'asse z).
Parlare di colore è forse in generale + giusto, anche perchè non tutti gli shaders passano necessariamente per l'unità vertex prima di essere scritti nel buffer (alcuni effetti tipo fuoco).
E' comunque corretto intendere "bit" come quantità di dati da elaborare, naturalmente + sono e maggiore è la precisione.
lo so che tu lo sai; era solo per puntualizzare
;)
yossarian
19-04-2004, 18:01
Originariamente inviato da R@nda
Si sono calcoli matematici ma il concetto rimane praticamente lo stesso....+ precisione hai più fedele e quindi omogeneo è il risultato a video.
Non centra con i colori,si parla di shader e di superfici trattate in shader....ma il risultato è lo stesso.
vero, però in molti casi, un'approssimazione a meno di qualche bit non è affatto drammatica.
Ad esempio, tra 1,4536729850234 e 1,453672985023445637, se trascuro le ultime 5 cifre del secondo numero ottengo un risultato pressochè identico; se però questo risultato lo devo utilizzare come base per un altro calcolo e il successivo risultato per un altro calcolo ancora e così via, l'errore che all'inizio era trascurabile introduce termini d'errore sempre maggiori. Più è lunga l'istruzione più è importante la precisione dei calcoli, soprattutto all'inizio. Con gli shader attuali si può utilizzare anche l'fp16, proprio perchè le istruzioni sono ancora piuttosto brevi (non siamo neppure vicini al limite previsto dai PS2.0). Diverso il discorso quando si avrà a che fare con istruzioni molto lunghe. Non è da escludere che con le DX Next si passerà addirittura a FP48
Grazie.
Quindi diciamo che lo shader è pronto per andare a video......quello che non capisco è, se l'immagine e quindi lo shader viene calcolata 60 volte al secondo e ogni volta il calcolo viene arrontondato sempre di più alla fine il risultato a monitor è quello che vediamo in FarCry e Lock ON?
Insomma ma sti FP16 bastano o no?
Si può calcolare un oggetto più lontano in FP16 (quindi senza notare nessuna perdita di qualità) dal punto di vista e usare invece una Fp32 per l'oggetto che sta in primo piano davanti a noi?
Io una fp 16/32bit la vedrei utilizzata così....ma si può?
goldorak
19-04-2004, 21:30
Originariamente inviato da R@nda
Insomma ma sti FP16 bastano o no?
Si può calcolare un oggetto più lontano in FP16 (quindi senza notare nessuna perdita di qualità) dal punto di vista e usare invece una Fp32 per l'oggetto che sta in primo piano davanti a noi?
Io una fp 16/32bit la vedrei utilizzata così....ma si può?
Interessante questo approccio.
Magari una implementazione del genere sulle architetture ati/nvidia perde troppo in prestazioni ? :boh:
Chissa' se fosse posssibile su una architettura tipo tile based rendering tipico dei chip power vr.
trinitron
19-04-2004, 21:44
Clacson raga appena esce saro' il primo a comprarmela e finalmente dopo secoli ritorno in Nvidiaaaaaaaaaaaaaaaa!
Domani telefono in negozio e mi metto al vento con un ordine fantasma;) :D ;) :sofico:
ShadowThrone
19-04-2004, 22:10
Originariamente inviato da trinitron
Clacson raga appena esce saro' il primo a comprarmela e finalmente dopo secoli ritorno in Nvidiaaaaaaaaaaaaaaaa!
Domani telefono in negozio e mi metto al vento con un ordine fantasma;) :D ;) :sofico:
ok, la tua xt la prendo io a 100€, tanto che ci fai, hai nv40..
:sofico:
dario fgx
19-04-2004, 22:11
Originariamente inviato da yossarian
vero, però in molti casi, un'approssimazione a meno di qualche bit non è affatto drammatica.
Ad esempio, tra 1,4536729850234 e 1,453672985023445637, se trascuro le ultime 5 cifre del secondo numero ottengo un risultato pressochè identico; se però questo risultato lo devo utilizzare come base per un altro calcolo e il successivo risultato per un altro calcolo ancora e così via, l'errore che all'inizio era trascurabile introduce termini d'errore sempre maggiori. Più è lunga l'istruzione più è importante la precisione dei calcoli, soprattutto all'inizio. Con gli shader attuali si può utilizzare anche l'fp16, proprio perchè le istruzioni sono ancora piuttosto brevi (non siamo neppure vicini al limite previsto dai PS2.0). Diverso il discorso quando si avrà a che fare con istruzioni molto lunghe. Non è da escludere che con le DX Next si passerà addirittura a FP48
mai sentito quel matematico (non ho + idea di chi sia) che sosteneva che gli errori spesso si compensano?
Alberto Falchi
19-04-2004, 22:12
Originariamente inviato da R@nda
Insomma ma sti FP16 bastano o no?
DIpende: per soft shadows e High Dynamic Contrast Rendering no. Per altri utilizzi, possono anche bastare.
Si può calcolare un oggetto più lontano in FP16 (quindi senza notare nessuna perdita di qualità) dal punto di vista e usare invece una Fp32 per l'oggetto che sta in primo piano davanti a noi?
Io una fp 16/32bit la vedrei utilizzata così....ma si può?
Non sono un programmatore, ma mi sembra difficile: non si tratta di mipmap, dove la GPU sceglie quale dimensione delle texture usare. I PS sono applicati a un poligono, e non credo si possa decidere di attivarli/disattivarli in relazione alla distanza. C'è anche da dire che, in molti casi, se l'oggetto è lontano, difficilmente le luci dinamiche lo incroceranno, rendendo quindi quasi nullo il peso di calcolo del PS. RIpeto.. si tratta di speculazioni: spero qualcuno più esperto mi corregga se ho detto idiozie.
Pape
trinitron
19-04-2004, 22:14
Originariamente inviato da ShadowThrone
ok, la tua xt la prendo io a 100€, tanto che ci fai, hai nv40..
:sofico:
He he furbacchione mi spiace ma e' la mia grossa merce di scambio da cui spero di scavarci almeno euro 250 di permuta ..................... sperem:rolleyes: :rolleyes: :rolleyes:
yossarian
19-04-2004, 22:15
Originariamente inviato da R@nda
Grazie.
Quindi diciamo che lo shader è pronto per andare a video......quello che non capisco è, se l'immagine e quindi lo shader viene calcolata 60 volte al secondo e ogni volta il calcolo viene arrontondato sempre di più alla fine il risultato a monitor è quello che vediamo in FarCry e Lock ON?
Insomma ma sti FP16 bastano o no?
Si può calcolare un oggetto più lontano in FP16 (quindi senza notare nessuna perdita di qualità) dal punto di vista e usare invece una Fp32 per l'oggetto che sta in primo piano davanti a noi?
Io una fp 16/32bit la vedrei utilizzata così....ma si può?
allo stato attuale l'FP16 è sufficiente in quasi tutti i casi; l'FP24 o l'FP32 diventano necessari in pochi casi sporadici in cui è espressamente richiesta una precisione di calcolo superiore ai 16 bit. Tenete presente che per i PS1.x sono utilizzati da 9 a 12 bit in virgola fissa (già l'FX16 dell'R200 e dell'R3x0 è ridondante).
Secondo me, dietro la pessima qualità delle immagini di FarCry e Lock On c'è qualcosa di diverso dall'utilizzo dell'FP16 al posto dell'FP32; qualcosa che potrebbe avere a che fare con errate impostazioni dei drivers o un non corretto utilizzo di qualche filtro o, ancora, con le operazioni di shader replacement, necessarie per far digerire alcune istruzioni all'NV3x e, probabilmente, controproducenti, almeno a liìvello di qualità, con l'NV40. Nè in FarCry né in Lock On mi risulta (ma in questo chiedo il conforto di chi conosce il SW meglio di me, come ad esempio fek) che ci siano shader che richiedano l'utilizzo di FP24 come requisito minimo.
Per finire, l'uso che proponi di FP16/FP32 non è possibile perchè quando si effettua il mip mapping, le mappe sono generate da un unico procedimento di calcolo che avviene in FP16, in FP32 o in FX12 (nel caso dei chip NV); con il sistema che proponi si avrebbe un doppio procedimento di calcolo (uno in FP32 ed uno in FP16) che richiederebbe, nella migliore delle ipotesi, due passaggi e svariati cicli di clock per ognuno.
Allo stato attuale, dato l'uso che si fa delle DX9, la maggior parte dei giochi fa uso di FX12 con un po' di FP16 e pochissima FP32.
Per concludere, dal test eseguito con shadermark, in half e in full precision, è risultato che l'NV40 si comporta piuttosto bene con FP32 (al contrario di quello che faceva NV3x) e, anzi, in alcuni casi, ha fatto registrare punteggi più elevati in full anzichè in half precision, il che fa pensare ad un bug dei drivers con FP16.
yossarian
19-04-2004, 22:17
Originariamente inviato da dario fgx
mai sentito quel matematico (non ho + idea di chi sia) che sosteneva che gli errori spesso si compensano?
beato lui; io non mi fiderei di questa teoria. In qualche caso è vero, ma quando capita è solo questione di cu@o
:D
ShadowThrone
19-04-2004, 22:22
Originariamente inviato da trinitron
He he furbacchione mi spiace ma e' la mia grossa merce di scambio da cui spero di scavarci almeno euro 250 di permuta ..................... sperem:rolleyes: :rolleyes: :rolleyes:
ce la fai!!!
li vale tutti.
Originariamente inviato da yossarian
beato lui; io non mi fiderei di questa teoria. In qualche caso è vero, ma quando capita è solo questione di cu@o
:D
gente che conosco c'ha passato fisica alla matura con quella teoria :D :D :D :D
:)
Originariamente inviato da yossarian
Secondo me, dietro la pessima qualità delle immagini di FarCry e Lock On c'è qualcosa di diverso dall'utilizzo dell'FP16 al posto dell'FP32; qualcosa che potrebbe avere a che fare con errate impostazioni dei drivers o un non corretto utilizzo di qualche filtro o, ancora, con le operazioni di shader replacement, necessarie per far digerire alcune istruzioni all'NV3x e, probabilmente, controproducenti, almeno a liìvello di qualità, con l'NV40.
per quanto possa contare è quello che credo anche io :)
dario fgx
19-04-2004, 22:26
Originariamente inviato da ATi7500
e a tecnologie tipo HT si è gia pensato? :)
bYeZ!
raga gia che ci siamo, e qui vorrei approfittare delle ben note conoscz di yossarian nel campo,xchè non ci mettono pure la cache sulle vpu...yossarian corrattamente dice che una tecnologia tipo l'ht è inutile nelle gpu (nn che nei p4 sia utile ) e motiva la sua affermazione aggiungendo che le vpu si trovano a fare sempre lo stesso tipo di lavoro...quindi diciamo,passatemi l'ignoranza,ad eseguire + volte nell'arco di poco tempo le stesse istruzioni...ed è qui' che entra in gioco la cache, importantissima x la cpu che si trova ad eseguire un applicazione come un gioco(mentre ad esempio se sei in winzoz la l'hardware deve eseguire le istruzioni che gli arrivano da + applicativi e la cache serve a poco)allora xchè nn ci mettono la cache sulle vpu?oppure i registri
fanno buona parte del lavoroe le memorie direttamente on-board il resto?
dario fgx
19-04-2004, 22:31
Originariamente inviato da Norbrek™
La cosa ideale sarebbe stata implementare la precisione a 16 24 e 32bit in modo da usare la più adatta a seconda dei casi...
oh cazz!poveri programmatori!
dario fgx
19-04-2004, 22:38
Originariamente inviato da R@nda
E' questo il punto....nessuno ti garantisce che a 32bit abbia delle prestazioni decenti....al momento anche non è possibile saperlo con certezza.
Ma se ti ricordi...alla presentazione dell' Nv30,Nvidia si vantava molto del fatto di avere la precisione "fino" a 32bit e addirittura c'erano delle immagini nelle loro slide (che saranno finite chi sa dove) che mostravano il rendering di particolari (un paio di pantaloni e di scarpe di un personaggio tipo Toystory) fatti prima
in Fp16 e poi in FP32......e cosa mostravano?Il "difetto" che adesso stiamo vedendo in FarCry e LockON....chi se le ricorda le immagini?
Quindi il problema sta nella precisione a 16bit.....che è così e non può fare di più.
Sinceramente,la differenza si vede negli shot....è evidente ma mentre giochi no,è talemente lieve che non si vede.
Quindi il metodo di operare 16/32 non è sbagliato...ma sono gli sviluppatori che devono operarsi per farlo...usare dove si può la fp16 (senza perdita di qualità) e dove ce n'è bisogno la fp32.
Mi rendo conto che non dev'essere semplice una cosa del genere per chi sviluppa.....e capendone io zero di programmazione non sò fino a che punto sia possibile.
giusto ronda...nv30 vantava i suoi 32bit alternabili ai 16 (mixed mode) ma aveva fatto male i calcoli!la lentezza della modalità 32 bit è legata alla maggior richiesta di banda passante x effettuare calcoli con questa precisione.....e nvidia che fece...castro' la 5800ultra,sparando è vero a freq altissime le sue memorie,ma tagliando il bus a 128bit mentre ati intelligentemente la aveva gia messo a 256 con l'r300....difetto sparito con nv38 che ha il bus a 256bit!
dario fgx
19-04-2004, 22:40
Originariamente inviato da yossarian
beato lui; io non mi fiderei di questa teoria. In qualche caso è vero, ma quando capita è solo questione di cu@o
:D
qui' il matematico sei tu!e x esperienza personale ti do' anche ragione!xo' io sto qua' l\ho sentito veramente
yossarian
19-04-2004, 22:41
Originariamente inviato da dario fgx
raga gia che ci siamo, e qui vorrei approfittare delle ben note conoscz di yossarian nel campo,xchè non ci mettono pure la cache sulle vpu...yossarian corrattamente dice che una tecnologia tipo l'ht è inutile nelle gpu (nn che nei p4 sia utile ) e motiva la sua affermazione aggiungendo che le vpu si trovano a fare sempre lo stesso tipo di lavoro...quindi diciamo,passatemi l'ignoranza,ad eseguire + volte nell'arco di poco tempo le stesse istruzioni...ed è qui' che entra in gioco la cache, importantissima x la cpu che si trova ad eseguire un applicazione come un gioco(mentre ad esempio se sei in winzoz la l'hardware deve eseguire le istruzioni che gli arrivano da + applicativi e la cache serve a poco)allora xchè nn ci mettono la cache sulle vpu?oppure i registri
fanno buona parte del lavoroe le memorie direttamente on-board il resto?
la cache è importante anche per le vpu; i famosi registri di cui si parla da un anno a questa parte non sono altro che cache interne, alcune di tipo temporaneo, altre di tipo permanente, l'f-buffer, il v-buffer, suo omologo per i VS non sono altro che cache interne, lo shadeow buffer idem; ovviamente non se ne può avere una sola ma sono distribuite lungo tutta la pipeline, perchè ogni unità ha bisogno di attingere dati da qualche parte ed ogni unità ha bisogno di avere delle cache dedicate; ad esempio un'unità VS o un'unità PS ha, secondo le specifiche DX9, bisogno di almeno 12 registri temporanei da 32 bit ciascuno; una tmu è composta da 3 stadi, di cui uno non è altro che una piccola cache, ecc, ecc.
Purtroppo lo spazio all'interno di un chip è limitato (ed è riempito con altre schifezze) per cui non è possibile dedicarne troppo alle cache. Comunque ti assicuro che i registri interni stanno acquisendo e acquisiranno, ancora di più, in futuro, sempre maggior importanza (quando si arriverà ad avere archiettture di tipo RISC, si avranno cache interne di svariati Mb)
;)
TNR Staff
19-04-2004, 22:41
- http://norbrek.altervista.org/demo_collage.wmv (ringraziamo Norbrek)
Non funzia,potere di altervista :rolleyes: :mad:
Dark Schneider
19-04-2004, 22:42
Originariamente inviato da yossarian
allo stato attuale l'FP16 è sufficiente in quasi tutti i casi; l'FP24 o l'FP32 diventano necessari in pochi casi sporadici in cui è espressamente richiesta una precisione di calcolo superiore ai 16 bit. Tenete presente che per i PS1.x sono utilizzati da 9 a 12 bit in virgola fissa (già l'FX16 dell'R200 e dell'R3x0 è ridondante).
Secondo me, dietro la pessima qualità delle immagini di FarCry e Lock On c'è qualcosa di diverso dall'utilizzo dell'FP16 al posto dell'FP32; qualcosa che potrebbe avere a che fare con errate impostazioni dei drivers o un non corretto utilizzo di qualche filtro o, ancora, con le operazioni di shader replacement, necessarie per far digerire alcune istruzioni all'NV3x e, probabilmente, controproducenti, almeno a liìvello di qualità, con l'NV40. Nè in FarCry né in Lock On mi risulta (ma in questo chiedo il conforto di chi conosce il SW meglio di me, come ad esempio fek) che ci siano shader che richiedano l'utilizzo di FP24 come requisito minimo.
Grande yoss!! :) Finalmente qualcuno si potrà chiarire le idee per bene...visto che c'era chi si era impuntato sull'FP 16...che la qualità dell' FP16 faceva schifo e tutto il resto.
Per concludere, dal test eseguito con shadermark, in half e in full precision, è risultato che l'NV40 si comporta piuttosto bene con FP32 (al contrario di quello che faceva NV3x) e, anzi, in alcuni casi, ha fatto registrare punteggi più elevati in full anzichè in half precision, il che fa pensare ad un bug dei drivers con FP16.
Si in effetti è la medesima cosa che ho pensato io: probabilmente gli attuali drivers hanno qualche bug con l'FP16.......al contrario dell'FP32 che tra l'altro hanno prestazioni molto buone. Probabilmente nVidia allo stato attuale dei drivers s'è un po' più concentrata sull'FP32 e con meno attenzione per l'FP16 che ha qlc bug. :)
yossarian
19-04-2004, 22:45
Originariamente inviato da dario fgx
giusto ronda...nv30 vantava i suoi 32bit alternabili ai 16 (mixed mode) ma aveva fatto male i calcoli!la lentezza della modalità 32 bit è legata alla maggior richiesta di banda passante x effettuare calcoli con questa precisione.....e nvidia che fece...castro' la 5800ultra,sparando è vero a freq altissime le sue memorie,ma tagliando il bus a 128bit mentre ati intelligentemente la aveva gia messo a 256 con l'r300....difetto sparito con nv38 che ha il bus a 256bit!
esatto in parte: i problemi con fp32 sono rimasti anche nell'NV35 perchè legati all'insufficiente spazio riservato ai registri temporanei (tanto per riallacciarsi al discorso precedente), problema non risolto nel passaggio da NV30 a NV35. A dire la verità, l'NV30 aveva problemi anche con l'FP16 (tanto da dover ricorrere di frequente a operazioni di shader replacement); questo problema è stato in buona parte risolto con l'NV35, sostiutuendo un'unità di calcolo fx12 con una fp32 nel passaggio da NV30 a NV35
yossarian
19-04-2004, 22:47
Originariamente inviato da dario fgx
qui' il matematico sei tu!e x esperienza personale ti do' anche ragione!xo' io sto qua' l\ho sentito veramente
anch'io conosco questo detto, però, per esperienza personale, ti assicuro che poche volte sono riuscito a testarne la validità (e di sicuro non ci affiderei le prestazioni qualitative di un chip grafico :D )
Dark Schneider
19-04-2004, 22:48
Originariamente inviato da TNR Staff
- http://norbrek.altervista.org/demo_collage.wmv (ringraziamo Norbrek)
Non funzia,potere di altervista :rolleyes: :mad:
Penso che sia un problema dei server di altervista. Non penso abbiano rimosso il file...perchè sennò l'errore era diverso.
dario fgx
19-04-2004, 22:51
Originariamente inviato da yossarian
la cache è importante anche per le vpu; i famosi registri di cui si parla da un anno a questa parte non sono altro che cache interne, alcune di tipo temporaneo, altre di tipo permanente, l'f-buffer, il v-buffer, suo omologo per i VS non sono altro che cache interne, lo shadeow buffer idem; ovviamente non se ne può avere una sola ma sono distribuite lungo tutta la pipeline, perchè ogni unità ha bisogno di attingere dati da qualche parte ed ogni unità ha bisogno di avere delle cache dedicate; ad esempio un'unità VS o un'unità PS ha, secondo le specifiche DX9, bisogno di almeno 12 registri temporanei da 32 bit ciascuno; una tmu è composta da 3 stadi, di cui uno non è altro che una piccola cache, ecc, ecc.
Purtroppo lo spazio all'interno di un chip è limitato (ed è riempito con altre schifezze) per cui non è possibile dedicarne troppo alle cache. Comunque ti assicuro che i registri interni stanno acquisendo e acquisiranno, ancora di più, in futuro, sempre maggior importanza (quando si arriverà ad avere archiettture di tipo RISC, si avranno cache interne di svariati Mb)
;)
effettivamente x le cpu a gruppi di istruzioni ridotte la quantità di cache e l'efficienza della cpu sono fondamentali!al contrario dei p4 che con la loro tecnologia sprecona bruciano il lavoro di interi cicli di clock
dario fgx
19-04-2004, 22:53
Originariamente inviato da yossarian
anch'io conosco questo detto, però, per esperienza personale, ti assicuro che poche volte sono riuscito a testarne la validità (e di sicuro non ci affiderei le prestazioni qualitative di un chip grafico :D )
nemmeno io...almeno nn del mio
yossarian
19-04-2004, 22:58
Originariamente inviato da dario fgx
effettivamente x le cpu a gruppi di istruzioni ridotte la quantità di cache e l'efficienza della cpu sono fondamentali!al contrario dei p4 che con la loro tecnologia sprecona bruciano il lavoro di interi cicli di clock
ti assicuro che se i produttori di vpu riuscissero a mettere Gb di cache dentro i loro prodotti, lo farebbero ad occhi chiusi (e le prestazioni lieviterebbero a livelli stratosferici)
Athlon 64 3000+
19-04-2004, 22:58
allora mi devo ricredere riguardo il problema con L'FP16 dell'NV40 che molto probabilmente è una questione di driver beta.Rimane per me ancora L'incognita dell'AF.
dario fgx
19-04-2004, 23:01
Originariamente inviato da yossarian
ti assicuro che se i produttori di vpu riuscissero a mettere Gb di cache dentro i loro prodotti, lo farebbero ad occhi chiusi (e le prestazioni lieviterebbero a livelli stratosferici)
mai quanto il prezzo xo'! evviva la miniaturizzazione!!!!!
yossarian
19-04-2004, 23:06
Originariamente inviato da Athlon 64 3000+
allora mi devo ricredere riguardo il problema con L'FP16 dell'NV40 che molto probabilmente è una questione di driver beta.Rimane per me ancora L'incognita dell'AF.
l'AF purtroppo non è un'incognita; dico purtroppo perchè l'hanno peggiorato rispetto a quello dell'NV3x, copiando l'implementazione di ATi. In questo caso non è un problema di drivers ma una scelta HW: hanno risparmiato sul numero dei transistor da dedicare all'AF. L'NV3x lo applica con la massima qualità su angoli multipli di 45°, l'NV40, come l'R3x0 su angoli multipli di 90°. Questo comporta l'utilizzo di un circuito meno complesso, con meno transistor, ma una perdita di qualità sulle superfici oblique. A ciò si aggiunge la scelta (fatta già con NV3x e da ATi con R3x0) di utilizzare, anche in modalità quality, il trilinear solo per il primo, massimo i primi due layer ed affidare il resto dell'elaborazione al bilinear (questa impostazione, invece, si può modificare via drivers).
Per l'AA hanno finalmente scelto una modalità RGMS, anche se, ad essere pignoli, si può fare di meglio.
yossarian
19-04-2004, 23:07
Originariamente inviato da dario fgx
mai quanto il prezzo xo'! evviva la miniaturizzazione!!!!!
:D
Finalmente chiarezza!Grazie Yossarian:)
Mi basta sapere che i difetti visivi visti in FarCry e Lock On siano colpa dei driver piuttosto che di una precisione insufficiente.
Una memoria embedded non sarebbe male.......ma forse alle nostre tasche non conviene momentaneamente.
Anche se secondo me è un possibile futuro avere della memoria video di questo tipo.
dario fgx
19-04-2004, 23:14
Originariamente inviato da yossarian
l'AF purtroppo non è un'incognita; dico purtroppo perchè l'hanno peggiorato rispetto a quello dell'NV3x, copiando l'implementazione di ATi. In questo caso non è un problema di drivers ma una scelta HW: hanno risparmiato sul numero dei transistor da dedicare all'AF. L'NV3x lo applica con la massima qualità su angoli multipli di 45°, l'NV40, come l'R3x0 su angoli multipli di 90°. Questo comporta l'utilizzo di un circuito meno complesso, con meno transistor, ma una perdita di qualità sulle superfici oblique. A ciò si aggiunge la scelta (fatta già con NV3x e da ATi con R3x0) di utilizzare, anche in modalità quality, il trilinear solo per il primo, massimo i primi due layer ed affidare il resto dell'elaborazione al bilinear (questa impostazione, invece, si può modificare via drivers).
Per l'AA hanno finalmente scelto una modalità RGMS, anche se, ad essere pignoli, si può fare di meglio. e gia..un paio di transistor in + proprio nn ci entravano eh...eppure il core è gigantesco x ampliare la superficie dissipante...
Yos io non programmo ne in c ne in c+/++, un pò di visual basic e qualcosa con i linguaggi di scripting, ma se le istruzioni nei ps2.0 e superiori richiedono il supporto hw minimo a fp24, è chiaro che lo utilizzano davvero.
Voglio dire, se devo creare l'effetto dell'acqua di una cascata, posso usare anche shaders delle versioni 1.1 o 1.2, chiaro è che se uso quelli della versione 2.0, saranno scritti già nelle librerie in modo da sfruttare una precisione fp24, il che nulla toglie al fatto che possano essere forzati a scalare a fp16.
Che il risultato sia così analogo ne dubito.
yossarian
19-04-2004, 23:17
Originariamente inviato da dario fgx
e gia..un paio di transistor in + proprio nn ci entravano eh...eppure il core è gigantesco x ampliare la superficie dissipante...
in certi casi si devono operare delle scelte e si opta, di solito, per quella mano dolorosa. Una diminuzione della qualità dell'AF in alcuni casi specifici, come ha detto qualcuno, è qualcosa che si nota poco o niente mentre si è impegnati a fraggare a UT2004; perciò, se c'era da sacrificare un po' di spazio, si è pensato bene di farlo li (stessa scelta operata da ATi con l'R3x0).
Non è solo un problema di dissipazione di calore, ma anche di initerferenze (alle alte frequenze il problema dell'interferenza diventa di fondamentale importanza); ad esempio il low-k permette l'utilizzo di materiali di rivestimento delle metallizzazioni più sottili, quindi fa guadagnare spazio, mantenendo invariato il fattore di interferenza tra circuiti.
Dark Schneider
19-04-2004, 23:20
Originariamente inviato da yossarian
l'AF purtroppo non è un'incognita; dico purtroppo perchè l'hanno peggiorato rispetto a quello dell'NV3x, copiando l'implementazione di ATi. In questo caso non è un problema di drivers ma una scelta HW: hanno risparmiato sul numero dei transistor da dedicare all'AF. L'NV3x lo applica con la massima qualità su angoli multipli di 45°, l'NV40, come l'R3x0 su angoli multipli di 90°. Questo comporta l'utilizzo di un circuito meno complesso, con meno transistor, ma una perdita di qualità sulle superfici oblique. A ciò si aggiunge la scelta (fatta già con NV3x e da ATi con R3x0) di utilizzare, anche in modalità quality, il trilinear solo per il primo, massimo i primi due layer ed affidare il resto dell'elaborazione al bilinear (questa impostazione, invece, si può modificare via drivers).
Per l'AA hanno finalmente scelto una modalità RGMS, anche se, ad essere pignoli, si può fare di meglio.
Beh certo l'AF dell'NV40 non si può cambiare: è lo stesso di quello Ati R3xx. Ovviamente non si può tornare con NV40 a quello precedente.
Ma sinceramente per me poco male...se hanno dovuto sacrificare un pochino le cose ripiegando su un Af un po' inferiore...ma cmq buono....per privilegiare altre cose ben più importanti ed indispensabili per l'architettura...ben venga!! ;)
dario fgx
19-04-2004, 23:27
Originariamente inviato da Dark Schneider
Beh certo l'AF dell'NV40 non si può cambiare: è lo stesso di quello Ati R3xx. Ovviamente non si può tornare con NV40 a quello precedente.
Ma sinceramente per me poco male...se hanno dovuto sacrificare un pochino le cose ripiegando su un Af un po' inferiore...ma cmq buono....per privilegiare altre cose ben più importanti ed indispensabili per l'architettura...ben venga!! ;)
effettivamente qui' andiamo molto x il sottile...quando sono impegnato col fucile di precisione aficcare nel vuoto cranio di un trigens un proiettile poco me ne frega se le texture dell'albero sulla mia sinistra si vedono belle nitide...xo' è anche vero che se mi va di farmi una canna su una spiaggia sotto il sole dei caraibi la sabbia deve scottare solo a vederla!...ma tanto a far cry con l'aa a 16x nn ci giochero' mai!
yossarian
19-04-2004, 23:34
Originariamente inviato da Cifer
Yos io non programmo ne in c ne in c+/++, un pò di visual basic e qualcosa con i linguaggi di scripting, ma se le istruzioni nei ps2.0 e superiori richiedono il supporto hw minimo a fp24, è chiaro che lo utilizzano davvero.
Voglio dire, se devo creare l'effetto dell'acqua di una cascata, posso usare anche shaders delle versioni 1.1 o 1.2, chiaro è che se uso quelli della versione 2.0, saranno scritti già nelle librerie in modo da sfruttare una precisione fp24, il che nulla toglie al fatto che possano essere forzati a scalare a fp16.
Che il risultato sia così analogo ne dubito.
il fatto è che i PS2.0 prevedono anche istruzioni di lunghezza tale che nei programmi attuali non ci si è neppure avvicinati. In realtà i giochi attuali non sono "propriamente" DX9; hanno qualche elemento DX9 vero e qualche shader programmato in HLSL che si sarebbe potuto programmare anche in assembly.
Il vero codice DX9 è tutt'altra cosa e, in quel caso, hai ragione a dire che è necessario usare come minimo FP24 (come dicevo, FP16 è permesso in caso di dependent read, ossia per l'esecuzione di quegli shader che hanno elementi in comune con altri già elaborati e le cui informazioni sono ancora presenti nei registri temporanei; quindi si tratta di utilizzare istruzioni meno dettagliate solo perchè parte delle stesse istruzioni è già presente dentro il chip).
Ci sono alcune feature, ad esempio, che richiederebbero l'utilizzo esplicito di FP24; una di queste è l'HDR; la versione implementata nella demo di HL2 utilizzava una precisione a 16 bit (e a detta di Valve, in tal modo si riusciva a farla girare abbastanza fluidamente su R3x0, che pure è in grado di elaborare a 24 bit, ma non c'era verso di farla funzionare su Nv3x). Altri esempi: aquamark ha in totale 4 shader compilati in HLSL, ciascuno di poche righe (che altro non sono che la traduzione in C di istruzioni assembly), il mother nature di 3DMark ne ha addirittura solo 3.
Diciamo che, in linea di massima, il tuo discorso sarebbe valido se effettivamente si programmasse usando le DX9 (e lo sarà sicuramente quando realmente si inizieranno ad utilizzare).
:)
Originariamente inviato da yossarian
Per finire, l'uso che proponi di FP16/FP32 non è possibile perchè quando si effettua il mip mapping, le mappe sono generate da un unico procedimento di calcolo che avviene in FP16, in FP32 o in FX12 (nel caso dei chip NV); con il sistema che proponi si avrebbe un doppio procedimento di calcolo (uno in FP32 ed uno in FP16) che richiederebbe, nella migliore delle ipotesi, due passaggi e svariati cicli di clock per ognuno.
Anche se capita di rado questa volta non solo d'accordo con te.
E' possibilissimo fare due versioni di uno shader e decidere quale versione utilizzare a seconda della distanza dell'oggetto dalla camera. Tale procedimento viene già fatto specie per quanto riguarda l'adattamento del LOD (Level Of Detail) poligonale. Osservate bene quei meravigliosi paesaggi di Far Cry. Fissatevi su un particolare in lontananza e, mentre vi avvicinate, vi accorgerete che quel particolare "prende forma" e il suo dettaglio migliora con l'avvicinarsi della camera. Questa è una delle ottimizzazioni più banali per un motore grafico.
Allo stesso modo io posso fare uno shader per il calcolo delle luci per vertex, uno per pixel 16 bit e uno per pixel 32 bit. Il primo lo applico agli oggetti il cui centro è molto lontano dalla camera, il secondo a quelli intermedi ed il terzo a quelli vicini.
Naturalmente questo comporta fare, per ogni oggetto, un controllo sulla distanza, ma con l'aumentare della complessità degli shader io posso far eseguire questo calcolo (confronto) alla GPU stessa. Come ? Invece di creare tre shader, ne creo solo uno ed invio in input allo shader anche la posizione della camera. Sarà lo shader stesso (con dei banalissimi IF THEN ELSE) a definire quali calcoli eseguire a seconda della distanza del singolo poligono :)
yossarian
19-04-2004, 23:59
Originariamente inviato da Vifani
Anche se capita di rado questa volta non solo d'accordo con te.
E' possibilissimo fare due versioni di uno shader e decidere quale versione utilizzare a seconda della distanza dell'oggetto dalla camera. Tale procedimento viene già fatto specie per quanto riguarda l'adattamento del LOD (Level Of Detail) poligonale. Osservate bene quei meravigliosi paesaggi di Far Cry. Fissatevi su un particolare in lontananza e, mentre vi avvicinate, vi accorgerete che quel particolare "prende forma" e il suo dettaglio migliora con l'avvicinarsi della camera. Questa è una delle ottimizzazioni più banali per un motore grafico.
Allo stesso modo io posso fare uno shader per il calcolo delle luci per vertex, uno per pixel 16 bit e uno per pixel 32 bit. Il primo lo applico agli oggetti il cui centro è molto lontano dalla camera, il secondo a quelli intermedi ed il terzo a quelli vicini.
Naturalmente questo comporta fare, per ogni oggetto, un controllo sulla distanza, ma con l'aumentare della complessità degli shader io posso far eseguire questo calcolo (confronto) alla GPU stessa. Come ? Invece di creare tre shader, ne creo solo uno ed invio in input allo shader anche la posizione della camera. Sarà lo shader stesso (con dei banalissimi IF THEN ELSE) a definire quali calcoli eseguire a seconda della distanza del singolo poligono :)
Figurati; è giusto riprendere qualcuno quando dice inesattezze (per il problema della propagazione degli errori :D ); anzi, mi scuso con R@nda per averlo ingiustamente corretto; anche se poi, mi pare, correggimi se sbaglio, che in FarCry, negli esterni, non sono adoperati PS2.0; se così è, il procedimento che hai descritto è, in quel caso, applicato a due PS1.x in cui sono utilizzati diversi algoritmi per ottenere risultati analoghi ma con divers precisione nei calcoli (ad esempio il rapporto sen/cos ottenuto con il sistema standard, oppure approssimato con uno sviluppo in serie di Taylor).
Hai ragione; non ho pensato alla possibilità di scrivere più versioni di uno shader da abbinare ad un input sul controllo della distanza; si vede che non sono un programmatore (e si che una volta mi aveva accennato a qualcosa del genere anche fek).
Grazie caro, un'utile informazione in più
;) :D
da tom's hardware
Come piace enfatizzare a NVIDIA, questi modelli sono stati sviluppati mano nella mano con Microsoft. Questo significa che possiamo aspettarci un grosso divario prestazionale con lo Shader model 2.0 sviluppato da ATi assieme a Microsoft?
Rispondere a questa domanda è alquanto dura. Sappiamo tuttavia che la GeForce 6800 soddisfa tutte le richieste del nuovo modello shader. La domanda più interessante a questo punto sarebbe "come agirà ATi?". Le nuove richieste minime di una precisione in virgola mobile a 32 Bit potrebbero essere un grave problema per ATi, dato che aveva pianificato di rimanere stabile sui 24 Bit.
Gli sviluppatori 3D di tutti i Forum del mondo stanno dibattendo sul potenziale che il nuovo modello di shader apporterà nello sviluppo dei giochi 3D. I giocatori si chiedono invece fra quanto tempo potranno vedere dei reali benefici con il cambiamento all'SM 3.0. Sembra comunque certo che il cambiamento sarà più veloce di quanto è accaduto tra SM 1.x (direct 8.x) e SM2.x (directX 9), dato che la maggior parte del lavoro è fatto dai compilatori. Gli sviluppatori dovranno solo scrivere alcune righe di codice et voilà - avranno un codice ottimizzato per SM2.x o 3.x. Questo dovrebbe rendere molto semplice convertire i giochi già esistenti al nuovo standard. Ovviamente la domanda rimane, in quanto non sappiamo se questa conversione porterà dei reali benefici.
NVIDIA ha creato un vetrina delle possibili applicazioni di cui potranno usufruire gli sviluppatori e i coder: maggiori informazioni qui
Mentre NVIDIA sta puntando molto sul nuovo shader model, Ati sta cercando di difendersi. Un esempio della tattica adottata da ATi è la presentazione intitolata "Save the Nanosecond" di Richard Huddy, che è accidentalmente apparsa su Internet. La presentazione riporta alcune note personali in cui lo scrittore cerca di convincere gli sviluppatori a stare alla larga dal PS 3.0, in quanto influenzerà pesantemente le prestazioni.
Nei forum sono nati vari dibatiti sul metodo di interpretazione di queste affermazioni. Alcuni dicono che probabilmente i nuovi chip ATi saranno troppo lenti per questo nuovo standard, altri che semplicemente non sono progettati per utilizzarlo a dovere.
TNR Staff
20-04-2004, 00:33
Originariamente inviato da yossarian
il fatto è che i PS2.0 prevedono anche istruzioni di lunghezza tale che nei programmi attuali non ci si è neppure avvicinati. In realtà i giochi attuali non sono "propriamente" DX9; hanno qualche elemento DX9 vero e qualche shader programmato in HLSL che si sarebbe potuto programmare anche in assembly.
Sbaglio o il risultato in assembly sarebbe stato diciamo....molto più veloce e leggero? :rolleyes:
Imho quando ci saranno i giochi full dx9 ci vorrannò 4 dvd a gioco...più ci si avvicina e più occupano sti :mad: di giochi :muro:
Rivojo Doom su 4 dischi da 1.44 mb :cry:
TNR Staff
20-04-2004, 00:38
Originariamente inviato da dwfgerw
da tom's hardware
Come piace enfatizzare a NVIDIA, questi modelli sono stati sviluppati mano nella mano con Microsoft. Questo significa che possiamo aspettarci un grosso divario prestazionale con lo Shader model 2.0 sviluppato da ATi assieme a Microsoft?
Rispondere a questa domanda è alquanto dura. Sappiamo tuttavia che la GeForce 6800 soddisfa tutte le richieste del nuovo modello shader. La domanda più interessante a questo punto sarebbe "come agirà ATi?". Le nuove richieste minime di una precisione in virgola mobile a 32 Bit potrebbero essere un grave problema per ATi, dato che aveva pianificato di rimanere stabile sui 24 Bit.
Gli sviluppatori 3D di tutti i Forum del mondo stanno dibattendo sul potenziale che il nuovo modello di shader apporterà nello sviluppo dei giochi 3D. I giocatori si chiedono invece fra quanto tempo potranno vedere dei reali benefici con il cambiamento all'SM 3.0. Sembra comunque certo che il cambiamento sarà più veloce di quanto è accaduto tra SM 1.x (direct 8.x) e SM2.x (directX 9), dato che la maggior parte del lavoro è fatto dai compilatori. Gli sviluppatori dovranno solo scrivere alcune righe di codice et voilà - avranno un codice ottimizzato per SM2.x o 3.x. Questo dovrebbe rendere molto semplice convertire i giochi già esistenti al nuovo standard. Ovviamente la domanda rimane, in quanto non sappiamo se questa conversione porterà dei reali benefici.
NVIDIA ha creato un vetrina delle possibili applicazioni di cui potranno usufruire gli sviluppatori e i coder: maggiori informazioni qui
Mentre NVIDIA sta puntando molto sul nuovo shader model, Ati sta cercando di difendersi. Un esempio della tattica adottata da ATi è la presentazione intitolata "Save the Nanosecond" di Richard Huddy, che è accidentalmente apparsa su Internet. La presentazione riporta alcune note personali in cui lo scrittore cerca di convincere gli sviluppatori a stare alla larga dal PS 3.0, in quanto influenzerà pesantemente le prestazioni.
Nei forum sono nati vari dibatiti sul metodo di interpretazione di queste affermazioni. Alcuni dicono che probabilmente i nuovi chip ATi saranno troppo lenti per questo nuovo standard, altri che semplicemente non sono progettati per utilizzarlo a dovere.
Si vabè...se facciamo riferimento a ste cose,diciamo che fino a che non usciranno R500 e NV50 qualsiasi gioco lo si potrà giocare anche con una 9700...ovviamente non con dettagli stratosferici...si veda ora la situazione,qualsiasi gioco (a parte Far Cry) è giocabile anche con una Ti4200... :rolleyes:
Progettare un gioco che può girare solo sul 5% delle schede in circolazione (e mi sto tenendo largo) equivale a spararsi sui maroni.
Sembra che ati abbia pensato più alle prestazioni, mantenendo come base r300 rendendolo più veloce, ma sacrificando le features.
nvidia im ho è anche costretta a implementare ogni volta nuove features previste dalle API, dato il mercato che detiene nel settore PRO.
oggi a proposito è uscita la quadro 4000, che deve per forza di cose supportare shader 3.0 e FP32
Nino Grasso
20-04-2004, 00:53
io a far cry ci gioco + che dignitosamente con una ti4200 (tutto messo ad alto)... non la critichiamo che mi si offende ah??? :D :D :D
halduemilauno
20-04-2004, 08:32
Originariamente inviato da yossarian
l'AF purtroppo non è un'incognita; dico purtroppo perchè l'hanno peggiorato rispetto a quello dell'NV3x, copiando l'implementazione di ATi. In questo caso non è un problema di drivers ma una scelta HW: hanno risparmiato sul numero dei transistor da dedicare all'AF. L'NV3x lo applica con la massima qualità su angoli multipli di 45°, l'NV40, come l'R3x0 su angoli multipli di 90°. Questo comporta l'utilizzo di un circuito meno complesso, con meno transistor, ma una perdita di qualità sulle superfici oblique. A ciò si aggiunge la scelta (fatta già con NV3x e da ATi con R3x0) di utilizzare, anche in modalità quality, il trilinear solo per il primo, massimo i primi due layer ed affidare il resto dell'elaborazione al bilinear (questa impostazione, invece, si può modificare via drivers).
Per l'AA hanno finalmente scelto una modalità RGMS, anche se, ad essere pignoli, si può fare di meglio.
grazie per aver chiarito.
ciao Yossi.
:) :)
Originariamente inviato da yossarian
Figurati; è giusto riprendere qualcuno quando dice inesattezze (per il problema della propagazione degli errori :D ); anzi, mi scuso con R@nda per averlo ingiustamente corretto; anche se poi, mi pare, correggimi se sbaglio, che in FarCry, negli esterni, non sono adoperati PS2.0; se così è, il procedimento che hai descritto è, in quel caso, applicato a due PS1.x in cui sono utilizzati diversi algoritmi per ottenere risultati analoghi ma con divers precisione nei calcoli (ad esempio il rapporto sen/cos ottenuto con il sistema standard, oppure approssimato con uno sviluppo in serie di Taylor).
Hai ragione; non ho pensato alla possibilità di scrivere più versioni di uno shader da abbinare ad un input sul controllo della distanza; si vede che non sono un programmatore (e si che una volta mi aveva accennato a qualcosa del genere anche fek).
Grazie caro, un'utile informazione in più
;) :D
Bhe tenete presente che di programmazione ne so ZERO totale....quindi mi pongo delle domande al quale non sò rispondere e aspetto voi per l'illuminazione:D
Buono che sia possibile farlo....mi chiedo però se qualcuno lo farà mai....visto il lavoro in più da fare e un ottimizzazione del codice e della scena di gioco....tempo di sviluppo e videogiochi non è che vanno troppo daccordo.
andryonline
20-04-2004, 09:49
Dark ho seguito tutto il thread, ma mi sono dimenticato di farti i complimenti!
cerco video ad alta risoluzione dell'nv 40 ancha superiori a 100 mb...:sbavvv: :sbavvv: :sbavvv:
vi prego... :ave: :ave:
ma quanti milioni di poligoni muove questo mostro?
la pessima nv35 ne generava 450mil.
Originariamente inviato da Ren
ma quanti milioni di poligoni muove questo mostro?
la pessima nv35 ne generava 450mil.
1 ma bello grosso :asd: :asd:
no scherzo nn ne ho idea :D
la 6800 arriva a 600 milioni di poligoni :eek: , non so la versione finale.
La nv35 arrivava a "solo" 385 Mln
Ragazzi, se con un pikkolo OC questa scheda si dimostra ancora più bella di quella che è,con le versioni a 600mhz avremo una bomba di potenza? (lasciando stare i discorsi sulla qualità per un attimo) E se non ho detto una castronata, questo miglioramento all'aumentare della frequenza è dato dala pipeline + lunga??(altra castronata??)
Illuminatemi :sofico:
Thunder82
20-04-2004, 13:59
Originariamente inviato da Trestar
(lasciando stare i discorsi sulla qualità per un attimo)
Perchè bisogna lasciarli stare? Preferisci giocare a 1000 fps a "bassa" qualità o a 900 fps con qualità alta?...
Gatz1980
20-04-2004, 14:06
Ho visto il video completo della presentazione della 6800 e lì viene detto esplicitamente che la matematica FP a 32bit viene usata solamente negli shader più complicati (suppongo 3.0) mentre in tutto il resto la precisione utilizzata è quella a 16bit.
Addirittura nella demo del museo, quella nella quale si parla di "full range" di luminosità, l'utilizzo dei 16bit viene espressamente dichiarato, in contrapposizione all'uso, meno proficuo, di soli floating point da 8bit.
Addirittura nelle demo che illustrano l'uso dei nuovi shader, mentre l'uomo NVidia parla di 3.0, il programmatore parla di utilizzo congiunto di 2.0 e 3.0 (probabilmente molto poco) e addirittura quando si guardano i muri di FarCry, egli parla di "a sorte of displacement technology ... that changes the depth of the bump mapping" quindi non vero e proprio displacement mapping, ma una specie.
Tutto questo (correggetemi se sbaglio) mi fa pensare che l'utilizzo di Shaders 3.0, così come di precisione a 32bit, sarà molto contenuto, mentre nella realtà dei fatti si continueranno ad utilizzare prevalentemente numeri a 16bit, senza per questo, necessariamente, avere una qualità minore.
Originariamente inviato da Thunder82
Perchè bisogna lasciarli stare? Preferisci giocare a 1000 fps a "bassa" qualità o a 900 fps con qualità alta?...
Non per questo, ma per focalizzare l'aspetto velocistico:)
Siccome sulla qualità vera e propria dobbiamo aspettare (a quanto pare) una versione dei driver + aggiornata, m'importava sapere secondo voi quali sono i margini di miglioramento;)
Originariamente inviato da Gatz1980
Addirittura nelle demo che illustrano l'uso dei nuovi shader, mentre l'uomo NVidia parla di 3.0, il programmatore parla di utilizzo congiunto di 2.0 e 3.0 (probabilmente molto poco) e addirittura quando si guardano i muri di FarCry, egli parla di "a sorte of displacement technology ... that changes the depth of the bump mapping" quindi non vero e proprio displacement mapping, ma una specie.
E' il cosiddetto parallax mapping di cui avevo postato qualche info post addietro.
Thunder82
20-04-2004, 14:24
Originariamente inviato da Trestar
Non per questo, ma per focalizzare l'aspetto velocistico:)
Siccome sulla qualità vera e propria dobbiamo aspettare (a quanto pare) una versione dei driver + aggiornata, m'importava sapere secondo voi quali sono i margini di miglioramento;)
Appunto, dell'aspetto velocistico (per quanto veloce sia) non si può dire niente finchè la qualità non sarà a livelli accettabili con altre revisioni dei driver o patch (sempre se è un problema risolvibile)
Originariamente inviato da Thunder82
Appunto, dell'aspetto velocistico (per quanto veloce sia) non si può dire niente finchè la qualità non sarà a livelli accettabili con altre revisioni dei driver o patch (sempre se è un problema risolvibile)
Questo è anke vero:p
Ma se non risolvono sti problemi (e come hai ben detto SE lo sono:muro: ) meglio che si sbrighino, sarebbe davvero un peccato, perchè le premesse per una bella scheda penso ci siano tutte.:(
Originariamente inviato da Gatz1980
Ho visto il video completo della presentazione della 6800 e lì viene detto esplicitamente che la matematica FP a 32bit viene usata solamente negli shader più complicati (suppongo 3.0) mentre in tutto il resto la precisione utilizzata è quella a 16bit.
Addirittura nella demo del museo, quella nella quale si parla di "full range" di luminosità, l'utilizzo dei 16bit viene espressamente dichiarato, in contrapposizione all'uso, meno proficuo, di soli floating point da 8bit.
Addirittura nelle demo che illustrano l'uso dei nuovi shader, mentre l'uomo NVidia parla di 3.0, il programmatore parla di utilizzo congiunto di 2.0 e 3.0 (probabilmente molto poco) e addirittura quando si guardano i muri di FarCry, egli parla di "a sorte of displacement technology ... that changes the depth of the bump mapping" quindi non vero e proprio displacement mapping, ma una specie.
Tutto questo (correggetemi se sbaglio) mi fa pensare che l'utilizzo di Shaders 3.0, così come di precisione a 32bit, sarà molto contenuto, mentre nella realtà dei fatti si continueranno ad utilizzare prevalentemente numeri a 16bit, senza per questo, necessariamente, avere una qualità minore.
esatto !
come dice anche FEK per oltre un anno si continuerà a sviluppare prevalentemente per FP16 (che ati poi trasfomra in fp24).
L'FP32 vero e proprio verrà usato sempre con R500.
Questa nuova gpu non sarà dx10 come molti credono, le dx10 escono nel 2006.
R500 esce nella prima metà del 2005 e verrà montano in xbox2, sarà la prima gpu a far girare a palla gli shader 3.0.
MS e ATi stanno lavorando insieme ormai da tempo a questo progetto....
Athlon 64 3000+
20-04-2004, 15:33
saranno allora R600 e L'NV60 le prime GPU dx 10?
Thunder82
20-04-2004, 15:44
Originariamente inviato da dwfgerw
esatto !
come dice anche FEK per oltre un anno si continuerà a sviluppare prevalentemente per FP16 (che ati poi trasfomra in fp24).
L'FP32 vero e proprio verrà usato sempre con R500.
Questa nuova gpu non sarà dx10 come molti credono, le dx10 escono nel 2006.
R500 esce nella prima metà del 2005 e verrà montano in xbox2, sarà la prima gpu a far girare a palla gli shader 3.0.
MS e ATi stanno lavorando insieme ormai da tempo a questo progetto....
Se la storia è così, allora mi sa che la mossa giusta sarà acquistare R500, per avere meno problemi possibile col porting dei giochi da Console (infatti chi ha GF4, che è praticamente la GPU di Xbox, non ha MAI avuto problemi coi giochi provenienti da xbox o console in generale), che sono sempre di più.
Norbrek™
20-04-2004, 16:02
Originariamente inviato da Thunder82
Se la storia è così, allora mi sa che la mossa giusta sarà acquistare R500, per avere meno problemi possibile col porting dei giochi da Console (infatti chi ha GF4, che è praticamente la GPU di Xbox, non ha MAI avuto problemi coi giochi provenienti da xbox o console in generale), che sono sempre di più.
Dipende da caso a caso, io per esempio che ho una vga di fascia alta aspetto R500 e NV50 ma per chi ora ha una Geffo4 o precedente nv40 e r420 sarebbero un bun acquisto...alla fine seguendo questo ragionamento per ogni generazione di schede si trova un motivo per aspettare quella successiva....
Originariamente inviato da Norbrek™
Dipende da caso a caso, io per esempio che ho una vga di fascia alta aspetto R500 e NV50 ma per chi ora ha una Geffo4 o precedente nv40 e r420 sarebbero un bun acquisto...alla fine seguendo questo ragionamento per ogni generazione di schede si trova un motivo per aspettare quella successiva....
infatti non esiste un periodo buono per acquistare nel mondo dell'ifnormatica, altrimenti l'attesa sarebbe infinita.
bisogna acquistare quando c'e' la necessità valutando le offerte.
forse con r300 r350 e r360 era inutile aggiornare tanto cambiavano solo i clock ma ora si cambia architettura, nv40 doppia, triplica le prestazioni di r360
Athlon 64 3000+
20-04-2004, 16:17
allora per quelli che hanno una Radeon 9700Pro o una 9800Pro non conviene prendere una NV40 o R420?.
Jedi_Master
20-04-2004, 16:18
Originariamente inviato da dwfgerw
cambiavano solo i clock ma ora si cambia architettura, nv40 doppia, triplica le prestazioni di r360
Casomai raddoppia le prestazioni della vecchia
nvidia ma non quelle della 9800xt!
Originariamente inviato da Jedi_Master
Casomai raddoppia le prestazioni della vecchia
nvidia ma non quelle della 9800xt!
Anche della 9800Xt....
Scusa mi stai dicendo che una 9800Xt va mezza volta in più di una 5950.....il che non è proprio vero.
Jedi_Master
20-04-2004, 16:52
Originariamente inviato da R@nda
Anche della 9800Xt....
Scusa mi stai dicendo che una 9800Xt va mezza volta in più di una 5950.....il che non è proprio vero.
Premesso che il triplo non mi sembra in nessun test.
:)
Il doppio di r360 non e' sempre vero, come ad esempio qui':
http://www.anandtech.com/video/showdoc.html?i=2023&p=17
Dove abbiamo (1280x1024) circa il doppio della 5950 per
la 6800, mentre tra 9800xt (circa 60) e 6800 (circa 80)
abbiamo certo un'incremento ma di circa il 50% non il doppio!
Giusto?
Fino al triplo....
Chiaramente non può essere il triplo in prestazioni in ogni test.
Ci sono test dove il margine è ridotto e altri dove viaggi il triplo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.