PDA

View Full Version : ATI Radeon X800 [Thread ufficiale]


Pagine : 1 2 3 [4] 5 6 7 8

andreamarra
05-05-2004, 20:04
Originariamente inviato da MaBru
Fek ha sintetizzato così: NV40 meglio per i programmatori; R420 meglio per l'utente finale.

E' corretto, semplicemente perchè a mio avviso quando ci saranno titoli che sfrutteranno mortalmente o anche solo parzialmente gli shader 3.0 non credo (ipotizzo ovviamente...) che la NV40 sarà sufficiente. Ancor meno la Ati.

Quindi per me la rivoluzione da parte ati è spostata al prossimo chip R500. Credo sia impossibile che nelle versioni di mezzo dell'R420 la ati riesca a mettere mani al progetto per renderlo pieno di features (aspetto sempre di sapere se la R420 ha o meno il fetch vertex...).

Insomma, mi sa che l'appuntamento di fuoco sarà NV50 Vs R500 :eek:

MaBru
05-05-2004, 20:06
Originariamente inviato da JoeLatino
...tralasciando per un momento i giochi sapete come si comportano le varie schede in ambito opengl,e,cioe' con applicazioni grafiche 3d tipo lightwave,maya,3dmax?

In ambito OpenGL le Nvidia sono attualmente superiori di un buon margine anche se ATI sta lavorando ad un driver completamente nuovo.

un'altra cosa che non se ne e' ancora parlato:da quello che so' io le schede Nvidia hanno la decodifica hardware mpeg/divx e la tv incorporata.
i sapete dire qualcosa in merito?Grazie Joe

I driver attuali non supportano ancora la decodifica via hardware perciò non si può sapere come vada.

devis
05-05-2004, 20:08
Però un miglioramento del PS rispetto all R3x0 c'è.

Un piccolo appunto. Nvidia si "vanta" di avere gli shader 3.0, però utilizza l' FP16, non vi sembra un controsenso?

devis
05-05-2004, 20:10
Originariamente inviato da andreamarra

Insomma, mi sa che l'appuntamento di fuoco sarà NV50 Vs R500 :eek:

E' appena uscito l'R420/NV40, non avventuriamoci in fantainformatica :D

TheDarkAngel
05-05-2004, 20:16
Originariamente inviato da devis
Però un miglioramento del PS rispetto all R3x0 c'è.

Un piccolo appunto. Nvidia si "vanta" di avere gli shader 3.0, però utilizza l' FP16, non vi sembra un controsenso?

nvidia è tutto un controsenso :fagiano:
sa fare solo chipset... e se si muovesse a far uscire nforce250gb non mi dispiacerebbe affatto...

dwfgerw
05-05-2004, 20:24
Originariamente inviato da TheDarkAngel
nvidia è tutto un controsenso :fagiano:
sa fare solo chipset... e se si muovesse a far uscire nforce250gb non mi dispiacerebbe affatto...


Ma vi rendete conto di cosa scrivete ?

Nv 40 è un gioiello di tecnologia, ATi sta giocando al risparmio addirittura scoraggia gli sviluppatori a non usare gli shader 3.0, di conseguenza ATi non avendo Vertex 3.0 onn può fare Displacement Mapping secondo lo shader 3.0.

Questa volta si tratta di un solo R300X2 la stessa tecnologia di due anni fa senza cose nuove.

ecco le conslusioni di tom's .it

Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0.
-----------------------

La 6800GT rimane la migliore, 16pipes si overclocca oltre la Ultra (dai test di firingsquad) iun solo molex e dissi piatto che occupa un solo slot.

dwfgerw
05-05-2004, 20:27
Originariamente inviato da rubex
Gia',innovazioni del tipo ps3.0?
Ma dai su'.....

BYe


si invece R420 è innovazione:rolleyes:

ci hanno ridato R300 nell'enessima salsa...

questa volta però non potrà neanche eseguire DM in hardware, i VS sono gli stessi delle r300.

Questa volta nVidia con la 6800 liscia a 299 e la GT 16pipes a 399 ha il mercato performance, ad ati l'enthusiast con la XT.

La PRO mi ha deluso

Cifer
05-05-2004, 20:28
Si, ma loro gli shader 2.0 li continuano ad eseguire a fp24, gli altri nonostante lo standard 3.0 lo continuano ad eseguire a fp16...

StIwY
05-05-2004, 20:31
Originariamente inviato da andreamarra
La versione Extreme non sarà commercializzata, praticamente era un sample che dimostrava come una Ultra potesse competere maggiormente grazie a frequenze sostenute.

I 10 test su 15 se mi dici a 1024*768 senza filtri ci siamo, altrimenti se metti i filtri e risoluzioni alte (cosa che fa chi compra queste schede) il discorso è differente. La X800XT rimane davvero granitica di fronte ad aumenti qualitativi dell'immagine, la 6800Ultra subisce di più il colpo.
denkiu:)

Legolas84
05-05-2004, 20:32
Possono eseguirlo anche a FP 32.... con uno scarto di 10 - 15 Fps ( e considera i driver acerbi..... )

halduemilauno
05-05-2004, 20:33
Originariamente inviato da andreamarra
La versione Extreme non sarà commercializzata, praticamente era un sample che dimostrava come una Ultra potesse competere maggiormente grazie a frequenze sostenute.

I 10 test su 15 se mi dici a 1024*768 senza filtri ci siamo, altrimenti se metti i filtri e risoluzioni alte (cosa che fa chi compra queste schede) il discorso è differente. La X800XT rimane davvero granitica di fronte ad aumenti qualitativi dell'immagine, la 6800Ultra subisce di più il colpo.


chi compra queste schede usa i filtri. le risoluzioni elevate es. 1600x1200 se non hai un monitor adeguato 20/21 pollici con refresh sui 100 non le usi. quindi tutti i bench a quella risoluzione fanno vedere la potenza della scheda ma non credo che sia tanto fruibile. tutt'altro.
e poi te lo gia detto la extreme è gia stata ordinata da Gainward e XFX produttori di schede video e da Alienware, Falcon N.O.e Voodoo PC tre produttori di PC americani. e si sussurra che quest'ultimi mettano doom 3 in bundle. si sussurra.
ciao.
:) :)

JoeLatino
05-05-2004, 20:33
scusate ma ora come ora,non vi sembra sballato confrontare giochi directx che non possono neppure sfruttare le schede Nvidia in quanto i drivers sono beta e le directx 9c non sono ancora uscite?
si' e' vero i test sono indicativi,ma allora perche' non fate riferimento anche a programmi/giochi opengl,qualita' e velocita' con programmi 2d e video?
grazie

MaBru
05-05-2004, 20:36
Originariamente inviato da dwfgerw
Ma vi rendete conto di cosa scrivete ?

Nv 40 è un gioiello di tecnologia, ATi sta giocando al risparmio addirittura scoraggia gli sviluppatori a non usare gli shader 3.0, di conseguenza ATi non avendo Vertex 3.0 onn può fare Displacement Mapping secondo lo shader 3.0.

Caro DST,

ti ricordi che sul forum di Nvitalia Fek ha scritto che anche nVidia consiglia agli sviluppatori di evitare il dynamic branching come la peste? ;)

dwfgerw
05-05-2004, 20:38
Originariamente inviato da MaBru
Caro DST,

ti ricordi che sul forum di Nvitalia Fek ha scritto che anche nVidia consiglia agli sviluppatori di evitare il dynamic branching come la peste? ;)


io infatti non parlo di quello ma del displacement mapping e geometric instancing completamente assente in R420, mi aspettavo più innovazione, alla fine la 6800 GT è un'offerta veramente allettante dato che è una ultra con pochi mhz in meno e non è castrata

Raven
05-05-2004, 20:39
Originariamente inviato da halduemilauno
...e poi te lo gia detto la extreme è gia stata ordinata da Gainward e XFX produttori di schede video e da Alienware, Falcon N.O.e Voodoo PC tre produttori di PC americani. e si sussurra che quest'ultimi mettano doom 3 in bundle. si sussurra.
ciao.
:) :)

ok... il "problema" è che la extreme costerà UN FOTTIO (:sofico: ) di più, rispetto a una ultra....

Ultra e xt: sono queste le 2 che si devono confrontare... ;)

Legolas84
05-05-2004, 20:41
imho ATi prevedeva di far uscire la XT per settembre - ottobre..... lo dimostra il fatto che si overclokki pochissimo.... difatti se guardate i bench la 6800 Ultra sta sempre davanti alla x800pro...

Mi sa che è stata una scelta obbligata quella di mettere ora la XT....


tutto imho

dwfgerw
05-05-2004, 20:43
Originariamente inviato da Legolas84
imho ATi prevedeva di far uscire la XT per settembre - ottobre..... lo dimostra il fatto che si overclokki pochissimo.... difatti se guardate i bench la 6800 Ultra sta sempre davanti alla x800pro...

Mi sa che è stata una scelta obbligata quella di mettere ora la XT....


tutto imho

certamente la X800PRO non ce la fa a superare un nv40 a 400Mhz nel complesso dei test.

Questa volta è ATi che ha bisogno di frequenze stellari per stare dietro a nvidia.

Io la X800PRO l'averei lasciata a 16pipe come la GT....

Cifer
05-05-2004, 20:46
Originariamente inviato da Legolas84
Possono eseguirlo anche a FP 32.... con uno scarto di 10 - 15 Fps ( e considera i driver acerbi..... )

Si, ma solo in alcuni casi sulla ultra extreme rimani sui 10-15 in meno, mano mano che scendi di fascia la differenza aumenta, in percentuale parecchio, il che porrebbe la scheda non di poco al disotto della concorrenza, non c'è dubbio che con l'evoluzione dei driver qualcosa si recupera, ma se forzi la precisione a 32 è presumibile che quel recupero non possa stupire.

Legolas84
05-05-2004, 20:51
Originariamente inviato da Cifer
Si, ma solo in alcuni casi sulla ultra extreme rimani sui 10-15 in meno, mano mano che scendi di fascia la differenza aumenta, in percentuale parecchio, il che porrebbe la scheda non di poco al disotto della concorrenza, non c'è dubbio che con l'evoluzione dei driver qualcosa si recupera, ma se forzi la precisione a 32 è presumibile che quel recupero non possa stupire.


ritengo che chi compra una GT e la clokka a Ultra possa giocare tranquillamente in FP32 (specie con i futuri driver....)

andreamarra
05-05-2004, 20:53
Originariamente inviato da Legolas84
imho ATi prevedeva di far uscire la XT per settembre - ottobre..... lo dimostra il fatto che si overclokki pochissimo.... difatti se guardate i bench la 6800 Ultra sta sempre davanti alla x800pro...

Mi sa che è stata una scelta obbligata quella di mettere ora la XT....


tutto imho

Questo lo credo anch'io.

Guarda, se i tempi fossero più maturi e dovessi cambiare scheda penso che sarei nel panico più totale... :eek:


E se la nvidia non avesse perso punti nei miei confronti dopo gli ultimi chip scandalo FX e flow fx vari... sarei quasi quasi tentato...



la cosa "grave" per ati è il fatto che adesso saranno inguaiati fino almeno al R500. Non credo possano permettersi di fare duecento varianti del R420/R423/R432 ecc. ecc. perchè devono mettere mano al progetto e creare un chip rivoluzionario come quello di nvidia (ovviamente aspetto sempre di vedere cosa combinerà con le applicazioni di un certo tipo). Quindi probabilmente tutte le features varie potranno essere inserite solo nell'R500.

E a questo punto saltando gli stadi intermedi, la ati sarà costretta a rilasciare il prima possibile questo chip prima del tempo...

Almeno la concorrenza servirà, spero...

halduemilauno
05-05-2004, 20:55
Originariamente inviato da Raven
ok... il "problema" è che la extreme costerà UN FOTTIO (:sofico: ) di più, rispetto a una ultra....

Ultra e xt: sono queste le 2 che si devono confrontare... ;)


che costi un fottio è praticamente certo.
e perchè si devono confrontare quelle due?
ciao.


;)

halduemilauno
05-05-2004, 20:56
Originariamente inviato da Legolas84
ritengo che chi compra una GT e la clokka a Ultra possa giocare tranquillamente in FP32 (specie con i futuri driver....)

...e non dimentichiamo le future dx9.0C
ciao.
:) :)

dwfgerw
05-05-2004, 20:56
Originariamente inviato da Legolas84
ritengo che chi compra una GT e la clokka a Ultra possa giocare tranquillamente in FP32 (specie con i futuri driver....)


si ma alla fine le matrici in formato FP danno una varietà talmente alta di colore che come avrete visto anche nella rece di hwupgrade non c'e' praticamente differenza visiva percettibile tra FP16/24/32.

L'fp32 è siciuramente il futuro, anzi con le prossime api (DX next) si parla già di FP48....

dwfgerw
05-05-2004, 20:58
fp 16 nV40

http://www.hwupgrade.it/articoli/1013/shader_nv40_16_zoom_3.jpg

fp 32 nv40
http://www.hwupgrade.it/articoli/1013/shader_nv40_32_zoom_3.jpg


per vedere un minimo di effetto banding bisogna fare zoom nell'ordine del 300/400% quindi:rolleyes:


inoltre la potenza bruta in ps 2.0 della GT che vanta tutte e 32 le unita FP nelle 16 pipeline èimpressionante e superiore a X800PRO

http://www.hwupgrade.it/articoli/1013/3dmark_1.gif

andreamarra
05-05-2004, 21:02
Originariamente inviato da dwfgerw
fp 16 nV40

http://www.hwupgrade.it/articoli/1013/shader_nv40_16_zoom_3.jpg

fp 32 nv40
http://www.hwupgrade.it/articoli/1013/shader_nv40_32_zoom_3.jpg


per vedere un minimo di effetto banding bisogna fare zoom nell'ordine del 300/400% quindi:rolleyes:

Sicuro che per notare differenze occorre mettere zoom a manetta, però se non ho capito male in far cry ad esempio l'utilizzo di fp32 fa perdere qualcosa alle prestazioni.

Tra l'altro sono troppo confuso ora come ora, un giorno mi andrei a prendere una X800pro, poi prenderei la X800XT e mai una NV40, poi prenderei una 6800Gt, poi una 6800Ultra, poi terrei la mia.. :confused:

:cry:

dwfgerw
05-05-2004, 21:03
lo so è dura scegliere;)

io la mia scelta l'ho già fatta, aspetto che mettano al listino zetabyte le PoV 6800GT

Eizo
05-05-2004, 21:04
troppi bench discordanti tra i vari siti :rolleyes:

andreamarra
05-05-2004, 21:05
Originariamente inviato da Eizo
troppi bench discordanti tra i vari siti :rolleyes:

Per questo io aspetto quelli di HUpgrade con questi mostri + AFX53 e driver non beta :oink:

dwfgerw
05-05-2004, 21:05
il 28 maggio è la data in cui nvidia pubblica finalmente la prima versione finale su nvidia.com dei forceware 60.xx

devis
05-05-2004, 21:06
Originariamente inviato da Cifer
Si, ma solo in alcuni casi sulla ultra extreme rimani sui 10-15 in meno, mano mano che scendi di fascia la differenza aumenta, in percentuale parecchio, il che porrebbe la scheda non di poco al disotto della concorrenza, non c'è dubbio che con l'evoluzione dei driver qualcosa si recupera, ma se forzi la precisione a 32 è presumibile che quel recupero non possa stupire.

Da notare che tutte le review sono fatte con FP16, nonostante ciò la 6800 rimane indietro in parecchi test. Con FP32 le 6800 soccombono inesorabilmente.

FP 16 Nvidia

http://www.hwupgrade.it/articoli/1013/shader_nv40_16_zoom_2.jpg


FP24 ATI

http://www.hwupgrade.it/articoli/1013/shader_r420_zoom_1.jpg

FP 32 Nvidia

http://www.hwupgrade.it/articoli/1013/shader_nv40_32_zoom_2.jpg

La resa visiva tra FP24 e 32 in questo test è identica. Invece tra 16 e 24/32 è evidente.


Sia con NV38 che NV40 la qualità dell'immagine con precisione FP16 lascia a desiderare: i materiali che fanno uso della riflessione speculare sono soggetti ad un fastioso effetto banding, non presente nel calcolo FP24 delle GPU ATI. Con FP32 la situazione migliora notevolmente e le immagini diventano uguali (se non leggermente migliori) a quelle FP24. La differenza tra FP16 e FP24 è superiore a quella tra FP24 e FP32 per lo stesso motivo per cui tra un desktop a 8 bit ed uno a 16 bit la differenza è superiore rispetto al confronto tra 16 bit e 32 bit: più si aumenta il numero dei colori e più ci si avvicina al limite in cui l'occhio umano non è più in grado di distinguerli perché il numero di sfumature è troppo elevato.


Ergo i test devono essere fatti forzando il FP32, altrimenti si falsa tutto.

Vegeteo
05-05-2004, 21:07
scusate se non leggo 39 pagine:D ma io vorrei capire

questo
ATI Radeon X800 Subsurface v1.0

lo possiamo far girare anche noi o va solo con le nuove schede?

Lord style
05-05-2004, 21:07
Originariamente inviato da dwfgerw

per vedere un minimo di effetto banding bisogna fare zoom nell'ordine del 300/400% quindi:rolleyes:


inoltre la potenza bruta in ps 2.0 della GT che vanta tutte e 32 le unita FP nelle 16 pipeline èimpressionante e superiore a X800PRO




Non dirmi che non lo vedi il banding in questa immagine. Considera che è anche lontano, eppure si vede chiaramente.



http://www.hwupgrade.it/articoli/1013/shader_nv38_16_1.jpg

Cifer
05-05-2004, 21:11
Non voglio contraddirti, ma personalmente, visti i risultati, non credo proprio.

Purtroppo, contrariamente a quanto si supponeva prima che nv40 fosse testato, quest'ultimo ha un decadimento analogo, a volte maggiore, a volte minore (con i filtri, ma va considerata quì anche la maggiore bandwith), di quanto non fosse per la serie nv3x nel passare da fp16 a fp32.

http://www.hwupgrade.it/articoli/1013/19.html

(se fai le proporzioni in percentuale sei su valori analoghi, per il decadimento delle prestazioni, dell'fx5950, leggermente inferiori per la ultra extreme, ma di pochissimo).

In senso assoluto credo che la soluzione di fascia + alta possa far girare discretamente giochi che fanno uso dei ps2.0 o 3.0 che siano come far cry con una precisione fp32, ma perderebbe comunque, e non di poco, il confronto con la concorrenza, per le soluzioni medio alte dubito si possa ipotizzare un framerate accettabile, non in senso assoluto, ma in confronto alla concorrenza.

Per questioni di marketing dubito che ti lascino mai decidere via driver (a meno che tu non voglia usare una timedemo con tanto di tool per forzare la precisione come il Corsini) la precisione fp, perchè poi avresti la rete invasa di bench che mostrano le differenze, mentre ora sono ben pochi ad aver evidenziato le differenze, e non penso per malafede, semplicemente per differenti scelte nella metodologia di testing.
E per questioni di marketing, il confronto con la concorrenza è quello che non si può mai perdere, almeno così mi sembra impostato quello Nvidia.

Tutto questo nulla toglie al fatto che le vere innovazioni sugli shaders a questo giro le ha introdotte Nvida, anche se va detto che esclusa la nuovo versione di ps3.0 e vs3.0 ha dato una bella scopiazzata alla concorrente.

Lord style
05-05-2004, 21:14
Originariamente inviato da andreamarra
prelevo da nvitalia uno shot preso da TechReport e ritagliato per esigeneze di spazio dall'utente Marcopon di nvitalia in cui vengono raffrontati i pixel shader 2.0 con il programma rthdbril (un demo "massive ps 2.0")... link http://www.daionet.gr.jp/~masa/rthdribl/#Download

http://mark0.ngi.it/var/x800-vs-nv40.jpg


praticamente la ati va più del doppio.


Ecco, questi sono i punti oscuri da chiarire (se dovesse essere reale e non farloccone il bench)...

Da una prima analisi attenta la nv40 ha fatto un progetto che ha completamente stravolto il nv30... ma qualcosa potrebbe essere rimasta come orrenda eredità?


Ieri andrea ha postato questo test, dove l'NV40 con uso intensivo di HDR ne usciva a pezzi.

Ci sono stati dei chiarimenti in merito o è tutto confermato?

dwfgerw
05-05-2004, 21:15
per me nvidia è promossa a pieni voti, ha dovuto rifare tutto da capo con un'architettura totalmente nuova, e mi sembra che rulli alla grande, se oggi nessuno si lamenta della 9800 non vedo come si possa lamentarsi di una GT.

bye;)

TheDarkAngel
05-05-2004, 21:18
Originariamente inviato da dwfgerw
per me nvidia è promossa a pieni voti, ha dovuto rifare tutto da capo con un'architettura totalmente nuova, e mi sembra che rulli alla grande, se oggi nessuno si lamenta della 9800 non vedo come si possa lamentarsi di una GT.

bye;)

non è colpa di ati se il progetto nv3x ha fatto schifo e hanno dovuto rifare tutto da capo..
non mi sembra per niente una buona cosa ;)
non paragonare la 9800 e la GT... i meriti della 9800 la GT se li sogna ;)

Eizo
05-05-2004, 21:18
averceli i soldi per una x800xt :D

andreamarra
05-05-2004, 21:20
Originariamente inviato da Lord style
Ieri andrea ha postato questo tests, dove l'NV40 con uso intensivo di HDR ne usciva a pezzi.

Ci sono stati dei chiarimenti in merito o è tutto confermato?


Bho, ancora nulla... :confused:

Eppure è basilare sapere se in un test come il 3dmark2003 va benissimo la nv40 e in una serie di test meno quotati vada nettamente meglio r420... :confused:


io in quel test di default faccio 35 :p

Lord style
05-05-2004, 21:28
Originariamente inviato da andreamarra
Bho, ancora nulla... :confused:

Eppure è basilare sapere se in un test come il 3dmark2003 va benissimo la nv40 e in una serie di test meno quotati vada nettamente meglio r420... :confused:


io in quel test di default faccio 35 :p

I numeri che spara 3DMark2003 non li reputo attendibili, nVidia sà che li guardiamo e ha "ottimizzato" i suoi driver per rendere al massimo con questo benchmark.

Il problema che "ottimizzare" per nVidia significa forzare l' FP16 come per FarCry ( ... e chissa per quale altro titolo), è questa la fregatura, il tutto all'insaputa dell'utente. :muro:

Per questo motivo ha più peso il Benchmark da te postato, che tutti gli altri tests.

R@nda
05-05-2004, 21:30
Quello è un test HDRI non Ps 2.0 occhio.
Entrano in ballo altri fattori (che non conosco).

Ci vorrebbe qualcuno esperto....

devis
05-05-2004, 21:31
Originariamente inviato da dwfgerw
per me nvidia è promossa a pieni voti, ha dovuto rifare tutto da capo con un'architettura totalmente nuova

Prendendo molto da R3X0. Sarei curioso di avere dei commenti di Yossarian sull'argomento, a proposito, dov'è finito? :confused:

Nie73
05-05-2004, 22:46
Originariamente inviato da dwfgerw
si invece R420 è innovazione:rolleyes:

ci hanno ridato R300 nell'enessima salsa...

questa volta però non potrà neanche eseguire DM in hardware, i VS sono gli stessi delle r300.

Questa volta nVidia con la 6800 liscia a 299 e la GT 16pipes a 399 ha il mercato performance, ad ati l'enthusiast con la XT.

La PRO mi ha deluso

se non ricordo male anche quando uscì la 5800 era tecnologicamente + avanzata, poi....:cry:

x me la questione è questa, se per 1 e mezzo /2 la maggior parte giochi sfrutterà poco i ps3, allora la soluzione Ati sarà la migliore visto come macina i ps 2, se invece i ps 3 avanzeranno velocemente la 6800 la spunterà, ma poichè nessuno lo potrà prevedere (e se non lo hanno fatto loro 2 figuriamoci noi..) ognuno :muro:

cmq non parlerei di schede di transizione, non dimentichiamoci che hanno doppiato la precedente generazione di schede come prestazioni e qualche chicca ce l'hanno data (compressione texture, taa, ps3 ...)

sanitarium
05-05-2004, 23:01
Originariamente inviato da dwfgerw
fp 16 nV40

http://www.hwupgrade.it/articoli/1013/shader_nv40_16_zoom_3.jpg

fp 32 nv40
http://www.hwupgrade.it/articoli/1013/shader_nv40_32_zoom_3.jpg


per vedere un minimo di effetto banding bisogna fare zoom nell'ordine del 300/400% quindi:rolleyes:


[...]


Tu porti come esempio le mattonelle, e io ti porto una superficie metallica:

ATi 24-bit
http://www.hwupgrade.it/articoli/1013/shader_r420_zoom_2.jpg

NVidia 16-bit
http://www.hwupgrade.it/articoli/1013/shader_nv40_16_zoom_1.jpg

Poi ti porto altre mattonelle:

http://supraptor.altervista.org/immagini/forum/farcry-scene4.jpg

Ora dimmi se non si vede alcuna differenza fra FP 16-bit e FP 24-bit.

TheDarkAngel
05-05-2004, 23:07
perchè qualcuno ha osato sostenere che non ci fosse differenza :eek: :eek: :eek: :eek: :eek: :eek: ?

Mostro!!
05-05-2004, 23:09
Ho letto fino a pagina 38, non andate troppo avanti :sofico:

sanitarium
05-05-2004, 23:11
Originariamente inviato da TheDarkAngel
perchè qualcuno ha osato sostenere che non ci fosse differenza :eek: :eek: :eek: :eek: :eek: :eek: ?

Beh, il messaggio di dwfgerw che ho quotato prima riporta questa frase:

per vedere un minimo di effetto banding bisogna fare zoom nell'ordine del 300/400% quindi

Io ho riportato degli shot nei quali si vede più che chiaramente la differenza tra FP16 e FP24, il tutto senza zoom spaventosi, ma a occhio nudo. ;)

TheDarkAngel
05-05-2004, 23:12
Originariamente inviato da sanitarium
Beh, il messaggio di dwfgerw che ho quotato prima riporta questa frase:

per vedere un minimo di effetto banding bisogna fare zoom nell'ordine del 300/400% quindi

Io ho riportato degli shot nei quali si vede più che chiaramente la differenza tra FP16 e FP24, il tutto senza zoom spaventosi, ma a occhio nudo. ;)

la miopia cavalca alla grande :D
non sembrano nemmeno lo stesso gioco... come sto già dicendo nell'altro 3d è completamente inutile usare fp16 in quanto non genera la stessa immagine degli fp24... solo gli fp32 renderizzano la stessa immagine...

luckye
05-05-2004, 23:20
Si per il momento la via della Fp24 è la migliore qualità al minor costo ! :)
Kmq tutta roba già in possesso dell'R300 da due anni.
Si sa niente di Ps Vs 4.0 ? e directx 10 ? Il confine della qualità televisiva è più vicino che mai !

sanitarium
05-05-2004, 23:23
Originariamente inviato da luckye
Si per il momento la via della Fp24 è la migliore qualità al minor costo ! :)
Kmq tutta roba già in possesso dell'R300 da due anni.
Si sa niente di Ps Vs 4.0 ? e directx 10 ? Il confine della qualità televisiva è più vicino che mai !

Per quanto riguarda le DX10, se non sbaglio non verranno supportate neanche da R500 e NV50... ;)

TheDarkAngel
05-05-2004, 23:26
Originariamente inviato da sanitarium
Per quanto riguarda le DX10, se non sbaglio non verranno supportate neanche da R500 e NV50... ;)

sicuro?
mi pare tanto 3 generazioni sulle dx9.0

Maury
05-05-2004, 23:33
Originariamente inviato da TheDarkAngel
la miopia cavalca alla grande :D


Ragazzi basta con ste seghe, che poi si diventa ciechi :sofico:

sanitarium
05-05-2004, 23:39
Originariamente inviato da TheDarkAngel
sicuro?
mi pare tanto 3 generazioni sulle dx9.0

Sicuro al 100% no, ma mi pare di averlo letto da qualche parte...

Invochiamo ancora una volta FEK, lui dovrebbe saperne qualcosa! :D

TheDarkAngel
05-05-2004, 23:39
Originariamente inviato da sanitarium
Sicuro al 100% no, ma mi pare di averlo letto da qualche parte...

Invochiamo ancora una volta FEK, lui dovrebbe saperne qualcosa! :D

fek ormai è peggio di novella 2000 :D

sanitarium
05-05-2004, 23:43
Originariamente inviato da TheDarkAngel
fek ormai è peggio di novella 2000 :D

Sa tutto di tutti! :sofico:

A parte gli scherzi, credo che possiamo ritenerci molto fortunati ad avere contatti con un programmatore che lavora nel campo dei videogiochi. ;)

TheDarkAngel
05-05-2004, 23:49
Originariamente inviato da sanitarium
Sa tutto di tutti! :sofico:

A parte gli scherzi, credo che possiamo ritenerci molto fortunati ad avere contatti con un programmatore che lavora nel campo dei videogiochi. ;)

anche se facesse uscire in fretta b&w2 non sarebbe male :D
mi è decisamente piaciuto il primo ^^ (tranne la localizzazione in ita)

Gioman
05-05-2004, 23:54
Non ti è piaciuta la frase:
"primaaaa mi hai seguito, per favore non riprovarciii":p

dwfgerw
06-05-2004, 00:05
Qui c'e' un discorso molto interessante dove partecipa anche fek vi do un estratto
http://www.nvitalia.com/forum/showthread.php?s=&threadid=35345

Un pezzo tratto dalla rece di X800Pro fatta su 3dcenter.org (la mia è una libera traduzione):


quote:
--------------------------------------------------------------------------------
Sebbene NV40 sembra sia più difficile da ottimizzare (qui probabilmente si riferiscono alla difficoltà di salire di frequenze), la GPU può fare tante cose che R420 può solo 'emulare'. Si consideri il cosiddetto HDR. R420 deve prelevare almeno 4 FP texture samples, filtrarli nei pixel shader e renderizzarli in una texture FP. NV40 ha una circuiteria dedicata per il filtering FP fino a 16x AF (effettuato dalla TMU, liberando le unità pixel shader che possono così fare altri calcoli) e può renderizzare su un frame buffer FP (diciamo che in quest'ultimo caso però, viene pregiudicata la possibilità di applicare multisampling AA).

Il "back-end" dell'HDR/MDR, ovvero il tone mapping, può essere fatto direttamente nella RAMDAC-Logic dell'NV40, mentre R420 deve utilizzare sempre i suoi pixel shader. NV40 offre un parziale supporto hardware all'OpenEXR (standard sviluppato da Industrial Light & Magic per il formato delle immagini con effetti di High Dynamic Range). I veri effetti cinematografici si basano su tali tecnologie. Anche R420 può renderizzare tali effetti, ma la sua architettura non è molto congeniale per essi.

Paoletta Corsini
06-05-2004, 00:06
Originariamente inviato da Thunder82
Anche Newell non scherza :D

Dai, allora Newell lo chiamiamo sbirulino ok? :D
Vada per sbirulino :D

MaBru
06-05-2004, 00:12
Originariamente inviato da sanitarium
Per quanto riguarda le DX10, se non sbaglio non verranno supportate neanche da R500 e NV50... ;)

R500 *dovrebbe* avere una pipeline unificata per i VS e i PS come da requisito DX10 (o DX Next che dir si voglia)

dwfgerw
06-05-2004, 00:14
Originariamente inviato da MaBru
R500 *dovrebbe* avere una pipeline unificata per i VS e i PS come da requisito DX10 (o DX Next che dir si voglia)

forse si, ma non sarà assolutamente dx10, le dx10 escono tra un paio di anni insieme a longhorn

DeMonViTo
06-05-2004, 01:05
O le faranno uscire insieme alla XboX 2 ? :D

JENA PLISSKEN
06-05-2004, 01:05
Originariamente inviato da Cifer

Tutto questo nulla toglie al fatto che le vere innovazioni sugli shaders a questo giro le ha introdotte Nvida, anche se va detto che esclusa la nuovo versione di ps3.0 e vs3.0 ha dato una bella scopiazzata alla concorrente.

Lo sto dicendo da tempo immemore:sofico:

cmq apparete un paio di features le dx9c ci sono quasi tutte...Nn è che sia proprio incompatibile...inoltre dubito che si noti la dfferenza qualitativa nei 2 prodotti con giochi FUTURI che le sfruttino a pieno:

L' unica innovazione tecnologica dell' NV40 è il pieno supporto PS VS3.0, tecnologia innovativa ma sfruttabile da quando???...tutto qui...x il resto è uno scopiazzo e la vedo anche decisamente inferiore coi filtri...quindi passando ad fp32 ....lasciamo perdere...và


ATI invece ha introdotto il Taa e dil 3dc....soprattutto il primo è fantastico ed IMMEDIATAMENTE sfruttabile....solo x questo si meriterebbe un premio :sofico:

X il resto la scelta è una questione di FEDE nei confronti del marchio:sofico:

Qualcuno mi s adire come si vede adesso Fc coi drvers bete NV???

belin
06-05-2004, 01:24
...sul sito ATI è uscito ora questo link su Ruby...

http://www.ati.com/home/images/middle_1420_ruby.jpg

belin
06-05-2004, 01:37
...GeCube X800pro 256mb...

http://www.gecube.com/files/product/X800PROV1_540.jpg

JENA PLISSKEN
06-05-2004, 01:38
Originariamente inviato da belin
...GeCube X800pro 256mb...

http://www.gecube.com/files/product/X800PROV1_540.jpg

avrei preferito 2 connettori DVI;)

andreamarra
06-05-2004, 02:14
Originariamente inviato da Nie73
se non ricordo male anche quando uscì la 5800 era tecnologicamente + avanzata, poi....:cry:


Ecco qual è il mio terrore. Non vorrei prendere una scheda da tot eurozzi sonanti in nome dell'innovazione e ritrovarmi con una scheda innovativa ma con problemi. Che purtroppo non sono da escludere.

Ad esempio il mio pensiero fisso è: se i ps3.0 e vs3.0 non lavorano in modalità fp16, dovranno andare forzati necessariamente a 32 perchè fp24 non c'è. Ma ati si.
Quindi è scorretto pensare che in un gioco in cui ci siano i ps3.0 e vs3.0 (spero il prima possibile ma dubito che ne escano almeno due-tre entro l'anno) le prestazioni della NV40 sono fisicamente segate dal fatto che dovrà andare nell'onerosa attualmente fp32? Questo è il mio pensiero, bisognerebbe aspettare le DX9c e provare qualche bench (non 3dmerd per ovvi motivi) per vedere se la NV40 si dimostra fortissima o se dovesse crollare. Quindi per me bisogna fare attenzione proprio a questo.

Red-Vox
06-05-2004, 07:36
http://www.tomshw.it/news.php?newsid=1418

:eek:

Simon82
06-05-2004, 07:59
Originariamente inviato da Red-Vox
http://www.tomshw.it/news.php?newsid=1418

:eek:
Taciii GABE!!!! Stai zitto che non meriti di esistereeeeeeeeeee... :mad:



Scusate per lo sfogo.. :D

bombardax
06-05-2004, 09:15
Originariamente inviato da Simon82
Taciii GABE!!!! Stai zitto che non meriti di esistereeeeeeeeeee... :mad:



Scusate per lo sfogo.. :D


no tranquillo, su in altro tread ci sono 5 pagine di insulti a questo mentecatto...

andreamarra
06-05-2004, 09:20
Originariamente inviato da R@nda
Quello è un test HDRI non Ps 2.0 occhio.
Entrano in ballo altri fattori (che non conosco).

Ci vorrebbe qualcuno esperto....

Credevo fosse un test massive pixel shader... :confused:

Cmq sarebbe interessante provarlo con i nuovi bolidi.

Mi piacerebbe inoltre provare questi bench meno quotati per valutare meglio le prestazioni, ad esempio con qualche pesante bench "fatto in casa" da fek.

Io continuo ad aspettare: voglio proprio sapere se la ati ha fatto o meno la cazzata di non inserire il fetch vertex e altre cosucce.

Però facevo anche una considerazione: se è vero che la NV40 è la più "futuribile", è possibile che anche la R420 lo sia. Nel senso che se a risoluzioni assurde e filtri mostruosi riesce a tenere frame rate sconcertanti con i giochi attuali, è possibile che "duri" di più nei game che verranno proprio a causa di questa potenza bruta incredibile.

Per ora hanno entrambe le schede dei pro e dei contro non indifferenti per me... :(
I pro sono visibilissimi, i contro potrebbero essere celati in entrambe le schede.. bisogna sapere di più...

Cfranco
06-05-2004, 09:48
Dopo aver digerito un po' di bench e le varie osservazioni fatte in giro mi sta montando dentro
l' impressione che questa pretesa "novità" NV40 non sia poi così nuova , in effetti la 6800 si comporta esattamente come se avessero messo assieme 2 5950 e aggiunto una spruzzatina di ( poche ) nuove funzionalità , giusto come fumo negli occhi .
Sono ancora lì gli annosi problemi tra FP16 e FP32 , sono ancora lì i problemi con i PS 2.0 , resta la qualità incerta dei filtri , é tutto ancora lì davanti esattamente come prima , sono stati smussati gli spigoli più acuminati ( la nuova gestione dell' anisotropico per es. ) ma i difetti di fondo sono sempre quelli .

andreamarra
06-05-2004, 09:55
Originariamente inviato da Cfranco
Dopo aver digerito un po' di bench e le varie osservazioni fatte in giro mi sta montando dentro
l' impressione che questa pretesa "novità" NV40 non sia poi così nuova , in effetti la 6800 si comporta esattamente come se avessero messo assieme 2 5950 e aggiunto una spruzzatina di ( poche ) nuove funzionalità , giusto come fumo negli occhi .
Sono ancora lì gli annosi problemi tra FP16 e FP32 , sono ancora lì i problemi con i PS 2.0 , resta la qualità incerta dei filtri , é tutto ancora lì davanti esattamente come prima , sono stati smussati gli spigoli più acuminati ( la nuova gestione dell' anisotropico per es. ) ma i difetti di fondo sono sempre quelli .

Ecco, più che di problemi e difetti di fondo io parlerei di difetti che potrebbero venire in seguito. Per me, anche se la scheda NV40 mi piace molto, sarà da vagliare attentamente il tutto e capire se può avere dei problemi con certe features che adesso faranno vendere. I lproblema del fp16/32 per me non è da sottovalutare.

mi chiedo, e vorrei sapere l'opinione di un tecnico, non è possibile che alcuni giochi in features 3.0 (e quindi teoricamente con un slato di istruzioni che permette velocità maggiore) il fatto di dover necessariamente usare l'fp a 32 (a 16 non si può usare il fp 16 -oltre al degrado netto delle immagini-) con conseguente e probabile calo si prestazioni non porti ad avere problemi in termini di prestazioni pure nel caso della R420 con ps 2.0+ e fp24?
Non sarebbe male capire questo, che è un punto focale non indifferente a mio giudizio.

Una pretesa che vedo come fumo negli occhi (allo stato attuale) può essere l'AA 8x, inutilizzabile. Un bel compromesso per R420 sarebbe un AA12T (6*2).
Per il rsto la qualità dei filtri della NV40 è praticamente uguale a quanto ho visto alla R420, mentre l'Aniso della Nv40 è diventato come l'Aniso della ATI. Tra l'altro l'applicxazione dell'aniso comporta una perdita di prestazioni, bench alla mano, nelle schede NV40.
In ogni caso sono contento che siano state inserite queste features perchè così si muoverà l'industria dei videogiochi. :oink:

Lord style
06-05-2004, 10:02
Originariamente inviato da andreamarra


mi chiedo, e vorrei sapere l'opinione di un tecnico, non è possibile che alcuni giochi in features 3.0 (e quindi teoricamente con un slato di istruzioni che permette velocità maggiore) il fatto di dover necessariamente usare l'fp a 32 (a 16 non si può usare il fp 16 -oltre al degrado netto delle immagini-) con conseguente e probabile calo si prestazioni non porti ad avere problemi in termini di prestazioni pure nel caso della R420 con ps 2.0+ e fp24?
Non sarebbe male capire questo, che è un punto focale non indifferente a mio giudizio.



X800 supportando solo l'FP24 eleborerà qualsiasi shader, anche quelli di 3a generazione -solo le feature supportate-, con precisione a 24bit. Sarà quindi sempre avvantaggiata rispetto all'nv40 che dovrà renderizzarli a 32bit.

halduemilauno
06-05-2004, 10:05
Originariamente inviato da Cfranco
Dopo aver digerito un po' di bench e le varie osservazioni fatte in giro mi sta montando dentro
l' impressione che questa pretesa "novità" NV40 non sia poi così nuova , in effetti la 6800 si comporta esattamente come se avessero messo assieme 2 5950 e aggiunto una spruzzatina di ( poche ) nuove funzionalità , giusto come fumo negli occhi .
Sono ancora lì gli annosi problemi tra FP16 e FP32 , sono ancora lì i problemi con i PS 2.0 , resta la qualità incerta dei filtri , é tutto ancora lì davanti esattamente come prima , sono stati smussati gli spigoli più acuminati ( la nuova gestione dell' anisotropico per es. ) ma i difetti di fondo sono sempre quelli .



guarda che "gli annosi problemi tra FP16 e FP32" in realtà sono scelte. nVidia aveva tutto il tempo e possibilità per adottare solo la modalità fp24. se non lo ha fatto è perchè ha voluto fare delle scelte diverse.
quando fra un'anno i giochi e di conseguenza i bench saranno in shader3 ed annesse fp32 secondo te chi si troverà meglio? questa è una scheda con un'occhio al futuro. certo uno può spendere ora 500 e passa € per la x800xt e poi comprarne un'altra ati per supportare gli shader3/fp32 e cosi doppia spesa perchè? certo fra un'anno la 6800 sarà superata da altre schede ati e nVidia ma questo è un'altro discorso.
oggi la x800xt con gli shader2/fp24 va benissimo ma domani...
ciao.


:) :)

andreamarra
06-05-2004, 10:12
Originariamente inviato da halduemilauno
guarda che "gli annosi problemi tra FP16 e FP32" in realtà sono scelte. nVidia aveva tutto il tempo e possibilità per adottare solo la modalità fp24. se non lo ha fatto è perchè ha voluto fare delle scelte diverse.
quando fra un'anno i giochi e di conseguenza i bench saranno in shader3 ed annesse fp32 secondo te chi si troverà meglio? questa è una scheda con un'occhio al futuro. certo uno può spendere ora 500 e passa € per la x800xt e poi comprarne un'altra ati per supportare gli shader3/fp32 e cosi doppia spesa perchè? certo fra un'anno la 6800 sarà superata da altre schede ati e nVidia ma questo è un'altro discorso.
oggi la x800xt con gli shader2/fp24 va benissimo ma domani...
ciao.


:) :)

Hal il problema è che allo stato attuale non si può dire che con ps3.0 e fp32 un gioco vada meglio che ps2.0 fp24...
Insomma non è detto che si troverà meglio una o l'altra. Anche perchè la potenza brutle di X800Xt a risoluzioni altissime e filtri a palla fanno presagire il fatto che con giochi più complessi potrebbe reggere meglio l'impatto con i nuovi giochi. E il discorso di prestazioni aumentate da ps3.0+fp32 potrebbe risultare fatale o benedetto rispetto a una soluzione ps2.0+fp24 con maggior potenza in termini di frame 8i ps3.0 servono solo per aumentare la velocità, ma prima che i programmatori ci mettano mano per bene se ne passerà molt ma molto tempo).

Per me è ancora presto per dire "domani che farà la ati ecc. ecc.".
Perchè potrebbe essere addirittura stravolto (dico potrebbe) perchè con giochi estremamente complessi i ps 3.0 (che richiedono cmq un numero di istruzioni amplissimo per poter essere genererati e dubito che prima di un anno si possa con continuità usare) a fp32 non è detto che vadano meglio di soluzioni ps2.0 a fp24. Tutto da vedere, è questo il mio cruccio. SApere appunto se fp32+ps3.0 (ovvero: perdi prestazioni da una parte da una parte e le riguadagni con meno calcoli per i ps) sia uguale, maggiore o minore di fp24+ps2.0


Insomma, aspettiamo un titolo che sfrutti i ps3.0 per vedere cosa succede. Per me è un rischio prendere una o l'altra ora come ora, cnon sappiamo nulla. Come la Nv40 potrebbe essere una scheda che duri tre anni, potrebbe rilevarsi incredibilmente un flop perchè la potenza che genera e/o problemi di architettura potrebbero minare le tante features. Ovviamente in chiave ipptetica.

nirvanboy81
06-05-2004, 10:18
Originariamente inviato da halduemilauno
guarda che "gli annosi problemi tra FP16 e FP32" in realtà sono scelte. nVidia aveva tutto il tempo e possibilità per adottare solo la modalità fp24. se non lo ha fatto è perchè ha voluto fare delle scelte diverse.
quando fra un'anno i giochi e di conseguenza i bench saranno in shader3 ed annesse fp32 secondo te chi si troverà meglio? questa è una scheda con un'occhio al futuro. certo uno può spendere ora 500 e passa € per la x800xt e poi comprarne un'altra ati per supportare gli shader3/fp32 e cosi doppia spesa perchè? certo fra un'anno la 6800 sarà superata da altre schede ati e nVidia ma questo è un'altro discorso.
oggi la x800xt con gli shader2/fp24 va benissimo ma domani...
ciao.


:) :)

E tu sei sicuro che domani la 6800 ultra sarà sufficiente per affrontare le innovazioni grafiche che verranno introdotte?Nn credo che tra 1-2 anni la potenza delle nuove soluzioni video sarà uguale a queste, anche se adesso sono dei mostri. IMHO se uno vuole la scheda per supportare in pieno le future innovazioni grafiche non prenderà certo l'x800 ma neanche la 6800 visto che è la prima ad aprire la strada e come tale nn credo che sarà espressione sufficiente ma dovrà essere migliorata e ottimizzata chissà quanto nei prossimi chip nvidia prima di imporsi. Se vuoi la scheda che ti permetta di giocare al top, bene le abbiamo, o nvidia o ati nn sbagli di certo (a parte il vantaggio dell'xt con i filtri). Se però vuoi la scheda per giocare con PS3 VS3 e via dicendo mi sa che devi aspettare ancora un pò. Come in tutti i passaggi da una tecnologia all'altra i periodi di transizione nn sono i migliori per comprare un hardware che supporti i nuovi standard. Questo sempre IMHO:O ;)

Ren
06-05-2004, 10:22
Ragazzi ma avete visto che bestia la HIS?

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg

DeMonViTo
06-05-2004, 10:27
raga Capisco tutto... pero' una cosa che non mi va' giu' e' proprio questo...


QUESTE NUOVE SKEDE VIDEO NON FANNO IL CAFFE'... ma come e' posibile? :sofico:



Cmq raga una domanda veramente stupida...

Una volta si misurava la potenza della gpu in quanti poligoni riusciva a muovere su schermo.... ormai questo non ha piu' senso visto ke oltre a quello deve fare 150 mila cose...

pero' mi piacerebbe saperlo... visto ke mi ricordo tipo la ps1 ke muoveva 300mila poligoni e ora solo la sirenetta di Nvidia ne ha 300mila.... :sofico:


non e' che si puo' avere questo valore? io non l'ho trovato :)

andreamarra
06-05-2004, 10:27
Originariamente inviato da Ren
Ragazzi ma avete visto che bestia la HIS?

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg

Si :)

Io hjo un dissy uguale (Artic Vga silencer) e ti posso garantire che oltre ad essere inudibile su low :oink: su high è meno rumoroso della ventola originale e soprattutto mi fa guadagnare alcuni MHz su ram e molti su gpu :oink (7 su ram essendo la scheda più fresca e 25 su gpu)

Aspettiamo future release di queste schede. Saranno molto Oc..?

halduemilauno
06-05-2004, 10:30
Originariamente inviato da andreamarra
Hal il problema è che allo stato attuale non si può dire che con ps3.0 e fp32 un gioco vada meglio che ps2.0 fp24...
Insomma non è detto che si troverà meglio una o l'altra. Anche perchè la potenza brutle di X800Xt a risoluzioni altissime e filtri a palla fanno presagire il fatto che con giochi più complessi potrebbe reggere meglio l'impatto con i nuovi giochi. E il discorso di prestazioni aumentate da ps3.0+fp32 potrebbe risultare fatale o benedetto rispetto a una soluzione ps2.0+fp24 con maggior potenza in termini di frame 8i ps3.0 servono solo per aumentare la velocità, ma prima che i programmatori ci mettano mano per bene se ne passerà molt ma molto tempo).

Per me è ancora presto per dire "domani che farà la ati ecc. ecc.".
Perchè potrebbe essere addirittura stravolto (dico potrebbe) perchè con giochi estremamente complessi i ps 3.0 (che richiedono cmq un numero di istruzioni amplissimo per poter essere genererati e dubito che prima di un anno si possa con continuità usare) a fp32 non è detto che vadano meglio di soluzioni ps2.0 a fp24. Tutto da vedere, è questo il mio cruccio. SApere appunto se fp32+ps3.0 (ovvero: perdi prestazioni da una parte da una parte e le riguadagni con meno calcoli per i ps) sia uguale, maggiore o minore di fp24+ps2.0


Insomma, aspettiamo un titolo che sfrutti i ps3.0 per vedere cosa succede. Per me è un rischio prendere una o l'altra ora come ora, cnon sappiamo nulla. Come la Nv40 potrebbe essere una scheda che duri tre anni, potrebbe rilevarsi incredibilmente un flop perchè la potenza che genera e/o problemi di architettura potrebbero minare le tante features. Ovviamente in chiave ipptetica.

ciao Andrea.
non mi riferivo al giochi attuali dove la situazione è sotto i nostri occhi mi riferivo al futuro prossimo quando i giochi ed annessi bench richiederanno gli shader3/fp32. in quello scenario la x800xt arrancherà la 6800ultra che li supporta lo saprà(credo)fare meglio.
è ovvio come gia detto che in futuro ci saranno ben altre schede. ma per chi non cambia scheda ogni sei mesi la 6800 la vedo come scelta ben più longeva.
e chi pensa ad un futuro prossimo fra 2/3 anni si sbaglia perchè sono gia stati annunciati diversi titoli che sfrutteranno/richiederanno gli shader3/fp32
tutto qui.
un saluto.


:) :)

andreamarra
06-05-2004, 10:30
Originariamente inviato da DeMonViTo
raga Capisco tutto... pero' una cosa che non mi va' giu' e' proprio questo...


QUESTE NUOVE SKEDE VIDEO NON FANNO IL CAFFE'... ma come e' posibile? :sofico:



Cmq raga una domanda veramente stupida...

Una volta si misurava la potenza della gpu in quanti poligoni riusciva a muovere su schermo.... ormai questo non ha piu' senso visto ke oltre a quello deve fare 150 mila cose...

pero' mi piacerebbe saperlo... visto ke mi ricordo tipo la ps1 ke muoveva 300mila poligoni e ora solo la sirenetta di Nvidia ne ha 300mila.... :sofico:


non e' che si puo' avere questo valore? io non l'ho trovato :)

Fek ha detto che alla X800XT gli ha fatto muovere 150.000.000 di poligoni...

halduemilauno
06-05-2004, 10:33
Originariamente inviato da nirvanboy81
E tu sei sicuro che domani la 6800 ultra sarà sufficiente per affrontare le innovazioni grafiche che verranno introdotte?Nn credo che tra 1-2 anni la potenza delle nuove soluzioni video sarà uguale a queste, anche se adesso sono dei mostri. IMHO se uno vuole la scheda per supportare in pieno le future innovazioni grafiche non prenderà certo l'x800 ma neanche la 6800 visto che è la prima ad aprire la strada e come tale nn credo che sarà espressione sufficiente ma dovrà essere migliorata e ottimizzata chissà quanto nei prossimi chip nvidia prima di imporsi. Se vuoi la scheda che ti permetta di giocare al top, bene le abbiamo, o nvidia o ati nn sbagli di certo (a parte il vantaggio dell'xt con i filtri). Se però vuoi la scheda per giocare con PS3 VS3 e via dicendo mi sa che devi aspettare ancora un pò. Come in tutti i passaggi da una tecnologia all'altra i periodi di transizione nn sono i migliori per comprare un hardware che supporti i nuovi standard. Questo sempre IMHO:O ;)

come gia detto. sarà maggiormente in grado di affrontare i nuovi giochi che non la x800xt. la 6800 li supporta(shader3/fp32)la x800xt no quindi...
il tutto IHMO.

DeMonViTo
06-05-2004, 10:34
Originariamente inviato da andreamarra
Fek ha detto che alla X800XT gli ha fatto muovere 150.000.000 di poligoni...


CENTO CINQUANTA MILIONI DI POLIGONI.......



:sbavvv: :sbavvv: :sbavvv:

Jedi_Master
06-05-2004, 10:34
Originariamente inviato da halduemilauno
quando fra un'anno i giochi e di conseguenza i bench saranno in shader3 ed annesse fp32 secondo te chi si troverà meglio? questa è una scheda con un'occhio al futuro.

Hal guarda che anche senza VS 3 ma con fp32
la 6800 e' gia' in affanno su Far Cry!
Nella rece di Corsini/Fanizzi si vede che la Extreme fa'
49 fps di media in un caso e 54 nell'altro.
Cio' vuol dire che gia' adesso probabilmente (manca il dato degli
fps minimi pero') se ci giochi ti scatticchia e siamo solo all'inizio.
Dubito che questa potenza (per quanto notevole) basti per
quella che sara' la generazione di cui parli.
Poi tutto puo' essere, pero' e' una scommessa da 5-600 euro.

andreamarra
06-05-2004, 10:35
Originariamente inviato da halduemilauno
ciao Andrea.
non mi riferivo al giochi attuali dove la situazione è sotto i nostri occhi mi riferivo al futuro prossimo quando i giochi ed annessi bench richiederanno gli shader3/fp32. in quello scenario la x800xt arrancherà la 6800ultra che li supporta lo saprà(credo)fare meglio.
è ovvio come gia detto che in futuro ci saranno ben altre schede. ma per chi non cambia scheda ogni sei mesi la 6800 la vedo come scelta ben più longeva.
e chi pensa ad un futuro prossimo fra 2/3 anni si sbaglia perchè sono gia stati annunciati diversi titoli che sfrutteranno/richiederanno gli shader3/fp32
tutto qui.
un saluto.


:) :)

Ho capito :D m aio mi riferivo ad altro

Il problema che mi "assilla" è: una soluzione fp32+ps3.0 (ovvero teoricamente guadagni da una parte -essendo la qualità uguale tra i ps2.0 e ps3.0 ma con maggior velocità, ma non subito- e dall'altra perdi perchè a fp32 si perde) oppure una soluzione fp24+2.0? Tu stesso dici "dovrebbe". Porprio perchè non è detto ancora, e questa cosa per me deve influenzare l'acquisto. Non altre cose.

Qua nessuno può dirlo, solo il tempo e qualche bench reale che sprema le gpu in questo senso. Premettendfo che qualitativamente poi entrambe le soluzioni saranoo perfettamente uguali, è da vedere se l'avveniristica di NV40 riuscirà ad andare meglio della potenza brutale di R420.

E qua non lo possiamo dire nè io nè tu purtroppo :p

:)

Simon82
06-05-2004, 10:37
Originariamente inviato da andreamarra
Fek ha detto che alla X800XT gli ha fatto muovere 150.000.000 di poligoni...
Mhhhhh.. test sintetico presumo.. ;)

Comunque basti vedere il 3dmark nel test specifico con 1 light. ;)

DeMonViTo
06-05-2004, 10:39
Cmq sul discorso Bench posso dire ke per ora non esiste un bench ke possa sfruttare a pieno le caratteristike delle due skede...

metti per sv e ps 3 ke per i 2b che per il 3Dc ecc ecc...


sono convinto che queste schede daranno sicuramente molto di piu' quando ci saranno i primi giochi ottimizzati per tali bestie... (doom3 e hl2.... NON LINCIATEMI :) ) e di conseguenza gli altri a ruota...;)


rimane il fatto ke con queste skede... la mia 9600xt sembra una 9000 :cry: :cry: :cry:

halduemilauno
06-05-2004, 10:39
Originariamente inviato da Ren
Ragazzi ma avete visto che bestia la HIS?

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg

mi ricodo le polemiche sulla questione ati non adotterà mai l'uso del doppio slot mega dissi e ventoloni giganti che si faceva all'epoca della 5800 ultra.

andreamarra
06-05-2004, 10:39
Originariamente inviato da Jedi_Master
Hal guarda che anche senza VS 3 ma con fp32
la 6800 e' gia' in affanno su Far Cry!
Nella rece di Corsini/Fanizzi si vede che la Extreme fa'
49 fps di media in un caso e 54 nell'altro.
Cio' vuol dire che gia' adesso probabilmente (manca il dato degli
fps minimi pero') se ci giochi ti scatticchia e siamo solo all'inizio.
Dubito che questa potenza (per quanto notevole) basti per
quella che sara' la generazione di cui parli.
Poi tutto puo' essere, pero' e' una scommessa da 5-600 euro.

hai centrato il punto: allo stato attuale è una scommessa che io, dopo i flop precedenti, non farei a cuor leggero.

Tra l'altro la cosa che mi dà "preoccupazioni" è proprio il caso di Far Cry. In tutti i giochi retrodatati e bench retrodatati la Nv40 a certe risoluzioni squaglia il monitor per quanti fps genera. Ma il problema dei ps 2.0 in questo gioco è da tenere in conto, anche perchè il dilemma resta per me: è un problema di driver (risolvibile, decisamente) o è un problema di architettura( e qua ci si attacca)?

andreamarra
06-05-2004, 10:40
Originariamente inviato da Simon82
Mhhhhh.. test sintetico presumo.. ;)

Comunque basti vedere il 3dmark nel test specifico con 1 light. ;)

Esatto, test sintetico.

Del 3d mark non mi fido :fuck: ;)

andreamarra
06-05-2004, 10:42
Originariamente inviato da halduemilauno
mi ricodo le polemiche sulla questione ati non adotterà mai l'uso del doppio slot mega dissi e ventoloni giganti che si faceva all'epoca della 5800 ultra.

Le polemiche erano dovute a mio giudizio essenzialmente alle prestazioni della scheda in questione :)

io stesso ho un vga silencer con slot occupato e non mi lamento... e neanche le mie orecchie e la gpu ;)

devis
06-05-2004, 10:42
Originariamente inviato da Ren
Ragazzi ma avete visto che bestia la HIS?

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg

Imho orrenda


pero' mi piacerebbe saperlo... visto ke mi ricordo tipo la ps1 ke muoveva 300mila poligoni

Teorici, allora anche la X800 ne può muovere 750 milioni :D

devis
06-05-2004, 10:44
http://forum.hwupgrade.it/showthread.php?s=&postid=4149463#post4149463


All'inizio del codice asm di uno shader c'e' una pseudo istruzione tipo:

ps.2.0

Questa istruzione e' stata cambiata in:

ps.3.0

Et voila', shader 3.0 perfettamente uguali alla versione 2.0 con minimo sforzo. Qualita' grafica uguale, performance uguali. Sono gli stessi shader.


Attendiamo conferme :)

.Kougaiji.
06-05-2004, 10:44
Originariamente inviato da Ren
Ragazzi ma avete visto che bestia la HIS?

http://www.hardware4you.sm/nucleus/media/1/20040504-hisx800proiceq.jpg


O_O:sofico:

halduemilauno
06-05-2004, 10:47
Originariamente inviato da Jedi_Master
Hal guarda che anche senza VS 3 ma con fp32
la 6800 e' gia' in affanno su Far Cry!
Nella rece di Corsini/Fanizzi si vede che la Extreme fa'
49 fps di media in un caso e 54 nell'altro.
Cio' vuol dire che gia' adesso probabilmente (manca il dato degli
fps minimi pero') se ci giochi ti scatticchia e siamo solo all'inizio.
Dubito che questa potenza (per quanto notevole) basti per
quella che sara' la generazione di cui parli.
Poi tutto puo' essere, pero' e' una scommessa da 5-600 euro.


non ci capiamo.
mo te lo rispiego.
non parlo dei giochi di adesso ripeto non parlo dei giochi di adesso ripeto non parlo dei giochi di adesso.
parlo dei giochi di domani mattina quelli che obbligatoriamente richiederanno gli shader3/fp32. con quelli secondo te chi vince la 6800 che supporta il tutto o ati che supporta al massimo gli shader2/fp24???
non parlo di schede future che ovviamente saranno tutte superiori. parlo delle schede attuali in funzione dei giochi dal futuro prossimo.
capito?

devis
06-05-2004, 10:48
Originariamente inviato da andreamarra
Qua nessuno può dirlo, solo il tempo e qualche bench reale che sprema le gpu in questo senso. Premettendfo che qualitativamente poi entrambe le soluzioni saranoo perfettamente uguali, è da vedere se l'avveniristica di NV40 riuscirà ad andare meglio della potenza brutale di R420.


Anche NV 3x, a suo tempo,(come scritto prima) era avveniristico :fagiano:

halduemilauno
06-05-2004, 10:49
Originariamente inviato da andreamarra
Le polemiche erano dovute a mio giudizio essenzialmente alle prestazioni della scheda in questione :)

io stesso ho un vga silencer con slot occupato e non mi lamento... e neanche le mie orecchie e la gpu ;)


no no si parlava proprio di quelle cose. cioè l'estetica.per le prestazioni c'erano altri discorsi.
ciao.
:)

Jedi_Master
06-05-2004, 10:58
Originariamente inviato da halduemilauno
non ci capiamo.
mo te lo rispiego.
non parlo dei giochi di adesso ripeto non parlo dei giochi di adesso ripeto non parlo dei giochi di adesso.
parlo dei giochi di domani mattina quelli che obbligatoriamente richiederanno gli shader3/fp32. con quelli secondo te chi vince la 6800 che supporta il tutto o ati che supporta al massimo gli shader2/fp24???
non parlo di schede future che ovviamente saranno tutte superiori. parlo delle schede attuali in funzione dei giochi dal futuro prossimo.
capito?

Eh lo so ti ho capito!!
:D
Ma il punto e' che su quelli li mi sa' che potrebbe
non vincere nessuno.
Uno xche' non li supporta e l'altro perche' li fa' girare a lumaca.
Lo so che Far Cry non e' un buon esempio, ma e' l'unica
misera finestrella sul futuro grafico che abbiamo!!
No?? ciao
:)

andreamarra
06-05-2004, 11:00
Sul fatto di chi possa vincere in condizioni di fp32+3.0 e fp24+2.0 è praticamente impossibile determinarlo adesso.

halduemilauno
06-05-2004, 11:01
Originariamente inviato da Jedi_Master
Eh lo so ti ho capito!!
:D
Ma il punto e' che su quelli li mi sa' che potrebbe
non vincere nessuno.
Uno xche' non li supporta e l'altro perche' li fa' girare a lumaca.
Lo so che Far Cry non e' un buon esempio, ma e' l'unica
misera finestrella sul futuro grafico che abbiamo!!
No?? ciao
:)

che uno non li supporta è un dato di fatto. che l'altro li faccia girare come una lumaca è tutto da dimostrare. che non sarà veloce come le schede future è fuor di dubbio. ma se uno deve spendere 600€ ora e non prevede di spenderne altri...
ciao.

:) :)

Jedi_Master
06-05-2004, 11:09
Originariamente inviato da halduemilauno
che uno non li supporta è un dato di fatto. che l'altro li faccia girare come una lumaca è tutto da dimostrare. che non sarà veloce come le schede future è fuor di dubbio. ma se uno deve spendere 600€ ora e non prevede di spenderne altri...
ciao.

:) :)

Mah un'altra cosa putroppo certa e' che qua' tra
un rinvio e l'altro (purtroppo :cry: ) non escono nemmeno
i giochi per VS 2/PS 2 altro che VS 3 e fp32.
Dispiace ma e' cosi'......
Io personalmente credo mi trovero' costretto a prendere come
riferimento qualunque scheda montino sull'xbox 2, che
visto come sta' andando il mercato adesso sembra essere il
vero pendolo di troppe cose.
:(

zerothehero
06-05-2004, 11:22
interessante quello che dice x bit labs confrontando l'architettura delle due schede

When we compared the results of the fastest models based on the new graphics chip architectures, i.e. ATI RADEON X800 XT and NVIDIA GeForce 6800 Ultra, the leadership in most cases stayed with RADEON X800 XT: it boasts faster vertex processors and copes with pixel shaders rich in mathematical calculations just brilliantly. However, during textures processing RADEON X800 XT appeared less efficient than NVIDIA GeForce 6800 Ultra: you could see it in complex pixel shaders (from the texturing point of view) as well as during trivial multi-texturing.

As for RADEON X800 PRO, its performance is evidently too low to be able to outperform GeForce 6800 Ultra: ATI’s concerns about 12 pipelines being too few to grant the new RADEON X800 architecture a victory over the new NVIDIA solution turned out absolutely justified. The direct competitor to ATI RADEON X800 PRO will be the non-Ultra GeForce 6800 working at lower clock frequencies and capable of processing the same 12 pixels per clock.


Quindi radeon + veloce nel computo matematico (forse per le frequenze maggiori) e nvidia + veloce quando deve processare in una volta + texture...

Nie73
06-05-2004, 11:25
Originariamente inviato da halduemilauno
guarda che "gli annosi problemi tra FP16 e FP32" in realtà sono scelte. nVidia aveva tutto il tempo e possibilità per adottare solo la modalità fp24. se non lo ha fatto è perchè ha voluto fare delle scelte diverse.
quando fra un'anno i giochi e di conseguenza i bench saranno in shader3 ed annesse fp32 secondo te chi si troverà meglio? questa è una scheda con un'occhio al futuro. certo uno può spendere ora 500 e passa € per la x800xt e poi comprarne un'altra ati per supportare gli shader3/fp32 e cosi doppia spesa perchè? certo fra un'anno la 6800 sarà superata da altre schede ati e nVidia ma questo è un'altro discorso.
oggi la x800xt con gli shader2/fp24 va benissimo ma domani...
ciao.


:) :)
il tuo discorso filerebbe via liscio se la premessa fosse giusta e cioè che tra 1 anno i giochi saranno fatti utilizzando gli shader 3 diciamo quasi come standard, ma questo chi può dirlo?? e se non fosse così visto che ad oggi c'è un solo gioco che utilizza veramente gli sheder 2? nessuno lo può sapere, si fanno solo ipotesi x cui tutte giuste e tutte sbagliate, la mia è cmq che tra un anno chi avrà la x800.. non sentirà la mancanza degli shader3.... (anche xchè io la mia 9700 ho intenzione di tenermela ancora un po' :D )

andreamarra
06-05-2004, 11:30
Originariamente inviato da zerothehero
interessante quello che dice x bit labs confrontando l'architettura delle due schede

When we compared the results of the fastest models based on the new graphics chip architectures, i.e. ATI RADEON X800 XT and NVIDIA GeForce 6800 Ultra, the leadership in most cases stayed with RADEON X800 XT: it boasts faster vertex processors and copes with pixel shaders rich in mathematical calculations just brilliantly. However, during textures processing RADEON X800 XT appeared less efficient than NVIDIA GeForce 6800 Ultra: you could see it in complex pixel shaders (from the texturing point of view) as well as during trivial multi-texturing.

As for RADEON X800 PRO, its performance is evidently too low to be able to outperform GeForce 6800 Ultra: ATI’s concerns about 12 pipelines being too few to grant the new RADEON X800 architecture a victory over the new NVIDIA solution turned out absolutely justified. The direct competitor to ATI RADEON X800 PRO will be the non-Ultra GeForce 6800 working at lower clock frequencies and capable of processing the same 12 pixels per clock.


Quindi radeon + veloce nel computo matematico (forse per le frequenze maggiori) e nvidia + veloce quando deve processare in una volta + texture...


Ma il confronto è fatto su base teorica o su prestazioni sul campo?

halduemilauno
06-05-2004, 11:30
Originariamente inviato da Nie73
il tuo discorso filerebbe via liscio se la premessa fosse giusta e cioè che tra 1 anno i giochi saranno fatti utilizzando gli shader 3 diciamo quasi come standard, ma questo chi può dirlo?? e se non fosse così visto che ad oggi c'è un solo gioco che utilizza veramente gli sheder 2? nessuno lo può sapere, si fanno solo ipotesi x cui tutte giuste e tutte sbagliate, la mia è cmq che tra un anno chi avrà la x800.. non sentirà la mancanza degli shader3.... (anche xchè io la mia 9700 ho intenzione di tenermela ancora un po' :D )


non sentirà la mancanza degli shader3? per forza non li sente proprio.
ciao.

:) :)

andreamarra
06-05-2004, 11:33
Originariamente inviato da Nie73
il tuo discorso filerebbe via liscio se la premessa fosse giusta e cioè che tra 1 anno i giochi saranno fatti utilizzando gli shader 3 diciamo quasi come standard, ma questo chi può dirlo?? e se non fosse così visto che ad oggi c'è un solo gioco che utilizza veramente gli sheder 2? nessuno lo può sapere, si fanno solo ipotesi x cui tutte giuste e tutte sbagliate, la mia è cmq che tra un anno chi avrà la x800.. non sentirà la mancanza degli shader3.... (anche xchè io la mia 9700 ho intenzione di tenermela ancora un po' :D )

Hal dice giustamente che si deve prendere una scheda video nuova, assolutamente, dovrebbe puntare sul fattore longevità dato dalla NV40. Il ragionamento non fa una piega, ma nessuno attualmente sa se fp32+ps3.0 (e ci vorrà gia tanto affinchè si sfruttino decentemente i ps2.0...) sarà in prestazioni maggiore, uguale o inferiore a fp24+ps2.0+ (considerando inoltre la potenza brutale della R420 anche a risoluzioni alte e filtri a palla... vedi nuovi giochi che potrebbero minare in questo senso la NV40)

Io una scommessa da 500 euro non la farei ne dà una prte nè dall'altra :p

Aspettiamo test più efficienti, potrebbero esserci sorprese inaspettate.

devis
06-05-2004, 11:35
Con le 9700/9800 a disposizione, possiamo aspettare senza fretta :asd:

zerothehero
06-05-2004, 11:40
Anch'io sono molto scettico su una veloce implementazione dello shader 3.0...molti programmatori dicono che si può fare già tutto con il 2.0...poi ho notato almeno nel passato che si è piuttosto conservativi nell'adottare nuove tecnologie..

Ad esempio per quanto posso ricordare: quanti giochi direct x 8.1 hanno adottato un pixel shader 1.1 decente (che è gestito tranquillamente da una semplice 4200)?

per quanto possa ricordarmi soltanto un gioco: MORROWIND.....può essere che ce ne siano stati altri ma non ne conosco...lo stesso discorso può essere fatto sul bump mapping...quanti giochi lo stanno veramente adottando nonostante sia presente in forma diversa da 4-5 anni? io l'ho visto solo in far cry...

Il pixel shader 2.0 dopo un anno e mezzo abbondante è adottato massicciamente solo in Far Cry e in forma molto limitata anche a quanto pare da HL2.....ma sono 2 giochi dopo un anno e mezzo.. :( ....ancora mi pare di essere nella maggiorparte dei casi al culmine della direct x 8.1 e all'alba del 9.0...

Queste sono impressioni di un semplice videogiocatore non ho conoscienze tecniche di shader e simili mi limito solo a vedere quello che c'è ora...e se il trend dovesse essere lo stesso secondo me FP 32 e pixel shader 3.0 lo si vedrà massicciamente solo nel 2006 con l'uscita dell'x-box2 che dovrebbe aumentare massicciamente a livello mondiale la base delle macchine in grado di permettere l'fp 32 e il ps 3.0...non penso che un 10% di nuove schede installate su pc possano spingere i programmatori a mettere queste nuove feature..:rolleyes: IMHO..

andreamarra
06-05-2004, 11:40
Originariamente inviato da devis
Con le 9700/9800 a disposizione, possiamo aspettare senza fretta :asd:

Ecco, il rischio è di coloro che hanno una geppetto scarsa oppure una R200.

Però io apsetterei cmq dopo l'estate che le cose comincino ad essere più chiare.

I ps3.0 potrebbero essere una soluzione a breve termine assolutamente fantastica come potrebbe essere uno specchietto per le allodole. In ogni caso per gestire ps3.0+fp32 occorre una potenza tale (a certe risoluzioni e filtri) che non credo in questa generazione di schede NV40 sia sufficiente.

E' un bel, casino... dove ti giri giri è un casino...

Io stesso se mi regalassero 600 euro da investire su una 6800Ultra e una X800Xt non saprei che fare....

MaBru
06-05-2004, 11:45
Originariamente inviato da halduemilauno

questa è una scheda con un'occhio al futuro. certo uno può spendere ora 500 e passa € per la x800xt e poi comprarne un'altra ati per supportare gli shader3/fp32 e cosi doppia spesa perchè? certo fra un'anno la 6800 sarà superata da altre schede ati e nVidia ma questo è un'altro discorso.
oggi la x800xt con gli shader2/fp24 va benissimo ma domani...
ciao.

Il tuo discorso fila fino ad un certo punto. Preferisci NV40 perché ha il supporto allo shader model 3.0, cosa che l'R420 non ha, così non sei costretto a fare, come la chiami tu, la doppia spesa. Fin qui ok. Ma quando usciranno giochi che usino in maniera massiccia lo shader model 3, il tuo NV40 lo potrai usare al massimo come sottobicchiere (basta guardare il filmato dell'Unreal Engine 3, che al momento attuale NON è SM3, girare su NV40: senza fisica e AI la scheda arranca di brutto). Così sei al punto di partenza ed obbligato comunque a fare la doppia spesa.

andreamarra
06-05-2004, 11:46
Originariamente inviato da zerothehero
Anch'io sono molto scettico su una veloce implementazione dello shader 3.0...molti programmatori dicono che si può fare già tutto con il 2.0...poi ho notato almeno nel passato che si è piuttosto conservativi nell'adottare nuove tecnologie..

Ad esempio per quanto posso ricordare: quanti giochi direct x 8.1 hanno adottato un pixel shader 1.1 decente (che è gestito tranquillamente da una semplice 4200)?

per quanto possa ricordarmi soltanto un gioco: MORROWIND.....può essere che ce ne siano stati altri ma non ne conosco...lo stesso discorso può essere fatto sul bump mapping...quanti giochi lo stanno veramente adottando nonostante sia presente in forma diversa da 4-5 anni? io l'ho visto solo in far cry...

Il pixel shader 2.0 dopo un anno e mezzo abbondante è adottato massicciamente solo in Far Cry e in forma molto limitata anche a quanto pare da HL2.....ma sono 2 giochi dopo un anno e mezzo.. :( ....ancora mi pare di essere nella maggiorparte dei casi al culmine della direct x 8.1 e all'alba del 9.0...

Queste sono impressioni di un semplice videogiocatore non ho conoscienze tecniche di shader e simili mi limito solo a vedere quello che c'è ora...e se il trend dovesse essere lo stesso secondo me FP 32 e pixel shader 3.0 lo si vedrà massicciamente solo nel 2006 con l'uscita dell'x-box2 che dovrebbe aumentare massicciamente a livello mondiale la base delle macchine in grado di permettere l'fp 32 e il ps 3.0...


Quello che intendo io ;)

C'è da vedere se con i nuovi titoli ps2.0 (perchè questi usciranno, non titoli ps3.0) e fp24 ati e fp32 nvidia, considerando anche la potenza superiore di ati in situazioni di filtri e risoluzioni alte (e di sistemi non cpu limited... per me la X800Xt con sisteni AFX53 comincerò a mostrare davvero i muscoli) come si comporteranno le nuove schede. Io credo che almeno per un anno e mezzo nonsi sfrutteranno i ps3.0
E se dovessero essere utilizzati, servirebbe lo stesso una nuova generazione di schede. un pò come sta succedendo con il supporto Full DX9 nei giochi (l'unico che è uscito è Far Cry, e ci sono i problemi che ci sono con NV40 -questo è da appurare assolutamente in funzione di un acquisto, uscissero altri giochi DX9 con queste limitazioni che fai?-)

nirvanboy81
06-05-2004, 11:48
Originariamente inviato da halduemilauno
che uno non li supporta è un dato di fatto. che l'altro li faccia girare come una lumaca è tutto da dimostrare. che non sarà veloce come le schede future è fuor di dubbio. ma se uno deve spendere 600€ ora e non prevede di spenderne altri...
ciao.

:) :)

E nel caso girassero come una lumaca che te ne fai? Se devi cambiare scheda per i giochi futuri Shader3 ti conviene aspettare ancora un bel pò.
Prendere la 6800ultra ora è un pò come comprarsi la zappa e nn avere il terreno :sofico:
Se non altro l'R420 adesso è concretezza e credo lo sarà ancora per un bel pò.. l'Nv40 invece potrebbe essere l'Mx440 della nuova generazione per quanto ne sappiamo..mi garantisce Nvidia che quando i giochi in PS3 usciranno la 6800 sarà in grado di farli girare degnamente? Insomma qua si dice che li supporta, e questa è una cosa, ma a quali livelli credo sia altrettanto importante per chi vuole farsi durare una scheda almeno un paio di anni, o sbaglio Hal?
Alla fine il mondo è bello perchè è vario (o avariato??):sofico:

devis
06-05-2004, 11:51
Originariamente inviato da andreamarra
Io stesso se mi regalassero 600 euro da investire su una 6800Ultra e una X800Xt non saprei che fare....

Premessa: non spenderei mai quei soldi per una SVGA

La seconda per godermi i nuovi giochi senza compromessi di velocità/qualità. Per il resto concordo pienamente con Mabru.;)

Nie73
06-05-2004, 11:57
Originariamente inviato da halduemilauno
non sentirà la mancanza degli shader3? per forza non li sente proprio.
ciao.

:) :)

non trovo la faccina che manda la palla in calcio d'angolo :p

:vicini:

Jedi_Master
06-05-2004, 12:05
Originariamente inviato da andreamarra
I ps3.0 potrebbero essere una soluzione a breve termine assolutamente fantastica come potrebbe essere uno specchietto per le allodole. In ogni caso per gestire ps3.0+fp32 occorre una potenza tale (a certe risoluzioni e filtri) che non credo in questa generazione di schede NV40 sia sufficiente.

Se ho ben capito quello che diceva il buon fek i ps 3.0
dovrebbero dare vantaggi e non svantaggi prestazionali.
Sono i vertex 3.0 e la fp32 bit che sono pesanti.

Io stesso se mi regalassero 600 euro da investire su una 6800Ultra e una X800Xt non saprei che fare....

Semplice mi terrei i 600 euro!!
:D :D

andreamarra
06-05-2004, 12:05
Ripeto, potrebbe non sentire la mancanza degli shader 3.0

Non mi stancherò mai di dirlo: fino a quando non saprò con certezza che fp32+ps3.0+potenza "limitata"di gpu NV40 a certe risoluzioni e filtri (da considerare molto, i nuovi giochi potrebbero subire cali molto importanti con ris. e filtri meno pressanti...) sarà uguale, maggiore o minore a fp24+ps2.0+potenza esplosiva della gpu R420 (che a differenza della NV40 ha la possibilità attualmente di vantare una potenza di calcolo superiore a ris. e filtri a palla)???

E' un dubbio che bisogna ASSOLUTAMENTE sciogliere, altrimenti non posso scegliere quale preferisco tra le due soluzioni.


Far Cry (checche se ne dica) non è un buon viatico per le NV40 attualmente (e la patch 1.1 fa riconoscere il gioco alle NV40) e mi lascia diversi dubbi e ..."legittimo sospetto" :asd:

devis
06-05-2004, 12:10
Quando scioglierai questi dubbi queste schede saranno già pronte al pensionamento.. :asd:

JENA PLISSKEN
06-05-2004, 12:12
Originariamente inviato da devis
Quando scioglierai questi dubbi queste schede saranno già pronte al pensionamento.. :asd:
:asd: :asd: :asd: ....quindi CARPE DIEM TROTE GNAMque;)

andreamarra
06-05-2004, 12:14
Dunque, questo articolo dovrebbe spiegare a chi ritiene il R420 un semplice "raddoppio" della R3X0 una cosa infodata...

http://next.videogame.it/html/artic...d=4246&pagina=1

andreamarra
06-05-2004, 12:19
Originariamente inviato da devis
Quando scioglierai questi dubbi queste schede saranno già pronte al pensionamento.. :asd:

Per questo le definisco nonostante tutto delle schede "tampone", volte ad inserire le altre schede verso la schema shader 3.0. NV40 in maniera più netta (e amio avviso pericolosa, dovesse toppare dovrebbe rifare il progetto. Altrimenti sarà avvantaggiata), la Ati in maniera per me più intelligente e prudente.

Leggendo l'articolo che ho postato ci si rende conto di qlcune cosucce che bisognerebbe considerare in sede di acuisto, ovvero del supporto della R420 a un model shader che si intrappone tra 2.0+ e 3.0......


http://www.tombraiders.it/public/ATIvsNvidia_locked.gif


:asd:

devis
06-05-2004, 12:22
L'avevo fatto notare ieri sera, se non sbaglio :)

andreamarra
06-05-2004, 12:30
Originariamente inviato da devis
L'avevo fatto notare ieri sera, se non sbaglio :)


Non avevo fatto caso :)

Cmq in pratica la ati ha apportato modifiche di un certo livello, che però a livello di marketing fanno meno presa degli shader 3.0

Praticamente una soluizone a metà strada, senza stravolgere l'architettura dell'R3X0, e in più potenziando moltissimo i ps2.0+ della 9800XT. In pratica potrebbe evitare gap cpn tro le prestazioni (ancora da vedere) della NV40 di fp32+ps3.0...

devis
06-05-2004, 12:33
http://forum.hwupgrade.it/attachment.php?s=&postid=4368897

;)

andreamarra
06-05-2004, 12:43
Originariamente inviato da devis
http://forum.hwupgrade.it/attachment.php?s=&postid=4368897

;)

Ecco, appunto. La cosa che mi "spaventa" è che praticamente se la ati ha potenziato i già ottimi ps 2.0 della serie R3X0, la nvidia ha potnziato quelli della serie NV3X... che certo non brillavano ion prestazioni.

Per me bisogna stare attenti.



http://www.tombraiders.it/public/ATIvsNvidia_locked.gif :asd:

sanitarium
06-05-2004, 12:53
Originariamente inviato da halduemilauno
mi ricodo le polemiche sulla questione ati non adotterà mai l'uso del doppio slot mega dissi e ventoloni giganti che si faceva all'epoca della 5800 ultra.

Tu trascuri un "piccolo" dettaglio, e cioè che il dissipatore della HIS è una SCELTA DEL PRODUTTORE, quindi ATi non c'entra una cippa, mentre la 5800ultra aveva come DISSIPATORE STANDARD DI RIFERIMENTO una turbina che si mangiava due slot, quindi tutte le 5800ultra (salvo rarissime eccezioni comunque non proprio discrete) avevano un dissipatore enorme.
Direi che non è assolutamente la stessa cosa, basti vedere che la reference board della X800XT ha una ventola di dimensioni inferiori a quella montata sulla 9800XT...

severance
06-05-2004, 12:54
Originariamente inviato da andreamarra
Fek ha detto che alla X800XT gli ha fatto muovere 150.000.000 di poligoni...


hal in linea teorica hai ragione, ma quando usciranno giochi che supporteranno gli shader 3 le schede x800 e 6800 saranno gia inadeguate secondo me.

resta comunque di fatto che nvidia stavolta secondo me ha una bella offerta differenziata di schede e la 6800 gt e la migliore prezzo/prestazioni.

dovessi cambiare la mia 9800pro lo farei con la 6800 gt guardando i test;)

andreamarra
06-05-2004, 12:57
Originariamente inviato da severance
hal in linea teorica hai ragione, ma quando usciranno giochi che supporteranno gli shader 3 le schede x800 e 6800 saranno gia inadeguate secondo me.

resta comunque di fatto che nvidia stavolta secondo me ha una bella offerta differenziata di schede e la 6800 gt e la migliore prezzo/prestazioni.

dovessi cambiare la mia 9800pro lo farei con la 6800 gt guardando i test;)

Sicuro, ma guarda i test della x800pro fatti con cpu all'altezza e con diver ancora poco maturi...

A me all'inizio ad esempio la Pro aveva deluso, adesso invece la sto rivalutando. Anche la 6800GT mi intrippa un pò... però aspetterei a buttarmi su nvidia.

Tu fai bene a tenerti la tua :cool:

però guarda un pò qui... :fiufiu:

http://next.videogame.it/html/foto.php?tabella=articoli&id=4246&i=38

andreamarra
06-05-2004, 13:17
Cmq leggendo in giro mi sto convincendo che la R420 non sia un semplice raddoppio della R3X0. E chi lo pensa non ha letto le caratteristiche tecniche migliorate, soprattutto quelle fruibili subito come il 3DC. Che non è una stronzata...
La vidia ha fatto un gran valzo verso il futuro, però attualmente e probabilmente per molto tempo sono scommesse da vincere e attualmente io le ritengo fumo negli occhi.
Ciò non toglie che abbiano fatto un gran favore agli sviluppatori e a noi l'integrare i model shader 3.0 :cool:

LittleLux
06-05-2004, 14:23
Mi inserisco anche io, in sta discussione, anche se di schede video ne capisco poco, per chiedervi una previsione...ma sto benedetto SM 3.0, da oggi, quanto tempo passerà, prima di essere introdotto in titoli videoludici...perchè per me, questo, all'oggi, è un punto molto importante per potermi orientare nella scelta di una delle due vga (e dal momento che ho una Ti4200, probabilmente sarò costretto a cambiare vga)...mi spiego meglio...attualmente, a quanto pare, X800 è la soluzione che mi offre le migliori prestazioni velocistiche e qualitative con i giochi in commercio (almeno in via generale), e mi offre la tranquillità di un'architettura nata bene ed ancor meglio sviluppata, insomma, ati ha compiuto una scelta improntata al pragmatismo, che ben si adatta alla realtà del momento (e forse si spinge anche un po' più in la)...d'altra parte nvidia ha introdotto caratteristiche non supportate dalla scheda ati, appunto, lo SM 3, ora, io vorrei sapere quanto tempo passerà, più o meno (se dovessi prendere una 6800), prima di poter sfruttare tali caratteristiche, e con quali livelli prestazionali e qualitativi tale scheda mi permetterà di farlo...forse ho fatto domande stupide o banali (forse tutte e due le cose insieme), o forse domande per rispondere alle quali occorre la sfera di cristallo...non so, ditemi voi...insomma, il mio è un ragionamento più da consumatore, che da appassionato o sofista...

andreamarra
06-05-2004, 14:40
Originariamente inviato da LittleLux
Mi inserisco anche io, in sta discussione, anche se di schede video ne capisco poco, per chiedervi una previsione...ma sto benedetto SM 3.0, da oggi, quanto tempo passerà, prima di essere introdotto in titoli videoludici...perchè per me, questo, all'oggi, è un punto molto importante per potermi orientare nella scelta di una delle due vga (e dal momento che ho una Ti4200, probabilmente sarò costretto a cambiare vga)...mi spiego meglio...attualmente, a quanto pare, X800 è la soluzione che mi offre le migliori prestazioni velocistiche e qualitative con i giochi in commercio (almeno in via generale), e mi offre la tranquillità di un'architettura nata bene ed ancor meglio sviluppata, insomma, ati ha compiuto una scelta improntata al pragmatismo, che ben si adatta alla realtà del momento (e forse si spinge anche un po' più in la)...d'altra parte nvidia ha introdotto caratteristiche non supportate dalla scheda ati, appunto, lo SM 3, ora, io vorrei sapere quanto tempo passerà, più o meno (se dovessi prendere una 6800), prima di poter sfruttare tali caratteristiche, e con quali livelli prestazionali e qualitativi tale scheda mi permetterà di farlo...forse ho fatto domande stupide o banali (forse tutte e due le cose insieme), o forse domande per rispondere alle quali occorre la sfera di cristallo...non so, ditemi voi...insomma, il mio è un ragionamento più da consumatore, che da appassionato o sofista...

Ciao capo loggia :asd:

Hai detto bene, la ATi è orientata verso pragmatismo e solidità, prendendo quanto di buono c'era in una architettura rodata e priva di problemi.
La NVIDIA ha dovuto per necessità cambiare progetto da capoe diversificare il prodotto per poter prendere quote di mercato nel "quadrante ionnovazione" (nel marketing vengono considerati i quadranti, e la ATI occupa quello della "solidità e prestzioni/qualità").

Per me i ps 3.0 sono mera forma di marketing. Pensa a quanti compreranno la Nv40 pensando che entro breve distruggerà le ati nei ps 3.0.... insomma, la cosa positiva è che qualcuno si si a mosso in questo senso, ma a livello del videogiocatore per me è fumo negli occhi. Come lo era il pieno supporto DX9 nella R300. Abbiamo dovuto aspettare tanto, e alla fine è uscito un certo Far Cry (ma quanti anni sono passati? E soprattutto: adesso con questi applicativi DX9 quanto è efficiente la 9700Pro che era il top quando usci?)

Peccato che questi shader 3.0 (che non hanno dal punto di vista qualittativo nessuna differenza con i 2.0a e 2.0b -questi ultimi sfruttati dalla R430-) non vedranno la luce prima di diverso tempo. Praticamente se uscissero domani i giochi shader 3.0, la nvidia tecnicamente potrebbe essere avvantaggiata (però ha i problema dll'oneroso fp32 che è obbligatorio nello shader mode 3.0), ma in ogni caso la potenza bruta della X800Xt potrebbe ribaltare la situazione (anche a ris mostruose e filtri al massimo) utilizzando invece i 2.0b+fp24.

E ti ricordo che fp32+ps3.0 è la stessa cosa di fp24+ps2.0b (differiscono nella velocità di esecuzione degli shader,il 3.0 è più veloce se correttamente utilizzato) dal punto di vista qualitativo.

Quiundi attualmente è difficile da dire, e se dovessi comprarmi una scheda video nuova (avendone magari l'estremo bisogno) credo che punterei leggermente verso la R420 che mi da più garanzie dal punto di vista prestazioni/qualità.

Fred77
06-05-2004, 14:43
Mi associo a LittleLux, io ho una Ti 4600 e vorrei cambiarla con una delle nuove nate. La mia scelta con riserva per ora è orientata vero l'X800 per via della qualità d'immagine sempre impeccabile, non nego che anche la 6800 mi alletta parecchio viste le caratteristiche un pò meno per il prezzo elevato che i prodotti Nvidia di punta hanno sempre avuto.
E' da qualche giorno che stò ronzando attorno ad una 9800 Pro ma vorrei fare il salto con una delle due nuove schede.
A questo punto l'unica alternativa è vedere le varie versioni delle schede all'opera e verificare le eventuali differenze, sulla carta sono tutte e due dei mostri di potenza.
L'unica cosa certa è che una delle due schede sarà nel mio case, ovviamente con un processore adeguato per farle esprimere al meglio.

Saluti

andreamarra
06-05-2004, 14:47
Originariamente inviato da Fred77
Mi associo a LittleLux, io ho una Ti 4600 e vorrei cambiarla con una delle nuove nate. La mia scelta con riserva per ora è orientata vero l'X800 per via della qualità d'immagine sempre impeccabile, non nego che anche la 6800 mi alletta parecchio viste le caratteristiche un pò meno per il prezzo elevato che i prodotti Nvidia di punta hanno sempre avuto.
E' da qualche giorno che stò ronzando attorno ad una 9800 Pro ma vorrei fare il salto con una delle due nuove schede.
A questo punto l'unica alternativa è vedere le varie versioni delle schede all'opera e verificare le eventuali differenze, sulla carta sono tutte e due dei mostri di potenza.
L'unica cosa certa è che una delle due schede sarà nel mio case, ovviamente con un processore adeguato per farle esprimere al meglio.

Saluti

Ciao, leggi cosa ho postato sopra... :)

ovviament è il mio pensiero, e come tale può essere una cagata :p

Cmq se metti nel pc un processore di ultima generazione tipo A64FX53 allora dovresti privilegiare (per me) la R420, per il fatto che con un simile processore mostra davvero i muscoli...

halduemilauno
06-05-2004, 14:52
Originariamente inviato da LittleLux
Mi inserisco anche io, in sta discussione, anche se di schede video ne capisco poco, per chiedervi una previsione...ma sto benedetto SM 3.0, da oggi, quanto tempo passerà, prima di essere introdotto in titoli videoludici...perchè per me, questo, all'oggi, è un punto molto importante per potermi orientare nella scelta di una delle due vga (e dal momento che ho una Ti4200, probabilmente sarò costretto a cambiare vga)...mi spiego meglio...attualmente, a quanto pare, X800 è la soluzione che mi offre le migliori prestazioni velocistiche e qualitative con i giochi in commercio (almeno in via generale), e mi offre la tranquillità di un'architettura nata bene ed ancor meglio sviluppata, insomma, ati ha compiuto una scelta improntata al pragmatismo, che ben si adatta alla realtà del momento (e forse si spinge anche un po' più in la)...d'altra parte nvidia ha introdotto caratteristiche non supportate dalla scheda ati, appunto, lo SM 3, ora, io vorrei sapere quanto tempo passerà, più o meno (se dovessi prendere una 6800), prima di poter sfruttare tali caratteristiche, e con quali livelli prestazionali e qualitativi tale scheda mi permetterà di farlo...forse ho fatto domande stupide o banali (forse tutte e due le cose insieme), o forse domande per rispondere alle quali occorre la sfera di cristallo...non so, ditemi voi...insomma, il mio è un ragionamento più da consumatore, che da appassionato o sofista...

cosa dovrebbe farti scegliere nVidia?
io ho puntato il dito sulla longevità(ovviamente ha tanti altri meriti alla pari di ati).
cito Paolo Corsini:
"ma ci sono buone speranze che gli Shader 3.0 possano diventare una realtà concreta in molti titoli, non solo in bellissimi demo tecnologici"
ciao.
:) :)

andreamarra
06-05-2004, 14:54
Originariamente inviato da halduemilauno
cosa dovrebbe farti scegliere nVidia?
io ho puntato il dito sulla longevità(ovviamente ha tanti altri meriti alla pari di ati).
cito Paolo Corsini:
"ma ci sono buone speranze che gli Shader 3.0 possano diventare una realtà concreta in molti titoli, non solo in bellissimi demo tecnologici"
ciao.
:) :)


Si, ma corsini non dice "con la nv40 giocherete con i titoli in shader 3.0" :p e poi la frase contiene troppo ma-speranze-possano diventare-

E' chiaro che sia una cosa positiva che li abbiano inseriti, ma io aspetterei. Anche perchè, non per essere cattivo, ma aspetterei un pò sapendo dell'orrore che hanno fatto in passato con i 2.0

E poi non lo so, ma potrebbe essere paradossalmente più longeva la R420.


:)

halduemilauno
06-05-2004, 14:58
Originariamente inviato da andreamarra
Si, ma corsini non dice "con la nv40 giocherete con i titoli in shader 3.0" :p e poi la frase contiene troppo ma-speranze-possano diventare-

E' chiaro che sia una cosa positiva che li abbiano inseriti, ma io aspetterei. Anche perchè, non per essere cattivo, ma aspetterei un pò sapendo dell'orrore che hanno fatto in passato con i 2.0

E poi non lo so, ma potrebbe essere paradossalmente più longeva la R420.


:)

se mi dici cosi ti rispondo di certo non ci giochi con la r420.
si credo che hai detto un paradosso.
ciao.
:) :)

bombardax
06-05-2004, 15:01
forse, in questa fase di mercato, Ati ha fatto la scela migliore anche perchè poteva permetterselo...
Nvidia doveva innovare maggiormanete anche per rimediare alla figuraccia della 5800...

andreamarra
06-05-2004, 15:05
Originariamente inviato da halduemilauno
se mi dici cosi ti rispondo di certo non ci giochi con la r420.
si credo che hai detto un paradosso.
ciao.
:) :)


Non è un paradosso, perchè ho chiesto da circa 15 pagine in vari 3d:

fp32+ps3.0 sarà in futuro uguale, maggiore o minore del fp24+ps2.0? Partendo ovviamente dal presupposto che sono identici a livello grafico ma che da una parte (il fp 32) c'è maggior pesantezza, dall'altro (ps3.0) c'è maggior velocità.

Ovvio che non ci sono in R420, ma quando (campa cavallo) usciranno giochi che sfrutteranno i ps3.0, gli stessi titoli andranno dal punto di vista grafico identici nella versione R420. E non dimentichiamo che un possibile aumento di velocità negli shader potrebbe essere compensato dalla maggiore velocità di esecuzione generale che ha la R420 con i filtri

Ora se qualcuno mi risponde coincretamente potrò togliere il paradosso. E solo fino a prova contraria lo toglierò. Ecco perchè posso dire che paradossalmente la fp24+ps2.0+maggiore capacità di calcolo della R420 potrebbe essere più longeva. Perchè si parla di velocità dei render e non di altro. Non si parla di qualità. Solo di velocità, che non è detto sia influenzata in bene solo dall'avere i supporto ai pd3.0.

Bisogna soltanto aspettare a vedere la velocità di render di certi shader. E se da una parte mi fido più (e vorrei vedere) dei ps 2.0 della ati, non farei lo stesso ragionamento con i ps3.0 della nvidia. Ecco perchè io direi proprio che sia il caso di aspettare a prendere sia l'una che l'altra.
La NV40 è un progetto competamente nuovo. Metteresti tu la mano sul fuoco ritenendola priva di difetti hardware?

andreamarra
06-05-2004, 15:09
Originariamente inviato da bombardax
forse, in questa fase di mercato, Ati ha fatto la scela migliore anche perchè poteva permetterselo...
Nvidia doveva innovare maggiormanete anche per rimediare alla figuraccia della 5800...

Dicaimo che dal punto di vista di mercato la nvidia essendo seconda (non a livello di vendite ma di prestazione prodotto) doveva migrare verso un quadrante differente, differenziandosi. Ha dovuto fare un progetto da zero. Spendendo non si sa quanto. E con i rischi del caso (errori di valutazione sono sempre pronti a punire i balzi nel buio in questo campo). La ati poteva permettersi di andare dove gli pareva e fare quello chepreferiva, ovviamente puntando la concorrenza per evitare il tutto. Ricordiamoci che non ha semplicemente raddoppiato il R3X0. Basta guardare le caratteristiche. Caratteristiche fruibili SUBITO e nel tempo, senza se e senza ma.

Insomma, 500 euro per prendere una scheda bellissima ma con una possibilità che si riveli essere una Fx... ci andrei calmo.

halduemilauno
06-05-2004, 15:15
Originariamente inviato da andreamarra
Non è un paradosso, perchè ho chiesto da circa 15 pagine in vari 3d:

fp32+ps3.0 sarà in futuro uguale, maggiore o minore del fp24+ps2.0? Partendo ovviamente dal presupposto che sono identici a livello grafico ma che da una parte (il fp 32) c'è maggior pesantezza, dall'altro (ps3.0) c'è maggior velocità.

Ovvio che non ci sono in R420, ma quando (campa cavallo) usciranno giochi che sfrutteranno i ps3.0, gli stessi titoli andranno dal punto di vista grafico identici nella versione R420.

Bisogna soltanto aspettare a vedere la velocità di render di certi shader. E se da una parte mi fido più (e vorrei vedere) dei ps 2.0 della ati, non farei lo stesso ragionamento con i ps3.0 della nvidia. Ecco perchè io direi proprio che sia il caso di aspettare a prendere sia l'una che l'altra.
La NV40 è un progetto competamente nuovo. Metteresti tu la mano sul fuoco ritenendola priva di difetti hardware?

io non metto la mano sul fuoco per cose molto più importanti figuriamoci per delle schede video.
cmq tutto il mio discorso verteva sostanzialmente su un'amichevole consiglio per gli acquisti per chi come me compra una scheda video ogni 1.5/2 anni. e che quindi la longevità diventa o può diventare un parametro importante.
ovviamente per chi cambia ben più spesso la propria scheda tutto questo non interessa o interessa molto meno.
buon acquisto di x800xt/pro. io dal mio punto di vista punto a una 6800 GT(sembra una battuta)rispetto alla ultra costa meno, va come l'altra, e la oc e la porto all'altra.
ciao.
:) :)

andreamarra
06-05-2004, 15:27
Originariamente inviato da halduemilauno
io non metto la mano sul fuoco per cose molto più importanti figuriamoci per delle schede video.
cmq tutto il mio discorso verteva sostanzialmente su un'amichevole consiglio per gli acquisti per chi come me compra una scheda video ogni 1.5/2 anni. e che quindi la longevità diventa o può diventare un parametro importante.
ovviamente per chi cambia ben più spesso la propria scheda tutto questo non interessa o interessa molto meno.
buon acquisto di x800xt/pro. io dal mio punto di vista punto a una 6800 GT(sembra una battuta)rispetto alla ultra costa meno, va come l'altra, e la oc e la porto all'altra.
ciao.
:) :)

Non ho mai consigliato una R420 a nessuno, ho messo in luce i pregi e i difeti di tutte le schede. Per quel che mi riguarda non credo di comprare nè una nè l'altra. La r420 mi semnra sprecata per qunto rulla, la NV40 la vedo come una incognita. Non vorrei che per essere una scheda di lungo corso si riveli essere una scheda meteora. E se non ci fossero i vari problemi di fp32 ecc. ecc. e i giochi in ps 2.0 mi dicessero che va meglio di R420, io mi potrei fare un quadro generale. l'amichevole consiglio tra l'altro deve prevedere il fatto che delle schede in questione si parla di cifre un pò altine. Quindi è giusto dire: è velocissima, ha tante features... però non si sa che copsa farà. Perchè è così. SOprattuitto dopo irecenti aborti nvidia io non sarei così sicuro che propongono qualcosa di incredibile partendo da zero (proprio da zero no, avendo copiato parte dell'R300).

In fondo chi ha aspetto per cambiare la scheda video anche dopo Far Cry credo possa aspettare, cosa c'è in giro anche solo lontanamente vicino a un full Dx9? E non credi neanche che i miei dubbi vengano proprio dal fatto che, casualmente, ni giochi più datati e a risol basse e filtri a zero la ultra viaggia a velocità folli, mentre in quei titoli dove si usano i già "semplici" ps2.0 perde parecchio? O preferite vedere il bench dove in un gioco di due anni fa va meglio Nv40? COnsideriamoi questo: con TRAOD, CMRR4 e soprattutto FARCRY la NV40 è sotto, e non di poco , in prestazioni.

Semplice fuoco di paglia? Forse, ma valutiamole queste cose! E non ti fare ingannare dalla scheda che ho nel pc in sign... io sono un fan Matrox :p :)

bombardax
06-05-2004, 15:27
Originariamente inviato da andreamarra
Dicaimo che dal punto di vista di mercato la nvidia essendo seconda (non a livello di vendite ma di prestazione prodotto) doveva migrare verso un quadrante differente, differenziandosi. Ha dovuto fare un progetto da zero. Spendendo non si sa quanto. E con i rischi del caso (errori di valutazione sono sempre pronti a punire i balzi nel buio in questo campo). La ati poteva permettersi di andare dove gli pareva e fare quello chepreferiva, ovviamente puntando la concorrenza per evitare il tutto. Ricordiamoci che non ha semplicemente raddoppiato il R3X0. Basta guardare le caratteristiche. Caratteristiche fruibili SUBITO e nel tempo, senza se e senza ma.

Insomma, 500 euro per prendere una scheda bellissima ma con una possibilità che si riveli essere una Fx... ci andrei calmo.


il fururo di ATI ora più che mai dipenderà dalla prox generazione di chip che, necessariamente, dovrà essere altro dall'originale R300...
credo non ci deluderanno grazie alla longevità ed al continuo sviluppo di questo progetto hanno avuto tutto il tempo di generare un R500 come si deve...
non credo che Nvidia partità da zerò per il prox quindi se ATI non sarà accorta e competitiva da subito la palla potrebbe ritornare al produttore californiano...

andreamarra
06-05-2004, 15:31
Originariamente inviato da bombardax
il fururo di ATI ora più che mai dipenderà dalla prox generazione di chip che, necessariamente, dovrà essere altro dall'originale R300...
credo non ci deluderanno grazie alla longevità ed al continuo sviluppo di questo progetto hanno avuto tutto il tempo di generare un R500 come si deve...
non credo che Nvidia partità da zerò per il prox quindi se ATI non sarà accorta e competitiva da subito la palla potrebbe ritornare al produttore californiano...


Non partirà da zero semplicemente perchèp questo R420 (vedere caratteristiche tecniche...) è una sorta di ponte tra l'r3X0 e le schede con shader 3.0.

L'nvidia ha preferito fare il passo più lungo con i dubbi del caso, la ati ha preferito fare il passaggio (usando il model shader 2.0b che è un qualcosa di spurio tra i ps2.0 e i ps3.0) in modo graduale.

Non sono stupidi, ecco :p

halduemilauno
06-05-2004, 15:34
Originariamente inviato da andreamarra
Non ho mai consigliato una R420 a nessuno, ho messo in luce i pregi e i difeti di tutte le schede. Per quel che mi riguarda non credo di comprare nè una nè l'altra. La r420 mi semnra sprecata per qunto rulla, la NV40 la vedo come una incognita. Non vorrei che per essere una scheda di lungo corso si riveli essere una scheda meteora. E se non ci fossero i vari problemi di fp32 ecc. ecc. e i giochi in ps 2.0 mi dicessero che va meglio di R420, io mi potrei fare un quadro generale. l'amichevole consiglio tra l'altro deve prevedere il fatto che delle schede in questione si parla di cifre un pò altine. Quindi è giusto dire: è velocissima, ha tante features... però non si sa che copsa farà. Perchè è così. SOprattuitto dopo irecenti aborti nvidia io non sarei così sicuro che propongono qualcosa di incredibile partendo da zero (proprio da zero no, avendo copiato parte dell'R300).

In fondo chi ha aspetto per cambiare la scheda video anche dopo Far Cry credo possa aspettare, cosa c'è in giro anche solo lontanamente vicino a un full Dx9? E non credi neanche che i miei dubbi vengano proprio dal fatto che, casualmente, ni giochi più datati e a risol basse e filtri a zero la ultra viaggia a velocità folli, mentre in quei titoli dove si usano i già "semplici" ps2.0 perde parecchio? O preferite vedere il bench dove in un gioco di due anni fa va meglio Nv40? COnsideriamoi questo: con TRAOD, CMRR4 e soprattutto FARCRY la NV40 è sotto, e non di poco , in prestazioni.

Semplice fuoco di paglia? Forse, ma valutiamole queste cose! E non ti fare ingannare dalla scheda che ho nel pc in sign... io sono un fan Matrox :p :)

i bench vanno ovviamente fatti con gli ultimi giochi. aggiungo e poi concludo. aspettiamo driver più maturi(ma questo vale, anche se in misura minore, anche per ati)e le dx9.0C
per carità nessun inganno e ne prevenzione.
ciao.
:) :)

bombardax
06-05-2004, 15:34
Originariamente inviato da andreamarra
Non partirà da zero semplicemente perchèp questo R420 (vedere caratteristiche tecniche...) è una sorta di ponte tra l'r3X0 e le schede con shader 3.0.

L'nvidia ha preferito fare il passo più lungo con i dubbi del caso, la ati ha preferito fare il passaggio (usando il model shader 2.0b che è un qualcosa di spurio tra i ps2.0 e i ps3.0) in modo graduale.

Non sono stupidi, ecco :p


concordi però che i nuovi shader necessiteranno di un'architettura nuova rispetto al riuscitissimo R300???

-=Krynn=-
06-05-2004, 15:38
Originariamente inviato da andreamarra
hai centrato il punto: allo stato attuale è una scommessa che io, dopo i flop precedenti, non farei a cuor leggero.

Tra l'altro la cosa che mi dà "preoccupazioni" è proprio il caso di Far Cry. In tutti i giochi retrodatati e bench retrodatati la Nv40 a certe risoluzioni squaglia il monitor per quanti fps genera. Ma il problema dei ps 2.0 in questo gioco è da tenere in conto, anche perchè il dilemma resta per me: è un problema di driver (risolvibile, decisamente) o è un problema di architettura( e qua ci si attacca)?


Anche io ho questo dubbio.
Però di ora in ora son sempre + convinto che Nv40 non ce la farà a gestire in modo non dico ottimale, me nemmeno sufficiente, giochi con un minimo di vs 3 ps3 e fp32.
Già ora nell'unico titolo cìhe vuole l'fp32 arranca.......

-=Krynn=-
06-05-2004, 15:40
Originariamente inviato da Jedi_Master
Eh lo so ti ho capito!!
:D
Ma il punto e' che su quelli li mi sa' che potrebbe
non vincere nessuno.
Uno xche' non li supporta e l'altro perche' li fa' girare a lumaca.
Lo so che Far Cry non e' un buon esempio, ma e' l'unica
misera finestrella sul futuro grafico che abbiamo!!
No?? ciao
:)

troppo vero

andreamarra
06-05-2004, 15:44
Originariamente inviato da bombardax
concordi però che i nuovi shader necessiteranno di un'architettura nuova rispetto al riuscitissimo R300???

Sicuro, ma il rischio di fallire è decisamente minore, perchè è stata fatta la scheda ponte. la nvidia no lha fatto e potrebbe essere un vantaggio svantaggio.

non sappiamo se il suo progetto sia esente da errori.

Se dovesse essere perfetto credo che avrebe un certo margine in futuro su ati.

ovviamente sono previsioni miei e probabilmente sbagliate :p

-=Krynn=-
06-05-2004, 15:47
Originariamente inviato da andreamarra
Sicuro, ma guarda i test della x800pro fatti con cpu all'altezza e con diver ancora poco maturi...

A me all'inizio ad esempio la Pro aveva deluso, adesso invece la sto rivalutando. Anche la 6800GT mi intrippa un pò... però aspetterei a buttarmi su nvidia.

Tu fai bene a tenerti la tua :cool:

però guarda un pò qui... :fiufiu:

http://next.videogame.it/html/foto.php?tabella=articoli&id=4246&i=38


Se mai a settembre cambiassi scheda, sarei orientato al 70% su una 800pro e al restante 30% sulla 6800 liscia......

rubex
06-05-2004, 16:02
Fonte www.hardwareirc.com


La GeCube X800 PRO CSCZ Limited Edition è dotata di 256 Mb di memoria GDDR3, uscita VGA, DVI e S-Video. Inoltre nella confezione trovate anche il gioco completo Counter Strike: Condition Zero e un mouse ottico USB .

http://www.hardwareirc.com/News1/X800PRO_C+B_CSCZ_540.jpg


La scheda di Asus si chiama AX800 PRO, è dotata di 256Mb di memoria GDDR3 operante alla frequenza di 900 Mhz, uscita VGA, DVI e S-Video (TV).
Nella confezione trovate i giochi completi Counter Strike: Condition Zero & Deus Ex: Invisible War, e i software Ulead Cool 3D 2.0 & Photo Express 4.0 SE.

In particolare, la ventola montata sul dissipatore della Asus AX800 PRO è fornito di un LED di colore blu.


http://www.hardwareirc.com/News1/00086472.jpg

La nuova scheda grafica di Visiontek è equipaggiata con 256Mb di memoria GDDR3 che opera alla frequenza di 900 Mhz, mentre la frequenza di clock del core è di 475 Mhz. Inoltre è presente un`uscita VGA, DVI e S-Video ed è supportata l`interfaccia AGP4x/8x.Il prezzo è di circa 400 dollari americani e la garanzia è a vita.


http://www.hardwareirc.com/News1/X800box-s.jpg


Bye

sanitarium
06-05-2004, 16:08
Originariamente inviato da halduemilauno
se mi dici cosi ti rispondo di certo non ci giochi con la r420.
si credo che hai detto un paradosso.
ciao.
:) :)


Hal, davvero non capisco: ma credi veramente che un gioco che supporta i PS3.0 non girerà sulle schede basate su R420? E' come dire che siccome Far cry sfrutta i PS2.0, allora le varie Geforce ti4X00 non sono in grado di farlo girare, cosa totalmente campata per aria.
Figurati se gli sviluppatori, pur di sfruttare i PS3.0, si tagliano le gambe da soli escludendo una fetta mostruosa di utenza che non ha schede compatibili con i PS3.0...
I possessori di X800 (e delle schede della generazione precedente) giocheranno in PS2.0, e passa la paura... Non vedo dove sia il problema.

C'è un gioco che aspetto più degli altri quest'anno, è Driv3r: ho saputo che sfrutterà (almeno a parole) i PS3.0, ma non credo proprio che la mia 9700pro non riuscirà a farlo girare.

Se poi ho interpretato male la tua frase, allora aspetto delucidazioni.

halduemilauno
06-05-2004, 16:22
Originariamente inviato da sanitarium
Hal, davvero non capisco: ma credi veramente che un gioco che supporta i PS3.0 non girerà sulle schede basate su R420? E' come dire che siccome Far cry sfrutta i PS2.0, allora le varie Geforce ti4X00 non sono in grado di farlo girare, cosa totalmente campata per aria.
Figurati se gli sviluppatori, pur di sfruttare i PS3.0, si tagliano le gambe da soli escludendo una fetta mostruosa di utenza che non ha schede compatibili con i PS3.0...
I possessori di X800 (e delle schede della generazione precedente) giocheranno in PS2.0, e passa la paura... Non vedo dove sia il problema.

C'è un gioco che aspetto più degli altri quest'anno, è Driv3r: ho saputo che sfrutterà (almeno a parole) i PS3.0, ma non credo proprio che la mia 9700pro non riuscirà a farlo girare.

Se poi ho interpretato male la tua frase, allora aspetto delucidazioni.


si. mi permetto di dire che hai interpetrato male le mie parole.
chi ha mai detto una simile assurdità.
ho solo detto che(diciamo per capirci meglio)in ambiente shader3/fp32 le 6800 sono avvantagiate perchè supportano questo standard. e pertanto sono più longeve. se no che facciamo tutti a cambiare le schede video? certo che no.
tu hai citato un gioco che sfrutterà i PS3, certo che la tua 9700 pro lo farà girare. ma credo che con una scheda che supporti nativamente i PS3 a pari altre caratteristiche lo farà girare meglio.
tutto qui.
spero di aver chiarito.
ciao.
:) :)

sanitarium
06-05-2004, 16:46
Originariamente inviato da halduemilauno
si. mi permetto di dire che hai interpetrato male le mie parole.
chi ha mai detto una simile assurdità.
ho solo detto che(diciamo per capirci meglio)in ambiente shader3/fp32 le 6800 sono avvantagiate perchè supportano questo standard. e pertanto sono più longeve. se no che facciamo tutti a cambiare le schede video? certo che no.
tu hai citato un gioco che sfrutterà i PS3, certo che la tua 9700 pro lo farà girare. ma credo che con una scheda che supporti nativamente i PS3 a pari altre caratteristiche lo farà girare meglio.
tutto qui.
spero di aver chiarito.
ciao.
:) :)


Ok, ora ho un quadro più chiaro di ciò che pensi in proposito.
Ma io personalmente ho imparato che, nel settore delle schede video, è meglio pensare al presente piuttosto che al futuro. Mi riferisco più in dettaglio allo scandalo che era nato dall'ipotetica mancanza del displacement mapping nel chip NV30, cosa che a suo tempo ha scatenato un putiferio, messo a tacere solo dopo una smentita ufficiale e chiarificatrice da parte di NVidia. E io ingenuamente, fino a prima di quella smentita, ero convinto che fosse una mancanza gravissima quella di cui si parlava, che non fosse concepibile una scheda senza supporto ad una tecnologia sì futura ma tanto importante (almeno teoricamente) come quella in questione. Bene, da quella storia è passato circa 1 anno e mezzo, forse più, e non si è visto un solo gioco (dico uno) che supporti il famigerato Displacement Mapping. Più in generale, non si è visto ancora un solo gioco che sfrutti a pieno le DX9.
Da quel momento ho capito che delle tecnologie future non me ne posso far niente di concreto, e che a mio parere è meglio pensare a come far girare alla grande i giochi di oggi e quelli del futuro più prossimo; il mercato dei videogiochi è troppo fluido per essere preso sul serio sulla lunga distanza.

Per i giochi del futuro, anche quelli che usciranno fra un anno, c'è sempre tempo.

halduemilauno
06-05-2004, 16:55
Originariamente inviato da sanitarium
Ok, ora ho un quadro più chiaro di ciò che pensi in proposito.
Ma io personalmente ho imparato che, nel settore delle schede video, è meglio pensare al presente piuttosto che al futuro. Mi riferisco più in dettaglio allo scandalo che era nato dall'ipotetica mancanza del displacement mapping nel chip NV30, cosa che a suo tempo ha scatenato un putiferio, messo a tacere solo dopo una smentita ufficiale e chiarificatrice da parte di NVidia. E io ingenuamente, fino a prima di quella smentita, ero convinto che fosse una mancanza gravissima quella di cui si parlava, che non fosse concepibile una scheda senza supporto ad una tecnologia sì futura ma tanto importante (almeno teoricamente) come quella in questione. Bene, da quella storia è passato circa 1 anno e mezzo, forse più, e non si è visto un solo gioco (dico uno) che supporti il famigerato Displacement Mapping. Più in generale, non si è visto ancora un solo gioco che sfrutti a pieno le DX9.
Da quel momento ho capito che delle tecnologie future non me ne posso far niente di concreto, e che a mio parere è meglio pensare a come far girare alla grande i giochi di oggi e quelli del futuro più prossimo (MAX 6 mesi dall'uscita della scheda, ma forse anche meno: il mercato dei videogiochi è troppo fluido per essere preso sul serio sulla lunga distanza).

Per i giochi del futuro, anche quelli che usciranno fra un anno, c'è sempre tempo.

dal tuo punto di vista tu hai sicuramente ragione.
ma mettiti nei panni di chi compra una scheda video ogni 1.5/2 anni, che fa?
mi pare giusto che ponendosi questa domanda tenga presente anche i motivi detti prima da me. in parole povere un'occhietto al futuro.
certo quello che cambia scheda ogni sei mesi queste argomentazioni lo interessano poco e niente.
ciao.
:) :)

sanitarium
06-05-2004, 17:01
Originariamente inviato da halduemilauno
dal tuo punto di vista tu hai sicuramente ragione.
ma mettiti nei panni di chi compra una scheda video ogni 1.5/2 anni, che fa?
mi pare giusto che ponendosi questa domanda tenga presente anche i motivi detti prima da me. in parole povere un'occhietto al futuro.
certo quello che cambia scheda ogni sei mesi queste argomentazioni lo interessano poco e niente.
ciao.
:) :)

Su questo sono d'accordo con te in linea di massima, d'altra parte ci sono tantissimi fattori da prendere in considerazione al momento dell'acquisto di una componente hardware, ed è giusto che ognuno di noi dica la sua per consigliare gli altri e per chiarirci dei dubbi: ci tengo solo a dire (non a te direttamente, è un discorso generico) di non farsi false illusioni a proposito delle tecnologie future, perché purtroppo spesso si rischia di rimanenere con un pungo di mosche in mano. ;)

Ciao.

LittleLux
06-05-2004, 17:23
Originariamente inviato da andreamarra
Ciao capo loggia :asd:

Hai detto bene, la ATi è orientata verso pragmatismo e solidità, prendendo quanto di buono c'era in una architettura rodata e priva di problemi.
La NVIDIA ha dovuto per necessità cambiare progetto da capoe diversificare il prodotto per poter prendere quote di mercato nel "quadrante ionnovazione" (nel marketing vengono considerati i quadranti, e la ATI occupa quello della "solidità e prestzioni/qualità").

Per me i ps 3.0 sono mera forma di marketing. Pensa a quanti compreranno la Nv40 pensando che entro breve distruggerà le ati nei ps 3.0.... insomma, la cosa positiva è che qualcuno si si a mosso in questo senso, ma a livello del videogiocatore per me è fumo negli occhi. Come lo era il pieno supporto DX9 nella R300. Abbiamo dovuto aspettare tanto, e alla fine è uscito un certo Far Cry (ma quanti anni sono passati? E soprattutto: adesso con questi applicativi DX9 quanto è efficiente la 9700Pro che era il top quando usci?)

Peccato che questi shader 3.0 (che non hanno dal punto di vista qualittativo nessuna differenza con i 2.0a e 2.0b -questi ultimi sfruttati dalla R430-) non vedranno la luce prima di diverso tempo. Praticamente se uscissero domani i giochi shader 3.0, la nvidia tecnicamente potrebbe essere avvantaggiata (però ha i problema dll'oneroso fp32 che è obbligatorio nello shader mode 3.0), ma in ogni caso la potenza bruta della X800Xt potrebbe ribaltare la situazione (anche a ris mostruose e filtri al massimo) utilizzando invece i 2.0b+fp24.

E ti ricordo che fp32+ps3.0 è la stessa cosa di fp24+ps2.0b (differiscono nella velocità di esecuzione degli shader,il 3.0 è più veloce se correttamente utilizzato) dal punto di vista qualitativo.

Quiundi attualmente è difficile da dire, e se dovessi comprarmi una scheda video nuova (avendone magari l'estremo bisogno) credo che punterei leggermente verso la R420 che mi da più garanzie dal punto di vista prestazioni/qualità.

Gran Maestro, baciamo le mani:asd:

Ringrazio te e hal per avermi risposto, anche se so che allo stato attuale, dare una risposta certa, che faccia decidere a favore dell'una soluzione o dell'altra, è molto difficile...tuttavia è un inizio...insomma, solidità tecnologica e pragmatismo da una parte, novità (con tutti gli annessi e connessi che l'innovazione comporta) che strizzano l'occhio al futuro e teoricamente maggior longevità dall'altra...un bel rebus, non c'è che dire...intanto vi seguo...

Ciao:)

Necromachine
06-05-2004, 18:55
Originariamente inviato da prova
Solo UN molex, e consumano entrambe MENO della 9800XT.

Devo ancora arrivare alle prestazioni, ma per quanto mi riguarda Ati ha già vinto.
2 molex e un ali da 480Watt erano condizioni inaccettabili da parte di Nvidia, che mostra ancora una volta, al pari di Intel, di avere una sensibilità ecologica pari allo zero.

Quoto. Aspetto in ogni caso importante quello del consumo sia per compatibilità-sostenibilità-rumore-ecologicità ...

luckye
06-05-2004, 19:28
Originariamente inviato da andreamarra
La ati poteva permettersi di andare dove gli pareva e fare quello chepreferiva, ovviamente puntando la concorrenza per evitare il tutto. Ricordiamoci che non ha semplicemente raddoppiato il R3X0. Basta guardare le caratteristiche. Caratteristiche fruibili SUBITO e nel tempo, senza se e senza ma.


Infatti ha annunciato che aveva 12 super pipeline (per far sembrare chissà cosa fossero.....) e Px Vs 2.0.
Poi quando si è accorta che non solo prestazionalmente ma anche tecnologicamente era indietro ha fatto sta 800xt che non si sa che seguito avrà con 4 pipeline in più e vertex & pixel shader 2.5 !
Cioè ma se Ati continua a dire che i vs 3.0 non servono perchè mai ha cercato di metterne il più possibile nella sua architettura ?

:rolleyes:

Sembra tanto che quando la volpe non arriva all'uva.......

-=Krynn=-
06-05-2004, 19:30
Originariamente inviato da sanitarium
Ok, ora ho un quadro più chiaro di ciò che pensi in proposito.
Ma io personalmente ho imparato che, nel settore delle schede video, è meglio pensare al presente piuttosto che al futuro. Mi riferisco più in dettaglio allo scandalo che era nato dall'ipotetica mancanza del displacement mapping nel chip NV30, cosa che a suo tempo ha scatenato un putiferio, messo a tacere solo dopo una smentita ufficiale e chiarificatrice da parte di NVidia. E io ingenuamente, fino a prima di quella smentita, ero convinto che fosse una mancanza gravissima quella di cui si parlava, che non fosse concepibile una scheda senza supporto ad una tecnologia sì futura ma tanto importante (almeno teoricamente) come quella in questione. Bene, da quella storia è passato circa 1 anno e mezzo, forse più, e non si è visto un solo gioco (dico uno) che supporti il famigerato Displacement Mapping. Più in generale, non si è visto ancora un solo gioco che sfrutti a pieno le DX9.
Da quel momento ho capito che delle tecnologie future non me ne posso far niente di concreto, e che a mio parere è meglio pensare a come far girare alla grande i giochi di oggi e quelli del futuro più prossimo; il mercato dei videogiochi è troppo fluido per essere preso sul serio sulla lunga distanza.

Per i giochi del futuro, anche quelli che usciranno fra un anno, c'è sempre tempo.


parole sante

-=Krynn=-
06-05-2004, 19:35
Originariamente inviato da halduemilauno
dal tuo punto di vista tu hai sicuramente ragione.
ma mettiti nei panni di chi compra una scheda video ogni 1.5/2 anni, che fa?
mi pare giusto che ponendosi questa domanda tenga presente anche i motivi detti prima da me. in parole povere un'occhietto al futuro.
certo quello che cambia scheda ogni sei mesi queste argomentazioni lo interessano poco e niente.
ciao.
:) :)


Boh guarda, io ho ancora una 8500 e probabilmente penso che a settembre prenderò una X800pro, ma non sento assolutamente la mancanza del ps3...

Perfectdavid
06-05-2004, 19:48
a settembre chisà cosa uscirà :D

Nie73
06-05-2004, 19:50
Originariamente inviato da luckye
Infatti ha annunciato che aveva 12 super pipeline (per far sembrare chissà cosa fossero.....) e Px Vs 2.0.
Poi quando si è accorta che non solo prestazionalmente ma anche tecnologicamente era indietro ha fatto sta 800xt che non si sa che seguito avrà con 4 pipeline in più e vertex & pixel shader 2.5 !
Cioè ma se Ati continua a dire che i vs 3.0 non servono perchè mai ha cercato di metterne il più possibile nella sua architettura ?

:rolleyes:

Sembra tanto che quando la volpe non arriva all'uva.......

non credo proprio che ati abbia cambiato i propri progetti all'ultimo momento inserendo 4 pipeline (per i Ps 2.5 quelli ce li ha anche la PRO), e poi non mi sembra certo male la stessa PRO, tutto dipende dai prezzi della stessa e di quello che offre la concorrenza nella stessa fascia di prezzo.

zerothehero
06-05-2004, 19:54
Originariamente inviato da andreamarra
Ma il confronto è fatto su base teorica o su prestazioni sul campo?


su prestazioni sul campo

Raven
06-05-2004, 20:00
Originariamente inviato da halduemilauno
se mi dici cosi ti rispondo di certo non ci giochi con la r420.
si credo che hai detto un paradosso.
ciao.
:) :)

In futuro NON esisteranno giochi che NON girano su una scheda dx9 ma sull'altra sì... Hai mai visto giochi girare su radeon 8500 e non su geforce 4 (entrambe schede dx8)?! Al limite potranno avere differenziazioni del tipo "Hai una 6800 e puoi attivare l'uso dei pixel shader 3.0"

Le mie domande sono queste:

- Ma qulitativamente, cambia davvero così tanto da ps2 a 3?! (no)

- ...e in ogni caso, riuscirà nvidia 6800 a gestire BENE i ps3 nei giochi?!? (non credo)

- In caso negativo e switchando quindi sui ps2, la 6800 come si comporterà rispetto a r420?!? (e qui proprio non lo so)

Le risposte tra parantesi sono MIE OPINIONI! :O

Raven
06-05-2004, 20:02
Originariamente inviato da luckye
Infatti ha annunciato che aveva 12 super pipeline (per far sembrare chissà cosa fossero.....) e Px Vs 2.0.
Poi quando si è accorta che non solo prestazionalmente ma anche tecnologicamente era indietro ha fatto sta 800xt che non si sa che seguito avrà con 4 pipeline in più e vertex & pixel shader 2.5 !
Cioè ma se Ati continua a dire che i vs 3.0 non servono perchè mai ha cercato di metterne il più possibile nella sua architettura ?

:rolleyes:

Sembra tanto che quando la volpe non arriva all'uva.......

Ma per favore!... l'architettura di r420 era stata definita da tempo... non si può mica cambiare così, di punto in bianco!!!

Guarda nvidia... ce na ha messo di tempo prima di far uscira la "correzione" della 5800 (la 5900) ;)

TheDarkAngel
06-05-2004, 20:11
Originariamente inviato da Raven

- ...e in ogni caso, riuscirà nvidia 6800 a gestire BENE i ps3 nei giochi?!? (non credo)



ha difficoltà con i ps2.0 figurati con i ps3.0 :asd::asd::eheh: :rotfl:

LCol84
06-05-2004, 21:06
Originariamente inviato da TheDarkAngel
ha difficoltà con i ps2.0 figurati con i ps3.0 :asd::asd::eheh: :rotfl:

Credo che siano parecchio pesanti i ps 3.0, ma dato che sono nativi sulla 6800 credo che non rallenteranno pesantemente le prestazioni...
Tanto difficilemnte se ne farà uso in massa nel prossimo anno...
ma che vuol dire IMHO???

Mark75
06-05-2004, 21:26
Originariamente inviato da LCol84
....
ma che vuol dire IMHO???

Finalmente una domanda a cui posso rispondere :D
In My Humble Opinion

Wizard77
06-05-2004, 21:31
Originariamente inviato da halduemilauno
si. mi permetto di dire che hai interpetrato male le mie parole.
chi ha mai detto una simile assurdità.
ho solo detto che(diciamo per capirci meglio)in ambiente shader3/fp32 le 6800 sono avvantagiate perchè supportano questo standard. e pertanto sono più longeve. se no che facciamo tutti a cambiare le schede video? certo che no.
tu hai citato un gioco che sfrutterà i PS3, certo che la tua 9700 pro lo farà girare. ma credo che con una scheda che supporti nativamente i PS3 a pari altre caratteristiche lo farà girare meglio.
tutto qui.
spero di aver chiarito.
ciao.
:) :)

io credo che come longevità la 6800 e la X800 siano assolutamente alla pari, secondo me sono 2 ottime sk che si equivalgono, ovviamente una avrà qualcosa in più in un campo e l'altra in un'altro, ma se una delle 2 non riuscirà a far girare un gioco potrei giurare che nemmeno l'altra ci riuscirebbe (sono mie supposizioni, oltretutto di sk non ancora sul mercato, diamogli un pò di tempo e vediamo come si comportano).

Potrei anche essere d'accordo che la 6800 faccia girare meglio un gioco in PS3, ma la domanda da porsi è: di quanto??? per me, non di molti, la domanda successiva sara: questo "divario" fa veramente pendere l'ago della bilancia da una o dall'altra parte??

Io dico che prima di arrivare a pensare alla longevità, dovremo dare il tempo a queste sk di "nascere" e di "maturare", fra qualche mese potremmmo tirare conclusioni migliori.

Ciao a tutti :)

p.s.: approfitto per fare i complimenti sia a nVidia che ad ATI per le loro nuove creature :)

Mark75
06-05-2004, 21:31
Io non so se cambierò la mia 9700 o se aspettero la prossima generazione, in fin dei conti gioco molto bene a tutto... ma se dovessi farlo sceglierei la più conveniente tra la X800 PRO e la 6800 GT ...spero che costi meno la ati per via del minor consumo energetico e del minor rumore. I ps3 non li considero molto, non mi faccio più abbindolare, la tecnologia la voglio nei giochi non sul manuale della scheda!

Ciao

ballero
06-05-2004, 21:31
Originariamente inviato da Raven

Guarda nvidia... ce na ha messo di tempo prima di far uscira la "correzione" della 5800 (la 5900) ;)

la 5900 era gia' pronta al lancio della 5800.
poi ovviamente bisogna dare il tempo ai partners per preparare le schede, distribuirle, etc

ballero
06-05-2004, 21:38
Originariamente inviato da Raven

Le mie domande sono queste:

- Ma qulitativamente, cambia davvero così tanto da ps2 a 3?! (no)


[QUOTE]difficile da dire finché qualche sviluppatore non mi mettera' ad usare i ps 3.0

- ...e in ogni caso, riuscirà nvidia 6800 a gestire BENE i ps3 nei giochi?!? (non credo)

vedi punto 1

- In caso negativo e switchando quindi sui ps2, la 6800 come si comporterà rispetto a r420?!? (e qui proprio non lo so)

beh' qui basta che guardi un test come lo shadermark dove la 6800U supera di un buon 20% la XT800

Raven
06-05-2004, 21:39
Originariamente inviato da ballero
la 5900 era gia' pronta al lancio della 5800.
poi ovviamente bisogna dare il tempo ai partners per preparare le schede, distribuirle, etc

Tra uscita della 9700 e della 5900 ne è passato, di tempo! ;)

Io dico semplicemente che r420 era già nato per le 16pipe... :)

ballero
06-05-2004, 21:41
Originariamente inviato da Raven
Tra uscita della 9700 e della 5900 ne è passato, di tempo! ;)

Io dico semplicemente che r420 era già nato per le 16pipe... :)
certo il progetto r420 e' nato come una 16x1.

Raven
06-05-2004, 21:45
esatto! ;) ... sul resto... cioè quale scheda sia miglior investimento per il futuro... secondo me, al momento, non è proprio possibile dire quale delle due sia meglio: troppe variabili, ipotesi, congetture...

Fra un 6/7 mesi la situazione potrebbe essere più chiara e delineata...

Athlon 64 3000+
06-05-2004, 21:54
Tra le due io se mai dovessi prenderla ho scelto R420 e Bocciato NV40 perchè non mi va di prendere una scheda che tanto so che non verrà sfruttata se non tra 1 anno e mezzo.Io poi guardo molto anche ai consumi,mi interessano molto la qualità e le prestazioni con i filtri e odio i sistemi di raffreddamento esagerati come ci sono sull'NV40 e nell'NV3x.

Joker80
06-05-2004, 22:27
Raga ma tra quanto si troverà la Radeon X800 XT nei negozzi???

Lord style
06-05-2004, 22:48
Avete saputo che Richard Huddy di ATi ha dichiarato che il demo Ruby non potrà essere visualizzato su R3X0 ?

Il demo usa la tecnologie 3Dc che l'R3x0 non supporta.
Per questo motivo andrebbe ad occupare circa 250MB di memoria video su R3x0 e finirebbe per usare anche la memoria di sistema tramite l'agp, con prestazioni bassissime. Questo causerebbe problemi con i PS2.0


EDIT

Aggiunto la fonte

http://www.elitebastards.com/page.php?pageid=4641&head=1&comments=1

R@nda
06-05-2004, 22:50
Per questo motivo andrebbe ad occupare circa 250MB

Cioè,va bene,quello che si vede è notevole....ma uno Sticazzi....ce lo metto lo stesso:eek:

sanitarium
06-05-2004, 22:52
Originariamente inviato da ballero
beh' qui basta che guardi un test come lo shadermark dove la 6800U supera di un buon 20% la XT800

Oppure, anziché guardare un bench sintetico come lo shadermark, guardi un gioco che sfrutta in modo intensivo i pixel shader come Far cry e vedi la 6800 ultra prenderle spesso e volentieri dalla X800XT! :D

gandalfone
06-05-2004, 22:53
Originariamente inviato da Lord style
Avete saputo che Richard Huddy di ATi ha dichiarato che il demo Ruby non potrà essere visualizzato su R3X0 ?

Il demo usa la tecnologie 3Dc che l'R3x0 non supporta.
Per questo motivo andrebbe ad occupare circa 250MB di memoria video su R3x0 e finirebbe per usare anche la memoria di sistema tramite l'agp, con prestazioni bassissime. Questo causerebbe problemi con i PS2.0


Bah ho visto il video è sta demo nn mi sebra niente di che, potevano sforzarsi un pochino di piu, del resto sta scheda nn offre niente di nuovo a parte la potenza pura, che chiaramente nn ci sputo sopra.......ma insomma un po di innovazione!!

Lord style
06-05-2004, 22:53
Originariamente inviato da R@nda
Cioè,va bene,quello che si vede è notevole....ma uno Sticazzi....ce lo metto lo stesso:eek:

Ho messo la fonte. ;)

goldorak
06-05-2004, 22:54
Originariamente inviato da Lord style
Avete saputo che Richard Huddy di ATi ha dichiarato che il demo Ruby non potrà essere visualizzato su R3X0 ?


:old:
http://forum.hwupgrade.it/showthread.php?s=&threadid=677965&perpage=20&pagenumber=3
:)

Lord style
06-05-2004, 22:57
Originariamente inviato da goldorak
:old:
http://forum.hwupgrade.it/showthread.php?s=&threadid=677965&perpage=20&pagenumber=3
:)


Io ho la fonte originale, non quella news. Inoltre ho proposto l'intera intervista a Richard Huddy, non credo che altri l'abbiano fatto.


;)

R@nda
06-05-2004, 22:57
E bho...sarà vecchia ma io non lo sapevo.

Lord guarda che dico sticazzi mica perchè non ci credo....ma perchè 250mb di texture e dati grafici son tanti.:eek:

Drio
06-05-2004, 22:58
Originariamente inviato da Mark75
Io non so se cambierò la mia 9700 o se aspettero la prossima generazione, in fin dei conti gioco molto bene a tutto... ma se dovessi farlo sceglierei la più conveniente tra la X800 PRO e la 6800 GT ...spero che costi meno la ati per via del minor consumo energetico e del minor rumore. I ps3 non li considero molto, non mi faccio più abbindolare, la tecnologia la voglio nei giochi non sul manuale della scheda!

Ciao

Il discorso non fa una piega!

x quanto riguarda ps3, ps2, fp16, fp24, fp32 e menate varie credo siano tutti discorsi inutili tanto x noi non cambia niente.

Quando saranno obsolete le 6800 lo saranno anche le X800

devis
06-05-2004, 22:59
Originariamente inviato da R@nda
Cioè,va bene,quello che si vede è notevole....ma uno Sticazzi....ce lo metto lo stesso:eek:

Con una grafica da FMV questo e altro
;)

goldorak
06-05-2004, 23:04
Originariamente inviato da devis
Con una grafica da FMV questo e altro
;)


Gia', ma provate questo gioco shareware Eagle Lander 3D (http://eaglelander3d.com/) impostando tutti i dettagli al massimo e vedrete che 128MB di vram non sono sufficienti.

R@nda
06-05-2004, 23:04
Si ...ma il fatto che finalmente è in temporeale mi gasa un tantinello:D

250mb di texture in botto e comunque il demo Ruby gira fluidissimo.

Ok è un demo tecnologico...un gioco si comporta in modo diverso,direi però che questa generazione di schede promette cose buone e giuste:D

ballero
06-05-2004, 23:14
Originariamente inviato da Lord style
Avete saputo che Richard Huddy di ATi ha dichiarato che il demo Ruby non potrà essere visualizzato su R3X0 ?

Il demo usa la tecnologie 3Dc che l'R3x0 non supporta.
[/url]


E' gia' uscito il wrapper.
vai a vedere su rage3d.

ballero
06-05-2004, 23:17
Originariamente inviato da sanitarium
Oppure, anziché guardare un bench sintetico come lo shadermark, guardi un gioco che sfrutta in modo intensivo i pixel shader come Far cry e vedi la 6800 ultra prenderle spesso e volentieri dalla X800XT! :D

Farcry non usa in modo intensivo i ps2.0
Su 150 shader ne hai 40 in ps2.0 e 110 in ps1.1 (fonte: il 3danalyze)

sanitarium
06-05-2004, 23:21
Originariamente inviato da ballero
Farcry non usa in modo intensivo i ps2.0
Su 150 shader ne hai 40 in ps2.0 e 110 in ps1.1 (fonte: il 3danalyze)

Ok, ma se una scheda eccelle nei PS2.0, dovrebbe mangiarsi a colazione i PS1.1... O sbaglio?
Eppure da molteplici test di Far Cry la 6800ultra ne esce maluccio in confronto alla X800XT.

TheDarkAngel
06-05-2004, 23:22
Originariamente inviato da sanitarium
Ok, ma se una scheda eccelle nei PS2.0, dovrebbe mangiarsi a colazione i PS1.1... O sbaglio?
Eppure da molteplici test di Far Cry la 6800ultra ne esce maluccio in confronto alla X800XT.

ma la nv40 mica è una buona scheda video :asd:

Buffus
06-05-2004, 23:27
dai raga,un po' di buon cuore e ditemi: va più o meno della nuova geppo?

ATi7500
06-05-2004, 23:28
Originariamente inviato da TheDarkAngel
ma la nv40 mica è una buona scheda video :asd:

dai ora stai esagerando però :)


bYeZ!

ATi7500
06-05-2004, 23:29
Originariamente inviato da Buffus
dai raga,un po' di buon cuore e ditemi: va più o meno della nuova geppo?

con i filtri e risoluzioni altissime si, va d più della geffo

a risoluzioni base siamo li, e in opengl perde


bYeZ!

TheDarkAngel
06-05-2004, 23:32
Originariamente inviato da ATi7500
dai ora stai esagerando però :)


bYeZ!

ovvio che è un giudizio molto estremistico...
è una scheda video che mi convince poco... potrei dire nulla...

Lord style
06-05-2004, 23:32
Originariamente inviato da ballero
E' gia' uscito il wrapper.
vai a vedere su rage3d.


Mi sa che son queste le immagini utilizzando quel sistema su una R3X0


http://www.users.on.net/triforce/ruby/ruby1.jpg

http://www.users.on.net/triforce/ruby/ruby2.jpg

http://www.users.on.net/triforce/ruby/ruby3.jpg

http://www.users.on.net/triforce/ruby/ruby4.jpg

http://www.users.on.net/triforce/ruby/ruby5.jpg

http://www.users.on.net/triforce/ruby/ruby6.jpg

http://www.users.on.net/triforce/ruby/ruby7.jpg

Ecco come ha concluso il post l'autore del wrapper

"And no, you will not get output like the teaser pic"

TheDarkAngel
06-05-2004, 23:33
Originariamente inviato da Buffus
dai raga,un po' di buon cuore e ditemi: va più o meno della nuova geppo?

va + della geppa tranne nelle opengl
oltre ad essere in grado di usare i ps e i vs normalmente senza strani affossamenti di fps come la nv40...

Joker80
06-05-2004, 23:37
edit:)

ballero
06-05-2004, 23:44
Originariamente inviato da sanitarium
Ok, ma se una scheda eccelle nei PS2.0, dovrebbe mangiarsi a colazione i PS1.1... O sbaglio?


Dipende dall'architettura della scheda, non c'è nulla di automatico.
Ho l'impressione che tu stia confondendo Nv3x con nv4x che sono schede ben diverse.


Eppure da molteplici test di Far Cry la 6800ultra ne esce maluccio in confronto alla X800XT.

In Farcry cambiano continuamente shader e texture (interni/esterni): testa il gioco in 10 punti diversi e avrai 10 valutazioni diverse.

sanitarium
07-05-2004, 00:05
Originariamente inviato da ballero
Dipende dall'architettura della scheda, non c'è nulla di automatico.
Ho l'impressione che tu stia confondendo Nv3x con nv4x che sono schede ben diverse.

Non ho capito perché starei confondendo i due chip.
Se una scheda (NV40) riuscisse a macinare come niente i PS2.0, allora dovrebbe per forza di cose riuscire a macinare ancora meglio gli shader di versione inferiore. Non credo sia possibile il contrario.

In Farcry cambiano continuamente shader e texture (interni/esterni): testa il gioco in 10 punti diversi e avrai 10 valutazioni diverse.

So che non è possibile ottenere gli stessi risultati in tutte le mappe del gioco, ma ho visto svariate situazioni nelle quali c'è una differenza davvero sostanziosa fra i fps generati dalla X800XT e quelli generati dalla 6800ultra a parità di condizioni. Quando invece è la 6800ultra a stare sopra, il divario è davvero molto esiguo.

sanitarium
07-05-2004, 00:09
Ho appena provato la tech demo di Ruby sul mio PC tramite il wrapper: stendiamo un velo pietoso! :D

TheRipper
07-05-2004, 00:17
Bho, non so voi, ma io ho gia' trovato la mia futura scheda che giungera' nel case fra un anno o poco piu'...
Ha un solo molex, un dissi piu' piccolo della 9800xt e occupa solo uno slot;) Oltre a macinare fps come se non esistesse un domani.

sanitarium
07-05-2004, 00:24
Originariamente inviato da TheRipper
Bho, non so voi, ma io ho gia' trovato la mia futura scheda che giungera' nel case fra un anno o poco piu'...
Ha un solo molex, un dissi piu' piccolo della 9800xt e occupa solo uno slot;) Oltre a macinare fps come se non esistesse un domani.

Io credo di aspettare la fine dell'anno, poi mi rifaccio mezzo computer: Athlon64 3600+ (o giù di lì), scheda madre socket 939, 1GB DDR chepiùvelocenonsipuò, e R420 in versione PCI-Express (o AGP, nel caso il PC-E non dovesse rivelarsi una buona scelta).

Lord style
07-05-2004, 00:38
Originariamente inviato da sanitarium
Ho appena provato la tech demo di Ruby sul mio PC tramite il wrapper: stendiamo un velo pietoso! :D


C'era da scommetterci :O

sanitarium
07-05-2004, 00:43
Originariamente inviato da Lord style
C'era da scommetterci :O

E' partito bene, con l'inquadratura delle gambe di Ruby con un buon framerate e senza artefatti.
Dopodiché uno scempio: texture sballate, capelli blu (!), poligoni blu sulla faccia, e ad un certo punto il tutto ha cominciato ad andare talmente lento che non capivo se si era bloccato o meno, e il brutto è che non era bloccato! :D :cry:

dwfgerw
07-05-2004, 00:45
copiato da www.hardware-mania.com


- DEMO RUBY CON ATI R3XX
Segnalata da Antonio 6/5/2004 - 21.27 COMMENTA LA NEWS

Molti utenti hanno lamentato il fatto che la nuova demo tecnologica "Ruby" introdotta da ATi con la nuova famiglia di GPU R420 (Radeon X800) non sia compatibile e quindi non possa girare correttamente con le precedenti schede grafiche dotate di GPU R3XX.

Richard Huddy pr di ATi ha svelato questo mistero, la nuova demo di ATi prevede l'utilizzo massiccio della nuova tecnologia di compressione 3Dc introdotta con la serie R420, di cui le precedenti Radeon sono sprovviste.

Maggiori dettagli riguardante la nuova demo tecnologica sono presenti a questo indirizzo.
-------------------------------------------------


ecco perchè non gira con r300

Lord style
07-05-2004, 00:48
Originariamente inviato da dwfgerw
copiato da www.hardware-mania.com


- DEMO RUBY CON ATI R3XX
Segnalata da Antonio 6/5/2004 - 21.27 COMMENTA LA NEWS

Molti utenti hanno lamentato il fatto che la nuova demo tecnologica "Ruby" introdotta da ATi con la nuova famiglia di GPU R420 (Radeon X800) non sia compatibile e quindi non possa girare correttamente con le precedenti schede grafiche dotate di GPU R3XX.

Richard Huddy pr di ATi ha svelato questo mistero, la nuova demo di ATi prevede l'utilizzo massiccio della nuova tecnologia di compressione 3Dc introdotta con la serie R420, di cui le precedenti Radeon sono sprovviste.

Maggiori dettagli riguardante la nuova demo tecnologica sono presenti a questo indirizzo.
-------------------------------------------------


ecco perchè non gira con r300


http://forum.hwupgrade.it/showthread.php?s=&threadid=677727&perpage=20&pagenumber=47

http://forum.hwupgrade.it/showthread.php?s=&threadid=677965&pagenumber=3


Ciao, ciao :D :D

devis
07-05-2004, 00:49
Originariamente inviato da sanitarium
E' partito bene, con l'inquadratura delle gambe di Ruby con un buon framerate e senza artefatti.
Dopodiché uno scempio: texture sballate, capelli blu (!), poligoni blu sulla faccia, e ad un certo punto il tutto ha cominciato ad andare talmente lento che non capivo se si era bloccato o meno, e il brutto è che non era bloccato! :D :cry:

Migliori parecchio con l'aperture size a 256, la qualità è quella che è :rolleyes:

http://forum.hwupgrade.it/showthread.php?s=&threadid=677965&pagenumber=2

ballero
07-05-2004, 00:51
Originariamente inviato da sanitarium
Non ho capito perché starei confondendo i due chip.



Lo hai scritto tu stesso il perche' :

Se una scheda riuscisse a macinare come niente i PS2.0, allora dovrebbe per forza di cose riuscire a macinare ancora meglio gli shader di versione inferiore. Non credo sia possibile il contrario.

che era (o che e') il tradeoff per Nv3x: shader in 1.1 danno un boost prestazionale (macinano meglio) rispetto alle versioni 2.0
ma chi ti dice che valga lo stesso anche per Nv4x, che ha una architettura molto diversa?



So che non è possibile ottenere gli stessi risultati in tutte le mappe del gioco, ma ho visto svariate situazioni nelle quali c'è una differenza davvero sostanziosa fra i fps generati dalla X800XT e quelli generati dalla 6800ultra a parità di condizioni. Quando invece è la 6800ultra a stare sopra, il divario è davvero molto esiguo.

A parita' di condizioni?
Sei sicuro?
Io ho visto che alcuni hanno usato i 60.xx, altri i 61.xx; alcuni con la patch 1.1 e altri senza la patch, etc etc

sanitarium
07-05-2004, 00:51
Originariamente inviato da devis
Migliori parecchio con l'aperture size a 256, la qualità è quella che è :rolleyes:

http://forum.hwupgrade.it/showthread.php?s=&threadid=677965&pagenumber=2

Domani provo! :D

sanitarium
07-05-2004, 01:06
Originariamente inviato da ballero
Lo hai scritto tu stesso il perche' :

Se una scheda riuscisse a macinare come niente i PS2.0, allora dovrebbe per forza di cose riuscire a macinare ancora meglio gli shader di versione inferiore. Non credo sia possibile il contrario.

che era (o che e') il tradeoff per Nv3x: shader in 1.1 danno un boost prestazionale (macinano meglio) rispetto alle versioni 2.0
ma chi ti dice che valga lo stesso anche per Nv4x, che ha una architettura molto diversa?

A parita' di condizioni?
Sei sicuro?
Io ho visto che alcuni hanno usato i 60.xx, altri i 61.xx; alcuni con la patch 1.1 e altri senza la patch, etc etc

Per quanto riguarda i PS1.1 e i PS2.0 devo informarmi bene, ma mi sembra che il discorso che sto facendo io esuli dall'architettura della scheda.
Mi suona davvero molto strana infatti la possibilità che una scheda faccia girare meglio i PS2.0 rispetto ai PS1.1, ma siccome non ho le conoscenze per dimostrare ciò mi fermo qui, prima di dire qualche grossa cavolata. :)

Per quanto riguarda i driver e la patch devo spulciare un po' in giro per le recensioni...
Comunque io con l'espressione "a parità di condizioni" intendevo che nella stessa scena, con gli stessi settaggi grafici e con gli stessi filtri i risultati della X800XT e quelli della 6800ultra erano decisamente differenti a favore della prima.

Ma ora è il caso che vada a dormire, domani si lavora. :ronf:

luckye
07-05-2004, 01:38
Ripropongo il quesito:

Perchè se ati ha detto che i Ps e Vs 3.0 sono inutili o kmq non utilizzabili a breve ha farcito l'R420 di quelli che possono essere defini Ps Vs 2.5 ???

Tratt dall'articolo
Osservando le caratteristiche tecniche delle due schede ATI Radeon X800, emerge chiaramente come ATI non abbia scelto di integrare supporto agli Shader 3.0, via seguita dalla concorrente NVIDIA con il progetto GeForce 6800. Le motivazioni alla base di questa decisione sono varie, riassumibili nei seguenti punti:

secondo i games developer, tutto quello che può essere fatto con gli Shader 3.0 è attualmente accessibile anche con gli Shader 2.0. L'utilizzo degli Shader 3.0 permette di ottenere, se ben dosato, migliori risultati in termini di performances velocistiche ma dal punto di vista qualitativo, stando a quanto dichiarato da ATI, non vi sarebbero differenze prendendo il lavoro attualmente sviluppato dai games developer.
costi e tempi di realizzazione. Sviluppare un'architettura Shader 3.0 richiede parecchio tempo e ATI non sarebbe probabilmente stata capace di proporre, per la primavera del 2004, una nuova famiglia di prodotti con la quale porsi in diretta concorrenza con NVIDIA.

E ora sempre nell'articolo ecco il controsenso.......
Il supporto Shader 2.0 non si è però limitato, nell'architettura ATI R420, a lasciare invariato quanto disponibile con le schede Radeon 9800. Rispetto ai chip R3x0, ATI ha innalzato il numero di istruzioni Pixel Shader eseguibili contemporaneamente, passando da 64 a 512 sia per il n° massimo di vector instructions che di scalar instructions. A questo bisogna sommare l'incremento da 32 a 512 texture instructions processabili contemporaneamente, per un numero complessivo di istruzioni che passa da 160 a 1.536.

Questi limiti sono ben superiori a quanto attualmente disponibile con i giochi in commercio. Stando alle dichiarazioni di ATI, infatti, il titolo con shader più complessi in commercio o di prossima introduzione arriva ad un valore prossimo a 40 istruzioni per shader, quindi ben sotto il numero massimo teorico disponibile con architettura R420.

Nino Grasso
07-05-2004, 02:32
non mi sembra che le 6800 vadino peggio coi filtri... nè tantomeno che l'r420 sia tutto sto bel popò superiore... la situazione a quanto ho potuto vedere senza sbavare da una parte nè dall'altra è che le 6800 hanno un AA + efficiente di r420, ma perdono e di brutto con l'AF, ma subito viene da pensare che, essendo sia AA e AF di nuova tipologia per nVidia si possa colmare il gap, se non capovolgerlo solo ottimizzando un po' dai driver... del resto nVidia offre un solido supporto in ambito Linux e sotto librerie OpenGL!

Cmq fatto sta che io non oso immaginare cosa avreste fatto (non mi rivolgo a tutti, solo a chi si ritengono coinvolti :D) se era nVidia a non avere il supporto agli SM3.0... ricordo solo il putiferio creato quando si presupponeva (sbagliando) che NV3x non avesse in hardware l'hardware displacement mapping... vi ricordo che ancora nessun gioco lo supporta via hardware!

Del resto tornando al paragone fra le due schede ritengo che stavolta non c'è la situazione presentata con NV30, in cui l'architettura presentava grossi colli di bottiglia e la scelta ATi era quasi un obbligo accentuato anche dalla carenza di qualità dell'AA da parte di nVidia; l'utente infatti adesso può finalmente scegliere una scheda video in base alle proprie esigenze senza nessun compromesso... io la vedo così...

rubex
07-05-2004, 02:46
Originariamente inviato da Lestat.me
non mi sembra che le 6800 vadino peggio coi filtri...

"Vadino"???:D
Cmq con i filtri attivati le ati vanno meglio delle nvidia,soprattutto quando sotto ci sta una cpu A64,e credimi mi sono letto/visto almeno 10/15 rece.

BYe

TheRipper
07-05-2004, 03:42
Perchè se ati ha detto che i Ps e Vs 3.0 sono inutili o kmq non utilizzabili a breve ha farcito l'R420 di quelli che possono essere defini Ps Vs 2.5 ???
Semplice...per pararsi temporaneamente il culo!:D
Ha aumentato considerevolmente le istruzioni eseguibili contemporaneamente dai ps 2.0 in modo da poter creare gli stessi effetti ottenibili dai ps 3.0, magari con piu' passate, ma senza rifare l'architettura daccapo...come dichiara la stessa Ati.
Questo sempre se gli shader 3.0 verrano utilizzati a breve...vi ricordo che Far Cry, il primo gioco che utilizza in modo considerevole i ps 2.0 e' uscito da poco, rispetto alla data di uscita della 9700pro.

Thunder82
07-05-2004, 03:53
Originariamente inviato da luckye
Ripropongo il quesito:

Perchè se ati ha detto che i Ps e Vs 3.0 sono inutili o kmq non utilizzabili a breve ha farcito l'R420 di quelli che possono essere defini Ps Vs 2.5 ???



ATi ha lasciato fuori solo il dynamic branching dei ps 3.0 mi pare per essere non ps3.0 compliant. Ma il dynamic branching è un effetto talmente pesante che anche nVidia sconsiglia fortemente ai programmatori di implementarlo negli shaders... quindi anche se NV40 facesse girare un bel shader 3.0 con tanto di dynamic branching si piegherebbe sulle ginocchia ;)

palanzana
07-05-2004, 07:37
secondo voi la pro sarà tipo la 9800se con le pipeline disattivate ke si potranno attivare come nella xt con qualke patch?

halduemilauno
07-05-2004, 08:55
Originariamente inviato da palanzana
secondo voi la pro sarà tipo la 9800se con le pipeline disattivate ke si potranno attivare come nella xt con qualke patch?

in tuttte le rece è stato escluso.

palanzana
07-05-2004, 09:01
Originariamente inviato da halduemilauno
in tuttte le rece è stato escluso.


e come mai?

halduemilauno
07-05-2004, 09:17
Originariamente inviato da palanzana
e come mai?


chi vuole le 16 pipe in casa ati deve pagare di più.
;)

R@nda
07-05-2004, 10:17
Originariamente inviato da palanzana
secondo voi la pro sarà tipo la 9800se con le pipeline disattivate ke si potranno attivare come nella xt con qualke patch?

Spero assolutamente di no....è odiosa questa politica di Ati.

sanitarium
07-05-2004, 10:24
Originariamente inviato da R@nda
Spero assolutamente di no....è odiosa questa politica di Ati.

Stavolta sembra da escludere al 100% questa eventualità; anche perché se fosse possibile pure con questa generazione di schede, la prima a rimetterci sarebbe ATi stessa...

Cifer
07-05-2004, 10:26
Poi precisiamo, se dovessero uscire giochi che davvero sfruttino lo sm3.0, allora vorebbe dire niente compromessi e fp32 per la precisione, il che vuol dire che sicuramente sarebbe + veloce comunque Ati, con una qualità analoga e utilizzando lo sm 2.b.

Solo utilizzando una precisione a fp16 è facilmente ipotizzabile ipotizzare un vantaggio per Nvidia in alcune(fra l'altro particolarissime) situazioni in cui lo sm3.0 possa portare ad un incremento prestazionale, comunque verosimilmente non così oneroso da colmare il gap con fp32.

Insomma, sm3.0 si, ma "solo" sotto il profilo della programmazione, davvero non sotto quello della qualità/prestazioni rispetto la concorrenza.

C'è poi da considerare il 3Dc di Ati, ancora non quantificabile e il cui primo titolo a supporto sarà HL2, soluzione che se mantenesse le premesse su carta, sarebbe di ben maggiore impatto rispetto la differenza fra sm2.b e 3.0.

R@nda
07-05-2004, 10:37
C'è poi da considerare il 3Dc di Ati, ancora non quantificabile e il cui primo titolo a supporto sarà HL2, soluzione che se mantenesse le premesse su carta, sarebbe di ben maggiore impatto rispetto la differenza fra sm2.b e 3.0.

Domanda...banale?
Ma va implementato,oppure è una tecnologia di compressione che fa parte delle Dx9....o DX9c?

Se fosse già integrata in una di quest due Api sarebbe un bel passo.

DjLode
07-05-2004, 10:41
Originariamente inviato da R@nda
Domanda...banale?
Ma va implementato,oppure è una tecnologia di compressione che fa parte delle Dx9....o DX9c?

Se fosse già integrata in una di quest due Api sarebbe un bel passo.

No, è uno standard esterno ma aperto quindi chiunque può usarlo. Ma va integrato in hw da quanto ho capito.

ballero
07-05-2004, 11:11
Originariamente inviato da Cifer
Poi precisiamo, se dovessero uscire giochi che davvero sfruttino lo sm3.0, allora vorebbe dire niente compromessi e fp32 per la precisione, il che vuol dire che sicuramente sarebbe + veloce comunque Ati, con una qualità analoga e utilizzando lo sm 2.b.




Perche' "sicuramente"?
Non si e' detto piu' volte che lo scopo principale dei SM 3.0 e' di aumentare le prestazioni ovvero risparmiare il fillrate fino al 33% per singolo shader?
Tieni presente che le prestazioni in fp32 che vedi ora, tra l'altro ottime, si riferiscono ai SM 2.0.

dwfgerw
07-05-2004, 11:32
ragazzi leggete questa....



NV40 meno costoso da produrre di R420
di Ciro Santoro

Ieri Nvidia ha annunciato i suoi risultati finanziari per il 1° trimestre fiscale 2005.
Durante la tradizionale conferenza con gli investitori, il presidente (e CEO) di Nvidia, Jen-Hsun Huang, ha parlato anche di GeForce 6 (NV40).

Durante il suo discorso, Jen-Hsun Huang ha spiegato che la GeForce 6 supporta l`attuale versione 1.0 del compilatore integrato nei drivers Forceware, ma ha promesso un aumento delle prestazioni con la prossima versione del compilatore e dei drivers.

Jen-Hsun Huang ha dichiarato che i margini di guadagno della gamma di processori grafici NV4x saranno migliori di quelli della famiglia GeForce FX. Inoltre ha aggiunto che nonostante NV40 ha il 40% di transistor in più dell`ATi R420, la dimensione del die è solo il 9% più grande (grazie all`utilizzo delle note librerie CellMath di Arithmatica).

Jen-Hsun Huang ritiene anche che il costo per wafer della GPU NV40 sarà il 10-15% inferiore a quello della VPU R420, perchè quest`ultimo prodotto con un metodo low-K dielettrico più costoso. Inoltre secondo Huang, grazie al carattere "riconfigurabile" del design di NV40, è più facile recuperare i chip che presentano difetti di produzione.

Cifer
07-05-2004, 11:41
Perchè la differenza "prestazionale" c'è dove ci sono differenze nella logica di esecuzione fra sm2.b e 3.0, ovvero quando usi ciò che non c'è nello sm2.b ed invece c'è nello sm3.0 per ottenere lo stesso risultato con meno onere, quando le operazioni di loop dello sm3.0 possono permettere di mantenere invariata la lunghezza delle istruzioni di fatto diminuendone la richiesta in termini di calcolo, e allo stato attuale tali situazioni sono ben poche, anche perchè in presenza di shaders lunghissimi credo che entrambe le architetture crollerebbero.

Lo sm3.0 introduce delle logiche la cui sperimentazione sicuramente porterà ad innovamenti nell'aproccio e nella tecnica con la quale verranno sfruttati gli shaders in determinate condizioni, ma vedere tali tecniche applicate proficuamente con una fp32 sull'nv40 sarà probabile credo solo in minima parte.

Insomma, se si hanno problemi ad eseguire lo sm2.0 a fp32, si hanno problemi anche a farlo con lo sm3.0, forse e "solo" in alcune condizioni il degrado prestazionale può essere percentualmente inferiore, ma + sono le istruzioni da eseguire e logicamente maggiore è ipotizzabile il degrado.

DeMonViTo
07-05-2004, 11:46
Originariamente inviato da R@nda
Domanda...banale?
Ma va implementato,oppure è una tecnologia di compressione che fa parte delle Dx9....o DX9c?

Se fosse già integrata in una di quest due Api sarebbe un bel passo.

Si puo' attivare solo per le normal mapping il 3Dc non per tutte le textature (a quanto ho captio)

quindi ci vuole un processo a parte ;)

andreamarra
07-05-2004, 11:57
Originariamente inviato da Cifer
Perchè la differenza "prestazionale" c'è dove ci sono differenze nella logica di esecuzione fra sm2.b e 3.0, ovvero quando usi ciò che non c'è nello sm2.b ed invece c'è nello sm3.0 per ottenere lo stesso risultato con meno onere, quando le operazioni di loop dello sm3.0 possono permettere di mantenere invariata la lunghezza delle istruzioni di fatto diminuendone la richiesta in termini di calcolo, e allo stato attuale tali situazioni sono ben poche, anche perchè in presenza di shaders lunghissimi credo che entrambe le architetture crollerebbero.

Lo sm3.0 introduce delle logiche la cui sperimentazione sicuramente porterà ad innovamenti nell'aproccio e nella tecnica con la quale verranno sfruttati gli shaders in determinate condizioni, ma vedere tali tecniche applicate proficuamente con una fp32 sull'nv40 sarà probabile credo solo in minima parte.

Insomma, se si hanno problemi ad eseguire lo sm2.0 a fp32, si hanno problemi anche a farlo con lo sm3.0, forse e "solo" in alcune condizioni il degrado prestazionale può essere percentualmente inferiore, ma + sono le istruzioni da eseguire e logicamente maggiore è ipotizzabile il degrado.

Quoto e rilancio (per la milionesima volta :D ) la questione amletica che non riesce a farmi convincere di quale sia la scheda "migliore", occorre valutare (e secondo me è vitale) alcuni fattori non trascurabili, ovvero:

1-fp32+ps3.0+potenza render shader Nv40

2-fp24+ps2.0b+potenza rendere R420

Qua ci vuole un tecnico che riesca ad ipotizzare almeno se 1 sia maggiore di 2, oppure uguale o addirittura inferiore.

Insomma, ragionandoci un pò non ho le competenze per saperlo, però appare chiaro che se da una parte i ps3.0 porteranno velocità maggiore, dall'altra si avrà l'onere della fp32 e di un render di una scheda che a certe risoluzioni e filtri viene penalizzata.

Dall'altra abbiamo una scheda che macina sicuramente ps2.0b, con una più leggera fp24 e con una capacità di rendere mostruosa anche a risoluzioni elevatissime e filtraggi vari.

Per me questo è un punto chiave della diatriba, perchè ora come ora se mi regalassero 600 euro per prendere una scheda video non saprei proprio se prendere la 6800Ultra o la X800XT..


:confused:

devis
07-05-2004, 12:04
fino a ieri non pendevi verso R420? ;)

dwfgerw
07-05-2004, 12:05
mah....

io continuo a pensare che la GT se verrà venduta a 450€ magari da qualche produttore folle tipo PoV:D potrebbe essere la migliore e la più longeva, dato che sta per arrivare il pci express, meglio accaparrarsi la scheda più innovativa e veloce del mercato


da tom

"Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0"

Perfectdavid
07-05-2004, 12:10
grande indecisione inside....

Cifer
07-05-2004, 12:11
Originariamente inviato da dwfgerw
mah....

io continuo a pensare che la GT se verrà venduta a 450€ magari da qualche produttore folle tipo PoV:D potrebbe essere la migliore e la più longeva, dato che sta per arrivare il pci express, meglio accaparrarsi la scheda più innovativa e veloce del mercato


da tom

"Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0"

Si, ma non mi pare che tu ignori il fatto che nv40 pur vantando i 32bit in fp ne applichi 16, quella di Tom è una considerazione anche condibvisibile, ma che prescinde da quanto sopra, tu ti sentiresti di prescindere come utente finale?

andreamarra
07-05-2004, 12:12
Originariamente inviato da devis
fino a ieri non pendevi verso R420? ;)

Diciamo che sto a 51% ati e 49 nvidia... :D

Il motivo è dato dal fatto che di un prodotto ati mi fido attualmente più che di uno nvidia, ma è dovuto semplicemente all'ultima serie di prodotti nvidia poco felici.

Io aspetto cmq qualche delucidazione tecnica sulla mia considerazione.. ;)

In ogni caso ci sono dei punti poco chiari nella nv40, come il discorso fp16/32, problemi con game con molti shader come Far Cry,...

nsomma, tutte cose da valutare prima di spendere 450 euro se va bene... :D

andreamarra
07-05-2004, 12:13
Originariamente inviato da Perfectdavid
grande indecisione inside....

Aspetto qualche bench fatto bene sui ps e soprattutto qualche bel gioco full DX9. Non vorrei prendere una scheda che fa mille fps a COD e poi con i nuovi arranca per motivi di errori strutturale, ecco :sperem:

andreamarra
07-05-2004, 12:15
Originariamente inviato da Cifer
Si, ma non mi pare che tu ignori il fatto che nv40 pur vantando i 32bit in fp ne applichi 16, quella di Tom è una considerazione anche condibvisibile, ma che prescinde da quanto sopra, tu ti sentiresti di prescindere come utente finale?

Questa è una cosa da mettere a fuoco e da valutare. IO da utente finale non starei sicurissimo, pagando una scheda tutti quei soldi voglio che rendereizzi velocemente senza problemi di fp16 come in FC.

ballero
07-05-2004, 12:20
Originariamente inviato da Cifer
tu ti sentiresti di prescindere come utente finale?


nel momento in cui le prestazioni in fp32 sono ottime, perche' no?

sanitarium
07-05-2004, 12:22
Originariamente inviato da dwfgerw
[...]
da tom

"Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0"

Troppo facile riportare solo quello che fa comodo di tutto un discorso, e non è la prima volta che lo fai... :rolleyes:

Ecco il resto del commento della recensione di tomshw.it:
Rimane da vedere se la GeForce 6800 Ultra, con il suo supporto per ShaderModel 3.0 e la precisione a 32-bit, godrà di vantaggi tangibili nella pratica. Per ora, ATi non lascia spazio a lagnanze. E non dimentichiamoci 3Dc, che è in grado di migliorare l'esperienza di gioco. Nondimeno il chip R420 sembra essere solo una soluzione temporanea. Il nuovo R480 sta già alzando la testa nella roadmap di ATi, ma c'è una buona possibilità che la società canadese passi direttamente alla serie R5xx. Dopo tutte le voci di corridoio e le speculazioni girate riguardo questi chip, il vostro umile redattore non può che ritrovarsi a fischiettare il motivo di X-file...

Perfectdavid
07-05-2004, 12:23
secondo me sono allo stesso livello ma con un vantaggio attuale per ati (inutile in quanto non esistono giochi in grado di sfruttarlo) e con un vantaggio futuro per nvidia (grazie alla sua architettura,alle features e ai driver)...quindi io sarei per nvidia.

Cifer
07-05-2004, 12:24
Originariamente inviato da ballero
nel momento in cui le prestazioni in fp32 sono ottime, perche' no?

"fossero" forse, ma ottime prestazioni con quella qualità vuol dire solo grande velocità, non "ottime" prestazioni.
Ottime prestazioni, personalmente credo vadano intese come il miglior rapporto qualità/velocità, e allo stato attuale (che è comunque sensibile di cambiamenti) tale rapporto mi sembra sensibilmente a favore di Ati.

DjLode
07-05-2004, 12:35
Date il tempo alle schede di uscire, lasciate passare 2 o 3 release di driver e decidete. Così passa la paura.

sanitarium
07-05-2004, 12:35
Originariamente inviato da Perfectdavid
secondo me sono allo stesso livello ma con un vantaggio attuale per ati (inutile in quanto non esistono giochi in grado di sfruttarlo) e con un vantaggio futuro per nvidia (grazie alla sua architettura,alle features e ai driver)...quindi io sarei per nvidia.

Ci sono già giochi che mettono alle corde le attuali schede di punta, se si attivano filtri a manetta e risoluzioni paurose, non direi proprio che il vantaggio di ATi è inutile, anzi...

DjLode
07-05-2004, 12:39
Si vocifera di una X800 XT PE overclockata a 715mhz:

http://www.tmcnet.com/usubmit/2004/May/1039563.htm

:eek: :eek: :eek: :eek: :eek: :eek:

ballero
07-05-2004, 12:43
Originariamente inviato da DjLode
Si vocifera di una X800 XT PE overclockata a 715mhz:

http://www.tmcnet.com/usubmit/2004/May/1039563.htm

:eek: :eek: :eek: :eek: :eek: :eek:

Avranno fatto un overclock alla Macci
:sofico: ;)

devis
07-05-2004, 12:49
"The RADEON X800 XT Platinum Edition is clearly the weapon of choice for setting graphics speed records," said graphics enthusiast Sami Makinen, who designed, assembled and operated the PC used to set the record graphics scores

Dal nome si presume che sia finlandese; hanno chiamato proprio Macci a fare quei record?:D

fek
07-05-2004, 13:17
Originariamente inviato da ballero
Lo hai scritto tu stesso il perche' :

Se una scheda riuscisse a macinare come niente i PS2.0, allora dovrebbe per forza di cose riuscire a macinare ancora meglio gli shader di versione inferiore. Non credo sia possibile il contrario.


Questo non e' necessariamente vero: ad esempio l'R3X0 gradisce ps2.0 perche' e' ottimizzato per questo paradigma, mentre si limita ad una specie di traduzione al volo delle versioni inferiori, risultando leggermente meno performante in quella situazione.

Per R3X0 si consiglia di usare la versione di ps piu' alta.
Per NV3X la piu' bassa.

sanitarium
07-05-2004, 13:34
Originariamente inviato da fek
Questo non e' necessariamente vero: ad esempio l'R3X0 gradisce ps2.0 perche' e' ottimizzato per questo paradigma, mentre si limita ad una specie di traduzione al volo delle versioni inferiori, risultando leggermente meno performante in quella situazione.

Per R3X0 si consiglia di usare la versione di ps piu' alta.
Per NV3X la piu' bassa.

Grazie del chiarimento, credevo fosse normale che i PS1.1 venissero digeriti meglio dei PS2.0. :)

fek
07-05-2004, 13:44
Originariamente inviato da sanitarium
Grazie del chiarimento, credevo fosse normale che i PS1.1 venissero digeriti meglio dei PS2.0. :)

In effetti sorprese anche me quando ati me lo disse.