PDA

View Full Version : ATI Radeon X800 [Thread ufficiale]


Pagine : 1 2 [3] 4 5 6 7 8

Gioman
04-05-2004, 21:55
Si in effetti in Call of Duty li prende di brutto.
Però non penso che a qualcuno interessi di fare 1500 fps al posto di 100 soprattutto considerando che i titoli OpenGl saranno 1 ogni 10 .

goldorak
04-05-2004, 21:55
Originariamente inviato da luckye
Oh aspettate un'attimo.......

[cut]

L'R420 è fermo a due anni fa sotto questo aspetto.


Forse perche' l'R300 era gia' un chip 2 anni in avanti nel momento in cui fu rilasciato :sofico:
Che bisogno c'e' di modificare un progetto che all'origine non aveva punti deboli :confused:
Nvidia ha fatto delle scelte passando dalla serie Gf4 alla nv3x, scelte non molto felici che l'hanno portata a riprogettare tutto con l'nv40.
Se Nvidia con l'nv30 avesse avuto una architettura vincente non credo che avrebbe riprogettato la serie fx.

sanitarium
04-05-2004, 22:00
Credo che in OpenGL ci fosse qualche problema con i catalyst beta usati nella recensione di hwupgrade, mi sembra che le R420 siano TROPPO lente, anche in confronto alla 9800xt...

http://www.hwupgrade.it/articoli/1013/25.html

Manp
04-05-2004, 22:03
Originariamente inviato da emax81
http://www.hardware4you.sm/nucleus/media/1/20040504-6.jpg

ke dite???

:sofico:

se non è un fake dico che è un passo in avanti storico per farmi piacere la fin qui orrida interfaccia dei Catalyst!!!

sembra addirittura superiore al pannello di controllo nVidia... e soprattutto ha un look che mi piace molto!

:)

PS: la prossima relase dei Catalyst sarà sui 45 mega... :D

Thunder82
04-05-2004, 22:04
Originariamente inviato da emax81
http://www.hardware4you.sm/nucleus/media/1/20040504-6.jpg

ke dite???

:sofico:

Capolavoro :)

Veramente molto bello

Peach1200
04-05-2004, 22:10
Originariamente inviato da Thunder82
Capolavoro :)

Veramente molto bello

Quoto!! ...splendida interfaccia!! :)

Thunder82
04-05-2004, 22:12
Venghino signori venghino! :D

Offerta speciale sul sito ati.com :D

RADEON™ X800 PRO ATI.com Edition includes:

1 RADEON™ X800 PRO Graphics Board
1 Ruby T-Shirt - Size Large
1 RADEON™ X800 Mouse Pad
1 RADEON™ X800 Poster
$449 USD

sanitarium
04-05-2004, 22:16
Originariamente inviato da Thunder82
Venghino signori venghino! :D

Offerta speciale sul sito ati.com :D

RADEON™ X800 PRO ATI.com Edition includes:

1 RADEON™ X800 PRO Graphics Board
1 Ruby T-Shirt - Size Large
1 RADEON™ X800 Mouse Pad
1 RADEON™ X800 Poster
$449 USD

Mi scusi buon'uomo, me ne terrebbe da parte una decina? :sofico:

luckye
04-05-2004, 22:16
Originariamente inviato da goldorak
Forse perche' l'R300 era gia' un chip 2 anni in avanti nel momento in cui fu rilasciato :sofico:
Che bisogno c'e' di modificare un progetto che all'origine non aveva punti deboli :confused:
Nvidia ha fatto delle scelte passando dalla serie Gf4 alla nv3x, scelte non molto felici che l'hanno portata a riprogettare tutto con l'nv40.
Se Nvidia con l'nv30 avesse avuto una architettura vincente non credo che avrebbe riprogettato la serie fx.

Infatti mi aspettavo un'altro chip due anni avanti.......ma forse chiedo troppo da Ati che è stata veramente super anche questa volta :)
Vorra dire che aspetterò le Directx 10......si sa ancora niente ??

P.s però la Fp32 potevano mettercela. (Qualità docet)

Manp
04-05-2004, 22:18
Originariamente inviato da Thunder82
Venghino signori venghino! :D

Offerta speciale sul sito ati.com :D

RADEON™ X800 PRO ATI.com Edition includes:

1 RADEON™ X800 PRO Graphics Board
1 Ruby T-Shirt - Size Large
1 RADEON™ X800 Mouse Pad
1 RADEON™ X800 Poster
$449 USD

ladri... :D :D :D

cmq sia comprare una scheda del genere appena uscita è da pazzi... meglio aspettare che i prezzi calino un po'

:)

JoeLatino
04-05-2004, 22:18
dunque ricapitolando:
Ati + veloce ma niente di particolare per quanto riguarda l'hardware
Nvidia e' piu' programmabile,puo' avere un futuro migliore (visto che ha delle funzioni in piu') ma sopratutto per chi come me usa anche appz grafiche,da quello che ho capito ha dei drivers opengl nettamente migliori,senza contare che di serie dovrebbe avere tv in*out
per contro maggiori consumi e richieste di configurazione (quindi anche maggiori costi)
giusto? o mi sfugge ancora qualcosa?
:D

Manp
04-05-2004, 22:21
Originariamente inviato da R@nda
Scusate eh....siccome anche io mi ero posto la stessa domanda su FarCry e l'FP16 (sulla sua qualità con la 6800) nel thread ufficiale....perchè credevo che la colpa fosse sua,ho fatto la stessa domanda a Yossarian.

Se me lo dice lui,(che la colpa non è della FP16)ci credo....poi vedremo.

che Yossarian abbia toppato? :D è qui da vedere...

NV40 FP16
http://www.hwupgrade.it/articoli/1013/shader_nv40_16_zoom_1.jpg

NV40 FP32
http://www.hwupgrade.it/articoli/1013/shader_nv40_32_zoom_1.jpg

R420 FP24
http://www.hwupgrade.it/articoli/1013/shader_r420_zoom_2.jpg

http://www.hwupgrade.it/articoli/1013/15.html

:)

Raven
04-05-2004, 22:22
Originariamente inviato da Gioman
...soprattutto considerando che i titoli OpenGl saranno 1 ogni 10 .

;)


già... nel bene e nel male il futuro è DX...

Cfranco
04-05-2004, 22:23
Originariamente inviato da ballero
A nessuno interessa sapere se c'è il vpe in r420?:confused: :sofico: :sofico:
Di queste feature si é parlato molto ma si é visto niente
:blah:
Anche l' R300 in teoria doveva avere la decodifica Divx , fino ad adesso però :boh:
Io aspetto di vedere qualcosa di più consistente , per adesso aspetto , visti i prezzi mi toccherebbe vendere un rene ( 450 $$ per la pro cakkio :eek: )

Thunder82
04-05-2004, 22:27
Originariamente inviato da sanitarium
Mi scusi buon'uomo, me ne terrebbe da parte una decina? :sofico:

Certo buon uomo, ma poi non avrei il resto :sofico:

mt_iceman
04-05-2004, 22:27
ragazzi, ancora nessuna notizia o foto delle schede prodotte dai vari partner di ati?

Thunder82
04-05-2004, 22:28
Originariamente inviato da luckye
P.s però la Fp32 potevano mettercela. (Qualità docet)

La differenza di qualità fra fp24 e fp32 è INVISIBILE (uno dovrebbe avere un occhio bionico)

Invece la differenza fra fp16 e fp24 è notevole.

Thunder82
04-05-2004, 22:29
Originariamente inviato da Cfranco

Anche l' R300 in teoria doveva avere la decodifica Divx , fino ad adesso però :boh:


Col player DIVx funziona la decodifica Divx in Hardware

luckye
04-05-2004, 22:30
Originariamente inviato da Thunder82
La differenza di qualità fra fp24 e fp32 è INVISIBILE (uno dovrebbe avere un occhio bionico)

Invece la differenza fra fp16 e fp24 è notevole.

Vabbè ma se il calcolo può essere fatto a 32bit puoi farlo a 24 e 16.......ovviamente 24bit non è uno standard IEEE forse per questo nvidia usa 16 e 32
;)

PSYCOMANTIS
04-05-2004, 22:35
Originariamente inviato da Thunder82
La differenza di qualità fra fp24 e fp32 è INVISIBILE (uno dovrebbe avere un occhio bionico)

Invece la differenza fra fp16 e fp24 è notevole.

Giusto.

Thunder82
04-05-2004, 22:36
Originariamente inviato da luckye
Vabbè ma se il calcolo può essere fatto a 32bit puoi farlo a 24 e 16.......ovviamente 24bit non è uno standard IEEE forse per questo nvidia usa 16 e 32
;)

24bit è lo standard minimo dx9.

16bit non è dx9 (a rigore infatti quando le geforce calcolano a 16bit non stai osservando grafica in dx9), 32bit sì.

Se calcoli in 32bit non è detto che puoi farlo a 24 (nVidia infatti non può)

devis
04-05-2004, 22:44
Originariamente inviato da luckye
Oh aspettate un'attimo.......

Dico che è dai tempi della voodoo1 che si va sempre più veloci.....sempre di più.........sempre più in sù ma alla fine per cosa ?
L'unico cosa che ha un pò cambiato le carte in tavola sono stati i Ps e i Vs che solo adesso (vedi far cry) iniziano a essere usati seriamente.
Non sò......e che mi aspetto da ogni nuova generazione di chip contenga specifiche tecniche sempre più raffinate. L'R420 è fermo a due anni fa sotto questo aspetto.

Perchè il futuro prossimo dice ancora DX9.0, ecco il motivo.

devis
04-05-2004, 22:52
Per la questione prezzi non dimentichiamoci che 256 MB GDDR3 costano un occhio della testa, considerando anche i recenti aumenti dei prezzi delle memorie. Sono sicuro che un eventuale scheda da 128MB costerebbe molto meno.

Vifani
04-05-2004, 22:52
Originariamente inviato da Dark Schneider
Una domanda a Vifani: la Ati Radeon X800 XT Platinum Series è un modello speciale oppure è la X800 XT "classica"? Se ci sarà una classica...il modello classico avrà frequenze inferiori? :)

Che io sappia non è prevista la versione XT classica.... però tutto è possibile. Fino a 10 giorni fa avrei dello lo stesso della 6800 GT.

devis
04-05-2004, 22:55
http://www.ati.com/developer/demos/rx800.html

Guardate il video di ruby, in real-time, ci avviciniamo ai filmati di FF :eek: :eek: :eek:

Vifani
04-05-2004, 22:57
Originariamente inviato da devis
http://www.ati.com/developer/demos/rx800.html

Guardate il video di ruby, in real-time, ci avviciniamo ai filmati di FF :eek: :eek: :eek:

Devi vederlo girare veramente in realtime di persona... è sorprendente, davvero notevole.

Cmq le demo tecnologiche sono tutte belle. Anche quelle di NV40 mi hanno lasciato con il fiato sospeso.

Lord style
04-05-2004, 23:00
Ragazzi, ma come mai in queste condizioni la X800Pro è più veloce di una X800XT? Come può succedere? Non vorrei che fosse un errore di battitura.

http://www.hwupgrade.it/articoli/1013/fc_2.gif

devis
04-05-2004, 23:03
Originariamente inviato da Vifani
Devi vederlo girare veramente in realtime di persona... è sorprendente, davvero notevole.


Posso fare una scappatina da voi a Luino per vederlo girare di persona? :D Certo che è veramente incredibile.

X-ICEMAN
04-05-2004, 23:03
succede che i driver ati devono essere estremamente indietro :D ( pur non facendo casini come quelli nuovi di Nvidia .. ) e che nelle prossime release ci saranno notevoli aumenti nei bench :D



( oppure è un errore di battitura :D )

Thunder82
04-05-2004, 23:07
Originariamente inviato da Lord style
Ragazzi, ma come mai in queste condizioni la X800Pro è più veloce di una X800XT? Come può succedere? Non vorrei che fosse un errore di battitura.

http://www.hwupgrade.it/articoli/1013/fc_2.gif

Imho perchè è una situazione cpu limited, e la differenza rientra nel margine di tolleranza.

fek
04-05-2004, 23:10
Originariamente inviato da PSYCOMANTIS
Giusto.

Sbagliato :)

La differenza fra fp16 e fp24/32 per shader corti e non troppo complessi (tipo uno specular lighting in far cry) e' praticamente inesistente. Fino a shader di 40/50 istruzioni al momento non ho notato differenze.

Secondo me il pixel shader usato in quegli sshot e' un 1.3, la struttura del banding e' tipica dei calcoli interi.

devis
04-05-2004, 23:13
Originariamente inviato da Thunder82
Imho perchè è una situazione cpu limited,

FarCry AA4X AF8X !?


ciao:)

pandyno
04-05-2004, 23:15
Originariamente inviato da Thunder82
Imho perchè è una situazione cpu limited, e la differenza rientra nel margine di tolleranza.

Concordo con te.
Troppi test hanno risultati allineati.

OverClocK79®
04-05-2004, 23:21
Originariamente inviato da JoeLatino
comunque in opengl Ati fa' un po' schifo,o sbaglio?

skifo
parola grossa

ha delle lacune e perde rispetto alla concorrente
ma si sa
OPGL appannaggio nVidia

ma dire skifo è grossa come parola...

bYEZZZZZZZZZZZZZ

Thunder82
04-05-2004, 23:21
Originariamente inviato da devis
FarCry AA4X AF8X !?


ciao:)

Penso di sì, il livello research è quello del secondo demo, tutta la prima parte è all'aperto con una marea di poligoni, molto probabile che la cpu non ce la facesse (anche perchè la cpu usata nel test è un ormai "vecchio" northwood 3.06 col bus 533) :)

TheDarkAngel
04-05-2004, 23:22
Originariamente inviato da Thunder82
Penso di sì, il livello research è quello del secondo demo, tutta la prima parte è all'aperto con una marea di poligoni, molto probabile che la cpu non ce la facesse (anche perchè la cpu usata nel test è un ormai "vecchio" northwood 3.06 col bus 533) :)

infatti... potevano usare sta volta un FX53....
l'altra volta hanno detto che nn facevano in tempo.. e sta volta?
potevano rifare tutti i tests tranquillamente per le geppo

Thunder82
04-05-2004, 23:22
Io cmq vorrei sapere se nella rece di HwUP è stato usato il triple buffering openGL, dato che è disabilitato nei driver di default e attivandolo a me ha portato piacevoli incrementi prestazionali :)

belin
04-05-2004, 23:27
Originariamente inviato da Thunder82
Venghino signori venghino! :D

Offerta speciale sul sito ati.com :D

RADEON™ X800 PRO ATI.com Edition includes:

1 RADEON™ X800 PRO Graphics Board
1 Ruby T-Shirt - Size Large
1 RADEON™ X800 Mouse Pad
1 RADEON™ X800 Poster
$449 USD

............449$............a prima vista sembra tanto (ed effettivamente lo è.....sigh....) xò se pensate che una 9800xt 256mb la vendono a 490€ e una 9800pro Ultimate a 450€......... non è poi così tanto! :cry:

Lord style
04-05-2004, 23:31
Originariamente inviato da fek
Sbagliato :)

La differenza fra fp16 e fp24/32 per shader corti e non troppo complessi (tipo uno specular lighting in far cry) e' praticamente inesistente. Fino a shader di 40/50 istruzioni al momento non ho notato differenze.

Secondo me il pixel shader usato in quegli sshot e' un 1.3, la struttura del banding e' tipica dei calcoli interi.


Interessante la tua considerazione.

Quindi secondo il tuo punto di vista quel degrado di qualità è giustificabile solo con render PS1.3

Nella recensione Hardware Upgrade hanno scritto:


Per analizzare la resa delle schede NV3x e NV40 con gli shader di Far Cry abbiamo effettuato due screenshots, entrambi all'inizio della mappa Volcano. In particolare abbiamo prima utilizzato il percorso di rendering predefinito dal gioco (quello ottimizzato FP16) e successivamente abbiamo forzato quello generico (FP32). Per meglio evidenziare i risultati abbiamo zoomato alcune zone degli screenshots.


Se è stato usato il percorso di rendering predefinito per nv30/nv40, che contiene anche Shader 1st generation e non è un mistero, quei tests fatti sono forvianti ed errati: non si stava solo utilizzando l'FP16 come si lascia intendere, ma si stava utilizzando un "pacchetto" di renderizzazione "performance" attivato di default sulle schede nVidiA.

DeMonViTo
04-05-2004, 23:36
raga ho letto tutte le 14 pagine... che dire...


WOW!

Voglio vedere il filmato di ruby in tempo reale :(


Vifani mi presti la skeda? :sofico:


okok... aspetto qualche tools per farlo girare sulla 9600xt :eek:

devis
04-05-2004, 23:54
Originariamente inviato da Thunder82
Penso di sì, il livello research è quello del secondo demo, tutta la prima parte è all'aperto con una marea di poligoni, molto probabile che la cpu non ce la facesse (anche perchè la cpu usata nel test è un ormai "vecchio" northwood 3.06 col bus 533) :)

Effettivamente...
:D

http://www.xbitlabs.com/images/video/r420-2/farcry_1024_candy.gif


Athlon 64 3400+ CPU (2.20GHz, 1MB L1 cache);
ASUS K8V Deluxe mainboard;
OCZ PC-3200 Platinum EB DDR SDRAM (2x512MB, CL2.5-3-2-8);

Tutt'altra musica con anche gli altri test, qui la X800 le suona alle 6800.

http://www.xbitlabs.com/articles/video/display/r420-2.html

ATi7500
04-05-2004, 23:57
Originariamente inviato da devis
Effettivamente...
:D

http://www.xbitlabs.com/images/video/r420-2/farcry_1024_candy.gif


Athlon 64 3400+ CPU (2.20GHz, 1MB L1 cache);
ASUS K8V Deluxe mainboard;
OCZ PC-3200 Platinum EB DDR SDRAM (2x512MB, CL2.5-3-2-8);

:eek: un vantaggio impressionante...


bYeZ!

devis
05-05-2004, 00:00
http://www.xbitlabs.com/images/video/r420-2/pkiller_1024_candy.gif


:eek:

Dragon2002
05-05-2004, 00:00
La cosa che più mi ha colpito della x800xt e che ati nn ha cambiato una virgola rispetto a R300 ed è riuscita rimanere avanti a Nvidia,diciamo che più che spendere soldi nella progettazione e nell'innovazione reale della scheda,hanno ottimizzato il processo produttivo ed incredibile come una scheda che esca due anni dopo che abbia quasi il doppio dei transistor e il doppio delle pipeline sia più piccola rispetto alla 9800pro e riesca a fare cio che nessuno nel mondo dei pc era mai riuscito a fare prima cioè far uscire un prodotto che consumi meno rispetto al precedente,mentre Nvidia e costretta a piazzare sulla scheda due connettori di alimentazione supplementare e la solita turbina anche se in tono minore rispetto all'Nv30 e Ati adirittura si permette di nn raffredare minimamente le memorie e di mettere un dissy più piccolo rispetto alla 9800xt,insomma più che progettare una scheda video secondo me hanno completamente saltato una generazione concentrandosi sui consumi e sul processo produttivo e sulla grandezza della scheda video.Hanno pensato perchè invece di metterci li a progettare una nuova scheda nn pensiamo a ottimizare il processo produttivo,cosi tutto questo lavoro di ottimizazzione gli servira per la prossima scheda e cioè l'R500e visto che il sistema per farlgi consumare meno watt e per farla stare in dimensioni standard è stato gia trovato nella prossima generazione potranno finalmente progettare una nuova scheda con vere innovazioni che nn siano solo qualche mhz in più e il doppio della pipeline,insomma nn solo più potenza ma qualcosa di veramente nuovo.

sanitarium
05-05-2004, 00:02
Originariamente inviato da devis
http://www.xbitlabs.com/images/video/r420-2/pkiller_1024_candy.gif


:eek:

Painkiller --> the way it's meant to be played... :rotfl:

Thunder82
05-05-2004, 00:04
Originariamente inviato da devis
http://www.xbitlabs.com/images/video/r420-2/pkiller_1024_candy.gif


:eek:

:eek:

Ma cosa vuol dire "opts. off"? :eek: Con quella roba va come la 9800 XT :eek:

Cmq la potenza dell' A64 3400+ è sbalorditiva, guarda cosa riesce a tirare fuori con Far Cry dalla X800XT :eek:

Lord style
05-05-2004, 00:05
Dragon2002, qualche punto in più potevi metterlo nel tuo discorso, anche random, per farci respirare ogni tanto :sofico:

Lord style
05-05-2004, 00:07
Nulla da dire sui dubbi di attendibilità dei tests FP16 ed FP32 che ho sollevato ?

Thunder82
05-05-2004, 00:10
Originariamente inviato da devis
http://www.xbitlabs.com/images/video/r420-2/pkiller_1024_candy.gif


:eek:

Ho letto, opts. off significa che hanno disabilitato le "trilinear filtering optimizations", facendo andare la scheda con un normale trilinear e non con un "quasi bilinear" :eek:

La 6800 si spezza in due senza le optimizations sul trilinear :eek: :confused:

Hanamichi
05-05-2004, 00:11
Originariamente inviato da Thunder82
Ho letto, opts. off significa che hanno disabilitato le "trilinear filtering optimizations", facendo andare la scheda con un normale trilinear e non con un "quasi bilinear" :eek:

La 6800 si spezza in due senza le optimizations sul trilinear :eek: :confused:
devo dire che la ati ha fatto come al solito il suo ottimo lavoro :cool:

devis
05-05-2004, 00:11
http://www.xbitlabs.com/images/video/r420-2/rally_1024_candy.gif


:eek:

X Thunder

If we disable the optimizations of trilinear-filtering from NVIDIA’s control panel, the NV40 product will lose the battle against the RADEON X800 XT technology. We should bear in mind that graphics cards based on ATI’s chips also have quite some optimizations of trilinear filtering that cannot be disabled; for instance, when both anisotropic and trilinear filtering modes are turned on, the trilinear filtering will only be present on the first texture layer.

Hanamichi
05-05-2004, 00:12
Originariamente inviato da devis
http://www.xbitlabs.com/images/video/r420-2/rally_1024_candy.gif


:eek:

X Thunder

If we disable the optimizations of trilinear-filtering from NVIDIA’s control panel, the NV40 product will lose the battle against the RADEON X800 XT technology. We should bear in mind that graphics cards based on ATI’s chips also have quite some optimizations of trilinear filtering that cannot be disabled; for instance, when both anisotropic and trilinear filtering modes are turned on, the trilinear filtering will only be present on the first texture layer.
come al solito la nvidia ha bisogno sempre di ottimizzazioni personali per andare decentemente!:rolleyes:

Thunder82
05-05-2004, 00:16
Originariamente inviato da Hanamichi
come al solito la nvidia ha bisogno sempre di ottimizzazioni personali per andare decentemente!:rolleyes:

Anche la ATi ha le sue bravi ottimizzazioni x il trilinear cmq... ad esempio lei applica il trilinear solo al primo stage di texture, e agli altri il bilinear. Non so nVidia come applichi le sue ottimizzazioni (anche se la qualità ottimizzata nVidia, vedendo l'AF tester, mi pare un po' più estremizzata verso il bilinear rispetto a ATI), cmq è impressionante vedere quanto perde una scheda come la 6800 per un semplice full trilinear :eek:

belin
05-05-2004, 00:18
................:eek: :eek: :eek: .......................questi grafici di PainKiller e Colin Rally 4 mi lasciano senza parole. disabilitando il trilinear la 6800 si scioglie come neve al sole................mah.............:eek: :confused: :confused: :confused:

sanitarium
05-05-2004, 00:18
Originariamente inviato da Thunder82
Anche la ATi ha le sue bravi ottimizzazioni x il trilinear cmq... ad esempio lei applica il trilinear solo al primo stage di texture, e agli altri il bilinear. Non so nVidia come applichi le sue ottimizzazioni (anche se la qualità ottimizzata nVidia, vedendo l'AF tester, mi pare un po' più estremizzata verso il bilinear rispetto a ATI), cmq è impressionante vedere quanto perde una scheda come la 6800 per un semplice full trilinear :eek:

Oltretutto anche considerando il numero di fps generati dalla 6800ultra conl'ottimizzazione del filtro trilineare attiva, la X800XT la stacca di brutto a giudicare da quei grafici... :O

belin
05-05-2004, 00:21
...i test sono stati fatti con Athlon64 quindi mi aspettavo un ottimo risultato con le X800XT..........ma così tanto.........è sbalorditivo...........:D :eek:

Thunder82
05-05-2004, 00:22
http://www.xbitlabs.com/images/video/r420-2/tron_1600_candy.gif

:sbavvv:

L'A64 3400+ sta tirando fuori la bestia che c'è nella X800 :eek:

Thunder82
05-05-2004, 00:24
Half life 2

http://www.xbitlabs.com/images/video/r420-2/dx1ud_1600_pure.gif

sanitarium
05-05-2004, 00:24
Originariamente inviato da Thunder82
http://www.xbitlabs.com/images/video/r420-2/tron_1600_candy.gif

:sbavvv:

L'A64 3400+ sta tirando fuori la bestia che c'è nella X800 :eek:

Insomma montanto la scheda su un bestione come un A64 3400+ la X800 sprigiona tutto il suo potenziale, mentre un 3,06GHz la limita di brutto! :eekk:

Thunder82
05-05-2004, 00:26
Stalker, a 1600x1200 AA4x/AF16x :eek: :cry:

http://www.xbitlabs.com/images/video/r420-2/dx2danger_1600_candy.gif

Thunder82
05-05-2004, 00:30
http://www.xbitlabs.com/images/video/r420-2/farcry_1600_candy.gif

This is FarCry with the highest settings possible. This is 1600x1200 resolution with 4x full-scene antialiasing and 16x anisotropic filtering activated. This is the RADEON X800. And this is absolutely playable. No comments are required for 85% performance improvement over the competing GeForce 6800 Ultra.

Azz sembra la telecronaca di un incontro di Boxe :eek: :D

La cosa comincia a farsi imbarazzante

belin
05-05-2004, 00:30
http://www.xbitlabs.com/images/video/r420-2/rally_1024_candy.gif

..................154....................sto già male............:eekk:
...in alcuni test dello stesso articolo bisogna xò dire che le 6800 si difendono bene...ma anche la X800pro si comporta alla grande. ...ok...prossimo acquisto Athlon64, poi X800.....;)

devis
05-05-2004, 00:30
Mi vendo il P4. A64, arrivo! :D

pandyno
05-05-2004, 00:33
E secondo me c' è qualche altra cosa di margine... ;)

Ma chi la vuole la XT? :D la PRO rulla che è un piacere coi filtri :D

Thunder82
05-05-2004, 00:34
Originariamente inviato da pandyno
E secondo me c' è qualche altra cosa di margine... ;)

Ma chi la vuole la XT? :D la PRO rulla che è un piacere coi filtri :D

E' vero, la cosa più impressionante è che coi filtri la GeForce si "siede" (senza filtri è molte volte la più veloce), mentre le X800... :eek: mi viene da piangere :eek: :cry: :D

belin
05-05-2004, 00:35
Originariamente inviato da pandyno
E secondo me c' è qualche altra cosa di margine... ;)

Ma chi la vuole la XT? :D la PRO rulla che è un piacere coi filtri :D

...quoto alla grandissima! prima o poi prenderò la X800pro (anche x questioni di prezzo!) xè va moooooooooooolto beneeeeeeeeeeee! e con i futuri driver potrà dare, secondo me, ancora di più...!

belin
05-05-2004, 00:39
http://www.xbitlabs.com/images/video/r420-2/3dm4_1600_candy.gif

...game4...cioè il Mother Nature...a 1600x1200 coi filtri...la mia 9600xt scappa a nascondersi...la 9800xt piange...le 6800 camminano..........................le X800.................no comment!!! :eek: :eek: :eek:

JENA PLISSKEN
05-05-2004, 00:40
Originariamente inviato da Thunder82
http://www.xbitlabs.com/images/video/r420-2/farcry_1600_candy.gif

This is FarCry with the highest settings possible. This is 1600x1200 resolution with 4x full-scene antialiasing and 16x anisotropic filtering activated. This is the RADEON X800. And this is absolutely playable. No comments are required for 85% performance improvement over the competing GeForce 6800 Ultra.

Azz sembra la telecronaca di un incontro di Boxe :eek: :D

La cosa comincia a farsi imbarazzante

ADDIRITTURA @ 1600x 1200:eek: :eek:tenendo presente che sicuramente Nn sarà con Taa...quindi dovrebbe essere ancora + fluido:eekk: :eekk: :eekk: :eekk: :eekk:


A questo punto una pro da straoc sarebbe interessante in fin dei conti le 9600 salivano parecchio:D ...poi magari se ci scappano le 4 pipe in +:oink: :oink:

ATi7500
05-05-2004, 00:41
Originariamente inviato da belin
http://www.xbitlabs.com/images/video/r420-2/3dm4_1600_candy.gif

...game4...cioè il Mother Nature...a 1600x1200 coi filtri...la mia 9600xt scappa a nascondersi...la 9800xt piange...le 6800 camminano..........................le X800.................no comment!!! :eek: :eek: :eek:

cioè è arrivato davvero l'impensabile, giocare a 1600*1200 con filtri attivati
il ke ok nn serve a un cazzo, ma da idea d ke potenzialità d calcolo abbiano questi mostri :eek:


bYeZ!

JENA PLISSKEN
05-05-2004, 00:43
Originariamente inviato da ATi7500
cioè è arrivato davvero l'impensabile, giocare a 1600*1200 con filtri attivati
il ke ok nn serve a un cazzo, ma da idea d ke potenzialità d calcolo abbiano questi mostri :eek:


bYeZ!

Ripeto...e quello sicuramente NN è ilil Taa:asd: :asd: :asd: :asd:

devis
05-05-2004, 00:43
Prossimo dream machine

A64 3700+ SKT939 + Dual Channel DDR unbuffered
Radeon XT800XT

http://www.vocinelweb.it/faccine/fattedanoi/donia/48.gif

belin
05-05-2004, 00:44
...ragazzi ma ci rendiamo conto?!?!? ...game4 di 3dmark03 e FarCry a 1600*1200 coi filtri al max..........la X800 mi fa 40 e 51 fps.......................ok...........è ufficiale...............sto male. :sbavvv:

ATi7500
05-05-2004, 00:44
ragazzuoli però frenate un po, c'è da sottolineare anke qst...

Drivers: NVIDIA ForceWare 60.72, ATI CATALYST BETA 6.14.10.6444.

:rolleyes:


bYeZ!

Thunder82
05-05-2004, 00:45
La cosa comincia a diventare scandalosa :D

http://www.xbitlabs.com/images/video/r420-2/aquamark_1600_candy.gif

ATi7500
05-05-2004, 00:45
Originariamente inviato da JENA PLISSKEN
Ripeto...e quello sicuramente NN è ilil Taa:asd: :asd: :asd: :asd:

ora ke m c fai pensare....




























:oink: :read: :yeah: :sbavvv: :sbavvv: :sbavvv:


bYeZ!

JENA PLISSKEN
05-05-2004, 00:47
Cioè...scusate...in pratica è bstato testarla con un Athlon64 x liberare tutta la sua viulenza...ciò è molto impressionante....e tutto questo con un R3xx ipervitaminizzato:sofico: :sofico: ....altro che Ps e Vs3.0....queste son cose serie:D

belin
05-05-2004, 00:47
Originariamente inviato da ATi7500
ragazzuoli però frenate un po, c'è da sottolineare anke qst...

Drivers: NVIDIA ForceWare 60.72, ATI CATALYST BETA 6.14.10.6444.

:rolleyes:


bYeZ!

.............si appunto............coi Catalyst finiti le X800 rischiano di fare ancora meglio!!! :D :asd:

JENA PLISSKEN
05-05-2004, 00:48
Originariamente inviato da ATi7500
ora ke m c fai pensare....


:oink: :read: :yeah: :sbavvv: :sbavvv: :sbavvv:


bYeZ!

Cmq 2° voi la PRO salirà parecchio?? ripeto le 9600 salivano un casino
:D

JENA PLISSKEN
05-05-2004, 00:49
Originariamente inviato da belin
.............si appunto............coi Catalyst finiti le X800 rischiano di fare ancora meglio!!! :D :asd:

Ma già lo fanno col Taa:D ...hai letto l' entusiasmo della redazione nel testarlo???:oink: :oink:

ATi7500
05-05-2004, 00:49
Originariamente inviato da belin
.............si appunto............coi Catalyst finiti le X800 rischiano di fare ancora meglio!!! :D :asd:

no beh, a sto punto dovevano usare pure i 61.11 d nvidia...


bYeZ!

pandyno
05-05-2004, 00:50
Originariamente inviato da JENA PLISSKEN
Cioè...scusate...in pratica è bstato testarla con un Athlon64 x liberare tutta la sua viulenza...ciò è molto impressionante....e tutto questo con un R3xx ipervitaminizzato:sofico: :sofico: ....altro che Ps e Vs3.0....queste son cose serie:D

Ti diro', volevo scriverlo nel 3d che ha aperto Paolo che secondo me il sistema non era sufficientemente performante...

Mi sembrava di essere il solito rompicazzi ed ho lasciato perdere :D

Vabbè meglio cosi' ;)

ATi7500
05-05-2004, 00:51
Originariamente inviato da JENA PLISSKEN
Cmq 2° voi la PRO salirà parecchio?? ripeto le 9600 salivano un casino
:D

bhe le 9600 avevano 4 pipe...qui ce ne sono 12

cmq io nn vedo l'ora d vedere i test della x800se...qll è la mia fascia d prezzo...


bYeZ!

belin
05-05-2004, 00:51
Originariamente inviato da JENA PLISSKEN
Ma già lo fanno col Taa:D ...hai letto l' entusiasmo della redazione nel testarlo???:oink: :oink:

...più che letto...l'ho studiato a memoria...!!! :D

devis
05-05-2004, 00:52
Originariamente inviato da belin
.............si appunto............coi Catalyst finiti le X800 rischiano di fare ancora meglio!!! :D :asd:

Forse si riferiva al fatto che hanno utilizzato i vecchi detonator .
In ogni caso le prestazioni assolute sono incredibili :eek:

Thunder82
05-05-2004, 00:52
Originariamente inviato da JENA PLISSKEN
Cmq 2° voi la PRO salirà parecchio?? ripeto le 9600 salivano un casino
:D

Sì secondo me sale molto :)

La X800XT con 16 pipe è arrivata a 555MHz tranquilla col dissi originale, immagina dove andrà una PRO con 4 pipe in meno (e che quindi non scaldano e non ciucciano corrente)

JENA PLISSKEN
05-05-2004, 00:52
Originariamente inviato da pandyno
Ti diro', volevo scriverlo nel 3d che ha aperto Paolo che secondo me il sistema non era sufficientemente performante...

Mi sembrava di essere il solito rompicazzi ed ho lasciato perdere :D

Vabbè meglio cosi' ;)

Il bello è vedere che col 64 la 800 esplode...mentre la 6800 rsta ferma al palo...all' ATI hanno fatto un ottimo lavoro...certo con qualche cosina in + ( inutilissima x ora) sarebbe stata anche + longeva;)

JENA PLISSKEN
05-05-2004, 00:53
Originariamente inviato da Thunder82
Sì secondo me sale molto :)

La X800XT con 16 pipe è arrivata a 555MHz tranquilla col dissi originale, immagina dove andrà una PRO con 4 pipe in meno (e che quindi non scaldano e non ciucciano corrente)

Quindi potrebbe anche eguagliarla in prestazioni....sopperendo alle 4pipe in meno con una > frequenza:oink:

Thunder82
05-05-2004, 00:54
Resta cmq il fatto che la 6800 nei giochi con molte stencil shadow potrebbero essere avvantaggiate, in quanto sono in grado di calcolare ben 32 valori Z per clock contro i 16 della X800XT.

ATi7500
05-05-2004, 00:55
Originariamente inviato da JENA PLISSKEN
Il bello è vedere che col 64 la 800 esplode...mentre la 6800 rsta ferma al palo...all' ATI hanno fatto un ottimo lavoro...certo con qualche cosina in + ( inutilissima x ora) sarebbe stata anche + longeva;)

ma cosa vuoi da ATi, il sangue?? :eek: :asd:


bYeZ!

Thunder82
05-05-2004, 00:56
Originariamente inviato da JENA PLISSKEN
Quindi potrebbe anche eguagliarla in prestazioni....sopperendo alle 4pipe in meno con una > frequenza:oink:

Dubito, per eguagliare una XT @ 550MHz dovresti portare la PRO a 733MHz, e la vedo molto dura a meno di vmod e liquido :D

belin
05-05-2004, 00:56
Originariamente inviato da JENA PLISSKEN
Quindi potrebbe anche eguagliarla in prestazioni....sopperendo alle 4pipe in meno con una > frequenza:oink:

...eguagliarla non penso...avvicinarla sì. 16 pipe fanno la differenza.

JENA PLISSKEN
05-05-2004, 00:56
Originariamente inviato da Thunder82
Resta cmq il fatto che la 6800 nei giochi con molte stencil shadow potrebbero essere avvantaggiate, in quanto sono in grado di calcolare ben 32 valori Z per clock contro i 16 della X800XT.


Mah...alla fine è un terno al LOTTO...ci penserò dopo l' estate:asd: :asd:

GURU
05-05-2004, 00:58
Dopo aver letto la rece qua su Hw...seppure ottima...ero rimasto un pochetto deluso...soprattutto dalla X800Pro...che probabilmente a causa del sistema non potentissimo...non tirava fuori tutto il suo potenziale!

Ora mi sto leggendo quella di x-bitlabs...e devo dire che con un sistema che pompa....le Ati vanno parecchio...e poco male se nelle schermate delle prove senza viltri le Gef vanno di più...ormai gente che come me ha la Gef4 ha qualche ragione per non usare i filtri...ma già un mio amico con una 9800Pro li usa sempre...e devo dire a ragione!

Io con il mio monitorino (pagato uno sbotto nel 2000) philips da 17 pollici che regge i 100 Hz a 1024x768 e gli 85 a 1280x960 non posso salire più di tanto in risoluzione..se voglio mantenere un refresh alto...(già a 1280x1024 che cme nn è il classico formato 4:3 devo calare a 75...)
e quindi stavo pensando che la soluzione ideale per me sarebbe una X800Pro...che debitamente settata a 1024 con i filtri a palla fa la sua porca figura contro i 2 modelli di punta...

Si...si...direi proprio che Ati ha centrato l'obiettivo!

Francamente non vedo l'utilità di grosse prestazioni senza filtri...a meno che nn si possiedano monitor da mezza parete e allora uno gioca a 1600...io ho sempre preferito refresh alti...quindi ben venga un 1024 con AA a 4X....e vi assicuro che su un 17 pollici è come guardare una foto!

ATi7500
05-05-2004, 00:59
Originariamente inviato da devis
Effettivamente...
:D

http://www.xbitlabs.com/images/video/r420-2/farcry_1024_candy.gif


Athlon 64 3400+ CPU (2.20GHz, 1MB L1 cache);
ASUS K8V Deluxe mainboard;
OCZ PC-3200 Platinum EB DDR SDRAM (2x512MB, CL2.5-3-2-8);

Tutt'altra musica con anche gli altri test, qui la X800 le suona alle 6800.

http://www.xbitlabs.com/articles/video/display/r420-2.html

raga, e ricordiamoci ke qui la qualità della 6800 è quella ke è cioè una merd@ :D :asd:


bYeZ!

belin
05-05-2004, 01:00
...secondo voi la X800se avrà 12 pipe? in che cosa sarà castrata? io avevo letto che avrà 8 pipe e memorie a 128bit.......8 pipe mi sembrano poche.......secondo voi? voci dal profondo web?!?!

...ops...senior member...che onore...!!! :D

GURU
05-05-2004, 01:10
Mah..senti...8 pippe non sarebbero pochissime...il punto è l'interfaccia memoria a 128 bit...quella si che è limitante...la farà andare sicuramente meno di una 9800Pro...e questo è un peccato...perkè se Ati offrisse una gamma con un 16 - 12 - 8 pippe tutte col bus a 256 sarebbe veramente tanta roba...userebbe lo stesso layout della scheda...e festa finita!

Ma forse nn si può avere tutto...

belin
05-05-2004, 01:18
...concordo che sono meglio 8 pipe con mem a 256bit che 12 pipe con mem a 128bit......xò se la X800se avrà 8 pipe sarà un peccato...la sua potenza sarà equivalente a quella delle 9800xt. spero che la producano almeno con le mem a 256bit...!

GURU
05-05-2004, 01:19
Ah...e cmq mesi fa dissi...andando controcorrente e non poco che sebbene il cambio di nome solitamente portasse ad un nuovo progetto...R420 secondo me era un R300 iperpompato!

Ed alla fine ho avuto ragione...
anche perkè non c'era motivo di abbandonare un'architettura così indovinata e così competitiva per un salto nel vuoto...quando con poco si poteva migliorare fino a livelli impensabili (il doppio) quel che di buono già c'era...

Brava Ati che ha tirato fuori un prodotto sfruttabile ADESSO e che soprattutto renderà inutili i test senza AA...

Thunder82
05-05-2004, 01:26
Originariamente inviato da belin
...concordo che sono meglio 8 pipe con mem a 256bit che 12 pipe con mem a 128bit......xò se la X800se avrà 8 pipe sarà un peccato...la sua potenza sarà equivalente a quella delle 9800xt. spero che la producano almeno con le mem a 256bit...!

Ti farebbe schifo la potenza di una 9800XT a 200€? :p

pandyno
05-05-2004, 01:27
http://mark0.ngi.it/var/fartcry.jpg



http://www.chip.de/news/c_news_11844422.html

DeMonViTo
05-05-2004, 01:30
Aspetto di vedere il test di far cry con i pikki massimi e minimi per vedere se e' realmente giocabile...


cya

JENA PLISSKEN
05-05-2004, 01:30
Originariamente inviato da pandyno
http://mark0.ngi.it/var/fartcry.jpg



http://www.chip.de/news/c_news_11844422.html


Ah...beh:D

pandyno
05-05-2004, 01:32
Originariamente inviato da JENA PLISSKEN
Ah...beh:D

Rinominando l' exe quelli sono i risultati

vado a nanna
ciaoz

Thunder82
05-05-2004, 01:33
Originariamente inviato da pandyno
http://mark0.ngi.it/var/fartcry.jpg



http://www.chip.de/news/c_news_11844422.html

Questo bench mi pare un po' strano, come mai tutta quella differenza fra la 6800 ultra e la extreme? :confused:

Thunder82
05-05-2004, 01:35
Originariamente inviato da pandyno
Rinominando l' exe quelli sono i risultati

vado a nanna
ciaoz

All'orizzonte un nuovo evento quack.exe a parti invertite? :D

Thunder82
05-05-2004, 01:37
"If one designates however the file "FarCry.EXE" for example in "FartCry.EXE" over, the result of the bench mark in the resolutions of 1.024 x 768, 1,280 x 1,024 and 1,600 x of 1,200 pixels worsens around in each case 10 frames per second (!)"

Certo che potevano rinominarlo in un altro modo, FartCry suona come "pianto delle flatulenze" :D :rotfl:

JENA PLISSKEN
05-05-2004, 01:40
Originariamente inviato da Thunder82
"If one designates however the file "FarCry.EXE" for example in "FartCry.EXE" over, the result of the bench mark in the resolutions of 1.024 x 768, 1,280 x 1,024 and 1,600 x of 1,200 pixels worsens around in each case 10 frames per second (!)"

Certo che potevano rinominarlo in un altro modo, FartCry suona come "pianto delle flatulenze" :D :rotfl:


:asd: :asd: :asd: oppure pianto flatulente

Dark Schneider
05-05-2004, 01:42
Originariamente inviato da ATi7500
no beh, a sto punto dovevano usare pure i 61.11 d nvidia...


bYeZ!


In effetti non ho capito come al contrario di tutti o quasi tutti gli altri non son stati usati i più performanti 61.11 per le 6800...:rolleyes:

JENA PLISSKEN
05-05-2004, 01:45
Originariamente inviato da pandyno
Rinominando l' exe quelli sono i risultati

vado a nanna
ciaoz

TRISTEZZA...dARK...Nn mi apre che questi fnatomatici 6111 apportino chissàcchè;)

andreamarra
05-05-2004, 01:47
Originariamente inviato da Thunder82
All'orizzonte un nuovo evento quack.exe a parti invertite? :D

Guarda, non ci voglio pensare minimamente. Passi una volta che lo fa ati, passi pure una volta che lo fa nvidia... ma se nvidia insiste guarda che è da psicodramma!


No, non ci voglio credere... stavo quasi per cambiare opinione sulla nvidia...


Aspetto come al solito.

JENA PLISSKEN
05-05-2004, 01:51
Originariamente inviato da andreamarra
Guarda, non ci voglio pensare minimamente. Passi una volta che lo fa ati, passi pure una volta che lo fa nvidia... ma se nvidia insiste guarda che è da psicodramma!


No, non ci voglio credere... stavo quasi per cambiare opinione sulla nvidia...


Aspetto come al solito.

ancora apostare?? E basta:sofico::coffee: :coffee: :coffee:

andreamarra
05-05-2004, 01:53
Per dovere di cronaca è ancora mistero fitto su le texture fetch e sul GI nel r420

Stando a feck la loro mancanza sarebbe una grossa limitazione, però persone molto in alto (sotto dio, però... e non sono san pietro... :asd: ) gli hanno spergiurato dell'esistenza di tali unità nel R420.

Aspettiamo...

JENA PLISSKEN
05-05-2004, 01:54
Originariamente inviato da andreamarra
Per dovere di cronaca è ancora mistero fitto su le texture fetch e sul GI nel r420

Stando a feck la loro mancanza sarebbe una grossa limitazione, però persone molto in alto (sotto dio, però... e non sono san pietro... :asd: ) gli hanno spergiurato dell'esistenza di tali unità nel R420.

Aspettiamo...

Ma come Nn si era certi della loro presenza???:confused: :confused:

Thunder82
05-05-2004, 01:54
Imho cambiando il nome di FarCry viene semplicemente eseguito in fp32 senza sostituzione di shader 2.0 con shader 1.x, come è giusto che sia.

Dark Schneider
05-05-2004, 01:56
Originariamente inviato da JENA PLISSKEN
TRISTEZZA...dARK...Nn mi apre che questi fnatomatici 6111 apportino chissàcchè;)


Dici? Anche qui è stato testato su un Athlon 64!! I risultati con i 61.11 sono cmq un bel po' meglio rispetto ai 60.70(o quello che era).

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page4.asp




A proposito..deluso te,eh?:D Nel senso penso sei contento che Ati ti ha dato il Temporal AA...ma che poi per te è un motivo in meno per comprare R420: la qualità è uguale alla 9700, il Temporal AA ce l'ha pure la tua 9700, l'AF è rimasto invariato...niente Full che chiedevi....insomma tieniti ben stretto la 9700 che è meglio!! :) Alla fine se volevi un miglioramento con i filtri non l'hai ottenuto. Tieniti la 9700 e lascia stare sta generazione.

JENA PLISSKEN
05-05-2004, 01:57
Originariamente inviato da Dark Schneider
Dici? Anche qui è stato testato su un Athlon 64!! I risultati con i 61.11 sono cmq un bel po' meglio rispetto ai 60.70(o quello che era).

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page4.asp




A proposito..deluso te,eh?:D Nel senso penso sei contento che Ati ti ha dato il Temporal AA...ma che poi per te è un motivo in meno per comprare R420: la qualità è uguale alla 9700, il Temporal AA ce l'ha pure la tua 9700, l'AF è rimasto invariato...niente Full che chiedevi....insomma tieniti ben stretto la 9700 che è meglio!! :) Alla fine se volevi un miglioramento con i filtri non l'hai ottenuto. Tieniti la 9700 e lascia stare sta generazione.


Alla fine...farò così...al max ci ripenso dopo l' estate...ma a quel punto voglio il PCIx;)

Tanto DOOm3 Nn esce:sofico:

andreamarra
05-05-2004, 01:59
Originariamente inviato da JENA PLISSKEN
Ma come Nn si era certi della loro presenza???:confused: :confused:

Fek dice che più fonti della ati glielo confermano e giurano.
Aspettiamo...


dice che potrebbe essere un problema di driver ancora in fase beta che non consentono attualmente l'uso di ps 3.0, ma non di livello hardware.

JENA PLISSKEN
05-05-2004, 02:02
Originariamente inviato da andreamarra
Fek dice che più fonti della ati glielo confermano e giurano.
Aspettiamo...

OK:ronf: :ronf: :ronf:

Dark Schneider
05-05-2004, 02:02
Originariamente inviato da JENA PLISSKEN
Alla fine...farò così...al max ci ripenso dopo l' estate...ma a quel punto voglio il PCIx;)

Tanto DOOm3 Nn esce:sofico:


Ma se vuoi un mio consiglio: tieniti la 9700. Poi al limiti la cambi quando queste schede avranno prezzi molto molto bassi.
Tanto alla fine non penso che giochi meno di 1024,no? ;)

Anche se poi a te che vieni dalla 9700..sinceramente davvero è meglio che ti ricompri la scheda quando ci sarà Pci Express. Cioè perchè sennò è inutile. Io dico aspetta!! :)

Thunder82
05-05-2004, 02:04
Originariamente inviato da andreamarra
Fek dice che più fonti della ati glielo confermano e giurano.
Aspettiamo...


dice che potrebbe essere un problema di driver ancora in fase beta che non consentono attualmente l'uso di ps 3.0, ma non di livello hardware.

Può darsi che sia una limitazione imposta dai driver, anche le geffo hanno disabilitato da driver qualcosa sui pixel shader 2.0 che riguarda le texture (non mi ricordo cosa), infatti per quello non eseguono tutti i test di shadermark 2.0. Li hanno disabilitati perchè tanto per adesso nessun gioco le usa.

Dark Schneider
05-05-2004, 02:05
Ah riguardo Doom 3......io spero che prox settimana all'E3 si sappia qlc di davvero CONCRETO!:D

Alla fine 2 anni fa all'E3 il demo famoso.
Un anno fa all'E3 il trailers ufficiale.
E' quest'anno? Sennò prendo NV40 e lo uso per segare le braccine di Carmack!!:sofico:

Dark Schneider
05-05-2004, 02:07
Buona Notte ragà..ci si sente domani sera!!!:ronf:

Thunder82
05-05-2004, 02:07
Originariamente inviato da Dark Schneider
Ma se vuoi un mio consiglio: tieniti la 9700. Poi al limiti la cambi quando queste schede avranno prezzi molto molto bassi.
Tanto alla fine non penso che giochi meno di 1024,no? ;)

Anche se poi a te che vieni dalla 9700..sinceramente davvero è meglio che ti ricompri la scheda quando ci sarà Pci Express. Cioè perchè sennò è inutile. Io dico aspetta!! :)

Anche io mi sa che sta generazione la salto e rifaccio il pc nuovo con PCI-express, socket 939, DDR2 e R500. Imho fra un annetto ci sarà sta roba, e penso che la 9600xt ben clockata non dia particolari problemi in dx9 (@ 615MHz ha quasi la stessa potenza di una 9800 in fondo...) :)

rubex
05-05-2004, 03:05
A mente fredda,senza i primi entusiami penso:

Ste schede sono mostri cmq,ma le nostre 9700/9800 a 1024 con aa4x ed af8/16x ci permettono di giocare a tutto senza prob,mika fanno 20/30 fps,poi ati con il TAA l'ha sparata davvero bella,imho aspetto le pci express x cominciare a pensare di cambiare.
Ah non dimentichiamoci che le prime revision salgono meno in OC di quelle future e possono avere "difettucci" che le revision successive corregono,senza contare che scenderanno anche di prezzo con il passare del tempo.
Ero intenzionato a cambiare appena disponibile la 800xt,ma mi sa' che aspettero'.

BYe

ATi7500
05-05-2004, 03:52
direttamente dal sito ati:

RadeonX800Pro/XT
------------------------
Operating System Support:
Windows® XP (Home or Pro)
Windows® 2000 with Service Pack 1 (or later)
Windows® Media Center Edition


win98/me quindi NON sono supportati (era anke ora direi)


bYeZ!

nirvanboy81
05-05-2004, 07:08
Questa da MSI:

http://www.msicomputer.com/pressrelease/rx800.asp

A partire da Giugno 2004..

nirvanboy81
05-05-2004, 07:17
http://www.tul.com.tw/webmaster/product/images/196_1.gif

-* Pisquano *-
05-05-2004, 07:35
Ciao ragazzi, è da un po di tempo che non leggo niente sul Forum, per via del lavoro, oggi ho visto la presentazione della Radeon R420, ma non ho ancora potuto leggere a fondo l' articolo visto che tra meno di 1 ora devo essere an un corso di aggiornamento.
Voi potete dirmi com'è la nuova scheda ATI ?
E il confronto con la 6800, qual'è la migliore ?
Ciao e graziie mille..

bombardax
05-05-2004, 07:47
raga mi unisco al tread, ora mi leggo le mille recensioni...


FINALMENTE!

Wizard77
05-05-2004, 08:09
incomincio ad iscrivermi al topic, poi leggero i miglioni di post che ci sono ;)

devis
05-05-2004, 08:54
Originariamente inviato da Dark Schneider
Dici? Anche qui è stato testato su un Athlon 64!! I risultati con i 61.11 sono cmq un bel po' meglio rispetto ai 60.70(o quello che era).


http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif

La musica non è tanto diversa.

http://www.xbitlabs.com/images/video/r420-2/farcry_1024_candy.gif


Lasciando stare la Extreme che verrà prodotta in esemplari limitatissimi, oltre al prezzo che si presume sia superiore.

bombardax
05-05-2004, 09:03
Originariamente inviato da devis
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif

La musica non è tanto diversa.

http://www.xbitlabs.com/images/video/r420-2/farcry_1024_candy.gif

http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif

Lasciando stare la Extreme che verrà prodotta in esemplari limitatissimi, oltre al prezzo che si presume sia superiore.


che casino, ci mettrò un mese a farmi una idea chiara di ciò che prenderò, con occhio al prezzo, ovviamente...

halduemilauno
05-05-2004, 09:18
Originariamente inviato da devis
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/images/fc1024.gif

La musica non è tanto diversa.

http://www.xbitlabs.com/images/video/r420-2/farcry_1024_candy.gif


Lasciando stare la Extreme che verrà prodotta in esemplari limitatissimi, oltre al prezzo che si presume sia superiore.

beh da 82 a 53 passare a 82 a 63 mi pare che qualcosa cambia.
lasciando la extreme? d'accordo ma non credere che la platinum costi molto di meno. e sulla produzione aspetterei un'attimino.
e poi le frequenze della extreme non sono definitive. si continua sempre a parlare di 475/1200.

Redvex
05-05-2004, 09:23
Io volevo iniziare a cambiare scheda video e mi ero deciso una fx5900xt dato il prezzo/prestazioni ma ora se nn dovessero sparare cifre assurde la x800pro quasi quasi :sob:

Mav80
05-05-2004, 09:25
Originariamente inviato da Redvex
Io volevo iniziare a cambiare scheda video e mi ero deciso una fx5900xt dato il prezzo/prestazioni ma ora se nn dovessero sparare cifre assurde la x800pro quasi quasi :sob:


Il fatto è che le cifre assurde le spareranno.....:cry: :cry: :muro:

Jedi_Master
05-05-2004, 09:42
Bene ho appena finito di farmi una bella cultura.
Che dire, se non.....complimenti alla Ati per il risultato!
;)
Certo, non c'e' miglior sordo di chi non vuol sentire,
pero' stavolta anche i fans di Nvidia vacilleranno davanti
ad un'accoppiata qualita'/prestazioni decisamente superiore.
Quasi mi dispiace non dover cambiare skeda....
:D

halduemilauno
05-05-2004, 10:15
Originariamente inviato da Jedi_Master
Bene ho appena finito di farmi una bella cultura.
Che dire, se non.....complimenti alla Ati per il risultato!
;)
Certo, non c'e' miglior sordo di chi non vuol sentire,
pero' stavolta anche i fans di Nvidia vacilleranno davanti
ad un'accoppiata qualita'/prestazioni decisamente superiore.
Quasi mi dispiace non dover cambiare skeda....
:D


non sono vacillati davanti al dubbio 9700 pro 5800 ultra vuoi che vacillino ora che la differenza(nel complesso)è quantomeno nettamente inferiore? e con prezzi quantomeno allineati?

halduemilauno
05-05-2004, 10:37
http://www.nvnews.net/images/news/200405/comparison.png
;)

Jedi_Master
05-05-2004, 10:42
Originariamente inviato da halduemilauno
non sono vacillati davanti al dubbio 9700 pro 5800 ultra


Beh a volte crescendo.....l'esperienza......no eh??
:D

vuoi che vacillino ora che la differenza(nel complesso)è quantomeno nettamente inferiore? e con prezzi quantomeno allineati?

Per commentare i prezzi attendo di trovarle in negozio.

Pero' una cosa e' certa, se per caso alla pro si riesce ad
abilitare le pipe e far salire il clock.....marooooon

IIPyrosII
05-05-2004, 10:49
Molto strani i bench pero'.... si notano differenze davvero enormi da recensione di 1 sito ad 1 altra :confused:

luckye
05-05-2004, 10:57
Nessuno mi vende un bidonaccio di 9800xt a 150euro ?? alla fine va la metà di una extra platinum double whooper x800 :O
Solo in Pvt ;)

halduemilauno
05-05-2004, 11:02
Originariamente inviato da Jedi_Master
Beh a volte crescendo.....l'esperienza......no eh??
:D



Per commentare i prezzi attendo di trovarle in negozio.

Pero' una cosa e' certa, se per caso alla pro si riesce ad
abilitare le pipe e far salire il clock.....marooooon

no. è gia stato escluso.
ciao.

;)

rob-roy
05-05-2004, 11:03
Secondo voi i fori per il fissaggio del dissy sulla X800Pro sono uguali a quelli attuali?

Vorrei passare il Lunasio dalla mia 9800pro alla nuova bestia e spero di non aver problemi.

Con il liquido chissà che voli.....:sofico:

Già la 9800pro è una belva in overclock....:cool:

halduemilauno
05-05-2004, 11:17
http://web.essedi.it/
la x800pro a 549€. cmq sd è caro. la 6800 ultra a 678€.
per la 6800 GT si parla in altri shop di 449€.
ciao.
:) :)

andreamarra
05-05-2004, 11:26
Originariamente inviato da halduemilauno
beh da 82 a 53 passare a 82 a 63 mi pare che qualcosa cambia.
lasciando la extreme? d'accordo ma non credere che la platinum costi molto di meno. e sulla produzione aspetterei un'attimino.
e poi le frequenze della extreme non sono definitive. si continua sempre a parlare di 475/1200.

hal da quello che ho letto dei recensori la versione "platinum" della ati altro non è che la x800xt normale. La Ultra extreme della nvidia inceve è una scheda che è servita semplicemente per diminuire in certi test il divario

:)

Thunder82
05-05-2004, 11:28
Originariamente inviato da halduemilauno
http://web.essedi.it/
la x800pro a 549€. cmq sd è caro. la 6800 ultra a 678€.
per la 6800 GT si parla in altri shop di 449€.
ciao.
:) :)

Tanto non arriveranno mai da SD. Avevo ordinato la 9600xt e dopo 2 settimane era ancora "in arrivo" (specifico che mi dicevano ogni giorno "ci arrivano domani"). Ordinata in un altro shop dopo un giorno era nel mio case.

Ordinata 3 settimane fa la NF7 con disponibilità ampia, dopo una settimana doveva ancora arrivare e dicevano che non ce n'erano in magazzino. Ordinata in un altro shop dopo 2 giorni era nel mio case.

Mah... se questa è serietà...

belin
05-05-2004, 11:30
............549€...................doh..............:muro:

pandyno
05-05-2004, 11:30
Originariamente inviato da Thunder82
Tanto non arriveranno mai da SD. Avevo ordinato la 9600xt e dopo 2 settimane era ancora "in arrivo" (specifico che mi dicevano ogni giorno "ci arrivano domani"). Ordinata in un altro shop dopo un giorno era nel mio case.

Ordinata 3 settimane fa la NF7 con disponibilità ampia, dopo una settimana doveva ancora arrivare e dicevano che non ce n'erano in magazzino. Ordinata in un altro shop dopo 2 giorni era nel mio case.

Mah... se questa è serietà...

Strano SD di PG dove mi servo sempre sono molto seri...

andreamarra
05-05-2004, 11:38
Il motivo per cui quei test postati da hal sono contradditori è presto detto:

bisogna vedere se questi test tenevano in conto risoluzioni elevate e filtri. Inutile negare che la NV40 è mostruosa e spesso anche superiore alla X800XT a filtri nulli e risoluzioni basse, a volte è anche superiore con filtri non eccessivi.
Il discorso cambia drasticamente a risoluzioni elevate e filtraggi elevati. Credo che ogni test abbia confermato questa cosa.

Thunder82
05-05-2004, 11:39
Originariamente inviato da pandyno
Strano SD di PG dove mi servo sempre sono molto seri...

Per carità i ragazzi dello shop sono gentilissimi e cortesi :)

Non è certo colpa loro :)

Però su 2 ordini che ho fatto li ho dovuti disdire tutti e 2.

Inizio dicembre 2003: ordino 9600xt, il prezzo è il più basso della rete, disponibilità "in arrivo". Telefono per sentire quando saranno disponibili, mi dicono un paio di giorni. Ok ordino. una settimana non arriva niente. Ritelefono: "arrivano fra un paio di giorni". Ok, altra settimana non arriva niente, ritelefono: "fra un paio di giorni". Passa qualche giorno, ritelefono "se ne riparla a 2004 inoltrato, dopo la befana"... disdico l'ordine.

Vabbè, a Pasqua ho voluto dare un'altra possibilità.

Avevo visto che la NF7 costava solo 76€, dico "ne approfitto, tanto c'è scritto disponibilità ampia". Faccio l'ordine. Dopo un giorno niente. Dopo 2 giorni la disponibilità sul sito diventa media (faccio notare che la disponibilità al negozio di PD era data come "24h" dall'ordine. Dopo 3 giorni la disponibilità diventa scarsa. Dopo 4 giorni la disponibilità diventa "incerta" (ma che vuol dire incerta, non sanno neanche loro se le hanno in magazzino?). Dopo 5 giorni il mortale "in arrivo" è apparso. Telefono. "arriva fra un paio di giorni". Aspetto una settimana, non arriva niente. Telefono. "se ne riparla fra un mese". Ok ciao anche stavolta disdico l'ordine.

Hanamichi
05-05-2004, 11:43
Originariamente inviato da belin
............549€...................doh..............:muro:
la 9800xt costava lo stesso prezzo...
mi sembra logico :)

halduemilauno
05-05-2004, 11:44
Originariamente inviato da andreamarra
hal da quello che ho letto dei recensori la versione "platinum" della ati altro non è che la x800xt normale. La Ultra extreme della nvidia inceve è una scheda che è servita semplicemente per diminuire in certi test il divario

:)

e questo che centra?
cmq i 53 che diventano 63 con i nuovi driver si riferiscono alla 6800 ultra non alla extreme.
e cmq se vogliamo parlare di ridurre il divario anche ati lo ha fatto anticipando la xt di buoni 4 mesi e appunto fare una versione credo oc chiamata platinum. non a caso la x800xt da 520/1120 passa in oc alla fantastica frequenza di 534/1180. quindi un bel oc gia fatto dalla casa.
ciao.

:) :)

halduemilauno
05-05-2004, 11:45
vi fosse sfuggita.
http://www.hardware-mania.com/news/n21.htm

- MARKET SHARE GRAFICO NEL Q1 2004
Segnalata da Antonio 4/5/2004 - 13.40 COMMENTA LA NEWS

Secondo le analisi pubblicate dall'istituto Jon Peddie Research durante il primi trimestre dell'anno sono state commercializzate 57.5 milioni di chip grafici, un calo del 7.4% rispetto all'ultimo trimestre 2003.
Il settore che ha pagato maggiormente questo calo è stato il settore notebook, che ha registrato un calo del 12.7% rispetto al trimestre precedente, ma un aumento del 29% se confrontato al primo trimestre 2003.

Durante il primo trimestre Intel guida ancora la classifica grazie all'enorme volume di vendita di chipset con grafica integrata, aggiudicandosi il 31.7% del mercato complessivo, facendo registrare una flessione del 3.8% rispetto ai tre mesi precedenti.

Al secondo posto si piazza nVidia con una quota complessiva del 27.2%, con un aumento del 2% rispetto all'ultimo trimestre 2003, ed infine al terzo posto si classifica ATi con il 24% rispetto al 25.2% dell'ultimo trimestre 2003.

Il piccolo calo di ATi è da ricercarsi nel calo stagionale nel settore notebook, campo nel quale ATi detiene circa il 60% del mercato.

ciao.
;)

Thunder82
05-05-2004, 11:46
Originariamente inviato da halduemilauno
e questo che centra?
cmq i 53 che diventano 63 con i nuovi driver si riferiscono alla 6800 ultra non alla extreme.
e cmq se vogliamo parlare di ridurre il divario anche ati lo ha fatto anticipando la xt di buoni 4 mesi e appunto fare una versione credo oc chiamata platinum. non a caso la x800xt da 520/1120 passa in oc alla fantastica frequenza di 534/1180. quindi un bel oc gia fatto dalla casa.
ciao.

:) :)

La x800xt arriva a 555/1200 ;)

belin
05-05-2004, 11:50
Originariamente inviato da Hanamichi
la 9800xt costava lo stesso prezzo...
mi sembra logico :)

.....certo......stavo scherzando........resta il fatto che 549€ sono 1.063.000 delle vecchie Lire........e che negli USA la vendono a 399$...............doh................:) :muro: ;)

halduemilauno
05-05-2004, 11:51
Originariamente inviato da Thunder82
La x800xt arriva a 555/1200 ;)


azzopè. un 35/80 di più. pensa la 6800 GT da 350/1000 in oc è arrivata a 425/1200 e la ultra a 475/1255. fa du conti.
ciao.
;)

andreamarra
05-05-2004, 11:54
Originariamente inviato da halduemilauno
e questo che centra?
cmq i 53 che diventano 63 con i nuovi driver si riferiscono alla 6800 ultra non alla extreme.
e cmq se vogliamo parlare di ridurre il divario anche ati lo ha fatto anticipando la xt di buoni 4 mesi e appunto fare una versione credo oc chiamata platinum. non a caso la x800xt da 520/1120 passa in oc alla fantastica frequenza di 534/1180. quindi un bel oc gia fatto dalla casa.
ciao.

:) :)

Avevo capito che tu volessi dire "è vero che c'è la Ultra extreme, però anche la ati ha messo per i bench la Platinum".

E io volevo soltanto dire che da quello che mi è stato riferito la Platinum altro non è che la "normale" X800XT, e che la Ultra Extreme di fatto non esiste per il mercato normale. Se la platinum è overclockata di fabbrica allora è giusto che la nvidia abbia presentato il modello Extreme, anche se non sarà quasi per nulla commercializzata.

Cmq io ripeto sempre, non voglio fare il guastafeste... però dei driver che migliorano la velocità mi fido. Francamente un pò meno, per il momento, nei driver della nvidia. Purtroppo hanno creato loro stessi il luogo comune di falsare i risultati e usare mezzucci strani, ecco perchè attualmente non mi fida moltissimo dei driver nvidia. Ovviamente sono un tipo che cambia opinione e non si fa prendere dagli stereotipi, se la nvidia sta volta ha fatto tutto alla luce del sole io sarò il primo a riscattarla :)

andreamarra
05-05-2004, 11:55
Originariamente inviato da halduemilauno
azzopè. un 35/80 di più. pensa la 6800 GT da 350/1000 in oc è arrivata a 425/1200 e la ultra a 475/1255. fa du conti.
ciao.
;)

Ottimo, e sono le prime revision di scheda! Non mi aspettavo incrementi di OC così ampi da parte della NV40, credevo fosse limitata dall'architettura estremamente complessa.

Bueno :oink:

Legolas84
05-05-2004, 11:57
Originariamente inviato da halduemilauno
la 6800 GT da 350/1000 in oc è arrivata a 425/1200

questa è musica per le mie orecchie Hal...... :p

Non vedo l'ora di vedere la POV ;)

Thunder82
05-05-2004, 11:59
Originariamente inviato da halduemilauno
azzopè. un 35/80 di più. pensa la 6800 GT da 350/1000 in oc è arrivata a 425/1200 e la ultra a 475/1255. fa du conti.
ciao.
;)

Non male :)

La 6800GT è cmq una scheda molto interessante, bisogna vedere se risolvono quei problemi con la qualità PS, se li risolvono potrebbe essere una valida scelta

halduemilauno
05-05-2004, 12:00
Originariamente inviato da andreamarra
Avevo capito che tu volessi dire "è vero che c'è la Ultra extreme, però anche la ati ha messo per i bench la Platinum".

E io volevo soltanto dire che da quello che mi è stato riferito la Platinum altro non è che la "normale" X800XT, e che la Ultra Extreme di fatto non esiste per il mercato normale. Se la platinum è overclockata di fabbrica allora è giusto che la nvidia abbia presentato il modello Extreme, anche se non sarà quasi per nulla commercializzata.

Cmq io ripeto sempre, non voglio fare il guastafeste... però dei driver che migliorano la velocità mi fido. Francamente un pò meno, per il momento, nei driver della nvidia. Purtroppo hanno creato loro stessi il luogo comune di falsare i risultati e usare mezzucci strani, ecco perchè attualmente non mi fida moltissimo dei driver nvidia. Ovviamente sono un tipo che cambia opinione e non si fa prendere dagli stereotipi, se la nvidia sta volta ha fatto tutto alla luce del sole io sarò il primo a riscattarla :)

la platinum è quella di serie. solo che probabilmente per ottenere ancora di più l'hanno oc quasi al massimo consentito e chiamata appunto xt platinum e non xt normale.
tutto qui.
sulla extreme che avrà diffusione ridottissima non saprei e ne ci giurerei. visto che gia due produttori di schede e tre produttori di pc l'hanno ordinata.
quindi...
per il resto prendo atto di quello che mi dici.
ciao.

:) :)

andreamarra
05-05-2004, 12:01
Ci sono test per vedere all'incremento della frequenza nelle varie super schede quanto incide nel lavoro dell'alimentatore?

halduemilauno
05-05-2004, 12:02
Originariamente inviato da Legolas84
questa è musica per le mie orecchie Hal...... :p

Non vedo l'ora di vedere la POV ;)


anch'io.
ciao.
;)

andreamarra
05-05-2004, 12:04
Originariamente inviato da halduemilauno
la platinum è quella di serie. solo che probabilmente per ottenere ancora di più l'hanno oc quasi al massimo consentito e chiamata appunto xt platinum e non xt normale.
tutto qui.
sulla extreme che avrà diffusione ridottissima non saprei e ne ci giurerei. visto che gia due produttori di schede e tre produttori di pc l'hanno ordinata.
quindi...
per il resto prendo atto di quello che mi dici.
ciao.

:) :)

Io ho capito che praticamente la Extreme sarà un pezzo pregiato perchè derivata dalla produzione della Ultra, selezionata accuratamente in base alla qualità della gpu che deve essere pressochè perfetto per raggiungere stabilmente quelle frequenze. La Platinum probabilemte è un modo per chiamare la X800XT che è stata OC di fabbrica per aumentare in certi casi e livellare in altri i possibili gap.

:)

royal
05-05-2004, 12:06
ma dai era chiaro ke la GT era una ultra downclockata...

bisognerà vedere se alla pro della x800 si potranno attivare le 4 pipeline..

Gerald Tarrant
05-05-2004, 12:11
Portate pazienza ... ma quando sugli scaffali si potranno avere Radeon X800XT e a che prezzo fioriranno ?Guardate ho letto un po' quaì' e la ' ma non ho ancora capito se la Platinum ..quella recensita' da HW è la normale X800XTo la stessa overclokkata .. qualcuno mi illumina sono duro lo so' ... grazie

halduemilauno
05-05-2004, 12:24
Originariamente inviato da andreamarra
Io ho capito che praticamente la Extreme sarà un pezzo pregiato perchè derivata dalla produzione della Ultra, selezionata accuratamente in base alla qualità della gpu che deve essere pressochè perfetto per raggiungere stabilmente quelle frequenze. La Platinum probabilemte è un modo per chiamare la X800XT che è stata OC di fabbrica per aumentare in certi casi e livellare in altri i possibili gap.

:)


esatto.
ciao.
:) :)

halduemilauno
05-05-2004, 12:25
Originariamente inviato da royal
ma dai era chiaro ke la GT era una ultra downclockata...

bisognerà vedere se alla pro della x800 si potranno attivare le 4 pipeline..

no è gia stato escluso niente 4 pipe in +. cosi ho letto.

;)

bombardax
05-05-2004, 12:30
Originariamente inviato da halduemilauno
no è gia stato escluso niente 4 pipe in +. cosi ho letto.

;)


certamente ATI ha fatto tesoro dell'esperienza che ha avuto con la 9500pro...

GURU
05-05-2004, 12:31
Beh...anche se non si potranno attivare le 4 pippe...se la XT arriva a 550...non vedo perkè non dovrebbe farlo anche la PRO...che anzi..."alleggerita" dovrebbe salire anche di più....

E secondo me rimane cmq un ottimo prodotto...perkè a differenza della 6800GT permette una grande velocità anche con filtri...ok senza filtri la GT è spesso sopra...ma chi se ne frega?

Non voglio 20 milioni di fps e una grafica schifosa...

Gerald Tarrant
05-05-2004, 12:33
Originariamente inviato da Gerald Tarrant
Portate pazienza ... ma quando sugli scaffali si potranno avere Radeon X800XT e a che prezzo fioriranno ?Guardate ho letto un po' quaì' e la ' ma non ho ancora capito se la Platinum ..quella recensita' da HW è la normale X800XTo la stessa overclokkata .. qualcuno mi illumina sono duro lo so' ... grazie

Non si sa' niente sulla reale disponibilita' sugli scaffali in Italia ?e a che prezzo ?

Simon82
05-05-2004, 12:41
Originariamente inviato da bombardax
certamente ATI ha fatto tesoro dell'esperienza che ha avuto con la 9500pro...
Soprattutto perche' il trick lo aveva previsto in origine lei.. ;)

Sai quanta gente ha comprato la 9500 liscia sperando che si potesse moddare? (io sono uno dei pochi fortunati.. ;):D)

andreamarra
05-05-2004, 12:44
Originariamente inviato da bombardax
certamente ATI ha fatto tesoro dell'esperienza che ha avuto con la 9500pro...

Era la 9500 lissia :fuck: :ciapet:

luckye
05-05-2004, 13:01
Originariamente inviato da Simon82
Sai quanta gente ha comprato la 9500 liscia sperando che si potesse moddare? (io sono uno dei pochi fortunati.. ;):D)

Sai quanta gente ha avuto i $$ quando ati ormai si era resa conto del fatto e ha comprato un 9500pro a 200euro e l'ha overcloccata almeno 360/300 senza dover usare i driver truccati ?
Peccato che anche quì ati si è reso conto che andava troppo e costava poco. :rolleyes:

Kmq ati si è ben guardata da rischiare di perdere qualche euro....ogni progetto moddabile è sempre stato infangato il prima possibile. Sembra quasi che ci obbligano a pagare salato x forza....
poi dico..quante 9500 moddate ci sono ? quante 9500 ha venduto ? quante non sono moddabili ?

bombardax
05-05-2004, 13:07
Originariamente inviato da andreamarra
Era la 9500 lissia :fuck: :ciapet:


sorry, mi inchino alla sua cultura...:mad: :D

dwfgerw
05-05-2004, 13:13
Originariamente inviato da GURU
Beh...anche se non si potranno attivare le 4 pippe...se la XT arriva a 550...non vedo perkè non dovrebbe farlo anche la PRO...che anzi..."alleggerita" dovrebbe salire anche di più....

E secondo me rimane cmq un ottimo prodotto...perkè a differenza della 6800GT permette una grande velocità anche con filtri...ok senza filtri la GT è spesso sopra...ma chi se ne frega?

Non voglio 20 milioni di fps e una grafica schifosa...


secondo te hai problemi di scatti con la GT e i filtri:rolleyes:

io invece credo che ati questa volta abbia giocato fin troppo al risparmio, anzi ora predica agli sviluppatori di non usare shader 3.0 solo perchè non hanno ancora pronto r500:rolleyes:

JENA PLISSKEN
05-05-2004, 13:16
Originariamente inviato da Simon82
Soprattutto perche' il trick lo aveva previsto in origine lei.. ;)

Sai quanta gente ha comprato la 9500 liscia sperando che si potesse moddare? (io sono uno dei pochi fortunati.. ;):D)

Cmq si spara in una pro@xt:oink:

Simon82
05-05-2004, 13:17
Originariamente inviato da luckye
Sai quanta gente ha avuto i $$ quando ati ormai si era resa conto del fatto e ha comprato un 9500pro a 200euro e l'ha overcloccata almeno 360/300 senza dover usare i driver truccati ?
Peccato che anche quì ati si è reso conto che andava troppo e costava poco. :rolleyes:

Kmq ati si è ben guardata da rischiare di perdere qualche euro....ogni progetto moddabile è sempre stato infangato il prima possibile. Sembra quasi che ci obbligano a pagare salato x forza....
poi dico..quante 9500 moddate ci sono ? quante 9500 ha venduto ? quante non sono moddabili ?
Penso che un'azienda di quel calibro, possa tranquillamente prevedere di far uscire una scheda moddabile giusto per farsi pubblicita'. ;)
Non penso che qualcosa possa essere scoperto "dallo smanettone di turno" per caso..

JENA PLISSKEN
05-05-2004, 13:18
Originariamente inviato da Simon82
Penso che un'azienda di quel calibro, possa tranquillamente prevedere di far uscire una scheda moddabile giusto per farsi pubblicita'. ;)
Non penso che qualcosa possa essere scoperto "dallo smanettone di turno" per caso..
:asd: :asd: :asd: ...concordo a pieno...2° me poi la 9500 l' hanno venduta solo grazie a quella storiella:sofico:

luckye
05-05-2004, 13:18
Originariamente inviato da dwfgerw
secondo te hai problemi di scatti con la GT e i filtri:rolleyes:

io invece credo che ati questa volta abbia giocato fin troppo al risparmio, anzi ora predica agli sviluppatori di non usare shader 3.0 solo perchè non hanno ancora pronto r500:rolleyes:

Concordo. Ma non ha giocato al risparmio.
Nvidia è uscita con la sua tecnologia,ottima secondo me. Ati non poteva smenare l'immagine e potenziali clienti lasciandoli a Nvidia. E quindi uscita con l'R420.....o meglio l'R300 remix con la tecnologia di due anni fa,per riprendere lo scettro del potere e piazzare schede.
Ora come ora ati sbraita,i Vs e Ps 3.0 non servono e ha ragione ma x ora.......
Vedrete che prestissimo Ati uscirà con la nuova tecnologia,non posso credere che in due anni abbia aggiunto solo qualche pipe.
Allora avra Ps, Vs 3.0,pci express nativo,freq. maggiori e chissà che altro......Secondo mè l'R420 è un chip di transizione....
Io riamango con questa idea......e aspetto altre mosse con la mia 9500pro + che sufficente per giocare.

Simon82
05-05-2004, 13:22
Originariamente inviato da luckye
Concordo. Ma non ha giocato al risparmio.
Nvidia è uscita con la sua tecnologia,ottima secondo me. Ati non poteva smenare l'immagine e potenziali clienti lasciandoli a Nvidia. E quindi uscita con l'R420.....o meglio l'R300 remix con la tecnologia di due anni fa,per riprendere lo scettro del potere e piazzare schede.
Ora come ora ati sbraita,i Vs e Ps 3.0 non servono e ha ragione ma x ora.......
Vedrete che prestissimo Ati uscirà con la nuova tecnologia,non posso credere che in due anni abbia aggiunto solo qualche pipe.
Allora avra Ps, Vs 3.0,pci express nativo,freq. maggiori e chissà che altro......Secondo mè l'R420 è un chip di transizione....
Be'.. siamo passati a duplicare le prestazioni di una scheda che a sua volta si allontanava e non di poco dalle prestazioni della prima 9700 Pro.. direi che non e' un solo aggiungere pipeline ma c'e' un lavoro di ottimizzazione della struttura del core veramente ammirevole. siamo passati da 325Mhz di core a 520. Direi che se ci fossero piu' sviluppatori a creare giochi veramente realistici e pesanti come Far Cry, la velocita' tornerebbe come una volta ad essere il metro di paragone senza dover vedere features rimanere inutilizzate.

royal
05-05-2004, 13:27
2° me abbiamo di fronte il miglior chip video della storia.. il progetto r300-r480.la base è sempre quella ,x il resto sono le ottimizzazioni ke ci fanno..

ripeto..non ho mai smesso di dirlo..tutto questo è incredibile..alla nvidia penso ke di tirano le OO.. nemeno loro di credono :)

devis
05-05-2004, 13:34
Da notare inoltre come la 5950U sia spesso ridicolizzata dalla 9800XT

JENA PLISSKEN
05-05-2004, 13:35
Originariamente inviato da devis
Da notare inoltre come la 5950U sia spesso ridicolizzata dalla 9800XT

Già assurdo...cmq c 'è gente che la trova fantastica:asd: :asd: :asd: :asd:

TheDarkAngel
05-05-2004, 13:37
Originariamente inviato da devis
Da notare inoltre come la 5950U sia spesso ridicolizzata dalla 9800XT

macchè... guarda i vecchi bench..
guarda che qualità... guarda che potenza...
è la migliore scheda video della vecchia generazione :cool:

dwfgerw
05-05-2004, 13:38
R420 è sicuramente velocissimo, ma dal punto di vista tecnologico mi ha deluso, alla fine mi aspettavo che supportassero almeno i VS 3.0 così da poter fare DM dello Shader3.0.
Anche fek è rimasto un po deluso da questo.

Io pensavo che trascurando l'innovazione (come ad esempio la possibilità di processare shader meno lunghi di nv40) avesse prestazione nettamente superiori a nv40 con oltre 100Mhz di differenza, invece la gpu di nvidia pur andando più piano è un divoratore di shader e anche in FP 32 non ci sono cali cosi bruschi come nv3x, alla fine è li.

Ripeto è solo una sensazione, ma se una cosa simile l'avesse fatta nvidia, cioè a non innovare, saremmo rimasti molto più amareggiati e si sarebbero scatentati flames a non finire.

Aggiungo inoltre che in open gl mi aspettavo qualcosa di più.

Im ho la 6800GT è la scheda migliore, 1 molex, nella rece di Firingsquad è stata portata a 425/1200, dissi singolo slot, shader 3.0 e 16 pipes a 100$ in meno della ultra.

Bye;)

sanitarium
05-05-2004, 13:42
Originariamente inviato da dwfgerw
R420 è sicuramente velocissimo, ma dal punto di vista tecnologico mi ha deluso, alla fine mi aspettavo che supportassero almeno i VS 3.0 così da poter fare DM dello Shader3.0.
Anche fek è rimasto un po deluso da questo.

Io pensavo che trascurando l'innovazione (come ad esempio la possibilità di processare shader meno lunghi di nv40) avesse prestazione nettamente superiori a nv40 con oltre 100Mhz di differenza, invece la gpu di nvidia pur andando più piano è un divoratore di shader e anche in FP 32 non ci sono cali cosi bruschi come nv3x, alla fine è li.

Ripeto è solo una sensazione, ma se una cosa simile l'avesse fatta nvidia, cioè a non innovare, saremmo rimasti molto più amareggiati e si sarebbero scatentati flames a non finire.

Im ho la 6800GT è la scheda migliore, 1 molex, nella rece di Firingsquad è stata portata a 425/1200, dissi singolo slot, shader 3.0 e 16 pipes a 100$ in meno della ultra.

Bye;)

Ma non si era detto che i VS3.0 erano supportati da R420? :confused:

dwfgerw
05-05-2004, 13:44
Originariamente inviato da sanitarium
Ma non si era detto che i VS3.0 erano supportati da R420? :confused:


a quanto pare non supporta niente di shader 3.0 se ti vai avedere lo schema delle VS vedrai che manca l'unita di texture fetch, le pipes sono pressochè identiche a r300

JENA PLISSKEN
05-05-2004, 13:45
Originariamente inviato da dwfgerw
R420 è sicuramente velocissimo, ma dal punto di vista tecnologico mi ha deluso, alla fine mi aspettavo che supportassero almeno i VS 3.0 così da poter fare DM dello Shader3.0.
Anche fek è rimasto un po deluso da questo.

Io pensavo che trascurando l'innovazione (come ad esempio la possibilità di processare shader meno lunghi di nv40) avesse prestazione nettamente superiori a nv40 con oltre 100Mhz di differenza, invece la gpu di nvidia pur andando più piano è un divoratore di shader e anche in FP 32 non ci sono cali cosi bruschi come nv3x, alla fine è li.

Ripeto è solo una sensazione, ma se una cosa simile l'avesse fatta nvidia, cioè a non innovare, saremmo rimasti molto più amareggiati e si sarebbero scatentati flames a non finire.

Aggiungo inoltre che in open gl mi aspettavo qualcosa di più.

Im ho la 6800GT è la scheda migliore, 1 molex, nella rece di Firingsquad è stata portata a 425/1200, dissi singolo slot, shader 3.0 e 16 pipes a 100$ in meno della ultra.

Bye;)



X me il MAX sarebbe stato un NV40 con la qualità ATI, il Taa ATI e soprattutto la possibilità di attivare l' AF fullscreen;)

sanitarium
05-05-2004, 13:47
Originariamente inviato da dwfgerw
a quanto pare non supporta niente di shader 3.0 se ti vai avedere lo schema delle VS vedrai che manca l'unita di texture fetch, le pipes sono pressochè identiche a r300

Lo schema di cui parli non era stato definito come "probabilmente errato"?
Insomma, è sicuro che i VS3.0 non sono UFFICIALMENTE supportati?

Lord style
05-05-2004, 13:51
Ecco Fek cosa ha detto ieri sera.

Il tutto è molto interessante.


Ho aspettato fino a mezzanotte ma ho finalmente avuto di nuovo lo shuttle tutto per me.

DX9.0b installate, quindi non il summer update delle 9.0c
Driver molto in alpha.

Il D3DCaps mi riporta vs2.0 e ps2.0 supportati.
Ho provato per scrupolo a scrivere un vs 3.0 semplice semplice e non viene validato.
Quindi niente texture fetch o GI, almeno su questa versione dei driver e delle DX9.

Domattina mando un paio di mail a Richard e vediamo se e' solo un problema di driver o gli devo rispedire indietro la scheda

(Questa cosa dei texture fetch e del GI sarebbe una notevole limitazione per non parlare del fatto che mi e' stato spergiurato)

Me ne vado a casa...

dwfgerw
05-05-2004, 13:51
Originariamente inviato da JENA PLISSKEN
X me il MAX sarebbe stato un NV40 con la qualità ATI, il Taa ATI e soprattutto la possibilità di attivare l' AF fullscreen;)


l'af full screen è attivabile con un nv38 figuriamoci con un nv40:p

per il temporal AA sono d'accordo, ma per il resto vedo nv40 una spanna sopra dal punto di vista puramente tecnologico

bye.

DevilMalak
05-05-2004, 13:52
imho ora mancano da sapere i prezzi... se ati avrà prezzi + bassi di nvidia col ***** che prendo nvidia :D
Sono indeciso tra la 6800GT e X800PRO... la 6800GT ha 4 pipe in + e shaders 3.0 ma le prestaz sono simili, sapendo i prezzi vedrò... magari non prendo nessuna di queste 2 se hanno prezzi molto alti :rolleyes: :p

dwfgerw
05-05-2004, 13:53
Originariamente inviato da DevilMalak
imho ora mancano da sapere i prezzi... se ati avrà prezzi + bassi di nvidia col ***** che prendo nvidia :D
Sono indeciso tra la 6800GT e X800PRO... la 6800GT ha 4 pipe in + e shaders 3.0 ma le prestaz sono simili, sapendo i prezzi vedrò... magari non prendo nessuna di queste 2 se hanno prezzi molto alti :rolleyes: :p


entrambe vengono vendute a 399$ da ati e nvidia

la prima X800PRO è stata vista nel listino di essedi a 549€ mentre in un listino straniero la 6800GT stava a 449€

io personalmente aspetto le che zetabyte mentta le PoV GT.

JENA PLISSKEN
05-05-2004, 13:56
TOH

As a result, XT version of the RADEON X800 features 4 pipelines of the kind, which corresponds to 16 “regular” pipelines, while the PRO version features only three of them and can display 12 pixels per clock this way.

The remarkable thing about it is the fact that """"""""""""""""""all versions of the RADEON X800 graphics processors are identical and all of them feature the full set of “wide” pixel pipelines, but only RADEON X800 XT uses all four of them""""""""""""""""". RADEON X800 PRO has one pipeline disabled, and RADEON X800 SE will have two “wide” pipelines disabled. This approach is a good solution for ATI, as the use of """identical dies""" for all VPU versions allows using the solutions with some defects in one or two of the “wide” pipelines for slower VPU modifications by simply disabling the defective quarter. This way they can also increase the overall production yields, as less chips will now go into the waste basket. Moreover, ATI claims that disabling the pipelines will not affect the work of the HYPER Z HD technology. In other words, we should no longer have the same problem as that of RADEON 9800 SE, i.e. when the disabled half of the pipelines and disabled HyperZ resulted into an even more severe performance drop.


Nn è che x caso addirittura qualcuno si inventa come abilitare le 2 sulla ""SE""??? altro che pro:asd: :asd: :asd: :asd:

Legolas84
05-05-2004, 13:58
Originariamente inviato da dwfgerw
entrambe vengono vendute a 399$ da ati e nvidia

la prima X800PRO è stata vista nel listino di essedi a 549€ mentre in un listino straniero la 6800GT stava a 449€

io personalmente aspetto le che zetabyte mentta le PoV GT.


Il che vuol dire che in Italia arriverà a costare 500 Euro :muro: :cry:

JENA PLISSKEN
05-05-2004, 13:59
Chiariamo la storia dei PS VS3.0

ATI certainly sees the benefits of the 3.0 shader model, but they believe that the time of 3.0 shaders hasn’t come yet: the use of dynamic loops and branching by the existing architectures inevitably results into a performance drop. Even NVIDIA warms against careless use of dynamic branching, and this is definitely not the thing the manufacturers want. At the same time, introducing the corresponding support would require a significant revision of the RADEON X800 pixel processors architecture, which have been intended for non-linear shader processing from the very beginning. As a result, having weighed all cons and pros, ATI engineers decided to give up fully-fledged shader version 3.0 support. Instead they are most likely to introduce a “cut-down” version of the standard without the support of dynamic loops and branching, which will be called 2.b.

The biggest advantage of the RADEON X800 pixel processors architecture, is their stable efficiency and predictable performance. Unlike NVIDIA’s reference cards, ATI RADEON X800, just like the previous ATI VPUs, reacts much calmer to the increase of temporary registers or change of the mathematical and texturing instructions during shader processing. It means that the developers will be able to create efficient shaders for RADEON X800 with less effort.



Grande XBITLABS:oink: ....sò i mejo

Gatz1980
05-05-2004, 14:04
Originariamente inviato da dwfgerw
l'af full screen è attivabile con un nv38 figuriamoci con un nv40:p

per il temporal AA sono d'accordo, ma per il resto vedo nv40 una spanna sopra dal punto di vista puramente tecnologico

bye.

Però, scusa, io di screen che mostrino l'utilizzo dell'AF full da parte di NV40 non ne ho ancora visti, sei davvero sicuro che si possa abilitare?

dwfgerw
05-05-2004, 14:06
full come nv30 no, cioè lo applica ad alcune angolazioni (le più usate), ma alla fine ti sarai reso conto negli screen che è quasi inesistente la differenza di immagine tra r420 e nv40 i due sono molto simili, hanno un af adattivo e un AA Rotated grid, sono praticamente equivalenti.

JENA PLISSKEN
05-05-2004, 14:08
Originariamente inviato da Gatz1980
Però, scusa, io di screen che mostrino l'utilizzo dell'AF full da parte di NV40 non ne ho ancora visti, sei davvero sicuro che si possa abilitare?

Semplice...xchè NN esiste...è solo quello ottimizzato sui 45° etc....lo aborro su entrambe le schede;)

Gatz1980
05-05-2004, 14:13
Originariamente inviato da dwfgerw
full come nv30 no, cioè lo applica ad alcune angolazioni (le più usate), ma alla fine ti sarai reso conto negli screen che è quasi inesistente la differenza di immagine tra r420 e nv40 i due sono molto simili, hanno un af adattivo e un AA Rotated grid, sono praticamente equivalenti.

Infatti, ma quello che intendeva JENA con "full" è precisamente il modo NV38, per questo avevo capito male.
Sono anch'io convinto che almeno la scelta tra i due avrebbero potuto metterla, peccato...

Per quanto riguarda il "quasi" inesistente, come al solito si usano due pesi e due misure, ricorrendo addirittura a screenshots ingranditi del 400% nel caso si vogliano mettere in evidenza anche i minimi dettagli...

Haku
05-05-2004, 14:24
Originariamente inviato da halduemilauno
http://web.essedi.it/
la x800pro a 549€. cmq sd è caro. la 6800 ultra a 678€.
per la 6800 GT si parla in altri shop di 449€.
ciao.
:) :)
ma la gt non dovrebbe essere la meno dispendiosa??E viene a costare 449€??:confused: :muro: :cry:

halduemilauno
05-05-2004, 14:29
Originariamente inviato da Haku
ma la gt non dovrebbe essere la meno dispendiosa??E viene a costare 449€??:confused: :muro: :cry:


no c'è la 6800 liscia che starà sui 300/350€.
ciao.
;)

Haku
05-05-2004, 14:33
la liscia com'è comparandola ad una x800pro?Oppure comparandola alla 9800xt?

sanitarium
05-05-2004, 14:39
Originariamente inviato da JENA PLISSKEN
Chiariamo la storia dei PS VS3.0

ATI certainly sees the benefits of the 3.0 shader model, but they believe that the time of 3.0 shaders hasn’t come yet: the use of dynamic loops and branching by the existing architectures inevitably results into a performance drop. Even NVIDIA warms against careless use of dynamic branching, and this is definitely not the thing the manufacturers want. At the same time, introducing the corresponding support would require a significant revision of the RADEON X800 pixel processors architecture, which have been intended for non-linear shader processing from the very beginning. As a result, having weighed all cons and pros, ATI engineers decided to give up fully-fledged shader version 3.0 support. Instead they are most likely to introduce a “cut-down” version of the standard without the support of dynamic loops and branching, which will be called 2.b.

The biggest advantage of the RADEON X800 pixel processors architecture, is their stable efficiency and predictable performance. Unlike NVIDIA’s reference cards, ATI RADEON X800, just like the previous ATI VPUs, reacts much calmer to the increase of temporary registers or change of the mathematical and texturing instructions during shader processing. It means that the developers will be able to create efficient shaders for RADEON X800 with less effort.



Grande XBITLABS:oink: ....sò i mejo

Che significa esattamente "fully-fledged"?

Koji
05-05-2004, 14:42
Originariamente inviato da halduemilauno
http://web.essedi.it/
la x800pro a 549€. cmq sd è caro. la 6800 ultra a 678€.
per la 6800 GT si parla in altri shop di 449€.
ciao.


549E per la Pro a 12 Pipe? :eek:

Spero che gli altri shop non siano così pazzi perchè altrimenti prevedo molte lacrime da chi pensava di accapararsi questa scheda a 350-400E max!!! :rolleyes:

Se poi la 6800GT (16pipe) costasse veramente 450E credo che il fattore prezzo sarà nettamente a favore di Nvidia.

halduemilauno
05-05-2004, 14:46
Originariamente inviato da Haku
la liscia com'è comparandola ad una x800pro?Oppure comparandola alla 9800xt?

credo a metà strada tra le due. + o - . mancano bench è una mia supposizione.
ciao.
:) :)

sanitarium
05-05-2004, 14:51
Originariamente inviato da Koji
549E per la Pro a 12 Pipe? :eek:

Spero che gli altri shop non siano così pazzi perchè altrimenti prevedo molte lacrime da chi pensava di accapararsi questa scheda a 350-400E max!!! :rolleyes:

Se poi la 6800GT (16pipe) costasse veramente 450E credo che il fattore prezzo sarà nettamente a favore di Nvidia.

Parole di Corsini (da http://forum.hwupgrade.it/showthread.php?s=&threadid=677995&perpage=20&pagenumber=7):

I prezzi annunciati da ATI e NVIDIA per GeForce 6800 GT e Radeon X800 PRO sono identici: 399 dollari per entrambe le schede. Non penso vi saranno sostanziali differenze a regime.
Non vi fate trarre in inganno dalle notizie che indicano 499 dollari il prezzo della X800 PRO, apparse in questi giorni: si tratta di cifre chieste a schede in prenotazione, che è ovvio sono sempre superiori a quelle che ci saranno a regime una volta che le schede arriveranno in volumi

;)

JENA PLISSKEN
05-05-2004, 14:55
Originariamente inviato da sanitarium
Che significa esattamente "fully-fledged"?

+ o - pieno supporto...in paratica mancano dynamic loops and branching ;) ;) ...+ i 32fp;)

andreamarra
05-05-2004, 15:01
Originariamente inviato da JENA PLISSKEN
+ o - pieno supporto...in paratica mancano dynamic loops and branching ;) ;) ...+ i 32fp;)

Lo dico da tempo che i ps3.0 di ati ci sono ma mancano praticamente nel solo dynamic branching.

Chiariamo che avrei preferito che venissero utilizzati i branching, però il problema è che allo stato attuale ( e per diverso tempo) questo branching non sarà programmato perchè troppo pesante e creerebbe cali di prestazioni mostruose anzichè migliorie dal punto di vista di performance, perchè il ps3.0 danno maggior velocità se ben applicati e non qualità superiore come si credeva in un primo momento.

Però ancora non sono sicuro sulla mancanza o meno della fetch vertex... è sarebbe un peccato non ci fosse.

Fek hai avuto notissie... :D ???

Anthonello
05-05-2004, 15:08
ma che vuol dire disponibilità incerta della x800pro da sdi....che se forse cercano bene me la danno????


io questa politica la odio.....:ncomment:


spero che non gli arrivino mai e chiudano.

ho già avuto in passato esperienze simili con loro (per rad 8500 e rad 9800) che si sono tradotte in attese vane di 2 mesi.

Eizo
05-05-2004, 15:10
ma alla fin fine quanto verrebbe a costare in euro una x800 xt?

:confused:

sanitarium
05-05-2004, 15:11
Originariamente inviato da JENA PLISSKEN
+ o - pieno supporto...in paratica mancano dynamic loops and branching ;) ;) ...+ i 32fp;)

Ma purtroppo ancora non è chiara del tutto la situazione VS3.0...

FEK, SE CI SEI BATTI UN COLPO (e possibilmente dacci qualche nuova info)! :sofico:

halduemilauno
05-05-2004, 15:12
Originariamente inviato da Eizo
ma alla fin fine quanto verrebbe a costare in euro una x800 xt?

:confused:


sui 600/650€.
;)

bombardax
05-05-2004, 15:16
Originariamente inviato da halduemilauno
sui 600/650€.
;)


cameriere...me ne due tre per favore....:sofico:

rubex
05-05-2004, 15:16
Raga nuova news,ovviamente da prendere con le molle(almeno x quanto riguarda l'uscita di halflife2 imho):)

Have you been checking out Neowin's weblog for WinHEC? No then you would of missed this bit of Info then.

ATi today launced the X800 graphics card and had machine exhibits ready for attendees to see the “Ruby” demo. The Ruby demo has been released onto CD for attendees to view and see the effects that the X800 can render in real time. The demo was very impressive but was not a touch on the demo by Gabe Newell from Valve. This stole the whole keynote to actually see some new footage from Half Life 2. Again we got the whole video which is approximately 3 minutes long and as soon as we find somewhere with firewire we’ll get it on here asap because it’s one to watch!

Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer

V4v4
05-05-2004, 15:19
Originariamente inviato da rubex
Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer[/I]

x le prestazioni speriamo
ma x quanto riguarda l'uscita di hl... ormai ki ci crede?

bombardax
05-05-2004, 15:26
Originariamente inviato da rubex


Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer


Valve ha esaurito il mio bonus, se non vedo non credo punto

Thunder82
05-05-2004, 15:30
Originariamente inviato da rubex
Raga nuova news,ovviamente da prendere con le molle(almeno x quanto riguarda l'uscita di halflife2 imho):)

Have you been checking out Neowin's weblog for WinHEC? No then you would of missed this bit of Info then.

ATi today launced the X800 graphics card and had machine exhibits ready for attendees to see the “Ruby” demo. The Ruby demo has been released onto CD for attendees to view and see the effects that the X800 can render in real time. The demo was very impressive but was not a touch on the demo by Gabe Newell from Valve. This stole the whole keynote to actually see some new footage from Half Life 2. Again we got the whole video which is approximately 3 minutes long and as soon as we find somewhere with firewire we’ll get it on here asap because it’s one to watch!

Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer

Al massimo quest'estate vedremo un giullare che gironzola per le spiagge dicendo "te lo faccio vedere ioooooooooo half life2" :D

Indovinate chi è il giullare (no, non è Carmack...)

andreamarra
05-05-2004, 15:30
Originariamente inviato da sanitarium
Ma purtroppo ancora non è chiara del tutto la situazione VS3.0...

FEK, SE CI SEI BATTI UN COLPO (e possibilmente dacci qualche nuova info)! :sofico:

Mah, mi ha appena detto che se il fetch dei vertex shaders c'è ,come gli hanno detto, lui non lo trova...

Insomma, credo che proprio non ci sia. la mancanza è grave ma non inficia le prestazioni in vertex che sono da urlo.

Cmq, questa R420 per quanto mostruosa la ritengo tampone per la R500. Ati vuole vedere come evolverà il mondo dei video giochi e degli shader prima. E non hanno tutti i torti considerando che i ps 3.0 verranno sfruttati con le prossime schede 8non oso immaginare che mostri faranno uscire la ati e l'nvidia rispettivamente con R500 e NV50...)

goldorak
05-05-2004, 15:32
Originariamente inviato da rubex
Gabe confirmed that we’ll see Half Life 2 this summer[/I]

Parole vuote e senza senso.

Thunder82
05-05-2004, 15:35
Originariamente inviato da goldorak
Parole vuote e senza senso.

Vedo con piacere che tutti credono a ciò che dice Newell :asd:

Le sue parole mi entrano da un orecchio e mi escono dall'altro.

Paoletta Corsini
05-05-2004, 15:43
Originariamente inviato da Thunder82
Al massimo quest'estate vedremo un giullare che gironzola per le spiagge dicendo "te lo faccio vedere ioooooooooo half life2" :D

Indovinate chi è il giullare (no, non è Carmack...)
Credevo che fosse lui il mitico clown :D

Thunder82
05-05-2004, 15:46
Originariamente inviato da Paoletta Corsini
Credevo che fosse lui il mitico clown :D

Anche Newell non scherza :D

Dai, allora Newell lo chiamiamo sbirulino ok? :D

fek
05-05-2004, 15:49
Originariamente inviato da sanitarium
Ma purtroppo ancora non è chiara del tutto la situazione VS3.0...

FEK, SE CI SEI BATTI UN COLPO (e possibilmente dacci qualche nuova info)! :sofico:

Ne so quanto ieri sera, mi spiace :)
Fino a dopo l'E3 non potro' installare la beta delle DX9.0c e fare delle prove davvero serie e definitive.

(ma sto diventando pessimista)

Thunder82
05-05-2004, 15:52
Originariamente inviato da fek
Ne so quanto ieri sera, mi spiace :)
Fino a dopo l'E3 non potro' installare la beta delle DX9.0c e fare delle prove davvero serie e definitive.

(ma sto diventando pessimista)

Ma potrebbe essere una cosa disabilitata coi driver? Perchè ad esempio nVidia non esegue tutti i test in shadermark 2.0 e ha detto che per ora nei driver hanno disabilitato qualcosa (non mi ricordo cosa) riguardo alle texture perchè nessun gioco lo usa. :)

dwfgerw
05-05-2004, 16:12
Originariamente inviato da fek
Ne so quanto ieri sera, mi spiace :)
Fino a dopo l'E3 non potro' installare la beta delle DX9.0c e fare delle prove davvero serie e definitive.

(ma sto diventando pessimista)


sempre più deluso....

alla fine è un R300x2 senza particolari innovazioni

Teox82
05-05-2004, 16:20
Raga onde evitare di leggere 37 pagine di thread,potreste darmi qualche info sui consumi della X800??Consuma di più della controparte di Nvidia??

Grazie

rubex
05-05-2004, 16:27
Originariamente inviato da dwfgerw
sempre più deluso....

alla fine è un R300x2 senza particolari innovazioni

Gia',innovazioni del tipo ps3.0?
Ma dai su'.....

BYe

andreamarra
05-05-2004, 16:47
Originariamente inviato da Teox82
Raga onde evitare di leggere 37 pagine di thread,potreste darmi qualche info sui consumi della X800??Consuma di più della controparte di Nvidia??

Grazie

Consuma di meno.

andreamarra
05-05-2004, 16:48
Originariamente inviato da rubex
Gia',innovazioni del tipo ps3.0?
Ma dai su'.....

BYe

Sono innovazioni, che però saranno usate fra diverso tempo. E nel frattempo uscirà credo la vera rivoluzione R500. Quest R420 è ottima, leggermente meno attualmente la NV40.. ma salto la generazione a malincuore.

Insomma, non è che mi compro la macchina ad idrogeno se prima non fanno i rifornimenti speciali.

Cifer
05-05-2004, 16:54
Magari sono difficili da quantificare ora, comunque i ps3.0 sempre un'innovazione saranno, il punto è che indubbiamente introdurranno delle logiche di programmazione che in futuro permetteranno un rapporto prestazioni/qualità superiore a quello attualmente sfruttabile dai programmatori, quindi è utile che qualcuno li abbia introdotti ora, in modo che taluni altri ci comincino a ragionare sopra.

D'altro canto avere dei ps3.0 quando già dai ps2.0 per una questione di prestazioni/concorrenza si passa automaticamente il rendering dei ps a fp16 dagli fp32 publicizzati e fra l'altro richiesti dallo standard ps3.0 è un qualcosa che incide molto negativamente su quello che poi l'utente finale fruisce.

Insomma, una permette agli sviluppatori di cominciare a sperimentare nuove "logiche e soluzioni" che sicuramente in futuro faranno accademia, ma perde il confronto "qualità/prestazioni", almeno quello attuale.

L'altra offre il miglior rapporto qualità/prestazioni (almeno attualmente sotto il profilo ps2.0), ma perde il confronto sotto il profilo "innovazione e sviluppo".

Una sembrerebbe, almeno a medio termina migliore per chi gioca, l'altra per chi programma e vuole "sperimentare".

andreamarra
05-05-2004, 16:59
Originariamente inviato da Cifer
Magari sono difficili da quantificare ora, comunque i ps3.0 sempre un'innovazione saranno, il punto è che indubbiamente introdurranno delle logiche di programmazione che in futuro permetteranno un rapporto prestazioni/qualità superiore a quello attualmente sfruttabile dai programmatori, quindi è utile che qualcuno li abbia introdotti ora, in modo che taluni altri ci comincino a ragionare sopra.

D'altro canto avere dei ps3.0 quando già dai ps2.0 per una questione di prestazioni/concorrenza si passa automaticamente il rendering dei ps a fp16 dagli fp32 publicizzati e fra l'altro richiesti dallo standard ps3.0 è un qualcosa che incide molto negativamente su quello che poi l'utente finale fruisce.

Insomma, una permette agli sviluppatori di cominciare a sperimentare nuove "logiche e soluzioni" che sicuramente in futuro faranno accademia, ma perde il confronto "qualità/prestazioni", almeno quello attuale.

L'altra offre il miglior rapporto qualità/prestazioni (almeno attualmente sotto il profilo ps2.0), ma perde il confronto sotto il profilo "innovazione e sviluppo".

Insomma, una sembrerebbe, almeno a medio termina migliore per chi gioca, l'altra per chi programma e vuole "sperimentare".

Esatto. Praticamente la scelta di ati è stata quella di riprendere un progetto è pomparlo (e non è lo stesso facile) e la nvidia ha puntato sulla longevità.

Dal mio punto di vista la scelta nvidia è stata felice dal punto di vista di marchio, di marketing, dei programmatori, degli utenti che vogliono volgere lo sguardo al futuro. Con tutti i rischi che comporta. Perchè quando usciranno giochi con l'engine di Unreal III la NV40 come la r420 saranno accantonate sicuramente.

Dal punto di vista "pratico" la ati ha fatto una scelta azzeccata creando una scheda per coloro che vogliono prestazioni assolute con filtri e risoluzioni mostruose. Per puntare agli shader 3.0

E' ovviamente obbligatorio marcare stretto soprattutto la nuova NV40 per accertarsi che non siano stati fatti dei pasticci.

Ed è questo il motivo per cui nonostante la potenza imbarazzante di unauna e l'innovazione dell'altra io non ne sono convinto fino in fondo.

JENA PLISSKEN
05-05-2004, 17:32
Originariamente inviato da Cifer
Magari sono difficili da quantificare ora, comunque i ps3.0 sempre un'innovazione saranno, il punto è che indubbiamente introdurranno delle logiche di programmazione che in futuro permetteranno un rapporto prestazioni/qualità superiore a quello attualmente sfruttabile dai programmatori, quindi è utile che qualcuno li abbia introdotti ora, in modo che taluni altri ci comincino a ragionare sopra.

D'altro canto avere dei ps3.0 quando già dai ps2.0 per una questione di prestazioni/concorrenza si passa automaticamente il rendering dei ps a fp16 dagli fp32 publicizzati e fra l'altro richiesti dallo standard ps3.0 è un qualcosa che incide molto negativamente su quello che poi l'utente finale fruisce.

Insomma, una permette agli sviluppatori di cominciare a sperimentare nuove "logiche e soluzioni" che sicuramente in futuro faranno accademia, ma perde il confronto "qualità/prestazioni", almeno quello attuale.

L'altra offre il miglior rapporto qualità/prestazioni (almeno attualmente sotto il profilo ps2.0), ma perde il confronto sotto il profilo "innovazione e sviluppo".

Una sembrerebbe, almeno a medio termina migliore per chi gioca, l'altra per chi programma e vuole "sperimentare".



SI...bel dilemma....soprattutto spero che ATI nn introduca un fantomatico R480 in concomitanza del PCIx...l' R420 a quel punto sarebbe solo una meteora;)

andreamarra
05-05-2004, 17:37
Originariamente inviato da JENA PLISSKEN
SI...bel dilemma....soprattutto spero che ATI nn introduca un fantomatico R480 in concomitanza del PCIx...l' R420 a quel punto sarebbe solo una meteora;)


Io ripeto: entrambe le schede sono "tampone". Con un margine ipotetico di vantaggio per la nvidia.

Redvex
05-05-2004, 17:42
Una cosa un po OT.........
Si parla di giochi che sfruttano l'engine di Unreal 3, ma Unreal 3 come gioco uscirà? premettendo ke il 2 anke se un po deluso non mi è dispiaciuto affatto, anke se l'atmosfera gotica/onirica di unreal :cry: vorrei tornare ad avere quell'etàààààààà :cry:

luckye
05-05-2004, 17:47
Esatto.......concordo con chi dichiara l'R420 chip tampone. E kmq essendo lì lì entrambe come prestazioni, mettendo che un giorno si utilizzino Vs e Ps 3.0 non solo Ati non potrebbe eseguirli ma sarebbe kmq bastonata anche per i 2.0 visto che con i 3.0 si possono ricreare gli stessi effetti in minori passaggi !
Se Nvidia con la Gt proporrà prezzi decenti e fornirà supporto tecnico e mazzette affinchè nei giochi di prossima generazione (Hl2 e Doom3) sfruttino i 3.0 x accelelare le prestazioni..........imho non c'è ne sarà più per Ati.

Dopo una geforce 3 seguita dalla mia 9500 se dovessi cambiare scheda......comprerei una Nvidia.
Perchè non sono di parte....sono con chi + mi conviene....e a me l'ati mi ha deluso. Non volgio 240fps in + ma innovazione......e imho ati ha perso.

P.s ultimamente sono stato pro ati ma x obbiettività e non per tifo. Ati ha sfornato si con l'r300 un'ottimo chip ma ormai l'ha proposto in tutte le salse.....9500/9600/9700/9800 modificando e cloccando sempre più........sempre più.

Cifer
05-05-2004, 18:21
http://www.msicomputer.com/pressrelease/images_RX800/image001.jpg

http://www.hisdigital.com/image-file/x800pro_promotewebpage_2k40504_1847_700x1340.jpg


Praticamente il nuovo vga silencer per x800.

Milotto
05-05-2004, 18:25
Originariamente inviato da Lord style
Nulla da dire sui dubbi di attendibilità dei tests FP16 ed FP32 che ho sollevato ?

Ti quoto perchè sono ugualmente perplesso ; anzi ti dirò di più sono dell'avviso che le recensioni di HWUPGRADE siano sempre sbilanciate a favore di Nvidia : E' accaduto con R300/NV30 e tutte le loro releases successive sino ad arrivare ad oggi ,nel recensire NV40 ed R420 si è usato un processore che a quanto sembra castra incredibilmente il prodotto ATI.....
E' da due anni che si discute dell'inadeguatezza della serie NV3X nell'eseguire gli shaders , ma qui da noi si è sempre messa una toppa presentando i prodotti Nvidia quasi sempre allineati con quelli di ATI : stento a pensare che ciò non avvenga con malizia.

StIwY
05-05-2004, 18:26
....da quello che ho visto in giro la GeForce 6800 Ultra Extreme sembra superare la ATI X800 XT Platinum, tanto per fare una percentuale, in 10 test su 15 rispetto all'ATI

voi credete che ATI in qualche modo metterà in circolazione un'altra XT super-pompata per sancire definitivamente il divario ???:confused:

OverClocK79®
05-05-2004, 18:31
Originariamente inviato da Milotto
E' accaduto con R300/NV30 e tutte le loro releases successive sino ad arrivare ad oggi ,nel recensire NV40 ed R420 si è usato un processore che a quanto sembra castra incredibilmente il prodotto ATI.....


hanno già detto che rifaranno il test con gli AFX53
per il discorso shader la 5950 ha ankora prob vedi TR:AOD
ma nn ti passa per la testa che nVidia abbia sistemato un po' il discorso nell'NV40?

BYEZZZZZZZZZZZ

andreamarra
05-05-2004, 18:34
Originariamente inviato da luckye
Esatto.......concordo con chi dichiara l'R420 chip tampone. E kmq essendo lì lì entrambe come prestazioni, mettendo che un giorno si utilizzino Vs e Ps 3.0 non solo Ati non potrebbe eseguirli ma sarebbe kmq bastonata anche per i 2.0 visto che con i 3.0 si possono ricreare gli stessi effetti in minori passaggi !
Se Nvidia con la Gt proporrà prezzi decenti e fornirà supporto tecnico e mazzette affinchè nei giochi di prossima generazione (Hl2 e Doom3) sfruttino i 3.0 x accelelare le prestazioni..........imho non c'è ne sarà più per Ati.

Dopo una geforce 3 seguita dalla mia 9500 se dovessi cambiare scheda......comprerei una Nvidia.
Perchè non sono di parte....sono con chi + mi conviene....e a me l'ati mi ha deluso. Non volgio 240fps in + ma innovazione......e imho ati ha perso.

P.s ultimamente sono stato pro ati ma x obbiettività e non per tifo. Ati ha sfornato si con l'r300 un'ottimo chip ma ormai l'ha proposto in tutte le salse.....9500/9600/9700/9800 modificando e cloccando sempre più........sempre più.


Il discorso di mercato non lascia dubbi sul fatto che la nvidia ha più soluzioni e possa prendere fette importanti di mercato. Ne sono convinto.

Ero io a dire che il chip R420 è una soluzione tampone, nel senso che serve a tamponare la falla del mancato supporto full DX9c (aspetto che venga confermato definitivamente, ma ci spero poco) prima di buttarsi nel full shader 3.0 (strada che deve necessariamente intraprendere, ovviamente).
L'NV40 però lo considerò anch'esso un chip tampone nel senso che penso che sia più che altro un prototipo per avvicinarsi in maniera meno drastica e pericolosa alla futura generazione. La nvidia doveva attuare la "differenziazione del prodotto" semplicemente perchè si è resa conto di non avere molte possibilità di giocarsela alla pari o addirittura predominare nell'area velocistica/qualitativa. Ecco il perchè della scelta coraggiosa di intraprendere l'uso di una architettura decisamente più evoluta della controparte ati.

E' possibile che con l'arrivo massiccio degli shader 3.0 le attuali schede NV40 abbiano dei vantaggi, ma a livello pratico non è affatto detto. Perchè? perchè nella progettazione di un chip può succedere di aver commesso un errore di valutazione non indifferente che a lungo andare potrebbe anche tagliare le gambe al NV40, oppure potrebbe farla diventare la migliore del mercato. Ma non sarà mai l'NV40 la migliore del mercato in senso assoluto perchè quando si farà uso spietato di shader 3.0 la ati sarà già corsa ai ripari con l'R500 (magari anche prima ma non credo, dovrebbero rifare interamente il progetto e non più potenziarlo) e la nvidia avrà sfornato altre versioni migliorate dell'NV40, fino al NV50.

Il rischio per me è un assillo non da poco: con le applicazioni full shader 2.0 come Far Cry e quelle con diverse features come TRAOD si evince dal bench che (per variegati e ancora in parte oscuri motivi) la NV40 vada più a rilento. In diversi bench che fanno uso massiccio dei pixel shader e dei vertex si nota una differenza a dir poco eclatante a favore della X800XT. Ovviamente sono sempre bench da prendere con le molle... ma la questione è: siamo sicuri che la nvidia dopo il flop degli shader 2.0 nella serie FX non abbia fatto errori di valutazione anche per i 3.0?

Insomma, se non avessero fato gli ingegneri della nvidia un lavoro pessimo in precedenza sarei stato sicuro della genuinità della scheda in questione, per ora non sono convintissimo da semplici bench di giochi a volte datati.

andreamarra
05-05-2004, 18:39
Originariamente inviato da OverClocK79®
hanno già detto che rifaranno il test con gli AFX53
per il discorso shader la 5950 ha ankora prob vedi TR:AOD
ma nn ti passa per la testa che nVidia abbia sistemato un po' il discorso nell'NV40?

BYEZZZZZZZZZZZ

A me passa sicuramente nella testa il fatto che gli shader siano sicuramenti migliorati, ma è anche legittimo dubitare dell'effetiva validità dei ps 3.0 nell'NV40. Ovviamente dagli errori del passato si migliora, ma in questioni hardware non è detto. Io spero di si.

il test con gli AFX53 a mio giudizio daranno un gap sostenuto alla soluzione NV40, dai bench di HUpgrade si vede come le schede ati non liberino sufficientemente la loro potenza. Da un lato è un pregio per chi comprerà (se sarà confermata questa cosa) un processore di ultima generazione, dall'altro lato è un difetto perchè satura eccessivamente già un p4.

andreamarra
05-05-2004, 18:43
Originariamente inviato da StIwY
....da quello che ho visto in giro la GeForce 6800 Ultra Extreme sembra superare la ATI X800 XT Platinum, tanto per fare una percentuale, in 10 test su 15 rispetto all'ATI

voi credete che ATI in qualche modo metterà in circolazione un'altra XT super-pompata per sancire definitivamente il divario ???:confused:

La versione Extreme non sarà commercializzata, praticamente era un sample che dimostrava come una Ultra potesse competere maggiormente grazie a frequenze sostenute.

I 10 test su 15 se mi dici a 1024*768 senza filtri ci siamo, altrimenti se metti i filtri e risoluzioni alte (cosa che fa chi compra queste schede) il discorso è differente. La X800XT rimane davvero granitica di fronte ad aumenti qualitativi dell'immagine, la 6800Ultra subisce di più il colpo.

MaBru
05-05-2004, 18:48
Io non riesco ancora a capire come 399$ (prezzo X800 Pro) possano diventare 550€. Con l'euro a 1,21 e rotti (quotazione di oggi) l'IVA del 20% si annulla.

Boh!

Cifer
05-05-2004, 18:51
è vero ed ammirabile che l'nv40 abbia i ps3.0, sopratutto perchè vuol dire che alcuni sviluppatori cominceranno a lavorarci e studiarci sopra, ma rimane comunque il fatto che per fronteggiare la concorrenaza nv40 esegua e probabilmente eseguirà "quasi tutto" ciò che prevede una fp32 a fp16, la differenza qualitativa non è perniente indifferente, come non si può pensare che le prestazioni siano le stesse fra fp16 e fp32.

Degli shader eseguiti a fp16 anche se scritti per essere eseguiti sfruttando la versione 3.0, di questa sfruttano solo il lato che ne permette un risparmio in termini di numero di shaders eseguiti a parità della capacità di calcolo saturata, ma davvero non in termini di qualità.

Nel momento in cui sfrutteranno i ps 3.0 attendendo la richiesta di precisione fp32 e mantenendo delle prestazioni = o > alla concorrenza vinceranno sul lato dell'utenza.

Ora come ora mi sembra + come se avessero tirato fuori uno strumento utile per chi sviluppa e comincia a studiare soluzioni e meccanismi tramite i quali ottenere il miglior rapporto qualità/prestazioni, rapporto comunque in fase di test e teorico fino a quando non ci sia un'hardware davvero capace di mantenere la precisione invariata a fp32, cosa che probabilmente avverrà fra 8 mesi.

Cioè, per quanto i ps3.0 possano aprire nuovi scenari e gestire operazioni di looping che permettano una migliore gestione degli shaders, sopratutto sotto il profilo della lunghezza senza penalizzare le prestazioni, il problema è che quasi sicuramente nv40 non è in grado di eseguirli a fp32 senza perderne il margine di vantaggio derivato dalla "+ intelligente" gestione , fino ad avere prestazioni inferiori alla concorrenza, con una qualità analoga, seppur migliore.

Il punto è che magari si avranno delle prestazioni ancora migliori, forse estremamente superiori in particolarissime situazioni per questa generazione di nv4x a fp16, che potranno creare un margine di vantaggio, ma sempre una qualità inferiore in tutte quelle "particolari" situazioni.

Apprezzabile la sensibilità di Nvidia verso l'introduzione dei nuovi standard e quindi la possibilità del loro sviluppo-evoluzione, ma per quallo che riguarda strettamente il profilo dell'utenza credo che la soluzione Ati sia parecchio in vantaggio.

andreamarra
05-05-2004, 18:56
Una ulteriore considerazione sui PS3.0 e sui VS3.0

A quanto ho potuto leggere per fare in modo che un gioco riesca a supportare questi due nuovi effetti il numero minimo di istruzioni deve essere

512 per i PS contro i 96 dei ps2.0+ (64 aritmetiche+32 texture)

512 minimo per i VS contro i 256 (fruibili a loop) dei vs2.0

In pratica questo significa il minimo di richieste per questi importantissimi shader sono allo stato attuale troppo alte per i giochi. Defvo informarmi sulla lunghezza media di un video gioco carico di ps2.0, e devo vedere quanto sono lunghe le istruzioni in un gioco come Far Cry.

Praticamente da quello che ho letto ci vorrà molto tempo (ma molto) perchè questi shader vengano supportati degnamente.

Corregetemi se ho cannato.

-=Krynn=-
05-05-2004, 18:57
Originariamente inviato da pandyno
E secondo me c' è qualche altra cosa di margine... ;)

Ma chi la vuole la XT? :D la PRO rulla che è un piacere coi filtri :D


Concordo!!!!
Sarà la mia prossima scheda a settembre!!!!!!!

MaBru
05-05-2004, 18:58
Originariamente inviato da Cifer
Ora come ora mi sembra + come se avessero tirato fuori uno strumento utile per chi sviluppa e comincia a studiare soluzioni e meccanismi tramite i quali ottenere il miglior rapporto qualità/prestazioni, rapporto comunque in fase di test e teorico fino a quando non ci sia un'hardware davvero capace di mantenere la precisione invariata a fp32, cosa che probabilmente avverrà fra 8 mesi.

Fek ha sintetizzato così: NV40 meglio per i programmatori; R420 meglio per l'utente finale.

JoeLatino
05-05-2004, 19:02
...tralasciando per un momento i giochi sapete come si comportano le varie schede in ambito opengl,e,cioe' con applicazioni grafiche 3d tipo lightwave,maya,3dmax? un'altra cosa che non se ne e' ancora parlato:da quello che so' io le schede Nvidia hanno la decodifica hardware mpeg/divx e la tv incorporata.
i sapete dire qualcosa in merito?Grazie Joe