View Full Version : ATI Radeon X800 [Thread ufficiale]
Pagine :
[
1]
2
3
4
5
6
7
8
RADEON X800 Technology Specifications
160 million transistors on 0.13 micron low-k fabrication process
Up to sixteen extreme parallel pixel pipelines
Six programmable vertex shader pipelines
256-bit quad-channel GDDR3 memory interface
AGP 8X support
SMARTSHADER™ HD
Support for Microsoft® DirectX® 9.0 programmable vertex and pixel shaders in hardware
Direct X 9.0 Vertex Shaders
Vertex programs up to 65,280 instructions with flow control
Single cycle trigonometric operations (SIN & COS)
Direct X 9.0 Extended Pixel Shaders
Up to 1,536 instructions and 16textures per rendering pass
2nd generation F-buffer technology accelerates multi-pass pixel shader programs with unlimited instructions
32 temporary and constant registers
Facing register for two-sided lighting
128-bit, 64-bit & 32-bit per pixel floating point color formats
Multiple Render Target (MRT) support
Complete feature set also supported in OpenGL® via extensions
SMOOTHVISION™ HD
2x/4x/6x Anti-Aliasing modes
Sparse multi-sample algorithm with gamma correction, programmable sample patterns, and centroid sampling
Lossless Color Compression (up to6:1)at all resolutions, including widescreen HDTV resolutions
Temporal Anti-Aliasing
2x/4x/8x/16x Anisotropic Filtering modes
Up to 128-tap texture filtering
Adaptive algorithm with bilinear (performance) and trilinear (quality) options
3Dc™
High quality 4:1 Normal Map Compression
Works with any two-channel data format
HYPER Z™ HD
3-level Hierarchical Z-Buffer with Early Z Test
Lossless Z-Buffer Compression (up to 48:1)
Fast Z-Buffer Clear
Z Cache optimized for real-time shadow rendering
Optimized for performance at high display resolutions, including widescreen HDTV resolutions
VIDEOSHADER™ HD
Seamless integration of pixel shaders with video in real time
FULLSTREAM™ video de-blocking technology for Real, DivX, and WMV9 formats
VIDEOSOAP™ noise removal filtering for captured video
MPEG1/2/4 decode and encode acceleration
DXVA Support
Hardware Motion Compensation, iDCT, DCT and color space conversion
All-format DTV/HDTV decoding
YPrPb component output for direct drive of HDTV displays†
Adaptive Per-Pixel De-Interlacing and Frame Rate Conversion (temporal filtering)
Dual integrated display controllers
Dual integrated 10 bit per channel 400 MHz DACs Integrated 165 MHz TMDS transmitter (DVI 1.0 / HDMI compliant and HDCP ready)
Integrated TV Output support up to 1024x768 resolution
Windows® Logo Program compliant
CATALYST™ Software Suite
IMMAGINI
http://www.tombraiders.it/public/r420angle.jpghttp://www.tombraiders.it/public/r420front.GIF
http://www.tombraiders.it/public/back_scheda_memoria.jpghttp://www.tombraiders.it/public/die.JPG
http://www.tombraiders.it/public/memorie.JPGhttp://www.tombraiders.it/public/condens.JPG
http://www.tombraiders.it/public/molex.JPGhttp://www.tombraiders.it/public/theatre.JPG
ARCHITETTURA
http://www.tombraiders.it/public/architettura_r420[1].jpghttp://www.tombraiders.it/public/schema_memoria.jpg
http://www.tombraiders.it/public/ps.JP_1.JPGhttp://www.tombraiders.it/public/rop.JPG
http://www.tombraiders.it/public/psunit.jpghttp://www.tombraiders.it/public/atiproc.JPG
http://www.tombraiders.it/public/vs.JPGhttp://www.tombraiders.it/public/r4203dcvsdxtc.gif
http://www.tombraiders.it/public/hyper_1.jpg
http://www.tombraiders.it/public/temporal_aa_schema.jpg
RECENSIONI SITI ITALIANI
http://www.hwupgrade.it/articoli/1013/index.html
http://next.videogame.it/html/articolo.php?id=4246
http://www.tomshw.it/graphic.php?guide=20040504 traduzione di quella in inglese
http://www.nvitalia.com/articoli/anteprima_ATi_R420/1.htm
http://next.videogame.it/html/articolo.php?id=4297&pagina=1
RECENSIONI SITI STRANIERI
http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=0
http://www.chip.de/artikel/c_artikelunterseite_11828771.html?tid1=&tid2=
http://www.hardware.fr/articles/494/page1.html
http://www.anandtech.com/video/showdoc.html?i=2044[/b]
[url]http://www.beyond3d.com/reviews/ati/r420_x800/
http://www.bjorn3d.com/_preview.php?articleID=457&pageID=722
http://www.driverheaven.net/reviews/X800XTdhreview/
http://www.extremetech.com/article2/0,1558,1583627,00.asp
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/
http://www.gamers-depot.com/hardware/video_cards/ati/x800/001.htm
http://www.hardocp.com/article.html?art=NjEx
http://www.hardwareanalysis.com/content/article/1710/
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTg=
http://www.hothardware.com/viewarticle.cfm?articleid=517&cid=2
http://www.k-hardware.de/artikel.php?s=&artikel_id=2831
http://www.neoseeker.com/Articles/Hardware/Reviews/r420preview/
http://www.pcper.com/article.php?aid=38
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1
http://www.tomshardware.com/graphic/20040504/index.html
http://www.3dcenter.de/artikel/r420_technik/index_e.php
http://www.3dcenter.de/artikel/r420_benchmarks/
http://www.ascully.com/modules.php?name=Reviews&rop=showcontent&id=362
http://www.lostcircuits.com/video/ati_x800/
http://www.trustedreviews.com/article.aspx?art=418
http://www.xbitlabs.com/articles/video/display/r420.html
http://www.digit-life.com/articles2/radeon/r420.html
http://www.gamers-depot.com/hardware/video_cards/ati/x800/001.htm
http://www.hartware.net/review_400.html
http://www.beyond3d.com/reviews/sapphire/x800pro/
Real-Time Demos
Ruby: The DoubleCross
EXE: 130MB http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.exe
MPEG: 17.4MB http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mpg
Quicktime: 45.3MB http://www2.ati.com/misc/demos/ATI-X800-DoubleCross-Demo-v1.0.mov
Subsurface Scattering
EXE: 103MB http://www2.ati.com/misc/demos/ATI-X800-Subsurface-Demo-v1.0.exe
MPEG: 13MB http://www2.ati.com/misc/demos/ATI-X800-Subsurface-Demo-v1.0.mpg
Quicktime: 30.5MB http://www2.ati.com/misc/demos/ATI-X800-Subsurface-Demo-v1.0.mov
Crowd
EXE: 153MB http://www2.ati.com/misc/demos/ATI-X800-Crowd-Demo-v1.2.exe
MPEG: 20,7MB http://www2.ati.com/misc/demos/ATI-X800-Crowd-Demo-v1.0.mpg
Quicktime: 55,8MB http://www2.ati.com/misc/demos/ATI-X800-Crowd-Demo-v1.0.mov
3Dc Demo by Humus
RAR: http://esprit.campus.luth.se/~humus/3D/3Dc.rar
ZIP: http://esprit.campus.luth.se/~humus/3D/3Dc.zip
WHITEPAPERS
3Dc http://www.ati.com/products/radeonx800/3DcWhitePaper.pdf
HighDefinition Gaming http://www.ati.com/products/radeonx800/HighDefinitionGamingWhitePaper.pdf
RADEON X800 3D Architecture http://www.ati.com/products/radeonx800/RADEONX800ArchitectureWhitePaper.pdf
ELENCO PRODUTTORI
ASUS http://www.asus.com/index.htm
ABIT http://www.abit.com.tw/page/en/index.php
FIC http://www.fica.com/ :asd:
GIGABYTE http://www.giga-byte.com/
Hightech Informations Systems Inc http://www.hisdigital.com/
Info-Tek http://www.gecube.com/
MSI Computer Corp. http://www.msicomputer.com/
Sapphire Technology http://www.sapphiretech.com/
Tul (Powercolor) http://www.tul.com.tw/
Visiontek http://www.visiontek.com/
Lord style
04-05-2004, 11:28
Qualche immagine tratta dal video UFFICIALE di Ruby.
http://www.tombraiders.it/public/Ruby 1.JPG
http://www.tombraiders.it/public/Ruby 1.JPG
Mi sta facendo l'occhiolino, secondo me ci sta. :D
http://www.tombraiders.it/public/Ruby 3.JPG
http://www.tombraiders.it/public/Ruby 3.JPG
http://www.tombraiders.it/public/Ruby_2.JPG
http://www.tombraiders.it/public/Ruby_2.JPG
Le sue sensuali labbra ... :D
http://www.tombraiders.it/public/Ruby 4.JPG
http://www.tombraiders.it/public/Ruby 4.JPG
P.S.
Complimenti MaBru, fin'ora hai fatto uno splendido lavoro con questo topic. ;) Quindi non inginocchiarti sui ceci. :D
OverClocK79®
04-05-2004, 11:34
http://www.hx3.de/ext/farcry/ATIBilder/architecture.gif
okkio a nn saccagnare l'angolo in alto a sinistra.....
che vi fottete l'interfaccia AGP :D
a parte gli skerzi in nessuna rece o articolo hanno spiegato cosa serve quella specie di connettore CD audio giallo???
BYEZZZZZZZZZZZZ
P.S. nessuno sa nulla delle freq ufficiali?? o meglio nn vedo scritto nulla... io sapevo di un 520/1120
BYEZZZZZZZZZZZZ
Paoletta Corsini
04-05-2004, 11:34
Mancano poco meno di tre ore allo scadere dell'NDA. Viste le recensioni discordanti, non posso far altro che aspettare il lavoro di Fanizzi per aver le idee più chiare.
Adriano77
04-05-2004, 11:35
ottimo post
complimenti mabru per l'iniziativa
insane74
04-05-2004, 11:36
Originariamente inviato da OverClocK79®
[a parte gli skerzi in nessuna rece o articolo hanno spiegato cosa serve quella specie di connettore CD audio giallo???
BYEZZZZZZZZZZZZ
esatto! che roba è? :confused: :confused: :confused:
Se funziona come sulle 9200VIVO che ho qui è un ingresso audio....che dovrebbe avere i connettori di uscita verso l'esterno Destro e Sinistro....così metti il Tv Out S-Video e hai anche l'audio.
ottimo thread
aspettiamo l'intervento d yossarian per avere kiarimenti sull'architettura e le eventuali differenze e punti in comune con nv40 ;)
bYeZ!
Ragazzi non riempiamo il topic ufficiale con pagine inutili, aspettiamo che scada l'nda e arrivi la rece di Hwupgrade.
Rimaniamo sull'altro topic per ora. ;)
Non so se ci avete fatto caso..Ma qual'è l'elemento caratterizzante del nemico di Ruby??
L'OCCHIO...Qual'è il logo del "nemico" di Ati??;)L'occhio!!:eheh::asd:
OverClocK79®
04-05-2004, 11:51
Originariamente inviato da R@nda
Se funziona come sulle 9200VIVO che ho qui è un ingresso audio....che dovrebbe avere i connettori di uscita verso l'esterno Destro e Sinistro....così metti il Tv Out S-Video e hai anche l'audio.
ecco
forse si spiegazione plausibile....
qlkosa che collega la parte VIVO con la skeda audio :)
BYEZZZZZZZZZZZZZ
Originariamente inviato da OverClocK79®
ecco
forse si spiegazione plausibile....
qlkosa che collega la parte VIVO con la skeda audio :)
BYEZZZZZZZZZZZZZ
Quoto .....
Gio&Gio
non si vedono piu le foto.
ShadowThrone
04-05-2004, 13:03
aspettiamo....
http://www.hx3.de/ext/farcry/ATIBilder/vertex-engine.gif
Che fine ha fatto l'unità Texture Fetch nei VS necessaria per poter fare un vero displacement mapping in hardware, come richiesto dallo SM3.0?
Spero si tratti di un errore.
Comunque io mi aspettavo molto di più da una GPU come la XT che opera a 125Mhz in più di nV40 e a quanto pare non supporta granche dello SM 3.0.
Le differenze sono mimine tra le due, basta portare nV40 a 50/60Mhz in più per battere la XT 800XT a 525Mhz.
Credo che nVidia stia lentamente ritornando, con le prossime soluzioni affinate di nv40 sarà un bello scontro.
per quanto riguarda il discorso prezzi, io sono molto interessato alla fascia dei 299/399 dove nvidia dovrebbe piazzare la 6800 liscia 12pipe 350/700 e la GT 16pipe 350/1000.
Già il fatto che sia pienamente conforme allo SM 3.0 è anche più longeva e può farmi restare l'agp dentro il case per un bel po di tempo.
Jedi_Master
04-05-2004, 13:19
Originariamente inviato da dwfgerw
Le differenze sono mimine tra le due, basta portare nV40 a 50/60Mhz in più per battere la XT 800XT a 525Mhz.
Iniziamo bene......
Gia' vedo le flammate in lontananza....
:D
sempreio
04-05-2004, 13:21
mi sa che non capiremo le vere potenzialità di entrambi le soluzioni prima di 6-7 mesi:rolleyes:
Originariamente inviato da Jedi_Master
Iniziamo bene......
Gia' vedo le flammate in lontananza....
:D
cerca di quotare le cose più interessanti come ad esempio la mancanza dell'unita fetch dentro i VS, questa potrebbe essere im ho una grave perdita perchè non consente di fare Displacement Mapping dello Shader Model 3.0.
da ATi mi aspettavo una XT molto moooolto più veloce della nv40 a 400Mhz invece non è stato cosi.
cmq sono entrambe ottime anzi eccellenti, non avremo certo problemi di scatti sia con nv che con ati
halduemilauno
04-05-2004, 13:24
Originariamente inviato da dwfgerw
Comunque io mi aspettavo molto di più da una GPU come la XT che opera a 125Mhz in più di nV40 e a quanto pare non supporta granche dello SM 3.0.
Le differenze sono mimine tra le due, basta portare nV40 a 50/60Mhz in più per battere la XT 800XT a 525Mhz.
Credo che nVidia stia lentamente ritornando, con le prossime soluzioni affinate di nv40 sarà un bello scontro.
per quanto riguarda il discorso prezzi, io sono molto interessato alla fascia dei 299/399 dove nvidia dovrebbe piazzare la 6800 liscia 12pipe 350/700 e la GT 16pipe 350/1000.
Già il fatto che sia pienamente conforme allo SM 3.0 è anche più longeva e può farmi restare l'agp dentro il case per un bel po di tempo.
per quanto visto finora sono d'accordo.
:) :)
andreamarra
04-05-2004, 13:28
Noncapisco perchè sia parere di molti il fatto che nv40 disporrà di shader 3.0 e R420 no.
A parte il fatto che il supporto agli shader 3.0 o avrà influenza sulla qualità ma sulle performance, ma poi Fek della Lionheads Studios ha più volte espresso questo:
ovvero che la nv40 potrà disporre del pieno supporto agli shader 3.0, mantre l'ati potrà disporre stand alui di tutto eccezion fatta per il branching. Praticamente è come se su 100 effetti possibili la nvidia ne sfrutti 100 e la ati 99. Tra l'altro il branching non verrà utilizzato ancora e ci vorrà diverso tempo poichè la stessa nvidia ha espressamente consigliato ai programmatori di utilizzare il branching poichè adesso è troppo pesante per l'hardware. Più in là verrà utilizzato , ma per ora no.
In più c'è da dire che la nvidia ha fatto una scelta pionieristica che dal punto di sviluppo servirà molto, ma è una scelta di marketing per il solo fatto di potersi fregiare al 100% del supporto agli shader 3.0. Quando ci sarà la possibilità di utilizzare il branching la ati sicuramente la utilizzerà. Praticamente è un pò come l'uso delle DX9 con le R3X0, che sono servite per aiutare i programmatori a sviluppare software Full DX9, ma che all'atto pratico sono serviti praticamente soltanto adesso.
già iniziamo bene .. nv40 clockata x battere la x800...e se x800@?? cosa succede?
30 min!! :muro: :muro: :mc:
JENA PLISSKEN
04-05-2004, 13:29
- 25 minuti:sofico:
dai basta facciamola uscire :cry:
andreamarra
04-05-2004, 13:33
Originariamente inviato da royal
già iniziamo bene .. nv40 clockata x battere la x800...e se x800@?? cosa succede?
30 min!! :muro: :muro: :mc:
La scelta di nvidia è stata diversa da quella di ati. Non è corretto infatti dire "se la nv40 la faccio arrivare alle frequenze della x800xt diventa superiore". Perchè poi si potrà aumentare lo stesso con la ati che grazie al low-k e a un die con meno transistor scalderà poco e potrà avere un coefficiente di OC maggiore.
tra l'altro stando ancora ai bench (a mio giudizio farlocchi) la x800xt ha il grande pregio di rimanere granitica all'aumentare di risoluzione e di fiiltri vari. Se fose confermato sarebbe questa una cosa importante per ati.
E dai cazzarola!!! :mad:
:D:D
insane74
04-05-2004, 13:36
io per esempio nel caso di un upgrade della sv sarei obbligato (ma sarebbe un bel obbligo! :D ) a prendere la ati *é tutte le ultime nvidia mica ci stanno in un xpc!!! non c'è spazio!
w ati!
sempreio
04-05-2004, 13:38
ok, è ora!!!!!!!!!!!!!!!!:sofico:
andreamarra
04-05-2004, 13:38
Ragazzi, evitiamo però di far degenerare il 3d in sterili e puerili litigi.
Fra un pò si saprà (spero) tutto, ognuno valuterà le prestazioni e le features in base a quello che vedrà. E spero non in base a semplice campanilismo.
-20 minuti, vediamo se ste rece che girano verranno confermate da tutte le fonti sotto NDA. :)
halduemilauno
04-05-2004, 13:40
Originariamente inviato da andreamarra
La scelta di nvidia è stata diversa da quella di ati. Non è corretto infatti dire "se la nv40 la faccio arrivare alle frequenze della x800xt diventa superiore". Perchè poi si potrà aumentare lo stesso con la ati che grazie al low-k e a un die con meno transistor scalderà poco e potrà avere un coefficiente di OC maggiore.
tra l'altro stando ancora ai bench (a mio giudizio farlocchi) la x800xt ha il grande pregio di rimanere granitica all'aumentare di risoluzione e di fiiltri vari. Se fose confermato sarebbe questa una cosa importante per ati.
credo che intendesse(o almeno è quello che intendo io)che a quanto visto finora i 125 mhz in + della ati si avvertono poco o cmq meno di quanto si aspettassi. quindi pensa se la 6800 avesse avuto quei 50 in +. e si tenga presente che ati ha avuto il tempo e l'occasione per scegliere meglio le sue frequenze
tutto qui e IHMO.
ciao.
;)
mi ricorda a suo tempo l'attesa x l'r300:D
Vabbé che l'attesa è tanta ma si potrebbero evitare post tipo "-25", "-20", etc.? Manco arrivasse l'apocalisse.
Grazie.
halduemilauno
04-05-2004, 13:43
record presenze sul sito 956.
;)
quello che mi lascia perplesso dallo schema delle VS è la mancanza dell'unita texture fetch che non consente di Displacement Mapping dello SM 3.0!
In poche parole se venisse confermato tra 20min, si tratta di un semplice r300x2 con poche innovazioni tecnologiche, alla fine me ne sbatto se fa 210fps e la 6800 ne fa 190.
andreamarra
04-05-2004, 13:45
Originariamente inviato da dwfgerw
quello che mi lascia perplesso dallo schema delle VS è la mancanza dell'unita texture fetch che non consente di Displacement Mapping dello SM 3.0!
In poche parole se venisse confermato tra 20min, si tratta di un semplice r300x2 con poche innovazioni tecnologiche, alla fine me ne sbatto se fa 210fps e la 6800 ne fa 190.
Anche a me lascia perplesso. Spero che non sia confermata questa cosa.
Da TGM online
Come prevedibile, ATi ha risposto per le rime a nVidia, proponendo un processore in gran parte derivato da R300 (segno che si trattava proprio di una tecnologia vincente), ma dalle performance pressoché raddoppiate.
Il nuovo R420, aka Radeon X800, è infatti dotato di un'architettura scalare che può avere 16 (XT), 12 (Pro) o anche meno pipeline, diventando così un'ottima base per sviluppare senza costi eccessivi anche le versioni più economiche della scheda (per la fascia di mercato entry-level). Nelle sue versioni più potenti, però, è capacissima di tenere testa anche al nuovo mostro di nVidia che, lo ricordiamo, nasce da un'architettura in gran parte rinnovata rispetto alle vecchie GeForce FX. Fra le caratteristiche più interessanti dei nuovi processori di ATi, comunque, c'è la compressione 3Dc delle normal maps, una caratteristica richiesta a gran voce da John Carmack in passato e da tanti altri sviluppatori: le normal map sono infatti molto grandi e difficili da conservare in memoria, e servono a calcolare con precisione i riflessi della luce sugli oggetti. Grazie al nuovo algoritmo 3Dc è possibile ottenere normal maps di elevata qualità, ma capaci di occupare solo il 25% dello spazio in memoria, superando quindi per qualità ed efficienza i vecchi algoritmi di compressione per le texture esistenti. In soldoni, l'uso delle normal map ci restituirà giochi con una grafica molto realistica, dove potremo arrivare a un livello di dettaglio tale da osservare la porosità della pelle umana e le pieghe delle magliette dei giocatori di FIFA.
La versione Pro della X800 esce oggi, ha un core che viaggia a 475 MHz e le memorie a 900. E' dotata di 12 pixel pipelines e costerà attorno ai 349 dollari. La versione XT debutterà invece dopo due settimane, il 21 maggio, e oltre a 16 pipelines viaggerà a 520 MHz (le memorie a 1,12 GHz). Voci di una versione "deluxe" con core a 560 MHz devono ancora trovare conferma da parte di ATi, ma è abbastanza probabile che a quelle frequenze ci si possa arrivare con un semplice overclock.
Dal punto di vista dei consumi, le due schede sono molto interessanti: dotate di un singolo molex su slot AGP 8x, è probabile che non abbiano bisogno di alimentazioni aggiuntive quando uscirà la loro controparte PCI Express. In ogni caso, il consumo a massimo regime è stimato attorno ai 75-80 Watt.
Le due schede introducono diverse novità nei loro shader (Smartshader HD), ma non supportano la versione 3.0 di pixel e vertex shader, introdotte invece da nVidia nella serie 6800. ATi ha infatti dichiarato che nei giochi attuali semplicemente "non servono", e che invece ciò che vogliono i giocatori sono schede video capaci di sparare framerate elevatissimi anche alle risoluzioni più alte, permettendo loro di attivare qualche filtro per migliorare l'immagine. Per dimostrare le potenzialità della Radeon X800, gli ingegnedi di ATi l'hanno montata su un PC barebone con alimentatore da 250 Watt, dotato di un Pentium 4 a 2,5 GHz, e hanno lanciato la loro demo di Ruby, un vero e proprio cartone animato con effetti di luce, sfocatura di campo, riflessi, trasparenze e quant'altro, che è stato eseguito in tempo reale - senza perdere un fotogramma - davanti ai nostri occhi. Nella demo c'è moltissima azione "alla matrix".
http://www.tgmonline.it/news/maggio2004/20040504111856
sempreio
04-05-2004, 13:48
Originariamente inviato da dwfgerw
quello che mi lascia perplesso dallo schema delle VS è la mancanza dell'unita texture fetch che non consente di Displacement Mapping dello SM 3.0!
In poche parole se venisse confermato tra 20min, si tratta di un semplice r300x2 con poche innovazioni tecnologiche, alla fine me ne sbatto se fa 210fps e la 6800 ne fa 190.
scusate l' ignoranza ma il displacement mapping è quello che crea le rotondità nei poligoni?
:rolleyes:
halduemilauno
04-05-2004, 13:49
Originariamente inviato da halduemilauno
record presenze sul sito 956.
;)
959.
;)
__M@ster__
04-05-2004, 13:50
Originariamente inviato da halduemilauno
959.
;)
mi hai preceduto....cmq - 10min
JENA PLISSKEN
04-05-2004, 13:52
E NAMOOOO:sofico:
Originariamente inviato da sempreio
scusate l' ignoranza ma il displacement mapping è quello che crea le rotondità nei poligoni?
:rolleyes:
E' quello che permette di creare superfici geometricamente complessissime con pochi calcoli grazie all'uso di mappe che evidenziano le varie altezze di ogni singolo punto sui poligoni secondo una scala di colori (mi sembra grigi).. ;)
nirvanboy81
04-05-2004, 13:53
Dai, fate finta di avere gli orologi 10 minuti avanti!!! Non ce la facciamo più!!
Pietàààààààààà!!!!!!!!!!!:cry: :cry:
Originariamente inviato da dwfgerw
cerca di quotare le cose più interessanti come ad esempio la mancanza dell'unita fetch dentro i VS, questa potrebbe essere im ho una grave perdita perchè non consente di fare Displacement Mapping dello Shader Model 3.0.
Credo proprio che la mancanza dell'unita' di fetch sia un errore. La R420 supporta il fetch di texture nei vertex shader (senza flitraggio).
Ho inserito una nuova immagine per il pixel shader unit
JENA PLISSKEN
04-05-2004, 13:56
Originariamente inviato da fek
Credo proprio che la mancanza dell'unita' di fetch sia un errore. La R420 supporta il fetch di texture nei vertex shader (senza flitraggio).
Fra poco sapremo tutto:oink:
5 MINUTIIII.................qui in ufficio io e un mio collega stiamo impazzendo per l'attesa........
:confused:
Beh dai, qualcosina so gia' :p
nirvanboy81
04-05-2004, 13:57
Dai che devo uscire,così me la stampo e me la leggo fuori!!:sofico: :sofico:
Vi prego entro le 15.00!!!!!!!!
sempreio
04-05-2004, 13:57
Originariamente inviato da Simon82
E' quello che permette di creare superfici geometricamente complessissime con pochi calcoli grazie all'uso di mappe che evidenziano le varie altezze di ogni singolo punto sui poligoni secondo una scala di colori (mi sembra grigi).. ;)
grazie:) , comunque se non c' è questa scheda non vale poi molto come diceva un utente, è solo una r3x0 super potenzia:rolleyes: e si che ati ci aveva sempre abituato a progredire non solo con la potenza bruta
JENA PLISSKEN
04-05-2004, 13:57
Il punto 3 delle regole è fantastico....quindi facciamo solo pubblicità?? No...basta essere educati...ma viva il confronto:D
JENA PLISSKEN
04-05-2004, 13:58
BASTAAAAAAAAAAAAA - 3:D
pork......dovrei lavorare ma aspetto dopo......:sofico:
Della serie.. non abbiamo sbagliato giorno? :D
Troppa tensione.........................................non so se saprò reggere!!!:D
JENA PLISSKEN
04-05-2004, 14:00
Originariamente inviato da Simon82
Della serie.. non abbiamo sbagliato giorno? :D
- 24ore:sofico:
Originariamente inviato da Print
- 1 minuto
buon anno nuovo!!!!!!!!! :sofico: :sofico: :gluglu:
bYeZ!
speriamo che i server di hwupgrade reggano l'impatto....
JENA PLISSKEN
04-05-2004, 14:00
Io Nn vedo un TUBO:cry:
nirvanboy81
04-05-2004, 14:01
Corsini e Vifani: :banned: :ncomment:
:D
insane74
04-05-2004, 14:01
Originariamente inviato da JENA PLISSKEN
- 24ore:sofico:
:confused:
prima straniera
http://www.hardocp.com/article.html?art=NjEx
Sto post e' gia' inzozzato,contenti voi...
BYe
sempreio
04-05-2004, 14:01
mi sa che a forza di F5 spacchiamo i server è meglio che mettete tutto ora:O
Wing_Zero
04-05-2004, 14:02
raga, ma quando e' che viene presentata ufficialmente la x800???
delucidatemi!
ciaoz
Originariamente inviato da JENA PLISSKEN
- 24ore:sofico:
Uscitooooooo ora leggo! :D
nirvanboy81
04-05-2004, 14:03
Originariamente inviato da Wing_Zero
raga, ma quando e' che viene presentata ufficialmente la x800???
delucidatemi!
ciaoz
:muro: :muro: :D
ci sono sttualmente 886 utenti sul forum:eek:
chissa' come mai??????:sofico:
JENA PLISSKEN
04-05-2004, 14:03
Originariamente inviato da Simon82
prima straniera
http://www.hardocp.com/article.html?art=NjEx
e mò si apre:rolleyes:
andreamarra
04-05-2004, 14:03
Originariamente inviato da fek
Credo proprio che la mancanza dell'unita' di fetch sia un errore. La R420 supporta il fetch di texture nei vertex shader (senza flitraggio).
Ciao Fek :) , non ho capito il tuo post (sarà la tensione per l'attesa ? :asd: )...
Praticamente c'è o non c'è l'unita di fetch vertex? Perchè parli di errore e poi di supporto... mi chiarisci ;) ?
Originariamente inviato da andreamarra
Noncapisco perchè sia parere di molti il fatto che nv40 disporrà di shader 3.0 e R420 no.
A parte il fatto che il supporto agli shader 3.0 o avrà influenza sulla qualità ma sulle performance, ma poi Fek della Lionheads Studios ha più volte espresso questo:
ovvero che la nv40 potrà disporre del pieno supporto agli shader 3.0, mantre l'ati potrà disporre stand alui di tutto eccezion fatta per il branching. Praticamente è come se su 100 effetti possibili la nvidia ne sfrutti 100 e la ati 99. Tra l'altro il branching non verrà utilizzato ancora e ci vorrà diverso tempo poichè la stessa nvidia ha espressamente consigliato ai programmatori di utilizzare il branching poichè adesso è troppo pesante per l'hardware. Più in là verrà utilizzato , ma per ora no.
In più c'è da dire che la nvidia ha fatto una scelta pionieristica che dal punto di sviluppo servirà molto, ma è una scelta di marketing per il solo fatto di potersi fregiare al 100% del supporto agli shader 3.0. Quando ci sarà la possibilità di utilizzare il branching la ati sicuramente la utilizzerà. Praticamente è un pò come l'uso delle DX9 con le R3X0, che sono servite per aiutare i programmatori a sviluppare software Full DX9, ma che all'atto pratico sono serviti praticamente soltanto adesso.
concordo, però è come la storia del displacement mapping o del supporto "solo" dx8 della geforce4 contro quello 8.1 della 8500 alla fine rivelatosi inutile, come lo è stato sin'ora il displacement mapping su nv30 e come lo saranno i ps3.0 su nv40.
unica differenza che se nvidia che non implementa qualcosa è inacettabile, se è ati, fa bene.
http://www.hardware.fr/articles/494/page1.html
seconda ;)
Originariamente inviato da andreamarra
Ciao Fek :) , non ho capito il tuo post (sarà la tensione per l'attesa ? :asd: )...
Praticamente c'è o non c'è l'unita di fetch vertex? Perchè parli di errore e poi di supporto... mi chiarisci ;) ?
Colpa mia che ho scritto male. C'e' un errore in quelle slide perche' ha il supporto. Sorry :)
http://www.tomshw.it/graphic.php?guide=20040504
in italiano :)
Raga ma non si vede ancora niente.. :muro:
JENA PLISSKEN
04-05-2004, 14:05
Originariamente inviato da checo
concordo, però è come la storia del displacement mapping o del supporto "solo" dx8 della geforce4 contro quello 8.1 della 8500 alla fine rivelatosi inutile, come lo è stato sin'ora il displacement mapping su nv30 e come lo saranno i ps3.0 su nv40.
unica differenza che se nvidia che non implementa qualcosa è inacettabile, se è ati, fa bene.
Lascia poerdere è male cmq...poi si vedrà se sarà utile o meno;)
andreamarra
04-05-2004, 14:06
Originariamente inviato da checo
concordo, però è come la storia del displacement mapping o del supporto "solo" dx8 della geforce4 contro quello 8.1 della 8500 alla fine rivelatosi inutile, come lo è stato sin'ora il displacement mapping su nv30 e come lo saranno i ps3.0 su nv40.
unica differenza che se nvidia che non implementa qualcosa è inacettabile, se è ati, fa bene.
Attenzione, io ho sempre detto che le scelte "pionieristiche" sono il sale della tecnologia. Se nvidia utilizza una cosa che al momento attuale non può essere utilizzata va benissimo perchè qualcuno potrà cominciare a prendere la mano (feeeeek :D !!!).
D'altro canto non capisco perchè non sono state inserite nmel progetto ati. E me ne rammarico (anche se poi riflettendoci queste scehde quando il branching potrà e saròà diffuso porobabilmente saranno soppiantate).
Ecco il senso del mio intervento :)
Nino Grasso
04-05-2004, 14:06
ma sicuri che non è alle 3 americane?? :sofico:
andreamarra
04-05-2004, 14:08
Originariamente inviato da fek
Colpa mia che ho scritto male. C'e' un errore in quelle slide perche' ha il supporto. Sorry :)
Ti scuso solo perchè B&W2 mi garba tantissimo :O
:asd: :D ;)
Ottimo, almeno l'unità fetch è presente. Sarebbe stato una cazzata non implemetarla...
JENA PLISSKEN
04-05-2004, 14:08
Come il predecessore, il chip R420 supporta solo DirectX 9.0, ossia è limitato a PixelShader 2.0. Inoltre la precisione in virgola mobile è ancora ristretta a un massimo di 24 bit. Ancora una volta, sulla carta questo sembra un netto svantaggio rispetto alla neonata di NVIDIA, che offre una precisione a 32 bit come pure il supporto per DirectX 9.0c (ShaderModel 3.0). Per ora, pensando al parco hardware e software attuale, è difficile affermare che la mancanza di queste caratteristiche sia uno svantaggio effettivo. Naturalmente prima o poi queste mancanze si faranno notare, rimane da determinare quanto sia distante questo ipotetico momento.
Idem x i VS;)
"..La presa video-in vicina al Molex è una buon'idea, permettendo all'utente di collegare una fonte video nella parte frontale del case..."
http://www.tomshw.it/guides/graphic/20040504/images/boxshot.jpg
http://www.tomshw.it/graphic.php?guide=20040504
Originariamente inviato da JENA PLISSKEN
Lascia poerdere è male cmq...poi si vedrà se sarà utile o meno;)
in questa genrazione non li vedo fondamentali
hw in ritardo!!!
ankora niente ..xbitlabs &anandtech.. ma cosa succede?? :confused:
JENA PLISSKEN
04-05-2004, 14:10
Interessante il 3DC
3Dc non significa necessariamente dettagli migliori! Semplicemente riduce la dimensione del file del normal map attraverso la compressioni, quindi riducendo l'esigenze di banda di memoria. Gli sviluppatori di giochi possono migliorare le prestazioni comprimendo le normal map oppure possono introdurre mappe più grandi e dettagliate e poi comprimerle.
85kimeruccio
04-05-2004, 14:10
:eek:
http://www.tomshw.it/guides/graphic/20040504/images/hdg-02.jpg
:sbav:
Originariamente inviato da JENA PLISSKEN
Interessante il 3DC
3Dc non significa necessariamente dettagli migliori! Semplicemente riduce la dimensione del file del normal map attraverso la compressioni, quindi riducendo l'esigenze di banda di memoria. Gli sviluppatori di giochi possono migliorare le prestazioni comprimendo le normal map oppure possono introdurre mappe più grandi e dettagliate e poi comprimerle.
Si', il 3DC e' un'idea interessante e mira a risolvere il problema piu' grosso che si ha ora nell'uso del normal mapping: il non poterle comprimere adeguatamente.
Gli sto dando un'occhiata proprio in questi giorni.
andreamarra
04-05-2004, 14:12
Su nvitalia sniper sta scoprendo le carte.... :fiufiu:
http://www.nvitalia.com/forum/showthread.php?threadid=34436&perpage=15&pagenumber=75
Feanortg
04-05-2004, 14:12
---> Da tom's hardware
In alcuni test anche la molto meno costosa X800 Pro con le sue 12 pipeline riesce a battere la GeForce 6800 Ultra. La differenza di prezzo di circa $100 sarà sicuramente un argomento in grado di cambiare la decisione di parecchi potenziali clienti indecisi. Quando non si abilitano le caratteristiche di miglioramento dell'immagine, quali FSAA e anisotropic filtering, è spesso la GeForce 6800 Ultra a reclamare il primo posto. Comunque con il Temporal AA, ATi ha trovato una buona soluzione anche a questo "problema". In ogni caso, difficilmente chi compra una scheda di questo livello la userebbe senza attivare anisotropic filtering.
Secondo noi, la cosa più impressionante di questa scheda è il poco sforzo che ATi ha espresso per raggiungere queste prestazioni. Il consumo energetico della X800 XT è circa lo stesso delle schede precedenti, inoltre le X800 richiedono una sola alimentazione addizionale e non necessitano di alimentatori particolarmenti potenti come richiesto dalla GeForce 6800 Ultra.
Commenti???? Penso parli da sola.....
;)
Originariamente inviato da 85kimeruccio
:eek:
erri
sempreio
04-05-2004, 14:13
Originariamente inviato da Simon82
http://www.tomshw.it/guides/graphic/20040504/images/hdg-02.jpg
:sbav:
si ma è raffreddata, guarda che gli scende dal naso:rolleyes:
JENA PLISSKEN
04-05-2004, 14:13
Questa è incredibile notate il 6x contro l' 8x NV anche se migliore (così dice)...da qunato ho capito colTAA
http://www.tomshw.it/guides/graphic/20040504/images/image063.gif
Sono rimasto ipnotizzato anche io da quelle labbra....troppo ben fatte!
andreamarra
04-05-2004, 14:15
X800PRO = 475/900
X800XT = 520/1120
JENA PLISSKEN
04-05-2004, 14:16
http://www.tomshw.it/guides/graphic/20040504/images/power008.gif
85kimeruccio
04-05-2004, 14:17
hahaah belli i consumi sotto sforzo..
un punto in + x ati!
Solo UN molex, e consumano entrambe MENO della 9800XT.
Devo ancora arrivare alle prestazioni, ma per quanto mi riguarda Ati ha già vinto.
2 molex e un ali da 480Watt erano condizioni inaccettabili da parte di Nvidia, che mostra ancora una volta, al pari di Intel, di avere una sensibilità ecologica pari allo zero.
JENA PLISSKEN
04-05-2004, 14:19
Originariamente inviato da JENA PLISSKEN
Questa è incredibile notate il 6x contro l' 8x NV anche se migliore (così dice)...da qunato ho capito colTAA in alto
http://www.tomshw.it/guides/graphic/20040504/images/image063.gif
Io mi QUOTO...guardate che fa il Taa
JENA PLISSKEN
04-05-2004, 14:19
http://www.tomshw.it/guides/graphic/20040504/images/image059.gif
http://www.tomshw.it/guides/graphic/20040504/images/image061.gif
http://www.tomshw.it/guides/graphic/20040504/images/image062.gif
By Sniper:
le foto che vedete online hanno un piccolo connettore giallo, quello non sarà presente nella versione definitiva della scheda.
BYe
Originariamente inviato da prova
Solo UN molex, e consumano entrambe MENO della 9800XT.
Devo ancora arrivare alle prestazioni, ma per quanto mi riguarda Ati ha già vinto.
2 molex e un ali da 480Watt erano condizioni inaccettabili da parte di Nvidia, che mostra ancora una volta, al pari di Intel, di avere una sensibilità ecologica pari allo zero.
Eroes, l'avere due molex non vuol dire nulla perche' tanto sia questa scheda sia l'NV40 non sono destinate agli utenti, in altre parole, non devi comprarle, perche' sono destinate agli sviluppatori.
shinji_85
04-05-2004, 14:20
Ma quando esce la recensione di hwupgrade???
Sbaglio o Tom's ecc... Riporta il prezzo della x800xt a 500€???
499 $ = 500 € ???
Originariamente inviato da prova
Solo UN molex, e consumano entrambe MENO della 9800XT.
Devo ancora arrivare alle prestazioni, ma per quanto mi riguarda Ati ha già vinto.
2 molex e un ali da 480Watt erano condizioni inaccettabili da parte di Nvidia, che mostra ancora una volta, al pari di Intel, di avere una sensibilità ecologica pari allo zero.
però non capisco perchè nvidia richieda un 480W assorbendo "solo" una quindicina di watt di più di ati
:confused:
interessante: http://www.hardocp.com/article.html?art=NjExLDEw
Hanno fatto un raffronto tra le scehde considerando a parità di fps la miglior qualità raggiungibile, e considerando pfs minimi come media di 40
Originariamente inviato da shinji_85
499 $ = 500 € ???
499$=550€ minimo
__M@ster__
04-05-2004, 14:21
guardate qua...ci sn altri bench..oltre a quelli ti toms...:) ..e a me pare niente male sta 800xt...
http://www.hardware.fr/articles/494/page8.html
ah poi ci sarà anche una 6800ultra extreme..:eek:
JENA PLISSKEN
04-05-2004, 14:22
Aspetto cmq HWUP...che è mejo:D
Originariamente inviato da checo
però non capisco perchè nvidia richieda un 480W assorbendo "solo" una quindicina di watt di più di ati
:confused:
Beh anche il doppio molex non si capisce x 15w in +....
BYe
ragazzi ma vi rendete conto che il chip conta appena 160mln di transistor:eek:
Cioè hanno raddoppiato un R300 con appena 50 mln di transistor in più, quà c'e'stato un lavoro incredibile da parte degli ignegneri ATi che sono riusciti a conservare spazio.
Questo si tramuta in una riduzione dei costi enorme
Originariamente inviato da fek
Eroes, l'avere due molex non vuol dire nulla perche' tanto sia questa scheda sia l'NV40 non sono destinate agli utenti, in altre parole, non devi comprarle, perche' sono destinate agli sviluppatori.
Beh, questa è già una buona notizia ;)
Originariamente inviato da dwfgerw
Questo si tramuta in una riduzione dei costi enorme
X loro forse....
BYe
__M@ster__
04-05-2004, 14:24
nel bench di far cry la 800xt fa ben 100fps in più della 6800ultra extreme:eek:
andreamarra
04-05-2004, 14:25
Originariamente inviato da street
interessante: http://www.hardocp.com/article.html?art=NjExLDEw
Hanno fatto un raffronto tra le scehde considerando a parità di fps la miglior qualità raggiungibile, e considerando pfs minimi come media di 40
In pratica si vede che con filtri attivi e risoluzioni alte la scheda ati faccia di più, confermate? E' un pò cervellotico il test :p
Originariamente inviato da rubex
Beh anche il doppio molex non si capisce x 15w in +....
BYe
l'unica è che nv40 aspiri il doppio come amperaggi
JENA PLISSKEN
04-05-2004, 14:27
OOOOOOOOOOPS
I risultati relativi al test di qualità degli shader sono invariati rispetto alla prova precedente. La qualità dell'immagine della GeForce 6800 Ultra, con il nuovo driver, non migliora. Probabilmente le cose non cambieranno fino alla prossima patch del gioco. La qualità dell'immagine delle schede X800 è praticamente identica a quella della Radeon 9800XT - impeccabile.
Siccome la Radeon X800 e il reference rasterizer di MS mostrano risultati migliori nelle nostre schermate, è difficile capire come mai la GeForce 6800 offra una migliore qualità dell'immagine - ossia renderizza più correttamente - come pure confermato da Microsoft. Comunque, in movimento la deformazione sui 45° può causare sfarfallio delle texture, dovuto al livello superiore di mipmap in quell'area - siccome sono usate solo in quella determinata area!
http://www.tomshw.it/guides/graphic/20040504/images/image015.gif
Che potenza!!!! :eek:
ATI sei un mostro!!!
shinji_85
04-05-2004, 14:27
Originariamente inviato da checo
499$=550€ minimo
Si appunto... Anzi credo siano 600€ + o meno...
Strano che tom'shardware scriva per la xt "499 $ (500€)"
andreamarra
04-05-2004, 14:27
Originariamente inviato da __M@ster__
nel bench di far cry la 800xt fa ben 100fps in più della 6800ultra extreme:eek:
Questo qua, dici?
http://www.hardware.fr/medias/photos_news/00/07/IMG0007771.gif
Da Tom's.it
Come vedremo ripetutamente in questa sezione di benchmark, l'anisotropic filtering è la grande forza delle nuove schede Radeon X800. Anche la "piccola" X800 Pro batte la GeForce 6800 Ultra senza problemi in 1600x1200. Inoltre, il nuovo driver di NVIDIA sembra ridurre le prestazioni. A questa risoluzione, la X800 XT è oltre due volte più veloce della precedente ammiraglia ATi, la Radeon 9800 XT!
ste schede sono impressionanti ...
*Er*
Edit: impressive! Anche con AA4x e AF8x la piccola PRO dà dei punti a quel mostro della 6800Ultra! :eek:
Originariamente inviato da andreamarra
In pratica si vede che con filtri attivi e risoluzioni alte la scheda ati faccia di più, confermate? E' un pò cervellotico il test :p
da quanto ho capito.
Se vai poi a pagina 4 fa vedere quello che si vede nei vari casi:
immagine1 (http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF8zX2wuanBn)
immagine 2 (Vhttp://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF80X2wuanBn)
immagine 3 (http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF81X2wuanBn)
JENA PLISSKEN
04-05-2004, 14:29
INTERESSANTISSIMO R480 o 500
Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0. Rimane da vedere se la GeForce 6800 Ultra, con il suo supporto per ShaderModel 3.0 e la precisione a 32-bit, godrà di vantaggi tangibili nella pratica. Per ora, ATi non lascia spazio a lagnanze. E non dimentichiamoci 3Dc, che è in grado di migliorare l'esperienza di gioco. Nondimeno il chip R420 sembra essere solo una soluzione temporanea. Il nuovo R480 sta già alzando la testa nella roadmap di ATi, ma c'è una buona possibilità che la società canadese passi direttamente alla serie R5xx. Dopo tutte le voci di corridoio e le speculazioni girate riguardo questi chip, il vostro umile redattore non può che ritrovarsi a fischiettare il motivo di X-file..
ma la recenzione di hw quando esce scusate?
JENA PLISSKEN
04-05-2004, 14:30
EHY leggeteli i posts ...Nn postate e basta;)
Originariamente inviato da prova
Da Tom's.it
Come vedremo ripetutamente in questa sezione di benchmark, l'anisotropic filtering è la grande forza delle nuove schede Radeon X800. Anche la "piccola" X800 Pro batte la GeForce 6800 Ultra senza problemi in 1600x1200. Inoltre, il nuovo driver di NVIDIA sembra ridurre le prestazioni. A questa risoluzione, la X800 XT è oltre due volte più veloce della precedente ammiraglia ATi, la Radeon 9800 XT!
ste schede sono impressionanti ...
Quoto, ho letto le recensioni di vari siti, ora mi rendo conto che ATI ha risposto veramente duro all'uscita della 6800ultra, e se fa uscire negli scaffali ste schede PRIMA di Nvidia che ha pure presentato le schede in anticipo rispetto alla concorrente, allora per Nvidia si fa notte, almeno nel mercato degli Hardcore Gamers, poi è ovvio che il resto lo fa il mercato delle schede video di fascia media-bassa, là è da vedere poi...
Ciao
JENA PLISSKEN
04-05-2004, 14:32
a pag 5 e 6 c' è scritto tutto;)
ShadowThrone
04-05-2004, 14:32
Originariamente inviato da Feanortg
Commenti???? Penso parli da sola.....
;)
rulla rulla!
sempreio
04-05-2004, 14:33
Originariamente inviato da JENA PLISSKEN
INTERESSANTISSIMO R480 o 500
Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0. Rimane da vedere se la GeForce 6800 Ultra, con il suo supporto per ShaderModel 3.0 e la precisione a 32-bit, godrà di vantaggi tangibili nella pratica. Per ora, ATi non lascia spazio a lagnanze. E non dimentichiamoci 3Dc, che è in grado di migliorare l'esperienza di gioco. Nondimeno il chip R420 sembra essere solo una soluzione temporanea. Il nuovo R480 sta già alzando la testa nella roadmap di ATi, ma c'è una buona possibilità che la società canadese passi direttamente alla serie R5xx. Dopo tutte le voci di corridoio e le speculazioni girate riguardo questi chip, il vostro umile redattore non può che ritrovarsi a fischiettare il motivo di X-file..
è logico che lo sforzo più grande sarà rivolto verso r5xx, visto che sarà messo sull' xbox2 rivale diretta della playstation3;)
Considerato anche che l'Ati implementerà il PciX nativamente(che è la versione che aspetto per acquistare)mi sa che dopo le differenze saranno ancora più marcate.
Nvidia ha i driver acerbi...ma Ati anche,insomma Nv40 riscatta Nvidia,Ati si riconferma.
Almeno...da quello che si può vedere attualmente.
Bisognerà poi valutare che impatto avranno le tecnologie implementate da Nv40 e non da Ati,se a driver maturi le cose cambieranno o no.
Però...
andreamarra
04-05-2004, 14:34
Mi sento male...
http://www.hardware.fr/medias/photos_news/00/07/IMG0007763.gif
No, non temere mia dolce herculessina, ti terrò almeno fino a ottobre... :Perfido:
JENA PLISSKEN
04-05-2004, 14:35
Originariamente inviato da andreamarra
Mi sento male...
http://www.hardware.fr/medias/photos_news/00/07/IMG0007763.gif
No, non temere mia dolce herculessina, ti terrò almeno fino a ottobre... :Perfido:
E' ovvio...e chi se la vende:D ...poi stò R480:eek:
shinji_85
04-05-2004, 14:37
Originariamente inviato da R@nda
Considerato anche che l'Ati implementerà il PciX nativamente(che è la versione che aspetto per acquistare)mi sa che dopo le differenze saranno ancora più marcate.
Nvidia ha i driver acerbi...ma Ati anche,insomma Nv40 riscatta Nvidia,Ati si riconferma.
Almeno...da quello che si può vedere attualmente.
Bisognerà poi valutare che impatto avranno le tecnologie implementate da Nv40 e non da Ati,se a driver maturi le cose cambieranno o no.
Però...
Verissimo... nvidia ha immesso sul mercato (non proprio ancora) una scheda che offre parecchie nuove "cosuccie"... Peccato che con 'sti driver, ora come ora non si possano vedere...
X-ICEMAN
04-05-2004, 14:37
porcaccia il video di ruby non sembra assolutamente una tech demo, è fluidissimo sembra non in real time
altro che una sirena nel "vuoto" questa si che è una demo
[OT]
chiunque voglia sbarazzarsi della sua "lentissima" 9800pro mi contatti.
io sono uno che si accontenta!:mc: :p
Paolo Corsini
04-05-2004, 14:38
http://forum.hwupgrade.it/showthread.php?s=&threadid=677876
Credo anche io che aspetterò R480: al momento la mia 9800Pro fa di tutto e di più. Senza contare che gli unici motori grafici capaci di impensierire le nostre attuali schede [leggi: Doom III e Half Life 2] non si sa neppure quando usciranno.
Esaltiamoci per R420, certo, che si riconferma su Nvidia, ma per aprire il portafogli direi di attendere ottobre con R480 ;)
ma nella redazione di hwupgrade stanno dormendo ?
L\'Esecutore
04-05-2004, 14:40
avete visto il sito di ATi?
Originariamente inviato da dwfgerw
ma nella redazione di hwupgrade stanno dormendo ?
Vorrei vedere tu come lavori.
Davvero, mi piacerebbe sapere se rispetti sempre i tempi che ti vengono dati.
Dobbiamo proprio prendere tutti su sto forum, vero?
Originariamente inviato da Paolo Corsini
http://forum.hwupgrade.it/showthread.php?s=&threadid=677876
I mgliori
:O
Prometeo_AF
04-05-2004, 14:40
Se leggessi due post sopra..
mt_iceman
04-05-2004, 14:41
Originariamente inviato da prova
Credo anche io che aspetterò R480: al momento la mia 9800Pro fa di tutto e di più. Senza contare che gli unici motori grafici capaci di impensierire le nostre attuali schede [leggi: Doom III e Half Life 2] non si sa neppure quando usciranno.
Esaltiamoci per R420, certo, che si riconferma su Nvidia, ma per aprire il portafogli direi di attendere ottobre con R480 ;)
dipende. se r480 sarà solo pcx io mi orientero su r420 o nv40 visto che non voglio cambiare tutto il pc. cmq gran bella scheda.
complimenti ad ati. vedremo poi cosa converrà fare. puntare sulla potenza bruta o sullo sguardo al futuro di nv40.
Raga qualcuno ha il link del video di ruby?Non funza quello in prima pagina.
BYe
JENA PLISSKEN
04-05-2004, 14:43
X me la possono anche far uscire dopodomani...tanto è quella che mi interessa...e basta. Quindi meglio + tempo x avere la solità qualità nella rece che fare qualcosa AD CAPOCCHIAM:sofico:
L\'Esecutore
04-05-2004, 14:43
Originariamente inviato da rubex
Raga qualcuno ha il link del video di ruby?Non funza quello in prima pagina.
BYe
Sul sito di ATi c'è il demo di ruby da scaricare
Originariamente inviato da prova
Credo anche io che aspetterò R480: al momento la mia 9800Pro fa di tutto e di più. Senza contare che gli unici motori grafici capaci di impensierire le nostre attuali schede [leggi: Doom III e Half Life 2] non si sa neppure quando usciranno.
Esaltiamoci per R420, certo, che si riconferma su Nvidia, ma per aprire il portafogli direi di attendere ottobre con R480 ;)
io aspetterò almeno un anno e mezzo, almeno finchè nn ci saranno davvero giochi che impensieriscano la 9800pro. ;)
sanitarium
04-05-2004, 14:44
Da Tomshardware:
Temporal FSAA usa sample pattern diversi per i frame pari e dispari di una scena, rendendoli leggermente diversi. Se il frame rate è sufficientemente alto, l'occhio umano non riesce più a distinguere i frame. Il risultato è che il sampling rate visibile appare a tutti gli effetti raddoppiato. Lo stesso effetto è usato per la TV, che usa mezze immagini interlacciate che si alternano troppo velocemente per essere distinte come tali.
Sfortunatamente le differenze tra i frame non possono essere notate negli screenshot, perchè bisognerebbe catturare due frame successivi. L'uso del Temporal FSAA porta anche un'altra conseguenza negativa, siccome quando è attivo bisogna sempre abilitare anche il V-Sync, con un certo impatto sui punteggi dei benchmark. Inoltre, nei driver è impostato un frame rate minimo (60 fps) sotto il quale si passa automaticamente da Temporal AA ad Anti Aliasing standard, fino a che non si ritorna sopra la suddetta soglia.
cmq per il prezzo indicato su Tom's sarebbe il prezzo americano convertito con aggiunto il 20% di IVA :)
JENA PLISSKEN
04-05-2004, 14:46
Originariamente inviato da sanitarium
Da Tomshardware:
Sfortunatamente le differenze tra i frame non possono essere notate negli screenshot, perchè bisognerebbe catturare due frame successivi. L'uso del Temporal FSAA porta anche un'altra conseguenza negativa, siccome quando è attivo bisogna sempre abilitare anche il V-Sync, con un certo impatto sui punteggi dei benchmark. Inoltre, nei driver è impostato un frame rate minimo (60 fps) sotto il quale si passa automaticamente da Temporal AA ad Anti Aliasing standard, fino a che non si ritorna sopra la suddetta soglia.
Se imposti il Threshold a 0 lo utilizzi sempre;)
mi chiedo come c@zzo fa Ati a rullare in questo modo..ragazzi tutto questo è incredibile..alla ati sono troppo avanti..
complimentoni!
http://www.hardware.fr/medias/photos_news/00/07/IMG0007757.gif
http://www.hardware.fr/medias/photos_news/00/07/IMG0007756.gif
sanitarium
04-05-2004, 14:47
Originariamente inviato da JENA PLISSKEN
Se imposti il Threshold a 0 lo utilizzi sempre;)
Non sapevo che ci fosse comunque il modo di stabilire una soglia minima per l'attivazione automatica del TAA, mi sembra una buona trovata. :)
sembrava ke invidia sapeva ke ati avrebbe fatto una scheda piu potente della 6800 ultra e sta facendo uscire la 6800 ultra extreme vedremo ki la spuntera ;) alle 17 ci divertiremo;)
Wing_Zero
04-05-2004, 14:49
Ragazza, ad una attenta analisi dell erecenzione di tom's.it si puo' dire che:
1)PRESTAZIONI
se nn si abilitano i filtri sono sull stessa linea entrambe le skede.
con l'AA abilitato va meglio la skeda di casa NVIDA(ma n sempre)
Con L'AF abilitato va sempre e comunque meglio la skeda di casa ATI.
E con entrambi i filtri abilitati, va sempre semglio la X800 xt (ed anche la pro rulla x bene).
Ledifferenze in alcuni casi sono marcate in altri molto lievi.
2) Qualita'
Beh, l'AA 8x di nvidai e' insuperabile come qualita', ma causa un crollo delle prestazioni spaventoso, quindi inutilizzabile.
L'AF di ATI e' molto buono , superiroe a quallodi casa nivdia, senza contare con che L?AF abilitato le ATI rullano di + delle NVIDIA.
Cmq bisogna tenere conto dei driver che nacora nn sono maturi al 100 %, ed in piu' sarebbe stato bello vedere come si comportava la 6800 con 12 pipes di nvidia.
Epoi, cosa fondamentale, nn c'e' ancora la rece di corsini, L'UNICA di cui mi fidi davvero :DDDDDD quindi aspettate gente e meditate :D
P.S.:
Io nn sono ne pro ati, e ne pro Nvidia, ho cercato di fare solo una analisi oggettiva dei fatti, e cmq + concorenza c'e meglio e'! (si guardi la 9800 pro della sapphire, calta a 250 euro di prezzo! :D)
andreamarra
04-05-2004, 14:51
Originariamente inviato da royal
mi chiedo come c@zzo fa Ati a rullare in questo modo..ragazzi tutto questo è incredibile..alla ati sono troppo avanti..
complimentoni!
Hanno fatto un grandissimo lavoro. Anche se hanno raddoppiato il raddoppiabile, ci sono altre cose interessanti e dal punto di vista di architettura hanno aggiunto qualcosa che male non fa...
Adesso credo che sia ancora più potente la ati, però la nvidia se non farà cappelle (e io tra l'altro aspetto dei bench e degli articoli in cui possa vedere che questa volta non sia ricaduta nel solito vizzietto ricorrente...) potrebbe avere un buon vantaggio per le prossime schede, cioè fino a quando tutte le cose implemetate nella nv40 non serviranno davvero.
__M@ster__
04-05-2004, 14:52
Originariamente inviato da andreamarra
Questo qua, dici?
http://www.hardware.fr/medias/photos_news/00/07/IMG0007771.gif
si mi pare che la diff sia notevole...cmq nn ce capisco più nulla...su toms...nivida sembra superiore..qui tutto il contrario...ASPETTIAMO HWUP;)
GOKUSSJ77
04-05-2004, 14:53
Uscita la recensione su Beyond3D:
http://www.beyond3d.com/reviews/ati/r420_x800/
Originariamente inviato da __M@ster__
si mi pare che la diff sia notevole...cmq nn ce capisco più nulla...su toms...nivida sembra superiore..qui tutto il contrario...ASPETTIAMO HWUP;)
veramente tom dice chiaro che ati è superiore
shinji_85
04-05-2004, 14:54
Originariamente inviato da eraser
cmq per il prezzo indicato su Tom's sarebbe il prezzo americano convertito con aggiunto il 20% di IVA :)
Si ma secondo Voi è pensabile che una x800pro costi 400€ e una x800xt 500€... Vabbè che è indicativo... ma se alla fine costeranno 100€ di piu' preferisco nn averla l'indicazione :D
JENA PLISSKEN
04-05-2004, 14:55
Originariamente inviato da sanitarium
Non sapevo che ci fosse comunque il modo di stabilire una soglia minima per l'attivazione automatica del TAA, mi sembra una buona trovata. :)
Vai sulla mia guida in sign...in fondo...cmq è tutto frutto di prove nostre...+ siamo e meglio è;)
la GT sembra molto interessante
Fatality
04-05-2004, 14:56
Originariamente inviato da __M@ster__
si mi pare che la diff sia notevole...cmq nn ce capisco più nulla...su toms...nivida sembra superiore..qui tutto il contrario...ASPETTIAMO HWUP;)
TOMS è storicamente un sito PRO NVIDIA, lo sanno tutti gli addetti ai lavori ...indi se l'unica voce PRO 6800 è quella di Tom,vuol dire CHE NVIDIA SI APPRESTA A SOKARE PER UN ALTRA INTERA GENERAZIONE DI SK VIDEO :cool:
mhahuahuahuhua come godo
JENA PLISSKEN
04-05-2004, 14:56
Originariamente inviato da dwfgerw
la GT sembra molto interessante
Si...la PUNTO GT...è la + interessante del lotto;)
JENA PLISSKEN
04-05-2004, 14:57
Originariamente inviato da Fatality
TOMS è storicamente un sito PRO NVIDIA, lo sanno tutti gli addetti ai lavori ...indi se l'unica voce PRO 6800 è quella di Tom,vuol dire CHE NVIDIA SI APPRESTA A SOKARE PER UN ALTRA INTERA GENERAZIONE DI SK VIDEO :cool:
mhahuahuahuhua come godo
SOKARE???:uh: :uh: :uh: :uh: :uh:
Originariamente inviato da dwfgerw
la GT sembra molto interessante
Certo, interessante.
Cosa devi farci, appianare le gambe della sedia?
__M@ster__
04-05-2004, 14:59
Originariamente inviato da Gen.Web
veramente tom dice chiaro che ati è superiore
nn in tutti i bench però http://www.tomshw.it/graphic.php?guide=20040504&page=ati-x800-16
Originariamente inviato da Fatality
TOMS è storicamente un sito PRO NVIDIA, lo sanno tutti gli addetti ai lavori ...indi se l'unica voce PRO 6800 è quella di Tom,vuol dire CHE NVIDIA SI APPRESTA A SOKARE PER UN ALTRA INTERA GENERAZIONE DI SK VIDEO :cool:
mhahuahuahuhua come godo
Ahh fossi moderatore
:rolleyes:
L\'Esecutore
04-05-2004, 15:01
Originariamente inviato da R@nda
Ahh fossi moderatore
:rolleyes:
quoto
Sì, ok, tutto bello, W ATI, W Nvidia, ma se qualcuno volesse sapere come vanno le soluzioni da 300 Euro di questa generazione che deve fare?
Me ne sbatto altamente di XT o Extreme Edition di sti pifferi, io non vado a rubare la notte per una scheda video, mi facessero vedere in azione le 6800 e le X800 lisce:)
Ciao.
sanitarium
04-05-2004, 15:01
Originariamente inviato da __M@ster__
nn in tutti i bench però http://www.tomshw.it/graphic.php?guide=20040504&page=ati-x800-16
Infatti in OpenGL (o più precisamente su Call of duty) le X800 le prendono parecchio dalla 6800, ma in D3D mi sembra l'esatto contrario... ;)
Originariamente inviato da __M@ster__
nn in tutti i bench però http://www.tomshw.it/graphic.php?guide=20040504&page=ati-x800-16
Cosa vuol dire un bench leggiti le conclusioni -_-
Legolas84
04-05-2004, 15:02
Secondo me è la scelta giusta quella di disattivare il TAA sotto i 60 FPS... infatti avevo letto che con il v-sync attivo può avvenire che gli FPS vengano dimezzati di colpo.... è un conto è se succede a 60 e si rimane a 30.... se succede a 40 e vai a 20 il gioco scattizza....
Originariamente inviato da prova
Certo, interessante.
Cosa devi farci, appianare le gambe della sedia?
:rolleyes:
__M@ster__
04-05-2004, 15:03
Originariamente inviato da sanitarium
Infatti in OpenGL (o più precisamente su Call of duty) le X800 le prendono parecchio dalla 6800, ma in D3D mi sembra l'esatto contrario... ;)
ah..giusto!!!:)
Legolas84
04-05-2004, 15:03
Originariamente inviato da sanitarium
Infatti in OpenGL (o più precisamente su Call of duty) le X800 le prendono parecchio dalla 6800, ma in D3D mi sembra l'esatto contrario... ;)
Io mi chiedo perchè quelli della ATi non ottimizzino ste OpenGL.... :muro:
In fondo chi gioca a KOTOR, NWN o RTCW va molto di meno... :(
bart noel
04-05-2004, 15:04
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/3dMark-game2.gif
il 3dmerd è sempre il più affidabile per vedere se idriver sono truccati....:D
Ragazzi andate sul sito Ati a vedere il Subsurface Scattering demo
Stupendo:eek:
L\'Esecutore
04-05-2004, 15:05
Originariamente inviato da GOKUSSJ77
Uscita la recensione su Beyond3D:
http://www.beyond3d.com/reviews/ati/r420_x800/
Sono io che non li vedo o ci sono solo bench tra schede ATi?
sanitarium
04-05-2004, 15:07
Originariamente inviato da Legolas84
Io mi chiedo perchè quelli della ATi non ottimizzino ste OpenGL.... :muro:
In fondo chi gioca a KOTOR, NWN o RTCW va molto di meno... :(
E' quello che mi chiedo anch'io! :muro:
Originariamente inviato da sanitarium
E' quello che mi chiedo anch'io! :muro:
la cosa si potrebbe fare pesante in doom III
http://ballero.web.ctonet.it/3dmark.gif
Fatality
04-05-2004, 15:11
Originariamente inviato da R@nda
Ahh fossi moderatore
:rolleyes:
qual è il problema?
che scredito Toms HW?
che uso toni da tifoso perchè provo antipatia per una società che si macchia di ogni genere di cheat sui driver e i software per ingannare gli utenti? (oltre a sfornare hardware inferire ad ATi da 2 anni...)
scusate se la passione mi guida anche nell'informatica...
goldorak
04-05-2004, 15:12
Originariamente inviato da Legolas84
Io mi chiedo perchè quelli della ATi non ottimizzino ste OpenGL.... :muro:
In fondo chi gioca a KOTOR, NWN o RTCW va molto di meno... :(
E' lo stesso motivo per cui non sviluppano driver decenti per linux.
Mancano i grossi numeri, la maggior parte dei giochi sono dx quindi e' normale che tutte le risorse vadano a ottimizzare i driver dx.
Purtroppo e' l'unico punto dove Nvidia regna ancora incontrastata.
Originariamente inviato da Fatality
qual è il problema?
che scredito Toms HW?
che uso toni da tifoso perchè provo antipatia per una società che si macchia di ogni genere di cheat sui driver e i software per ingannare gli utenti? (oltre a sfornare hardware inferire ad ATi da 2 anni...)
scusate se la passione mi guida anche nell'informatica...
Vedi...quello che stai dicendo adesso ha un senso;)
Il modo in cui hai esordito prima è solo uno stupido flame.....
Poi fa come vuoi....ma si può discutere delle proprie passioni senza urtare nessuno sai?
E' solo questione di un minimo di civiltà.
Originariamente inviato da goldorak
E' lo stesso motivo per cui non sviluppano driver decenti per linux.
Mancano i grossi numeri, la maggior parte dei giochi sono dx quindi e' normale che tutte le risorse vadano a ottimizzare i driver dx.
Purtroppo e' l'unico punto dove Nvidia regna ancora incontrastata.
Sì ok, ma con l'uscita di Doom III [e quindi di TUUUUTTI i giochi che ne sfrutteranno il motore] sarà meglio che mettano a punto driver decenti in OpenGL, o scatta l'incazzo.
Non possiamo spendere 350€ per una scheda che va bene solo con una delle due librerie presenti sul mercato, non trovate? ;)
andreamarra
04-05-2004, 15:14
Originariamente inviato da Fatality
TOMS è storicamente un sito PRO NVIDIA, lo sanno tutti gli addetti ai lavori ...indi se l'unica voce PRO 6800 è quella di Tom,vuol dire CHE NVIDIA SI APPRESTA A SOKARE PER UN ALTRA INTERA GENERAZIONE DI SK VIDEO :cool:
mhahuahuahuhua come godo
Avevo chiesto gentilmente di evitare commenti puerili che possono innescare flames.
andreamarra
04-05-2004, 15:16
Originariamente inviato da Fatality
qual è il problema?
che scredito Toms HW?
che uso toni da tifoso perchè provo antipatia per una società che si macchia di ogni genere di cheat sui driver e i software per ingannare gli utenti? (oltre a sfornare hardware inferire ad ATi da 2 anni...)
scusate se la passione mi guida anche nell'informatica...
Capisco iltuo rammarcio, che poi è anche il mio. Non ho gradito le sparate di nvidia con driver strani ecc. ecc., però evitiamo di flammare lo stesso, ok ;) ?
sanitarium
04-05-2004, 15:17
http://www.tomshw.it/guides/graphic/20040504/images/image065.gif
Prestazioni davvero mostruose con il filtro anisotropico attivo per le schede X800...
@eroes
beh ce n' é di tempo... :asd:
Originariamente inviato da Fatality
scusate se la passione mi guida anche nell'informatica...
Piu' che dalla passione dovresti farti guidare dall'obiettivita' ;)
Fatality
04-05-2004, 15:17
ehehehe ragazzi non temete niente flames, ma a volte è così dura restare moderati ;)
Legolas84
04-05-2004, 15:18
Originariamente inviato da goldorak
E' lo stesso motivo per cui non sviluppano driver decenti per linux.
Mancano i grossi numeri, la maggior parte dei giochi sono dx quindi e' normale che tutte le risorse vadano a ottimizzare i driver dx.
Purtroppo e' l'unico punto dove Nvidia regna ancora incontrastata.
Si ed è il motivo per cui se non fanno qualcosa continuerò ad avere nVidia.... visto che gioco praticamente solo a Neverwinter Nights... (non potevano programmarlo DX ^^) :)
Jedi_Master
04-05-2004, 15:18
Originariamente inviato da prova
Certo, interessante.
Cosa devi farci, appianare le gambe della sedia?
Per la modica cifra di 4-500 euro......
:sofico:
ragazzi non capisco tutto questo asti verso nvidia, questa volta NON C'E' una differenza abissale tra le due, anzi nvidia ha sfornato questa 6800 GT da 16pipes che sembra fare bene il suo lavoro.
A livello di architettura nvidia è avanti, magari tra 6 mesi iniziano a circolare giochi shader 3.0 e ati cosa farà ?
Sappiamo tutti che peso politico ha nvidia e quindi possiamo aspettarci titoli che sfruttino le directx9C di M$
goldorak
04-05-2004, 15:18
Originariamente inviato da prova
Sì ok, ma con l'uscita di Doom III [e quindi di TUUUUTTI i giochi che ne sfrutteranno il motore] sarà meglio che mettano a punto driver decenti in OpenGL, o scatta l'incazzo.
Non possiamo spendere 350€ per una scheda che va bene solo con una delle due librerie presenti sul mercato, non trovate? ;)
Ecco l'eterna questione, quando doom3 etc....
Facciano uscire prima Doom3 sempre che il giullare non decreti che l'nv40 non e' piu' l'architettura di riferimento ma r420.
Insomma, adesso anche se non ottimizzano i driver opengl non e' cosi' importante perche' la potenza di queste schede e' spaventosa e puo' raggiungere attraverso la forza bruta livelli molto alti anche cnon dei driver opengl cosi' cosi'.
Sempre IMHO :)
halduemilauno
04-05-2004, 15:19
http://www.hothardware.com/viewarticle.cfm?articleid=517
ciao.
;)
Originariamente inviato da Jedi_Master
Per la modica cifra di 4-500 euro......
:sofico:
Pfiu...io uso Dei P4 EE per pareggiare i tavoli,pivelli:D
Ho provato a far partire la demo di ruby,ma mi dice:
http://rubex.altervista.org/ati.jpg
Ho i 4.4 e le 9.0b.
BYe
TheDarkAngel
04-05-2004, 15:19
Originariamente inviato da dwfgerw
ragazzi non capisco tutto questo asti verso nvidia, questa volta NON C'E' una differenza abissale tra le due, anzi nvidia ha sfornato questa 6800 GT da 16pipes che sembra fare bene il suo lavoro.
A livello di architettura nvidia è avanti, magari tra 6 mesi iniziano a circolare giochi shader 3.0 e ati cosa farà ?
Sappiamo tutti che peso politico ha nvidia e quindi possiamo aspettarci titoli che sfruttino le directx9C di M$
non c'e' differenza ?_?
emh... non so... ma nell'unico gioco di futura generazione nvidia è distaccata di molto... non so quanto buona sia la 6800ultraextreme...
Blindman
04-05-2004, 15:19
Originariamente inviato da andreamarra
Mi sento male...
No, non temere mia dolce herculessina, ti terrò almeno fino a ottobre... :Perfido:
Anche la mia ha almeno 4-5 mesi di vita nel case ancora davanti :D
Legolas84
04-05-2004, 15:19
Originariamente inviato da prova
Sì ok, ma con l'uscita di Doom III [e quindi di TUUUUTTI i giochi che ne sfrutteranno il motore] sarà meglio che mettano a punto driver decenti in OpenGL, o scatta l'incazzo.
Non possiamo spendere 350€ per una scheda che va bene solo con una delle due librerie presenti sul mercato, non trovate? ;)
sono daccordo al 100%
Io credo che sia abbastanza riassuntiva anche questa immagine di hardocp...
http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfMTBfMV9sLmdpZg==
halduemilauno
04-05-2004, 15:20
http://www.beyond3d.com/reviews/ati/r420_x800/images/aces.jpg
dopo questo. basta sciolgo la riserva. me la compro anch'io.
ciao.
:) :)
Jedi_Master
04-05-2004, 15:20
Originariamente inviato da R@nda
Pfiu...io uso Dei P4 EE per pareggiare i tavoli,pivelli:D
:eek: :eek:
:D :D :D
Originariamente inviato da GURU
Io credo che sia abbastanza riassuntiva anche questa immagine di hardocp...
http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfMTBfMV9sLmdpZg==
Il NULLA....eh si!:sofico:
^TiGeRShArK^
04-05-2004, 15:20
CVD...
come avevo detto tempo fa ovviamente si è assisitito a un quasi revival di nv30, oddio non ke nv40 faccia skifo, ma + precisamente intendo ke intorno alla skeda di casa nvidia si è creato un hype enorme con rumours da tutti i lati e di tutti i tipi.
Di r420 invece non si è saputo praticamente niente se nn alla fine e zitta zitta ha sbaragliato la concorrente nonostante MOLTI la dessero x spacciata date le 16 pipe di nv40 (qdo ancora si sapeva ke r420 era a 12 pipe...)
L\'Esecutore
04-05-2004, 15:21
Originariamente inviato da dwfgerw
ragazzi non capisco tutto questo asti verso nvidia, questa volta NON C'E' una differenza abissale tra le due, anzi nvidia ha sfornato questa 6800 GT da 16pipes che sembra fare bene il suo lavoro.
A livello di architettura nvidia è avanti, magari tra 6 mesi iniziano a circolare giochi shader 3.0 e ati cosa farà ?
Sappiamo tutti che peso politico ha nvidia e quindi possiamo aspettarci titoli che sfruttino le directx9C di M$
Da quello che ho capito gli shader 3 possono girare su R420, eccezion fatta per una feature, il branching, che tra l'altro sembra essere piuttosto pesante
Ragazzi, Hal quando ci si mette ti trova anche le recensioni fatte da un eschimese sotto un igloo! :asd:
Originariamente inviato da Legolas84
sono daccordo al 100%
Direi che da qui ad altre 4 generazioni di schede video ce n'e' di tempo per ottimizzare visto che Carmack sta ancora pensando a quale path e' piu conveniente.. :D:sofico::muro:
Comunque sono sicuro che il 3DC dara' una grossa mano nei giochi che sfrutteranno le normal map. ;)
halduemilauno
04-05-2004, 15:22
Originariamente inviato da prova
Ragazzi, Hal quando ci si mette ti trova anche le recensioni fatte da un eschimese sotto un igloo! :asd:
ciao Prova.
;)
Comunque sono sicuro che il 3DC dara' una grossa mano nei giochi che sfrutteranno le normal map.
Appunto...FarCry?:fiufiu:
TheDarkAngel
04-05-2004, 15:23
Originariamente inviato da prova
Ragazzi, Hal quando ci si mette ti trova anche le recensioni fatte da un eschimese sotto un igloo! :asd:
altro che fiuto da cane da tartufo :eek:
questo è l'uomo recensione :eek: :eek: :eek: :D :cool:
Originariamente inviato da halduemilauno
http://www.beyond3d.com/reviews/ati/r420_x800/images/aces.jpg
dopo questo. basta sciolgo la riserva. me la compro anch'io.
ciao.
:) :)
Ragazzi, qualcuno telefoni ad Hal: devono avergli rubato l'account, dato che c'è uno che si spaccia per lui dicendo che comprerà R420
:asd:
Legolas84
04-05-2004, 15:24
Originariamente inviato da Simon82
Direi che da qui ad altre 4 generazioni di schede video ce n'e' di tempo per ottimizzare visto che Carmack sta ancora pensando a quale path e' piu conveniente.. :D:sofico::muro:
Comunque sono sicuro che il 3DC dara' una grossa mano nei giochi che sfrutteranno le normal map. ;)
quello che dico..... è che per me che gioco praticamente solo a Neverwinter Nights non so quanto sia conveniente prendere una ATi..... e poi NWN lo usano nemmeno per fare un grafico... :(
andreamarra
04-05-2004, 15:24
Originariamente inviato da L\'Esecutore
Da quello che ho capito gli shader 3 possono girare su R420, eccezion fatta per una feature, il branching, che tra l'altro sembra essere piuttosto pesante
Sto cercando di farlo capire da circa una settimana :D
Questo non toglie che a livello di avveniristica il chip nv40 sarà proiettato verso il futuro. La Ati ha preferito scegliere la strada della distruzione totale raddoppiando la già mostruosa 9800XT.
In ogni caso qualora uscissero giochi full shade 3.0 la ati certamente li implementerà. Sarebbe da pazzi non crederlo.
TheDarkAngel
04-05-2004, 15:25
Originariamente inviato da prova
Ragazzi, qualcuno telefoni ad Hal: devono avergli rubato l'account, dato che c'è uno che si spaccia per lui dicendo che comprerà R420
:asd:
vero :eek: :eek: :eek:
zerothehero
04-05-2004, 15:25
Originariamente inviato da Fatality
TOMS è storicamente un sito PRO NVIDIA, lo sanno tutti gli addetti ai lavori ...indi se l'unica voce PRO 6800 è quella di Tom,vuol dire CHE NVIDIA SI APPRESTA A SOKARE PER UN ALTRA INTERA GENERAZIONE DI SK VIDEO :cool:
mhahuahuahuhua come godo
Parlare in italiano è una opzione oramai.
Originariamente inviato da halduemilauno
http://www.beyond3d.com/reviews/ati/r420_x800/images/aces.jpg
dopo questo. basta sciolgo la riserva. me la compro anch'io.
ciao.
:) :)
URKAAA!!!!
Ma allora ci sta una nuova versione dei CATA???
BYe
L\'Esecutore
04-05-2004, 15:27
Originariamente inviato da andreamarra
Sto cercando di farlo capire da circa una settimana :D
Questo non toglie che a livello di avveniristica il chip nv40 sarà proiettato verso il futuro. La Ati ha preferito scegliere la strada della distruzione totale raddoppiando la già mostruosa 9800XT.
In ogni caso qualora uscissero giochi full shade 3.0 la ati certamente li implementerà. Sarebbe da pazzi non crederlo.
Alla ATi non lavorano certo degli idioti, se non hanno implementato completamente gli SM 3 avranno avuto i loro motivi. Ma è sicuro che nel prossimo futuro ci sarà un supporto completo.
vai ati, anche questa volta ha svolto un'ottimo lavoro.
Ciao
andreamarra
04-05-2004, 15:27
Visto il demo di Ruby... :eek:
Ma ruby è Nikita :eek: ????
halduemilauno
04-05-2004, 15:29
Originariamente inviato da prova
Ragazzi, qualcuno telefoni ad Hal: devono avergli rubato l'account, dato che c'è uno che si spaccia per lui dicendo che comprerà R420
:asd:
non esageriamo non ho parlato di R420. ho solo parlato di x800pro.
a proposito.
http://ballero.web.ctonet.it/3dmark.gif
ciao.
:)
Originariamente inviato da halduemilauno
http://www.beyond3d.com/reviews/ati/r420_x800/images/aces.jpg
dopo questo. basta sciolgo la riserva. me la compro anch'io.
ciao.
:) :)
ma questo è il nuovo pannello dei catalyst 4.5 ??
Sono gia disponibili in offerta speciale:
https://apps.ati.com/specialpromotion/
sanitarium
04-05-2004, 15:32
Non credo che in questa recensione Tom sia stato così pro NVidia, vista la conclusione dell'articolo:
Fino a prova contraria, il nuovo leader nelle prestazioni è la Radeon X800 XT Platinum Edition di ATi. Vedremo se i "reds" manterranno la parola e se renderà disponibili queste schede in numero sufficiente da subito. Basterebbe l'ingresso sul mercato delle versioni di XT più lente per tenere in scacco la GeForce 6800 Ultra. Ancora una volta, NVIDIA non rimane seduta a guardare, ma pianifica il lancio della GeForce 6800 Ultra Extreme, che sarà offerta da un certo numero di partner quali Gainward e XFX. Rimane da vedere a che prezzo saranno messe in vendita queste schede, siccome la GF 6800 Ultra "normale", ha un costo di $499, lo stesso della X800 XT Platinum Edition.
L\'Esecutore
04-05-2004, 15:32
Qualcuno mi dice da dove viene lo screenshot del pannello ATi?
andreamarra
04-05-2004, 15:33
Originariamente inviato da L\'Esecutore
Alla ATi non lavorano certo degli idioti, se non hanno implementato completamente gli SM 3 avranno avuto i loro motivi. Ma è sicuro che nel prossimo futuro ci sarà un supporto completo.
Infatti. Il vantaggio sarà per i programmatori che potranno cominciare a mettere sfogo alla loro cratività con il branching...
Per il marketing, perchè fregiarsi di FULL SHADRE 3.0 SUPPORT" non è niente male...
Per noi utenti finali il discorso è ben differente. E' un pò come la storia del R300 e del supporto alle DX9. Probabilmente quando i giochi sfrutteranno gli shader 3.0 le schede recensite a breve saranno già "soppiantate" da soluzioni ancora più estreme. Qui però mi apsetto un aumento di velocità da parte di nvidia, e un aumento tecnologico da parte di Ati. Sicuramente stanno già lavorando al futuro chip alla ati. Non possono infatti permettere alla nvidia di avere conoscenze superiori sul branching e altro.
generals
04-05-2004, 15:39
Originariamente inviato da Fatality
TOMS è storicamente un sito PRO NVIDIA, lo sanno tutti gli addetti ai lavori ...indi se l'unica voce PRO 6800 è quella di Tom,vuol dire CHE NVIDIA SI APPRESTA A SOKARE PER UN ALTRA INTERA GENERAZIONE DI SK VIDEO :cool:
mhahuahuahuhua come godo
Non mi sembra che la rece di Tom's risulti a favore di nvidia. la x800xt risulta la migliore, così come migliore è il consumo energetico inoltre si sottolinea che anche i prezzi ati sono più vantaggiosi, quindi...
andreamarra
04-05-2004, 15:41
Originariamente inviato da L\'Esecutore
Qualcuno mi dice da dove viene lo screenshot del pannello ATi?
A quanto pare è il nuovo pannello dei catalyst 4.5...
aspettiamo qualche ora-giorno e... :fiufiu:
ovviamente sarà utilizzabile dal R3X0 in poi...
andreamarra
04-05-2004, 15:42
regalo del corsini... :)
http://forum.hwupgrade.it/attachment.php?s=&postid=4354513
insane74
04-05-2004, 15:43
se la x800 consuma + o meno come una 9800xt allora sono a cavallo!
infatti c'è chi usa la 9800 negli xpc, con un ali da 200w!!!!
olè!!!!
:p
certo che mi spiacerebbe cambiare la mia fida 9500! :cry:
Fatality
04-05-2004, 15:43
Originariamente inviato da andreamarra
regalo del corsini... :)
http://forum.hwupgrade.it/attachment.php?s=&postid=4354513
good :)
KenMasters
04-05-2004, 15:43
Ancora non si puo dire niente riguardo alle prestazioni, ma di certo da quanto ho letto ATi è ancora una volta un paio di gradini sopra per cio che concerne la qualità visiva. Fantastica.
L\'Esecutore
04-05-2004, 15:44
Originariamente inviato da andreamarra
regalo del corsini... :)
http://forum.hwupgrade.it/attachment.php?s=&postid=4354513
Direi che è una conferma del magnifico filtro anisotropico del nuovo chip ATi
Sarà DURISSIMA imporsi di non comprarla ... :muro:
Direi anche che la fascia media se proposta a prezzi vantaggiosi
potrebbe essere interessante.
Vedremo...
andreamarra
04-05-2004, 15:47
Originariamente inviato da prova
Sarà DURISSIMA imporsi di non comprarla ... :muro:
Invece è facile, basta uscire un paio di volte in più la sera per locali e farò già fatica a mangiare... :asd: :sofico:
halduemilauno
04-05-2004, 15:48
Originariamente inviato da L\'Esecutore
Qualcuno mi dice da dove viene lo screenshot del pannello ATi?
beyond3d.com
andreamarra
04-05-2004, 15:49
Originariamente inviato da R@nda
Direi anche che la fascia media se proposta a prezzi vantaggiosi
potrebbe essere interessante.
Vedremo...
Aspetto altri test, però non credevo (e tutt'ora non lo credo possibile) che la x800pro vada come una Gt che dovrebbe avere 4 pipe in più... :confused:
Ma a prezzi sbaglio o ho capito che la ati con il fatto di avere avuto una produzione meno costosa potrà avere prezzi leggermente più accessibili rispetto alla nvidia?
Originariamente inviato da andreamarra
Invece è facile, basta uscire un paio di volte in più la sera per locali e farò già fatica a mangiare... :asd: :sofico:
:D :D :D
Bhe cavolo 180 milioni di transistor anziche 220 devono costare qualcosa in meno no?
almeno spero....
halduemilauno
04-05-2004, 15:51
http://common.ziffdavisinternet.com/util_get_image/6/0,1311,sz=1&i=67996,00.gif
http://www.extremetech.com/article2/0,1558,1583529,00.asp
;)
L\'Esecutore
04-05-2004, 15:51
Originariamente inviato da andreamarra
Aspetto altri test, però non credevo (e tutt'ora non lo credo possibile) che la x800pro vada come una Gt che dovrebbe avere 4 pipe in più... :confused:
Ma a prezzi sbaglio o ho capito che la ati con il fatto di avere avuto una produzione meno costosa potrà avere prezzi leggermente più accessibili rispetto alla nvidia?
Il "bello" è che li possa fare non significa che li debba fare. Se la scheda ATi va + dela scheda nVidia, non c'è nessun motivocommerciale x venderla a un prezzo inferiore...
Originariamente inviato da halduemilauno
http://common.ziffdavisinternet.com/util_get_image/6/0,1311,sz=1&i=67996,00.gif
http://www.extremetech.com/article2/0,1558,1583529,00.asp
;)
Beh ... la GT, se si ponesse nella fascia di prezzo delle 250€ e non più, potrebbe riscuotere lo stesso clamoroso successo della 4200 prima e della 5900XT poi.
Ma temo la spareranno a più di 300€.
halduemilauno
04-05-2004, 15:56
Originariamente inviato da andreamarra
A quanto pare è il nuovo pannello dei catalyst 4.5...
aspettiamo qualche ora-giorno e... :fiufiu:
ovviamente sarà utilizzabile dal R3X0 in poi...
stamattina hai chiesto di call of duty
http://common.ziffdavisinternet.com/util_get_image/6/0,1311,sz=1&i=67994,00.gif
andreamarra
04-05-2004, 15:58
Originariamente inviato da L\'Esecutore
Il "bello" è che li possa fare non significa che li debba fare. Se la scheda ATi va + dela scheda nVidia, non c'è nessun motivocommerciale x venderla a un prezzo inferiore...
In marketing non centra il discorso prestazioni, o almeno è un discorso limitato. Basta guardare le macchine e rendersi conto che ci sono modelli che offrono di meno e costano di più. Dipende da diversi fattori. Si cerca di controprogrammare le mosse della concorrenza, e se anche nvidia si rendesse conto che prestazionalmente e qualitativamente non può raggiungere il modello di punta ati, i prezzi della stessa rimarrebbero alti perchè:
-ati non ha dovuto sconvolgere il progetto per creare la R420
-l'nvidia ha dovuto rivoluzionare il progetto
-la produzione del chip ati è meno oneroso dal punto di vista economico
-la produzione del chip nvidia è molto più oneroso.
Ecco perchè la ati potrebbe, se sarà confermata questa teoria e queste prestazioni il discorso sulla fascia "media" andrebbe a vantaggio di ati. Però ancora non riesco a ipotizzare una X800pro a livello di una GT...
andreamarra
04-05-2004, 16:01
Originariamente inviato da halduemilauno
stamattina hai chiesto di call of duty
http://common.ziffdavisinternet.com/util_get_image/6/0,1311,sz=1&i=67994,00.gif
Confermato il vantaggio nvidia dallo stesso corsini, circa 15-20 fps in più.
Addirittura la gt va meglio della x800xt nel test.
halduemilauno
04-05-2004, 16:02
Originariamente inviato da andreamarra
Confermato il vantaggio nvidia dallo stesso corsini, circa 15-20 fps in più.
Addirittura la gt va meglio della x800xt nel test.
l'avevo detto e non solo io.
ciao.
;)
Sisi...e se con la generazione passata i post "E adesso che scelgo tra questa e questa?" spuntavano come funghi con questa sarà un massacro vedrete:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.