View Full Version : [THREAD UFFICIALE] ATI Radeon X1800XT/XL
ATI ha presentato la famiglia X1800, basata sull'architettura R520, destinata a rivoluzionare il panorama attuale delle schede video.
http://img319.imageshack.us/img319/1701/titolo4na.gif (http://imageshack.us)
http://img319.imageshack.us/img319/9957/rx1800boardlg8ex.jpg (http://imageshack.us)
X1800, Caratteristiche:
Architettura con 4 "Quad Pixel Shader Core" e bus memoria a 256bit caratterizzano le soluzioni della famiglia X1800; la scheda X1800XT viene fornita in due distinte versioni, con 256 oppure 512 Mb di memoria. Il sistema di raffreddamento delle versioni XT è di tipo a due slot, mentre le schede XL hanno un tradizionale dissipatore di calore a uno slot.
X1800 XT OVERCLOCK (R520 / 0.09 micron) PCI>EXPRESS
Gpu: 700 mhz, Memoria: 1600 mhz, Bus memoria: 256 bit,
4 Quad Pixel Shader Core, 1 Ultra-Threading Dispatch Processor,
8 Vertex Shading, 16 Pixel Shading, 16 ROPs, 16 TMU,
Fill Rate: 11200 Mpixel - 11200 Mtexel
Banda Passante: 51.2 GB
(Dx9 ps3.0 vs3.0)
X1800 XT (R520 / 0.09 micron) PCI>EXPRESS
Gpu: 625 mhz, Memoria: 1500 mhz, Bus memoria: 256 bit,
4 Quad Pixel Shader Core, 1 Ultra-Threading Dispatch Processor,
8 Vertex Shading, 16 Pixel Shading, 16 ROPs, 16 TMU,
Fill Rate: 10080 Mpixel - 10080 Mtexel
Banda Passante: 48 GB
(Dx9 ps3.0 vs3.0)
X1800 XL (R520 / 0.09 micron) PCI>EXPRESS
Gpu: 500 mhz, Memoria: 1000 mhz, Bus memoria: 256 bit,
4 Quad Pixel Shader Core, 1 Ultra-Threading Dispatch Processor,
8 Vertex Shading, 16 Pixel Shading, 16 ROPs, 16 TMU,
Fill Rate: 8000 Mpixel - 8000 Mtexel
Banda Passante: 32 GB
(Dx9 ps3.0 vs3.0)
X1800 GTO² (R520 / 0.09 micron) PCI>EXPRESS
Gpu: 500 mhz, Memoria: 1000 mhz, Bus memoria: 256 bit,
4 Quad Pixel Shader Core, 1 Ultra-Threading Dispatch Processor,
8 vertex shading, 16 pixel shading, 16 ROPs, 16 TMU,
Fill Rate: 8000 Mpixel - 8000 Mtexel
Banda Passante: 32 GB
(Dx9 ps3.0 vs3.0)
X1800 GTO (R520 / 0.09 micron) PCI>EXPRESS
Gpu: 500 mhz, Memoria: 1000 mhz, Bus memoria: 256 bit,
3 Quad Pixel Shader Core, 1 Ultra-Threading Dispatch Processor,
8 vertex shading, 12 pixel shading, 12 ROPs, 12 TMU,
Fill Rate: 6000 Mpixel - 6000 Mtexel
Banda Passante: 32 GB
(Dx9 ps3.0 vs3.0)
R520, Architettura:
--> Radeon serie X1000: Architettura delle nuove GPU ATI (di Paolo Corsini e Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1359/5.html)
--> Un grazie a yossarian per i consigli e le spiegazioni sulla nuova architettura di R520; trovate i suoi interventi a partire da questa pagina (http://www.hwupgrade.it/forum/showthread.php?t=1032373&page=7&pp=20) del thread.
http://img389.imageshack.us/img389/9479/architecture2xy.jpg (http://imageshack.us)
--> Radeon serie X1000: il nuovo memory controller (di Paolo Corsini e Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1359/6.html)
http://img178.imageshack.us/img178/7921/memorycontroller23ay.jpg (http://imageshack.us)
R520 e Theater 550, AVIVO:
- cattura: gain control automatico; filtro 3D combo; conversione da analogico a digitale a 12bit di precisione; de-noise hardware, per rimuovere il rumore di fondo delle immagini acquisite; funzionalità di demodulazione digitale con cancellazione multi-path.
- codifica: encoding con supporto hardware; supporto al transcode attraverso la VPU, per i formati H.264, VC-1, WMV9, WMV9 PCM, MPEG-2, MPEG-4 e DivX.
- decodifica: decodifica con supporto della VPU per i formati H.264, VC-1, WMV9, MPEG-2 e MPEG-4.
- post process: de-interlacing vector adaptive; video scaling avanzato.
- visualizzazione: display Avivo a 10-bit di precisione, con gamma e color correction, scaling, compressione e dithering; funzionalitò avanzate per la connessione alle periferiche di output
--> Radeon serie X1000: AVIVO (di Paolo Corsini e Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1359/7.html)
R520, Massima qualità d'immagine:
- HDR, High Dynamic Range
- Anti Aliasing HDR
- Adaptive Anti Aliasing
- Filtraggio Anisotropico 16x: nuovo algoritmo di filtraggio per area
- 3DC+
--> Radeon serie X1000: Alla ricerca della massima qualità d'immagine (di Paolo Corsini e Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1359/8.html)
R520, recensioni complete di HwUpgrade:
-ATI Radeon X1800: quando 16 pipeline sono meglio di 24 (di Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1361/index.html)
-Radeon serie X1000: le nuove GPU ATI (di Paolo Corsini e Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1359/index.html)
-7800 GT vs X1800 XL: Asus vs Asus (di Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1400/index.html)
-Radeon X1800 CrossFire Edition: scontro ai vertici (di Raffaele Fanizzi) (http://www.hwupgrade.it/articoli/skvideo/1405/index.html)
R520, altre recensioni:
-ATI Radeon X1000 Family Preview @ [H]ard|OCP (http://www.hardocp.com/article.html?art=ODIy)
-R520: The Never Ending Story? @ Beyond3D (http://www.beyond3d.com/reviews/ati/r520/)
-ATI's Late Response to G70 - Radeon X1800, X1600 and X1300 @ AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=2552)
-ATI Radeon X1800 XT Preview @ HEXUS (http://www.hexus.net/content/item.php?item=3603)
-ATI's new Radeon X1000 series of Graphics cards @ Guru3D (http://www.guru3d.com/article/Videocards/262/)
-ATI X1000 Graphics Family @ HotHardware (http://www.hothardware.com/viewarticle.cfm?articleid=734&cid=2)
-Radeon X1800 XT and Radeon X1800 XL: ATI Aims for the Crown @ ExtremeTech (http://www.extremetech.com/article2/0,1697,1867208,00.asp)
-ATI X1000: la terra promessa @ Tom's Hardware (http://www.tomshw.it/graphic.php?guide=20051006)
-ATI RADEON X1800 XT 512MB/X1800 XL Performance Preview @ FiringSquad (http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/default.asp)
-ATI RADEON X1000: Brand-New Graphics Architecture from ATI Explored @ X-bit labs (http://www.xbitlabs.com/articles/video/display/radeon-x1000.html)
-ATI RADEON X1800 XT and XL Performance: Crushing NVIDIA's 7800? @ X-bit labs (http://www.xbitlabs.com/articles/video/display/radeon-x1800.html)
-ATI Technologies' counter-offensive: RADEON X1800 (R520), X1600 (RV530), and X1300 (RV515) @ Digit-life (http://www.digit-life.com/articles2/video/r520-part1.html)
-ATI's Radeon X1000 series graphics processors @ The Tech Report (http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1)
-ATI Radeon X1000 Series Preview @ TheTechLounge (http://www.thetechlounge.com/review.php?directory=ati_radeon_x1000_preview&page=1)
-The X1000 series - ATI goes SM3.0 @ Bjorn3D (http://www.bjorn3d.com/read.php?cID=843&pageID=1792)
-ATI Radeon X1800XT : Introducing X1800XT @ t-break (http://www.tbreak.com/reviews/article.php?cat=grfx&id=407&pagenumber=1)
-ATI Radeon X1800 XT Review @ Hardware secrets (http://www.hardwaresecrets.com/article/228/10)
-ATI X1800XT 512Mb @ DriverHeaven (http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm)
-ATI Radeon X1800 XT e X1800 XL @ 3D Italia (http://hardware.multiplayer.it/articoli.php3?id=12413)
R520, Demos: Radeon X1K Family Demos (http://www.ati.com/designpartners/media/edudemos/RadeonX1k.html)
R520, Screensavers: Radeon X1K Screensavers (http://www.ati.com/designpartners/media/screensavers/RadeonX1k.html)
R520, Wallpapers: Radeon X1K Wallpapers (http://www.ati.com/designpartners/media/wallpapers/RadeonX1k.html)
ATI CROSSFIRE home page (http://www.ati.com/technology/crossfire/index.html)
ATI CROSSFIRE INSTRUCTIONAL DEMO (http://www.ati.com/technology/crossfire/howitworksdemo.html)
Vi segnalo anche questo Thread sul CrossFire (http://www.hwupgrade.it/forum/showthread.php?t=1310939) dove troverete una guida in italiano sulla tecnologia Dual GPU di ATI.
R520, Programmi per l'overclock ed il controllo:
--> Overclocking tool made by ATI: ATI X1K Overclocker (http://www.techpowerup.com/downloads/89)
--> ATITool 0.26 (http://www.techpowerup.com/atitool/)
Full support for all ATI and NVIDIA cards. Only X1950 Pro overclocking is not supported
To overclock ATI X1k cards, you do not need to disable the services in Windows
Fan settings can be saved to a profile
Memory timings can be saved to a profile
BIOS dump works on X1000 Series
Thermal monitoring defaults to on
Voltage control for several X1800 and X1900 cards
Control over Adaptive Anti-Aliasing
New settings tab "Driver Tweaks"
Current Draw monitoring for several ATI cards
--> Guida in inglese ad ATITool: ATITool Documentation Wiki (http://www.techpowerup.com/wiki/doku.php/atitool/start)
--> Guida in italiano ad ATITool: Overclock ATI X1800/X1900 Series (http://www.tiburcc.com/forum/showthread.php?t=6773)
--> Rivatuner: monitoraggio frequenze e voltaggi (http://www.hwupgrade.it/forum/showpost.php?p=11241972&postcount=5528)
--> ATI Tray Tools v 1.0 (http://www.radeon2.ru/atitray/)
Utility per la gestione della scheda video. Se installata assieme al singolo pacchetto dei driver Catalyst (Display Driver Only) sostituisce senza problemi il Catalyst Control Center (CCC). Attraverso l'icona ATT nella systray del sistema si accede a svariate impostazioni, come ad esempio i settaggi per Direct3D e OpenGL, filtri AA e AF, Tweaks, Overclock, Display, etc...
--> RaBiT Bios Editor v2.1 (http://www.techpowerup.com/downloads/283)
Utility che permette di modificare ed aggiornare il bios delle schede video basate su gpu ATI Radeon.
(v2.1 - Support for OverDrive 2D/3D profiles for Radeon X1K cards, Experimental Support for Windows 64-bit, Fixed wrong timings decoding on Radeon X1800/X1900, Several bug fixes)
--> PC Wizard (http://www.cpuid.com/pcwizard.php)
Utility per il monitoraggio ed il benchmark del sistema, con una sezione dedicata alla scheda video.
http://img377.imageshack.us/img377/6008/catalyst1nl.jpg (http://imageshack.us)
--> Driver Catalyst (https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=640) per Windows XP
1) per un installazione completa, scaricate:
- Catalyst Control Center Package (comprende anche i Display Driver ed i WDM Driver)
- Complete AVIVO Package
- Microsoft .NET Framework (da installare sempre prima dei Driver; chi lo ha già installato non deve ripetere l'installazione)
2) per un installazione completa ma senza le funzionalità AVIVO, scaricate:
- Catalyst Control Center Package (comprende anche i Display Driver ed i WDM Driver)
- Microsoft .NET Framework
3) per un installazione completa, ma senza le funzionalità AVIVO e VIVO, scaricate:
- Display Driver Only
- Catalyst Control Center Only
4) per un installazione leggera da utilizzare con ATI Tray Tools, scaricate:
- Display Driver Only
--> Catalyst Beta Driver (https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=19933) per Windows Vista RC1
--> Driver Catalyst (https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=1156) per Windows XP Professional 64 bit Edition
--> Driver Catalyst (https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=3380) per Linux x86 / x86-64
--> Guida all'AVIVO Video Converter (https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=21793)
--> Catalyst 6.8 Beta Chuck Patch (http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=21960) - Driver che permettono di utilizzare HDR ed AA contemporaneamente con il gioco Elder Scrolls IV: Oblivion.
--> Catalyst Special HotFix (https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=22378) - Driver Catalyst aggiornati per sistemi operativi Windows 2000 e Windows XP. Questa versione risolve alcuni problemi di stabilità verificatisi, in particolari condizioni, con schede video Radeon della serie X1000 e schede madri basate su chipset nVIDIA nForce 4. (qualora il vostro sistema basato su chipset nForce 4 e scheda video Radeon X1000 non manifesti problemi di alcun tipo in abbinamento, utilizzate i tradizionali driver Catalyst)
http://www.hwupgrade.it/articoli/1393/titolo.gif
“All In Wonder è da lungo tempo sinonimo di funzionalità multimediali avanzate, in abbinamento a potenza di elaborazione con giochi 3D, tutto in un'unica scheda. La più recente incarnazione di questo concetto vede l'abbinamento tra chip Radeon X1800XL e sintonizzatori TV analogico e digitale terrestre”.
X1800 XL ALL IN WONDER (R520 / 0.09 micron) PCI>EXPRESS
Gpu: 500 mhz, Memoria: 1000 mhz, Bus memoria: 256 bit,
4 Quad Pixel Shader Core, 1 Ultra-Threading Dispatch Processor,
8 Vertex Shading, 16 Pixel Shading, 16 ROPs, 16 TMU,
Fill Rate: 8000 Mpixel - 8000 Mtexel
Banda Passante: 32 GB
(Dx9 ps3.0 vs3.0)
R520 AIW, recensione completa HwUpgrade:
-ATI All In Wonder Radeon X1800XL (di Alessandro Bordin e Paolo Corsini) (http://www.hwupgrade.it/articoli/skvideo/1393/index.html)
--> Sito ufficiale ATI All In Wonder (http://www.all-in-wonder.com/eng.html)
--> ai possessori di X1800XL segnalo questo thread: ATI Radeon X1800XL - [ Official 3D ] (http://www.hwupgrade.it/forum/showthread.php?t=1063196)
...spero vi piaccia questo nuovo thread...! l'altro che avevo aperto, se i mod vogliono, si può anche chiudere.
--> Alcune immagini delle nuove X1800XT , X1800XL , X1800XT OVERCLOCK , X1800XL ALL IN WONDER
http://img22.imageshack.us/img22/1429/x180027kn.jpg (http://imageshack.us)
X1800XT - X850XT PE
http://img311.imageshack.us/img311/8673/x180016gy.jpg (http://imageshack.us)
7800GT - 7800GTX - X1800XT - X1800XL
--> ATI X1800XL ALL IN WONDER
http://img66.imageshack.us/img66/8084/aiwx18003nx.th.jpg (http://img66.imageshack.us/my.php?image=aiwx18003nx.jpg)
--> GeCube
http://img269.imageshack.us/img269/6449/gecubex1800xt4jd.th.jpg (http://img269.imageshack.us/my.php?image=gecubex1800xt4jd.jpg) http://img119.imageshack.us/img119/9417/gecubex1800xl9uh.th.jpg (http://img119.imageshack.us/my.php?image=gecubex1800xl9uh.jpg)
--> Sapphire
http://img80.imageshack.us/img80/8099/sapphirex1800xl6nf.th.jpg (http://img80.imageshack.us/my.php?image=sapphirex1800xl6nf.jpg)
--> HIS
http://img80.imageshack.us/img80/527/hisx1800xt3ke.th.jpg (http://img80.imageshack.us/my.php?image=hisx1800xt3ke.jpg)
--> PowerColor
http://img80.imageshack.us/img80/9043/powercolorx1800xt9rx.th.jpg (http://img80.imageshack.us/my.php?image=powercolorx1800xt9rx.jpg) http://img80.imageshack.us/img80/9922/powercolorx1800xl7mo.th.jpg (http://img80.imageshack.us/my.php?image=powercolorx1800xl7mo.jpg)
--> Club3D
http://img80.imageshack.us/img80/398/club3dx1800xt9ng.th.jpg (http://img80.imageshack.us/my.php?image=club3dx1800xt9ng.jpg) http://img80.imageshack.us/img80/8961/club3dx1800xl4yi.th.jpg (http://img80.imageshack.us/my.php?image=club3dx1800xl4yi.jpg)
--> Asus
http://img66.imageshack.us/img66/619/815l6xk.th.jpg (http://img66.imageshack.us/my.php?image=815l6xk.jpg) http://img66.imageshack.us/img66/1194/785l2pc.th.jpg (http://img66.imageshack.us/my.php?image=785l2pc.jpg) http://img66.imageshack.us/img66/7825/968l3gf.th.jpg (http://img66.imageshack.us/my.php?image=968l3gf.jpg)
--> MSI
http://img80.imageshack.us/img80/7771/rx18005tg.th.jpg (http://img80.imageshack.us/my.php?image=rx18005tg.jpg) http://img80.imageshack.us/img80/9587/rx1800xt6ug.th.jpg (http://img80.imageshack.us/my.php?image=rx1800xt6ug.jpg)
--> Sapphire X1800XT 512 Mb OC Bios
Questo bios porta la Gpu R520 delle X1800XT 512 Mb a 700 Mhz e le Memorie a 800 Mhz (1600 Mhz effettivi).
Download qui: Sapphire X1800XT 512 Mb OC Bios (http://www.techpowerup.com/downloads/111)
attenzione: utilizzate questo bios solo se avete problemi o volete a tutti i costi alzare le frequenze default della vostra X1800XT 512 Mb; aggiornare il bios di una vga può essere pericoloso se non lo si fa nella maniera giusta; prima di provare questo nuovo bios salvate sempre il vostro originale.
Le RADEON X1800 XT 512 Mb con PCB numero 109-A52031-10 potrebbero avere vita più breve se utilizzate con il nuovo bios; nessun problema, invece, per le vga basate sul nuovo PCB 109-A52031-20.
ATI released a X1800XT bios which set the core to 700 from 625Mhz and the memory to 800Mhz from 750Mhz. It was said that the raise should generally work on all X1800XT cards. Now it seems that the higher clock speed need a change at the hardware level. The cards would need more MOSFETs to ensure a clean and stable power feed. The BIOS should still work, but users are advised that the upgrade could drastically reduce the lifespan of the card.
http://img102.imageshack.us/img102/2697/x1800xt105kv.th.jpg (http://img102.imageshack.us/my.php?image=x1800xt105kv.jpg) http://img124.imageshack.us/img124/6281/x1800xt200fq.th.jpg (http://img124.imageshack.us/my.php?image=x1800xt200fq.jpg)
Il sito Guru3D puntualizza:
Flashing is very easy, however, you MUST lower your clocks to 500/500 before you flash. If you do not, chances are very good that you will suffer BSODs, screen corruption or even a failed flash and making your card useless.
1) You need to install an overclocking utility (Rivatuner, ATITool).
2) Go to the low level clocking utility and lower clocks to 500/500.
3) Run the ATIWinFlash utility. Once the application splash screen is up, select save BIOS so that you have your current BIOS. Then select the BIOS file wich is the .103 file; then select "load" and it will flash your card.
- ATIFlash 3.15 (http://www.techpowerup.com/downloads/282)
- ATIWinFlash 1.10 (http://www.techpowerup.com/downloads/281)
--> Guida al flash del bios X1800XT OC (http://www.hwupgrade.it/forum/showpost.php?p=12920511&postcount=9083)
--> 3D Mark 2005 v1.2 (DA EFFETTUARE CON RISOLUZIONE 1024*768)
> max709: 17320 = Club3D X1800XT 512mb CrossFire @ 776/918*2 Mhz - AMD Athlon64 FX-60 @ 3464 Mhz
> max709: 16846 = Club3D X1800XT 512mb CrossFire @ 778/918*2 Mhz - AMD Athlon64 X2 4800 @ 3260 Mhz
> max709: 14893 = Sapphire X1800XT 512mb CrossFire @ 690/800*2 Mhz - AMD Athlon64 X2 4800 @ 2989 Mhz
> max709: 13471 = Sapphire X1800XT 512mb CrossFire @ 621/720*2 Mhz - AMD Athlon64 X2 4800 @ 2640 Mhz
> max709: 12433 = Club3D X1800XT 512mb @ 850/967*2 Mhz - AMD Athlon64 X2 @ 2956 Mhz
> max709: 11829 = Club3D X1800XT 512mb @ 800/931*2 Mhz - AMD Opteron 148 @ 3180 Mhz
> max709: 11685 = Sapphire X1800XT 512mb @ 837/927*2 Mhz - AMD Opteron 148 @ 3025 Mhz
> overjet: 11451 = Sapphire X1800XT 512mb @ 810/918*2 Mhz - AMD Athlon64 4000 @ 3205 Mhz
> elettrik: 11170 = Sapphire X1800XT 512mb @ 816/909*2 Mhz - AMD Opteron 146 @ 3000 Mhz
> IcEMaN666: 11130 = Sapphire X1800XT 512mb @ 749/963*2 Mhz - AMD Athlon64 FX-55 @ 2960 Mhz
> bronzodiriace: 11079 = Club3D X1800XT 512mb @ 769/936*2 Mhz - AMD Opteron 146 @ 3000 Mhz
> tony73: 11052 = Sapphire X1800XT 512mb @ 766/846*2 Mhz - AMD Opteron 146 @ 3050 Mhz
> overjet: 11042 = Sapphire X1800XT 512mb @ 783/882*2 Mhz - AMD Athlon64 4000 @ 3203 Mhz
> dateme_un_nick: 11022 = BBA X1800XT 512mb @ 765/868*2 Mhz - AMD Athlon64 3700 @ 2950 Mhz
> Kikko_90: 10157 = Sapphire X1800XT 512mb @ 683/783*2 Mhz - AMD Opteron 146 @ 2600 Mhz
> Tetsujin: 10042 = Sapphire X1800XL 256mb @ 670/729*2 Mhz - AMD Opteron 148 @ 2805 Mhz
> shark79: 10008 = ATI X1800XT 512mb @ 695/792*2 Mhz - AMD Athlon64 3500 @ 2750 Mhz
> illidan2000: 10005 = Sapphire X1800XT 256mb @ 680/819*2 Mhz - AMD Opteron 146 @ 2900 Mhz
> killer978: 9033 = ATI X1800XL 256mb @ 599/598*2 Mhz - AMD Athlon64 X2 3800 @ 2760 Mhz
> ilovethesinger: 8121 = Sapphire X1800XT 256mb @ 600/700*2 Mhz - AMD Athlon64 X2 4200 @ 2209 Mhz
--> 3D Mark 2006 v1.0.2 (DA EFFETTUARE CON RISOLUZIONE 1280*1024)
> max709: 8414 = Club3D X1800XT 512mb CrossFire @ 753/877*2 Mhz - AMD Athlon64 X2 4800 @ 2984 Mhz
> max709: 7292 = Sapphire X1800XT 512mb CrossFire @ 695/779*2 Mhz - AMD Athlon64 X2 4800 @ 2975 Mhz
> max709: 7046 = Sapphire X1800XT 512mb CrossFire @ 621/720*2 Mhz - AMD Athlon64 X2 4800 @ 2640 Mhz
> max709: 5406 = Club3D X1800XT 512mb @ 803/949*2 Mhz - AMD Athlon64 X2 4800 @ 2960 Mhz
> fr4nc3sco: 4928 = Sapphire X1800XT 512mb @ 729/864*2 Mhz - AMD Athlon64 X2 @ 2838 Mhz
> il Biondo: 4850 = Sapphire X1800XT 256mb @ 690/800*2 Mhz - AMD Athlon64 X2 3800 @ 2634 Mhz
> il Biondo: 4791 = Sapphire X1800XT 256mb @ 690/800*2 Mhz - AMD Athlon64 X2 3800 @ 2502 Mhz
> Rez: 4727 = Sapphire X1800XT 512mb @ 625/750*2 Mhz - AMD Athlon64 FX-60 @ 2858 Mhz
> max709: 4691 = Sapphire X1800XT 512mb @ 783/900*2 Mhz - AMD Athlon64 FX-55 @ 3051 Mhz
> killer978: 4506 = ATI X1800XL 256mb @ 601/598*2 Mhz - AMD Athlon64 X2 3800 @ 2760 Mhz
> alex12345: 4446 = Sapphire X1800XT 512mb @ 625/750*2 Mhz - AMD Opteron 175 @ 2201 Mhz
> Tetsujin: 4445 = Sapphire X1800XL 256mb @ 670/729*2 Mhz - AMD Opteron 148 @ 2805 Mhz
> alex12345: 4253 = Sapphire X1800XT 512mb @ 625/750*2 Mhz - AMD Opteron 175 @ 2197 Mhz
--> F.E.A.R. (DA EFFETTUARE CON: RISOLUZIONE 1280*960, QUALITA' MAX, SOFT SHADOWS OFF, FSAA 4x, AF 8x)
> alex12345: 55 fps (http://xs.to/xs.php?h=xs70&d=06093&f=1280960fsaa4af8.JPG) = Sapphire X1800XT 512mb @ 625/750*2 Mhz - AMD Opteron 175 @ 2197 Mhz
> ilovethesinger: 51 fps (http://img493.imageshack.us/img493/6790/immagine27wq.jpg) = Sapphire X1800XT 256mb @ 600/700*2 Mhz - AMD Athlon64 X2 4200 @ 2209 Mhz
> Tetsujin: 46 fps (http://img493.imageshack.us/img493/2586/fearbench1dl.jpg) = Sapphire X1800XL 256mb @ 500/500*2 Mhz - AMD Opteron 148 @ 2808 Mhz
Nota: Se volete essere inseriti nelle classifiche mandatemi il link al vostro risultato con un messaggio privato.
A me sembra ottimo, complimentoni
vai, vai, vai col 3ad :D :D :D
Sawato Onizuka
06-10-2005, 16:59
...spero vi piaccia questo nuovo thread...! l'altro che avevo aperto, se i mod vogliono, si può anche chiudere.
mettiti d'accordo direttamente con loro ;)
mettiti d'accordo direttamente con loro ;)
be dai, tanto prima o poi poi uno passera', leggera' e postera' (almeno credo)
un altra immagine belin....spero che la inserisci, e' bellissia, fa' capire la maestosita' della "skedina"
http://www.guru3d.com/admin/imageview.php?image=5832
E' la prima serie ati che non supporterà l agp? :(
esatto
...alcune immagini tratte dal video della demo ToyShop v1.1 che fa vedere le capacità di rendering di R520.
http://img191.imageshack.us/img191/9606/imageview0fb.jpg (http://imageshack.us)
http://img191.imageshack.us/img191/3733/imageview23jy.jpg (http://imageshack.us)
http://img191.imageshack.us/img191/6950/imageview31ia.jpg (http://imageshack.us)
...ciao!
Veramente impressionanti. ;)
Ok chiudo l'altro.
...alcune immagini tratte dal video della demo ToyShop v1.1 che fa vedere le capacità di rendering di R520.
...ciao!
belin....xke' nn metti l'img ke ho postato io????
cmqe impressionante livello di qualita', sembra di essere dentro l'immagine e viverla in 1°a persona :eek:
p.s. nn voglio metterti fretta...fdaresti bene ad aggiungere piu' img della xl e relativi dati tecnici
halduemilauno
06-10-2005, 17:47
segnalo questa rece.
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/
ottime quelle immagini. specie la prima.
;)
davestas
06-10-2005, 17:50
quali saranno i bundle seCOndo VOI?
hackboyz
06-10-2005, 17:59
Bella belin ;) :D
Però 'sto giro lo salto, se ne parla per la prossima generazione :D
Wizard77
06-10-2005, 18:00
quali saranno i bundle seCOndo VOI?
onestamente, le uniche cose che mi interessano nella scatola sono la sk e l'adattatore DVi -> VGA
Dei giochi e dei programmi me ne importa poco, anche se me li tolgono e mi fanno pagare meno la sk sono ben contento
segnalo questa rece.
ottime quelle immagini. specie la prima.
;)
bellissiam rece, grande hal ;)
Foglia Morta
06-10-2005, 18:05
anche io sto giro lo salto , resto con la X800XL .
Mi è piaciuta la rece di extremetech , riassume bene le varie differenze fra le schede. la X1800XT senza filtri è pari alla 7800gtx e con i filtri è il 15% superiore, rispetto alla X850 è dal 30 al 60% più veloce ( sempre mediamente ).
La X1800XL è inferiore del 6% alla 7800GT senza filtri , e con filtri è pari.
l
segnalo questa rece.
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/
ottime quelle immagini. specie la prima.
...inserita la recensione.
...ti chiedo un favore, puoi eliminare l'immagine così la inserisco leggermente ridotta di dimensioni insieme ad altre nel secondo post? grazie.
...ciao!
Anch'io salto,spero di non lasciare il panorama pc! :rolleyes:
Cmq sia a me interessano i tech demo,però da quel che ho capito si potrà solo vederseli da video.Anche perchè non so come girerebbero sulle nostre vga attuali! :D
quali saranno i bundle seCOndo VOI?
Puoi già vedere i bundle.
Basta andare sui siti dei più famosi partner ATI.
Puoi già vedere i bundle.
Basta andare sui siti dei più famosi partner ATI.
tanto sono sempre quell....power dvd, far cry o giochi che vanno in quel periodo, adattatori, cavetto vari, software della casa profuttrrice....
Segnalo
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1
http://www.thetechlounge.com/review.php?directory=ati_radeon_x1000_preview
http://www.bjorn3d.com/read.php?cID=843
http://www.tbreak.com/reviews/article.php?id=407
http://www.hardwaresecrets.com/article/228/10
io segnalo questa recensione, ricca di bench e pure di immagini, caratteristiche tecniche e spiegazion dettagliate:
http://www.guru3d.com/article/Videocards/262/
:)
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/fc1600.gif
A queste risoluzioni e' mostruosa...
:)
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/fc1600.gif
A queste risoluzioni e' mostruosa...
diciamo che ha prestazioni galattiche per averee "solo" 16 pipe :)
diciamo che ha prestazioni galattiche per averee "solo" 16 pipe :)
...non sono più le "vecchie" pipelines... ormai dobbiamo parlare di "Quad Pixel Shader Core"! :cool: :)
...non sono più le "vecchie" pipelines... ormai dobbiamo parlare di "Quad Pixel Shader Core"! :cool: :)
ma dai, e' troppo lungo! :p....alla fine ha 16 pipe no???quindi xke' nn chiamarle pipe.... :)
...perchè sono diverse da quelle che finora si utilizzavano... nelle rece di hwupgrade c'è spiegato bene tutto! :)
...perchè sono diverse da quelle che finora si utilizzavano... nelle rece di hwupgrade c'è spiegato bene tutto! :)
ora me lo leggo xbene :D
halduemilauno
06-10-2005, 18:37
...inserita la recensione.
...ti chiedo un favore, puoi eliminare l'immagine così la inserisco leggermente ridotta di dimensioni insieme ad altre nel secondo post? grazie.
...ciao!
si certo.
fatto.
ciao.
;)
halduemilauno
06-10-2005, 18:39
bellissiam rece, grande hal ;)
grazie.
;)
DevilMalak
06-10-2005, 18:43
Spero che la x1800xt 512mb abbia un prezzo allineato alla 7800gtx 256mb, perchè è la vga che vorrei nel mio futuro pc ( fine dicembre circa ) e non voglio superare i 500euro.. voi che dite?
BoogeyMan
06-10-2005, 18:46
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page15.asp
da queste recensione... (credo la piu equilibrata..) penso che sia chiaro come le prestazioni della XT non vengono dalle 16 pipeline.. ma tanto dalla frequenza e dalla quantità della ram... chi la pensa come me?
si certo.
fatto.
ciao.
;)
...grazie! :)
...ciao!
Sicuramente sarà un chip vincente nel lungo periodo...
I driver dovranno essere ottimizzati a dovere specialmente x via del memory controller con opzioni software.
andreamarra
06-10-2005, 19:13
iscritto :D!
Mamma mia ma avete visto quanto è bello il sito dedicato... :eek: :eek:
E' di un'atmosfera incredibile.....ho già messo uno dei bellissimi wallpaper... :)
http://www.ati.com/
:cry: :cry:
conan_75
06-10-2005, 19:15
Aspetto una rece di HUP per dare un giudizio, comunque in linea a quello che mi aspettavo ;)
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page15.asp
da queste recensione... (credo la piu equilibrata..) penso che sia chiaro come le prestazioni della XT non vengono dalle 16 pipeline.. ma tanto dalla frequenza e dalla quantità della ram... chi la pensa come me?
La quantità di RAM c'entra ben poco. Ho fatto diversi test con la X800 XL 256 MB e 512 MB al riguardo per assicurarmi di questo e non c'è il minimo miglioramento. 512 MB di RAM verranno usati quando usciranno giochi con + texture e texture + complesse e in alta risoluzione. Nessuno dei giochi attualmente commercializzati richiede + di 256 MB o trae benefici.
Discorso a parte per la banda passante, sicuramente influente.
andreamarra
06-10-2005, 19:23
Mamma mia ma avete visto quanto è bello il sito dedicato... :eek: :eek:
E' di un'atmosfera incredibile.....ho già messo uno dei bellissimi wallpaper... :)
http://www.ati.com/
:cry: :cry:
ecco il perchè di tutti i ritardi per la scheda.... :D
hanno dedicato troppo tempo al sito :sofico:!
hackboyz
06-10-2005, 19:31
Il sito in effetti è spettacolare :cool:
La musica di sottofondo è epica, sembra quasi uscita da un film del Signore degli Anelli :D
Diciamo che se quelli alla nVidia quanto a marketing non se la cavano male, anche quelli alla Ati non scherzano :asd:
Rece http://www.xbitlabs.com/articles/video/display/radeon-x1000.html
Analisi dell'architettura http://www.digit-life.com/articles2/video/r520-part1.html
cosworth6k
06-10-2005, 19:42
Mi iscrivo pure io :Prrr:
Bugs Bunny
06-10-2005, 19:53
Anche io! :D
:sofico:
ecco il perchè di tutti i ritardi per la scheda.... :D
hanno dedicato troppo tempo al sito :sofico:!
probabile, cmqe mostruosamente sbalorditivo il sito, e' spettacolare, molte immagini tutte favolose....e la demo...ppazzesca, una favola :D
BoogeyMan
06-10-2005, 20:03
La quantità di RAM c'entra ben poco. Ho fatto diversi test con la X800 XL 256 MB e 512 MB al riguardo per assicurarmi di questo e non c'è il minimo miglioramento. 512 MB di RAM verranno usati quando usciranno giochi con + texture e texture + complesse e in alta risoluzione. Nessuno dei giochi attualmente commercializzati richiede + di 256 MB o trae benefici.
Discorso a parte per la banda passante, sicuramente influente.
il discorso sulla quantità di ram era riferito SOLO a FEAR... che con i filtri pare beneficiare dal maggior quantitativo di ram...
peccato che le xl non arrivino in nessun modo alle freq della xt, si poteva verificare una ipotetica xt a 256 che prestazioni aveva
il discorso sulla quantità di ram era riferito SOLO a FEAR... che con i filtri pare beneficiare dal maggior quantitativo di ram...
peccato che le xl non arrivino in nessun modo alle freq della xt, si poteva verificare una ipotetica xt a 256 che prestazioni aveva
E infatti i test con la X800 XL li ho fatti anche con FEAR :)
E infatti i test con la X800 XL li ho fatti anche con FEAR :)
come li ho fatti :mbe: ????loi hai fatti tu stesso????
davestas
06-10-2005, 20:12
Puoi già vedere i bundle.
Basta andare sui siti dei più famosi partner ATI.
Vorrei sapere qualcosa di piu' sui giochi, sui siti non ci sono....
Vorrei sapere qualcosa di piu' sui giochi, sui siti non ci sono....
beh, coem si fa' a sapere, nessuno l'ha ancora comprata(almeno credo)
ma poi tanto e'ì sempre quello il bundle...io quando devo acquistare una skvga nn guardo il bundle, a me' interessa: marca, affidabilita', prezzo, del bundle nn me ne pou' fregare di meno...cmqe aspetta la recensione ufficiale di HWupgrade e vedrai che li lo diranno ;)
cosworth6k
06-10-2005, 20:32
E infatti i test con la X800 XL li ho fatti anche con FEAR :)
Ciao giusto una domanda,le schede vengono correttamente riconosciute dai catalyst 5.9?
(§) The Avatar (§)
06-10-2005, 20:43
Complimentoni anche da parte mia a belin per il thread ;) ..e ad ATI per questo gioiello tecnologico che è "soltanto" il primo grande passo verso una nuova, rivoluzionaria architettura dai tempi di R300 :) :winner: :D
Foglia Morta
06-10-2005, 20:59
E infatti i test con la X800 XL li ho fatti anche con FEAR :)
riuscite a modificare le frequenze di core e ram per fare dei test sull'efficienza ? esempio impostando le stesse frequenze della X850XT PE , oppure lasciare il core di X1800XT normale e abbassare le ram alle frequenze di una 7800gtx ? sarebbe interessante :)
andreamarra
06-10-2005, 21:00
più che altro sarebbe interessante vedere quanto si possono mediamente OC le schede, anche se considerando le frequenze assurde si potrà fare poco.
Ciao giusto una domanda,le schede vengono correttamente riconosciute dai catalyst 5.9?
No, ci sono stati forniti driver beta successivi ai Catalyst 5.9.
SureNakeD
06-10-2005, 22:05
omg se avessi le frequenze della x1800xt nella 7800gtx scommetto che sarebbero tutte e 2 uguali.. il solo motivo che la x1800xt fa così tanti punti al 3dmark2005 è perchè ha delle frequenze pompate :| e poi vi ricordo che la 7800gtx calcola + fillrate della x1800xt :read: . Sempre a mio parere, questa nuova scheda ati nn mi ha sorpreso molto..
Niente flame pls :|
:asd:
DevilMalak
06-10-2005, 22:22
beh nvidia ha deciso di puntare sulle 24pipe ati sulle alte frequenze, in alcuni campi va meglio nvidia in altri ati, c'è chi preferirà una chi l'altra, le rece mostrano che ati per ora è allineata a nvidia come prestazioni, o almeno secondo me ( anzi ati forse va meglio su un pò più giochi ), ma comunque aspettiamo la rece di hwu per capire la migliore ( sempre soggettivamente parlando :) )
Ultimamente volevo passare a nvidia perchè ati mi aveva deluso un pò, invece con questa x1800xt sto rivalutando l'idea, e l'unica cosa che aspetto è la rece di hwu :D
SureNakeD
06-10-2005, 22:33
io oramai ho ordinato la 7800gtx e ho fatto bene :| se aspettavo la nuova ati la prendevo il prox anno looooool :D
cmq nvidia sta già preparando la sua contro mossa con un probabile lancio della G72 verso inizio 2006... Sarà probabilmente equipaggiata da 512mb ram e core a 0.09 u e chissà altre cosette :D
DevilMalak
06-10-2005, 22:46
beh anche ati avrà l'r580 eh :p sì comunque anche se ora c'è la x1800xt se uno voleva prendere una vga un mese fa non è che prendendo la 7800gtx faceva una stupidaggine, visto che è palese che la 7800gtx sia una buona scheda, tralasciando il fatto che ati POTREBBE essere migliore ( ma anche costare di più )
TheDarkAngel
06-10-2005, 22:53
io oramai ho ordinato la 7800gtx e ho fatto bene :| se aspettavo la nuova ati la prendevo il prox anno looooool :D
cmq nvidia sta già preparando la sua contro mossa con un probabile lancio della G72 verso inizio 2006... Sarà probabilmente equipaggiata da 512mb ram e core a 0.09 u e chissà altre cosette :D
ah ora capisco il tuo post di prima..
stavi cercando di autoconvincerti di aver fatto l'acquisto migliore...
beh se devo essere sincero è uno dei peggiori post di autoconvincimento che abbia mai letto...
yossarian
06-10-2005, 23:00
riuscite a modificare le frequenze di core e ram per fare dei test sull'efficienza ? esempio impostando le stesse frequenze della X850XT PE , oppure lasciare il core di X1800XT normale e abbassare le ram alle frequenze di una 7800gtx ? sarebbe interessante :)
http://www.extremetech.com/article2/0,1697,1867208,00.asp
qui sono confrontate, tra le altre, la X1800XL e la X850XT; tieni presente che la seconda ha drivers ottimizzati e frequenze leggermente superiori.
io oramai ho ordinato la 7800gtx e ho fatto bene :| se aspettavo la nuova ati la prendevo il prox anno looooool :D
cmq nvidia sta già preparando la sua contro mossa con un probabile lancio della G72 verso inizio 2006... Sarà probabilmente equipaggiata da 512mb ram e core a 0.09 u e chissà altre cosette :D
Ma come, sai già che nvidia sta preparando la contromossa e tu hai comprato una scheda ora che sarà subito vecchia e quindi anche svalutata??
:sofico:
cmq non capisco le xsone che dicono ...mi piacerebbe vedere la gtx con le frequenze della x1800xt oppure la x1800xt con quelle della gtx.. sono 2 progetti diversi, allora si potrebbe dire mi piacerebbe vedere la x1800xt con il numero di pipe della gtx.. non c'azzecca n'acca, è come intel e amd, 2 strade diverse, è il risultato che conta
è l'ora della nanna
PhoEniX-VooDoo
06-10-2005, 23:12
cmq non capisco le xsone che dicono ...mi piacerebbe vedere la gtx con le frequenze della x1800xt oppure la x1800xt con quelle della gtx.. sono 2 progetti diversi, allora si potrebbe dire mi piacerebbe vedere la x1800xt con il numero di pipe della gtx.. non c'azzecca n'acca, è come intel e amd, 2 strade diverse, è il risultato che conta
è l'ora della nanna
I chip di GDDR3 si possono considerare in un certo senso al di fuori del architettura della scheda (ovviamente eccezzion fatta per il supporto delle stesse da parte della scheda, ma è scontato), nel senso che nvidia potrebbe senza problemi adottare RAM da 1.2ns @1.6Ghz come ATi senza alcun problema.
Discorso diverso per frequenze della GPU e ancora "peggio" del numero di pipeline, li hai perfettamente ragione sostenendo che un progetto è diverso dal altro.
Visto che hanno un fill rate molto simile io sarei curioso (ripeto, puramente curioso) di vedere come andrebbe la GTX con RAM da 1.6Ghz.
ciao :)
I chip di GDDR3 si possono considerare in un certo senso al di fuori del architettura della scheda (ovviamente eccezzion fatta per il supporto delle stesse da parte della scheda, ma è scontato), nel senso che nvidia potrebbe senza problemi adottare RAM da 1.2ns @1.6Ghz come ATi senza alcun problema.
Discorso diverso per frequenze della GPU e ancora "peggio" del numero di pipeline, li hai perfettamente ragione sostenendo che un progetto è diverso dal altro.
Visto che hanno un fill rate molto simile io sarei curioso (ripeto, puramente curioso) di vedere come andrebbe la GTX con RAM da 1.6Ghz.
ciao :)
Non essendo un esperto penso che x le ram non sia un grosso problema x nvidia montare ram da 1.5 ghz xò i costi penso lievitino ed il prezzo imho è forse l'unico problema della nuova scheda ati
yossarian
06-10-2005, 23:20
I chip di GDDR3 si possono considerare in un certo senso al di fuori del architettura della scheda (ovviamente eccezzion fatta per il supporto delle stesse da parte della scheda, ma è scontato), nel senso che nvidia potrebbe senza problemi adottare RAM da 1.2ns @1.6Ghz come ATi senza alcun problema.
Discorso diverso per frequenze della GPU e ancora "peggio" del numero di pipeline, li hai perfettamente ragione sostenendo che un progetto è diverso dal altro.
Visto che hanno un fill rate molto simile io sarei curioso (ripeto, puramente curioso) di vedere come andrebbe la GTX con RAM da 1.6Ghz.
ciao :)
il pixel fillrate puro non è simile: quello della 1800XT è molto più alto
http://www.xbitlabs.com/articles/video/display/radeon-x1000_20.html
guarda i dati relativi al fillrate; la 7800 GTX fa segnare meno di 6500. Perchè funziona male? No, perchè il pixel fillrate si misura moltiplicando la rop's per la frequenza; il che significa che per la 7800 GTX si ha 430x16 (non per 24), ossia 6880 GPixel/sec (molto vicino, come è normale che sia, a quel 64xx fatto registare nei bench sintetici). Il dato teorico è sbagliato non solo sulla maggior parte delle recensioni che ho visto, ma anche sulle slide presentate da ATi :D
bel mostro! questa generazione xò, anche se a malincuore, la salto anch'io..
ci si vede per r580... :(
Aspetto analisi più dettagliate per formulare un primo parere.
Per ora mi sembra di rivivere l'uscita di x800 e la serie 6800.
Maggiore frequenza da una parte, maggiore efficenza dall'altra.
Pk77
andreamarra
07-10-2005, 01:15
cmq, credo che trattandosi di una architettura nuova per molti aspetti e con features totalmente nuove la nuova ati questa volta (e non come in precedenza) dovrebbe -se non sbaglio- andare meglio con driver nuovi.
In fondo è lo stesso discorso, credo, che qua dentro abbiamo fatto tutti sui driver acerbi della NV40. Considerando il cambio totale di architettura nvidia dalla serie precedente.
Che ne dite? Margini di miglioramento li ha?
TNR Staff
07-10-2005, 01:35
cmq, credo che trattandosi di una architettura nuova per molti aspetti e con features totalmente nuove la nuova ati questa volta (e non come in precedenza) dovrebbe -se non sbaglio- andare meglio con driver nuovi.
In fondo è lo stesso discorso, credo, che qua dentro abbiamo fatto tutti sui driver acerbi della NV40. Considerando il cambio totale di architettura nvidia dalla serie precedente.
Che ne dite? Margini di miglioramento li ha?
Bè,sono andati avanti anni ad ottimizzare i driver pure per le 7500... :D
Un paio di commenti riguardo all'ultimo demo con Ruby...a me non sembra niente di che,anzi (troppo effetto di luce sugli occhi,anche quando non serve...e poi sarebbe ora che si concentrassero n'attimo sulle espressioni,imho siamo ancora distanti dalla grafica di final fantasy,e sono passati anni...).
Bello il sito cmq :)
A me la musica ricorda molto Killer Instinct :sofico:
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/
http://www.hothardware.com/viewarticle.cfm?articleid=734
http://www.driverheaven.net/reviews/r520reviewxvxv/index.htm
http://www.extremetech.com/article2/0,1697,1867116,00.asp
http://www.xbitlabs.com/articles/video/display/radeon-x1000.html
http://www.neoseeker.com/Articles/Hardware/Reviews/ati_radeon_x1800_x1600preview/
http://www.hardwaresecrets.com/article/228/1
http://www.hexus.net/content/item.php?item=3603&page=1
http://www.noticias3d.com/articulo.asp?idarticulo=527
http://www.pcper.com/article.php?aid=172&type=expert&pid=1
http://www.tbreak.com/reviews/article.php?id=407
http://www.techreport.com/onearticle.x/8864
ne parlano ovunque.....
ma io attendo con ansia la rece di HW upgrade :Prrr:
rick deckard
07-10-2005, 08:24
Si sa niente della presunta funzionalità, per la x1800, che permetterebbe di regolare i voltaggi via software?
Sarebbe una manna per gli smanettoni... :D
Eddie666
07-10-2005, 08:25
iscritto anche io,in attesa delle rece di hwupgrade! :)
Maggiore frequenza da una parte, maggiore efficenza dall'altra.
Ecco, a quanto pare ora entrambe le trovi sulla X1800 :)
Ecco, a quanto pare ora entrambe le trovi sulla X1800 :)
Se devo essere sincero, se divido i risultati per il divario di frequenza di ram e gpu, trovo sempre o quasi le gtx in vantaggio.
Comunque anche la recensione di hw upgrade sarà un'introduzione di quello che potrebbe essere il futuro, interessante il tentativo di unificare i pixel shaders quasi preambolo delle future SM 4.0, interessante il nuovo controller della memoria, ma per ora vedo solo tanta carne al fuoco che merita una cottura molto molto lenta.
Di certo non mi faccio illusioni, non è una nuova 9700 pro, ne' una Geforce 3, anche se è un chip completamente nuovo, imho, non apre un ciclo, ma copre un periodo di passaggio.
Pk77
Se devo essere sincero, se divido i risultati per il divario di frequenza di ram e gpu, trovo sempre o quasi le gtx in vantaggio.
Ancora con sta storia delle frequenze... Il fatto che la X1800 processi gli shader tutti a FP32 (quando la 7800 può anche scalare a 16) e il fatto che applichi l'anisotropico su tutta la scena sfugge ai più :)
Ancora con sta storia delle frequenze... Il fatto che la X1800 processi gli shader tutti a 32bit (quando la 7800 può anche scalare a 16) e il fatto che applichi l'anisotropico su tutta la scena sfugge ai più :)
Figurati, io possiedo attualmente una scheda con Af full non a caso ;)
Pk77
Ps: aggiungiamoci pure il FSAA su HDR e concludiamo. Se mi sopno dimenticato qualche altra caratteristica ragguagliami pure.
Ancora con sta storia delle frequenze... Il fatto che la X180 processi gli shader tutti a 32bit (quando la 7800 può anche scalare a 16) e il fatto che applichi l'anisotropico su tutta la scena sfugge ai più :)
Brrr dj, hai scritto una eresia di proporzioni epiche semplicemente sbagliando i termini... cambia 32 bit con FP32 e 16 bit con FP16, ti prego :D
Jedi_Master
07-10-2005, 10:11
Brrr dj, hai scritto una eresia di proporzioni epiche semplicemente sbagliando i termini... cambia 32 bit con FP32 e 16 bit con FP16, ti prego :D
Ma FP non sta per "full precision" ovvero 32bit dopo la , ?
e quindi FP 16 è una cazz.......
:)
Brrr dj, hai scritto una eresia di proporzioni epiche semplicemente sbagliando i termini... cambia 32 bit con FP32 e 16 bit con FP16, ti prego :D
Me ne sono accorto intanto che inviavo :stordita:
Solo che è entrato uno in ufficio e non ho fatto in tempo a cambiare (e ho dovuto chiudere per non far vedere che stamattina non ho voglia di fare un cacchio).
Speravo sfuggisse :D
Ma FP non sta per "full precision" ovvero 32bit dopo la , ?
e quindi FP 16 è una cazz.......
:)
No, sta per floating point :)
Brrr dj, hai scritto una eresia di proporzioni epiche semplicemente sbagliando i termini... cambia 32 bit con FP32 e 16 bit con FP16, ti prego :D
senti per curiosità, ma le tue 7800gtx le tieni o prevedi di fare la pazzia? :D
Ragazzi mi iscrivo pure io!!!
Questa scheda mi sta davvero piacendo, anche se credo che come molti altri, passerò questa generazione (ho detto cosi anche dalla 9700 pro!! :D), anche perchè sapere di poter avere una x1800xt nel case è una bella idea!!!
Ma voi pensate che la XL abbia le stesse differenze di voltaggio della x800xl , nel salire di frequenze, e quindi a XT non ci arriverà mai?
Cmq aver visto la X1800XL disponibile in siti tedeschi per il 10 a 449 € alletta parecchio, certo che sono sempre 449 €!! :mc:
Jedi_Master
07-10-2005, 11:04
No, sta per floating point :)
ops......allora ok!
;)
Non mi pare che sia stato già notato, ma R520 ha il DOPPIO dei transistor di R420.
andreamarra
07-10-2005, 12:18
molti dicono: mi aspettavo di più ecc. ecc.
io credo che, a ben vedere il lavoro che hanno fatto per questa scheda decisamente innovativa, sia stato fatto anche tanto.
Ricordo che alle notizie di scarsa resa dei chip con tot pipeline molti presagivano addirittura la chiusura e il fallimento della ati...
la 7800GTX è semplicemente mostruosa (per usare un eufemismo), riuscire anche se in ritardo ad allinearsi se non andare anche meglio con una nuova scheda video techicamente addirittura superiore mi pare una impresa non da poco... ricordando anche che la ati doveva prendere le contrmisure allo sli, e ad altre cose che la nvidia aveva già consolidato con lo sbvalorditivo NV40.
il ring bus 512 è una cosa davvero notevolissima, lo shader 3.0 è stato inserito e migliorato (HDR+AA), 0.09 micron, architettura altamente complessa rispetto alla precedente architettura. A me pare che davvero abbiano fatto il massimo possibile. Resta l'amaro in bocca per le 16 pipeline, ma con le frequenze disumane e l'architettura più complessa ed efficiente si riesce ad ovviare. Chissà se sarà possibile fare una scheda del genere con 24 pipeline e se avrà vantaggi prestazionali.
alcune cose che non mi piacciono: le dimensioni, troppo grande la scheda nuova. E il doppio slot considerando i 0.09 micron non me lo aspettavo, così come i consumi che sono superiori alla precedente scheda.
neopazzo
07-10-2005, 12:20
mi iescrivo pure di qua...aspettanto la mia x1800xt :stordita:
hackboyz
07-10-2005, 12:22
Ragazzi mi iscrivo pure io!!!
Questa scheda mi sta davvero piacendo, anche se credo che come molti altri, passerò questa generazione (ho detto cosi anche dalla 9700 pro!! :D), anche perchè sapere di poter avere una x1800xt nel case è una bella idea!!!
Ma voi pensate che la XL abbia le stesse differenze di voltaggio della x800xl , nel salire di frequenze, e quindi a XT non ci arriverà mai?
Cmq aver visto la X1800XL disponibile in siti tedeschi per il 10 a 449 € alletta parecchio, certo che sono sempre 449 €!! :mc:
Più che problemi di voltaggio questa volta direi che le X1800XL difficilmente raggiungeranno le frequenze della XT per un problema di componenti: o meglio alcune sì alcune no se è vero che l'R520 delle XL è uno "scarto" delle XT...
Per le memorie poi i 1500 mhz mi sembrano irraggiungibili in ogni caso...
Perà meglio aspettare prove al riguardo ;)
PS: ma tieniti la X800XL che rulleggia ancora come poche :cool: :D
halduemilauno
07-10-2005, 12:22
molti dicono: mi aspettavo di più ecc. ecc.
io credo che, a ben vedere il lavoro che hanno fatto per questa scheda decisamente innovativa, sia stato fatto anche tanto.
Ricordo che alle notizie di scarsa resa dei chip con tot pipeline molti presagivano addirittura la chiusura e il fallimento della ati...
la 7800GTX è semplicemente mostruosa (per usare un eufemismo), riuscire anche se in ritardo a colmare se non riempire il gap con una nuova scheda video techicamente addirittura superiore mi pare a me una impresa non da poco... ricordando anche che la ati doveva prendere le contrmisure allo sli, e ad altre cose che la nvidia aveva già consolidato con lo sbvalorditivo NV40.
il ring bus 512 è una cosa davvero notevolissima, lo shader 3.0 è stato inserito e migliorato (HDR+AA), 0.09 micron, architettura altamente complessa rispetto alla precedente architettura. A me pare che davvero abbiano fatto il massimo possibile. Resta l'amaro in bocca per le 16 pipeline, ma con le frequenze disumane e l'architettura più complessa ed efficiente si riesce ad ovviare. Chissà se sarà possibile fare una scheda del genere con 24 pipeline e se avrà vantaggi prestazionali.
alcune cose che non mi piacciono: le dimensioni, troppo grande la scheda nuova. E il doppio slot considerando i 0.09 micron non me lo aspettavo, così come i consumi che sono superiori alla precedente scheda.
esatto.
:D
molti dicono: mi aspettavo di più ecc. ecc.
io credo che, a ben vedere il lavoro che hanno fatto per questa scheda decisamente innovativa, sia stato fatto anche tanto.
Ricordo che alle notizie di scarsa resa dei chip con tot pipeline molti presagivano addirittura la chiusura e il fallimento della ati...
la 7800GTX è semplicemente mostruosa (per usare un eufemismo), riuscire anche se in ritardo ad allinearsi se non andare anche meglio con una nuova scheda video techicamente addirittura superiore mi pare una impresa non da poco... ricordando anche che la ati doveva prendere le contrmisure allo sli, e ad altre cose che la nvidia aveva già consolidato con lo sbvalorditivo NV40.
il ring bus 512 è una cosa davvero notevolissima, lo shader 3.0 è stato inserito e migliorato (HDR+AA), 0.09 micron, architettura altamente complessa rispetto alla precedente architettura. A me pare che davvero abbiano fatto il massimo possibile. Resta l'amaro in bocca per le 16 pipeline, ma con le frequenze disumane e l'architettura più complessa ed efficiente si riesce ad ovviare. Chissà se sarà possibile fare una scheda del genere con 24 pipeline e se avrà vantaggi prestazionali.
alcune cose che non mi piacciono: le dimensioni, troppo grande la scheda nuova. E il doppio slot considerando i 0.09 micron non me lo aspettavo, così come i consumi che sono superiori alla precedente scheda.
esatto.
:D
Foglia Morta
07-10-2005, 12:30
molti dicono: mi aspettavo di più ecc. ecc.
io credo che, a ben vedere il lavoro che hanno fatto per questa scheda decisamente innovativa, sia stato fatto anche tanto.
Ricordo che alle notizie di scarsa resa dei chip con tot pipeline molti presagivano addirittura la chiusura e il fallimento della ati...
la 7800GTX è semplicemente mostruosa (per usare un eufemismo), riuscire anche se in ritardo ad allinearsi se non andare anche meglio con una nuova scheda video techicamente addirittura superiore mi pare una impresa non da poco... ricordando anche che la ati doveva prendere le contrmisure allo sli, e ad altre cose che la nvidia aveva già consolidato con lo sbvalorditivo NV40.
il ring bus 512 è una cosa davvero notevolissima, lo shader 3.0 è stato inserito e migliorato (HDR+AA), 0.09 micron, architettura altamente complessa rispetto alla precedente architettura. A me pare che davvero abbiano fatto il massimo possibile. Resta l'amaro in bocca per le 16 pipeline, ma con le frequenze disumane e l'architettura più complessa ed efficiente si riesce ad ovviare. Chissà se sarà possibile fare una scheda del genere con 24 pipeline e se avrà vantaggi prestazionali.
alcune cose che non mi piacciono: le dimensioni, troppo grande la scheda nuova. E il doppio slot considerando i 0.09 micron non me lo aspettavo, così come i consumi che sono superiori alla precedente scheda.
è una bella scheda per le innovazioni che porta ( HDR + AA prima di tutto ) ma per le prestazioni proprio no . Il fatto che superi la 7800gtx di misura senza filtri e nettamente con i filtri non significa molto perchè anche questa rispetto al top precedente ( X850 ) non fa gridare al miracolo secondo me. Ma se sia la 7800 che la X1800 offrono questi vantaggi prestazionali evidentemente è un limite tecnologico di questi tempi , magari il prossimo anno ci saranno incrementi maggiori , anche se giocare a 1280x1024 con filtri e hdr sarebbe già una soluzione definitiva per me.
Scusatemi... niente in versione AGP ??
Foglia Morta
07-10-2005, 12:35
Scusatemi... niente in versione AGP ??
no per le X1800
Si è cercato di dare più importanza alla qualità di immagine rispetto che alle prestazioni pure. Diciamocelo sia X1800 che 7800 (ma anche 6800 e X800) garantiscono prestazioni assolutamente adeguate per ogni giochi attuale e futuro. Laddove però la serie precedente mancava era nelle prestazioni con filtri e hdr. Con questa da una parte (nvidia) si è cercato di massimizzare le prestazioni usando l'architettura esistente (e ci sono riusciti), dall'altra (Ati) si è buttata la base per una nuova architettura (alla facciazza anche mia che credevo che R520 fosse una evoluzione di R300, ci sono similitudini ma ormai i cambiamenti sono veramente grossi) che ovviamente ha anche bisogno di affinamenti. Diciamo che ci si trova nella stessa situazione in cui ci si trovava all'uscita di NV40 e di R420, il primo con un bisogno di affinamento dei driver, il secondo maturo all'uscita. Ora siamo solo a parti invertite.
Ormai però si guarda solo all'aumento delle prestazioni, passano sempre in secondo piano la riduzione dei consumi (7800), AA adattativi (entrambe), caratteristiche assolutamente innovative (Hdr e AA usati insieme), miglioramento delle caratteristiche utilizzate in 2d (in misure diverse per entrambe). Se si vede il pc come uno strumento a tutto tondo, secondo me questi fattori sono molto importanti. Più che 10 fps guadagnati in un gioco. E non fatemi il discorso "10 fps significa che quando bla bla bla, questa scheda bla bla bla". Ci sono framerate paurosi ormai anche a risoluzioni disumane. Sicuramente più di quanto la maggior parte (confinata a 1024x768 o 1280x1024) si possa permettere.
Macci ad aria con dissipatore non standard:
http://www.akiba-pc.com/r520/10707.gif
EDIT: Metto il link che si scasina l'impaginatura.
neopazzo
07-10-2005, 12:56
Macci ad aria con dissipatore non standard:
http://www.akiba-pc.com/r520/10707.gif
EDIT: Metto il link che si scasina l'impaginatura.
xl o xt :confused:
Macci ad aria con dissipatore non standard:
http://www.akiba-pc.com/r520/10707.gif
*cough*cough*
alllllora.... si tratta di una 1800XT con dissipatore ZALMAN, particolarmente moddato da macci :D
andate qui e vedrete delle immagini niente male... e tutto in air cooling :sofico:
http://www.xtremesystems.org/forums/showpost.php?p=1073378&postcount=431
le 1800XT sono proprio tiratissime con le frequenze vero :mc:? :asd:
andreamarra
07-10-2005, 13:03
è una bella scheda per le innovazioni che porta ( HDR + AA prima di tutto ) ma per le prestazioni proprio no . Il fatto che superi la 7800gtx di misura senza filtri e nettamente con i filtri non significa molto perchè anche questa rispetto al top precedente ( X850 ) non fa gridare al miracolo secondo me. Ma se sia la 7800 che la X1800 offrono questi vantaggi prestazionali evidentemente è un limite tecnologico di questi tempi , magari il prossimo anno ci saranno incrementi maggiori , anche se giocare a 1280x1024 con filtri e hdr sarebbe già una soluzione definitiva per me.
certo, ma le prestazioni pure per entrambe attualmente le schede sono davvero notevolissime, è anche vero che per vari limiti non è possibile così facilmente raddoppiare le prestazioni da una generazione all'altra.
Io dico però che, riallacciandomi al post di DjLode che la pensa esattamente come me, la ati non poteva soltanto più pompare su frequenze e pipeline. Doveva innovarsi tecnologicamente.
E dopo la storia delle fonderie incapaci di realizzare mezzo chip buono a 32 o 24 pipeline io personalmente ho creduto in un serio flop da parti di ati.
Invece mi ritrovo a vedere una architettura con il doppio dei transistor rispetto alla serie predecente ati, in cui non si privilegia soltanto la frequenza e le pipe, ma si è riusciti a realizzare un prodotto addirittura tecnologicamente più avanzato dell'attuale mostro nvidia, con prestazioni impressionanti con filtri e risoluzioni varie. Addirittura una scheda del genere da alcuni bench pare macinare fear anche a risoluzioni oltre la 2000 e rotti con tanto di filtri. Non me lo aspettavo.
E sempre riguardo al discorso di DjLode, le prestazioni pure di queste schede sono già di loro mostruose, si sono invertite le situazioni (nvidia con progetto maturo e ati con progetto nuovo da affinare con driver nuovi, l'opposto che era successo per nv40 e r420), e macinano frames al secondo in maniera clamorosa anche a risoluzioni e filtraggi assurdi. In più si è puntato moltissimo sull'innovazione per fortuna e sulla qualità d'immagine non solo 3D ma anche 2D, e chicche tecniche notevoli.
ripeto, a prestazioni (da quello che si vede in giro) la scheda è altamente soddisfacente (consideriamo che molti giochi neanche la rinoscono bene, vedi FC che nonostante tutto rulla di brutto ma non ha ancora una patch apposta a differenza di nvidia) e ti permette come la nvidia di giocare a tutti i giochi presenti e futuri con risoluzioni che l'utente medio non può immaginare. E la qualità dell'immagine è migliorata sensibilmente.
Dopo il mezzo flop o intero flop (me compreso, a un certo punto) che si riteneva essere il R520, far uscire una scheda del genere lo cosider un "mezzo" miracolo. Perchè non solo tiene testa, ma a volte supera la 7800GTX, con in più migliorie tecniche (anche se voglio valutare l'impatto prestazionale) come HDR+AA, e di giochi che fanno uso di questa tecnologia ce ne sono in giro e ne usciranno a breve.
andreamarra
07-10-2005, 13:05
alllllora.... si tratta di una 1800XT con dissipatore ZALMAN, particolarmente moddato da macci :D
andate qui e vedrete delle immagini niente male... e tutto in air cooling :sofico:
http://www.xtremesystems.org/forums/showpost.php?p=1073378&postcount=431
le 1800XT sono proprio tiratissime con le frequenze vero :mc:? :asd:
vabbhè, macci non fa testo :D
riuscirebbe a far tirare anche il pene di mio nonno :sofico:
consideriamo che la ati gli avrà dato un sample parecchio fortunato, e aggiungici la sua strumentazione :)
non credo (e non voglio credere :asd: ) che questa scheda la puoi tirare in OC così :sofico:
:ave:
grande analisi andreamarra.. questo è ciò che si definisce una analisi oggettiva ;) complimenti
andreamarra
07-10-2005, 13:07
868.5 per le ram e 760 per il core... :confused:
minchia :confused:, vedo adesso che è ad aria :confused:
vabbhò, si sa che gli danno sample scelte :oink:
vabbhè, macci non fa testo :D
riuscirebbe a far tirare anche il pene di mio nonno :sofico:
consideriamo che la ati gli avrà dato un sample parecchio fortunato, e aggiungici la sua strumentazione :)
non credo (e non voglio credere :asd: ) che questa scheda la puoi tirare in OC così :sofico:
sullo stesso forum, un tecnico del supporto ATI, ha detto che le schede non erano selezionate... ma prese a random dagli stock :doh:
speriamo che sia vero :O
andreamarra
07-10-2005, 13:10
sullo stesso forum, un tecnico del supporto ATI, ha detto che le schede non erano selezionate... ma prese a random dagli stock :doh:
speriamo che sia vero :O
ci crediamo :D????
io non tantissimo :asd:
aspetto di vedere, sperando che arrivino nei negozi e siano reperibili..., come vanno i OC le schede dei forumisti :)!
rick deckard
07-10-2005, 13:12
Macci ad aria con dissipatore non standard:
http://www.akiba-pc.com/r520/10707.gif
EDIT: Metto il link che si scasina l'impaginatura.
Aspettando SHAMINO .... :D
E dopo la storia delle fonderie incapaci di realizzare mezzo chip buono a 32 o 24 pipeline io personalmente ho creduto in un serio flop da parti di ati.
Forse perchè il chip non è mai stato a 24 o 32 pipelines? :)
Considera che (mi riallaccio al discorso fatto da yossarian non ricordo più dove) l'attuale gpu non ha pipelines disattivate (cosa che uno si aspetterebbe di vedere se veramente fosse una gpu da 24 o 32), quindi una eventuale 32 pipelines dovrebbe essere circa 600milioni di transistor. Qualcuno crede veramente che se ne possano inserire tanti in una gpu prodotta a 0.09 micron? Nel caso io cui (ho la risposta pronta :)) questo non fosse il reale R520 e che le 32 pipelines siano state declinate su R580, considera che questa sarebbe in qualche modo una versione intermedia di quella gpu (che integra quindi meno pipelines di quelle previste in principio). Impossibile che una scheda di fascia media si veloce come una top di gamma della casa concorrente :)
Non so se mi sono spiegato sufficientemente bene in questo ultimo punto :)
beh sai... le schede sample si notano quando si utilizzano raffreddamenti estremi tipo azoto liquido oppure phase change. Questo perchè si raggiunge il limite della scheda che è diversa per ogni pezzo prodotto. Invece adottando queti tipi di raffreddamento, DOVREBBERO e ripeto DOVREBBERO essere indipendenti dal fatto di essere sample stra selezionati.
Poi posso sempre sbagliarmi eh :stordita: cmq sono fiducioso... abbiamo la possibilità di scegliere tra due mostri di gpu... che vogliamo di più :asd:
andreamarra
07-10-2005, 13:15
però in effetti...di fabbrica Gpu: 625 mhz, Memoria: 1500 mhz (quindi 750)
macci ad aria l'ha portata a 760 di Gpu e di 868.50 di memoria
praticamente un +135 di Gpu (!!!) e un +118.50 di ram (!!) [che devono essere raddoppiate per 2, quindi 237]
ponendo il caso che è un caso estremamente culoso (sicuramente), anche solo aumentare i Mhz della metà di quello che ha fatto lui sarebbe estremamente notevole! :eek:
alllllora.... si tratta di una 1800XT con dissipatore ZALMAN, particolarmente moddato da macci :D
andate qui e vedrete delle immagini niente male... e tutto in air cooling :sofico:
http://www.xtremesystems.org/forums/showpost.php?p=1073378&postcount=431
le 1800XT sono proprio tiratissime con le frequenze vero :mc:? :asd:
a me francamente il 21,4% di incremento con dissipatore enorme,senza case, overvolt e magari pure una scheda selezionata non mi pare un gran risultato
a me francamente il 21,4% di incremento con dissipatore enorme,senza case, overvolt e magari pure una scheda selezionata non mi pare un gran risultato
a me sembra ottimo... avere una gpu che va a 750mhz in aircooling, non è cosa da poco. Naturalmente aspettiamo le prove su "strada", come si dice :asd:
a me francamente il 21,4% di incremento con dissipatore enorme,senza case, overvolt e magari pure una scheda selezionata non mi pare un gran risultato
Ah no?
DevilMalak
07-10-2005, 13:22
a me francamente il 21,4% di incremento con dissipatore enorme,senza case, overvolt e magari pure una scheda selezionata non mi pare un gran risultato
:rotfl:
:rotfl:
che c'è da ridere?
che c'è da ridere?
che hai datto 'na mezza cazzata... dai non ti offendere :Prrr:
halduemilauno
07-10-2005, 13:23
a me francamente il 21,4% di incremento con dissipatore enorme,senza case, overvolt e magari pure una scheda selezionata non mi pare un gran risultato
ha fatto un 1500 punti in più delle rece. alcuni utenti di 7800gtx hanno raggiunto i 2000 punti in più con dissi (mi pare) standard e case chiuso. e oc umani alla portata di tutte.
questo per dovere di cronaca.
:boh:
Ah no?
io ad aria lo chaimo
voltaggio default
dissipatore default
case chiuso(influisce sulle temperature)
io ad aria lo chaimo
voltaggio default
dissipatore default
case chiuso(influisce sulle temperature)
bravo :D nel loro mondo non è proprio così :)
Jedi_Master
07-10-2005, 13:27
Forse perchè il chip non è mai stato a 24 o 32 pipelines?
Ecco questo è molto interessante, ci pensavo giusto ieri.
Considera che (mi riallaccio al discorso fatto da yossarian non ricordo più dove) l'attuale gpu non ha pipelines disattivate
Ma lo dava per certo o solo voci??
io ad aria lo chaimo
voltaggio default
dissipatore default
case chiuso(influisce sulle temperature)
Mi pare che il dissipatore in questione usi aria o sbaglio? Quindi quello è un overclock ad aria o sbaglio?
che hai datto 'na mezza cazzata... dai non ti offendere :Prrr:
ma a voi il 21% con tutto quel casino vi pare molto? :mbe:
vuoi che il maggior voltaggio e quel dissipatore non abbiano influito?
io voglio vedere quella scheda reggere 760mhz con il dissipatore stock, il voltaggio di default e chiusa in un case in mezzo a cavi e periferiche pci.
picard88
07-10-2005, 13:30
iscrittoooooo!!!! :D
Mi pare che il dissipatore in questione usi aria o sbaglio? Quindi quello è un overclock ad aria o sbaglio?
l'aria contiene azoto
i raffreddamenti ad azoto liquido sono dunque da considerarsi ad aria?
ma a voi il 21% con tutto quel casino vi pare molto? :mbe:
vuoi che il maggior voltaggio e quel dissipatore non abbiano influito?
io voglio vedere quella scheda reggere 760mhz con il dissipatore stock, il voltaggio di default e chiusa in un case in mezzo a cavi e periferiche pci.
certo che ha influito... ma se ti fossi informato bene, saprai che con l'r520 l'overvolt del core si effettua via software e non più via modifica hardware :rolleyes: e poi magari arriva a 710-720 che è già tantissimo.
l'aria contiene azoto
i raffreddamenti ad azoto liquido sono dunque da considerarsi ad aria?
ma dai piantala!
Bye
ma a voi il 21% con tutto quel casino vi pare molto? :mbe:
Casino? Guarda che lo Zalman manco si sente.
Ma lo dava per certo o solo voci??
I miglioramenti fatti costano transistor (anche l'aumento dei registri eccetera) quindi passando da una gpu con 160 milioni di transistor e 16 pipelines ad una con 32 pipelines e gli stessi miglioramenti si otterrebbe una gpu ben più grossa. Impossibile. Yoss diceva che probabilmente sono state disattivate altre cose (unità di calcolo) ma non pipelines. Mi trovo d'accordo con lui sperando che passi a chiarire qui, non mi piace copiare e incollare da altri forum :)
Jedi_Master
07-10-2005, 13:32
l'aria contiene azoto
i raffreddamenti ad azoto liquido sono dunque da considerarsi ad aria?
se vabbe'..... :mc:
l'aria contiene azoto
i raffreddamenti ad azoto liquido sono dunque da considerarsi ad aria?
:mc:
andreamarra
07-10-2005, 13:32
raga non facciamo degenerare la discussione in diatribe futili... :)
cmq personalmente posso dire che, dilettandomi molto con l'OC di tutto il sistema, i risultati migliori li ottengo sempre con case chiuso perchè le due ventole sul frontale, quella sul laterale sulla apg e quelle due in uscita creano un ottimo ricircolo d'aria.
la stessa scheda video a case aperto non mi reggeva certe frequeze, cosa che reggeva (e oltre) a case chiuso.
Non so, io credo che a case aperto sia peggio perchè l'aria calda ristagna.
questa scheda è al momento la migliore su feature e prestazioni
ha consumi elevati mentre al momento non sappiamo che capacità abbia di overclock
:mc:
era solo per farti capire che c'è aria e aria ;)
Jedi_Master
07-10-2005, 13:39
I miglioramenti fatti costano transistor (anche l'aumento dei registri eccetera) quindi passando da una gpu con 160 milioni di transistor e 16 pipelines ad una con 32 pipelines e gli stessi miglioramenti si otterrebbe una gpu ben più grossa. Impossibile. Yoss diceva che probabilmente sono state disattivate altre cose (unità di calcolo) ma non pipelines. Mi trovo d'accordo con lui sperando che passi a chiarire qui, non mi piace copiare e incollare da altri forum :)
La cosa avrebbe anche senso effettivamente (da 160 a 320)...
Hai info sul numero di transistor di R580?
La cosa avrebbe anche senso effettivamente (da 160 a 320)...
Hai info sul numero di transistor di R580?
No, nessuno. Solo qualche rumors in giro. Anche R580 però credo sarà a 16 pipelines :)
yossarian
07-10-2005, 13:45
Forse perchè il chip non è mai stato a 24 o 32 pipelines? :)
Considera che (mi riallaccio al discorso fatto da yossarian non ricordo più dove) l'attuale gpu non ha pipelines disattivate (cosa che uno si aspetterebbe di vedere se veramente fosse una gpu da 24 o 32), quindi una eventuale 32 pipelines dovrebbe essere circa 600milioni di transistor. Qualcuno crede veramente che se ne possano inserire tanti in una gpu prodotta a 0.09 micron? Nel caso io cui (ho la risposta pronta :)) questo non fosse il reale R520 e che le 32 pipelines siano state declinate su R580, considera che questa sarebbe in qualche modo una versione intermedia di quella gpu (che integra quindi meno pipelines di quelle previste in principio). Impossibile che una scheda di fascia media si veloce come una top di gamma della casa concorrente :)
Non so se mi sono spiegato sufficientemente bene in questo ultimo punto :)
innanzitutto si continua, impropriamente a parlare di pipeline; forse a qualcuno è sfuggito il fatto che quelle di R520 non sono pipeline, almeno non di tipo tradizionale. Le psu sono raggruppate a 4 a 4 in un'architettura non pipelined ma che si può ricondurre ad un array configurabile in base alla singola applicazione. Se poi, qualcuno continua a considerare ogni singola unità una pipleine, alla stregua di quanto avveniva con R4x0 e G70, allora le pipeline di R520 sono, in realtà, 48 (tante ne dovrebbe avere R580, mantenendo inalterato il resto dell'architettura :D ), di cui 32 disabilitate; attualmente, nei test sintetici, R520 è sotto G70 solo nelle operazioni di pixel shading, ma questo eprchè il rapporto di unità MAD è di 3:1 a favore di G70 (48 contro 16). R580 dovrebbe riequilibrare questo rapporto.
Discorso efficienza: R520 è molto più efficiente delle architetture tradizionali; solo che il prezzo da pagare per ottenere una maggior efficienza, senza perdere la possibilità di avere a disposizione determinate feature, è il frazionamento dei thread. Questo implica che le frequenze di funzionamento debbano essere necessariamente elevate. Si tratta di una caratteristica di questo tipo di architettura (e non, come qualcuno ha pensato, del tentativo di tirare a morte il chip per stare al passo con il G70; questo implica anche che R520, soprattutto nelle prossime revisioni, avrà una certa facilità a salire in frequenza). Non so quanti di voi siano a conoscenza del fatto che ATi ha, da qualche anno, a disposizione il know how di intrinsity, una delle società leader nella progettazione di architetture simd (chip a elevata efficienza, che lavorano a frequenze anche superiori ai 1500, 2000 Mhz).
Infine (per questo è ipotizzabile che R580 avrà 48 MAD), R520 ha 16384 registri interni a 32 bit, pur avendo solo 16 MAD, contro i 12288 di G70 (che di MAD ne ha 48). Questo significa due cose: possibilità di gestire più thread (o thread più lunghi, anche se frazionati) e possibilità di alimentare più unità MAD sia di quelle attualmente presenti, sia, addirittura, di quelle di G70. Inoltre, la caratteristica full associative permette di sfruttare in modo ottimale l'occupazione dei registri stessi.
Due parole sul controller: quanti sanno che è prgrammabile via driver? E che è possible configurare il lavoro del chip, variandone i carichi in base alla singola applicazione? Questo lascia intendere quanto sia più difficile ottimizzare il lavoro di R520 rispetto a quello di R4x0 o di G70, però lascia anche intravedere le potenzialità una volta che il lavoro di ottimizzaione è stato fatto.
A quanto pare la X1800XT di Sapphire sarà single slot:
http://www.sapphiretech.com/en/products/graphics_specifications.php?gpid=122
No, nessuno. Solo qualche rumors in giro. Anche R580 però credo sarà a 16 pipelines :)
uhm... la mia previsione? 6 psu :D fare un salto verso le 8 unità credo possa essere difficoltoso con l'attuale architettura
DevilMalak
07-10-2005, 13:48
l'aria contiene azoto
i raffreddamenti ad azoto liquido sono dunque da considerarsi ad aria?
ti sei risposto tu stesso, no.. perchè appunto è LIQUIDO :p
Cmq buona la storia della sapphire 1slot, anche se sinceramente a me non cambia nulla :D
Se poi, qualcuno continua a considerare ogni singola unità una pipleine, alla stregua di quanto avveniva con R4x0 e G70, allora le pipeline di R520 sono, in realtà, 48 (tante ne dovrebbe avere R580, mantenendo inalterato il resto dell'architettura :D ), di cui 32 disabilitate
Non capisco questo passaggio, hai voglia di spiegarti meglio?
Infine (per questo è ipotizzabile che R580 avrà 48 MAD)
Credi sempre con lo stesso numero di registri?
Due parole sul controller: quanti sanno che è prgrammabile via driver? E che è possible configurare il lavoro del chip, variandone i carichi in base alla singola applicazione? Questo lascia intendere quanto sia più difficile ottimizzare il lavoro di R520 rispetto a quello di R4x0 o di G70, però lascia anche intravedere le potenzialità una volta che il lavoro di ottimizzaione è stato fatto.
Questo, insieme ad altro l'avevo letto su Nvitalia sempre scritto da te.
Quindi i driver dovranno essere ottimizzati su due livelli, per il singolo gioco e a livello di controller? (non è un pò simile all'arbiter di R500 questo coso?)
Foglia Morta
07-10-2005, 13:56
ti sei risposto tu stesso, no.. perchè appunto è LIQUIDO :p
Cmq buona la storia della sapphire 1slot, anche se sinceramente a me non cambia nulla :D
io da sapphire mi aspetto il metallo liquido!! mesi fa c'erano rumors a riguardo, speriamo diventi realtà e che sia veramente efficace , se poi è economico... vabbè troppe segne mentali :D
Sul forum di Beyond3D qualche giorno fa si parlava già di un presunto R590 a 0,08 micron
questa scheda è al momento la migliore su feature e prestazioni
ha consumi elevati mentre al momento non sappiamo che capacità abbia di overclock
Le saprai... le saprai ;)
Jedi_Master
07-10-2005, 14:06
Quindi i driver dovranno essere ottimizzati su due livelli, per il singolo gioco e a livello di controller?
Se ho ben capito controller programmabile "su misura"
per ogni applicazione.
(non è un pò simile all'arbiter di R500 questo coso?)
non solo, anche le 48 pipe "virtuali" (psu in array) mi ricordano....
Le saprai... le saprai ;)
Raffaele l'articolo lo metterai online lunedì alla fine? E' solo per chiedere.
Raffaele l'articolo lo metterai online lunedì alla fine? E' solo per chiedere.
Si, spero di si. Ma vi assicuro che ci sono tante belle cose "nuove" che vi aspettano :)
yossarian
07-10-2005, 14:12
Non capisco questo passaggio, hai voglia di spiegarti meglio?
il fatto è che, abituati alla concezione di pipeline, si focalizza l'attenzione sul numero di gruppi di unità, considerandoli alla stregua delle pipeline. Eppure, due pipeline con un numero di unità di shading differente hanno comportamenti molto diversi tra loro. La novità di G70 rispetto a NV40 non è costituita dall'aumento del numero di pipeline ma dall'aumento di unità MAD per pipeline. Questo fa si che, tranne in Doom3 e derivati (cha fa scarso uso delle unità di shading), in alcuni titoli risesca ad avere prestazioni ben superiori a quelle ottenibili con sole 8 pipeline in più.
Ragionando in termini di unità MAD, R520 ha solo 16 fpu (altre 16 sono unità minori, in grado di svolgere un numero limitato di operazioni). Però ha un numero di registri elevatissimo, anche troppo alto: se ci si riconducesse al concetto di vecchia pipeline, sarebbero sufficienti, a voler esagerare, 8192 registri, considerando anche le unità minori e trattandole alla stregua di quelle complete; invece ne ha esattamente il doppio, come se dovessero "equipaggiare" 64 unità di calcolo. Ora, il numero di registri su R520 va in base al numero di thread e non è, apparentemente, subordinato al numero di unità di calcolo. Però R520 ha mostrato di "soffrire" di una carenza di potenza nel calcolo degli shader. Mettendo a sistema queste cose, e l'elevato numero di transistor, appare abbastanza probabile (e qui rispondo anche alla seconda domenda, quella sul numero di registri) che R520 è strutturato per avere più unità MAD di quelle attualmente presenti. Per l'esattezza, con 16384 registri a 32 bit, è in grado di "alimentare" 48 MAD più 16 unità più piccole in tutta tranquillità
Questo, insieme ad altro l'avevo letto su Nvitalia sempre scritto da te.
Quindi i driver dovranno essere ottimizzati su due livelli, per il singolo gioco e a livello di controller? (non è un pò simile all'arbiter di R500 questo coso?)
molto simili :D
yossarian
07-10-2005, 14:15
Se ho ben capito controller programmabile "su misura"
per ogni applicazione.
esatto
non solo, anche le 48 pipe "virtuali" (psu in array) mi ricordano....
bravo; solo organizzate in maniera "leggermente" diversa (oltre al fatto, scontato, che quelle di r500 sono di tipo unificato)
andreamarra
07-10-2005, 14:17
yossarian... papale papale quale architettura ti piace di più :D?
ce la fai a dare un giudizio, nei limiti del possibile, sulle potenzialità di questo R520? ti aspettavi di meno, di più, sei rimasto sbalordito, sei rimasto indifferente :D?
p.s. da noi gobbetti sei sempre il benvenuto :)!
andreamarra
07-10-2005, 14:18
Si, spero di si. Ma vi assicuro che ci sono tante belle cose "nuove" che vi aspettano :)
grandissimo! aspetteremo con ansia ;)!
Si, spero di si. Ma vi assicuro che ci sono tante belle cose "nuove" che vi aspettano ;)
non è che rilasciate il WINCLK 3.70 fornito gentilmente da ATI :Perfido: ?
eheheh
andreamarra
07-10-2005, 14:26
non è che rilasciate il WINCLK 3.70 fornito gentilmente da ATI :Perfido: ?
eheheh
che cos'è :D???
che cos'è :D???
:fiufiu: un oggettino carino carino che farebbe la gioia dei futuri possessori di schede X1000 :D
yossarian
07-10-2005, 14:27
yossarian... papale papale quale architettura ti piace di più :D?
ce la fai a dare un giudizio, nei limiti del possibile, sulle potenzialità di questo R520? ti aspettavi di meno, di più, sei rimasto sbalordito, sei rimasto indifferente :D?
p.s. da noi gobbetti sei sempre il benvenuto :)!
come NV40 mi piaceva di più di R420, adesso apprezzo di più quella di R520.
E' molto più interessante e, soprattutto, molto più simile a quella che è la mia idea di chip grafico.
Nè sbalordito nè indifferente: è quello che mi aspettavo che fosse, con qualche piacevole sorpresa (ad esempio HDR+AA, su cui avevo dei dubbi), ma di poco conto. Uniche cose che avrei modificato, le unità di pixel shading: mi piacciono di più quelle superscalari di G70, rispetto alle 3+1 di R520 (che poi sono identiche a quelle di R300); le reputo più flessibili. Però capisco anche che c'è un limite nel numero di transistor che si possono inserire in un'architettura e le fpu 1+1+1+1 sono più complesse di quelle utilizzate da ATi.
E' un chip che ha delle potenzialità enormi, soprattutto nelle sue prossime evoluzioni (R580, ad esempio); ha un'architettura estremamente flessibile, che permette di ottimizzare i carichi di lavoro (non a livello di un'architettura unificata, ma molto di più rispetto ad una tradizionale, su cui può vantare un margine di circa un 15-20% di efficienza in più) e di ridurre l'incidenza di alcuni colli di bottiglia.
La cosa più importante, però, che per qualcuno è passata inosservata, è che questo chip rappresenta la transizione verso un nuovo tipo di architettura più moderna e rispondente alle esigenze del tipo di elaborazione che deve svolgere. E sotto questo aspetto, R520 rappresenta qualcosa di più di quello che ha rappresentato NV20 o R300
p.s. è un po' che non vi frequento, hai ragione. Però, quando posso, leggo il vostro thread
Jedi_Master
07-10-2005, 14:30
esatto
Quindi ci si puo' aspettare dei bei miglioramenti dal costante (si spera)
affinamento dei driver, un lavoraccio pero'!
bravo; solo organizzate in maniera "leggermente" diversa
(oltre al fatto, scontato, che quelle di r500 sono di tipo unificato)
:)
La cosa più importante, però, che per qualcuno è passata inosservata, è che questo chip rappresenta la transizione verso un nuovo tipo di architettura più moderna e rispondente alle esigenze del tipo di elaborazione che deve svolgere.
Credi che l'architettura R5x0 rimarrà confinata alle Dx9 o che con le opportune modifiche (che hai elencato non ricordo dove) si possa utilizzarla anche per i primi tempi con shader unificati? Quindi transizione ma cmq base per i progetti futuri? Perchè mi sembra strano vedere una gpu del genere costretta ad una vita tutto sommato breve da qui allo SM4.
yossarian
07-10-2005, 14:34
Quindi ci si puo' aspettare dei bei miglioramenti dal costante (si spera)
affinamento dei driver, un lavoraccio pero'!
in questo caso, le ottimizzazioni (quelle lecite che non abbassano la qualità d'immagine o introducono artefatti per far guadagnare 10 fps :D ), potrebbero portare importanti miglioramenti in ogni singola applicazione. Tutto sta a far lavorare il chip nella maniera più idonea a quello specifico SW.
yossarian
07-10-2005, 14:36
Credi che l'architettura R5x0 rimarrà confinata alle Dx9 o che con le opportune modifiche (che hai elencato non ricordo dove) si possa utilizzarla anche per i primi tempi con shader unificati? Quindi transizione ma cmq base per i progetti futuri? Perchè mi sembra strano vedere una gpu del genere costretta ad una vita tutto sommato breve da qui allo SM4.
non vale la pena; ATi ha già un'architettura wgf2.0 che è anche più efficiente di quella di R5x0; quindi non vedo perchè utilizzarla per le applicazioni a shader unificati.
Certo, se non avesse avuto a disposizione R500 su cui lavorare, un pensierino avrebbe potuto anche farcelo.
non vale la pena; ATi ha già un'architettura wgf2.0 che è anche più efficiente di quella di R5x0; quindi non vedo perchè utilizzarla per le applicazioni a shader unificati.
Certo, se non avesse avuto a disposizione R500 su cui lavorare, un pensierino avrebbe potuto anche farcelo.
Lo pensavo anche io. Solo che si vociferava che R600 (o cmq la gpu a shader unificati di Ati per pc) condividesse con Xenon/R500 solo alcune cose e che altre invece su pc non metteranno più piede. Ora, considerato il fatto che vedo difficile l'utilizzo di embedded ram su una cpu desktop, R600 potrebbe essere niente altro che R500 affinato (ovviamente niente altro per modo di dire).
Eddie666
07-10-2005, 14:45
bene bene...sempre piu' interessante questo chip.....sulla carta sembra avere un mucchio di potenzialita',che e' la cosa che personalmente mi interessa di piu'.Vedremo con affinamenti successivi di driver come si comportera' :)
yossarian
07-10-2005, 14:48
Lo pensavo anche io. Solo che si vociferava che R600 (o cmq la gpu a shader unificati di Ati per pc) condividesse con Xenon/R500 solo alcune cose e che altre invece su pc non metteranno più piede. Ora, considerato il fatto che vedo difficile l'utilizzo di embedded ram su una cpu desktop, R600 potrebbe essere niente altro che R500 affinato (ovviamente niente altro per modo di dire).
per il momento le embedded ram sembra che non siano prese in considerazione; non quelle sulla tipologia di R500, almeno; però R600 e R500 sicuramente condivideranno l'apparato di calcolo matematico e il blocco di tmu. E' probabile che le rop's siano, inizialmente, del tipo di quelle viste per R5x0, con in più la possibilità di avere un pixel output doppio, per ciclo, nel caso di sole stencil ops (come accade in R500 e nei chip NV di fascia alta a partire da NV30)
andreamarra
07-10-2005, 14:55
grazie yossarian per le sempre tue interessanti (anche se non ci capisco quasi mai una minchia :sofico: :D) osservazioni ;).
Un dato che sinceramente mi lascio piacevolmente impressionato è il vedere come questa scheda con tutti i giochi D3D testati a risoluzioni assurde e filtraggi pesanti dia un distacco in pfs davvero consistenti alla 7800GTX :eek:
HaCKeR.InSiDe
07-10-2005, 15:00
E pensa ke dicono ke si overclokkano a 760 di core e piu di 1700 per le memorie...e ati dichiara ke la skeda nn e stata selezionata
Jedi_Master
07-10-2005, 15:01
(quelle lecite che non abbassano la qualità d'immagine
o introducono artefatti per far guadagnare 10 fps :D )
Quello spero proprio sia un malcostume del passato che
non vedremo mai piu'!! ;)
Tutto sta a far lavorare il chip nella maniera più idonea a quello specifico SW.
Buon lavoro al team catalyst dunque!!
yossarian
07-10-2005, 15:23
grazie yossarian per le sempre tue interessanti (anche se non ci capisco quasi mai una minchia :sofico: :D) osservazioni ;).
Un dato che sinceramente mi lascio piacevolmente impressionato è il vedere come questa scheda con tutti i giochi D3D testati a risoluzioni assurde e filtraggi pesanti dia un distacco in pfs davvero consistenti alla 7800GTX :eek:
a dire la verità ci capisco poco anch'io; mi limito a scrivere quello che mi suggerisce la mamma :D
Battute a parte, il vantaggio di cui parli è frutto proprio della riduzione di una serie di colli di bottiglia; il primo di tutti è proprio quello relativo all'accesso dei dati in memoria. Il memory controller di R520 è anch'esso programmabile e gestisce il flusso dei dati in base ad un meccanismo di priorità di tipo attivo; ossia, esiste una sorta di "gerarchia" da rispettare nell'accesso ai dati in memoria (cosa comune a tutti i memory controller); la differenza è che un normale memory controller è programmeto in maniera tale da bypassare una certa richiesta in coda, dopo un numero x di tentativi di accedere ad un determinato dato, non andati a buon fine. Il controller di R520 riceve un segnale di feedback dell'operazione in corso e decide immediatamente se aspettare di soddisfare la richiesta o dare priorità a quella successiva. Inoltre, anche il fatto che i segnali di comunicazione e i dati viaggino su canali differenti e la struttura circolare del controller (che non obbliga ad un andirivieni di informazioni ma le fa circolare come su un anello stradale), permettono di migliorare la gestione del canale di comunicazione con la ram. Infine, altro elemento da considerare, è il tipo di cache interna di tipo fully associative. Questo permette un utilizzo dei registri interni molto più efficace. Il limite dei registri di tipo a mappatura diretta è dovuto al fatto che i registri sono associati a precise aree della ram video; questo comporta che il registro A, ad esempio, può ricevere dati solo dall'area A' della ram. Nell'arco di un'elaborazione, quasto riduce l'effiicenza nell'utilizzo dei registri (immagina un'elaborazione in cui la maggior parte delle richieste sono relative a dati contenuti in A': gli altri registri, non collegati ad A', lavorano poco, mentre quelli collegati ad A' sono sommersi di dati in ingresso e in uscita, cona la conseguente creazione di code e unità di calcolo in attesa. Una cache fully associative, invece, ha una mappatura che mette in comunicazione tutte le aree della ram con tutti i registri interni indifferentemente, riducendo al minimo il problema di cui sopra). Altri elementi importanti sono il miglioramento degli algoritmi di comptrssione dei dati e il miglioramento di quello di hsr, che risulta più efficiente di quello di R4x0 (che era il migliore in circolazione fino ad ora).
Questi elementi, insieme, danno notevoli vantaggi nell'elaborazione di scene complesse e alle alte risoluzioni (o con i filtri attivi)
Differenza di anisotropico:
http://www.hardocp.com/images/articles/1128280140ABTiXJphEC_8_12_l.jpg
andreamarra
07-10-2005, 15:42
a dire la verità ci capisco poco anch'io; mi limito a scrivere quello che mi suggerisce la mamma :D
Battute a parte, il vantaggio di cui parli è frutto proprio della riduzione di una serie di colli di bottiglia; il primo di tutti è proprio quello relativo all'accesso dei dati in memoria. Il memory controller di R520 è anch'esso programmabile e gestisce il flusso dei dati in base ad un meccanismo di priorità di tipo attivo; ossia, esiste una sorta di "gerarchia" da rispettare nell'accesso ai dati in memoria (cosa comune a tutti i memory controller); la differenza è che un normale memory controller è programmeto in maniera tale da bypassare una certa richiesta in coda, dopo un numero x di tentativi di accedere ad un determinato dato, non andati a buon fine. Il controller di R520 riceve un segnale di feedback dell'operazione in corso e decide immediatamente se aspettare di soddisfare la richiesta o dare priorità a quella successiva. Inoltre, anche il fatto che i segnali di comunicazione e i dati viaggino su canali differenti e la struttura circolare del controller (che non obbliga ad un andirivieni di informazioni ma le fa circolare come su un anello stradale), permettono di migliorare la gestione del canale di comunicazione con la ram. Infine, altro elemento da considerare, è il tipo di cache interna di tipo fully associative. Questo permette un utilizzo dei registri interni molto più efficace. Il limite dei registri di tipo a mappatura diretta è dovuto al fatto che i registri sono associati a precise aree della ram video; questo comporta che il registro A, ad esempio, può ricevere dati solo dall'area A' della ram. Nell'arco di un'elaborazione, quasto riduce l'effiicenza nell'utilizzo dei registri (immagina un'elaborazione in cui la maggior parte delle richieste sono relative a dati contenuti in A': gli altri registri, non collegati ad A', lavorano poco, mentre quelli collegati ad A' sono sommersi di dati in ingresso e in uscita, cona la conseguente creazione di code e unità di calcolo in attesa. Una cache fully associative, invece, ha una mappatura che mette in comunicazione tutte le aree della ram con tutti i registri interni indifferentemente, riducendo al minimo il problema di cui sopra). Altri elementi importanti sono il miglioramento degli algoritmi di comptrssione dei dati e il miglioramento di quello di hsr, che risulta più efficiente di quello di R4x0 (che era il migliore in circolazione fino ad ora).
Questi elementi, insieme, danno notevoli vantaggi nell'elaborazione di scene complesse e alle alte risoluzioni (o con i filtri attivi)
complimenti alla mamma dal punto di vista conoscitivo allora :sofico: :D!!
grazie per la spiegazione molto esauriente e completa ;)
in questo modo spieghi perfettamente il motivo per cui a risoluzioni eccessive e filtraggi al massimo la scheda ati non ne risente tanto quanto quella nvidia.
secondo te può essere una indicazione per i futuri giochi?
andreamarra
07-10-2005, 15:44
Differenza di anisotropico:
http://www.hardocp.com/images/articles/1128280140ABTiXJphEC_8_12_l.jpg
minchia... il muro inclinato con l'AF della X1800XT è nettamente migliore di quello su 7800GTX!!
però i muri non inclinati e il terreno mi paiono uguali.
Ma non doveva essere il contrario? IO sapevo che la nvidia applicava meglio della ati l'anisotropico su superfici inclinate, o sbaglio :confused: ?
EDIT: guardate il traliccio sulla destra!!! Sulla ati è perfetto, su quella nvidia mancano pezzi!
(§) The Avatar (§)
07-10-2005, 15:44
Differenza di anisotropico:
http://www.hardocp.com/images/articles/1128280140ABTiXJphEC_8_12_l.jpg
Sicuri che quello di NV in basso sia effettivamente un 16x Quality? :)
Se è così...credevo meglio, molto meglio... :mc:
HaCKeR.InSiDe
07-10-2005, 15:46
okkio quella sopra e una X1800XL nn una X1800XT!!!
HaCKeR.InSiDe
07-10-2005, 15:47
CMQ tra X1800XL e 7800GT come qualita' di immagine penso ke siamo tutti daccordo ke e molto meglio la X1800XL...
andreamarra
07-10-2005, 15:48
Sicuri che quello di NV in basso sia effettivamente un 16x Quality? :)
Se è così...credevo meglio, molto meglio... :mc:
sembra strano anche a me, la cosa però curiosa è vedere come i muri perpendicolari al terreno e la pavimentazione siano praticamente uguali nei due shot... mentre per il muro inclinato la differenza a favore di ati è netta senza ombradi dubbio.
E non solo, guarda il traliccio (o comunque la struttura metallica) in mezzo allo schermo sulla destra: in ati è perfetto, nello shot di nvidia mencano pezzi nelle strutture metalliche fini (ma non mi sembra problema di anisotropico quanto problema di AA).
:confused:
Pagina originale:
http://www.hardocp.com/article.html?art=ODIyLDg=
andreamarra
07-10-2005, 15:50
okkio quella sopra e una X1800XL nn una X1800XT!!!
si è vero, non ci avevo fatto caso. Anche se a conti fatti non credo ci siano differenze tra XL e XT a livello qualitativo :)
Ragazzi attenzione a quelle immagini. Il discorso del muro inclinato è corretto: su R520 abilitando la modalità HQ la qualità è per forza di cose migliore di quella di G70/NV40/R4x0, ma il discorso dei "pezzi mancanti del traliccio" è probabilmente dovuto all'abilitazione dell'adaptive AA su R520 in quell'immagine. G70 in quell'immagine non ha il Transparency AA abilitato.
HaCKeR.InSiDe
07-10-2005, 15:51
NN per fare il xfettino ma la XT rispetto alla XL ha 16gb/s in piu di bandwith e frequenze molto piu elevate 635 contro 500 e 1500 contro 1000 quindi la differenza ce tyranquillo ;)
HaCKeR.InSiDe
07-10-2005, 15:52
625 nn 635 :D
NN per fare il xfettino ma la XT rispetto alla XL ha 16gb/s in piu di bandwith e frequenze molto piu elevate 635 contro 500 e 1500 contro 1000 quindi la differenza ce tyranquillo ;)
lui parla di differenze qualitative che tra le due schede non ci sono. Le architetture sono identiche, ma lavorano a velocità diverse.
Bye
yossarian
07-10-2005, 15:54
complimenti alla mamma dal punto di vista conoscitivo allora :sofico: :D!!
grazie per la spiegazione molto esauriente e completa ;)
in questo modo spieghi perfettamente il motivo per cui a risoluzioni eccessive e filtraggi al massimo la scheda ati non ne risente tanto quanto quella nvidia.
secondo te può essere una indicazione per i futuri giochi?
direi di si; se il trend è quello visto con F.E.A.R. e gli altri giochi che beneficiano di un elevato quantitativo di ram, l'equazione è presto fatta: più ram significa un più massiccio trasferimento di dati da e verso il chip. Inoltre, sicuramente, in futuro, ci si avvantaggierà dell'uso di buffer interni di dimensioni sempre maggiori, per poter compiere il maggior numero di operazioni possibili on chip. E anche in questo, R520 fa da battistrada, con il suo array di registri. Pensa a R500 che con 10 MB di eDRAM riesce ad applicare MSAA 4x ad una risoluzione di 1024x768, caricando un'intero frame on chip. Questo significa avere anti aliasing con un impatto minimo sul frame rate.
Ragazzi attenzione a quelle immagini. Il discorso del muro inclinato è corretto: su R520 abilitando la modalità HQ la qualità è per forza di cose migliore di quella di G70/NV40/R4x0, ma il discorso dei "pezzi mancanti del traliccio" è probabilmente dovuto all'abilitazione dell'adaptive AA su R520 in quell'immagine. G70 in quell'immagine non ha il Transparency AA abilitato.
Il sito però non parla di AA attivato ma solo di anisotropico :confused:
andreamarra
07-10-2005, 15:54
Ragazzi attenzione a quelle immagini. Il discorso del muro inclinato è corretto: su R520 abilitando la modalità HQ la qualità è per forza di cose migliore di quella di G70/NV40/R4x0, ma il discorso dei "pezzi mancanti del traliccio" è probabilmente dovuto all'abilitazione dell'adaptive AA su R520 in quell'immagine. G70 in quell'immagine non ha il Transparency AA abilitato.
grazie per la puntualizzazione :)!
in effetti m'era pigliato un colpo con i pezzi mancanti :D
l'AF del R520 in effetti è decisamente superiore.
andreamarra
07-10-2005, 15:56
NN per fare il xfettino ma la XT rispetto alla XL ha 16gb/s in piu di bandwith e frequenze molto piu elevate 635 contro 500 e 1500 contro 1000 quindi la differenza ce tyranquillo ;)
si si, come ha detto t3d io intendevo dire che a livello qualitativo le schede sono identiche :)
ovviamente la XL è una gran bella scheda, ma la XT è assurda a livello prestazionale!
Anzi, forse c'è troppo scarto :D
yossarian
07-10-2005, 16:01
Ma non doveva essere il contrario? IO sapevo che la nvidia applicava meglio della ati l'anisotropico su superfici inclinate, o sbaglio :confused: ?
l'anisotropico di tipo adattativo è applicato privilegiando angoli multipli di 45° (per R4x0, NV4x, NV3x e G70) e di 90° (per R3x0); se un muro ha un'inclinazione differente non beneficia della sua applicazione nel modo ottimale (come nel caso del muro dello screen shot).
andreamarra
07-10-2005, 16:03
l'anisotropico di tipo adattativo è applicato privilegiando angoli multipli di 45° (per R4x0, NV4x, NV3x e G70) e di 90° (per R3x0); se un muro ha un'inclinazione differente non beneficia della sua applicazione nel modo ottimale (come nel caso del muro dello screen shot).
mmh...
quindi praticamente chi ha fatto quello shot per far vedere la differenza di Anisotropico ha "casualmente" scelto una superficie che mette in risalto la ati e annienta la nvidia... :D
molto imparziale, quindi :D!
a dire la verità ci capisco poco anch'io; mi limito a scrivere quello che mi suggerisce la mamma :D
Battute a parte, il vantaggio di cui parli è frutto proprio della riduzione di una serie di colli di bottiglia; il primo di tutti è proprio quello relativo all'accesso dei dati in memoria. Il memory controller di R520 è anch'esso programmabile e gestisce il flusso dei dati in base ad un meccanismo di priorità di tipo attivo; ossia, esiste una sorta di "gerarchia" da rispettare nell'accesso ai dati in memoria (cosa comune a tutti i memory controller); la differenza è che un normale memory controller è programmeto in maniera tale da bypassare una certa richiesta in coda, dopo un numero x di tentativi di accedere ad un determinato dato, non andati a buon fine. Il controller di R520 riceve un segnale di feedback dell'operazione in corso e decide immediatamente se aspettare di soddisfare la richiesta o dare priorità a quella successiva. Inoltre, anche il fatto che i segnali di comunicazione e i dati viaggino su canali differenti e la struttura circolare del controller (che non obbliga ad un andirivieni di informazioni ma le fa circolare come su un anello stradale), permettono di migliorare la gestione del canale di comunicazione con la ram. Infine, altro elemento da considerare, è il tipo di cache interna di tipo fully associative. Questo permette un utilizzo dei registri interni molto più efficace. Il limite dei registri di tipo a mappatura diretta è dovuto al fatto che i registri sono associati a precise aree della ram video; questo comporta che il registro A, ad esempio, può ricevere dati solo dall'area A' della ram. Nell'arco di un'elaborazione, quasto riduce l'effiicenza nell'utilizzo dei registri (immagina un'elaborazione in cui la maggior parte delle richieste sono relative a dati contenuti in A': gli altri registri, non collegati ad A', lavorano poco, mentre quelli collegati ad A' sono sommersi di dati in ingresso e in uscita, cona la conseguente creazione di code e unità di calcolo in attesa. Una cache fully associative, invece, ha una mappatura che mette in comunicazione tutte le aree della ram con tutti i registri interni indifferentemente, riducendo al minimo il problema di cui sopra). Altri elementi importanti sono il miglioramento degli algoritmi di comptrssione dei dati e il miglioramento di quello di hsr, che risulta più efficiente di quello di R4x0 (che era il migliore in circolazione fino ad ora).
Questi elementi, insieme, danno notevoli vantaggi nell'elaborazione di scene complesse e alle alte risoluzioni (o con i filtri attivi)
è un mio amico è un mio amico :read: :ave:
MOSTRUOSO ogni volta rimango di sasso :flower:
Quando Yoss speiga tutto diventa semplice e la tecnologia più spinta... amica :)
senti per curiosità, ma le tue 7800gtx le tieni o prevedi di fare la pazzia? :D
Le tengo, nel senso che aspetto la generazione successiva, che sara' R580 se conferma le doti del R520 ;)
yossarian
07-10-2005, 16:10
mmh...
quindi praticamente chi ha fatto quello shot per far vedere la differenza di Anisotropico ha "casualmente" scelto una superficie che mette in risalto la ati e annienta la nvidia... :D
molto imparziale, quindi :D!
non conosco lo scopo di chi abbia fatto quello shot; in ogni caso quello è il risultato che si ottiene su superfici con angoli diversi da multipli di 45°.
Questo, comunque, nella valutazione totale delle prestazioni, è un altro elemento di cui tener conto: il calcolo dell'anisotropico, adoperando la stessa qualità indipendentemente dall'angolo, richiede l'utilizzo di filtraggio trilineare su tutti e 16 i layer. Il che equivale ad un totale di 3 operazioni di interpolazione lineare per layer (tante ne richiede un filtraggio trilineare), ossia 48 operazioni complessive; al contrario, l'applicazione del trilinear su un singolo layer permette di avere un filtraggio anisotropico con sole 18 operazioni di interpolazioni (un filtraggio bilineare equivale ad una sola interpolazione lineare), con una qualità d'immagine, però, inferiore.
Le tengo, nel senso che aspetto la generazione successiva, che sara' R580 se conferma le doti del R520 ;)
ci macherebbe pure che le cambiasse :D queste schede sono mostruose!
yossarian
07-10-2005, 16:11
Le tengo, nel senso che aspetto la generazione successiva, che sara' R580 se conferma le doti del R520 ;)
sei ancora recuperabile, non come qualcun altro di nostra conoscenza :D
yossarian
07-10-2005, 16:14
è un mio amico è un mio amico :read: :ave:
MOSTRUOSO ogni volta rimango di sasso :flower:
Quando Yoss speiga tutto diventa semplice e la tecnologia più spinta... amica :)
se ti trovano ancora a bighellonare altrove, poe e fiumy ti sodomizzano
:D
se ti trovano ancora a bighellonare altrove, poe e fiumy ti sodomizzano
:D
Shhhh che sn a rischio, se mi beccano sn fottuto, ho paura di Fiumy e Poe, IO :cry: :D
andreamarra
07-10-2005, 16:17
Shhhh che sn a rischio, se mi beccano sn fottuto, ho paura di Fiumy e Poe, IO :cry: :D
dai, useranno un pò di sacro unto e non ti faranno tanto male, andrà tutto bene... :)
:sofico: :asd: :D
Sampsa ha messo in crossfire una X1800XT e la versione master della scheda :sofico:
http://www.muropaketti.com/3dmark/r520/04.jpg
ha detto però che non ha notato miglioramenti nelle prestazioni :boh:
ecco come sara' quelle di sapphire di x1800xl
http://www.sapphiretech.com/en/productfiles/121image1.jpg
mmh...
quindi praticamente chi ha fatto quello shot per far vedere la differenza di Anisotropico ha "casualmente" scelto una superficie che mette in risalto la ati e annienta la nvidia... :D
molto imparziale, quindi :D!
Ovviamente lo shoot è stato fatto per mostrare la qualità diversa del full anisotropico di Ati rispetto ad un anistropico adattativo, la 7800GTX non è l'unica che la fa, il discorsa vale anche per 6800, X800, R300 e chi più ne ha più ne metta.
Se effettivamente sul "piano" non si notano differenze, logico che si debbano usare superfici inclinate. Come quando si mostrava la differenza tra l'anisotropico di Nv3x e R3x0, si usavano superfici inclinate.
Logicamente, come ho sempre detto, in movimento la cosa si nota ma è molto ma molto meno fastidiosa.
In altri shot (nella stessa pagina ad esempio ce n'è un altro) le differenze sono infinitesimali, per questo ho sempre gradito un ottimizzazione di questo tipo. Poco peggioramento grafico, calcolo più leggero.
ecco come sara' quelle di sapphire di x1800xl
http://www.sapphiretech.com/en/productfiles/121image1.jpg
Ho visto alieni più belli :D
P.S. Oggi non ho voglia di fare un cacchio, non so se si era notato :)
yossarian
07-10-2005, 16:33
Sampsa ha messo in crossfire una X1800XT e la versione master della scheda :sofico:
http://www.muropaketti.com/3dmark/r520/04.jpg
ha detto però che non ha notato miglioramenti nelle prestazioni :boh:
forse perchè la versione master non contatta bene
:D
Ma FP non sta per "full precision" ovvero 32bit dopo la , ?
e quindi FP 16 è una cazz.......
:)
Hai le idee un po' confuse :)
FP sta per Floating Point, la Full Precision nelle specifiche DX9 e seguenti e' per l'appunto ottenuta in Floating Point 32 (aka FP32, aka 4 canali 32 bit di calcolo in virgola mobile). E' contemplata anche l'FP 24 che usava ati (4 canali 24 bit) ma che non e' sufficiente ad esempio per le dx9c.
La Half Precision (o Partial Precision) invece e' quella che si ha quando si calcola in FP 16 (4 canali x 16).
L'R300 faceva FP24, l'NV30 faceva sia FP16 che FP32 e cosi' di seguito le discendenti fino a G70.
Spero di averti chiarito i dubbi, ti assicuro che non e' mia abitudine scrivere cazzate :)
Se poi vuoi approfondire il discorso sul FP, eccoti un url : http://www.nvitalia.com/articoli/Floating_Point/1.htm
Ciau :D
Me ne sono accorto intanto che inviavo :stordita:
Solo che è entrato uno in ufficio e non ho fatto in tempo a cambiare (e ho dovuto chiudere per non far vedere che stamattina non ho voglia di fare un cacchio).
Speravo sfuggisse :D
DJ lo sai come funziona : se uno conosce la tua preparazione quando vede una cosa del genere la prende a ridere subito :)
Fosse stato chiunque altro (come chi scambia FP per Full Precision eh Jedi? ;) ) la cosa si sarebbe risolta in una correzione... nel tuo caso tu sai di sapere ed io so che tu sai, quindi parte la linguaccia :D :D
ma il nuovo af completamente trilineare si attiva sempre o è un opzione aggiuntiva come l'adaptive aa?
sei ancora recuperabile, non come qualcun altro di nostra conoscenza :D
Sara' anche complice il fatto che questi gioconi tanto belli e complessi da richiedere per forza una 7800 o una X1800 per girare a 60 fps non sono ancora usciti... :)
Quelli in arrivo oltretutto (Quake 4, COD 2, BW 2, FEAR) girano alla grande sulle schede attuali, segno che nemmeno quelli sono concepiti con in mente il famoso "passo avanti" che tutti aspettiamo lato software ;)
yossarian
07-10-2005, 17:04
ma il nuovo af completamente trilineare si attiva sempre o è un opzione aggiuntiva come l'adaptive aa?
è opzionale, si attiva quando si settano le impostazioni su HQ
Se la cosa può interessare, a questo indirizzo, (http://www.tech-hounds.com/review10/ReviewsPage1.html) trovate una recensione leggermente diversa dal solito, difatti vengono analizzate e comparate tra loro ben quattro X800 XL di produttori differenti:
la RX800XL di Abit, la EAX800XL di Asus, la X800XL-D3 di GeCube ed infine la X800XL Silent di Gigabyte.
;)
Foglia Morta
07-10-2005, 17:42
Se la cosa può interessare, a questo indirizzo, (http://www.tech-hounds.com/review10/ReviewsPage1.html) trovate una recensione leggermente diversa dal solito, difatti vengono analizzate e comparate tra loro ben quattro X800 XL di produttori differenti:
la RX800XL di Abit, la EAX800XL di Asus, la X800XL-D3 di GeCube ed infine la X800XL Silent di Gigabyte.
;)
hai lisciato il forum :D , comunque è il pensiero che conta grazie
andreamarra
07-10-2005, 17:58
l'anisotropico di tipo adattativo è applicato privilegiando angoli multipli di 45° (per R4x0, NV4x, NV3x e G70) e di 90° (per R3x0); se un muro ha un'inclinazione differente non beneficia della sua applicazione nel modo ottimale (come nel caso del muro dello screen shot).
azz, non avevo letto bene sulle sigle delle gpu..
praticamente l'anisotropico adattivo è applicato a qualunque superficie inclinata indipendentemente dalla sua inclinazione in R520 mentre per R4x0, NV4x, NV3x e G70 ciò avviene solo per angoli multipli di 45 gradi?
Quindi, in soldoni... l'anisotropico della R520 è migliore delle altre schede :D?
yossarian
07-10-2005, 18:08
azz, non avevo letto bene sulle sigle delle gpu..
praticamente l'anisotropico adattivo è applicato a qualunque superficie inclinata indipendentemente dalla sua inclinazione in R520 mentre per R4x0, NV4x, NV3x e G70 ciò avviene solo per angoli multipli di 45 gradi?
Quindi, in soldoni... l'anisotropico della R520 è migliore delle altre schede :D?
si; gli altri chip utilizzano filtraggio trilineare solo su determinati angoli (e i risultati sono quelli visti nell'immagine sul muro inclinato), R520 per tutte le angolazioni. Questo significa che il chip fa 2 volte e mezza i calcoli delle altre gpu per gli angoli diversi da multipli di 45°, con una qualità d'immagine uguale in tutte le direzioni (cosa che non avviene per le altre gpu). In effetti quello che ha degli angoli privilegiati può definirsi "adaptive", l'altro (quello di R520) è full anisotropic
andreamarra
07-10-2005, 18:12
si; gli altri chip utilizzano filtraggio trilineare solo su determinati angoli (e i risultati sono quelli visti nell'immagine sul muro inclinato), R520 per tutte le angolazioni. Questo significa che il chip fa 2 volte e mezza i calcoli delle altre gpu per gli angoli diversi da multipli di 45°, con una qualità d'immagine uguale in tutte le direzioni (cosa che non avviene per le altre gpu). In effetti quello che ha degli angoli privilegiati può definirsi "adaptive", l'altro (quello di R520) è full anisotropic
ottimo...
praticamente in un fps in cui si costeggia una montagna in cui le inclinazioni delle pareti rocciose non sono regolari e non sono multipli di 45 gradi, con la X1800XT (minchia che nome 'e merda :D) la qualità non decade... :)
andreamarra
07-10-2005, 18:19
mi sono venute in mente due cosine, siccome non c'ho un cazz da fare le posto :D
1- Il risultato di questa scheda ati può dirsi "sorprendente" se consideriamo che noi facciamo i confronti tra la X800 che lavorava a 24 di FP mente questa X1800 lavora a 32 FP? Cioè, la NV40 e la G70 lavorano entrambe a 32-16 FP, e quindi le differenze in prestazioni sono perfettamente quantificabili. Diverso il caso del R420 e del R520. Ho detto una stronzata :D??
2- Ma il famigerato Dynamich Branching... è presente su G70? E su R520?
grazie per la cortese attenzione :D
yossarian
07-10-2005, 18:22
ottimo...
praticamente in un fps in cui si costeggia una montagna in cui le inclinazioni delle pareti rocciose non sono regolari e non sono multipli di 45 gradi, con la X1800XT (minchia che nome 'e merda :D) la qualità non decade... :)
p.s. ma è grave sta cosa della mancanza della Vertex Texture Fetch??
no; non lo è al fine di potersi fregiare del titolo di sm3.0 full compliant e neppure ai fini pratici dell'elaborazione.
Le tmu dei vertex shader sono delle texture unit per modo di dire, essendo in grado di compiere solo un numero limitato di operazioni (texture fetch e texture lookup, se non ricordo male); quindi, la loro presenza ha una utilità limitata. L'alternativa è quella di permettere al vertex buffer di accedere ai dati contenuti nel texture buffer. Questa è un'operazione che può essere tranquillamente compiuta anche da chip sm2.0 e permette l'accesso diretto ai dati manipolati dalle tmu presenti nelle pixel pipeline (che sono unità di tipo completo). In pratica, le texture, anzichè essere trasferite dal texture buffer alle vsu attraverso le tmu delle unità geometriche, sono trasferite direttamente nel vertex buffer, manipolate dai vs e re-inviate al texture buffer.
yossarian
07-10-2005, 18:26
mi sono venute in mente due cosine, siccome non c'ho un cazz da fare le posto :D
1- Il risultato di questa scheda ati può dirsi "sorprendente" se consideriamo che noi facciamo i confronti tra la X800 che lavorava a 24 di FP mente questa X1800 lavora a 32 FP? Cioè, la NV40 e la G70 lavorano entrambe a 32-16 FP, e quindi le differenze in prestazioni sono perfettamente quantificabili. Diverso il caso del R420 e del R520. Ho detto una stronzata :D??
2- Ma il famigerato Dynamich Branching... è presente su G70? E su R520?
grazie per la cortese attenzione :D
Se si vuole fare un confronto a parità di precisione di calcolo, si dovrebbe forzare G70 ad operare sempre a fp32, poichè in molti casi (mi viene in mente HL2) scala a fp16
Il dynamic branching è presente su NV40, G70 e R5x0.
p.s. quando da qualche parti trovi la dicitura "adaptive.........(qualcosa, tipo AA AF, ecc) prendila sempre come sinonimo di abbassamento, più o meno sensibile, della qualità complessiva :D
conan_75
07-10-2005, 18:37
se ti trovano ancora a bighellonare altrove, poe e fiumy ti sodomizzano
Esistono ancora? :D
Diciamo che 2-3 anni fa, al tempo della R100, bazzicavo spesso su radeonmaxx con altro nick.
andreamarra
07-10-2005, 18:40
no; non lo è al fine di potersi fregiare del titolo di sm3.0 full compliant e neppure ai fini pratici dell'elaborazione.
Le tmu dei vertex shader sono delle texture unit per modo di dire, essendo in grado di compiere solo un numero limitato di operazioni (texture fetch e texture lookup, se non ricordo male); quindi, la loro presenza ha una utilità limitata. L'alternativa è quella di permettere al vertex buffer di accedere ai dati contenuti nel texture buffer. Questa è un'operazione che può essere tranquillamente compiuta anche da chip sm2.0 e perchè permette l'accesso diretto ai dati manipolati dalle tmu presenti nelle pixel pipeline (che sono unità di tipo completo). In pratica, le texture, anzichè essere trasferite dal texture buffer alle vsu attraverso le tmu delle unità geometriche, sono trasferite direttamente nel vertex buffer, manipolate dai vs e re-inviate al texture buffer.
perfetto, ti ringrazio esaurientemente per la tua esauriente spiegazione a un profano come me :D ;)
yossarian
07-10-2005, 18:41
Esistono ancora? :D
Diciamo che 2-3 anni fa, al tempo della R100, bazzicavo spesso su radeonmaxx con altro nick.
si; il forum c'è ancora e con esso anche poe e fiumy
:)
andreamarra
07-10-2005, 18:43
Se si vuole fare un confronto a parità di precisione di calcolo, si dovrebbe forzare G70 ad operare sempre a fp32, poichè in molti casi (mi viene in mente HL2) scala a fp16
Il dynamic branching è presente su NV40, G70 e R5x0.
p.s. quando da qualche parti trovi la dicitura "adaptive.........(qualcosa, tipo AA AF, ecc) prendila sempre come sinonimo di abbassamento, più o meno sensibile, della qualità complessiva :D
bene.
ricordo che sto dynamic branching piaceva da morire a fek :D, bisognerebbe chiedere a lui se è applicabile o meno con buoni risultati su r520... ricordo che ai tempi di NV40 (manco fossero passati dieci anni :D) diceva che la scheda sarebbe morta nell'usare questo DB.
quindi i filtraggi "adaptive" riducono la qualità complessiva :confused: ?
Mi sembrava il contrario, ho visto diversi shot fatti a paragone tra AA normale e AA adaptive e nel secondo caso la qualità grafica era migliore e di brutto :confused: !
conan_75
07-10-2005, 18:47
si; il forum c'è ancora e con esso anche poe e fiumy
:)
E dire che risulto ancora tra i member ;)
Però non ho più la pass :(
Vorrei risalutare tutti, è stato il primo forum dove mi sia iscritto e partecipato.
Il mio primo tread aperto era "Fiumy pensaci tu", un bel tread inutile dove prendevo per il culo proprio fiumy e i fissati del 3Dmark ;)
Poi chiarimmo tutto, ero giovane ed inesperto :)
E dire che risulto ancora tra i member ;)
Però non ho più la pass :(
Vorrei risalutare tutti, è stato il primo forum dove mi sia iscritto e partecipato.
Il mio primo tread aperto era "Fiumy pensaci tu", un bel tread inutile dove prendevo per il culo proprio fiumy e i fissati del 3Dmark ;)
Poi chiarimmo tutto, ero giovane ed inesperto :)
Certo che ci sn, gli esauriti cronici sn rimasti, mi è stato impossibile liberarmene :cry: :sofico:
Fiumy cmq è peggiorato con l'avanzare dell'età... pure Poe, troppo lunga da raccontare cmq :D
andreamarra
07-10-2005, 19:00
sono curioso di vedere il calo prestazionale che avrà la scheda con giochi renderizzati in HDR abbianti ai filtri...
Se ad esempio con HDR il gioco mi fa 50 e con i filtri a 2 o 4X mi fa 20-15 allora è una mezza soletta :D
Discorso diverso se l'abbinamento HDR filtri vari non faccia sprofondare la scheda.
vediamo un pò, mi sembra che splinter-cell sia in HDR, poi ci sarà il livello aggiuntivo di HL2... speriamo che lo staff di HWUpgrade abbiano dedicato uno spazio anche a questo tipo di bench, mi interessa moltissimo :)!
però, c'è da dire che se anche si mettesse risoluzione a 1280*1024 e AA2X insiema a HDR teoricamente la scheda dovrebbe farcela bene. Il filtro a 2X questa scheda lo mastica mentre è spenta, non dovrebbe influire tanto.. spero. E la grafica non sarebbe spixellosa con quei settaggi, e magari terrebbe bene anche un 4X.
a questo punto sarebbe opportuno vedere quanto perde la scheda con l'attivazione del rendere HDR rispetto alla controparte nvidia.
yossarian
07-10-2005, 19:10
bene.
ricordo che sto dynamic branching piaceva da morire a fek :D, bisognerebbe chiedere a lui se è applicabile o meno con buoni risultati su r520... ricordo che ai tempi di NV40 (manco fossero passati dieci anni :D) diceva che la scheda sarebbe morta nell'usare questo DB.
quindi i filtraggi "adaptive" riducono la qualità complessiva :confused: ?
Mi sembrava il contrario, ho visto diversi shot fatti a paragone tra AA normale e AA adaptive e nel secondo caso la qualità grafica era migliore e di brutto :confused: !
il problema di fondo (quello per cui fek, se non ricordo male, riprese qualcuno che aveva definito il MSAA come "antialiasing") è che il comune MSAA è già di tipo adattativo, in quanto non viene applicato su tutta la scena, ma solo sui bordi (infatti sarebbe più giusto definirlo edge antialiasing).
Qui sarebbe lungo il discorso e bisognerebbe specificare cosa è l'aliasing. Cerco di riassumere il tutto.
L'aliasing è un disturbo che si manifesta, in genere, quando le frequenze di campionamento utilizzate non rispettano determinati parametri (distanza di Nyquist); nelle applicazioni video, l'aliasing è originato dalla discretizzazione di valori continui. Un pixel rappresenta un valore discreto e un'immagine è costituita da una matrice di pixel. Quindi, una riga non perfettamente orizzontale o verticale, ad esempio, risulta scalettata (edge aliasing). Però, se l'edge aliasing è la manifestazione più evidente, ce ne sono altre che provocano altre forme di artefatti, meno visibili ma, in alcuni casi, fastidiosi al punto da provocare la non corretta visualizzazione di alcuni particolari (come ad esempio oggetti molto piccoli o particolarmente sottili). L'edge AA non si occupa di questa seconda forma di aliasing e, fino all'introduzione di queste nuove forme di adaptive AA (come il transparent), questi artefatti restavano visibili.
Questo è il motivo (senza scendere nei particolari e senza tirare in ballo la qualità di super sampling e multisampling) per cui queste nuove forme di adaptive antialiasing migliorano l'immagine, attenuando questi piccoli difetti
conan_75
07-10-2005, 19:14
Certo che ci sn, gli esauriti cronici sn rimasti, mi è stato impossibile liberarmene :cry: :sofico:
Fiumy cmq è peggiorato con l'avanzare dell'età... pure Poe, troppo lunga da raccontare cmq :D
Scusate l'OT:
posso farmi inviare la pass via mail sapendo il nick?
andreamarra
07-10-2005, 19:15
il problema di fondo (quello per cui fek, se non ricordo male, riprese qualcuno che aveva definito il MSAA antialiasing) è che il comune MSAA è già di tipo adattativo, in quanto non viene applicato su tutta la scena, ma solo sui bordi (infatti sarebbe più giusto definirlo edge antialiasing).
Qui sarebbe lungo il discorso e bisognerebbe specificare cosa è l'aliasing. Cerco di riassumere il tutto.
L'aliasing è un disturbo che si manifesta, in genere, quando le frequenze di campionamento utilizzate non rispettano determinati parametri (distanza di Nyquist); nelle applicazioni video, l'aliasing è originato dalla discretizzazione di valori continui. Un pixel rappresenta un valore discreto e un'immagine è costituita da una matrice di pixel. Quindi, una riga non perfettamente orizzontale o verticale, ad esempio, risulta scalettata (edge aliasing). Però, se l'edge aliasing è la manifestazione più evidente, ce ne sono altre che provocano altre forme di artefatti, meno visibili ma, in alcuni casi, fastidiosi al punto da provocare la non corretta visualizzazione di alcuni particolari (come ad esempio oggetti molto piccoli o particolarmente sottili). L'edge AA non si occupa di questa seconda forma di aliasing e, fino all'introduzione di queste nuove forme di adaptive AA (come il transparent), questi artefatti restavano visibili.
Questo è il motivo (senza scendere nei particolari e senza tirare in ballo la qualità di super sampling e multisampling) per cui queste nuove forme di adaptive antialiasing migliorano l'immagine, attenuando questi piccoli difetti
ho capito, non tutto :D, ma il senso l'ho capito ;)
adesso capisco perchè in scene in cui sono renderizzate strutture esili e filiformi (tubi, grate, rami) in lontananza non ci sono più quelle seghettature orrende anche a 8X di AA.
ti avevo fatto questa domanda perchè tu in un post precedente avevi scritto che quando c'è un filtro di tipo "adaptive" è sinonimo di decadimento, anche sensibile, della qualità grafica. Hai sbagliato a scrivere, quindi?
p.s. scusa se abuso di te, mio prode :oink:
Tetsujin
07-10-2005, 19:24
ottimo 3d, mi iscrivo e inizio a sbavare :D
ma possibile che nessuno al mondo abbia fatto una rece sulla overcloccabilità di questa scheda?
yossarian
07-10-2005, 19:26
ho capito, non tutto :D, ma il senso l'ho capito ;)
adesso capisco perchè in scene in cui sono renderizzate strutture esili e filiformi (tubi, grate, rami) in lontananza non ci sono più quelle seghettature orrende anche a 8X di AA.
ti avevo fatto questa domanda perchè tu in un post precedente avevi scritto che quando c'è un filtro di tipo "adaptive" è sinonimo di decadimento, anche sensibile, della qualità grafica. Hai sbagliato a scrivere, quindi?
p.s. scusa se abuso di te, mio prode :oink:
stavolta non ho sbagliato a scrivere :D
Intendevo dire che un filtro adaptive si occupa solo in minima parte dell'immagine, cercando di correggere i difetti più evidenti. L'ideale sarebbe un filtro di tipo non adaptive, col cui termine si intende un filtro applicato all'intera immagine.
Il problema di un siffatto filtro è l'hit prestazionale: si torna al discorso fatto sull'anisotropico: un AF adaptive "cura" solo determinati angoli, un anisotropic full ha la stessa qualità indipendentemente dall'angolazione; il prezzo da pagare è un aumento considerevole del numero di calcoli.
Per l'antialiasing, personalmente preferisco un filtro di tipo full, possibilmente supersampling che è molto più pesante del multisampling, in quanto presuppone l'utilizzo di 4 sub campioni, per il 4x, per pixel contro l'unico subpixel del multisampling, ma, secondo me, restituisce una migliore qualità, in quanto ogni subpixel è calcolato interpolando il valore del pixel campione, di volta in volta, con i valori dei 4 subpixel scelti; al contrario, nel multisampling, si ricava, per i 4 subpixel un solo valore, ottenuto dall'interpolazione di tutti i valori dei 4 subpixel coinvolti. Le conseguenze, visivamente parlando, sono che con il supersampling si hanno sfumature con gradienti diversi nelle 4 direzioni, con il multisampling si ha la stessa gradazione di colore applicata in tutte e quattro le direzioni (parlo sempre di 4x, che è la modalità di riferimento)
il problema di fondo (quello per cui fek, se non ricordo male, riprese qualcuno che aveva definito il MSAA come "antialiasing") è che il comune MSAA è già di tipo adattativo, in quanto non viene applicato su tutta la scena, ma solo sui bordi (infatti sarebbe più giusto definirlo edge antialiasing).
Qui sarebbe lungo il discorso e bisognerebbe specificare cosa è l'aliasing. Cerco di riassumere il tutto.
L'aliasing è un disturbo che si manifesta, in genere, quando le frequenze di campionamento utilizzate non rispettano determinati parametri (distanza di Nyquist); nelle applicazioni video, l'aliasing è originato dalla discretizzazione di valori continui. Un pixel rappresenta un valore discreto e un'immagine è costituita da una matrice di pixel. Quindi, una riga non perfettamente orizzontale o verticale, ad esempio, risulta scalettata (edge aliasing). Però, se l'edge aliasing è la manifestazione più evidente, ce ne sono altre che provocano altre forme di artefatti, meno visibili ma, in alcuni casi, fastidiosi al punto da provocare la non corretta visualizzazione di alcuni particolari (come ad esempio oggetti molto piccoli o particolarmente sottili). L'edge AA non si occupa di questa seconda forma di aliasing e, fino all'introduzione di queste nuove forme di adaptive AA (come il transparent), questi artefatti restavano visibili.
Questo è il motivo (senza scendere nei particolari e senza tirare in ballo la qualità di super sampling e multisampling) per cui queste nuove forme di adaptive antialiasing migliorano l'immagine, attenuando questi piccoli difetti
ma allora anche il supersampling è un edge antialiasing? io ero sicuro del contrario :mbe:
bYeZ!
yossarian
07-10-2005, 19:32
ma allora anche il supersampling è un edge antialiasing? io ero sicuro del contrario :mbe:
bYeZ!
il fatto di essere o meno "solo" edge antialiasing dipende da dove viene applicato l'AA. Diciamo che il SS si può applicare a pieno schermo, anche se, dove non è necessario, potrebbe creare un effetto "impastato", mentre il MS si può applicare solo come edge o in piccole porzioni dell'immagine.
Il principio di funzionamento dell'edge antialiasing è molto semplice; considerando le transizioni da un colore ad un altro, esiste una soglia al di sopra della quale la transizione non è considerata accettabile e viene applicato l'antialiasing; la tipologie di antialiasing è indipendente dal fatto che si applichi su tutta l'immagine o meno (il multisampling su tutta l'immagine, però, non darebbe buoni risultati, da un punto di vista qualitativo, perchè, se da un lato tende a sfumare le transizioni nella piccola area circoscritta attorno al pixel che si sta considerando, dall'altra accentua le transizioni tra questa e quella adiacente).
La scelta del MS è dettata dal fatto che, a livello di spazio occupato in memoria, un'immagine con super sampling occupa uno spazio che può essere 4 volte maggiore di quello occupato dal multisampling (che è, invece, uguale alla display resolution). L'utilizzo del MS ha permesso di creare una porzione fisica di ram video per immagazzinare le immagini con AA (per questo si dice che il MS viene applicato in HW, mentre il SS via SW).
Confermo quanto detto dal preparatissimo yossarian e aggiungo che tecnicamente è più corretto dire che l'antialiasing di tipo multisampling è applicato per "primitiva", dove per primitiva si intende l'elemento poligonale più semplice utilizzato dal motore grafico. Nella maggioranza dei casi parliamo di triangoli, mentre alcuni usano anche quads, cioè quadrati, per alcune scene. Quindi l'antialiasing multisampling è applicato ai contorni di tutti i triangoli ed è per questo che si chiama edge antialiasing, dove edge significa "spigolo" ed ogni triangolo ha tre spigoli (leggi "lati"). :)
vegeta88
07-10-2005, 19:41
Ciao Yoss
Sapevo che MS si può applicare solo come edge e in piccole porzioni dell'immagine ove questa era già stata suddivisa e precalcolata.Sbaglio?
Comunque è sempre un gran piacere leggere gli interventi di Yossarian.
Ciao :)
yossarian
07-10-2005, 19:47
Ciao Yoss
Sapevo che MS si può applicare solo come edge e in piccole porzioni dell'immagine ove questa era già stata suddivisa e precalcolata.Sbaglio?
Comunque è sempre un gran piacere leggere gli interventi di Yossarian.
Ciao :)
per come è articolato il processo di creazione dell'immagine si; anche perchè non oso pensare a cosa produrrebbe il MS applicato all'intera immagine.
Come dice Vifani, è possibile applicare il MS direttamente sulle primitive, in forma di edge AA; quindi la procedura è piuttosto semplice: l'antialiasin è applicato sulle primitive e queste sono immagazzinate nel frame buffer, con un'immagine finale che non occupa più spazio di quella definita dalle impostazioni del display. Questo tipo di operazione, sarebbe teoricamente possibile anche con il SS, ma non viene fatta perchè lo scotto da pagare è maggiore occupazione di memoria (fino a 4 volte) durante le fasi di applicazione dell'anti aliasing) e maggior occupazione di banda (dati trasferiti fino a 4 volte quelli necessari per il MS).
La scelta del MS è dettata dal fatto che, a livello di spazio occupato in memoria, un'immagine con super sampling occupa uno spazio che può essere 4 volte maggiore di quello occupato dal multisampling (che è, invece, uguale alla display resolution). L'utilizzo del MS ha permesso di creare una porzione fisica di ram video per immagazzinare le immagini con AA (per questo si dice che il MS viene applicato in HW, mentre il SS via SW).
grazie, ero totalmente all'oscuro di ciò :)
per porzione fisica intendi una porzione ben definita già dall'avvio dell'applicazione della ram video, oppure che può essere spostata anche sullo spazio dell'agp aperture? con l'uso del pci express potrebbe essere vantaggioso un espediente di questo tipo?
bYeZ!
vegeta88
07-10-2005, 19:53
per come è articolato il processo di creazione dell'immagine si; anche perchè non oso pensare a cosa produrrebbe il MS applicato all'intera immagine.
Come dice Vifani, è possibile applicare il MS direttamente sulle primitive, in forma di edge AA; quindi la procedura è piuttosto semplice: l'antialiasin è applicato sulle primitive e queste sono immagazzinate nel frame buffer, con un'immagine finale che non occupa più spazio di quella definita dalle impostazioni del display. Questo tipo di operazione, sarebbe teoricamente possibile anche con il SS, ma non viene fatta perchè lo scotto da pagare è maggiore occupazione di memoria (fino a 4 volte) durante le fasi di applicazione dell'anti aliasing) e maggior occupazione di banda (dati trasferiti fino a 4 volte quelli necessari per il MS).
E si effettivamente con il SS sarebbe applicabile in via teorica , ma non in quella pratica dato le enormi richieste che ha già come concetto base.
yossarian
07-10-2005, 19:57
grazie, ero totalmente all'oscuro di ciò :)
per porzione fisica intendi una porzione ben definita già dall'avvio dell'applicazione della ram video, oppure che può essere spostata anche sullo spazio dell'agp aperture? con l'uso del pci express potrebbe essere vantaggioso un espediente di questo tipo?
bYeZ!
molto meglio sulla ram video; se però è necessario, si può spostare anche nella ram di sistema (metodi per utilizzare la ram di sistema come ram video ce ne sono diversi e uno dei più efficaci e l'utilizzo degli f-buffer (o comunque la creazione di porzioni di ram di sistema da usare come buffer di tipo FIFO, che dialogano in maniera preferenziale con la ram video).
Allostato attuale, per l'immagine finale generata dopo l'applicazione del filtro MS, si fa uso della stessa porzione destinata ad operare come buffer per l'immagine da inviare al DAC (o al monitor LCD)
yossarian
07-10-2005, 20:00
E si effettivamente con il SS sarebbe applicabile in via teorica , ma non in quella pratica dato le enormi richieste che ha già come concetto base.
l'unico motivo per cui è stato praticamente abbandonato è questo.
Si è verificato che il MS era ugualmente funzionale e implicava un hit prestazionale nettamente inferiore a fronte di una leggerissima perdita di qualità.
Scusate l'OT:
posso farmi inviare la pass via mail sapendo il nick?
Si, dovrebeb andare :)
Fai un login, username e password a caso, ti darà buca, allora clicca su recupera password usando il tuo user reale :)
vegeta88
07-10-2005, 20:06
l'unico motivo per cui è stato praticamente abbandonato è questo.
Si è verificato che il MS era ugualmente funzionale e implicava un hit prestazionale nettamente inferiore a fronte di una leggerissima perdita di qualità.
Grazie Yoss.
P.S.
Piccolo OT mi sembra che le ultime GPU che lo implementassero in modo nativo siano state le "attuali" V3-V5-V8 della XGI.
Ciao :)
...un grazie a yossarian per le spiegazioni sempre molto chiare!
...ho fatto alcuni piccoli cambiamenti nella prima pagina, ad esempio ho modificato le caratteristiche tecniche delle vga... ho sostituito il termine 16 pipelines con 4 Quad Pixel Shader Core e 1 Ultra-Threading Dispatch Processor... avevo dei piccoli dubbi, ma la spiegazione di yossarian me li ha tolti... addio care vecchie pipelines!!! (era ora... :asd: ) :D
...ciao!
Bugs Bunny
07-10-2005, 20:39
quando uscirà r580?
sapete,spero che o calino i prezzi di r520 o esca una scheda di fascia medio alta di r580.
Mi sono trovato bene con la mia radedon 7000,non ho mai provato NVidia ne intendo passarci. :D
yossarian
07-10-2005, 20:44
...un grazie a yossarian per le spiegazioni sempre molto chiare!
...ho fatto alcuni piccoli cambiamenti nella prima pagina, ad esempio ho modificato le caratteristiche tecniche delle vga... ho sostituito il termine 16 pipelines con 4 Quad Pixel Shader Core e 1 Ultra-Threading Dispatch Processor... avevo dei piccoli dubbi, ma la spiegazione di yossarian me li ha tolti... addio care vecchie pipelines!!! (era ora... :asd: ) :D
...ciao!
anche le tmu costituiscono un "blocco" a parte, non essendo più integrate nelle pipeline; Quindi puoi sostituire la dicitura "1 tmu (per pipeline)" con "16 tmu"
anche le tmu costituiscono un "blocco" a parte, non essendo più integrate nelle pipeline; Quindi puoi sostituire la dicitura "1 tmu (per pipeline)" con "16 tmu"
...fatto, grazie! se vai a vedere la prima pagina troverai qualcosa che ti riguarda ;) .
...un'ultima domanda: ma se giustamente le tmu di X1800 si possono considerare in nuova maniera e nuovo numero (ovvero 16), quelle di X1600 e X1300 sono anche loro 16 o diminuisco al diminuire dei Quad Pixel Shader Core? ...scusa la domanda, ma non si finisce mai d'imparare...
...ciao!
andreamarra
07-10-2005, 21:03
Salve, sono la segreteria forumistica dell'utente yossarian. Gli avete scassato 'o cazzo con tutte ste domande, si prega di formattare il vostro pc una volta ascoltato il segnale acustico... PRRRRRRRR!!!
:sofico:
:D
yossarian
07-10-2005, 21:23
...fatto, grazie! se vai a vedere la prima pagina troverai qualcosa che ti riguarda ;) .
...un'ultima domanda: ma se giustamente le tmu di X1800 si possono considerare in nuova maniera e nuovo numero (ovvero 16), quelle di X1600 e X1300 sono anche loro 16 o diminuisco al diminuire dei Quad Pixel Shader Core? ...scusa la domanda, ma non si finisce mai d'imparare...
...ciao!
X1600 e X1300 ne hanno 4. In questa architettura, tmu e alu lavorano in maniera indipendente e le texture elaborate sono messe a disposizione di tutte le fpu che ne hanno bisogno (il pixel buffer e il texture buffer sono in comunicazione diretta tra loro)
grazie per la considerazione, anche se forse non era il caso; in fondo si tratta di una discussione e come tale va considerata :)
...grazie, veramente. :)
...ciao!
...in riferimento alla discussione di poco fa su MS e Adaptive AA:
http://img193.imageshack.us/img193/4008/aa6x8ho.jpg (http://imageshack.us)
...ciao!
hai lisciato il forum :D , comunque è il pensiero che conta grazie
lol! :D ho sbagliato la discussione :D
Ho letto x800 anziché x1800 nel titolo :muro: :oink:
...a proposito di Fek... sul sito ATI, nella bella presentazione di X1K, nella parte games/software c'è anche B&W2... :cool:
...ciao!
...a proposito di Fek... sul sito ATI, nella bella presentazione di X1K, nella parte games/software c'è anche B&W2... :cool:
...ciao!
Cerca di aggiornare il primo post con tutte le rece che ti abbiamo linkato.
andreamarra
08-10-2005, 10:39
novità :coffee:?
Ciao a tutti,
vorrei fare un paio di domande anche io a yossarian se non vi dispiace! :sofico:
1) Prima, parlando del numero di unità MAD, dicevi che nel core R520 probabilmente ce ne sono 48 di cui 32 disabilitate. Questo siginificherebbe che ci sarebbero 12 unità PS per quad, di cui però attive solo 4. RV530 invece ha tutte le sue 12 psu raggruppate dentro una singola quad, e tutte sono attive. Quindi RV530 potrebbe avere un'unità quad così com'era stata concepita anche per R520, giusto? Relativamente a RV515, come sono raggruppate le unità eleborative?
2) Discorso AA SS/MS: forse ricordo male io, ma mi pare che anche in regime di MS bisogna usare più RAM che nel rendering normale. In particolare quello che occupa più spazio dovrebbe essere lo z-buffer, che necessità di dimensioni 4 volte più grandi del normale. Se non ricordo male io infatti il MS scala non tutta l'immagine, ma solo lo z-buffer. Quindi in regime di MS 4X l'immagine vera e proprio occuperà solo lo spazio normalmente necessario, ma sarà necessario uno z-buffer 4 volte la sua grandezza normale, necessario a filtrare correttamente l'immagine. Giusto? Altra cosa: R420 poteva elaborare 2 pixel/pipe nel caso dell'applicazione di AA MS: com'era possibile questo? Poteva filtrare il doppio dei valori z per ogni pipe?
Ciao grazie! :)
yossarian
08-10-2005, 14:37
Ciao a tutti,
vorrei fare un paio di domande anche io a yossarian se non vi dispiace! :sofico:
1) Prima, parlando del numero di unità MAD, dicevi che nel core R520 probabilmente ce ne sono 48 di cui 32 disabilitate. Questo siginificherebbe che ci sarebbero 12 unità PS per quad, di cui però attive solo 4. RV530 invece ha tutte le sue 12 psu raggruppate dentro una singola quad, e tutte sono attive. Quindi RV530 potrebbe avere un'unità quad così com'era stata concepita anche per R520, giusto? Relativamente a RV515, come sono raggruppate le unità eleborative?
si, RV530 ha un'unità quad del tipo di quelle che dovremmo vedere su R580 RV515 ha unità quad del tipo di quelle di R520, ossia da 4 MAD
2) Discorso AA SS/MS: forse ricordo male io, ma mi pare che anche in regime di MS bisogna usare più RAM che nel rendering normale. In particolare quello che occupa più spazio dovrebbe essere lo z-buffer, che necessità di dimensioni 4 volte più grandi del normale. Se non ricordo male io infatti il MS scala non tutta l'immagine, ma solo lo z-buffer. Quindi in regime di MS 4X l'immagine vera e proprio occuperà solo lo spazio normalmente necessario, ma sarà necessario uno z-buffer 4 volte la sua grandezza normale, necessario a filtrare correttamente l'immagine. Giusto? Altra cosa: R420 poteva elaborare 2 pixel/pipe nel caso dell'applicazione di AA MS: com'era possibile questo? Poteva filtrare il doppio dei valori z per ogni pipe?
Ciao grazie! :)
no, lo z-buffer non c'entra; il principio del multisampling è, in parte, simile a quello del supersampling. Riferendosi al 4x, le dimensioni dell'immagine iniziale sono moltiplicate x4, si prende il pixel su cui si vuole applicare l'AA e si selezionano 4 subpixel adiacenti, scelti in base al tipo di algoritmo utilizzato (RG, OG, ecc). Qui i due procedimenti si differenziano. Nel MS ai 4 subpixel viene attribuito lo stesso valore del pixel da trattare (il che equivale a prendere 4 "immagini" del pixel nelle 4 posizioni diverse individuate dai 4 campioni), nel supersampling, invece, si fa l'interpolazione dei valori del pixel da trattare con ciscuno dei 4 subpixel e si salvano questi valori; nel momento in cui si riduce l'immagine alle dimensioni originali, si fa una seconda operazione di interpolazione tra i 4 valori trovati e il risultato finale da il valore del pixel trattato.
Poichè tutta l'operazione avviene suddividendo l'immagine in tessere (tipicamente si opera sulle primitive o, al più, su tile di dimensioni ridotte), l'operazione, se si hanno cache sufficientemente capienti, può essere svolta interamente on chip. Solo che il SS obbliga a ricorrere a 5 operazioni di interpolazione e al salvataggio temporaneo dei dati relativi a 4 subpixel, mentre il MS non prevede operazioni di interpolazione e permette di salvare un unico valore per tutti e 4 i subpixel. Per questo motivo, gli attuali chip sono attrezzati per effettuare filtraggio di tipo MS on chip, mentre il SS avviene ricorrendo al frame buffer per i salvataggi dei dati intermedi dell'elaborazione (salvo applicarlo su porzioni ridottissime dell'immagine stessa).
R42o ha due punti di uscita dei dati a valle del circuito di AA (come NV40 li ha all'uscita delle ROP's)
picard88
08-10-2005, 14:43
ciao yoss..non ho capito peò ancora una cosa..come mai le prestazioni delle radeon x1600 calano così tanto (quasi ai livelli delle X1300) quando si appicano i filtri?
DarKilleR
08-10-2005, 15:04
VOGLIAMO YOSS MODERATORE....
:sofico: :sofico: :sofico: :sofico:
VOGLIAMO YOSS MODERATORE....
:sofico: :sofico: :sofico: :sofico:
io lo voglio Presidente della Republica :D
andreamarra
08-10-2005, 15:20
io lo voglio Presidente della Republica :D
non lo si può fare direttamente presidente del consiglio :D???
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.