View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
3DMark79
19-07-2007, 17:49
se hai voglia e tempo magari prova anche solo ad invertire le due schede in modo che la silenziosa sia la principale e l'altra secondaria ;) ....cosi vediamo subito come è la situazione...
Infatti buona idea!
http://img463.imageshack.us/img463/4655/19072007319pm2.th.jpg (http://img463.imageshack.us/my.php?image=19072007319pm2.jpg)
http://img443.imageshack.us/img443/6035/19072007320ou9.th.jpg (http://img443.imageshack.us/my.php?image=19072007320ou9.jpg)
Una foto e alla fine del canion nel 3dmark dopo aver fatto anche gli altri mentre l altra è in windows.
Queste a frequenze standard come potete vedere in basso a destra del display della tastiera, quindi da un 6 a 10 gradi in meno da quel che ho capito.
Quindi hanno cercato di ottimizzare il dissipatore.Non male.
Comunque la ventola si e accesa alla fine .Pero di inverno con 18 gradi nella stanza secondo me non si accende ..
Voi che dite.
come hai fatto a mettere nel display anche la temp della gpu?, che programma usi? io uso everest, e la temp della gpu non me la vede :doh:
se hai voglia e tempo magari prova anche solo ad invertire le due schede in modo che la silenziosa sia la principale e l'altra secondaria ;) ....cosi vediamo subito come è la situazione...
Se tu ti riferisci a collegare il monitor principale (quello funzionante )sulla silenziosa,sono già impostato cosi .
Premetto che ho messo davanti una ventola da 12 per evitare che si diano troppo fastidio tra loro col calore emanato .In teoria dovrebbero prendere aria alla stessa temp
la mia ha solo 2 heat pipe:cry: presa il primo di Giugno...
come hai fatto a mettere nel display anche la temp della gpu?, che programma usi? io uso everest, e la temp della gpu non me la vede :doh:
Anche io uso everest versione 4.00.1053.per aggiungerlo ho fatto -file-impostazioni-LCD-new item , e l ho selezionato.
Non so quanto siano corrette le sue misurazioni .
3DMark79
19-07-2007, 17:55
Se tu ti riferisci a collegare il monitor principale (quello funzionante )sulla silenziosa,sono già impostato cosi .
Premetto che ho messo davanti una ventola da 12 per evitare che si diano troppo fastidio tra loro col calore emanato .In teoria dovrebbero prendere aria alla stessa temp
No,penso che si riferisse ad invertire le schede nelle PCI-E.
2 vga prese i primi di giugno... 3 heatpipe... ma tanto le ho messe a liquido :D
webbuffa
19-07-2007, 18:02
:) 2 pipe comprata appena uscita sul mercato.
Temperatura in idle 39° con ventola a 50% e stanza a 25° climatizzata. :cool:
Anche io uso everest versione 4.00.1053.per aggiungerlo ho fatto -file-impostazioni-LCD-new item , e l ho selezionato.
Non so quanto siano corrette le sue misurazioni .
a ecco la mia versione di everest è + vecchia
3DMark79
19-07-2007, 18:05
la mia ha solo 2 heat pipe:cry: presa il primo di Giugno...
2 vga prese i primi di giugno... 3 heatpipe... ma tanto le ho messe a liquido :D
Possibile che abbiano cambiato i primi di giugno dunque in base hai negozi se già l'avevano in magazino?:what:
Attendiamo sviluppi...
-Feanor-
19-07-2007, 18:06
No,penso che si riferisse ad invertire le schede nelle PCI-E.
infatti ;) ...perche come ho detto in post nella pagina prima, che nessuno ha letto, la temperatura piu bassa potrebbe essere data (naturalmente in parte) dal fatto che gli attuali driver (e qui ti ho chiesto: quali stai usando?) non sfruttano decisamente bene il crossfire, e di conseguenza la seconda scheda...essa quindi potrebbe essere nettamente meno usata e sotto stress della prima....;)
NvidiaMen
19-07-2007, 18:08
Mi chiedo se, per migliorare l'efficienza (di ben 35°C :mbe: :eek: come documentato da Albi80) oltre alla sola e semplice terza heatpipe, nelle nuove versioni della Sapphire abbiano anche migliorato il bios della scheda per una gestione più progressiva ed ottimizzata (a seconda delle unità di calcolo effettivamente impegnate) della ventola in abbinamento agli ultimi Catalyst che ne determinano, passivamente, i soli regimi di rotazione in funzione della temperatura...
-Feanor-
19-07-2007, 18:12
ho trovato questo 3d in merito su un forum http://www.xtremesystems.org/forums/showthread.php?p=2308613 ....beh non è che si dica molto ma date cmq un occhiata ;) ...
Possibile che abbiano cambiato i primi di giugno dunque in base hai negozi se già l'avevano in magazino?:what:
Attendiamo sviluppi...
le mie son state prelevate direttamente da un magazzino a cui erano appena state riconsegnate con una nuova spedizione ;)
infatti ;) ...perche come ho detto in post nella pagina prima, che nessuno ha letto, la temperatura piu bassa potrebbe essere data (naturalmente in parte) dal fatto che gli attuali driver (e qui ti ho chiesto: quali stai usando?) non sfruttano decisamente bene il crossfire, e di conseguenza la seconda scheda...essa quindi potrebbe essere nettamente meno usata e sotto stress della prima....;)
Ho capito ... quindi potrebbe anche trattarsi di un discorso di driver.Potrebbe essere.Quindi tu dici che con questi driver acerbi non frutta come si deve la scheda secondaria e quindi la prima tende a scaladare di piu?
io uso i 7.6 hot fix per xp ... Per vista pure ma adesso mi va sempre in crasch il contro pannel quindi per il momento e inutilizzabile Vista .Mi e partito 2 volte e poi e andato in bomba . Boh.provero a tornare ai 7.5.O aspettare i 7.7.
C e un ragazzo qua che ha a liquido 2 Hd2900.Per caso hai differenze di temp tra 1 e l altra?
Grazie in anicipo
-Feanor-
19-07-2007, 18:18
Ho capito ... quindi potrebbe anche trattarsi di un discorso di driver.Potrebbe essere.Quindi tu dici che con questi driver acerbi non frutta come si deve la scheda secondaria e quindi la prima tende a scaladare di piu?
io uso i 7.6 hot fix per xp ... Per vista pure ma adesso mi va sempre in crasch il contro pannel quindi per il momento e inutilizzabile Vista .Mi e partito 2 volte e poi e andato in bomba . Boh.provero a tornare ai 7.5.O aspettare i 7.7.
C e un ragazzo qua che ha a liquido 2 Hd2900.Per caso hai differenze di temp tra 1 e l altra?
Grazie in anicipo
infatti...;) è proprio quello che intendevo..;) ...ovviamente una heatpipe in piu aiuta ad abbassare la temp...ma in parte probabilmente agisce anche quello che ho fatto notare io....i 7.6 +hotfix per ora è cmq il top (:sofico: ) ..sicuramente aspetta i 7.7...ad ogni modo vista ha ancora piu problemi con le configurazioni multigpu...
EDIT: 500 post in due mesi...!!!!!!!!!!!!!!!!!! tanti auguri a me..!!!!!!!!!!! :D:D:D
Garagolo
19-07-2007, 18:26
la mia scheda ha 2 HP presa dopo circa 1 settimana dal lancio ufficiale.
Tidus.hw
19-07-2007, 18:42
ragazzi ho la versione a 3 heatpipe, ma e' normale che a 825/1900 col regime di rotazione della ventola a @def raggiunge i 90 gradi durante un 3dmark2006??
appleroof
19-07-2007, 18:48
ragazzi ho la versione a 3 heatpipe, ma e' normale che a 825/1900 col regime di rotazione della ventola a @def raggiunge i 90 gradi durante un 3dmark2006??
CVD
ragazzi ho la versione a 3 heatpipe, ma e' normale che a 825/1900 col regime di rotazione della ventola a @def raggiunge i 90 gradi durante un 3dmark2006??
no io ho la versione a 2heatpipe ma la mia alle tue frequenze fa i 71 gradi nel 3dmark nella calura romana delle 15 in localen nn climatizzato.
cmq credo anche io una ottimizazione di 1hp non cambia radicalmente la questione forse ti togliere quel decina di gradi ma non so io da quando la ho ho avuto sempre la ventola massimo al 37% anche sotto oc e mai rumorosissima. le temperature sono di 50 in idle e 71 in full....
nsomma...
Ho capito ... quindi potrebbe anche trattarsi di un discorso di driver.Potrebbe essere.Quindi tu dici che con questi driver acerbi non frutta come si deve la scheda secondaria e quindi la prima tende a scaladare di piu?
io uso i 7.6 hot fix per xp ... Per vista pure ma adesso mi va sempre in crasch il contro pannel quindi per il momento e inutilizzabile Vista .Mi e partito 2 volte e poi e andato in bomba . Boh.provero a tornare ai 7.5.O aspettare i 7.7.
C e un ragazzo qua che ha a liquido 2 Hd2900.Per caso hai differenze di temp tra 1 e l altra?
Grazie in anicipo
senti fai una cosa purtroppo è uno sbattimento ma se ne hai voglia ti fughi ongi dubbio visto che tu sei l'unico che puo fare il test sulla stessa piattaforma.
metti la vga con 2 hp lascia il pc acceso 15min e vedi tramite rivaturer a che temp in idle stà.
lancia un loop di 2 3dmark06 e sempre tramite rivatuner vedi a che temperatura arriva.
poi ripeti il test con la vga con 3hp vediamo se questa differenza è cosi abbissale o è solo un leggero restile del dissi!
nsomma xè se poi in idle stanno pari (quello che presumo) e in full la differenza è di soli 2 o 3 gradi non è che c'è da strapparsi i capelli per chi ha la rev con 2hp.
nsomma come ho detot prima io faccio 50 in idle e 72max in oc a 825-2000
Tidus.hw
19-07-2007, 19:14
allora cosa puo' essere, il dissipatore montato male? la pasta messa male??? boh... fa un rumore infernale
senti fai una cosa purtroppo è uno sbattimento ma se ne hai voglia ti fughi ongi dubbio visto che tu sei l'unico che puo fare il test sulla stessa piattaforma.
metti la vga con 2 hp lascia il pc acceso 15min e vedi tramite rivaturer a che temp in idle stà.
lancia un loop di 2 3dmark06 e sempre tramite rivatuner vedi a che temperatura arriva.
poi ripeti il test con la vga con 3hp vediamo se questa differenza è cosi abbissale o è solo un leggero restile del dissi!
nsomma xè se poi in idle stanno pari (quello che presumo) e in full la differenza è di soli 2 o 3 gradi non è che c'è da strapparsi i capelli per chi ha la rev con 2hp.
nsomma come ho detot prima io faccio 50 in idle e 72max in oc a 825-2000
Onestamente la voglia di smontare tutto tra questo groviglio di fili proprio non c è.Comunque in linea di massima , secondo me la differenza a questo punto è relativa perche, che stia a 71 o a 78 gradi , la scheda comunque gira a 35% e il disagio acustico è lo stesso .Magari l unica differenza e che l una si overclocca qualcosetta di piu ma mi pare abbastanza marginale la cosa.
Comunque le temp misurate su everest e sul pannello di controllo ati sono sballate di 10 gradi (in meno per everest).E magari la temp di differenza tra le 2 schede sono dovute anche da una sensibikita diversa del sensore.
vallo a sapere.:help:
allora cosa puo' essere, il dissipatore montato male? la pasta messa male??? boh... fa un rumore infernale
la pasta è la maggiore indiziata, la mettono sempre da cani ;)
SenderoLuminoso
19-07-2007, 19:59
la pasta è la maggiore indiziata, la mettono sempre da cani ;)
Io quando ho tolto il dissipatore per mettere il liquido che altretutto non era ocmpatibile, mi sono messo le mani nei capelli una montagna di pasta grigia che per fortuna era siliconica, cambiata la pasta mi sono trovato tra 45 e 48 gradi e non supero i 68 sotto stress almeno per quel poco che poi ho moniotrato. Ora appena la mettero a liquido diro', ma sar' un gran casino gia lo so. Un quad e una 2900xt portera' l'acqua a 40 gradi azz
Tidus.hw
19-07-2007, 20:09
ok allora dopo cambio la pasta... dovrei avere ancora un pò di artic silver da qualche parte xD
Tidus.hw
19-07-2007, 20:17
ATI Catalyst 7.7 released
Windows XP - 32-bit (http://ati.amd.com/support/drivers/xp/radeonx-xp.html) or 64-bit (http://ati.amd.com/support/drivers/xp64/radeonx-xp64.html)
Windows Vista - 32-bit (http://ati.amd.com/support/drivers/vista32/common-vista32.html) or 64-bit (http://ati.amd.com/support/drivers/vista64/common-vista64.html)
adesso li installo :D
3DMark79
19-07-2007, 20:29
ATI Catalyst 7.7 released
Windows XP - 32-bit (http://ati.amd.com/support/drivers/xp/radeonx-xp.html) or 64-bit (http://ati.amd.com/support/drivers/xp64/radeonx-xp64.html)
Windows Vista - 32-bit (http://ati.amd.com/support/drivers/vista32/common-vista32.html) or 64-bit (http://ati.amd.com/support/drivers/vista64/common-vista64.html)
adesso li installo :D
Facci sapere come vanno le temp. con la pasta sostitutiva.:D
Fantastico!Che giornata ragazzi!Mi raccomando stasera non si esce perchè c'è posta per hwupgrade!:sofico:
Hanno attivato anche l'edge detect filter. ;)
3DMark79
19-07-2007, 20:42
Hanno attivato anche l'edge detect filter. ;)
Scusami cosa sarebbe di preciso?
ATI Catalyst 7.7 released
Windows XP - 32-bit (http://ati.amd.com/support/drivers/xp/radeonx-xp.html) or 64-bit (http://ati.amd.com/support/drivers/xp64/radeonx-xp64.html)
Windows Vista - 32-bit (http://ati.amd.com/support/drivers/vista32/common-vista32.html) or 64-bit (http://ati.amd.com/support/drivers/vista64/common-vista64.html)
adesso li installo :D
in download:D :D (fra 4 min li installo)
New Features
This section provides information on new features introduced in this release of the Catalyst™ software suite. These include:
* New Catalyst™ Control Center Avivo features
* 12X and 24X Anti-Aliasing support for the ATI Radeon™ HD 2900 XT and ATI Radeon™ HD 2600 Series
New Catalyst™ Control Center Avivo features
Catalyst™ 7.7 releases a number of new Avivo features and enhancements which optimize video playback and display configuration. These include
* Enhanced video color pages with two new color controls1: flesh tone correction and color vibrance
* Enhanced video quality pages with easier to use deinterlacing controls and layout
* Simplified Theater Mode2 controls, layout and now supporting Windows Vista
* Enhanced quick settings for video controls (available through the basic layout in Catalyst™ Control Center)
* Easy to use display scaling controls2 when outputting to display devices that support TV timings (480i/p, 720p, 1080i, 1080p) through either digital (DVI or HDMI) or analog (component) interfaces
1These features are only available on the ATI Radeon™ HD 2000 series using Windows Vista.
2These features are only available on the ATI Radeon™ X1000 series and HD 2000 series
12x and 24x Anti-Aliasing support for the ATI Radeon™ HD 2900 XT and ATI Radeon™ HD 2600 Series
This release of Catalyst™ introduces support for 12X and 24X Anti-Aliasing for the ATI Radeon™ HD 2900 XT, and ATI Radeon™ HD 2600 Series. These new Anti-Aliasing settings are available through the new Anti-Aliasing Edge Detect Filter. Selecting 4X Anti-Aliasing plus selecting the Edge Detect filter deliver the equivalent of 12X Anti-Aliasing. Selecting 8X Anti-Aliasing plus selecting the Edge Detect filter deliver the equivalent of 24X Anti-Aliasing.
Performance Improvements
The ATI Radeon™ HD2400, HD2600 and HD2900 (single and CrossFire™) can see performance improvements of 13.2% or more in various Far Cry maps.
ATI's Folding@Home
Folding@Home is a distributed computing project designed by the Stanford University. The application performs intensive simulations of protein folding. This simulation will help researchers uncover how certain diseases develop. Folding@Home uses distributed computing to simulate protein folding, the workload is broken up into small work units and distributed across hundreds of thousands of computers over the internet. You can help find the cure to many different diseases! To join Folding@Home, follow these steps:
1. Download ATI's Catalyst™ software suite
2. Download the Folding@Home GPU client application
Note: If you have an ATI Radeon™ X1600 or higher, download the GPU client (either console or GUI version) not to be confused with the CPU "Graphical client". If you do not have an ATI Radeon™ X1600 or higher, then download the CPU client.
3. Enter the ATI team number 51394 and start folding!
For more information on Folding@Home visit: http://ati.amd.com/technology/streamcomputing/folding.html
Resolved Issues for the Windows Vista Operating System
This section provides information on resolved issues in this release of the ATI Catalyst™ Software Suite for Windows Vista. These include:
* Call of Juarez: Enabling AA no longer result in occasional corruption being noticed. Further details can be found in topic number 737-28455
* Doom3: Flashing is no longer observed when loading the game, or during some of the cinematic, or during game play when Catalyst™ AI is disabled, AA is set to 8x, and CrossFire™ is enabled. Further details can be found in topic number 737-28460
* Lost Planet: Corruption is no longer noticed after a short time period of game play. Further details can be found in topic number 737-28456
* Monsters.Inc: Enabling DXVA no longer results in certain scenes being choppy. Further details can be found in topic number 737-28465
* Pacific Fighters: Corruption is no longer noticed when enabling superAA. Further details can be found in topic number 737-28448
* Prey: A blank screen is no longer displayed when trying to load game if AA is set to either 4x or 8x and filter wide tent is used. Further details can be found in topic number 737-28461
* Quake 3 and 4: Resuming from a standby state no longer results in the display image appearing too bright. Further details can be found in topic number 737-28437
* Quake 4: Playing the game with CrossFire™ enabled no longer results in corruption being noticed after a short time of game play. Further details can be found in topic number 737-28459
* Playing a DVD under the Windows Vista operating system using the Windows Media Player no longer results in the DVD failing to play when switching between display devices using the hot-key function. Further details can be found in topic number 737-24472
* The desktop shortcut to the Catalyst™ Control Center no longer disappears after performing a Windows Anytime Upgrade on some hardware configurations running Vista. Further details can be found in topic number 737-27078
* Playing a DVD using the Windows Media Player and enabling subtitles no longer results in the playback of the DVD flashing. Further details can be found in topic number 737-28417
* The button sizes found in the Catalyst™ Control Center (Japanese version) are no longer displayed as different sizes than the previous versions of the Catalyst™ Control Center. Further details can be found in topic number 737-28432
* The Avivo preview video no longer appears blank when changing from extended desktop mode to single desktop mode. Further details can be found in topic number 737-28433
* The SuperAA values found in the Catalyst™ Control Center->All Setting->3D aspect page are no longer reset to zero when rebooting the system. Further details can be found in topic number 737-28434
* Catalyst™ Control Center: Connecting a secondary display device no longer results in the display device failing to be selected in all of the aspect pages of the Catalyst™ Control Center where the Graphics Adapter drop down menu exists. Further details can be found in topic number 737-28435
* The select a skin aspect page found in the Catalyst™ Control Center is now localized for all supported languages. Further details can be found in topic number 737-28438
* Making changes to the Avivo aspect, but not applying the changes no longer results in OverDrive™ becoming unlocked. Further details can be found in topic number 737-28439
* Capturing video to AVI format no longer results in the recording function failing to work. Further details can be found in topic number 737-28440
* HDMI audio stutter is no longer heard when playing MPEG clip at certain resolutions on specific HDMI device. Further details can be found in topic number 737-28444
* The display resolution of 2048x1536 60Hz. is now available within the Catalyst™ Control Center. Further details can be found in topic number 737-28449
* The edges of the subtitles no longer appear transparent when playing a DVD using DVD 8.0 or Windows Media Player 11. Further details can be found in topic number 737-28450
* Playing HD DVD content followed by attempting to hot unplug a display device and then hot-plugging the same display device to a different port no longer results in the HD DVD playback failing to resume. Further details can be found in topic number 737-28451
* Catalyst™ Control Center: Attempting to change the Core clock settings within the OverDrive™ aspect no longer results in the new setting failing to be applied. Further details can be found in topic number 737-28452
* Connecting two display devices and performing a mode change no longer results in the change taking an extraordinary long time to complete. Further details can be found in topic number 737-28453
* Connecting a Lenovo 19" Wide Slim LCD display device to either an ATI Radeon™ HD 2600 or 2400 and setting the display resolution to 1440x900 60Hz. no longer results in an image failing to be displayed. Further details can be found in topic number 737-28454
* The cancel button is now translated to Chinese-Traditional within the ATI Catalyst™ Install Manager. Further details can be found in topic number 737-28457
* Connecting a secondary display device and enabling extended desktop mode no longer results in the Catalyst™ Control Center->Avivio Basic aspect options failing to be applied when watching a DVD using either WinDVD or PowerDVD on the secondary display device. Further details can be found in topic number 737-28458
* Setting the display resolution to 1600x1200 or 2048x1563 no longer results in line flicker being noticed when resizing the media player. Further details can be found in topic number 737-28462
* Blinking video is no longer observed when using PowerDVD to playback 1080i content in the 30 FPS mode. Further details can be found in topic number 737-28463
Resolved Issues for the Windows XP Operating System
This section provides information on resolved issues in this release of the ATI Catalyst™ Software Suite for Windows XP. These include:
* Call of Duty 2: Setting the in-game resolution to 640x480 no longer results in visual static and interrupted audio during cinematic and within the menus. Further details can be found in topic number 737-28468
* Google Earth: The fog is displayed in the image no longer has a checkered effect. Further details can be found in topic number 737-28467
* Neverwinter Nights: Shadows of Undrentide no longer exhibits missing textures on characters under some circumstances on some hardware configurations. Further details can be found in topic number 737-28471
* Enabling CrossFire™ on a system containing the Radeon™ HD2900 XT no longer results in an error message and CrossFire™ not being enabled. Further information can be found in topic number 737-28188
* Launching the release notes under the Japanese or Chinese version of Windows no longer results in the release notes displaying a blank page. This issue may also be experienced under the Windows Vista operating system. Further details can be found in topic number 737-26749
* Pixilated corruption is no longer observed while running the game Prey while hovering over the health packs from a distance on some hardware configurations running Win XP. Further details can be found in topic number 737-27091
* The system no longer become unresponsive when randomly moving the Video Player window from primary to extended desktop under certain hardware configurations. This issue was known to occur when the second adapter is an ATI Radeon™ X1200/1250/1270 series of product. Further details can be found in topic number 737-27092
* Corruption is no longer noticed when playing certain DVD titles when hardware acceleration is enabled on ATI Radeon™ HD 2900 XT product. Further details can be found in topic number 737-27624
* Connecting a TV using an S-video cable and a CRT display device using a dual VGA adapter cable no longer results in intermittent noise being observed when playing a video using the Windows Media Player or a DVD using PowerDVD. Further details can be found in topic number 737-28469
* Playing a Blu-ray or HD-DVD no longer results in corruption being noticed if several application windows are open and the application windows are dragged around the desktop. Further details can be found in topic number 737-28470
* Connecting an HDTV using the Component Video connector no longer results in a double image being noticed when pressing the ALT+Enter keys. Further details can be found in topic number 737-28473
* Jittering is no longer noticed in cinepak video playback when using the Windows Media Player and having the desktop resolution set to 1280x1024 75Hz or higher. Further details can be found in topic number 737-28474
Known Issues Under the Windows Vista Operating System
This section provides information on known issues associated with the ATI Catalyst™. These include:
* The default audio device may be set to ATI HD Audio after installation of the display driver for the ATI Radeon™ HD2900, HD2600, and HD2400. This issue may also be experienced under the Windows XP operating system. Further details can be found in topic number 737-28483
* 3DMark06: An error message may be displayed when running the application for an extended period of time (6-8 hours or more). Further details can be found in topic number 737-28494
* City of Heroes: Attempting to play the game on a system with a dual link panel connected to it may result in the Windows Vista operating system failing to respond. Further details can be found in topic number 737-28495
* Ghost Recon Advanced Warfighter: Pressing the Alt+Tab keys when playing the game may result in the Windows Vista operating system failing to respond. Further details can be found in topic number 737-28491
* Lost Planet: Setting AA to either 4x or 8x may result in the game failing to respond. Further details can be found in topic number 737-28492
* Resuming from an S3 state may result in a longer than expected time for the Windows Vista operating system to resume. Further details can be found in topic number 737-25798
* Hot-plugging a CRT to a system running Windows Vista and containing an ATI Radeon™ X1100/1150 series of product may result in extended desktop mode failing to be applied. Further details can be found in topic number 737-25801. This issue is resolved in Catalyst™ 7.8
* Enabling CrossFire™ followed by disconnecting and then reconnecting the CRT display device may result in duplicate video options being seen within the Catalyst™ Control Center. Further details can be found in topic number 737-27457. This issue is resolved in Catalyst™ 7.8
* Catalyst™ Control Center->OverDrive™: The OverDrive™ setting are not retained for individual accounts. This issue may also be experienced under the Windows Vista operating system. Further details can be found in topic number 737-25805
* Enabling CrossFire™ followed by setting AA to 14x and AF to 16x may result in the AA showing a setting of 0x level when disabling CrossFire™ and unchecking the AA option in the 3D aspect. Further details can be found in topic number 737-27458. This issue is resolved in Catalyst™ 7.8
* Making changes to the Color aspect found in the Catalyst™ Control Center without applying the changes may result in the Reactivate ATI color controls button remaining active after the Catalyst™ Control Center is closed and then re-launched. Further details can be found in topic number 737-27459. This issue is resolved in Catalyst™ 7.8
* The Record function currently fails to work when using an ATI All-In-Wonder X1300 and time shifting is enabled. Further information can be found in topic number 737-22014
* A blank screen may be displayed after unchecking all the Component Video formats except when the 480i30 custom mode is applied. Further details can be found in topic number 737-27620
* Enabling CrossFire™ followed by setting the OverDrive™ clocks to their maximum settings may result in the Catalyst™ Control Center failing to accurately report the requested OverDrive™ values. Further details can be found in topic number 737-27621. This issue is resolved in Catalyst™ 7.8
* A green or black screen may be displayed when configuring MCE to ATSC mode. Further details can be found in topic number 737-27622
* Setting the Avivo Video De-interlacing setting to auto, motion adaptive or vector adaptive may result in certain DVDs, menu videos and some special features failing to benefit from the options. Further details can be found in topic number 737-27196
* The Enable ATI OverDrive™ clocks for 3d applications may be available on non supported products such as the ATI Radeon™ HD 2600 series of product. This issue may also be experienced under the Windows XP operating system. Further details can be found in topic number 737-28477
* Performing an un-install of the display drivers on a CrossFire™ configured system may result in extended desktop mode becoming active resulting in all of the desktop icons failing to appear. Further details can be found in topic number 737-28478
* Catalyst™ Control Center->3D->Anti-Aliasing: Unchecking the option to Use Application Setting found in the 3D aspect page when CrossFire™ is enabled may result in the maximum AA setting being 6x. This issue may also be experienced under the Windows XP operating system. Further details can be found in topic number 737-28479
* Performing either a custom or express install of the display driver may result in the system failing to respond and the installation of the driver failing. This issue is known to occur when using an ATI Radeon™ X1950 CrossFire™ Edition product installed on in a system containing an Intel975 and nForce590. Further details can be found in topic number 737-28481
* The 3D aspect may appear blank when launching a second instance of the Catalyst™ Control Center™. This issue may also be experienced under the Windows XP operating system. Further details can be found in topic number 737-28482
* HDMI audio stutter may be heard when playing MPEG clip at certain resolutions on specific HDMI device. Further details can be found in topic number 737-28484
* The color depth may change to 8bpp when enabling or disabling CrossFire™ for the first time. Further details can be found in topic number 737-28485
* Connecting a TV followed by removing the display resolution of 640x480 from the mode table may result in the both the TV and LCD failing to display an image. Further details can be found in topic number 737-28490
* The Catalyst™ Control Center version number may fail to be updated after the installation of a newer Catalyst™ Control Center. Further details can be found in topic number 737-28493
* Dragging player window to secondary display while playing back HD content and moving it back to primary may result in blank player window. Further details can be found in topic number 737-28496
* Windows Media Player: Playing a DVD in full screen mode may result in vertical bar corruption being noticed during playback. Further details can be found in topic number 737-28497
Known Issues Under the Windows XP Operating System
The following section provides a summary of open issues in the latest version of Catalyst™. These include:
* City of Heroes: A fatal error message may be displayed when exiting the game and attempting to launch the Catalyst™ Control Center™ in Advanced mode. Further details can be found in topic number 737-28514
* Star Wars knights of the Old Republic 2: Corruption may be seen when running the game when using an ATI Radeon™ Xpress 1200/1250/1300 series of products. Further details can be found in topic number 737-28518
* Enabling CrossFire™ may result in display corruption being noticed when playing a DVD or media clip using either WinDVD 7, Windows Media Player or PowerDVD 6. Further details can be found in topic number 737-22806
* Catalyst™ Control Center->OverDrive™: The OverDrive™ setting are not retained for individual accounts. This issue may also be experienced under the Windows Vista operating system. Further details can be found in topic number 737-25805
* Connecting two display devices to an ATI Radeon™ X1600 series product may result in the device manager failing to detect the secondary display device. Further information may be found in topic number 737-21266
* PowerDVD: Playing a DVD on a system containing an ATI Radeon™ HD 2400 series of product may result in missing pixels being noticed on the DVD menu selection. Further details can be found in topic number 737-28511
* Catalyst™ Control Center™: The CrossFire™ aspect may inadvertently be visible while in dual adapter mode. Further details can be found in topic number 737-28512
* Installing the Catalyst™ Control Center on a previously installed version may results in a warning message that the setup is installing over an earlier version, and that the previous version needs to be uninstalled before installing a more current version, resulting in the Catalyst™ Control Center failing to be installed. Further details can be found in topic number 737-28513
* On certain products playing back VC-1 and H.264 content with display resolution set at 1360x768 or higher may result in screen flashing. Further details can be found in topic number 737-28515
* On certain products, dragging player window from primary to secondary display no longer results in hardware acceleration being disabled which resulted in the CPU usage increasing. Further details can be found in topic number 737-28516
* With some h.264 titles that have MPEG2 introductions; playback may switch from hardware accelerated to software once the introductory content is finished. Further details can be found in topic number 737-28517
questo è il Release Note
Scusami cosa sarebbe di preciso?
E' l'altro tipo di filtro creato da ATi (oltre al tent filter, che era già stato attivato via driver) per ottenere un anti-aliasing più accurato con minore dispendio di risorse. Sarà interessante confrontarlo a livello qualitativo con il CSAA di nVidia.
Per un rapido recap sui filtri AA ti consiglio di leggerti questo mio post (http://www.hwupgrade.it/forum/showpost.php?p=17426315&postcount=4031). ;)
Tidus.hw
19-07-2007, 20:57
ragazzi sto cercando di togliere il dissipatore ma non riesco.. :asd:
allora, ho svitato le 2 viti sulla parte frontale più quelle che tengono la placca nera che ricopre la ram, il dissipatore si muove ma non si stacca... devo staccare anche le 4 che tengono il dissi della gpu??
Iantikas
19-07-2007, 21:03
wow pare ke abbiano ottimizzato parekkie cose questa volta...ora li scarico e li provo...
...cmq x quanto riguarda il dissi 2/3 hp nn penso la differenza sia abbissale...
...catan x es. fa 72° in full col dissi a 2hp...io ne faccio 71° col dissi a 3 hp...quindi probabilmente stiamo li...
...x ki fa + di 80° magari è la pasta ke è messa male...oppure può pure essere ke nel case c'è poco ricircolo d'aria nella zona della skeda video e/o fa un caldo infernale dove vive...
...proprio l'altro giorno kiakkeravo con un utente sulle temp e lui c'è l'aveva parekkio + alte ma c'aveva anke 35° nella stanza contro i 26° da me (è 9° in + sulla stanza son x forza d cose 9° in + sulla skeda)...ciao
Iantikas
19-07-2007, 21:06
ragazzi sto cercando di togliere il dissipatore ma non riesco.. :asd:
allora, ho svitato le 2 viti sulla parte frontale più quelle che tengono la placca nera che ricopre la ram, il dissipatore si muove ma non si stacca... devo staccare anche le 4 che tengono il dissi della gpu??
nn l'ho ancora tolto ma penso devi x forza toglierle tutte le viti prima d staccare il dissi...(se anke in quel caso fatica a venirsene può essere ke c'è un casino di pasta e se appiccicato...cmq se fai un pò d forza in + nn penso ke se ne viene il core :stordita: )...ciao
Tidus.hw
19-07-2007, 21:10
tolto, la passa è messa davvero da far schifo, ci sarà l'equivalente di mezzo tubetto di artic silver ._.
ora metto la pasta nuova, ho della artic silver 5 o della pasta in ceramica della zalman, voi che mi consigliate?
Iantikas
19-07-2007, 21:13
tolto, la passa è messa davvero da far schifo, ci sarà l'equivalente di mezzo tubetto di artic silver ._.
ora metto la pasta nuova, ho della artic silver 5 o della pasta in ceramica della zalman, voi che mi consigliate?
sulla gpu la AS5 c sta proprio da dio...col fatto ke è perfettamente piatto e a spekkio ne stendi un filino e poi con la pressione del dissi se ne va via tutto ke quando lo stakki ti rimane giusto giusto l'impronta del markio ati ke è ruvido...ciao
SenderoLuminoso
19-07-2007, 21:14
ragazzi sto cercando di togliere il dissipatore ma non riesco.. :asd:
allora, ho svitato le 2 viti sulla parte frontale più quelle che tengono la placca nera che ricopre la ram, il dissipatore si muove ma non si stacca... devo staccare anche le 4 che tengono il dissi della gpu??
Devi staccare le 8 viti mi pare che tengono la palcca pe ril raffreddamento delle ram quella nera, e le 4 vitine dietro alla scheda che danno maggiore aderenza al dissi (quella x in metallo con 4 vitine piccole) devi togliere tutte le viti.
Hanno attivato anche l'edge detect filter. ;)
ora bisogna solo vederlo all'opera :)
chi fà una bella prova 12x e 24x di Edge AA? :stordita:
ora bisogna solo vederlo all'opera :)
chi fà una bella prova 12x e 24x di Edge AA? :stordita:
e cosa dovrebbe dare questo nuovo AA?
e cosa dovrebbe dare questo nuovo AA?
Non si sà il funzionamento, provatelo voi che potete e ditecelo :boh:
e cmq con l'Edge AA si può arrivare fino a 24x!
TecnoWorld8
19-07-2007, 21:37
qualcuno ha provato i nuovi drivers?
webbuffa
19-07-2007, 21:39
:mad: Raga non va il link per il download del control center in italiano... qualcuno può aiutarmi ?
Bye :)
Non si sà il funzionamento, provatelo voi che potete e ditecelo :boh:
e cmq con l'Edge AA si può arrivare fino a 24x!
allora le prestazioni senza nell'unigine con attivo Edge a 24x sono molto basse, dal normale AA si perdono circa il 40% di prestazioni, in compenso la scalettatura dei pixel praticamente scompare! nn posso fare screen perchè uso una tastiera apple, e nn ho voglia di cercare un programma che mi facci screen, cmq se vi fidate della mia parola, le prestazioni sono un po' basse, ma la qualità dell'immagine è impressionante:D
Tidus.hw
19-07-2007, 21:41
fatto, ho rimontato la scheda e ho lanciato un 3dmark2006, quando finisce vi dico la temperatura... fate conto però che la temperatura ambiente è altina, sui 30 gradi.. >.<
allora nn voglio sparare nulla, anche se prima nell'unigine ho vbisto una cosa che mi ha impressionato, cmq 5 min che faccio il test in 3dmark 06, senza aa, con aa 16x e uno con gli altri filti
Tidus.hw
19-07-2007, 21:48
ragazzi, ho appena fatto un 3dmark con la ventola staccata ._.
stavo allegramente dicendo "oh ma quanto silenziosa è diventata la vga!"
quando andando a vedere i grafici di riva tuner mi accorsi che la ventola era spenta e la temperatura si aggirava intorno ai 100 gradi ._.
la scheda era in protezione coi voltaggi del 2d... ._.
babba mia che scemo >.<
allora ho fatto i test con 3DMark06 su Windows XP 32bit SP2
li ho eseguiti solo su uno scenario, il Canyon Flight (per questioni di tempo) a 1280x1024 e qusti sono i risultati:
Test 1 no AA no Anisotropic: 45.490 fps
Test 2 AA 8x (è il max per 3dmark) no Anisotropic: 30.003 fps
Test 3 no AA Anisotropic 16x: 38.048 fps
Test 4 AA 8x Anisotropic 16x: 25.530 fps
siccome ho appena cambiato cpu avevo fatto dei test proprio l'altro ieri (martedì) e ricordo che con i 7.6 + l'hotfix (sotto Win XP 32bit, visto che ho ancora problemi di prestazioni e nn riesco a mettere vista :cry:) con AA + Anisotropic arrivavo circa a 20, e con AA a circa 26/27, quindi c'è stato un aumeto di prestazioni (nn scannatemi se per caso nn avete anche voi i miei valori). per il resto menomale che hanno modificato il pannello nei cata dell'avivo ora è più bello
:mad: Raga non va il link per il download del control center in italiano... qualcuno può aiutarmi ?
Bye :)
già, dice file not found
già, dice file not found
anche a me da così, infatti ho messo la versione inglese;) poi siccome nn è tanto grande in tanto scarica quella e poi quella in ita;) ;)
:mad: Raga non va il link per il download del control center in italiano... qualcuno può aiutarmi ?
Bye :)
già, dice file not found
io li ho scaricati e installati e non ho avuto problemi, scaricava a 200kb/s :boh:
webbuffa
19-07-2007, 22:25
anche a me da così, infatti ho messo la versione inglese;) poi siccome nn è tanto grande in tanto scarica quella e poi quella in ita;) ;)
:eek: Se scarico quella in ing :| dice ASIAN :| LOL!! mi fido ?
Tidus.hw
19-07-2007, 22:27
allora... ho appena fatto il 3dmark con la pasta nuova :D
scheda a 830/1900
con la artic silver 89° ventola al 37%
con la pasta stock invece ero al limite, 95° ventola 47%
temperatura ambiente 30° circa.
Ho guadagnato 6 gradi con la ventola che va più piano :D
allora... ho appena fatto il 3dmark con la pasta nuova :D
scheda a 830/1900
con la artic silver 89° ventola al 37%
con la pasta stock invece ero al limite, 95° ventola 47%
temperatura ambiente 30° circa.
Ho guadagnato 6 gradi con la ventola che va più piano :D
driver?
:eek: Se scarico quella in ing :| dice ASIAN :| LOL!! mi fido ?
a me nn dice nulla di tutto ciò, cmq se vuoi essere sicuro il pacchetto pesa 35,0MB precisi
webbuffa
19-07-2007, 22:35
a me nn dice nulla di tutto ciò, cmq se vuoi essere sicuro il pacchetto pesa 35,0MB precisi
:) Purtroppo ho già installato driver e wdm separatamente e mi sono accorto che il ccc non era in ita... quindi aspetto domani che il link funzioni, non vorrei disinstallare di nuovo i driver 8|
Buon testing e notte a tutti :D
:D :cool:
allora... ho appena fatto il 3dmark con la pasta nuova :D
scheda a 830/1900
con la artic silver 89° ventola al 37%
con la pasta stock invece ero al limite, 95° ventola 47%
temperatura ambiente 30° circa.
Ho guadagnato 6 gradi con la ventola che va più piano :D
curiosità la tua pasta va bene anche per la cpu?
dalle screen che ho visto R600 è imbrattato in una maniera mostruosa di pasta termoconduttiva, con cosa l'hai pulito? e quanta ne hai messa? (scusa ma nn l'ho mai fatto)
:) Purtroppo ho già installato driver e wdm separatamente e mi sono accorto che il ccc non era in ita... quindi aspetto domani che il link funzioni, non vorrei disinstallare di nuovo i driver 8|
Buon testing e notte a tutti :D
:D :cool:
ok, a domani
chi ha provato a tirare al max in OC la scheda con ventola al 100%? a che frequenze rimane stabile?
scaricati i 7.7 ora li installo e parto con i test :asd: che dureranno tutta la notte :D :sofico:
allora ho fatto i test con 3DMark06 su Windows XP 32bit SP2
li ho eseguiti solo su uno scenario, il Canyon Flight (per questioni di tempo) a 1280x1024 e qusti sono i risultati:
Test 1 no AA no Anisotropic: 45.490 fps
Test 2 AA 8x (è il max per 3dmark) no Anisotropic: 30.003 fps
Test 3 no AA Anisotropic 16x: 38.048 fps
Test 4 AA 8x Anisotropic 16x: 25.530 fps
siccome ho appena cambiato cpu avevo fatto dei test proprio l'altro ieri (martedì) e ricordo che con i 7.6 + l'hotfix (sotto Win XP 32bit, visto che ho ancora problemi di prestazioni e nn riesco a mettere vista :cry:) con AA + Anisotropic arrivavo circa a 20, e con AA a circa 26/27, quindi c'è stato un aumeto di prestazioni (nn scannatemi se per caso nn avete anche voi i miei valori). per il resto menomale che hanno modificato il pannello nei cata dell'avivo ora è più bello
mi auto quoto perchè pare che nussuno abbia visto i miei test:cry:
Tidus.hw
19-07-2007, 22:44
driver?
sempre i soliti, i 7.6 con gli hotfix, non ho ancora avuto tempo di cambiarli... :)
sempre i soliti, i 7.6 con gli hotfix, non ho ancora avuto tempo di cambiarli... :)
se riesci oggi o domani, prova a fare ingame due screen identici con l'Edge AA a 12x e a 24x, però devi necessariamente installare i 7.7 ;)
grazie :)
Salve a tutti ragazzi questa scheda mi piace davvero tanto e stavo facendo il pensiero di acquistarla .
Volevo chiedervi alcune cose prima di affrontare la spesa.
Innanzi tutto ho un alimentatore enermax liberty 500w c'è la faccio a farla partire??poi ho letto che è dotata di due connettori di alimentazione: accanto al tradizionale PCI Express a 6 pin c'è ne un'altro di 8 ;io sul mio ali ne ho 2 di 6 ;se ho capito bene parte lo stesso ma non mettendo quello di 8 cosa mi limita??
Il mio sistema è formato da processore AMD - ATHLON64 X2 4600 2.4GHZ EE
2 gb ram ocz ddr2 800 mhz scheda madre sapphire pure innovetion .
La risoluzione che intendo giocare è 1280*1024
Tidus.hw
19-07-2007, 23:15
curiosità la tua pasta va bene anche per la cpu?
dalle screen che ho visto R600 è imbrattato in una maniera mostruosa di pasta termoconduttiva, con cosa l'hai pulito? e quanta ne hai messa? (scusa ma nn l'ho mai fatto)
si la pasta va bene per qualuncue tipo di processore o gpu ^^
per pulirlo ho usato carta igenica e cottonfioc :asd:
con una goccia di alcol per pulire bene ;)
di pasta ne va messo uno strato sottile, quel tanto che basta per non vedere la gpu sotto :D deve essere messa in modo uniforme...
se riesci oggi o domani, prova a fare ingame due screen identici con l'Edge AA a 12x e a 24x, però devi necessariamente installare i 7.7 ;)
grazie :)
ok, se non lo fa qualcun'alro prima domani lo faccio io ^^
Salve a tutti ragazzi questa scheda mi piace davvero tanto e stavo facendo il pensiero di acquistarla .
Volevo chiedervi alcune cose prima di affrontare la spesa.
Innanzi tutto ho un alimentatore enermax liberty 500w c'è la faccio a farla partire??poi ho letto che è dotata di due connettori di alimentazione: accanto al tradizionale PCI Express a 6 pin c'è ne un'altro di 8 ;io sul mio ali ne ho 2 di 6 ;se ho capito bene parte lo stesso ma non mettendo quello di 8 cosa mi limita??
Il mio sistema è formato da processore AMD - ATHLON64 X2 4600 2.4GHZ EE
2 gb ram ocz ddr2 800 mhz scheda madre sapphire pure innovetion .
La risoluzione che intendo giocare è 1280*1024
allora, il tuo alimentatore va benissimo... l'unica cosa che non puoi fare se non hai il connettore a 8pin e' overclockare tramite il control center dei catalyst, ma puoi farlo con qualsiasi altro programma :)
3DMark79
19-07-2007, 23:20
mi auto quoto perchè pare che nussuno abbia visto i miei test:cry:
Se è così M4R1 siamo davvero sulla buona strada!:ubriachi:
Per quanto riguarda la pasta termo conduttiva io nella mia scheda
(X800GTO2) quando la smontai la pulii con un pò di alchol e un pò di carta o cotone fai tu.Di pasta ne devi mettere proprio un velo e lo spalmi con il dito a forma di cerchio è assicurati che sia coperto tutto la GPU.L'importante fare molta attenzione e delicatezza.
PS:Qualcuno a provato la pasta termoconduttiva della Mahattan?O SPIRE STARS-700?
Sono migliore di quella originale della HD2900XT, qui hanno solo queste?:(
scaricati i 7.7 ora li installo e parto con i test :asd: che dureranno tutta la notte :D :sofico:
Riusciresti a fare qualche screenshot di qualche gioco che hai con l'AA normale, coi tent filter e con l'edge detection filter? Così confrontiamo la qualità dell'immagine. :)
Riusciresti a fare qualche screenshot di qualche gioco che hai con l'AA normale, coi tent filter e con l'edge detection filter? Così confrontiamo la qualità dell'immagine. :)
non so di cosa parli... edge detection filter? cos'è ? :doh:
io tra i filtri disponibili ho solo:
Box
Narrow-tent
Wide-tent
altri non ce ne sono
edit: trovato bisognava impostare almeno il filtro a 4x
faccio dei screen
non so di cosa parli... edge detection filter? cos'è ? :doh:
io tra i filtri disponibili ho solo:
Box
Narrow-tent
Wide-tent
altri non ce ne sono
edit: trovato bisognava impostare almeno il filtro a 4x
faccio dei screen
E' un nuovo tipo di AA che è stato introdotto con i 7.7.
La tecnica dovrebbe essere abbastanza innovativa, e nessuno sa ancora bene come funzioni: però dovrebbe dare una migliore qualità dell'immagine. :)
Servirebbe una comparativa, tipo AA4x normale (Box filter), AA4x con tent filter (wide e narrow), AA4x edge filter.
edit: trovato bisognava impostare almeno il filtro a 4x
faccio dei screen
a 4x abiliti l'edge a 12x, a 8x abiliti l'edge a 24x ;)
si la pasta va bene per qualuncue tipo di processore o gpu ^^
per pulirlo ho usato carta igenica e cottonfioc :asd:
con una goccia di alcol per pulire bene ;)
di pasta ne va messo uno strato sottile, quel tanto che basta per non vedere la gpu sotto :D deve essere messa in modo uniforme...
Se è così M4R1|< siamo davvero sulla buona strada!:ubriachi:
Per quanto riguarda la pasta termo conduttiva io nella mia scheda
(X800GTO2) quando la smontai la pulii con un pò di alchol e un pò di carta o cotone fai tu.Di pasta ne devi mettere proprio un velo e lo spalmi con il dito a forma di cerchio è assicurati che sia coperto tutto la GPU.L'importante fare molta attenzione e delicatezza.
PS:Qualcuno a provato la pasta termoconduttiva della Mahattan?E' migliore di quella originale della HD2900XT,qui hanno solo questa?:(
ok grazie per i consigli! se la cambierò cercherò di fare il più piano possibile anche perchè se la porto all'assistenza col die rotto mi ridono in faccia
E' un nuovo tipo di AA che è stato introdotto con i 7.7.
La tecnica dovrebbe essere abbastanza innovativa, e nessuno sa ancora bene come funzioni: però dovrebbe dare una migliore qualità dell'immagine. :)
Servirebbe una comparativa, tipo AA4x normale (Box filter), AA4x con tent filter (wide e narrow), AA4x edge filter.
raga, pessime notizie, ho fatto i screen giocando a half life 2, tra antialias normale a8x e wide tent a 16x si nota una grande differenza... mentre non c'è assolutamente differenza tra l'antialias normale e il edge detection (apparte un abbassamento clamoroso dei fps)... se volete vi posto i screen, ma rimarrete un po delusi... forse bisognava riavviare il pc tra un filtro e l'altro?
raga, pessime notizie, ho fatto i screen giocando a half life 2, tra antialias normale a8x e wide tent a 16x si nota una grande differenza... mentre non c'è assolutamente differenza tra l'antialias normale e il edge detection (apparte un abbassamento clamoroso dei fps)... se volete vi posto i screen, ma rimarrete un po delusi... forse bisognava riavviare il pc tra un filtro e l'altro?
Uhm, il confronto forse dovresti farlo tra AA4x normale e AA4x+edge filter (cioè CFAA12x, se non sbaglio). :fagiano:
Il MSAA8x (=AA8x "normale") dovrebbe comunque essere meglio di qualunque AA4x più filtro. ;)
raga, pessime notizie, ho fatto i screen giocando a half life 2, tra antialias normale a8x e wide tent a 16x si nota una grande differenza... mentre non c'è assolutamente differenza tra l'antialias normale e il edge detection (apparte un abbassamento clamoroso dei fps)... se volete vi posto i screen, ma rimarrete un po delusi... forse bisognava riavviare il pc tra un filtro e l'altro?
nn credo proprio, cmq prova a riavviare il game tra un filtro e l'altro. cmq io nell'unigine a risoluzioni sopra il 1600x1200 vedevo un netto miglioramento dei pixel a differenza del classico AA, certo però poi facevo 10 fps:muro:
Grazie per la risposta Tidus.hw :)
Tidus.hw
20-07-2007, 00:01
ho provato anche io a fare il test canyon del 3dmark2006 con i cat. 7.7
i risultati sono un po' strani, forse sono solo cpu limited ._.
no aa -> 49.7
box 4x -> 49.0
edge 4x (12x) -> 44.6
ho ripetuto i test 2 volte ognuno... bah.
edit: scheda a 830/1900
3DMark79
20-07-2007, 00:09
ok grazie per i consigli! se la cambierò cercherò di fare il più piano possibile anche perchè se la porto all'assistenza col die rotto mi ridono in faccia
Ascolta M4R1 evita di utilizzare il dito per spalmarla anche se io l'ho usato boh,l'ho letto qui::read:
http://www.pcsilenzioso.it/forum/showthread.php?t=399
niente da fare... ho pure riavviato, addirittura ora non mi applica + i filtri anche mettendo wide tend a 16x, e come se non fosse abilitato, restano le scalettature.. uff
raga, pessime notizie, ho fatto i screen giocando a half life 2, tra antialias normale a8x e wide tent a 16x si nota una grande differenza... mentre non c'è assolutamente differenza tra l'antialias normale e il edge detection (apparte un abbassamento clamoroso dei fps)... se volete vi posto i screen, ma rimarrete un po delusi... forse bisognava riavviare il pc tra un filtro e l'altro?
credo semplicemente che l'occhio umano ad un certo livello non riesca + a distinguere la riduzione delle scalettature.
sopratutto a grandi risoluzioni.
mentre invece tu parli di differenza tra aa box e aa edge forse hl2 non supporta questo tipo di aa?
Ascolta M4R1 evita di utilizzare il dito per spalmarla anche se io l'ho usato boh,l'ho letto qui::read:
http://www.pcsilenzioso.it/forum/showthread.php?t=399
LOL ha anche scritto: <<evitate il metoto Dito!>> be cmq nn avevo pensato di spalmarlo con la carta di credito (tanto è sempre a zero:cry: :D )
credo semplicemente che l'occhio umano ad un certo livello non riesca + a distinguere la riduzione delle scalettature.
sopratutto a grandi risoluzioni.
mentre invece tu parli di differenza tra aa box e aa edge forse hl2 non supporta questo tipo di aa?
però c'è un notevole calo di prestazioni, anche se nn implica perforza che lo applichi, però....
cmq credo (per le prestazioni) che ati nn lanci un prodotto che può sfruttare una caratteristica senza però poi utilizzarla, per le prestazioni molto basse, secondo me è solo una questione di driver :sperem:
qualcuno che abbia win xp faccia un paio di prove... xke io ho solo half life 2 installato :doh: (ho appena formattato)
Tidus.hw
20-07-2007, 01:02
LOL ha anche scritto: <<evitate il metoto Dito!>> be cmq nn avevo pensato di spalmarlo con la carta di credito (tanto è sempre a zero:cry: :D )
per spalmare la pasta io ho usato il plettro della chitarra, si va divinamente :asd:
sembra fatto a posta..
Tidus.hw
20-07-2007, 01:02
edit.. doppio post
Serata calda con l'uscita dei 7.7
:D :D :D
Allora, come vanno ?!?
appena arrivo a casa testo...:D
Quoziente
20-07-2007, 09:30
appena arrivo a casa testo...:D
Idem, spero in qualche miglioramento con DIRT...
Idem, spero in qualche miglioramento con DIRT...
guarda dirt io nn l'ho ancora installato, voglio provare lost planet e vedere se miglirora qualcosa.. è l'unico game ke mi scatta.. potrebbe anche essere un prob di cpu limited... il 3800x2 è diventato un catorcio :D
a giorni dovrebbero arrivare mobo e cpu e poi sicuramente avro dei miglioramenti ;)
voi ragazzi fate sapere di quanto sn migliorati i drivers ;)
per spalmare la pasta io ho usato il plettro della chitarra, si va divinamente :asd:
sembra fatto a posta..
si è vero:D cmq è molto difficile da togliere la scocca?
+Lonewolf+
20-07-2007, 10:34
cavolo...se stessi a casa proverei io i nuovi catalyst...:mad:
+Lonewolf+
20-07-2007, 10:40
non so se qualcuno se n'è accorto ma hanno fatto notevoli miglioramenti al cryengine:D:D:D
e guarda caso solo per la serie 2Xxx:rolleyes:
sento puzza di ottimizzazioni;)
Tidus.hw
20-07-2007, 10:44
si è vero:D cmq è molto difficile da togliere la scocca?
no no e' facile :)
non so se qualcuno se n'è accorto ma hanno fatto notevoli miglioramenti al cryengine:D:D:D
e guarda caso solo per la serie 2Xxx:rolleyes:
sento puzza di ottimizzazioni;)
speriamo abbia tirato fuori qualcosa di decente stavolta, almeno aggiorno subito i driver
Konrad76
20-07-2007, 11:07
speriamo abbia tirato fuori qualcosa di decente stavolta, almeno aggiorno subito i driver
Ciao Sefendi!!!!!!!!!
Ciao Sefendi!!!!!!!!!
giorno konrad
Quoziente
20-07-2007, 12:07
non so se qualcuno se n'è accorto ma hanno fatto notevoli miglioramenti al cryengine:D:D:D
e guarda caso solo per la serie 2Xxx:rolleyes:
sento puzza di ottimizzazioni;)
Speriamo che le ottimizzazioni valgano anche per il Cryengine 2...;)
Speriamo che le ottimizzazioni valgano anche per il Cryengine 2...;)
adesso spiegami come fanno a ottimizzare i driver per il CE2 quando non si vedono ancora in giro giochi che lo usano :mbe:
Quoziente
20-07-2007, 12:14
adesso spiegami come fanno a ottimizzare i driver per il CE2 quando non si vedono ancora in giro giochi che lo usano :mbe:
:fiufiu:
Ma allora?? Nessuno ancora ha testato sti benedetti cata 7.7?
Sto seriamente valutando se cambiare la mia fida 8800 320.... Forza su! Voglio i bench! :P
TecnoWorld8
20-07-2007, 12:56
Ma allora?? Nessuno ancora ha testato sti benedetti cata 7.7?
Sto seriamente valutando se cambiare la mia fida 8800 320.... Forza su! Voglio i bench! :P
secondo me, a meno di non riuscire a vendere "benissimo" la tua scheda, non ti conviene proprio cambiarla in favore della 2900. infatti quest'ultima è sicuramente più performante, ma non così tanto da giustificare una spesa di circa 200€...
secondo me, a meno di non riuscire a vendere "benissimo" la tua scheda, non ti conviene proprio cambiarla in favore della 2900. infatti quest'ultima è sicuramente più performante, ma non così tanto da giustificare una spesa di circa 200€...
al massimo di 100/150...200€ mi pare un po' troppo, visto che le 2900 si trovano a 350€ e le GTS 320 a 255€ ;)
cmq imho non gli conviene cambiare
3DMark79
20-07-2007, 13:19
LOL ha anche scritto: <<evitate il metoto Dito!>> be cmq nn avevo pensato di spalmarlo con la carta di credito (tanto è sempre a zero:cry: :D )
Cmq imho il dito lo puoi anche usare basta che lo avvolgi nel domopack.:)
Con i 7.7 e col crossfire ,su xp attivando i filtri da pannello di controllo non me li applica sul 3dmark.Con aa x4 e x8 non li attiva e con aa x12 mi fa andare 1 scheda sola,e naturalmente senza filtri.
Altra cosa . A 1280x1024 il cross funzia con 3dmark, a 1680x1050 non funzia e torna a d 1 scheda , pur avendolo abilitato da CCC.
Qualcuno sa darmi qualche consiglio in merito?
Di strada da fare c e ne tanta tanta da fare nel lato driver e sono fiducioso che in un prossimo futuro ste schede spaccano il mondo.
Sperem
Curiosità sul canyon flight sono passato con aa x8 forzato da 3dmark da 48.8 a 57,4 fps .
Con scheda singlola sono sui 29,2.
Rulla di brutto sto crossfire con i filtri.Si ha quasi il raddoppio.
Le vga sono a defoult
nico88desmo
20-07-2007, 16:03
Ma allora?? Nessuno ancora ha testato sti benedetti cata 7.7?
Sto seriamente valutando se cambiare la mia fida 8800 320.... Forza su! Voglio i bench! :P
Aspetta la prossima generazione di schede video.
Non ti conviene cambiare scheda, quella che hai è più che buona!
3DMark79
20-07-2007, 16:09
Con i 7.7 e col crossfire ,su xp attivando i filtri da pannello di controllo non me li applica sul 3dmark.Con aa x4 e x8 non li attiva e con aa x12 mi fa andare 1 scheda sola,e naturalmente senza filtri.
Altra cosa . A 1280x1024 il cross funzia con 3dmark, a 1680x1050 non funzia e torna a d 1 scheda , pur avendolo abilitato da CCC.
Qualcuno sa darmi qualche consiglio in merito?
Di strada da fare c e ne tanta tanta da fare nel lato driver e sono fiducioso che in un prossimo futuro ste schede spaccano il mondo.
Sperem
Curiosità sul canyon flight sono passato con aa x8 forzato da 3dmark da 48.8 a 57,4 fps .
Con scheda singlola sono sui 29,2.
Rulla di brutto sto crossfire con i filtri.Si ha quasi il raddoppio.
Le vga sono a defoult
In parole povere in % i 7.7. con gli ultimissimi giochi con singola scheda hai avuto prestazioni degne di rilievo oltre i 10 frame in più al 3DMark nel canyon? :rolleyes:
In parole povere in % i 7.7. con gli ultimissimi giochi con singola scheda hai avuto
prestazioni degne di rilievo?Oltre i 10 frame in più al 3D :rolleyes:
ne parlano qua http://www.hwupgrade.it/forum/showthread.php?p=17999119#post17999119
TecnoWorld8
20-07-2007, 16:21
al massimo di 100/150...200€ mi pare un po' troppo, visto che le 2900 si trovano a 350€ e le GTS 320 a 255€ ;)
cmq imho non gli conviene cambiare
tu pagheresti 200/250€ per una scheda usata che ne costa 255€ nuova? perchè solo in quel caso (vendendola a quel prezzo) lui potrebbe farsi la 2900 spendendo solo 100/150€ come dici tu ;)
io avevo ipotizzato una vendita della GTS a 150€ circa e un acquisto della 2900 a 350€, quindi 200€ di differenza. diciamo, al meglio, che secondo me potrebbe vendere la sua sui 180€, ma di più mi pare difficile!
tu pagheresti 200/250€ per una scheda usata che ne costa 255€ nuova? perchè solo in quel caso (vendendola a quel prezzo) lui potrebbe farsi la 2900 spendendo solo 100/150€ come dici tu ;)
io avevo ipotizzato una vendita della GTS a 150€ circa e un acquisto della 2900 a 350€, quindi 200€ di differenza. diciamo, al meglio, che secondo me potrebbe vendere la sua sui 180€, ma di più mi pare difficile!
200€ per una GTS, si ;)
+Lonewolf+
20-07-2007, 16:26
giorno konrad
ciao safendi, spero che io e te abbiamo risolto i vecchi rancori:)
mi fa piacere vederti discutere qui dentro:)
TecnoWorld8
20-07-2007, 16:28
200€ per una GTS, si ;)
io forsi li pagherei per una gts 320 nuova, non usata...consideriamo che a 305 si trova la GTS 640MB, ormai :) che a quel prezzo, secondo me ha un rapporto prestazioni/prezzo forse anche migliore di una hd2900xt...
3DMark79
20-07-2007, 16:55
ne parlano qua http://www.hwupgrade.it/forum/showthread.php?p=17999119#post17999119
Grazie,ma non mi sembra un gran risultato su 3Dmark06 su Vista 64bit.
Possibile ci sia tutta questa differenza con XP?:confused:
Grazie,ma non mi sembra un gran risultato su 3Dmark06 su Vista 64bit.
Possibile ci sia tutta questa differenza con XP?:confused:
io ora con nvidia e gli ultimi driver usciti la differenza tra xp e vista 64 è nulla, anzi a volte va di + lost planet dx10 di dx9, almeno a 1680x1050 è così
appleroof
20-07-2007, 17:03
io ora con nvidia e gli ultimi driver usciti la differenza tra xp e vista 64 è nulla
quoto
Scrambler77
20-07-2007, 17:14
io ora con nvidia e gli ultimi driver usciti la differenza tra xp e vista 64 è nulla, anzi a volte va di + lost planet dx10 di dx9, almeno a 1680x1050 è così
Come volevasi dimostrare "illo tempore"... ;)
3DMark79
20-07-2007, 17:28
io ora con nvidia e gli ultimi driver usciti la differenza tra xp e vista 64 è nulla, anzi a volte va di + lost planet dx10 di dx9, almeno a 1680x1050 è così
Sicuramente meglio così.Come al solito: diamo tempo ad ATi!:(
ale0bello0pr
20-07-2007, 17:44
Sicuramente meglio così.Come al solito: diamo tempo ad ATi!:(
che verrà mangiata da Samsung...e così il mondo fini in mano di GOOGLE-SAMSUNG-MICROSOFT e la terza guerra mondiale ha inizio.....:ciapet:
fustacchione90
20-07-2007, 17:53
hey raga...ieri notte n sapevo cosa faree ho guardato i video dx9 vs d10 di crysis : sono rimasto scioccato :Prrr: :Prrr: :banned: :ciapet: :oink:
il mio pc è quello in firma....che prendo una 2900 xt o lascio così?
p.s. l idea mi è venuta sapendo anchee che ut3 è in sviluppo pure in dx10...
3DMark79
20-07-2007, 18:40
hey raga...ieri notte n sapevo cosa faree ho guardato i video dx9 vs d10 di crysis : sono rimasto scioccato :Prrr: :Prrr: :banned: :ciapet: :oink:
il mio pc è quello in firma....che prendo una 2900 xt o lascio così?
p.s. l idea mi è venuta sapendo anchee che ut3 è in sviluppo pure in dx10...
A meno che tu non riesca a venderla ad un ottimo prezzo non penso di convenga tanto!
Attendi sviluppi dopo l'estate.
fustacchione90
20-07-2007, 18:40
180€ l ho piazzata...aspetto solo consigli x venderla o no ^^
3DMark79
20-07-2007, 18:44
180€ l ho piazzata...aspetto solo consigli x venderla o no ^^
Non so il valore effettivo di quella tua,quanto costa ora nuova?Calcola che dovresti aggiungere un altro tanto per acquistarla.
fustacchione90
20-07-2007, 18:47
dovrei aggiungere circa 200€...e la mia la vendono sui 280€-320€....allur? :D :D
dovrei aggiungere circa 200€...e la mia la vendono sui 280€-320€....allur? :D :D
Ragazzi c'è la sezione consigli per gli acquisti direi l'ideale per fare certe richieste ;)
3DMark79
20-07-2007, 18:53
dovrei aggiungere circa 200€...e la mia la vendono sui 280€-320€....allur? :D :D
Spetta solo te decidere...calcola che cmq per adesso non ci sono titoli in DirectX10 se non dopo l'estate.
Certo se hai solo adesso l'opportunità di venderla,vendila visto che sicuramente appena si stabilizzeranno le schede in D10 sicuramente diminuirà il suo valore.
Spetta te decidere.:D
MonsterMash
20-07-2007, 19:12
180€ l ho piazzata...aspetto solo consigli x venderla o no ^^
Io avevo la tua stessa scheda e un mese fa l'ho vendura a 150 euro. Per cui direi che il prezzo a cui sei riuscito a piazzarla è più che buono. La 2900xt la trovi a 350, quindi spendendo circa 170 euro ti porteresti a casa una scheda che doppia la tua attuale. Onestamente io il passaggio lo farei.
Ciao
Io avevo la tua stessa scheda e un mese fa l'ho vendura a 150 euro. Per cui direi che il prezzo a cui sei riuscito a piazzarla è più che buono. La 2900xt la trovi a 350, quindi spendendo circa 170 euro ti porteresti a casa una scheda che doppia la tua attuale. Onestamente io il passaggio lo farei.
Ciao
quoto :mano:
scusate sono stato via un pò di tempo...ero rimasto all'uscita dei CATs 7.5,sono migliorate le prestazioni con i 7.7?
webbuffa
20-07-2007, 19:41
scusate sono stato via un pò di tempo...ero rimasto all'uscita dei CATs 7.5,sono migliorate le prestazioni con i 7.7?
:asd: Si e di molto.
allura, ho fatto un paio di screenshot di oblivion con filtro antialias 4x e edge detection attivato a 12x
il risultato non è malaccio :p
http://img512.imageshack.us/img512/833/oblivion200707202039412dv2.th.jpg (http://img512.imageshack.us/my.php?image=oblivion200707202039412dv2.jpg)
http://img512.imageshack.us/img512/9338/oblivion200707202041273on5.th.jpg (http://img512.imageshack.us/my.php?image=oblivion200707202041273on5.jpg)
gli screen non rendono molto sfortunatamente, però la qualità c'è, non ho il tempo però di fare una comparativa con i vari filtri.
davide155
20-07-2007, 19:48
Sono migliorate anche con l'aa attivato?
Miglioramenti significativi? Dove?
Con o senza aa?
Su che sistema? xp o vista?
scusate sono stato via un pò di tempo...ero rimasto all'uscita dei CATs 7.5,sono migliorate le prestazioni con i 7.7?
ovviamente :O
prova a salvare in .PNG, pesano più del jpg ma rendono :O
se riesci fai lo stesso identico screen con edge 12x e 24x
Tidus.hw
20-07-2007, 20:15
allura, ho fatto un paio di screenshot di oblivion con filtro antialias 4x e edge detection attivato a 12x
il risultato non è malaccio :p
http://img512.imageshack.us/img512/833/oblivion200707202039412dv2.th.jpg (http://img512.imageshack.us/my.php?image=oblivion200707202039412dv2.jpg)
http://img512.imageshack.us/img512/9338/oblivion200707202041273on5.th.jpg (http://img512.imageshack.us/my.php?image=oblivion200707202041273on5.jpg)
gli screen non rendono molto sfortunatamente, però la qualità c'è, non ho il tempo però di fare una comparativa con i vari filtri.
ehi snake sai dove posso trovare dei file di configurazione di oblivion gia' pompati???
fustacchione90
20-07-2007, 20:17
Io avevo la tua stessa scheda e un mese fa l'ho vendura a 150 euro. Per cui direi che il prezzo a cui sei riuscito a piazzarla è più che buono. La 2900xt la trovi a 350, quindi spendendo circa 170 euro ti porteresti a casa una scheda che doppia la tua attuale. Onestamente io il passaggio lo farei.
Ciao
bè allora visto k tu l avevi la xtx e 6 passato alla 2900, e mi dici k mi conviene, lo faccio al volo!!
thanks... ^^
fine semi ot :D :D :p
Io avevo la tua stessa scheda e un mese fa l'ho vendura a 150 euro. Per cui direi che il prezzo a cui sei riuscito a piazzarla è più che buono. La 2900xt la trovi a 350, quindi spendendo circa 170 euro ti porteresti a casa una scheda che doppia la tua attuale. Onestamente io il passaggio lo farei.
Ciao
Non credo proprio che una HD2900 XT doppia le prestazioni di una 8800 GTX, al massimo un +50% visto che l' unica che riesce a farlo è l' 8800 GTX ben più veloce. Va detto che ha margini di miglioramento che potrebbero portarla al raddoppio ma è un' affermazione poco oggettiva oggi. ;)
@ fustacchione90: aspetta il dieshrink autunnale, mia opinione.
appleroof
20-07-2007, 21:08
allura, ho fatto un paio di screenshot di oblivion con filtro antialias 4x e edge detection attivato a 12x
il risultato non è malaccio :p
http://img512.imageshack.us/img512/833/oblivion200707202039412dv2.th.jpg (http://img512.imageshack.us/my.php?image=oblivion200707202039412dv2.jpg)
http://img512.imageshack.us/img512/9338/oblivion200707202041273on5.th.jpg (http://img512.imageshack.us/my.php?image=oblivion200707202041273on5.jpg)
gli screen non rendono molto sfortunatamente, però la qualità c'è, non ho il tempo però di fare una comparativa con i vari filtri.
e come prestazioni?
p.s.: belli gli shot ;)
MonsterMash
20-07-2007, 21:17
Non credo proprio che una HD2900 XT doppia le prestazioni di una 8800 GTX, al massimo un +50% visto che l' unica che riesce a farlo è l' 8800 GTX ben più veloce. Va detto che ha margini di miglioramento che potrebbero portarla al raddoppio ma è un' affermazione poco oggettiva oggi. ;)
@ fustacchione90: aspetta il dieshrink autunnale, mia opinione.
Be', io con la 1900xt (overcloccata) facevo 6500 punti al 3dmark 2006. Adesso tocco gli 11000. E c'è gente su questo stesso forum con una cpu migliore della mia, che arriva tranquillamente ai 13000. Per cui se non la doppia, ci manca davvero poco.
Ciao
Be', io con la 1900xt (overcloccata) facevo 6500 punti al 3dmark 2006. Adesso tocco gli 11000. E c'è gente su questo stesso forum con una cpu migliore della mia, che arriva tranquillamente ai 13000. Per cui se non la doppia, ci manca davvero poco.
Ciao
io faccio 12.500 con procio a 3ghz
Be', io con la 1900xt (overcloccata) facevo 6500 punti al 3dmark 2006. Adesso tocco gli 11000. E c'è gente su questo stesso forum con una cpu migliore della mia, che arriva tranquillamente ai 13000. Per cui se non la doppia, ci manca davvero poco.
Ciao
Se è per questo una HD2900 XT va quasi quanto una 8800 GTX nel 3dmark06.
Ricordo che appena uscita la HD2900 XT mediamente andava un 30% meglio della X1950 XTX quindi avrebbe dovuto essere un 40% scarso superiore alla X1900 XTX non credo che adesso arrivi ad un miglioramento del 100%, perchè si i driver sono migliorati ma ci vorrebbe un miracolo per un incremento tale in sole 3 release. Io confido in un R650 che dovrebbe uscire quando i driver saranno tarati per R6xx.
davide155
20-07-2007, 21:29
Be', io con la 1900xt (overcloccata) facevo 6500 punti al 3dmark 2006. Adesso tocco gli 11000. E c'è gente su questo stesso forum con una cpu migliore della mia, che arriva tranquillamente ai 13000. Per cui se non la doppia, ci manca davvero poco.
Ciao
Con un x2 a 3150mhz fa solo 11mila punti? :eek:
Sbaglio o è un pò pochino? :mbe:
In parole povere in % i 7.7. con gli ultimissimi giochi con singola scheda hai avuto prestazioni degne di rilievo oltre i 10 frame in più al 3DMark nel canyon? :rolleyes:
10 non proprio . Semmai 4/5 fps in piu su singola scheda .9 sono in crossfire.
Dopo non so come fossero messi prima i miei driver dato che avevo installata anche una x1900 , poi sostituita con la seconda hd,quindi c era un po di caos.
Alla fine ogni pc fa un po storia a se .
;)
Se è per questo una HD2900 XT va quasi quanto una 8800 GTX nel 3dmark06.
Ricordo che appena uscita la HD2900 XT mediamente andava un 30% meglio della X1950 XTX quindi avrebbe dovuto essere un 40% scarso superiore alla X1900 XTX non credo che adesso arrivi ad un miglioramento del 100%, perchè si i driver sono migliorati ma ci vorrebbe un miracolo per un incremento tale in sole 3 release. Io confido in un R650 che dovrebbe uscire quando i driver saranno tarati per R6xx.
Per quel che mi riguarda avendo avuto una 1900xtx la 2900 in tutti i giochi da me provati fa il doppio e qualcosa in piu della 1900...
Con un x2 a 3150mhz fa solo 11mila punti? :eek:
Sbaglio o è un pò pochino? :mbe:
Secondo me non sono per niente pochini 11K io personalmente con un po di clock raggiungo con i 7.6 hotfix 12550 punti e non mi sembrano per niente pochini...poi il 3dmark è tutto dire,ci vogliono test sui i giochi per vedere i reali aumenti di frame rate ;)
davide155
20-07-2007, 21:41
Secondo me non sono per niente pochini 11K io personalmente con un po di clock raggiungo con i 7.6 hotfix 12550 punti e non mi sembrano per niente pochini...poi il 3dmark è tutto dire,ci vogliono test sui i giochi per vedere i reali aumenti di frame rate ;)
Si quello sicuramente :O
Vorrei vedere il reale beneficio tra un opty tirato a 3150 ed un conroe un pò occato......
webbuffa
20-07-2007, 21:43
:) Questo (http://web.tiscali.it/buffa87/Immagini/HD2900XT/OblivionAA24xAF16x.png) è un ss fatto con il filtro edge detect@24x e Anisotropico @16x. qualità suprema e fluidità sempre ottima... peccato per il frame rate che scende a 20-25 fps negli esterni e 40-50 negli interni :eek:
:eek:
Si quello sicuramente :O
Vorrei vedere il reale beneficio tra un opty tirato a 3150 ed un conroe un pò occato......
Se vai qui http://www.hwupgrade.it/forum/showthread.php?t=1484107 vedi tutti i risultati dei test effettuati con le varie cpu accoppiata alla 2900 ;)
:) Questo (http://web.tiscali.it/buffa87/Immagini/HD2900XT/OblivionAA24xAF16x.png) è un ss fatto con il filtro edge detect@24x e Anisotropico @16x. qualità suprema e fluidità sempre ottima... peccato per il frame rate che scende a 20-25 fps negli esterni e 40-50 negli interni :eek:
:eek:
:ave: :ave: :ave: :ave: :ave: :ave: Bellissimo :eek:
MonsterMash
20-07-2007, 21:57
Se è per questo una HD2900 XT va quasi quanto una 8800 GTX nel 3dmark06.
Ricordo che appena uscita la HD2900 XT mediamente andava un 30% meglio della X1950 XTX quindi avrebbe dovuto essere un 40% scarso superiore alla X1900 XTX non credo che adesso arrivi ad un miglioramento del 100%, perchè si i driver sono migliorati ma ci vorrebbe un miracolo per un incremento tale in sole 3 release. Io confido in un R650 che dovrebbe uscire quando i driver saranno tarati per R6xx.
Guarda, già appena uscita, con i driver alpha che ci avevano propinato, la 2900xt faceva in molti casi l'80-100% più della 1900xt. Si vede leggendo la recensione di hupgrade, fatta con i primi driver beta.
http://www.hwupgrade.it/articoli/skvideo/1725/halflife2_hdr.png
http://www.hwupgrade.it/articoli/skvideo/1725/prey.png
http://www.hwupgrade.it/articoli/skvideo/1725/fear-aaoff-anitri-min.png
http://www.hwupgrade.it/articoli/skvideo/1725/STALKER_1920.png
Ovviamente ho preso i risultati migliori tra quelli presenti in quella recensione, ignorando quelli in cui la 2900xt andava come o peggio della 1900xt, perchè è ovvio che quei casi erano dovuti a driver acerbi, e cmq già oggi non esistono più.
MonsterMash
20-07-2007, 21:58
Si quello sicuramente :O
Vorrei vedere il reale beneficio tra un opty tirato a 3150 ed un conroe un pò occato......
La mia cpu in quasi tutti i test risulta all'incirca apparata ad un C2D 6700 @ default.
Purtroppo la differenza tra i buoni vecchi x2 e i c2d si sente parecchio...
Ciao!
davide155
20-07-2007, 22:11
Azz con un 4600 x2 la 2900xt fa poco più di 8mila punti :eek:
Ero indeciso se prenderla a settembre o aspettare la prox revisione di nvidia o ati.......ma sono sempre più convinto di dover aspettare la revisione :rolleyes:
Iantikas
20-07-2007, 22:23
ankio venivo da una x1900xtx (ke tenevo a 692/855) e nn rimpiango affatto d'aver fatto il cambio x una hd2900xt (ke tengo a 843/980)...
...nn l'ho ancora potuta provare come si deve ma nei gioki in cui l'ho provata il miglioramento del gameplay è notevole...
...in lost planet è impressionante...prima giocavo a 1024x768 senza AA 8xAF tutto al max e cmqogni tanto andava sotto i 30fps...con la hd2900xt vado a 1680x1050 2xAA 16xAF tutto al max e con fluidità ottimale (tuttora con i 7.7 xò rimane il bug nei menù)...
...anke in TDU il miglioramento è notevole dove da 1280x960 2xAA tutto al max son passato a 1680x1050 4xAA 16xAF tutto al max...
...se prima la x1900xtx stava iniziando a dare i primi sintomi di vekkiaia (l'avevo da 16 mesi) e mi stava costringendo ad abbassare sensibilmente la ris nativa del mio monitor e, negli ultimi titoli (tipo dirt e lost planet) anke ad abbassare impo e filtri ora con la hd2900xt vado nuovamente ovunque a 1680x1050 con le impo al max e al max nn abilito i filtri o li metto + bassi dei canonici 4/16...
...se poi con i prox titoli in usciti da agosto in poi (tipo bioshock, crysis, cod 4, ut 2007 etc) nn dovesse soddisfare le mie esigenze appena esce la nuova gen la vendo (tra qualke mese qualcosa ancora varrà) e ne prendo un'altra (d nuova gen, dato ke cmq se dovesse risultare inadeguata lei nn credo proprio ke qualcuna delle altre gpu attualmente in commercio nn lo sarà)...ciao
Si quello sicuramente :O
Vorrei vedere il reale beneficio tra un opty tirato a 3150 ed un conroe un pò occato......
ragazzi io sarò quello contro corrente ma venivo da una opty 170@3ghz accoppiata con una rd600 per amd e 2gb di g.skill uccd.
passando poi ad un conroe E6400@3ghz io questa grandissima differenza non la ho per nulla notata.
cioè il mio giudizio sul raffreonto conroe opteron o amd con 1mb di cache che che si il c2d è superiore ma non cosi superiore come molti hanno voluto far credere.
ovviamente è tutto imho ma visto che la prova l'ho fatta a distanza molto ravvicinata con circa lo stesso chipser rd600 intel o rd600 amd sono + o - lo stesso tranne una piccola differenza sulle linee pci che xò si vede solo nelle modalità cf.
La mia cpu in quasi tutti i test risulta all'incirca apparata ad un C2D 6700 @ default.
Purtroppo la differenza tra i buoni vecchi x2 e i c2d si sente parecchio...
Ciao!
be del resto sono due architetture molto differti, e poi cmq i c2d sono più recenti, quindi è ovvio che vadano meglio; anche se cmq sono sorprendenti le prestazioni che tutt'oggi danno, dopo tutto bisogna considerare che l'architettura K8 dual-core ha ben due anni e mezzo, nn trovi?
ragazzi io sarò quello contro corrente ma venivo da una opty 170@3ghz accoppiata con una rd600 per amd e 2gb di g.skill uccd.
passando poi ad un conroe E6400@3ghz io questa grandissima differenza non la ho per nulla notata.
cioè il mio giudizio sul raffreonto conroe opteron o amd con 1mb di cache che che si il c2d è superiore ma non cosi superiore come molti hanno voluto far credere.
ovviamente è tutto imho ma visto che la prova l'ho fatta a distanza molto ravvicinata con circa lo stesso chipser rd600 intel o rd600 amd sono + o - lo stesso tranne una piccola differenza sulle linee pci che xò si vede solo nelle modalità cf.
ma infatti è quello che penso io, cioè dopo tutto gli opteron stupiscono, anche se sono cmq "vecchi" nn mi sembra che in passato si siano verificate cose simili.
ehi snake sai dove posso trovare dei file di configurazione di oblivion gia' pompati???
se vuoi te lo posso fare io (domani), mandami il tuo in pvt e te lo pompo a dovere :Perfido:
MonsterMash
20-07-2007, 22:57
ma infatti è quello che penso io, cioè dopo tutto gli opteron stupiscono, anche se sono cmq "vecchi" nn mi sembra che in passato si siano verificate cose simili.
Senz'altro la mia cpu io la reputo ancora straordinaria, ed infatti non intendo cambiarla almeno fino all'uscita dei quad core phenom. Però guardando i risultati di vari test, noto che la mia cpu, superiore tutt'oggi a qualsiasi altra cpu amd a default in commercio, si colloca all'incirca allo stesso livello di un c2d 6700.
Ovviamente questo non vuol dire che non possa fare tutto quello che si può desiderare fare oggi con un pc, e farlo bene, ma che obbiettivamente il top per il momento è intel.
Ma meglio non andare troppo ot :)
A proposito della 2900xt, per caso qualcuno di voi sa se TUTTI i fori sono rimasti gli stessi del pcb della 1900xt? Perchè volevo comprare un WB per il raffreddamento dei mosfet, e ho visto che si attacca attraverso due viti che si dovrebbero avvitare ai lati del blocco dei mosfet. Ma la compatibilità risulta garantita solo per le 1900xt. Mi chiedo se vada bene anche per le 2900xt.
Ecco una foto dell'oggetto in questione:
http://site.sharkacomputers.com/images/alphacool/vga/gfx/ati-mf-pp-lg.gif
Ciao
Iantikas
20-07-2007, 23:17
Senz'altro la mia cpu io la reputo ancora straordinaria, ed infatti non intendo cambiarla almeno fino all'uscita dei quad core phenom. Però guardando i risultati di vari test, noto che la mia cpu, superiore tutt'oggi a qualsiasi altra cpu amd a default in commercio, si colloca all'incirca allo stesso livello di un c2d 6700.
Ovviamente questo non vuol dire che non possa fare tutto quello che si può desiderare fare oggi con un pc, e farlo bene, ma che obbiettivamente il top per il momento è intel.
Ma meglio non andare troppo ot :)
A proposito della 2900xt, per caso qualcuno di voi sa se TUTTI i fori sono rimasti gli stessi del pcb della 1900xt? Perchè volevo comprare un WB per il raffreddamento dei mosfet, e ho visto che si attacca attraverso due viti che si dovrebbero avvitare ai lati del blocco dei mosfet. Ma la compatibilità risulta garantita solo per le 1900xt. Mi chiedo se vada bene anche per le 2900xt.
Ecco una foto dell'oggetto in questione:
http://site.sharkacomputers.com/images/alphacool/vga/gfx/ati-mf-pp-lg.gif
Ciao
no quelli purtroppo son diversi...solo i 4 fori attorno al core son rimasti uguali a quelli della x1900...ciao
fustacchione90
21-07-2007, 00:40
bè....io sono uno che qui in giro paizza molto bene i pezzi del pc k cambio quindi non ci sarebbero problemi se dovessi cambiarla...e cmq con il potenziale della 2900xt in teoria nei giochi dx10 dovrebbe essere alla pari se n di poco sup alla gtx...
anke io cmq volevo aspettare la prossima generazione visto k alla fine la 1900xtx è ancora un ottima scheda...ma se aspetto ancora dovrò venderla non piu a 180, bensì a 100\150€...per quello dicevo...:D
bè....io sono uno che qui in giro paizza molto bene i pezzi del pc k cambio quindi non ci sarebbero problemi se dovessi cambiarla...e cmq con il potenziale della 2900xt in teoria nei giochi dx10 dovrebbe essere alla pari se n di poco sup alla gtx...
anke io cmq volevo aspettare la prossima generazione visto k alla fine la 1900xtx è ancora un ottima scheda...ma se aspetto ancora dovrò venderla non piu a 180, bensì a 100\150€...per quello dicevo...:D
guarda è lo stesso discorso che diceva ad un mio amico se uno decide di spendere 300E di vga subito xè per passare alla generazione prossima dovrai spendere minimo i soliti 360-400E e vendere la tua a 100.
oppure vendere la tua a 150 adesso spenderne 150 sopra adesso e prendere questa generazione ma se adesso senti il bisogni di cambiare la x1900xtx con una hd2900xt evidentemente lo sentirai anche tra 1 anno per cambiare la hd2900xt con chi per lei ad allora rivenderai la hd2900xt a 150 e ne dovrai mettere altri 150E sopra...cmq chiudiamo qui OT.
MonsterMash
21-07-2007, 12:32
no quelli purtroppo son diversi...solo i 4 fori attorno al core son rimasti uguali a quelli della x1900...ciao
Purtroppo ho controllato, e pare che tu abbia ragione :(
Ma non mi sono dato per vinto. Anzi, sto cominciando a pensare di costruirmi un WB per mosfet e ram tutto da me :D
Un'idea ce l'ho già, devo solo trovare il modo di metterla in pratica. Qui a messina non ci sono molti fabbri che hanno gli strumenti necessari a fabbricare oggetti di precisione e a tenuta idraulica come un WB.
Quando sarà pronto il progettin dettagliato lo posterò, così mi potrete dire che ne pensate :)
Ciao!
Iantikas
21-07-2007, 12:47
Purtroppo ho controllato, e pare che tu abbia ragione :(
Ma non mi sono dato per vinto. Anzi, sto cominciando a pensare di costruirmi un WB per mosfet e ram tutto da me :D
Un'idea ce l'ho già, devo solo trovare il modo di metterla in pratica. Qui a messina non ci sono molti fabbri che hanno gli strumenti necessari a fabbricare oggetti di precisione e a tenuta idraulica come un WB.
Quando sarà pronto il progettin dettagliato lo posterò, così mi potrete dire che ne pensate :)
Ciao!
cmq x i mosfet nn ce bisogno ke fai qualcosa d particolare...puoi addirittura fare anke giusto un tubo senza alette o pin e cmq ottenere ottime temperature (quei poki gradi in meno derivanti da un arkitettura + elaborata sui mosfet nn ti servirebbero a niente)...in questa maniera sarebbe olto + facile riuscire a fartelo fare...ciao
GunnyITA
21-07-2007, 14:11
Io di una cosa sono convinto.
Scartando le schede di fascia media che ha fatto in dx10. Questa scheda dell'ATI è ottima. per il prezzo e per le prestazioni sono la scelta giusta per chi non sà cosa prendere.
E cmq stiamo parlando solo della "PRIMA SCHEDA" che ATI ha fatto in dx10, e per esserne alla prima, si prende gia' una buona fetta della classifica e si notano dei leggeri miglioramenti ad ogni rilascio driver.
Questa scheda e' ottima gente, e non mi immaginero cosa succedera' quando nascera una 2950 xt :fagiano:
TecnoWorld8
21-07-2007, 14:20
...
Questa scheda e' ottima gente, e non mi immaginero cosa succedera' quando nascera una 2950 xt :fagiano:
se questa volta non sarà in ritardo rispetto ad nVidia, sicuramente la prenderò!
fustacchione90
21-07-2007, 14:57
ragazzi, vi pongo un problema....ho deciso alla fine di prenderla sta scheda..xoil problema è un altro:
i miei 2 negozi di fiducia qui vicino mi propongono gecube e sapphire...al primo negozio gecube 450€ e sapphire 370€...il secondo sapphire 390 e gecube 378...ora secondo voi meglio sapphire o gecube?
Free Gordon
21-07-2007, 14:57
Se è per questo una HD2900 XT va quasi quanto una 8800 GTX nel 3dmark06.
Ricordo che appena uscita la HD2900 XT mediamente andava un 30% meglio della X1950 XTX quindi avrebbe dovuto essere un 40% scarso superiore alla X1900 XTX non credo che adesso arrivi ad un miglioramento del 100%, perchè si i driver sono migliorati ma ci vorrebbe un miracolo per un incremento tale in sole 3 release. Io confido in un R650 che dovrebbe uscire quando i driver saranno tarati per R6xx.
Dipende dall'ambito, ci saranno giochi dove R600 doppierà (e più) R580+, altri (più probabile giochi presenti e passati) dove l'incremento è marginale (35% circa).
ps.
La 2900XT va quanto una GTX nel 2006 perchè non si usa AA nel test. ;)
Il gap sostanziale che ha R600 nei confronti di G80 è che quando si attiva l'AA classico R600 perde più di una vecchia architettura come R520/580.
Free Gordon
21-07-2007, 15:06
ragazzi, vi pongo un problema....ho deciso alla fine di prenderla sta scheda..xoil problema è un altro:
i miei 2 negozi di fiducia qui vicino mi propongono gecube e sapphire...al primo negozio gecube 450€ e sapphire 370€...il secondo sapphire 390 e gecube 378...ora secondo voi meglio sapphire o gecube?
Comprala online a 360 spedita. :D
ragazzi, vi pongo un problema....ho deciso alla fine di prenderla sta scheda..xoil problema è un altro:
i miei 2 negozi di fiducia qui vicino mi propongono gecube e sapphire...al primo negozio gecube 450€ e sapphire 370€...il secondo sapphire 390 e gecube 378...ora secondo voi meglio sapphire o gecube?
sono ugali ;)
fustacchione90
21-07-2007, 16:13
ah se sopno uguali allora prendo la gecube a 378...cmq di internet non mi fido molto...preferisco spendere sti 10€ in piu e avere la garanzia sotto casa k magari prenderla in internet e se hai qualche rogna doverla spedire in germania o in c**o al mondo...:sofico:
ale0bello0pr
21-07-2007, 16:48
mi auto quoto perchè pare che nussuno abbia visto i miei test:cry:
:asd: ritenta sarai piu' fortunato :stordita:
ah se sopno uguali allora prendo la gecube a 378...cmq di internet non mi fido molto...preferisco spendere sti 10€ in piu e avere la garanzia sotto casa k magari prenderla in internet e se hai qualche rogna doverla spedire in germania o in c**o al mondo...:sofico:
io ho imparato ad avere fiducia, e tranne poche cose orami compro tutto in rete, e nn ho mai avuto probleimi, e dove li ho avuti ho cmq trovato sempre persone corrette e oneste;) cmq nn andiamo troppo ot, il mio cosiglio è Sapphire. poi vedi tu dove comprarla (cmq se hai problemi, in un caso o nell'altro la scheda va al centro assistenza ATI, quindi... cmq se prendi da internet affidati solo a siti con corrieri, nn posta ordinaria)
:asd: ritenta sarai piu' fortunato :stordita:
va be nn è un problema, cmq:cry: :cry:
non c'è proprio nessuno che vuole farmi 2 screen comparativi eh? :stordita:
Azz con un 4600 x2 la 2900xt fa poco più di 8mila punti :eek:
Ero indeciso se prenderla a settembre o aspettare la prox revisione di nvidia o ati.......ma sono sempre più convinto di dover aspettare la revisione :rolleyes:
perchè quanto ti aspettavi facesse?
quel 3dmark l'ho condotto a cpu e gpu a default....cmq nei giochi detto da possessori di x1900 e 1950 xt/xtx cè una notevole differenza per cui l'acquisto vale la candela:)
Tidus.hw
21-07-2007, 21:03
ragazzi il tagan non mi regge la configurazione in firma con sia cpu che gpu overclockata ._. praticamente più downclocko la cpu più sale la vga, ad esempio ho messo la cpu a default e ho appena concluso un 3dmark2006 a 860/2050. Con la cpu overclockata a 2850 me le sognavo quelle frequenze.. >.<
Grave Digger
21-07-2007, 21:39
ragazzi il tagan non mi regge la configurazione in firma con sia cpu che gpu overclockata ._. praticamente più downclocko la cpu più sale la vga, ad esempio ho messo la cpu a default e ho appena concluso un 3dmark2006 a 860/2050. Con la cpu overclockata a 2850 me le sognavo quelle frequenze.. >.<
vai di corsair hx620,una roccia :)
Tidus.hw
21-07-2007, 21:43
vai di corsair hx620,una roccia :)
ora come ora non ho soldi per cambiare ali, ho appena speso 360 euro per la vga, vorra' dire che per non mettere l'ali tropo sotto sforzo tengo la vga a default e metto il procio a 2,8ghz anziche' 2,85...
Grave Digger
21-07-2007, 21:51
ora come ora non ho soldi per cambiare ali, ho appena speso 360 euro per la vga, vorra' dire che per non mettere l'ali tropo sotto sforzo tengo la vga a default e metto il procio a 2,8ghz anziche' 2,85...
perchè ti cambia molto :mbe: ???
devi scendere di tensione,non di frequenza ;) .....
Tidus.hw
21-07-2007, 22:46
perchè ti cambia molto :mbe: ???
devi scendere di tensione,non di frequenza ;) .....
si infatti ho anche abbassato un po' il vcore, comunque adesso va bene, ho giocato 1 ora a vegas e non e' mai crashato ^^
scusate l intrusione,volevo farmi un idea sull evoluzione della 2900xt....appena uscita in vari benchmark si vedeva un comportamento anomalo,in alcuni casi sotto la gts e in altri sopra la gtx come prestazioni.....oggi come sono i valori in campo?
la scheda mi interessa parecchio e pensavo di prenderla appena scendera' ancora un po' di prezzo ma volevo sapere se oggi i drivers permettono di sfruttarne le potenzialita' o se la 2900xt e' ancora incatenata :D
eventualmente per alimentarla correttamente un ocz gamextream 600w basta?
ocz 600 w? aivoja :O :fagiano:
ocz 600 w? aivoja :O :fagiano:
beh chiedevo perche' da quello che si legge in giro la 2900 consuma parecchio e in caso di oc i consumi salgono molto...grazie per l info:D
beh chiedevo perche' da quello che si legge in giro la 2900 consuma parecchio e in caso di oc i consumi salgono molto...grazie per l info:D
hai pur sempre un 600w con le @@ :D
si ma meglio togliersi il dubbio prima :D
si ma meglio togliersi il dubbio prima :D
chiedi cmq altri pareri ma credo nn ci siano problemi al 99% ;)
chiedi cmq altri pareri ma credo nn ci siano problemi al 99% ;)
beh non e' una cosa urgente perche' prima vorrei capire che prestazioni avra' questa scheda con i giochi dx10(e a vedere il benchmark di call of juarez fanno pieta' le sk video dx10,2900 e 8800, come frame rate) e successivamente per tenere buona la 1950xt su un altro pc al limite prendo un tagan 750w per stare tranquillo con la 2900
webbuffa
22-07-2007, 11:57
beh chiedevo perche' da quello che si legge in giro la 2900 consuma parecchio e in caso di oc i consumi salgono molto...grazie per l info:D
:) Riguardo a questo mi piacerebbe vedere qualche recensione con i nuovi 7.7... secondo me sono scesi, almeno in idle :D
:) Riguardo a questo mi piacerebbe vedere qualche recensione con i nuovi 7.7... secondo me sono scesi, almeno in idle :D
attendiamo info in merito dal forum allora :D
fustacchione90
22-07-2007, 12:55
sono ancora qui ^^
volevo sapere...io con la x1900xtx avevo problemi con le o,bre in praticamente TUTTI i giochi...anche vecchietti tipo fear...e vedevo che i miei amici con una 7600gSle attivavano senza vedere il framerate andare giu eccessivamente...chi ha la 2900 mi puo dire se hanno risolto il problema ombre?
Iantikas
22-07-2007, 13:09
scusate l intrusione,volevo farmi un idea sull evoluzione della 2900xt....appena uscita in vari benchmark si vedeva un comportamento anomalo,in alcuni casi sotto la gts e in altri sopra la gtx come prestazioni.....oggi come sono i valori in campo?
la scheda mi interessa parecchio e pensavo di prenderla appena scendera' ancora un po' di prezzo ma volevo sapere se oggi i drivers permettono di sfruttarne le potenzialita' o se la 2900xt e' ancora incatenata :D
eventualmente per alimentarla correttamente un ocz gamextream 600w basta?
in generale la hd2900xt si posiziona a metà strada tra una GTS ed una GTX...
...in particolare senza i filtri mediamente sta poco sotto la GTX...con i filtri sta poco sopra una GTS (sempre d media)...
...il 600W ke hai basta e, soprattutto, avanza...ciao
Free Gordon
22-07-2007, 13:27
sono ancora qui ^^
volevo sapere...io con la x1900xtx avevo problemi con le o,bre in praticamente TUTTI i giochi...anche vecchietti tipo fear...e vedevo che i miei amici con una 7600gSle attivavano senza vedere il framerate andare giu eccessivamente...chi ha la 2900 mi puo dire se hanno risolto il problema ombre?
Problemi con le ombre? :mbe: Se intendi le softshadow di Fear, c'è un leggero vantaggio delle architetture nVidia nel gestirle (se intendi come calo di frame rate percentuale, attivandole).
Ma in generale le ombre non sono un problema per R520/580 e a maggior ragione per R600.
in generale la hd2900xt si posiziona a metà strada tra una GTS ed una GTX...
...in particolare senza i filtri mediamente sta poco sotto la GTX...con i filtri sta poco sopra una GTS (sempre d media)...
...il 600W ke hai basta e, soprattutto, avanza...ciao
ma per quale motivo con i filtri attivati perde in prestazioni?..colpa dei drivers?
in generale la hd2900xt si posiziona a metà strada tra una GTS ed una GTX...
...in particolare senza i filtri mediamente sta poco sotto la GTX...con i filtri sta poco sopra una GTS (sempre d media)...
...il 600W ke hai basta e, soprattutto, avanza...ciao
gia io reggo il tutto con un titan sli da 560 con solo 2 linee da 18v.
Athlon 64 3000+
22-07-2007, 13:49
ma per quale motivo con i filtri attivati perde in prestazioni?..colpa dei drivers?
il perchè è che l'AA lo applica tramite lo shader core e non tramite la circuiteria dedicata nelle rop's che c'è anche in R600 che con i primi driver non veniva usato e secondo perchè gli manca un parte anche.
il perchè è che l'AA lo applica tramite lo shader core e non tramite la circuiteria dedicata nelle rop's che c'è anche in R600 che con i primi driver non veniva usato e secondo perchè gli manca un parte anche.
detto cosi è un pò semplice la fai apparire una menomata:D :D :D
la scelta di ati è fortemente orienta nell'uso intensivo degli shader per eseguire l'aa. ovviamente in dx9 questa tecnica non è implementata e quindi r600 si arrabbatta come può in un duo non troppo felice dove le dx9 non digeriscono l'aa via shader e r600 non è predisposto propio via hw a fare un aa di postprocessing nelle sue rop's.
r600 applica un aa diciamo "in-processing" elabora la scena gia con AA sugli shader e poi manda la scena cosi composta alle rops.
g80 la post processa cioè elabora la scena senza aa la scena viene mandata alle rop's che ovviamente la rielaborano al numero di samples scelti (2x 4x e tecniche miste) e poi la riscala alla risoluzione iniziale.
r600 invece elabora direttamente la schena a risoluzione iniziale con aa gia nell'aleborazione e poi manda il tutto alle rop's.
purtroppo sto sistema è molto efficace o cmq utilizzabile in dx10 mentre in dx9 è mal digerito propio dalle dx9 ergo ecco qui che quando sia la parte hw che la parte software sono un pò carenti gli uni con gli altri ci possono stare qualche perdita non prevista o eccessiva nel framerate originale
Iantikas
22-07-2007, 14:14
ma per quale motivo con i filtri attivati perde in prestazioni?..colpa dei drivers?
sicuramente i driver hanno la loro parte nella perdita di prestazioni con i filtri attivi (x es. quando R600 usci poki giorni dopo il lancio usci un nuovo driver beta ke aumentava le prestazioni in oblivion con HDR+AA d + del 20%)...
...secondo me xò nn'è l'unico motivo...
...c'è anke la "storia" (la kiamo storia xkè nn c'è niente d'ufficiale e, se c fai caso, dovunque se ne parla son solo speculazioni e opinioni) ke R600 nn solo i CFAA (x i quali è necessario) ma anke il semplice MSAA (quello kiamato box nei driver) lo fa in shader anzikè sfruttare l'HW apposito nelle RBE (le ROP d nvidia)...cosa ke, in DX9, porta ad un decadimento notevole dele prestazioni con AA (poi c son tutte le storie ke in DX10 con molti titoli si dovrà x forza farlo in shader ma, secondo me, è meglio parlarne quando c ritroveremo in quello scenario)...
...(cmq io nn credo a questa storia...penso ke x il box usi le rbe e x i CFAA la capacità delle RBE d comunicare con gli shader...anke xkè nn avrebbe veramente senso nn utilizzare le RBE x il box dato ke un HW specializzato nelfare una sola cosa è sempre meglio di uno generico ke può fare anke quella...x es. con R600 ati ha migliorato in vari aspetti le funzionalità delle RBE nei confronti d R580 aggiungendo x es. la possibilità d filtrare direttamente nelle RBE texture FP16/FP32...R580 invece nn può trattare questo tipo d texture nelle RBE e ricorre ai pixel shader...ATi stessa dikiarò al momento del lancio ke grazie a ciò R600 era 7 volte + veloce d R580 in questo aspetto...a riprova del fatto ke un HW dedicato è + prestante di uno generico)...
...e poi cè il dato d fatto ke cmq R600 ha solo 16 RBE, in confronto alle 20/24 d GTS/GTX...ha xò dalla sua ke viaggiano a 740mhz contro i 500/575 d GTS/GTX ed è proprio x questo ke riesce a compensare nei riguardi della GTS ma nn arriva alla GTX...
...ciao
quindi nvidia ha fatto una dx10 che probabilmente in futuro potrebbe rivelarsi limitata in caso di giochi full dx10 ma che con i dx9 lavora senza problemi,mentre ati avra' forse qualche vantaggio a gestire i giochi full dx10 ma perde in prestazioni con alcuni effetti dx9??
:rolleyes: ......in ogni caso pero' sia una che l altra sono un po' delle "fregature" per chi si aspettava da ste schede di star tranquillo per un po',perche' se quando le dx10 verranno sfruttate a dovere una avra qualche limite in un settore e l altra in un altro a rimetterci sara' chi si e' fidato e le ha comprate.....lo stesso discorso quindi si puo' estendere alle 8600 gt/gts e 2600xt?anche li noto che abilitando alcuni filtri la 2600xt scende di prestazioni in modo osceno,mentre con altri giochi supera la gts....prima era complicato farsi un idea sulle vga piu' longeve,ma ora sembra che sia un terno al lotto beccarne una che non sia usa e getta....:D
fustacchione90
22-07-2007, 15:39
esattamente ^^
OT
ieri erano le 4 di mattina ed ero al bagno, ed ho pensato...e se al posto di prendere la 2900xt aspettassi la xtx? ho cercato nel web qualche informazione e tò...che trov? una tabellina con xt vs xtx a confronto...e sapete la xtx quanto in piu della sorellina minore? 1,5\2 fps...secondo voi è vera sta storia?
fine OT
Athlon 64 3000+
22-07-2007, 15:44
detto cosi è un pò semplice la fai apparire una menomata:D :D :D
la scelta di ati è fortemente orienta nell'uso intensivo degli shader per eseguire l'aa. ovviamente in dx9 questa tecnica non è implementata e quindi r600 si arrabbatta come può in un duo non troppo felice dove le dx9 non digeriscono l'aa via shader e r600 non è predisposto propio via hw a fare un aa di postprocessing nelle sue rop's.
r600 applica un aa diciamo "in-processing" elabora la scena gia con AA sugli shader e poi manda la scena cosi composta alle rops.
g80 la post processa cioè elabora la scena senza aa la scena viene mandata alle rop's che ovviamente la rielaborano al numero di samples scelti (2x 4x e tecniche miste) e poi la riscala alla risoluzione iniziale.
r600 invece elabora direttamente la schena a risoluzione iniziale con aa gia nell'aleborazione e poi manda il tutto alle rop's.
purtroppo sto sistema è molto efficace o cmq utilizzabile in dx10 mentre in dx9 è mal digerito propio dalle dx9 ergo ecco qui che quando sia la parte hw che la parte software sono un pò carenti gli uni con gli altri ci possono stare qualche perdita non prevista o eccessiva nel framerate originale
sono stato poco chiaro perchè non avevo le parole giuste
Athlon 64 3000+
22-07-2007, 15:48
che io sappia R600 ha la circuiteria dedicata all'AA nelle rop's ma gli manca un componente da quello che mi ricordo e con i driver che c'erano al momento dell'uscita della scheda questa circuiteria non veniva usata.
-Feanor-
22-07-2007, 16:23
esattamente ^^
OT
ieri erano le 4 di mattina ed ero al bagno, ed ho pensato...e se al posto di prendere la 2900xt aspettassi la xtx? ho cercato nel web qualche informazione e tò...che trov? una tabellina con xt vs xtx a confronto...e sapete la xtx quanto in piu della sorellina minore? 1,5\2 fps...secondo voi è vera sta storia?
fine OT
molto probabilmente un fake...anche perche la 2900xtx non esiste per ora...a meno che non si consideri tale la versione oem di flacon alienware e compagnia...visto che quella da 1gb ddr4 rimane sempre xt...cmq puoi sempre postare per sicurezza :read:
...e poi cè il dato d fatto ke cmq R600 ha solo 16 RBE, in confronto alle 20/24 d GTS/GTX...ha xò dalla sua ke viaggiano a 740mhz contro i 500/575 d GTS/GTX ed è proprio x questo ke riesce a compensare nei riguardi della GTS ma nn arriva alla GTX...
...ciao
fammi capire, secondo te una carenza di r600 sono i render back?in effetti i test sul 3dmark 06 relativi al fill rate danno risultati analoghi alle 8800gts, tuttavia sappiamo anche che il 3d mark utilizza (se non erro) operazioni semplici, cosa difficilmente replicabile nella realtà. ergo nei giochi r600 dovrebbe avere prestazioni sempre uguali o minori alla 8800, ma sappiamo che senza filtri non è così .probabilmente il problema è proprio nella gestione dell'AA, che la radeon delega ai rbe "sovraccaricandoli". forse ati avrebbe dovuto aumentare il numero di queste (è da r420 se nonsbaglio che utilizza architetture a 16 rops) o aumentarne di molto le frequenze, ma a 90nm credo che in entrambi i casi non si potessa fare di più.
ciao!
Mister Tarpone
22-07-2007, 16:32
fammi capire, secondo te una carenza di r600 sono i render back?in effetti i test sul 3dmark 06 relativi al fill rate danno risultati analoghi alle 8800gts, tuttavia sappiamo anche che il 3d mark utilizza (se non erro) operazioni semplici, cosa difficilmente replicabile nella realtà. ergo nei giochi r600 dovrebbe avere prestazioni sempre uguali o minori alla 8800, ma sappiamo che senza filtri non è così .probabilmente il problema è proprio nella gestione dell'AA, che la radeon delega ai rbe "sovraccaricandoli". forse ati avrebbe dovuto aumentare il numero di queste (è da r420 se nonsbaglio che utilizza architetture a 16 rops) o aumentarne di molto le frequenze, ma a 90nm credo che in entrambi i casi non si potessa fare di più.
ciao!
la 2900XT è a 80nm. mentre le 8800 sono tutte a 90nm ;)
Iantikas
22-07-2007, 16:53
molto probabilmente un fake...anche perche la 2900xtx non esiste per ora...a meno che non si consideri tale la versione oem di flacon alienware e compagnia...visto che quella da 1gb ddr4 rimane sempre xt...cmq puoi sempre postare per sicurezza :read:
nn penso sia un fake...ke la xtx nn esiste è vero ma una ipotetica xtx con le specifike della skeda provata in quell'articolo andrebbe così nei confronti della xt...questo xkè la freq. del core varia di soli 5mhz...a variare in maniera significativa, oltre al quantitativo d ram, è la sua freq. 2ghz contro 1.65ghz...xò le gddr4 hanno latenze superiori alle gddr3 ed a pari freq. forniscono prestazioni sensibilmente inferiori...(si guadagna in banda, dato ke possono viaggiare a freq superiori, ma si perde in latenze e c'è bisogno di una buona dose d freq. in + x compensare....un pò come funzionò tra ddr e ddr2 e ora si ripropone tra ddr2 e ddr3...e quindi tra delle gddr3@1.65ghz e delle gddr4@2ghz la differenza in prestazioni è molto inferiore a quanto la sola differenza d freq. farebbe pensare)...
...inoltre da test ke ho fatto (nel 3dmark06 x comodità e ripetibilità dei test) ho potuto appurare ke anke @1680x1050 8xAA 16xAF l'aumento di prestazione derivante dal portare le ram da 1650mhz a 1960mhz è minimo (sia tenendo il core @def. sia mettendolo @843mhz)...mentre si ha un incremento notevole aumentando d 100mhz il core (anke lasciando la ram a def.)...
...questo porta apensare ke, almeno nelle condizioni del test, la banda offerta dalla xt 512mb è + ke sufficente x il core e nn fa da collo d bottiglia neanke se lo si porta a 843mhz...
...x questi motivi probabilmente hanno evitato d fare uscire un modelo XTX d questa skeda dato ke l'aumento d prestazioni (legato al solo aumento d freq. della ram dovuto all'impossibilità d alzare anke il core a causa dei cnsumi elevati del core) sarebbe stato rrisorio e il costo x produrlo invece sarebbe aumentato considerevolmente...ciao
p.s.: magari affinando le tecnike d produzone o passando a 65nm potranno aumentare sensibilmente il core e faranno uscire una XTX o HD2950...ma dalle ultime roadmap ufficili pare ke amd punti direttamente al R700 a inizio 2008 e fino ad allora amplierà la gamma HD2x00 nella fascia tra 2600/2900 ma nn farà uscire prodotti d fascia superiore alla hd2900xt)...
a sto punto aspettero' r700 per prendere una scheda nuova,a meno che domani non mi abbassano il prezzo a 250 euro :D
-Feanor-
22-07-2007, 17:12
nn penso sia un fake...ke la xtx nn esiste è vero ma una ipotetica xtx con le specifike della skeda provata in quell'articolo andrebbe così nei confronti della xt...questo xkè la freq. del core varia di soli 5mhz...a variare in maniera significativa, oltre al quantitativo d ram, è la sua freq. 2ghz contro 1.65ghz...xò le gddr4 hanno latenze superiori alle gddr3 ed a pari freq. forniscono prestazioni sensibilmente inferiori...(si guadagna in banda, dato ke possono viaggiare a freq superiori, ma si perde in latenze e c'è bisogno di una buona dose d freq. in + x compensare....un pò come funzionò tra ddr e ddr2 e ora si ripropone tra ddr2 e ddr3...e quindi tra delle gddr3@1.65ghz e delle gddr4@2ghz la differenza in prestazioni è molto inferiore a quanto la sola differenza d freq. farebbe pensare)...
...inoltre da test ke ho fatto (nel 3dmark06 x comodità e ripetibilità dei test) ho potuto appurare ke anke @1680x1050 8xAA 16xAF l'aumento di prestazione derivante dal portare le ram da 1650mhz a 1960mhz è minimo (sia tenendo il core @def. sia mettendolo @843mhz)...mentre si ha un incremento notevole aumentando d 100mhz il core (anke lasciando la ram a def.)...
...questo porta apensare ke, almeno nelle condizioni del test, la banda offerta dalla xt 512mb è + ke sufficente x il core e nn fa da collo d bottiglia neanke se lo si porta a 843mhz...
...x questi motivi probabilmente hanno evitato d fare uscire un modelo XTX d questa skeda dato ke l'aumento d prestazioni (legato al solo aumento d freq. della ram dovuto all'impossibilità d alzare anke il core a causa dei cnsumi elevati del core) sarebbe stato rrisorio e il costo x produrlo invece sarebbe aumentato considerevolmente...ciao
p.s.: magari affinando le tecnike d produzone o passando a 65nm potranno aumentare sensibilmente il core e faranno uscire una XTX o HD2950...ma dalle ultime roadmap ufficili pare ke amd punti direttamente al R700 a inizio 2008 e fino ad allora amplierà la gamma HD2x00 nella fascia tra 2600/2900 ma nn farà uscire prodotti d fascia superiore alla hd2900xt)...
grazie mille per la spiegazione....anche se non ho ancora capito di QUALE articolo state parlando....:stordita:
Iantikas
22-07-2007, 17:18
fammi capire, secondo te una carenza di r600 sono i render back?in effetti i test sul 3dmark 06 relativi al fill rate danno risultati analoghi alle 8800gts, tuttavia sappiamo anche che il 3d mark utilizza (se non erro) operazioni semplici, cosa difficilmente replicabile nella realtà. ergo nei giochi r600 dovrebbe avere prestazioni sempre uguali o minori alla 8800, ma sappiamo che senza filtri non è così .probabilmente il problema è proprio nella gestione dell'AA, che la radeon delega ai rbe "sovraccaricandoli". forse ati avrebbe dovuto aumentare il numero di queste (è da r420 se nonsbaglio che utilizza architetture a 16 rops) o aumentarne di molto le frequenze, ma a 90nm credo che in entrambi i casi non si potessa fare di più.
ciao!
oltre discutere su com'è fatta e confrontarla a come son fatte altre arkitetture attualmente in commercio nn vado :D ...nn mi permetto d dire come avrebbero dovuto farla x farla meglio dato ke sicuramente ki l'ha fatta così ne capisce + d me e se l'ha fatta così avrà avuto le sue buone ragioni...
...certo mi vien spontaneo kiedermi xkè siano rimasti fermi alle 16 tmu ke già in R580 + d qualke volta si erano rivelati il suo collo d bottiglia...e anke kiedermi perkè siano passati da un rapporto 3:1 (alu:tex...ke fino a r580 loro stessi indicavano come l'ottimale) ad un rapporto 4:1...xò magari è meglio così, ki lo sa :D ...ciao
Iantikas
22-07-2007, 17:25
grazie mille per la spiegazione....anche se non ho ancora capito di QUALE articolo state parlando....:stordita:
nn ti linko quell'articolo dato ke nn'è ufficiale e recensisce due prodotti d cui uno al tempo dell'articolo nn era neanke in commercio e l'altro nn lo sarà mai...
...ma ti linko un articolo fatto da un sito attendibile, con driver ufficiali e con skede esistenti e in vendità ke hanno le stesse speifike degli ES testati in quell'atro... http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/ ...le differenze prestazionali tra i due modelli son le stesse ke si riscontravano nell'altro (x questo penso nn fosse un fake)...e come vedrai son molto piccole...ciao
-Feanor-
22-07-2007, 17:38
nn ti linko quell'articolo dato ke nn'è ufficiale e recensisce due prodotti d cui uno al tempo dell'articolo nn era neanke in commercio e l'altro nn lo sarà mai...
...ma ti linko un articolo fatto da un sito attendibile, con driver ufficiali e con skede esistenti e in vendità ke hanno le stesse speifike degli ES testati in quell'atro... http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/ ...le differenze prestazionali tra i due modelli son le stesse ke si riscontravano nell'altro (x questo penso nn fosse un fake)...e come vedrai son molto piccole...ciao
ah...ma quindi anche tu ti riferivi alla versione 1gb ddr4...tra l'altro l'incremento di prestazioni è praticamente inesistente...cmq io stesso ho visto in vendita su un famosissimo sito la versione ddr4 1gb oc...anche se non mi ricordo di preciso le frequenze...come prezzo mi pare stesse sui 430/440 €...
GunnyITA
22-07-2007, 18:20
detto cosi è un pò semplice la fai apparire una menomata:D :D :D
la scelta di ati è fortemente orienta nell'uso intensivo degli shader per eseguire l'aa. ovviamente in dx9 questa tecnica non è implementata e quindi r600 si arrabbatta come può in un duo non troppo felice dove le dx9 non digeriscono l'aa via shader e r600 non è predisposto propio via hw a fare un aa di postprocessing nelle sue rop's.
r600 applica un aa diciamo "in-processing" elabora la scena gia con AA sugli shader e poi manda la scena cosi composta alle rops.
g80 la post processa cioè elabora la scena senza aa la scena viene mandata alle rop's che ovviamente la rielaborano al numero di samples scelti (2x 4x e tecniche miste) e poi la riscala alla risoluzione iniziale.
r600 invece elabora direttamente la schena a risoluzione iniziale con aa gia nell'aleborazione e poi manda il tutto alle rop's.
purtroppo sto sistema è molto efficace o cmq utilizzabile in dx10 mentre in dx9 è mal digerito propio dalle dx9 ergo ecco qui che quando sia la parte hw che la parte software sono un pò carenti gli uni con gli altri ci possono stare qualche perdita non prevista o eccessiva nel framerate originale
Se e' cosi' pero' fammi capire una cosa
Non voglio dire una cavolata ma. Puo' essere che magari un futuro gioco dx10 se mi scatta, e' meglio giocarci su dx10 a dettagli bassi che a dx9 a dettagli bassi?
ragazzi cmq sapphire ha confermato l'uscita per settembre sul mercato retail europeo una 2900 da 1gb gddr4 e qualche rumors da anche la versione da 512 con gddr4
non esite una xtx diciamo che è come la x1950xt che aveva le gddr4 e la x1950xtx che aveva le gddr4.
visto che xò hanno deciso di mantere il nome commerciale di hd2900xt per tutti i modelli top con r600 e non diversificare il nome a seconda del quantitativo e delle ram onboard.
cmq grandi quantità di ram e di frequenza servono appunto per chi oltre a 450e di vga ha anche un monitor da 24" che puo andare a risoluzioni folli che oltre a beneficiare dal bus di 512bit beneficiano in maniera tangibile anche di quei 500-600mhz sulle ram certo che xò riuscire a saturare 138gb di banda^^
che io sappia R600 ha la circuiteria dedicata all'AA nelle rop's ma gli manca un componente da quello che mi ricordo e con i driver che c'erano al momento dell'uscita della scheda questa circuiteria non veniva usata.
posso assicurarti che r600 quando è stato progettano non sa minimamente come fare aa in maniera classica tramite rops.
mentre g80 puo fare sia in maniera classica che tramite shader e credo che anche qui l'archidettura di g80 dovrebbe cavarsela bene cmq con shader che partono dai 1200mhz della gts ai quasi 1500 delle ultra.
forse ti stai sbagliando con la componente per gestire l'edge aa?
forse se chiedi a leoneazzurro ne sa di +;)
Athlon 64 3000+
22-07-2007, 18:51
ragazzi cmq sapphire ha confermato l'uscita per settembre sul mercato retail europeo una 2900 da 1gb gddr4 e qualche rumors da anche la versione da 512 con gddr4
non esite una xtx diciamo che è come la x1950xt che aveva le gddr4 e la x1950xtx che aveva le gddr4.
visto che xò hanno deciso di mantere il nome commerciale di hd2900xt per tutti i modelli top con r600 e non diversificare il nome a seconda del quantitativo e delle ram onboard.
cmq grandi quantità di ram e di frequenza servono appunto per chi oltre a 450e di vga ha anche un monitor da 24" che puo andare a risoluzioni folli che oltre a beneficiare dal bus di 512bit beneficiano in maniera tangibile anche di quei 500-600mhz sulle ram certo che xò riuscire a saturare 138gb di banda^^
ti metto cosa mi ha risposto poco più di 2 mesi fà yoss riguardo a questa cosa dell'AA e altre informazioni su R600:
sono vere entrambe le cose; R600 utilizza, in teoria, due modalità di AA; una che fa uso di unità dedicate nelle rop's (e quindi si appoggia ad una piattaforma HW), l'altra che funziona in emulazione, facendo uso delle unità di shading (implementata per questioni di compatibilità con i titoli che faranno uso di deferred shading, con cui non è possibile ricorrere alla modalità tradizionale). Allo stato attuale esiste un bug che non permette l'utilizzo delle unità dedicate nelle rop's, quindi l'AA passa sempre attraverso lo shader core.
In quanto alla difficoltà di programmazione, questa è dovuta essenzialemente a due motivi: la presenza di un gran numero di arbiter programmabili a basso livello (come ad esempio quello del MC, così come accadeva in R5x0) e l'approccio di tipo vliw utilizzato al livello inferiore dell'architettura. R600, al contrario di G80 che è un'architettura superscalare pura e quindi in grado di autobilanciarsi da sola in modo ottimale, utilizza un approccio misto SIMD (di tipo superscalare) e VLIW. Questo perchè non era possibile, per un chip con queste caratteristiche, complessità e campi di impiego, un approccio VLIW puro (come ad esempio avviene con Itanium). Un approccio VLIW sposta il controllo dei flussi e, di conseguenza, la possibilità di ottenere la massima parallelizzazione, a livello di compilatore anzichè a livello di runtime. Si ha quindi una gestione di tipo statico che per un chip che deve poter funzionare in modalità Out of Order non è possibile. Quindi si è scelto di implementare un'architettura SIMD a livello di controller (il multithreading processor, l'arbiter del MC, il circuito di branching ecc.) e di scegliere un approccio VLIW a livello di singoli gruppi di alu. Il vantaggio di un'architettura VLIW è quello di ottimizzare l'utilizzo dei registri, di ridurre la quantità di HW dedicato alle operazioni di controllo, trasmissione dati esegnali di feedback, di ridurre il numero di cicli per ogni singola istruzione. Di contro presenta una difficoltà notevolmente superiore nella programmazione, perchè colui che programma il compilatore deve conoscere alla perfezione l'architettura del chip, fin nei minimi dettagli per evitare il rischio di lasciare delle unità in idle. Inoltre, c'è la possibilità ma anche la necessità, di "aggiornare" continuamente il coimpilatore, per adattarlo al SW. In pratica, c'è, ancora più che in R5x0, la possibilità di ottimizzare per ognisingola applicazione, però, il rovescio della medaglia è che a livello di programmazione a basso livello, si ha sempre un cantiere aperto.
la 2900XT è a 80nm. mentre le 8800 sono tutte a 90nm ;)
sì mi sono confuso sul processo produttivo,hai ragione. non volevo fare un confronto fra g80 e r600,ma considerare solo quest'ultimo. intendevo dire cha con l'attuale processo produttivo ATI non poteva nè implementare un maggior numero di risorse a livello hardware (più rbe, nella fattispecie) nè compensare questo fatto alzando le frequenze del chip. qualcosa a mio avviso si vedrà con il passaggio a processo produttivo inferiore
oltre discutere su com'è fatta e confrontarla a come son fatte altre arkitetture attualmente in commercio nn vado :D ...nn mi permetto d dire come avrebbero dovuto farla x farla meglio dato ke sicuramente ki l'ha fatta così ne capisce + d me e se l'ha fatta così avrà avuto le sue buone ragioni...
...certo mi vien spontaneo kiedermi xkè siano rimasti fermi alle 16 tmu ke già in R580 + d qualke volta si erano rivelati il suo collo d bottiglia...e anke kiedermi perkè siano passati da un rapporto 3:1 (alu:tex...ke fino a r580 loro stessi indicavano come l'ottimale) ad un rapporto 4:1...xò magari è meglio così, ki lo sa :D ...ciao
senz'altro non mi permetto di giudicare l'architettura di un chip,io ho avuto un percorso di studi completamente diverso... solo che leggo con interesse i tuoi commenti, che ritengo competenti, e volevo sapere che ne pensavi. sull'ultimo punto del post sono assolutamente d'accordo con te :mano:
ti metto cosa mi ha risposto poco più di 2 mesi fà yoss riguardo a questa cosa dell'AA e altre informazioni su R600:
sono vere entrambe le cose; R600 utilizza, in teoria, due modalità di AA; una che fa uso di unità dedicate nelle rop's (e quindi si appoggia ad una piattaforma HW), l'altra che funziona in emulazione, facendo uso delle unità di shading (implementata per questioni di compatibilità con i titoli che faranno uso di deferred shading, con cui non è possibile ricorrere alla modalità tradizionale). Allo stato attuale esiste un bug che non permette l'utilizzo delle unità dedicate nelle rop's, quindi l'AA passa sempre attraverso lo shader core.
In quanto alla difficoltà di programmazione, questa è dovuta essenzialemente a due motivi: la presenza di un gran numero di arbiter programmabili a basso livello (come ad esempio quello del MC, così come accadeva in R5x0) e l'approccio di tipo vliw utilizzato al livello inferiore dell'architettura. R600, al contrario di G80 che è un'architettura superscalare pura e quindi in grado di autobilanciarsi da sola in modo ottimale, utilizza un approccio misto SIMD (di tipo superscalare) e VLIW. Questo perchè non era possibile, per un chip con queste caratteristiche, complessità e campi di impiego, un approccio VLIW puro (come ad esempio avviene con Itanium). Un approccio VLIW sposta il controllo dei flussi e, di conseguenza, la possibilità di ottenere la massima parallelizzazione, a livello di compilatore anzichè a livello di runtime. Si ha quindi una gestione di tipo statico che per un chip che deve poter funzionare in modalità Out of Order non è possibile. Quindi si è scelto di implementare un'architettura SIMD a livello di controller (il multithreading processor, l'arbiter del MC, il circuito di branching ecc.) e di scegliere un approccio VLIW a livello di singoli gruppi di alu. Il vantaggio di un'architettura VLIW è quello di ottimizzare l'utilizzo dei registri, di ridurre la quantità di HW dedicato alle operazioni di controllo, trasmissione dati esegnali di feedback, di ridurre il numero di cicli per ogni singola istruzione. Di contro presenta una difficoltà notevolmente superiore nella programmazione, perchè colui che programma il compilatore deve conoscere alla perfezione l'architettura del chip, fin nei minimi dettagli per evitare il rischio di lasciare delle unità in idle. Inoltre, c'è la possibilità ma anche la necessità, di "aggiornare" continuamente il coimpilatore, per adattarlo al SW. In pratica, c'è, ancora più che in R5x0, la possibilità di ottimizzare per ognisingola applicazione, però, il rovescio della medaglia è che a livello di programmazione a basso livello, si ha sempre un cantiere aperto.
:mano:
mi par di capire quindi che le modalità di AA siano di due tipi, di cui solo uno effettivamente utilizzato fin'ora.
edit_user_name_here
22-07-2007, 19:59
ragazzi cmq sapphire ha confermato l'uscita per settembre sul mercato retail europeo una 2900 da 1gb gddr4 e qualche rumors da anche la versione da 512 con gddr4
non esite una xtx diciamo che è come la x1950xt che aveva le gddr4 e la x1950xtx che aveva le gddr4.
visto che xò hanno deciso di mantere il nome commerciale di hd2900xt per tutti i modelli top con r600 e non diversificare il nome a seconda del quantitativo e delle ram onboard.
cmq grandi quantità di ram e di frequenza servono appunto per chi oltre a 450e di vga ha anche un monitor da 24" che puo andare a risoluzioni folli che oltre a beneficiare dal bus di 512bit beneficiano in maniera tangibile anche di quei 500-600mhz sulle ram certo che xò riuscire a saturare 138gb di banda^^
Intendi quelle a 65 nm?
Oppure x quelle standard?
TecnoWorld8
22-07-2007, 20:41
sono rimasto un po' lontano dal thread...ci sono per caso novità sull'eventuale versione a 65nm?
Iantikas
22-07-2007, 20:43
Intendi quelle a 65 nm?
Oppure x quelle standard?
no, la sapphire ha confermato ke farà uscire un modello con 1gb d ddr4 della hd2900xt...in pratica analogo a quello ke la diamond ha già fatto uscire un mesetto fa (poki post fa ho linkato un'articolo dove viene recensita se vuoi sapere ke miglioramenti porta)...ciao
Iantikas
22-07-2007, 20:45
sono rimasto un po' lontano dal thread...ci sono per caso novità sull'eventuale versione a 65nm?
no...le ultime roadmap ufficiali la vedono cancellata (in favore d una skeda, RV670, ke si posizionerà a metà tra hd2600xt e hd2900xt, sarà a 65nm e ke uscirà a novembre) e puntano direttamente ad inzio 2008 con R700 ke pare sarà addirittura a 55nm...ciao
TecnoWorld8
22-07-2007, 20:53
no...le ultime roadmap ufficiali la vedono cancellata (in favore d una skeda, RV670, ke si posizionerà a metà tra hd2600xt e hd2900xt, sarà a 65nm e ke uscirà a novembre) e puntano direttamente ad inzio 2008 con R700 ke pare sarà addirittura a 55nm...ciao
sigh, allora mi sa che per forza di cose, dovrò acquistare nvidia a novembre, dato che pare che allora uscirà la versione top di quell'azienda :( speravo molto in una R600 a 65nm.
Tidus.hw
22-07-2007, 21:28
no...le ultime roadmap ufficiali la vedono cancellata (in favore d una skeda, RV670, ke si posizionerà a metà tra hd2600xt e hd2900xt, sarà a 65nm e ke uscirà a novembre) e puntano direttamente ad inzio 2008 con R700 ke pare sarà addirittura a 55nm...ciao
e per la fascia alta useranno soluzioni dual RV670 ^^"
ragazzi vorrei cambiare la mia x1950pro, secondo mi conviene prendere ora la 2900xt? prezzo 350€ della sapphire!
Oppure meglio la 8800gtx (ma costa piu' di 110€ in +!)
oppure aspetto a dicembre?
grazie ;)
TecnoWorld8
22-07-2007, 22:11
ragazzi vorrei cambiare la mia x1950pro, secondo mi conviene prendere ora la 2900xt? prezzo 350€ della sapphire!
Oppure meglio la 8800gtx (ma costa piu' di 110€ in +!)
oppure aspetto a dicembre?
grazie ;)
io ormai aspetterò la prima scheda next gen che uscirà. e dai dati in mio possesso pare che sarà nVidia.
Intendi quelle a 65 nm?
Oppure x quelle standard?
ga concordo anche io non esiste nessun r600 a 65nm xè ottimizzare quel processo adesso per ottenere r600 di quella complessita con questi clock non è possibile ne in tempo utile ne economicamente.
success con le x850xt con 0.13nm ottimizzati che salivano di + delle x800xl con gli 0.11nm, è successo con r580 con gli 0.11 ottimizzati che andava + di rv570 fatto a 0.08.
adesso si punta molto come fascia media-alta su rv570 fatto a 0.65 non ottimizzato con 240sp e bus a 256bit.
oggettivamente se bisogna ricercare soldi sul processo produttivo(affermazione sbagliata cmq xè i soldi sul processo produttivo li spendono tsmc o umc o chi per loro ati si accolla solo(si fa per dire) il prezzo delle commissione e della progettazione dei chip che poi mandano alla fonderia e gli dicono "realizza sto sample co sta robba e vedi se è funzionale")
conviene spendere in un 0.55 spinto per le alte frequenze quindi altamente ottimizzato e un 0.45 grezzo che xò con chip meno complessi permette di arrivare a frequenze buone.
ti metto cosa mi ha risposto poco più di 2 mesi fà yoss riguardo a questa cosa dell'AA e altre informazioni su R600:
sono vere entrambe le cose; R600 utilizza, in teoria, due modalità di AA; una che fa uso di unità dedicate nelle rop's (e quindi si appoggia ad una piattaforma HW), l'altra che funziona in emulazione, facendo uso delle unità di shading (implementata per questioni di compatibilità con i titoli che faranno uso di deferred shading, con cui non è possibile ricorrere alla modalità tradizionale). Allo stato attuale esiste un bug che non permette l'utilizzo delle unità dedicate nelle rop's, quindi l'AA passa sempre attraverso lo shader core.
In quanto alla difficoltà di programmazione, questa è dovuta essenzialemente a due motivi: la presenza di un gran numero di arbiter programmabili a basso livello (come ad esempio quello del MC, così come accadeva in R5x0) e l'approccio di tipo vliw utilizzato al livello inferiore dell'architettura. R600, al contrario di G80 che è un'architettura superscalare pura e quindi in grado di autobilanciarsi da sola in modo ottimale, utilizza un approccio misto SIMD (di tipo superscalare) e VLIW. Questo perchè non era possibile, per un chip con queste caratteristiche, complessità e campi di impiego, un approccio VLIW puro (come ad esempio avviene con Itanium). Un approccio VLIW sposta il controllo dei flussi e, di conseguenza, la possibilità di ottenere la massima parallelizzazione, a livello di compilatore anzichè a livello di runtime. Si ha quindi una gestione di tipo statico che per un chip che deve poter funzionare in modalità Out of Order non è possibile. Quindi si è scelto di implementare un'architettura SIMD a livello di controller (il multithreading processor, l'arbiter del MC, il circuito di branching ecc.) e di scegliere un approccio VLIW a livello di singoli gruppi di alu. Il vantaggio di un'architettura VLIW è quello di ottimizzare l'utilizzo dei registri, di ridurre la quantità di HW dedicato alle operazioni di controllo, trasmissione dati esegnali di feedback, di ridurre il numero di cicli per ogni singola istruzione. Di contro presenta una difficoltà notevolmente superiore nella programmazione, perchè colui che programma il compilatore deve conoscere alla perfezione l'architettura del chip, fin nei minimi dettagli per evitare il rischio di lasciare delle unità in idle. Inoltre, c'è la possibilità ma anche la necessità, di "aggiornare" continuamente il coimpilatore, per adattarlo al SW. In pratica, c'è, ancora più che in R5x0, la possibilità di ottimizzare per ognisingola applicazione, però, il rovescio della medaglia è che a livello di programmazione a basso livello, si ha sempre un cantiere aperto.
bene bene come immaginavo è una scelta anche di marcheting.
cioè r600 puo fare dell'aa in maniera classica ma vista la sua archidettura superscalare pura e visto l'impegnoche ci abbiamo messo per farla visto che è uno sbattimento atroce fargli fare aa in maniera classica in dx9 lo facciamo via software negli shader.
una prodedura che in dx10 non pesa nulla e la affiniamo cfino all'inversimile con i dvr mentre vista la migrazione verso dx10 non conviene sbatterci alla stessa maniera in dx9 per fargli fare aa classico visto che tra poco le dx9 verranno abbandonate e quando si giochera a giochi dx9 su vista cmq la vga è abbastanza potente da gestirsi il suo aa software e non scendere troppo sotto le 8800gts.
se vogliamo una chiara direzione verso le dx10 anche una forzatura.
cmq il mercato lo dirà xè se da ati vedono che cmq il 90% dei gamers non è passato a vista e dx10 nei prossimi 2 o 3 mesi vedi come iniziano a lavorare sulla parte di "sbattimento" cioè riprogrammare i dvr dx9 nella parte aa per far fare a r600 l'aa in maniera tradizionale.
oppure se invece non vogliamo vederci la malizia evidentemente da ati pensano che ci voglia poco a fare questa implementazione e preferiscono per ora concentrarsi su una migliore ottimizazione dell'archidettura una volta che le unita di r600 sono gestite alla perfezione dai dvr allora mettono i programmatori a divertirsi per ogni modalità dx9-dx10.
anche xè non pensiamo solo a noi che prendiamo una vga e la teniamo 6 mesi max 12 ma alla gente che prende una fascia media che solitamente tiene 2 anni devi cmq garantirgli una certa giocabilità.
visto che affinando i dvr di r600 affini anche quelli di rv610 e rv630 forse è una cosa che nei prossimi 2 o 3 mesi vedremo.
si parla già di R700? hanno accelerato precchio per stare al passo con nvidia. ma pare che dinuovo sarà nvidia a proporre per prima la next gen di schede, la lentezza di ati mi sorprende, a stò punto, dopo sei mesi di attesa per R600, mese piu mese meno, si potevano mettere al lavoro direttamente su R700 abbandonando il progetto R600.
si parla già di R700? hanno accelerato precchio per stare al passo con nvidia. ma pare che dinuovo sarà nvidia a proporre per prima la next gen di schede, la lentezza di ati mi sorprende, a stò punto, dopo sei mesi di attesa per R600, mese piu mese meno, si potevano mettere al lavoro direttamente su R700 abbandonando il progetto R600.
a meno che non stiano lavorando sia su r650 sia su r700.
non è raro quando usci r520 quindi le x1800xt si parlava già di r600 e nessuno si aspettava r580.
cmq vediamo;)
fustacchione90
23-07-2007, 00:53
http://www.burnerman.com/images/xtx2.jpg
http://www.burnerman.com/images/bencxtx.jpg
http://www.burnerman.com/images/xtx1.jpg
or vi posto queste img che ho preso da sto sito...xo le potete trovare in moooooooolti altri siti ^^ (ah è riguardo la xtx ^^)
Iantikas
23-07-2007, 01:26
bene bene come immaginavo è una scelta anche di marcheting.
cioè r600 puo fare dell'aa in maniera classica ma vista la sua archidettura superscalare pura e visto l'impegnoche ci abbiamo messo per farla visto che è uno sbattimento atroce fargli fare aa in maniera classica in dx9 lo facciamo via software negli shader.
una prodedura che in dx10 non pesa nulla e la affiniamo cfino all'inversimile con i dvr mentre vista la migrazione verso dx10 non conviene sbatterci alla stessa maniera in dx9 per fargli fare aa classico visto che tra poco le dx9 verranno abbandonate e quando si giochera a giochi dx9 su vista cmq la vga è abbastanza potente da gestirsi il suo aa software e non scendere troppo sotto le 8800gts.
se vogliamo una chiara direzione verso le dx10 anche una forzatura.
cmq il mercato lo dirà xè se da ati vedono che cmq il 90% dei gamers non è passato a vista e dx10 nei prossimi 2 o 3 mesi vedi come iniziano a lavorare sulla parte di "sbattimento" cioè riprogrammare i dvr dx9 nella parte aa per far fare a r600 l'aa in maniera tradizionale.
oppure se invece non vogliamo vederci la malizia evidentemente da ati pensano che ci voglia poco a fare questa implementazione e preferiscono per ora concentrarsi su una migliore ottimizazione dell'archidettura una volta che le unita di r600 sono gestite alla perfezione dai dvr allora mettono i programmatori a divertirsi per ogni modalità dx9-dx10.
anche xè non pensiamo solo a noi che prendiamo una vga e la teniamo 6 mesi max 12 ma alla gente che prende una fascia media che solitamente tiene 2 anni devi cmq garantirgli una certa giocabilità.
visto che affinando i dvr di r600 affini anche quelli di rv610 e rv630 forse è una cosa che nei prossimi 2 o 3 mesi vedremo.
dato ke hai quotato il mex di yoss nn ho capito come hai fatto ad arrivare a queste conclusioni...
...dato ke dice kiaramente ke Allo stato attuale esiste un bug che non permette l'utilizzo delle unità dedicate nelle rop's, quindi l'AA passa sempre attraverso lo shader core.
come fai tu a dire bene bene come immaginavo è una scelta anche di marcheting.
cioè r600 puo fare dell'aa in maniera classica ma vista la sua archidettura superscalare pura e visto l'impegnoche ci abbiamo messo per farla visto che è uno sbattimento atroce fargli fare aa in maniera classica in dx9 lo facciamo via software negli shader.
...inoltre son speculazioni anke il fatto ke i gioki DX10 rikiedano ke l'AA sia fatto in shader...
...io penso ke se veramente anke x il box vengono usati gli shader è stata cmq una scelta forzata dettata da un bug o un difetto HW...è impossibile ke sia una scelta d "marketing" dato ke è controproducente all'inverosimile al lancio della skeda e durante i suoi primi mesi di vita ke sono il periodo + importante...ciao
http://www.burnerman.com/images/xtx2.jpg
http://www.burnerman.com/images/bencxtx.jpg
http://www.burnerman.com/images/xtx1.jpg
or vi posto queste img che ho preso da sto sito...xo le potete trovare in moooooooolti altri siti ^^ (ah è riguardo la xtx ^^)
Ma ancora 'sta roba gira? E' roba vecchia di almeno tre mesi :rolleyes:
TecnoWorld8
23-07-2007, 08:31
a meno che non stiano lavorando sia su r650 sia su r700.
non è raro quando usci r520 quindi le x1800xt si parlava già di r600 e nessuno si aspettava r580.
cmq vediamo;)
secondo me sarebbe un'ottima cosa per ATi fare uno step intermedio tra questo R600, che nn si è mai posizionato al top del mercato come prestazioni, ed un R700, che finirebbe per uscire di nuovo mesi dopo ad un nuovo top di gamma di nVidia. Se non lo fa, rischia di perdere completamente gli utenti "enthusiast", nonchè molto prestigio...
+Lonewolf+
23-07-2007, 08:34
r600 nella sua fascia di prezzo è imbattibile, la cosa migliore sarebbe fare un intermedio moddabile a 2900xt un po' come le 1800gto moddabili a xt
si parla già di R700? hanno accelerato precchio per stare al passo con nvidia. ma pare che dinuovo sarà nvidia a proporre per prima la next gen di schede, la lentezza di ati mi sorprende, a stò punto, dopo sei mesi di attesa per R600, mese piu mese meno, si potevano mettere al lavoro direttamente su R700 abbandonando il progetto R600.
Avevano un ottimo prodotto, non vedo perchè non farlo uscire, visto anche il successo di mercato.
dato ke hai quotato il mex di yoss nn ho capito come hai fatto ad arrivare a queste conclusioni...
...dato ke dice kiaramente ke
come fai tu a dire
...inoltre son speculazioni anke il fatto ke i gioki DX10 rikiedano ke l'AA sia fatto in shader...
...io penso ke se veramente anke x il box vengono usati gli shader è stata cmq una scelta forzata dettata da un bug o un difetto HW...è impossibile ke sia una scelta d "marketing" dato ke è controproducente all'inverosimile al lancio della skeda e durante i suoi primi mesi di vita ke sono il periodo + importante...ciao
In dx10 lo fai da shaders o da rops, la differenza pare che sia che, nel primo caso, lo abiliti quando vuoi, nel secondo si scontra con i medesimi problemi di dx9.
TecnoWorld8
23-07-2007, 08:54
r600 nella sua fascia di prezzo è imbattibile, la cosa migliore sarebbe fare un intermedio moddabile a 2900xt un po' come le 1800gto moddabili a xt
questo è vero, ma io, se dirigessi un'azienda "storica" come ATi, vorrei avere anche un prodotto che se la gioca con il top dei top sul mercato, per una questione di prestigio. Per questo secondo me sarebbe bello che, per l'uscita di crysis o giù di lì, ATi fosse in grado di immettere sul mercato un prodotto con prestazioni pari o superiori rispetto ad una 8800 Ultra, ad un prezzo attorno ai 450/500€, in modo da mostrare che non solo sa fare ottime schede ad un prezzo vantaggioso (R600), ma anche di poter ancora gareggiare al top.
E sarebbe bello, dato che il processo a 65nm è maturissimo per quanto riguarda le CPU e le GPU di gamma media, che lo adottasse per il top, in modo da battere nVidia sotto questo punto di vista.
Ripeto, tutto ciò sarebbe per me il modo "migliore" per riprendersi un po' di prestigio perso con il ritardo (ed in parte le prestazioni, che sono ottime per il prezzo, ma non al top) di R600.
Ma se uno a 350 euro si prende una scheda molto veloce in dx9, orientata però a dx10 e quindi potenzialmente meglio in quest'ambito, non penso si debba fare problemi di prestigio o di dinamiche aziendali.
Alla fine giochiamo con i giochi, non con i bilanci.
Athlon 64 3000+
23-07-2007, 09:43
quello che ho riportato è stato una risposta che yoss mi ha dato in un messaggio privato la settimana scorsa.
dato ke hai quotato il mex di yoss nn ho capito come hai fatto ad arrivare a queste conclusioni...
...dato ke dice kiaramente ke
come fai tu a dire
...inoltre son speculazioni anke il fatto ke i gioki DX10 rikiedano ke l'AA sia fatto in shader...
...io penso ke se veramente anke x il box vengono usati gli shader è stata cmq una scelta forzata dettata da un bug o un difetto HW...è impossibile ke sia una scelta d "marketing" dato ke è controproducente all'inverosimile al lancio della skeda e durante i suoi primi mesi di vita ke sono il periodo + importante...ciao
sono vere entrambe le cose; R600 utilizza, in teoria, due modalità di AA; una che fa uso di unità dedicate nelle rop's (e quindi si appoggia ad una piattaforma HW), l'altra che funziona in emulazione, facendo uso delle unità di shading (implementata per questioni di compatibilità con i titoli che faranno uso di deferred shading, con cui non è possibile ricorrere alla modalità tradizionale). Allo stato attuale esiste un bug che non permette l'utilizzo delle unità dedicate nelle rop's, quindi l'AA passa sempre attraverso lo shader core.
partiamo da questa prima frase che forse è quella che ci interessa.
1) se leggi le pecifiche delle api dx10 l'aa puo essere eseguito sia in maniera classica che in maniera via shader ergo mentre nvidia ha scelto di eseguirlo in maniera classica e credo se il gioco lo supporta lo puo fare anche in maniera shader visto che cmq i suoi shader clock sono abbastanza elevati qundi credo che sicuramente riuscirebbe a gestirlo, mentre ati ha scelto per r600 di fare solo aa via shader forse propio per la sua archidettura superscalare.
quando yoss dice "Allo stato attuale esiste un bug che non permette l'utilizzo delle unità dedicate nelle rop's, quindi l'AA passa sempre attraverso lo shader core" non specifica che tipo di bug.
è un bug software?allora cmq ati ha lo stesso sbagliato xè al lancio sapeva benissimo che le 2900 sarebbero state testate su 10giochi dx9 e 1 solo dx10.
oppure anche su vista ma sempre su giochi dx9 che non supportano l'uso del
deferred shading.
è un bug hardware?allora forse la cosa è un pò peggio.
ergo a seconda delle 2 opzioni ati ha solo 2 strade.
se il bug è hw forzare i suoi acquirenti ad una migrazione di massa su windows e sui giochi dx10 nella speranza che i programmatori programmino usando il deferred shading visto che in dx10 non c'è questo obbligo quindi potrebbero programmare in dx10 e lasciare l'aa classico e in questo caso la serie dx10 ati avrebbe gli stessi cali con aa on.
se il bug è software tanto ormai durante i test la figura barbina cmq la hanno fatta(che vuole screditare la hd2900xt come succede sul forum della 8800gts continua a buttare i primi test della scheda senza mettere i test cn i dvr nuovi) a questo punto visto che sitamo alle porte della seconda release post lancio dovrebbero averlo risolto e finalmente fare l'aa via rop's con i game dx9.
se non lo fanno le cose sono 2
o il bug è via hw ed allora hanno x quanto questa scheda è fantastica e per quanto io tenga ad ati allora cmq ci hanno rifilato un prodotto buggato
oppure oggettivamente o stanno prendendo tempo nella gestione di questa archidettura superscalare per creare un coredriver che riesca a gestire in maniera ottimale non solo l'archidettura di r600 ma anche quella dei suoi derivati visto che sono tutte a base superscalare e poi in un sencondo momento si dedicano a questo problema sul bug per l'aa in rop's per le dx9.
oppure è merchandasing evidentemente forse si sono resi conto che sbattersi per risolvere questo bug per fare l'aa rop's in dx9 è troppo lungo in termini di tempo e di soldi allora forzando sempre l'uso del aa via shader che sotto dx10 non ha questi cali mostruosi come sotto dx9 ti spingono a passare subito sotto piattaforma dx10 e giochi dx10.
-Feanor-
23-07-2007, 11:29
Ma ancora 'sta roba gira? E' roba vecchia di almeno tre mesi :rolleyes:
anche di piu...sono le speculazioni di quando ancora non si sapeva che non avrebbe puntato alla 8800 gtx...le foto sono della versione OEM..
Free Gordon
23-07-2007, 12:14
purtroppo sto sistema è molto efficace o cmq utilizzabile in dx10 mentre in dx9 è mal digerito propio dalle dx9 ergo ecco qui che quando sia la parte hw che la parte software sono un pò carenti gli uni con gli altri ci possono stare qualche perdita non prevista o eccessiva nel framerate originale
Io credo che questo modo di fare AA sia più costoso che quello "relativamente" free (considerando banda e capacità delle rops) di G80 in post processing (come le vecchie architetture).
Dx9 o Dx10 che siano...
Ovviamente l'AA di R600 porta dei vantaggi, migliore qualità possibile e possibilità di inserire l'AA come parte integrante del motore, per cui poterlo ottimizzare di volta in volta via software attraverso la programmazione ma le API non c'entrano granchè.
Costerà sempre di più sia in dx9 che in dx10 in rapporto a quello classico, solo che quando anche le altre architetture saranno obbligate a farlo così, R600 sarà in vantaggio... ;)
TecnoWorld8
23-07-2007, 12:26
Costerà sempre di più sia in dx9 che in dx10 in rapporto a quello classico, solo che quando anche le altre architetture saranno obbligate a farlo così, R600 sarà in vantaggio... ;)
Il problema è...QUANDO saranno obbligate a farlo così? non è che ciò avverrà così tanto in là (es. 1 anno o più) da rendere poco utile il tutto, dato che per allora anche nVidia avrà adottato una soluzione analoga?
Il problema è...QUANDO saranno obbligate a farlo così? non è che ciò avverrà così tanto in là (es. 1 anno o più) da rendere poco utile il tutto, dato che per allora anche nVidia avrà adottato una soluzione analoga?
è logico che sarà così, non penso che non faccia nulla nvidia, e quando i gioki saranno così obbligatoriamente, r600 sarà obsoleto a mio parere
Free Gordon
23-07-2007, 12:32
quello che ho riportato è stato una risposta che yoss mi ha dato in un messaggio privato la settimana scorsa.
ah, per cui è vivo.. :D
proviamo ad evocarlo, magari sbuca per parlarci di questa questione del bug (che a dire il vero non ho compreso appieno..)
Bug risolvibile via driver o.... no?
Perchè se ci fosse la possibilità di fare aa via rops anche su R600 ma non è mai stata sfruttata allora si capirebbero molte cose.. e la scheda oltretutto avrebbe prestazioni mooolto più vicine alla GTX di quanto si percepisca oggi (parlando dei giochi attuali, ovviamente :D sui giochi futuri sono abbastanza confidente del fatto che potrà andare anche più forte della Ultra :D ).
Free Gordon
23-07-2007, 12:44
Il problema è...QUANDO saranno obbligate a farlo così? non è che ciò avverrà così tanto in là (es. 1 anno o più) da rendere poco utile il tutto, dato che per allora anche nVidia avrà adottato una soluzione analoga?
Bioshock e UT3 in dx10. ;)
Non è così lontano come sembra. :D
ps.
Bioshock non so se userà deferred shading ma essendo la piattaforma software l'UE3 (sono migrati nell'ultimo anno), penso di sì.
3DMark79
23-07-2007, 13:24
Ragazzi per chi volesse fare qualche test è uscito Rightmark in Direct 10
è stato postato qui:
http://www.hwupgrade.it/forum/showthread.php?t=1517965
Buon divertimento e rendeteci partecipi!:D
Konrad76
23-07-2007, 13:29
Ragazzi per chi volesse fare qualche test è uscito Rightmark in Direct 10
è stato postato qui:
http://www.hwupgrade.it/forum/showthread.php?t=1517965
Buon divertimento e rendeteci partecipi!:D
Sarei curioso di provarlo, ma esistono dei risultati con cui comparare le prove?;)
3DMark79
23-07-2007, 13:35
Sarei curioso di provarlo, ma esistono dei risultati con cui comparare le prove?;)
Non saprei :boh: ,me lo chiedevo anch'io...dobbiamo cercare in giro qualcosa.:help:
Bioshock e UT3 in dx10. ;)
Non è così lontano come sembra. :D
ps.
Bioshock non so se userà deferred shading ma essendo la piattaforma software l'UE3 (sono migrati nell'ultimo anno), penso di sì.
il problama è che nelle dx10 non c'è l'obbligo di fare l'aa solo via shader.
gli sviluppatori possono decidere se programmarlo direttamente nel motore di fatto facendolo via shader.
oppure nella maniera classica...se è nella maniera classica allora g80 lo farà normalmente mentre r600 andrà in emulazione software come adesso.
ad esempio ut3 che è cmq un motore dx9 con win xp e vga radeon non permetterà l'abilitazione dell'aa mentre sotto vista e dx10 invece r600 andrà in emulazione software.
speriamo che propio con l'uscita di ut3 i pr della ati riescano a risolvere sto bug se no lo sai che figura da barboni con chi ha ancora xp?
TecnoWorld8
23-07-2007, 13:47
Bioshock e UT3 in dx10. ;)
Non è così lontano come sembra. :D
ps.
Bioshock non so se userà deferred shading ma essendo la piattaforma software l'UE3 (sono migrati nell'ultimo anno), penso di sì.
anche STALKER mi pare usi questa tecnica, ma dubito che R600 possa usare gli shader per applicare l'AA in quel gioco. sbaglio?
anche STALKER mi pare usi questa tecnica, ma dubito che R600 possa usare gli shader per applicare l'AA in quel gioco. sbaglio?
se è sotto sp e dx9 no
se ci giochi sotto vista e ha la path dx10 con il DF allora si l'aa dovrebbe pesare molto meno che sotto xp
-Feanor-
23-07-2007, 14:09
se è sotto sp e dx9 no
se ci giochi sotto vista e ha la path dx10 con il DF allora si l'aa dovrebbe pesare molto meno che sotto xp
esiste una pacth dx10 per stalker...??? :stordita: :stordita:
Free Gordon
23-07-2007, 14:14
il problama è che nelle dx10 non c'è l'obbligo di fare l'aa solo via shader.
In quei due giochi (dx10) che ho nominato sì (ad esempio).
Ma non saranno i soli in quest'autunno/inverno. ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.