View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
Iantikas
15-09-2007, 13:17
cmq l'adattatore 6 -> 8 pin al momento nn serve a niente...dato ke cmq l'overdrive ti lmita pesantemente nelle max freq impostabili e se vuoi trovare il limite della skeda anke con dissi stock cmq devi usare prog d terze parti come rivatuner o atitool...
...inoltre è stato appurato da diversi siti/forum ke il max oc sopportato dalla skeda è il medesimo sia ke la si alimenti con 2x6pin ke con 6pin+8pin...
...ciao
lo immaginavo...
Baio73, ottimo ali...;)
leoneazzurro
15-09-2007, 14:03
Specifiche praticamente ufficiali della HD2900 Pro:
http://www.overclockers.co.uk/showproduct.php?prodid=GX-083-HT&groupid=701&catid=56&subcat=922
in pratica una 2900XT a 512 con core a 600 MHZ venduto a 250-260€ tasse incluse. Le memorie sono a 1600 MHz come la sorella maggiore.
Se sarà overcloccabile non sarà affatto male come rapporto prezzo/prestazioni, anche se a default sarà probabilmente più lenta delle GTS 320 Mega con cui va a confrontarsi.
Specifiche praticamente ufficiali della HD2900 Pro:
http://www.overclockers.co.uk/showproduct.php?prodid=GX-083-HT&groupid=701&catid=56&subcat=922
in pratica una 2900XT a 512 con core a 600 MHZ venduto a 250-260€ tasse incluse. Le memorie sono a 1600 MHz come la sorella maggiore.
Se sarà overcloccabile non sarà affatto male come rapporto prezzo/prestazioni, anche se a default sarà probabilmente più lenta delle GTS 320 Mega con cui va a confrontarsi.
La potevano chiamare XL, e fare una versione a 256 bit da chiamare Pro. :mbe:
Imho per ovecloccare come si deve si dovrà andare di overvolt.
leoneazzurro
15-09-2007, 14:50
La potevano chiamare XL, e fare una versione a 256 bit da chiamare Pro. :mbe:
Imho per ovecloccare come si deve si dovrà andare di overvolt.
Quella sarà R(V?)670
Comunque non credo che ci sia bisogno di overvolt (o meglio, di overvolt rispetto a R600) se il processo è rimasto lo stesso.
Quella sarà R(V?)670
Comunque non credo che ci sia bisogno di overvolt (o meglio, di overvolt rispetto a R600) se il processo è rimasto lo stesso.
Magari per mantenere consumi e calore minori hanno tolto dei volt al R600 della Pro rispetto a quelli dati alla versione XT.
Un po' come hanno fatto con la X1950GT rispetto alla Pro. ;)
Specifiche praticamente ufficiali della HD2900 Pro:
http://www.overclockers.co.uk/showproduct.php?prodid=GX-083-HT&groupid=701&catid=56&subcat=922
in pratica una 2900XT a 512 con core a 600 MHZ venduto a 250-260€ tasse incluse. Le memorie sono a 1600 MHz come la sorella maggiore.
...questa postata da te, come hai scritto, è la versione con 512 Mb. Unica differenza dalla sorella maggiore XT il core a 600 MHz Core. Prezzo di vendita 144 £.
...invece questa è la HD 2900 Pro 1024 Mb: Listino Overclockers UK (http://www.overclockers.co.uk/showproduct.php?prodid=GX-159-SP&groupid=701&catid=56&subcat=922)
Caratteristiche: 600 MHz Core, 1024 Mb 1600MHz GDDR4 Memory, 320 Stream Processors. Prezzo di vendita 179 £.
:)
...recensione molto ampia datata 11 settembre da X-bit Labs: Diamonds ATI Radeon HD 2900 XT 1GB (http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html)
...ciao! :)
Iantikas
15-09-2007, 16:22
Specifiche praticamente ufficiali della HD2900 Pro:
http://www.overclockers.co.uk/showproduct.php?prodid=GX-083-HT&groupid=701&catid=56&subcat=922
in pratica una 2900XT a 512 con core a 600 MHZ venduto a 250-260€ tasse incluse. Le memorie sono a 1600 MHz come la sorella maggiore.
Se sarà overcloccabile non sarà affatto male come rapporto prezzo/prestazioni, anche se a default sarà probabilmente più lenta delle GTS 320 Mega con cui va a confrontarsi.
ma nn doveva avere il bus a 256bit ed essere fatta a 65nm?...
...mi sembra strana come skeda...cioè lunica differenza dalla HD2900XT 512mb sono 140mhz nella freq del core...tutto il resto è identico...
...ciao
ma nn doveva avere il bus a 256bit ed essere fatta a 65nm?...
...mi sembra strana come skeda...cioè lunica differenza dalla HD2900XT 512mb sono 140mhz nella freq del core...tutto il resto è identico...
...ciao
Si molto strana come scheda :confused: cioè identica alla solrella maggiore ma poi ha i 140 mhz del core in meno.... :mbe:
leoneazzurro
15-09-2007, 16:43
Magari per mantenere consumi e calore minori hanno tolto dei volt al R600 della Pro rispetto a quelli dati alla versione XT.
Un po' come hanno fatto con la X1950GT rispetto alla Pro. ;)
Si, probabile. Quello che dicevo io è che comunque un eventuale overvolt a "R600" non dovrebbe dare problemi.
leoneazzurro
15-09-2007, 16:47
ma nn doveva avere il bus a 256bit ed essere fatta a 65nm?...
...mi sembra strana come skeda...cioè lunica differenza dalla HD2900XT 512mb sono 140mhz nella freq del core...tutto il resto è identico...
...ciao
E che ti debbo dire... coglie di sorpresa anche me.. a meno che non ci siano errori di trascrizione e il bus sia a 256 anzichè 512 bit (IMHO non cambierebbe moltissimo dal punto di vista prestazionale). Certo per contenee i costi di produzione una soluzione a 512 bit è ben lontana dall'essere ottimale...
E che ti debbo dire... coglie di sorpresa anche me.. a meno che non ci siano errori di trascrizione e il bus sia a 256 anzichè 512 bit (IMHO non cambierebbe moltissimo dal punto di vista prestazionale). Certo per contenee i costi di produzione una soluzione a 512 bit è ben lontana dall'essere ottimale...
nò non ci sono errori di trascrizioni,questa hd 2900 pro ha una sua corrispettiva firegl che è la V7600 http://www.hwupgrade.it/news/skvideo/schede-ati-firegl-anche-da-sapphire_22442.html
Foglia Morta
15-09-2007, 17:00
nò non ci sono errori di trascrizioni,questa hd 2900 pro ha una sua corrispettiva firegl che è la V7600 http://www.hwupgrade.it/news/skvideo/schede-ati-firegl-anche-da-sapphire_22442.html
ma infatti la V7600 è una scheda con bus esterno a 256bit , è questa l'anomalia
Foglia Morta
15-09-2007, 17:07
è un po caro quello shop comunque :read:
la sapphire HD2900 PRO 512MB retail in Germany costa 213 euro. Curioso di vedere le prestazioni
http://geizhals.at/deutschland/?fs=hd2900+pro&x=0&y=0&in=
Edit: Comunque gli shop tedeschi mi pare che parlino proprio di bus a 256bit
gianni1879
15-09-2007, 17:20
Specifiche praticamente ufficiali della HD2900 Pro:
http://www.overclockers.co.uk/showproduct.php?prodid=GX-083-HT&groupid=701&catid=56&subcat=922
in pratica una 2900XT a 512 con core a 600 MHZ venduto a 250-260 tasse incluse. Le memorie sono a 1600 MHz come la sorella maggiore.
Se sarà overcloccabile non sarà affatto male come rapporto prezzo/prestazioni, anche se a default sarà probabilmente più lenta delle GTS 320 Mega con cui va a confrontarsi.
se saranno quelle le caratteristiche potrebbe essere un'ottima scelta! Poi si va di oc e ti ritrovi la sorella maggiore :)
+Lonewolf+
15-09-2007, 17:35
è una notizia ottima:)
oggi stavo per prenderla, ma poi è rimasta sullo scaffale...:(
è un po caro quello shop comunque :read:
la sapphire HD2900 PRO 512MB retail in Germany costa 213 euro. Curioso di vedere le prestazioni
http://geizhals.at/deutschland/?fs=hd2900+pro&x=0&y=0&in=
Edit: Comunque gli shop tedeschi mi pare che parlino proprio di bus a 256bit
la scheda a quel prezzo si fà veramente interessante...
come è sta storia del bus esterno della firegl V7600 ?
oggi stavo per prenderla, ma poi è rimasta sullo scaffale...:(
pecchè?:p
+Lonewolf+
15-09-2007, 18:09
hem...favoloso...
http://www.legionhardware.com/document.php?id=683&p=0
:D :D :D
oggi stavo per prenderla, ma poi è rimasta sullo scaffale...:(
peccato, se ti può essere di conforto io (e molti altri) siamo molto soddisfatti
non ero convinto..:mc:
peccato
hem...favoloso...
http://www.legionhardware.com/document.php?id=683&p=0
:D :D :D
sono sempre più contento di Ati!!!
edit: in passato ho preso molte schede, ma nessuna mi ha mai regalato queste soddisfazioni, e soprattutto (lo so che può sembrare stupido) sono contendo di aver dato i miei soldi ad Ati, visto che ultimamente nn passa un bel periodo.
leoneazzurro
15-09-2007, 19:16
è un po caro quello shop comunque :read:
la sapphire HD2900 PRO 512MB retail in Germany costa 213 euro. Curioso di vedere le prestazioni
http://geizhals.at/deutschland/?fs=hd2900+pro&x=0&y=0&in=
Edit: Comunque gli shop tedeschi mi pare che parlino proprio di bus a 256bit
No, la Gecube è listata proprio come 512 Mbyte, 512 bit
No, la Gecube è listata proprio come 512 Mbyte, 512 bit
C'è qualcosa che non va a questo punto che senso avrebbe avere la 2900xt,se con un po di overvolt raggiungo le stesse frequenze di quest'ultima :confused: e poi i costi di produzione come dicevi tu sopra come sono stati recuperati mettendola a quel prezzo :confused:
gianni1879
15-09-2007, 19:45
hem...favoloso...
http://www.legionhardware.com/document.php?id=683&p=0
:D :D :D
non male veramente :) :) :)
si comporta davvero bene, anche la hd2600xt nei confronti della 8600gts
leoneazzurro
15-09-2007, 20:00
C'è qualcosa che non va a questo punto che senso avrebbe avere la 2900xt,se con un po di overvolt raggiungo le stesse frequenze di quest'ultima :confused: e poi i costi di produzione come dicevi tu sopra come sono stati recuperati mettendola a quel prezzo :confused:
Dal punto di vista del silicio G80 dovrebbe costare di più, ma certo è che il PCB e il sistema di raffreddamento di R600 sono più costosi, così come i 192 Mbyte di RAM in più. Non saprei dirti, a questo punto, forse è una soluzione di transizione che sarà sul mercato per pochi mesi in attesa di R670 (e forse di altre schede high-end R600 based)
non male veramente :) :) :)
si comporta davvero bene, anche la hd2600xt nei confronti della 8600gts
infatti ;)
gianni1879
15-09-2007, 20:17
C'è qualcosa che non va a questo punto che senso avrebbe avere la 2900xt,se con un po di overvolt raggiungo le stesse frequenze di quest'ultima :confused: e poi i costi di produzione come dicevi tu sopra come sono stati recuperati mettendola a quel prezzo :confused:
guarda se uscisse veramente con 512bit la prendo al volo a costo che poi vado di vmod con il mio saldatore :D (sempre se atitool non permette il cambio via sw) e se il chip non è in qualche maniera castrato rispetto alla sorella maggiore
guarda se uscisse veramente con 512bit la prendo al volo a costo che poi vado di vmod con il mio saldatore :D (sempre se atitool non permette il cambio via sw) e se il chip non è in qualche maniera castrato rispetto alla sorella maggiore
Quoto..io sono un felice possessore di 8800gts 320mb..ma visto il prezzaccio della pro..cambierei al volo!
Spero che escano presto recensioni o quanto meno dettagli precisi della suddetta!
Se qualk1 sa qualkosa posti pure!!
Dal punto di vista del silicio G80 dovrebbe costare di più, ma certo è che il PCB e il sistema di raffreddamento di R600 sono più costosi, così come i 192 Mbyte di RAM in più. Non saprei dirti, a questo punto, forse è una soluzione di transizione che sarà sul mercato per pochi mesi in attesa di R670 (e forse di altre schede high-end R600 based)
imho R600 costa di piu di G80
contando i 700 milioni di transistor, e il bus a 512 bit
E molto piu rumorosa rispetto 8800\320 ?
da ieri su Steam si può iniziare a scaricare Team Fortress 2, e entro poco anche HL2 (titolo che aspetto molto molto intensamente) e Portal.
E molto piu rumorosa rispetto 8800\320 ?
si un pochino, cmq la ventola nn va mai oltre il 30/37% (anche perchè se no è un reattore :asd: :asd: )
da ieri su Steam si può iniziare a scaricare Team Fortress 2, e entro poco anche HL2 (titolo che aspetto molto molto intensamente) e Portal.
Si può scaricare Team fortess 2 ma usando il codice uscito nel bundle della 2900xt?
Si può scaricare Team fortess 2 ma usando il codice uscito nel bundle della 2900xt?
Esatto
Esatto
Ma tu l'hai provato? volevo chiedere anche se è molto OT dove va messo il codice per scaricare il gioco?
Ma tu l'hai provato? volevo chiedere anche se è molto OT dove va messo il codice per scaricare il gioco?
ora siamo ot, cmq è breve: devi creare un account in steam, poi devi cercare la voce "attiva un prodotto su Steam" e inserisci il key. dopo nella sezione game ti darà ben 4 game: TF2, HF2, Portal e (quel altro di cui nn ricordo il nome).
edit: dimenticavo: il game è utilizzabile dal 10-10, ora puoi fare il pre-scarico, come per bioshock, che usciva il 24 e dal 21 potevi fare il pre-scarico, poi dal 24 ti dava la possibilità di avviarlo
Mi interessa questa :
www.hwupgrade.it/news/skvideo/radeon-hd-2900-xt-1-gbyte-in-vendita_21482.html
E disponibile in Italia ?
Mi interessa questa :
www.hwupgrade.it/news/skvideo/radeon-hd-2900-xt-1-gbyte-in-vendita_21482.html
E disponibile in Italia ?
mi pare di no (a meno che nn la fai ordinare), cmq cerca su trovaprezzi ;)
ora siamo ot, cmq è breve: devi creare un account in steam, poi devi cercare la voce "attiva un prodotto su Steam" e inserisci il key. dopo nella sezione game ti darà ben 4 game: TF2, HF2, Portal e (quel altro di cui nn ricordo il nome).
edit: dimenticavo: il game è utilizzabile dal 17-09, ora puoi fare il pre-scarico, come per bioshock, che usciva il 24 e dal 21 potevi fare il pre-scarico, poi dal 24 ti dava la possibilità di avviarlo
su steam dicono che saranno rilasciati il 10 ottobre :stordita:
leoneazzurro
15-09-2007, 21:28
imho R600 costa di piu di G80
contando i 700 milioni di transistor, e il bus a 512 bit
No, perchè il die di G80 è più grande (90 nm contro 80, e con solo 20 milioni di transistors di differenza), e si deve contare nel costo anche il chip NVIO (quindi ci sono 2 packaging invece di 1 anche se più costoso preso singolarmente). Il PCB è invece probabilmente più costoso per R600.
su steam dicono che saranno rilasciati il 10 ottobre :stordita:
ops lol, edito subito, thk per evermelo detto (nn so come mai ma avevo letto il 17 e ne sono stra sicuro)
ops lol, edito subito, thk per evermelo detto (nn so come mai ma avevo letto il 17 e ne sono stra sicuro)
il 17 mi pare faranno una sorta di beta-test per team fortress 2 :mad: (avrei preferito la beta test di portal :asd: )
No, perchè il die di G80 è più grande (90 nm contro 80, e con solo 20 milioni di transistors di differenza), e si deve contare nel costo anche il chip NVIO (quindi ci sono 2 packaging invece di 1 anche se più costoso preso singolarmente). Il PCB è invece probabilmente più costoso per R600.
ha ok.., mi sono confuso, R600 è stato piu costoso da progettare perchè piu complesso di G80, ma nella realizzazione vera e propria costa di piu G80 :D
il 17 mi pare faranno una sorta di beta-test per team fortress 2 :mad: (avrei preferito la beta test di portal :asd: )
lol idem, cmq sono molto curioso di vedere l 2900 in azione sotto hl2 e portal, certo anche team fortress 2, ma soprattutto con loro 2.
oltre che hanno stra ottimizzato i driver per i motori di valve, quindi dì vedremo.
Le ottimizzazioni con i 7.8, i 7.9 ne hanno altre ancora?
ha ok.., mi sono confuso, R600 è stato piu costoso da progettare perchè piu complesso di G80, ma nella realizzazione vera e propria costa di piu G80 :D
ma ve be io ho l'impressione che su tutta la serie G80 nvidia ci mangi sopra e nn poco, a partire dalle ultra, che sono delle GTX occate, e che costano anche 200€ di più, cosa che per i miei principi è assurdo, anzi credo che lo sia per tutti, cioè ci fosse una differenza di 50€ ok, ma nn è così.
cmq siamo molto ot, torniamo sulla 2900
ma ve be io ho l'impressione che su tutta la serie G80 nvidia ci mangi sopra e nn poco, a partire dalle ultra, che sono delle GTX occate, e che costano anche 200€ di più, cosa che per i miei principi è assurdo, anzi credo che lo sia per tutti, cioè ci fosse una differenza di 50€ ok, ma nn è così.
cmq siamo molto ot, torniamo sulla 2900
purtroppo nvidia non ha rivali sulla fascia high high high end :sofico: che al momento è rappresentata dalla 8800 ultra... che altro non è che una 8800GTX overcloccata che la fa andare si e no 5%, l'inutilità fatta scheda, e il prezzo è vergognoso :rolleyes:
purtroppo nvidia non ha rivali sulla fascia high high high end :sofico: che al momento è rappresentata dalla 8800 ultra... che altro non è che una 8800GTX overcloccata che la fa andare si e no 5%, l'inutilità fatta scheda, e il prezzo è vergognoso :rolleyes:
quello che mi ha sempre stupito che Nvidia ha sempre presentato schede a prezzi troppo eccessivi, e soprattutto nn giustificati dalle prestazioni. per di più come se tutti si potessero permettere di sotenere quei costi, ma va be nn giudico le loro politiche commerciali.
edit: attento a quello che scrivi, se no potrebb arrivare il signor freeman ;) occhio (lo dico per te)
Evangelion01
15-09-2007, 22:54
ma ve be io ho l'impressione che su tutta la serie G80 nvidia ci mangi sopra e nn poco, a partire dalle ultra, che sono delle GTX occate, e che costano anche 200€ di più, cosa che per i miei principi è assurdo, anzi credo che lo sia per tutti, cioè ci fosse una differenza di 50€ ok, ma nn è così.
cmq siamo molto ot, torniamo sulla 2900
Infatti la Ultra è decisamente fuori mercato, anzi è un mercato a sè :asd:... imho la colpa dei prezzi alti è stata soprattutto di Ati, perchè in questa serie di transizione è arrivata tardi e con un prodotto competitivo solo nella fascia medio-alta. Se la 2900 avesse stracciato la ultra a prestazioni, costando quello che costa, nvidia sarebbe stata costretta ad abbassare i prezzi di tutta la serie per rimanere in mercato, con tutti i vantaggi dell' utente finale. Tra l' altro è quello che sta succedendo nel versante processori, dove Amd e Intel si stanno scannando a suon di ribassi sui prezzi. Invecie la Ultra costa ancora più di 500€ : ecco a cosa porta la mancanza di concorrenza...:(
Infatti la Ultra è decisamente fuori mercato, anzi è un mercato a sè :asd:... imho la colpa dei prezzi alti è stata soprattutto di Ati, perchè in questa serie di transizione è arrivata tardi e con un prodotto competitivo solo nella fascia medio-alta. Se la 2900 avesse stracciato la ultra a prestazioni, costando quello che costa, nvidia sarebbe stata costretta ad abbassare i prezzi di tutta la serie per rimanere in mercato, con tutti i vantaggi dell' utente finale. Tra l' altro è quello che sta succedendo nel versante processori, dove Amd e Intel si stanno scannando a suon di ribassi sui prezzi. Invecie la Ultra costa ancora più di 500€ : ecco a cosa porta la mancanza di concorrenza...:(
infatti è fondamentle che ci sia concorrenza! se Amd/Ati dovessero fallire (spero nella maniera più assoluta di no) ci sarebbe una crisi pazzesca, nn solo ma quello che nvidia sta facendo ora con la ultra si ripeterebbe su tutte le Vga e su tutte le facie, nn solo ma anche sui processori di Intel
Foglia Morta
15-09-2007, 23:15
http://www.tcmagazine.com/comments.php?shownews=16065&catid=2
AMD is close to filling the large price and performance gap between the Radeon HD 2600XT and the HD 2900XT with the now imminent release of the Radeon HD 2900 Pro. The upcoming card, based on the R600 chip is set to compete with Nvidia's GeForce 8800 GTS (320 MB version) and has now finally been priced. Geizhals.at has it, at least in pre-order mode for 235 euros, this being the Sapphire-build 2900 Pro. The card features a core clocked at 600 MHz, 512MB of GDDR3 memory at 800 (1600 MHz DDR) and a power consumption of up to 150W. Interestingly enough, the store details the card as having a 256-bit memory interface but HIS states on its website that the 2900 Pro will have a 512-bit memory interface. The whole truth and nothing but the truth about the 2900 Pro's specs will be revealed later this month with actual cards set to arrive in numbers in October.
http://www.tcmagazine.com/images/news/Hardware/HIS_Radeon_HD_2900_Pro_specs_01.jpg
http://www.tcmagazine.com/comments.php?shownews=16065&catid=2
AMD is close to filling the large price and performance gap between the Radeon HD 2600XT and the HD 2900XT with the now imminent release of the Radeon HD 2900 Pro. The upcoming card, based on the R600 chip is set to compete with Nvidia's GeForce 8800 GTS (320 MB version) and has now finally been priced. Geizhals.at has it, at least in pre-order mode for 235 euros, this being the Sapphire-build 2900 Pro. The card features a core clocked at 600 MHz, 512MB of GDDR3 memory at 800 (1600 MHz DDR) and a power consumption of up to 150W. Interestingly enough, the store details the card as having a 256-bit memory interface but HIS states on its website that the 2900 Pro will have a 512-bit memory interface. The whole truth and nothing but the truth about the 2900 Pro's specs will be revealed later this month with actual cards set to arrive in numbers in October.
http://www.tcmagazine.com/images/news/Hardware/HIS_Radeon_HD_2900_Pro_specs_01.jpg
Se mantenesse il bus 512 bit della sorellona sarebbe molto molto interessante.
Ma secondo me verrà usato il bus a 256bit (vedi ATI FireGL
V7600)
TecnoWorld8
16-09-2007, 00:55
Infatti la Ultra è decisamente fuori mercato, anzi è un mercato a sè :asd:... imho la colpa dei prezzi alti è stata soprattutto di Ati, perchè in questa serie di transizione è arrivata tardi e con un prodotto competitivo solo nella fascia medio-alta. Se la 2900 avesse stracciato la ultra a prestazioni, costando quello che costa, nvidia sarebbe stata costretta ad abbassare i prezzi di tutta la serie per rimanere in mercato, con tutti i vantaggi dell' utente finale. Tra l' altro è quello che sta succedendo nel versante processori, dove Amd e Intel si stanno scannando a suon di ribassi sui prezzi. Invecie la Ultra costa ancora più di 500€ : ecco a cosa porta la mancanza di concorrenza...:(
quoto, dato che è ciò che ho detto sin dal primo momento dell'uscita di questa scheda, ma sono sempre stato tacciato di essere ripetitivo ;)
Che dite dalla mia VGA attuale ad una HD2900pro l'aumento di prestazioni sarebbe evidente?
Ma soppratutto che ali ci vorrà.... ho un 550 LC GP.... :fagiano:
halduemilauno
16-09-2007, 08:44
Quoto..io sono un felice possessore di 8800gts 320mb..ma visto il prezzaccio della pro..cambierei al volo!
Spero che escano presto recensioni o quanto meno dettagli precisi della suddetta!
Se qualk1 sa qualkosa posti pure!!
ma come tu hai una scheda competitiva con la xt e la vendi per farti la pro che per forza di cose sarà peggio?
:boh:
http://www.tcmagazine.com/comments.php?shownews=16065&catid=2
AMD is close to filling the large price and performance gap between the Radeon HD 2600XT and the HD 2900XT with the now imminent release of the Radeon HD 2900 Pro. The upcoming card, based on the R600 chip is set to compete with Nvidia's GeForce 8800 GTS (320 MB version) and has now finally been priced. Geizhals.at has it, at least in pre-order mode for 235 euros, this being the Sapphire-build 2900 Pro. The card features a core clocked at 600 MHz, 512MB of GDDR3 memory at 800 (1600 MHz DDR) and a power consumption of up to 150W. Interestingly enough, the store details the card as having a 256-bit memory interface but HIS states on its website that the 2900 Pro will have a 512-bit memory interface. The whole truth and nothing but the truth about the 2900 Pro's specs will be revealed later this month with actual cards set to arrive in numbers in October.
http://www.tcmagazine.com/images/news/Hardware/HIS_Radeon_HD_2900_Pro_specs_01.jpg
mhm interessante
edit: caruccia la scatola :D
ma come tu hai una scheda competitiva con la xt e la vendi per farti la pro che per forza di cose sarà peggio?
:boh:
(premetto: nn voglio scatenare flames) ma nn è assolutamente vero! cioè la xt ha prestazioni nettamente superiori sia con AA e AF attivo che senza, certo poi ci sono dei game in cui va peggio, es bioshock in dx10, ma è solo una questione di driver.
da nn dimentcare che poi in numerosi game la 2900xt inizia a d andare come la gtx, e in alcuni le supera (di poco ovvio ma la supera cmq)
Che dite dalla mia VGA attuale ad una HD2900pro l'aumento di prestazioni sarebbe evidente?
Ma soppratutto che ali ci vorrà.... ho un 550 LC GP.... :fagiano:
si, la 2900xt va un pezzo più del doppio della 1950pro, se le potenzialità della 2900pro fossero quelle dichiarate, cmq avresti un aumento notevo (credo circa del 60% se nn di più) nn solo ma da quello che ho capito la 2900pro è una xt depotenziata, l'unico discorso è il bus che attualmente nn è chiaro queale sia, cmq se fosse a 512bit sarebbe da prendere al volo perchè aumentando le frequanze si avrebbe una 2900xt (solito discorso come su gtx e ultra ;))
Ci metto le mani sul fuoco che avrà il bus a 256bit
TecnoWorld8
16-09-2007, 09:11
a mio avviso il BUS a 512bit non da a questa scheda troppe prestazioni aggiuntive. Credo che una riduzione a 256bit, al massimo potrà togliere un 10% di prestazioni e soprattutto alle risoluzioni molto alte.
se questa scheda costarà sotto i 250€, potrebbe avere un ottimo rapporto prestazioni prezzo, soprattutto perchè credo si overclockerà parecchio (è comunque sempre R600).
Tidus.hw
16-09-2007, 09:18
ma il dissipatore della PRO è come quello della XT?
gianni1879
16-09-2007, 09:40
ma come tu hai una scheda competitiva con la xt e la vendi per farti la pro che per forza di cose sarà peggio?
:boh:
beh a default starà sicuro alla 8800gts 320, ma se avrà bus a 512bit (ancora non si capisce), basta un pò di oc e si ritrova una hd2900xt a tutti gli effetti.
poi considera che il passaggio sarebbe a costo zero o quasi, vende la sua e prende l'altra!
gianni1879
16-09-2007, 09:46
ma il dissipatore della PRO è come quello della XT?
http://www.hisdigital.com/html/product_ov.php?id=341&view=yes
seguendo la strategia di ati con le schede di precedente generazione, la hd2900pro dovrebbe avere lo stesso bus della hd2900xt, ma un numero di stream processor minore. (come tra x1950pro e x1950xt dove l'unica differenza stava nel numero di vertex shader e pixel shader e le frequenze)
L'unica cosa diversa sembrerebbe la frequenza allora, ottimo prodotto veramente.
se 2900pro avesse le stesse caratteristiche tecniche di 2900xt(e sembrerebbe proprio cosi'),tranne la frequenza del core;sarebbe sicuramente ottima come scheda....ma cannibalizzerebbe la sorellona...:mbe:
puo' essere che in fase di processo produttivo abbiano avuto un eccedenza di core "scarsi" dal punto di vista delle frequenze e ora li vogliano riciclare con la pro??
se 2900pro avesse le stesse caratteristiche tecniche di 2900xt(e sembrerebbe proprio cosi'),tranne la frequenza del core;sarebbe sicuramente ottima come scheda....ma cannibalizzerebbe la sorellona...:mbe:
puo' essere che in fase di processo produttivo abbiano avuto un eccedenza di core "scarsi" dal punto di vista delle frequenze e ora li vogliano riciclare con la pro??
Bhe la differenza di frequenza è superiore al 20%, quella di prezzo sui 140 euro (230 mediamente contro 370), ora che ci penso, si paga 1 euro per ogni Mhz in più di core.
Bhe la differenza di frequenza è superiore al 20%, quella di prezzo sui 140 euro (230 mediamente contro 370), ora che ci penso, si paga 1 euro per ogni Mhz in più di core.
beh la mia e' una supposizione....e credo che rapportando le differenze di frequenza tra gtx e ultra il discorso sia simile.....pero' se cosi' fosse significherebbe che la 2900xt non costa cosi tanto da produrre o che la 2900pro sia un operazione di marketing per recuperare quote di mercato.
tutte supposizioni ovviamente :D
Foglia Morta
16-09-2007, 10:31
imho alla fine sarà una scheda con bus 256bit. Sarebbe interessante se qualche possessore della XT downclockasse le memorie per vedere come scalano le prestazioni secondo la banda passante disponibile
Tidus.hw
16-09-2007, 10:38
http://www.hisdigital.com/html/product_ov.php?id=341&view=yes
thx ^^
allora più che una "pro" mi sembra la nuova "gto2" ^^
davvero una bella scheda...
beh la mia e' una supposizione....e credo che rapportando le differenze di frequenza tra gtx e ultra il discorso sia simile.....pero' se cosi' fosse significherebbe che la 2900xt non costa cosi tanto da produrre o che la 2900pro sia un operazione di marketing per recuperare quote di mercato.
tutte supposizioni ovviamente :D
Considerando poi i driver che stanno maturando e non avranno tutto il percorso che ha avuto la xt, potrebbe essere una scheda killer.
Con crysis siamo in mancanza di una dx10 di fascia media sia x ati che nvidia speriamo che questa o la corrispettiva nvidia (nov dovrebeb essere presentata pare) vadano bene e a prezzo max 250€
:muro:
Guarda c'è la 2600xt, che va circa la metà della hd2900xt, così come la 9600xt andava circa la metà di 9800xt, eravamo abituati bene con le fascie medio alte prima :D
certo che se il prezzo fosse intorno ai 250 alla presentazione e sui 200 dopo un paio di mesi.....un cross fire sarebbe uno spettacolo con due pro :D
halduemilauno
16-09-2007, 11:08
Con crysis siamo in mancanza di una dx10 di fascia media sia x ati che nvidia speriamo che questa o la corrispettiva nvidia (nov dovrebeb essere presentata pare) vadano bene e a prezzo max 250€
:muro:
a 250€ c'è gia la 8800gts320.
;)
a 250€ c'è gia la 8800gts320.
;)
Poca ram video, da crysis in poi il minimo sarà 512, tantovale mi tenga la mia.
halduemilauno
16-09-2007, 11:15
Poca ram video, da crysis in poi il minimo sarà 512, tantovale mi tenga la mia.
la 1950pro agp?
;)
pierluigi86
16-09-2007, 11:40
tutti i nodi vengono al pettine... questa scheda a 250 euro sarà in competizione con la g92 ovvero la 8700gts (pronta per il 12 nov con 512 mb).
Finalmente ho trovato la scheda di fascia media che tanto aspettavo. Non si dovrebbe aprire un thread ufficiale sulla x2900pro???
seguendo la strategia di ati con le schede di precedente generazione, la hd2900pro dovrebbe avere lo stesso bus della hd2900xt, ma un numero di stream processor minore. (come tra x1950pro e x1950xt dove l'unica differenza stava nel numero di vertex shader e pixel shader e le frequenze)
be dici poco, ma da quello che si legge pare che siano uguali, ad eccezione della frequenza del core
EvIL-LIFe
16-09-2007, 11:59
infatti siamo gia a 2 pagine di off topic... meglio aprire un thread ufficiale a questo punto... non trovate?
beh la mia e' una supposizione....e credo che rapportando le differenze di frequenza tra gtx e ultra il discorso sia simile.....pero' se cosi' fosse significherebbe che la 2900xt non costa cosi tanto da produrre o che la 2900pro sia un operazione di marketing per recuperare quote di mercato.
tutte supposizioni ovviamente :D
più probabile la seconda, è un operazione di marketing ;)
a 250€ c'è gia la 8800gts320.
;)
la tua gts 320 tienitela, a dati alla mano la 2900xt è nettamente superiore, sia al modello 640 che 320, quindi basta.
Qui si sta cercando di capire se la 2900pro è identica alla xt (e dai dati a nostra disposizione fin'ora pare che lo sia proprio), nn ci interessano i tuoi consigli(o per lo meno di questo tipo), se continui ti segnalo per flames. oltre che sei assolutamente ot visto che consigli la gts320 nel 3d della 2900 in cui gli utenti chiedono info sulla 2900pro.
Basta perfavore
infatti siamo gia a 2 pagine di off topic... meglio aprire un thread ufficiale a questo punto... non trovate?
però è un po' presto perchè si hanno poche info, no?
anzi nn sarebbe male far diventare questo 3d HD2900Pro/XT, ovviamente se avessimo la conferma che le differenze tra le due risiedano nei Mhz.
un altra cosa la nostra pg iniziale è assolutamente trascurate, ho provato a contattare il moderatore che l'ha aperta ma nn mi ha risposto, cmq vi andrebbe di scrivere qualcosa per sistemarla (tutti a sieme)?
EvIL-LIFe
16-09-2007, 12:14
vi andrebbe di scrivere qualcosa per sistemarla (tutti a sieme)?
sono a vostra disposizione ;)
a 250€ c'è gia la 8800gts320.
;)
Il fatto è ke 320Mb sono pochi quando giochi con aa4x 16xaf a 1680x1050. Oddio..con la maggior parte dei giochi va bene..ma se allo stesso prezzo posso prendere 192Mb di ram in più e una scheda che se occata pesantemente (a liquido) arriva alla GTX..mi conviene!
Eppoi il cambio non è da fare subito..ovviamente bisogna attendere le prime recensioni e soprattutto l'uscita di crysis così vedremo realmente se le features di R600 verranno sfruttate.. Io però credo che questa PRO sbanchi il mercato..non lo so ma è una sensazione... ;)
-Feanor-
16-09-2007, 12:20
guardate che zorco aveva gia aperto un 3d su 2900pro...
tra l altro ne ha anche aperto uno su 2700...:confused:
sono a vostra disposizione ;)
ho appena mandato un pvt a Simon82, adesso vediamo cosa dice, poi vediamo di scrivere qualcosa, tipo:
link delle recensioni,
gli attuali driver, con relativi link,
un po' di immagini,
alcuni test di OC
mettere i dissippatori compatibili,
gli ali compatibili
e un po' di considerazioni
(il link del 3d delle prove con tutti i test)
dimmi se ho dimenticato qualcosa
Il fatto è ke 320Mb sono pochi quando giochi con aa4x 16xaf a 1680x1050. Oddio..con la maggior parte dei giochi va bene..ma se allo stesso prezzo posso prendere 192Mb di ram in più e una scheda che se occata pesantemente (a liquido) arriva alla GTX..mi conviene!
Eppoi il cambio non è da fare subito..ovviamente bisogna attendere le prime recensioni e soprattutto l'uscita di crysis così vedremo realmente se le features di R600 verranno sfruttate.. Io però credo che questa PRO sbanchi il mercato..non lo so ma è una sensazione... ;)
me no male che nn sono l'unico a pensarla così
pierluigi86
16-09-2007, 12:28
me no male che nn sono l'unico a pensarla così
secondo me il vero rivale della 2900pro sarà la 8700gts( ovvero g92). Ormai dobbiamo solo aspettare le prime recensioni. ps siete sicuri che la 2900pro non sia a 65nm?
secondo me il vero rivale della 2900pro sarà la 8700gts( ovvero g92). Ormai dobbiamo solo aspettare le prime recensioni. ps siete sicuri che la 2900pro non sia a 65nm?
bho fino ad ora ci sono poche notizie, cmq se dovesse essere a 65nm veramente sarebbe un affare a 250€
Foglia Morta
16-09-2007, 12:29
secondo me il vero rivale della 2900pro sarà la 8700gts( ovvero g92). Ormai dobbiamo solo aspettare le prime recensioni. ps siete sicuri che la 2900pro non sia a 65nm?
amd non penso metterà in produzione altre gpu a 65nm , le prossime dovrebbero essere tutte a 55nm
Athlon 64 3000+
16-09-2007, 12:33
amd non penso metterà in produzione altre gpu a 65nm , le prossime dovrebbero essere tutte a 55nm
Preferirei che sia una gpu a 65 nm e con il bus a 256 bit e con 320 stream processor perchè a 80 nm anche con 600 mhz di core clock sarebbe troppo calorosa per la sua fascia di prezzo.
Si, probabile. Quello che dicevo io è che comunque un eventuale overvolt a "R600" non dovrebbe dare problemi.
Precisamente. :O
Quoto..io sono un felice possessore di 8800gts 320mb..ma visto il prezzaccio della pro..cambierei al volo!
Spero che escano presto recensioni o quanto meno dettagli precisi della suddetta!
Se qualk1 sa qualkosa posti pure!!
Lo farei pure io, vista la quantità di RAM superiore e il cambio a quasi costo zero.
quoto, dato che è ciò che ho detto sin dal primo momento dell'uscita di questa scheda, ma sono sempre stato tacciato di essere ripetitivo ;)
Beh...lo sei. :stordita: ;)
Che dite dalla mia VGA attuale ad una HD2900pro l'aumento di prestazioni sarebbe evidente?
Ma soppratutto che ali ci vorrà.... ho un 550 LC GP.... :fagiano:
Il salto ci sarà, e l'ali dovrebbe tenerla (quanti A sui +12V?).
Qualcuno con la XT potrebbe fare delle prove con frequenze 600/1600?
edit
edit: mhm ho un po di problemucci, scusate
halduemilauno
16-09-2007, 13:22
la tua gts 320 tienitela, a dati alla mano la 2900xt è nettamente superiore, sia al modello 640 che 320, quindi basta.
Qui si sta cercando di capire se la 2900pro è identica alla xt (e dai dati a nostra disposizione fin'ora pare che lo sia proprio), nn ci interessano i tuoi consigli(o per lo meno di questo tipo), se continui ti segnalo per flames. oltre che sei assolutamente ot visto che consigli la gts320 nel 3d della 2900 in cui gli utenti chiedono info sulla 2900pro.
Basta perfavore
io non sto consigliando nulla stavo solo facendo presente.
come identica? se come minimo ha 140 mega in meno sul core. non avete ancora capito che nell'architettura R600 quel che conta sono i mega sul core.
3DMark79
16-09-2007, 14:21
Sapete se la HD2900pro avrà le directx 10.1 ho come presumo avrà le 10.0?
Visto che si sta facendo un paragone con la 8700gts quest'ultima dovrebbe essere con le 10.1 e open-gl 3.0 contro i 2.0 della PRO?Correggetemi se sbaglio, parlando di rapporto qualità-prezzo, longevità (non voglio scatenare flame)non c'è da considerare anche questo fattore tralasciando la già buona architettura della HD2900XT?Cosa ne dite...:read:
+Lonewolf+
16-09-2007, 14:50
a 250€ c'è gia la 8800gts320.
;)
si si aumenta un po la prequenza della pro però abbiamo una xt...;)
poi chi ti dice che la 2900pro non si riveli competitiva nei confronti della gts320??? poi figurati con l'oc dove la lascia:rolleyes:
+Lonewolf+
16-09-2007, 14:54
Ma l'oc applicabile alla 2900 pro, di cui state parlando, e che dovrebbe facilmente renderla "simile" alla sorella maggiore è fattibile senza modificare il dissi standard?
O è necessario smatitare per overvoltare e utilizzare waterblock x raffreddamento a liquido?
bah...io 100mhz in + li prendo senza toccare nulla...140 non ci arrivo ma cavoli penso che l'overvolt risolva tutto tutto...cmq anche 100mhz in + sono un ottimo risultato
pierluigi86
16-09-2007, 14:56
Ma l'oc applicabile alla 2900 pro, di cui state parlando, e che dovrebbe facilmente renderla "simile" alla sorella maggiore è fattibile senza modificare il dissi standard?
O è necessario smatitare per overvoltare e utilizzare waterblock x raffreddamento a liquido?
stiamo parlando sempre di rumors, per sapere qualcosa di più preciso bisogna aspettare.
bah...io 100mhz in + li prendo senza toccare nulla...140 non ci arrivo ma cavoli penso che l'overvolt risolva tutto tutto...cmq anche 100mhz in + sono un ottimo risultato
dipende se è possibile 'overvolt...
ad esempio su r580 è possibile e su rv570 no...
sse hd2900pro è un r600 castrato sarà possibile se invece hd2900pro è un chip nuovo possibile che non sia attuabile alcun overvolt
TecnoWorld8
16-09-2007, 16:55
quando sarà annunciata la pro? dato che ormai hanno deciso di non fare uscire mai più ( :D ) una scheda top di gamma, questa potrebbe essere interessante...
quando sarà annunciata la pro? dato che ormai hanno deciso di non fare uscire mai più ( :D ) una scheda top di gamma, questa potrebbe essere interessante...
ma che stai dicendo?
TecnoWorld8
16-09-2007, 17:29
ma che stai dicendo?
... era ovviamente una battuta, dovuta al fatto che pare che nVidia non faccia uscire una top a novembre, e che ATi farà uscire R680 non prima di gennaio/febbraio...credevo fosse evidente.
quindi volevo sapere quando esce questa PRO che almeno costerà poco davvero e permetterà di attendere che finalmente ste case si degnino di far uscire qualcosa di veramente superiore a G80, dopo 18 mesi.
... era ovviamente una battuta, dovuta al fatto che pare che nVidia non faccia uscire una top a novembre, e che ATi farà uscire R680 non prima di gennaio/febbraio...credevo fosse evidente.
quindi volevo sapere quando esce questa PRO che almeno costerà poco davvero e permetterà di attendere che finalmente ste case si degnino di far uscire qualcosa di veramente superiore a G80, dopo 18 mesi.
scusa, nn mi sembrava, va be scusa ancora.
cmq da HW pare che a novembre nn uscira nessuna nuova gpu, o per lo meno nessuna top di gamma
+Lonewolf+
16-09-2007, 19:17
cmq anche senza overvolt penso 100mhz in + li prende...dunque 700mhz sul core è quasi una xt...
A proposito di 2900PRO....non so se sia già stato postato, ma date un'occhiata!
http://www.hisdigital.com/html/product_ov.php?id=341
+Lonewolf+
16-09-2007, 19:59
A proposito di 2900PRO....non so se sia già stato postato, ma date un'occhiata!
http://www.hisdigital.com/html/product_ov.php?id=341
OLD
cmq hai fatto bene a postarlo anche in qst pag;)
MonsterMash
16-09-2007, 20:01
Credete che sarà possibile mettere in crossfire una 2900xt e una 2900pro eventualmente OC ad xt?
E per quando è prevista l'uscita di questa 2900pro?
Free Gordon
16-09-2007, 20:09
Girando per la rete ho letto una news (http://www.centerzone.it/) riguardante la nostra bella R600. Fra poco oltre che ad utilizzarla per giocare potremo utilizzarla anche per far girare l'antivirus.
Ottimo!!!
Quello che non comprendo è come possa verificarsi una cosa del genere.. la scansione dell'AV è lenta causa limitazioni degli attuali HDD, mica perchè manca potenza elaborativa nelle CPU.
Sarà un caso molto particolare di scansione quello dei 21x rispetto al dual opteron.. ;)
Athlon 64 3000+
16-09-2007, 22:06
OLD
cmq hai fatto bene a postarlo anche in qst pag;)
quindi c'è l'ipotesi che AMD presenti la hd 2900Pro entro la fine di settembre.
Tidus.hw
16-09-2007, 22:14
Ottimo!!!
Quello che non comprendo è come possa verificarsi una cosa del genere.. la scansione dell'AV è lenta causa limitazioni degli attuali HDD, mica perchè manca potenza elaborativa nelle CPU.
Sarà un caso molto particolare di scansione quello dei 21x rispetto al dual opteron.. ;)
beh pensa ad esempio a quanto tempo ci impiega un antivirus a scopattare e scannerizzare degli archivi... non è solo harddisk limited...
Sapete se la HD2900pro avrà le directx 10.1 ho come presumo avrà le 10.0?
Visto che si sta facendo un paragone con la 8700gts quest'ultima dovrebbe essere con le 10.1 e open-gl 3.0 contro i 2.0 della PRO?Correggetemi se sbaglio, parlando di rapporto qualità-prezzo, longevità (non voglio scatenare flame)non c'è da considerare anche questo fattore tralasciando la già buona architettura della HD2900XT?Cosa ne dite...:read:
Da questo lato non mi preoccupo proprio, essendo già l'architettura superiore alle specifiche dx10, quindi presumo che possa aderire quasi completamente alle dx10.1, geometry compreso.
AndreaEG6
17-09-2007, 01:16
Ciao ragazzi, settimana scorsa ho acquistato questa scheda e non vedo l'ora di montarla, sto aspettando che mi arrivi l'alimentatore (Corsair HX620) e altri 2 GB di ram, e poi via che si monta tutto. Secondo voi come renderà sulla mia configurazione?
Pentium Core Duo E6420 @ 2.13
Scheda madre MSI 945PL Neo 5
4 GB Ram DDR 2
HD2900XT
Vista Ultimate
Non vedo l'ora di domani :D :D!
Ciao ragazzi, settimana scorsa ho acquistato questa scheda e non vedo l'ora di montarla, sto aspettando che mi arrivi l'alimentatore (Corsair HX620) e altri 2 GB di ram, e poi via che si monta tutto. Secondo voi come renderà sulla mia configurazione?
Pentium Core Duo E6420 @ 2.13
Scheda madre MSI 945PL Neo 5
4 GB Ram DDR 2
HD2900XT
Vista Ultimate
Non vedo l'ora di domani :D :D!
deciamente bene, l'unica pecca è la cpu, occala (overcloccala) un po' ;) tipo intorno hai 2.6/2.8ghz e sei più che a posto
edit: tanto sono sicuro che ce lo chiedereai: per alimentare la scheda puoi attaccare anche due connettori da 6 pin l'uno, al posto di quello da 8 (se dovesse essere assente nel ali)
Io che ne ho uno solo devo metterci l'altro con l'adattatore? (quelli da 6 dico)
halduemilauno
17-09-2007, 07:26
visto che se ne parla anche qui la posto anche qui.
http://www.hardspell.com/pic/article/2007/9/17/09ade5dd-2439-43c2-ab35-d39682a4eaa2.jpg
;)
TecnoWorld8
17-09-2007, 07:33
come prevedibile, la PRO sarà a 256bit allora...anche occandola nn arriverà ad una XT, ma cmq a risoluzioni sotto la 1600x1200 le sarà parecchio vicina
oh beh io al max vado con 1440x900 AA/AF 4x
:stordita:
Athlon 64 3000+
17-09-2007, 08:14
secondo me se la presentassero con il bus a 512 bit non avrebbe senso perchè sarebbe troppo vicina alla hd 2900XT.
L'unica cosa che mi lascia perplesso è che le hd 2900Pro e GT saranno ad 80 nm
e anche se la seconda sarà castrata scalderanno molto per la loro fascia di prezzo.
Io spero che vengano fatte tutte e 2 a 65 nm.
halduemilauno
17-09-2007, 08:27
secondo me se la presentassero con il bus a 512 bit non avrebbe senso perchè sarebbe troppo vicina alla hd 2900XT.
L'unica cosa che mi lascia perplesso è che le hd 2900Pro e GT saranno ad 80 nm
e anche se la seconda sarà castrata scalderanno molto per la loro fascia di prezzo.
Io spero che vengano fatte tutte e 2 a 65 nm.
il punto è(secondo me)che se la devono proporre a un 100€ di meno non possono risparmiare proponendola a 140 Mhz di meno e basta.
;)
mordsiger
17-09-2007, 09:04
ragazzi l'avete visto questo?
catalyst 7.8 vs 7.9
http://www.tweaktown.com/articles/1184/ati_catalyst_7_9_analysis_xp_and_vista/index.html
ragazzi io non so bene vediamo che è successo nella generazione prima
x1900xt x1900gt che sarebbe la pro di adesso.
la scheda x1900gt era un r580 con frequenze abbassate ma con il bus a 256bit.
secondo me quando si realizza un chip è molto + facile decurtare qualche pixel pipeline tramite un semplicissimo lasercut che non rimettere mani al bus di sistema quindi riprogettare anche se in minor maniera un chip(a questo punto potevano realizzare un tranquillo rv670 a 55nm o 65) è evidente che secondo me questa sarà una manovra per togliere gli r600 che non hanno passato certi test...
se non hanno passato i test di frequenza o stabilità non è raro che vengano offerti solo a 100E di meno con tutto il bus a 512bit.
ma i dati ufficiali da quello che pare sono trapelati dal sito della his se non sbaglio ma potrebbe essere anche un brocure sbagliata.
boh secondo me avranno meno di 320sp magari 240 il core clock a 600mhz ci starebbe bene come le ram a 1600mhz con bus a 512bit visto che potrebbero riutilizzare sgli stessi pcb della hd2900xt senza dover cambiare tutto.
magari usando ram da 1.2ns tenendole clokkata appunto a 800mhz che sono il loro massimo teoria a voltaggi standard
http://www.tomshw.it/news.php?newsid=11360
"una da 512 Mbyte (214 euro) e una da 1 GB (279 euro)." :eek:
nico88desmo
17-09-2007, 09:20
ragazzi l'avete visto questo?
catalyst 7.8 vs 7.9
http://www.tweaktown.com/articles/1184/ati_catalyst_7_9_analysis_xp_and_vista/index.html
Ormai i driver fanno poco imho.
La potenza degli shader c'è, ma texture, rops sono troppo sottodimensionate.
Comunque..più che le prestazioni della HD2900 (che appunto ormai sono quelle, tra GTX e GTS), sono scandalose le prestazioni delle schede di fascia media dell'attuale generazione sia Amd sia nVidia.
gianni1879
17-09-2007, 09:46
Ormai i driver fanno poco imho.
La potenza degli shader c'è, ma texture, rops sono troppo sottodimensionate.
Comunque..più che le prestazioni della HD2900 (che appunto ormai sono quelle, tra GTX e GTS), sono scandalose le prestazioni delle schede di fascia media dell'attuale generazione sia Amd sia nVidia.
quoto ormai non penso migliori più di tantissimo, ci sono un pò di margini ma siamo lì
webbuffa
17-09-2007, 10:10
quoto ormai non penso migliori più di tantissimo, ci sono un pò di margini ma siamo lì
:) :) Ormai come dx9 siamo li... ma con le dx10 :cool: c'è miglioramento ad ogni revisione :D
ragazzi l'avete visto questo?
catalyst 7.8 vs 7.9
http://www.tweaktown.com/articles/1184/ati_catalyst_7_9_analysis_xp_and_vista/index.html
Avrebbero dovuto vedere l'evoluzione in titoli tipo bioshock, o Airbone, già con i 7.8 in quei titoli c'era stato un aumento di performance consistente.
Iantikas
17-09-2007, 10:43
quoto ormai non penso migliori più di tantissimo, ci sono un pò di margini ma siamo lì
lo penso ankio...ma riferito ai gioki presenti in quel sito ke oramai ki + ki - hanno tutti ricevuti le ottimizzazioni del caso...
...dovrebbero aggiungere altri titoli + recenti e quelli ke usano potrebbero anke toglierli proprio (tipo aggiungere bioshock, MoH:A e ET:QW e togliere HL2 e Prey)...
...ciao
lo penso ankio...ma riferito ai gioki presenti in quel sito ke oramai ki + ki - hanno tutti ricevuti le ottimizzazioni del caso...
...dovrebbero aggiungere altri titoli + recenti e quelli ke usano potrebbero anke toglierli proprio (tipo aggiungere bioshock, MoH:A e ET:QW e togliere HL2 e Prey)...
...ciao
Abbiamo detto e pensato le stesse cose.
Athlon 64 3000+
17-09-2007, 10:54
io penso che con i nuovi giochi dx 9 in uscita da qui in avanti tipo Crysis e UTIII con i nuovi driver ci potranno essere lo stesso degli incrementi prestazionali visto che R600 è molto dipendente dai driver.
Il problema è che per i giochi recenti non ci sono timedemo :muro: :muro:
Si usa FRAPS su un percorso stabilito, che però non può essere uguale per tutti i test (un po' di fumo in più, un movimento in più del mouse che sposta la visuale verso una fonte di luce più forte, un'ombra che si sposta, ecc.), per cui non è cmnq un test di confronto attendibile al 100%
Ormai è inutile provare giochi vecchi di tre anni fa (HL2), o con engine dello stesso periodo (Prey), il vero banco di prova sono e saranno i giochi con UE3 e il prossimo Crysis (per il quale però sono convinto ci saranno timedemo fino allo sfinimento).
Speriamo che i vari siti di hw si aggiornino da questo punto di vista
Ormai i driver fanno poco imho.
La potenza degli shader c'è, ma texture, rops sono troppo sottodimensionate.
Comunque..più che le prestazioni della HD2900 (che appunto ormai sono quelle, tra GTX e GTS), sono scandalose le prestazioni delle schede di fascia media dell'attuale generazione sia Amd sia nVidia.
Dipende cosa chiederanno i giochi futuri, le schede video sono appunto un'interpretazione di dove e come si evolverà il software.
La fascia media è ritornata media semplicemente, con una 2600xt in dx10 devo giocare a dettaglio medio, un po' come facevo con la 9600 ai tempi della 9800, anomala è stata la fascia media precedente di AMD-ATI, con soluzioni top depotenziate che costituivano una fascia media di gran lusso.
Dunque dunque...
su chiphell usando google translator leggo che secondo loro (c'è gente che sembra molto preparata in materia) il problema è un certo MC ed alcuni stop intermedi che sono molti o una cosa del genere per cui diventa un casino scrivere un driver decente. Secondo loro quindi il problema sono e rimangono i driver... voi cosa dite?
http://www.chiphell.com/viewthread.php?tid=4891&extra=page%3D1&page=1
Il post cmq è di maggio.
:) :) Ormai come dx9 siamo li... ma con le dx10 :cool: c'è miglioramento ad ogni revisione :D
Veramente mi era sembrato di capire che le nVIDIA fossero avanti in DX9 o no..?:confused:
webbuffa
17-09-2007, 12:05
Veramente mi era sembrato di capire che le nVIDIA fossero avanti in DX9 o no..?:confused:
:) Che le nvidia siano avanti in dx9 è risaputo ormai... ma ora come ora ATI si sta rivelando la scelta migliore in dx10, almeno per quel poco che si è visto fino ad ora. :) Cmq l'ultima parola lasciamola alla demo di Crysis! :D
:) Che le nvidia siano avanti in dx9 è risaputo ormai... ma ora come ora ATI si sta rivelando la scelta migliore in dx10, almeno per quel poco che si è visto fino ad ora. :) Cmq l'ultima parola lasciamola alla demo di Crysis! :D
nei giochi dx10 dove non si può attivare AA è dietro......
webbuffa
17-09-2007, 12:12
nei giochi dx10 dove non si può attivare AA è dietro......
:) Forse intendi dove si può attivare....
dx9
http://www.legionhardware.com/Bench/Medal_of_Honor_Airborne_Performance/DX9_High.png
dx10
http://www.legionhardware.com/Bench/Medal_of_Honor_Airborne_Performance/DX10_High.png
:cool:
Hardware:
- Intel Core 2 Extreme E6850 (3.00GHz) LGA775
- x2 Corsair DOMINATOR Twin3X2048-1800C7DF G Module(s)
- Seagate 320GB 7200-RPM (Serial ATA300)
Software
- Microsoft Windows XP Pro (SP2)
- Intel System Driver 8.1.1.1010
- Nvidia Forceware 163.44
- ATI Catalyst 7.8
Chissà con i 7.9... :D
a proposito dei 7.9, scaricati qui su hw upgrade. Mi dice che il file è corrotto..
In questi giorni solo guai..
webbuffa
17-09-2007, 12:26
a proposito dei 7.9, scaricati qui su hw upgrade. Mi dice che il file è corrotto..
In questi giorni solo guai..
:O usate il sito ATI/AMD!
+Lonewolf+
17-09-2007, 12:35
urca a vete visto coj dx10 com'è salito??? 7.9 rules:p
:) Forse intendi dove si può attivare....
dx9
http://www.legionhardware.com/Bench/Medal_of_Honor_Airborne_Performance/DX9_High.png
dx10
http://www.legionhardware.com/Bench/Medal_of_Honor_Airborne_Performance/DX10_High.png
:cool:
Hardware:
- Intel Core 2 Extreme E6850 (3.00GHz) LGA775
- x2 Corsair DOMINATOR Twin3X2048-1800C7DF G Module(s)
- Seagate 320GB 7200-RPM (Serial ATA300)
Software
- Microsoft Windows XP Pro (SP2)
- Intel System Driver 8.1.1.1010
- Nvidia Forceware 163.44
- ATI Catalyst 7.8
Chissà con i 7.9... :D
scusa ma dov'è che vedi aa 4x x esempio?? io no vedo nulla, vedo solo higher is better.....:mbe:
webbuffa
17-09-2007, 12:44
scusa ma dov'è che vedi aa 4x x esempio?? io no vedo nulla, vedo solo higher is better.....:mbe:
:O Quello che intendo io è che ati va meno forte con i filtri attivi... qui non ci sono e lo so... trova altri test con filtri attivi e poi discutiamo :)
gianni1879
17-09-2007, 12:46
lo penso ankio...ma riferito ai gioki presenti in quel sito ke oramai ki + ki - hanno tutti ricevuti le ottimizzazioni del caso...
...dovrebbero aggiungere altri titoli + recenti e quelli ke usano potrebbero anke toglierli proprio (tipo aggiungere bioshock, MoH:A e ET:QW e togliere HL2 e Prey)...
...ciao
si ovviamente era riferito a quei titoli presi come riferimento, ormai pure datati. È ovvio che i giochi recenti hanno bisogno di ottimizzazioni da parte dei driver soprattutto sotto vista!
si ovviamente era riferito a quei titoli presi come riferimento, ormai pure datati. È ovvio che i giochi recenti hanno bisogno di ottimizzazioni da parte dei driver soprattutto sotto vista!
Almeno per me, guadagnare altri 20-30 fps in Hl2 è di poca rilevanza, visto che gira già ora alla grandissima.
:O usate il sito ATI/AMD!
perchè non è lo stesso file?
+Lonewolf+
17-09-2007, 13:32
scusa ma dov'è che vedi aa 4x x esempio?? io no vedo nulla, vedo solo higher is better.....:mbe:
il test è senza filtri infatti...
ps: la vuoi smettere di fare la gara a chi cel'ha + lungo??? ci siamo scocciati
pierluigi86
17-09-2007, 13:33
ma i giochi dx 10 avranno l' AA?
Chicco85
17-09-2007, 13:38
Si, ma probabilmente sarà AA via shader, dato che le dx10, se non sbaglio, richiedono l'interpolazione non lineare. ;)
+Lonewolf+
17-09-2007, 13:41
Si, ma probabilmente sarà AA via shader, dato che le dx10, se non sbaglio, richiedono l'interpolazione non lineare. ;)
a quel punto se g80 dovrà fare AA via shader si avrà un calo di prestazioni ancora maggiore data lapotenza di shading inferiore rispetto ad una 2900
Chicco85
17-09-2007, 13:42
Già... però tieni conto che G80 è un'architettura superscalare, per cui più facilmente ottimizzabile dal punto di vista dei driver.
+Lonewolf+
17-09-2007, 13:45
Già... però tieni conto che G80 è un'architettura superscalare, per cui più facilmente ottimizzabile dal punto di vista dei driver.
certamente, bisogna tenere conto anche che però la 2900 ha un ring bus ottimizzabile insieme al memory controller ed ottimizzato ad hoc potrebbe fare bei numeri
Ormai i driver fanno poco imho.
La potenza degli shader c'è, ma texture, rops sono troppo sottodimensionate.
Comunque..più che le prestazioni della HD2900 (che appunto ormai sono quelle, tra GTX e GTS), sono scandalose le prestazioni delle schede di fascia media dell'attuale generazione sia Amd sia nVidia.
ormia le fasce medie di una volta nn ci sono più.
:) :) Ormai come dx9 siamo li... ma con le dx10 :cool: c'è miglioramento ad ogni revisione :D
Quoto (e speriamo che continui)
certamente, bisogna tenere conto anche che però la 2900 ha un ring bus ottimizzabile insieme al memory controller ed ottimizzato ad hoc potrebbe fare bei numeri
sono fiducioso nei cata 7.10, detto da amd la maggior parte delle ottimizzazioni di ringbus, bus e coredriver saranno contenute in questi, quindi stiamo a vedere, tanto sicuramente il 24/25 usciranno driver ottimizzati per crysis, e di li a poco anche i cata 7.10, quindi si può dire -8
edit: +Lonewolf+ nn hai risposto al mio pvt, pls fallo ;)
ma i giochi dx 10 avranno l' AA?
Sì, probabilemnte inizialmente via shaders e rops, poi solo via shaders perchè sarebbe impossibile applicarlo via rops in determinati ambiti.
Free Gordon
17-09-2007, 16:41
Che dite dalla mia VGA attuale ad una HD2900pro l'aumento di prestazioni sarebbe evidente?
Ma soppratutto che ali ci vorrà.... ho un 550 LC GP.... :fagiano:
Beh, l'aumento è netto dalla 1950XT, dalla tua lo sarà ancora di più. ;)
L'alimentatore va bene. :)
Free Gordon
17-09-2007, 16:44
scusa ma dov'è che vedi aa 4x x esempio?? io no vedo nulla, vedo solo higher is better.....:mbe:
I giochi UE3 non permettono l'attivazione dell'AA nella via classica. Airborne è uno di questi.
Alcuni titoli dx10 (come il futuro UT3) permetteranno l'attivazione dell'AA via shader, solo in dx10.
Free Gordon
17-09-2007, 16:59
Ormai i driver fanno poco imho.
La potenza degli shader c'è, ma texture, rops sono troppo sottodimensionate.
Comunque..più che le prestazioni della HD2900 (che appunto ormai sono quelle, tra GTX e GTS), sono scandalose le prestazioni delle schede di fascia media dell'attuale generazione sia Amd sia nVidia.
I driver cresceranno costantemente, fino a fine anno. ;)
Il resto lo faranno le architetture software...i giochi che caricheranno lo shader core saranno via via sempre più benevoli verso R600. ^_^
I giochi UE3 non permettono l'attivazione dell'AA nella via classica. Airborne è uno di questi.
Alcuni titoli dx10 (come il futuro UT3) permetteranno l'attivazione dell'AA via shader, solo in dx10.
airborne sotto vista dovrebbe attivare l'aa mi pare;)
fustacchione90
17-09-2007, 18:51
airborne sotto vista dovrebbe attivare l'aa mi pare;)
continuando questo ot ( spero ancora x poco ) chiedo:
in giro si vedono test di moh airborne in dx10, questa modalità si attiva in auto quando si ha vista+vga dx10?:sofico:
nico88desmo
17-09-2007, 18:55
Chi mi potrebbe spiegare i motivi per cui nelle DX10 l'AA deve essere fatto via shader e non tramite le ROPs?
AndreaEG6
17-09-2007, 18:57
deciamente bene, l'unica pecca è la cpu, occala (overcloccala) un po' ;) tipo intorno hai 2.6/2.8ghz e sei più che a posto
edit: tanto sono sicuro che ce lo chiedereai: per alimentare la scheda puoi attaccare anche due connettori da 6 pin l'uno, al posto di quello da 8 (se dovesse essere assente nel ali)
Grazie mille per la risposta M4R1, però io non so nemmeno come si inizia ad overclockare, e ho paura di fare danni :D. Quanto mi costerebbe un processore di quella potenza?
Domani monto tuttoooooooooo :D
http://img441.imageshack.us/img441/3299/p1309071725ka8.th.jpg (http://img441.imageshack.us/my.php?image=p1309071725ka8.jpg)
Chicco85
17-09-2007, 18:59
Chi mi potrebbe spiegare i motivi per cui nelle DX10 l'AA deve essere fatto via shader e non tramite le ROPs?
Perchè nelle rop's delle attuali gpu è presente il circuito di resolve (ad eccezione di R600) che permette di fare esclusivamente calcoli di interpolazione lineare (AA classico). L'AA via shader, demandando i calcoli di interpolazione allo shader core, è in grado di slegarsi da questa limitazione, potendo passare all'interpolazione non lineare.
Ma le specifiche DirectX10 prevedono che AA si possa fare SOLO tramite shaders?
Chicco85
17-09-2007, 19:45
Ma le specifiche DirectX10 prevedono che AA si possa fare SOLO tramite shaders?
Su questo non ne sono sicuro, come ho specificato in precedenza.
Se richiederanno l'interpolazione non lineare, questo si tradurrebbe, nelle attuali gpu, nell'uso esclusivo dello shader core per i calcoli di interpolazione.
leoneazzurro
17-09-2007, 20:05
Ma le specifiche DirectX10 prevedono che AA si possa fare SOLO tramite shaders?
No, richiedono che si possa fare ANCHE con gli shaders, per questioni dovute alla correttezza della resa in caso di presenza di HDR ed altre tecniche di rendering che usano algoritmi con funzioni fortemente non lineari (in quanto il MSAA "classico" altro non è che una media aritmetica pesata dei colori di un campione di pixel adiacenti.
nico88desmo
17-09-2007, 20:36
No, richiedono che si possa fare ANCHE con gli shaders, per questioni dovute alla correttezza della resa in caso di presenza di HDR ed altre tecniche di rendering che usano algoritmi con funzioni fortemente non lineari (in quanto il MSAA "classico" altro non è che una media aritmetica pesata dei colori di un campione di pixel adiacenti.
Capito...Volendo si potrebbe implementare una interpolazione non lineare nelle Rops allora?
Tidus.hw
17-09-2007, 20:43
Capito...Volendo si potrebbe implementare una interpolazione non lineare nelle Rops allora?
non vorrei sparare una cazzata ma credo di no perchè le ROPs non sono programmibili come gli stream processor...
nico88desmo
17-09-2007, 21:20
non vorrei sparare una cazzata ma credo di no perchè le ROPs non sono programmibili come gli stream processor...
Può essere...però secondo me l'AA via shader...non è molto conveniente.
Sono dell'idea che i calcoli devono rimanere per le texture e pixel.
non so che algoritmi utilizzeranno per fare aa via shader...ma per esempio...un 2x, causerebbe il doppio lavoro per calcoli via shader o no?
E poi...c'è il rischio che questi shader diventino sovracaricati...in quanto i prossimi giochi bisogneranno di più risorse per geometry, pixel, vertex e io aggiungo anche physics...se poi inseriamo l'AA...allora la quantità di calcoli aumenterebbe spropositamente...che dite?
a quel punto se g80 dovrà fare AA via shader si avrà un calo di prestazioni ancora maggiore data lapotenza di shading inferiore rispetto ad una 2900
guarda questa è sempre stata una delle cose di cui non ne sono mai stato sicuro oggettivamente è vero che per numero di shading processor g80 è inferiore ma cmq sono sempre 128 unità con clock di 1350mhz dove le unità di r600 sono ben superiori ma cmq sempre clokkate a 740mhz.
in condizioni teoriche sarebbero 172800 operazioni per g80 versione gtx contro le 236800 di r600 ma metti anche che g80 gtx ha 24rop's e elaborano, sempre in condizioni massime teoriche 13800 mtex mentre r600 con 16 rop's ne fa 11840.
contando che in un game non si è mai al massimo teorico ovviamente vi è una concomitanza di operazioni in shader e in rop's credo che in dx10 anche l'archidettura di g80 versione gtx sarà riservare molte positive sorprese per i suoi possessori se ben ottimizzata.
ergo diciamo che in dx10 prevedo sostanziale pareggio tra r600 e g80(sempre parlando versione ful a 128 perchè quello a 96 le gts sono fuori dai giochi con un massimo di operazio di shader 115200 e un massimo ri operazioni in rop's di 10000 perde in ogni campo sia nel confronto gtx che r600) senza filtri.
di contro la situazione con AA va valutata.
sotto dx10 l'aa puo essere fatto sia tramite rop's che tramite shader.
xè microsoft spinge per un aa tramite shader?
semplice xè in questa maniera i giochi della xbox360 gia hanno l'aa incluso nel motore del gioco xè r500 elabora direttamente l'aa negli shader del gioco e non deve fare alcuna operazione di post processing(contate che le rop's in r500 sono solo 8)...
difatti nelle dx10.1 l'aa sarà solo in shader...quando microsoft mette in preventivo aa4x always on e quando lo diceva ati di r600 intendevano sempre quello...che l'aa era integrato nel motore del gioco e non + abilitabile da pannello grafico quindi l'aa era una feature del motore che solo il motore puo decidere di abilitare o disabilitare a seconda della potenza dell'hw che si trova sotto.
cmq dicevo in dx10 avremmo 2 scenari
giochi dx10 con aa classico via rop's...
bello r600 prestazioni alte ma posso mettere solo af, g80 prestazioni alte ma posso scegliere se abbassarle inserendo l'aa.
oppure dx10 con aa via shader e quindi incluso nel motore del gioco dove presumibilente ci sarà parita tra g80 e r600.
fondamentalmente stiamo in 3 situazioni dove 2 g80 e r600 pareggiano ed una vince g80 semplicemente perchè oggettivamente ha un hw + completo che gli permette di essere sfruttata con l'aa se fatto in maniera classica.
ed in questo obbiettivamente g80 è superiore a r600.
ovviamente nn scateno flame e lo sapete benissimo ma nsomma
abbiamo preso una vga che per quando a me piaccia e la consideri molto avanti per soluzioni rispetto a g80 sta storia che ste rop's castratelle che prima era una cosa dei dvr e mo è diventato ufficiale è una cosa hw mi ha lasciato un pò deluso e poi cmq ci sta nella critica di un prodotto nsomma è anche stupido dire "va tutto benissimo o va tutto malissimo" xè è raro che sia cosi;)
Grazie mille per la risposta M4R1, però io non so nemmeno come si inizia ad overclockare, e ho paura di fare danni :D. Quanto mi costerebbe un processore di quella potenza?
Domani monto tuttoooooooooo :D
http://img441.imageshack.us/img441/3299/p1309071725ka8.th.jpg (http://img441.imageshack.us/my.php?image=p1309071725ka8.jpg)
doma ti rispondo in pvt, ora nn posso e nn voglio sporacre il 3d ;)
leoneazzurro
17-09-2007, 23:38
non vorrei sparare una cazzata ma credo di no perchè le ROPs non sono programmibili come gli stream processor...
Può essere...però secondo me l'AA via shader...non è molto conveniente.
Sono dell'idea che i calcoli devono rimanere per le texture e pixel.
non so che algoritmi utilizzeranno per fare aa via shader...ma per esempio...un 2x, causerebbe il doppio lavoro per calcoli via shader o no?
E poi...c'è il rischio che questi shader diventino sovracaricati...in quanto i prossimi giochi bisogneranno di più risorse per geometry, pixel, vertex e io aggiungo anche physics...se poi inseriamo l'AA...allora la quantità di calcoli aumenterebbe spropositamente...che dite?
Il discorso è che c'è un bilancio di transistors di cui tenere conto (e replicare unità complesse e ad elevata programmabilità nelle ROPs andrebbe sicuramente ad incidere sul bilancio totale) , senza poi contare che si potrebbe aver bisogno dei dati presenti negli shaders per effettuare i calcoli con tecniche di rendering particolari.
Free Gordon
18-09-2007, 00:02
Chi mi potrebbe spiegare i motivi per cui nelle DX10 l'AA deve essere fatto via shader e non tramite le ROPs?
In DX10 non è obbligatorio farlo via shader ;) ma il tipo di AA (che oltretutto farà parte delle specifiche standard delle DX10.1) che propone, non può essere compiuto tramite rops, dove tradizionalmente risiede una circuiteria in grado di svolgere interpolazioni solamente lineari.
Capito...Volendo si potrebbe implementare una interpolazione non lineare nelle Rops allora?
Se è una ALU, è programmabile.. :D se vuoi rendere anche le fixed functions programmabili devi creare qualcosa di molto differente da una ROP o una texture unit...
La parte più programmabile delle GPU sta mano a mano diventando sempre più grande (diciamo più potente) ma le funzioni fisse rimarranno e tali devono restare, sennò addio patria! :D
Free Gordon
18-09-2007, 00:16
xè microsoft spinge per un aa tramite shader?
semplice xè in questa maniera i giochi della xbox360 gia hanno l'aa incluso nel motore del gioco xè r500 elabora direttamente l'aa negli shader del gioco e non deve fare alcuna operazione di post processing(contate che le rop's in r500 sono solo 8)...
No..
R600 fa MSAA (2 o 4x) via ROPs, anche se per avere prestazioni ottimali deve sfruttare il tile rendering e l'eDRAM (tutto intero il frame in 10MB non ci sta).
Non fa AA via shader, anche se potrebbe darsi che alcuni giochi lo sfruttino per avere l'eDRAM libera per altri tipi di elaborazioni... cmq per ora non ho sentito nessuno parlare di questo uso dello shader core di Xenos.
Piuttosto Xenos verrà usato per l'elaborazione fisica dei giochi! ;)
Foglia Morta
18-09-2007, 09:15
http://en.hardspell.com/doc/showcont.asp?news_id=1440
2Q "QX6850" 333*9=3G
2G DDR2 1000 4-4-4-10
ASUS P5K-E WIFI/AP
ASUS EAH2900XT 512M
http://www.hardspell.com/pic/article/2007/9/18/small/e684c7ed-6d37-4ec4-b0c4-5f18518269d5.jpg
http://www.hardspell.com/pic/article/2007/9/18/small/f61f1aef-cd21-46bc-8e65-b741c7818b5a.jpg
http://www.hardspell.com/pic/article/2007/9/18/small/60770fa8-88f3-4035-97a5-3a991b9b1691.jpg
http://www.hardspell.com/pic/article/2007/9/18/small/1a151ac0-d7a5-478d-b1f9-936073ab4c30.jpg
http://www.hardspell.com/pic/article/2007/9/18/small/23ce9f96-aba8-42c3-916f-bdb47136e904.jpg
altre immagini al link postato
nico88desmo
18-09-2007, 09:23
Ma sono con o senza AA?
A me pare senza, e mi sembra oltretutto molto meno spettacolare di come me l'aspettavo.
nico88desmo
18-09-2007, 09:47
Anche a me sembra senza AA...però dato che non era specificato :)
Comunque la grafica è molto bella, credo che delle immagini ferme non rispecchino totalmente la qualità del gioco.
A me pare senza, e mi sembra oltretutto molto meno spettacolare di come me l'aspettavo.
trattasi di BETA multiplayer ;)
Michele81
18-09-2007, 09:54
Nella beta di Crysis c'è un altro step di dettaglio che è "VERY HIGH"
Nella beta di Crysis c'è un altro step di dettaglio che è "VERY HIGH"
fra l'altro ;)
35-40 di media negli screen, a very high quanto farà?
Athlon 64 3000+
18-09-2007, 10:21
vedere a livello high che con un sistema del genere da 40 fps di media sapendo che ci sono i settaggi su very high non è molto incoraggiante.
Va bene che è una beta ottimizzato ma mi è capito di provare la beta di Test Drive Unlimited,Quake Wars e Stalker per le prime 2 le prestazioni dalla beta alla versione finale sono addiritura peggiorate mentre per Stalker sono rimaste uguali.
Aspetto comuque il demo e gli hotfix per la mia hd 2900xt per dargli comunque un primo vero giudizio.
Oltretutto multiplayer, che di solito è un po' più veloce della versione "Singolo"
Michele81
18-09-2007, 10:44
Oltretutto multiplayer, che di solito è un po' più veloce della versione "Singolo"
E credo che ci sia anche un livello di dettaglio successivo, e cioè "ultra" :muro:
Gli screen dovrebbero essere in dx9 noAA e sono in multi senza la presenza di altri player da gestire.
Non riesco ad immaginare in DX10 AA4x, dettagli su ultra, e 20player in una mappa che hardware serva :rolleyes:
Ok che è una beta e i driver non sono ancora ottimizzati, ma per un miracolo la vedo dura (su entrambi i fronti, ati e nvidia)
TecnoWorld8
18-09-2007, 11:15
mettendoci l'AA e salendo di dettaglio, non credo rimarrà ancora sopra i 30fps.
e inoltre si tratta di dx9, dato che nella beta nn c'è il dx10.
mettendoci l'AA e salendo di dettaglio, non credo rimarrà ancora sopra i 30fps.
e inoltre si tratta di dx9, dato che nella beta nn c'è il dx10.
ci sono i server dx10..
Athlon 64 3000+
18-09-2007, 12:33
visto le esperienze avute con 3 beta c'è il rischio che Crysis venga fuori un prodotto ottimizzato da cani perchè hanno voluto fare un motore grafico molto esagerato e ne potrebbero pagare le conseguenze.
Comunque io aspetto la demo del 25 settembre.
mordsiger
18-09-2007, 12:49
guardatevi questa su crisys
http://en.hardspell.com/doc/showcont.asp?news_id=1440
scusate... nn avevo visto che era già stata postata....
ragazzi nn mi smbra di averlo detto anche qui: ho il key di crysis, fra poco meno di 30 min inizio a testare.
ragazzi nn mi smbra di averlo detto anche qui: ho il key di crysis, fra poco meno di 30 min inizio a testare.
Mi baso su come il gioco gira sul tuo computer visto che abbiamo una config simile. Puoi fare un test a 1280x1024 anche? E' la risoluzione che uso io e sto valutando appunto se comprare la HD 2900XT o no basandomi su come gira Crysis con questa scheda a quella risoluzione.
TecnoWorld8
18-09-2007, 13:40
ragazzi nn mi smbra di averlo detto anche qui: ho il key di crysis, fra poco meno di 30 min inizio a testare.
ottimo! divertiti anche per noi :) ma soprattutto testa e fai degli screenshot con i fps indicati. dicci anche quali sono i settaggi massimi e se è possibile attivare l'AA. ti direi, se ti è possibile, di provare a 1280x1024, 1680x1050, 1600x1200 ed eventualmente 1920x1200.
Y2J Lionheart
18-09-2007, 13:45
Team Fortress 2 Beta
, Min, Max, Avg
, 50, 114, 75.821
1280x1024, AA8x, Af16x ed il resto al massimo. l' hdr cosa cambia da globale a espanso? :stordita:
cmq ho girato tutta la mappa Hydro senza che mi crashasse :asd:
revolver90
18-09-2007, 13:47
ciao ragazzi ho trovato su un noto shop la hd2900xt da 1gb della PowerColor a 400euro netti...che ne dite ne vale la pena considerando che viene circa 50 euro(in media)di piu di quella da 512?
ragazzi nn mi smbra di averlo detto anche qui: ho il key di crysis, fra poco meno di 30 min inizio a testare.
Ottimo speriamo non sia il mattone che sembra essere.
TecnoWorld8
18-09-2007, 14:09
Team Fortress 2 Beta
1280x1024, AA8x, Af16x ed il resto al massimo. l' hdr cosa cambia da globale a espanso? :stordita:
cmq ho girato tutta la mappa Hydro senza che mi crashasse :asd:
è un gioco leggerino, quello...cmq ottimi risultati
Y2J Lionheart
18-09-2007, 14:22
è un gioco leggerino, quello...cmq ottimi risultati
si...non è molto pesante.....però lo stile grafico è molto bello :) .
TecnoWorld8
18-09-2007, 14:25
si...non è molto pesante.....però lo stile grafico è molto bello :) .
anche a me piace, vedendo le immagini! sembra un cartone animato :)
-Feanor-
18-09-2007, 14:29
sbaglio o tf2 fa anche usa delle tassellation units...??? :stordita:
sbaglio o tf2 fa anche usa delle tassellation units...??? :stordita:
Mi pare di aver letto qualcosa a riguardo...sembra ne faccia uso per avere animazioni facciali piú varie e realistiche.
EDIT: trovato
http://www.tomshw.it/graphic.php?guide=20070514&page=ati_hd_2900_xt-09
EDIT 2: trovato anche un documento pdf della valve che illustra il rendering dei modelli in TF2 (molto interessante)
www.valvesoftware.com/publications/2007/NPAR07_IllustrativeRenderingInTeamFortress2.pdf
-Feanor-
18-09-2007, 14:49
Mi pare di aver letto qualcosa a riguardo...sembra ne faccia uso per avere animazioni facciali piú varie e realistiche.
EDIT: trovato
http://www.tomshw.it/graphic.php?guide=20070514&page=ati_hd_2900_xt-09
EDIT 2: trovato anche un documento pdf della valve che illustra il rendering dei modelli in TF2 (molto interessante)
www.valvesoftware.com/publications/2007/NPAR07_IllustrativeRenderingInTeamFortress2.pdf
ecco infatti...mi rifacevo ben a quelle news e ad un intervista..;)
EDIT: un occhiata anche QUI (http://www.gametrailers.com/player/23654.html?type=)magari...;)
ragazzi nn mi smbra di averlo detto anche qui: ho il key di crysis, fra poco meno di 30 min inizio a testare.
Ci sono novità?
ragazzi nn mi smbra di averlo detto anche qui: ho il key di crysis, fra poco meno di 30 min inizio a testare.
Scusatemi, cos'è il key di crysis ?!?
per Crysis usate il topic nella sezione giochi please.
mi dimenticavo di voi, scusatemi, cmq vi invito a seguire il 3d, cmq ecco qui i risultati:
La mia config: Amd Opteron 180 (dual-core) 2400mhz, 2Gb di Ram, Hd2900XT 512
1280x1024 Dettegli Max
AA 0x
Avg Min Max
35 15 53
Dettagli Max 1280x960
DX9 AA 0x
Avg Min Max
40 20 58
allora un po' di considerazioni:
1) numerosi bug rilevati: audio, grafici, fisici, sonori (tantissimi)
2) nessun tipo di otimizazione sono passato dai 35 medi della qualità max al 30 delle qualità media, quindi ci sono un po' di problemi anche con il motore grafico.
3) la grafica è spattacola, che brutto tornare a windows :cry: :D
4) nelle mappe con 32 giocatori giocare a 1280 x 1024 è improponibile per gli fps, quindi ho abbassato ha 1280x960
5) ci sono alcune cose da calibrare nelle armi
6) il motore grafico applica gli effetti super velocemente
7) i tempi di caricamento sono normali, quindi buoni
pioss~s4n
18-09-2007, 15:52
a questo punto va ritenuto logico sperare in un'inadeguatezza della beta per quanto riguarda le performance complessive. 15 fotogrammi\sec min su 2900xt a risoluzione media è una realtà provvisoria scoraggiante.
omg -_-
TecnoWorld8
18-09-2007, 15:59
a questo punto va ritenuto logico sperare in un'inadeguatezza della beta per quanto riguarda le performance complessive. 15 fotogrammi\sec min su 2900xt a risoluzione media è una realtà provvisoria scoraggiante.
omg -_-
ci saranno secondo me miglioramenti del 10% al massimo...dopotutto in 2 mesi non si fanno miracoli. cmq vedremo il demo single player, che sarà un benchmark migliore.
3DMark79
18-09-2007, 16:22
mi dimenticavo di voi, scusatemi, cmq vi invito a seguire il 3d, cmq ecco qui i risultati:
La mia config: Amd Opteron 180 (dual-core) 2400mhz, 2Gb di Ram, Hd2900XT 512
1280x1024 Dettegli Max
AA 0x
Avg Min Max
35 15 53
Dettagli Max 1280x960
DX9 AA 0x
Avg Min Max
40 20 58
allora un po' di considerazioni:
1) numerosi bug rilevati: audio, grafici, fisici, sonori (tantissimi)
2) nessun tipo di otimizazione sono passato dai 35 medi della qualità max al 30 delle qualità media, quindi ci sono un po' di problemi anche con il motore grafico.
3) la grafica è spattacola, che brutto tornare a windows :cry: :D
4) nelle mappe con 32 giocatori giocare a 1280 x 1024 è improponibile per gli fps, quindi ho abbassato ha 1280x960
5) ci sono alcune cose da calibrare nelle armi
6) il motore grafico applica gli effetti super velocemente
7) i tempi di caricamento sono normali, quindi buoni
Perfetto M4R1 ;)
adesso non ci resta che attendete il 25 settembre per la demo così avremo un quadro più preciso...anche se a 1680x1050 con dettagli alti la vedo un pò dura.:(
mi dimenticavo di voi, scusatemi, cmq vi invito a seguire il 3d, cmq ecco qui i risultati:
La mia config: Amd Opteron 180 (dual-core) 2400mhz, 2Gb di Ram, Hd2900XT 512
1280x1024 Dettegli Max
AA 0x
Avg Min Max
35 15 53
Dettagli Max 1280x960
DX9 AA 0x
Avg Min Max
40 20 58
allora un po' di considerazioni:
1) numerosi bug rilevati: audio, grafici, fisici, sonori (tantissimi)
2) nessun tipo di otimizazione sono passato dai 35 medi della qualità max al 30 delle qualità media, quindi ci sono un po' di problemi anche con il motore grafico.
3) la grafica è spattacola, che brutto tornare a windows :cry: :D
4) nelle mappe con 32 giocatori giocare a 1280 x 1024 è improponibile per gli fps, quindi ho abbassato ha 1280x960
5) ci sono alcune cose da calibrare nelle armi
6) il motore grafico applica gli effetti super velocemente
7) i tempi di caricamento sono normali, quindi buoni
tanto x dire la mia in fatto di risoluzione per chi ha il monitor 4:3 forse la 1280x960 è migliore della 1280x1024
mi dimenticavo di voi, scusatemi, cmq vi invito a seguire il 3d, cmq ecco qui i risultati:
La mia config: Amd Opteron 180 (dual-core) 2400mhz, 2Gb di Ram, Hd2900XT 512
1280x1024 Dettegli Max
AA 0x
Avg Min Max
35 15 53
Dettagli Max 1280x960
DX9 AA 0x
Avg Min Max
40 20 58
allora un po' di considerazioni:
1) numerosi bug rilevati: audio, grafici, fisici, sonori (tantissimi)
2) nessun tipo di otimizazione sono passato dai 35 medi della qualità max al 30 delle qualità media, quindi ci sono un po' di problemi anche con il motore grafico.
3) la grafica è spattacola, che brutto tornare a windows :cry: :D
4) nelle mappe con 32 giocatori giocare a 1280 x 1024 è improponibile per gli fps, quindi ho abbassato ha 1280x960
5) ci sono alcune cose da calibrare nelle armi
6) il motore grafico applica gli effetti super velocemente
7) i tempi di caricamento sono normali, quindi buoni
Puoi farmi un favore?
Potresti ripetere il test a 1280x1024 con la scheda overclockata al valore massimo con cui è stabile?
Non è per romperti le scatole, ma sto cercando di capire se in ottica di longevità è meglio una HD2900XT o una GeForce 8800 GTS 640 MB.
+Lonewolf+
18-09-2007, 19:25
ci saranno secondo me miglioramenti del 10% al massimo...dopotutto in 2 mesi non si fanno miracoli. cmq vedremo il demo single player, che sarà un benchmark migliore.
qua sbagli...crysis è un terreno nuovissimo da ottimizzare e su quel aettore siamo a zero...
Puoi farmi un favore?
Potresti ripetere il test a 1280x1024 con la scheda overclockata al valore massimo con cui è stabile?
Non è per romperti le scatole, ma sto cercando di capire se in ottica di longevità è meglio una HD2900XT o una GeForce 8800 GTS 640 MB.
è appurato da tempo: megli gts640 o 2900xt? la seconda per vari motivi, cmq voglio provarlo occando ma nn oggi, domani.
cmq tano prt dirlo attualmente crysis quasi come su una ultra, e cmq è hai livelli della gtx ;)
+Lonewolf+
18-09-2007, 20:31
This is the configuration: Q6600, 2900XT, 2GB DDR2 800, displays Samsung 244T, the default resolution of 1920x1200 - Set the whole picture, in the resolution 1920x1200/4AA frame rate probably will remain at around 40-50 frames; In addition, he also highlighted that in "Crysis" Beta version, "Very High (high)" directive is not optional, and the beta version is still only supports DX9
nn m pare male...:) in dx10 a 1280 con l'AA e very high e i catalyst a puntino imho andrà alla grande, prepariamoci allo spettacolo
Giá. Se é vero che come dati nudi e crudi non sembrano molto incoraggianti (anche se giá non sono cosi male) é anche vero che é una beta (quindi male ottimizzata) e che mancano i driver ottimizzati per ATI e nVidia ... quindi aspettiamoci grandi margini di miglioramento :D
Chicco85
18-09-2007, 21:20
This is the configuration: Q6600, 2900XT, 2GB DDR2 800, displays Samsung 244T, the default resolution of 1920x1200 - Set the whole picture, in the resolution 1920x1200/4AA frame rate probably will remain at around 40-50 frames; In addition, he also highlighted that in "Crysis" Beta version, "Very High (high)" directive is not optional, and the beta version is still only supports DX9
nn m pare male...:) in dx10 a 1280 con l'AA e very high e i catalyst a puntino imho andrà alla grande, prepariamoci allo spettacolo
Fonte? :)
Athlon 64 3000+
18-09-2007, 21:27
è appurato da tempo: megli gts640 o 2900xt? la seconda per vari motivi, cmq voglio provarlo occando ma nn oggi, domani.
cmq tano prt dirlo attualmente crysis quasi come su una ultra, e cmq è hai livelli della gtx ;)
potresti per favore se ce la fai a provare la beta con le ombre e il post processing completamente disabilitati?
Athlon 64 3000+
18-09-2007, 21:38
ritornando a parlare della hd 2900xt leggetevi questa discussione di rage 3d su problemi di arteffatti nel 2d:
http://www.rage3d.com/board/showthread.php?t=33895808
ilbuglio
18-09-2007, 22:19
riprendo una disc. gia fatta un 100 di pagine prima
allora ho preso per un amico una gecube 2900xt , questa sk come la sapphire monta il suo bel kit di serie e come nella sapphire i pad termici non fanno contatto sulle ram in pratica niente raffreddamento ottimale delle ram , ora se volete capire cosa dico , provate a prendere la vostra sk video mettetela in controluce nella zona della placca nera posteriore e controllate che non vi sia spazio anche se minimo tra pad e ram , ho provato a fare delle foto ma ci vuole un ottica migliore di una macchinetta da svago , comunque è ben visibile controllando accuratamente se i pad non fanno contatto .
direi 2 su 2 montate a cazzo quindi inizio a pensare che tutte quelle con pcb standar siano fatte cosi .
fatemi sapere .
grazie.
Filodream
18-09-2007, 22:24
ritornando a parlare della hd 2900xt leggetevi questa discussione di rage 3d su problemi di arteffatti nel 2d:
mi ci fa spesso in alto, sulla finestra, quando uso windows movie maker...
basta che faccio riduci a icona, poi ripristina e torna ok... Mai avuto ombra di artefatti in 3d in compenso;) e quel pc lo uso molto più per giocare, che per stare a girare su win... Ma si sa a cosa sono dovuti? E soprattutto, se lo fa a tutti?
3DMark79
18-09-2007, 22:59
riprendo una disc. gia fatta un 100 di pagine prima
allora ho preso per un amico una gecube 2900xt , questa sk come la sapphire monta il suo bel kit di serie e come nella sapphire i pad termici non fanno contatto sulle ram in pratica niente raffreddamento ottimale delle ram , ora se volete capire cosa dico , provate a prendere la vostra sk video mettetela in controluce nella zona della placca nera posteriore e controllate che non vi sia spazio anche se minimo tra pad e ram , ho provato a fare delle foto ma ci vuole un ottica migliore di una macchinetta da svago , comunque è ben visibile controllando accuratamente se i pad non fanno contatto .
direi 2 su 2 montate a cazzo quindi inizio a pensare che tutte quelle con pcb standar siano fatte cosi .
fatemi sapere .
grazie.
Caspita cmq buono a sapersi visto che se deciderei di prendere una futura HD2900pro protrebbe avere gli stessi problemi visto che dovrebbe montare lo stesso dissy.Dunque per chi fa overclock della memoria deve stare molto attento a non farle cucinare :D.
Tu come hai provveduto a sistemare la cosa?:confused:
Si può ovviare solo cambiando magari i pad con della pasta termoconduttiva?Ho c'è troppo spazio tra la memoria e il dissy?Spero di no!:eek:
Iantikas
19-09-2007, 00:33
riprendo una disc. gia fatta un 100 di pagine prima
allora ho preso per un amico una gecube 2900xt , questa sk come la sapphire monta il suo bel kit di serie e come nella sapphire i pad termici non fanno contatto sulle ram in pratica niente raffreddamento ottimale delle ram , ora se volete capire cosa dico , provate a prendere la vostra sk video mettetela in controluce nella zona della placca nera posteriore e controllate che non vi sia spazio anche se minimo tra pad e ram , ho provato a fare delle foto ma ci vuole un ottica migliore di una macchinetta da svago , comunque è ben visibile controllando accuratamente se i pad non fanno contatto .
direi 2 su 2 montate a cazzo quindi inizio a pensare che tutte quelle con pcb standar siano fatte cosi .
fatemi sapere . grazie.
...io l'ho smontato poco tempo fa il dissi d serie x montare un HR03...il contatto con il core era davvero ottimo (forse il migliore ke abbia mai visto tra le skede originali), ce nera un casino ai bordi d pasta ma tra dissi e core solo un alone (da questo magari le temp + basse rispetto alla media ke avevo e ke tempo fa avevano fatto nascere anke una discussione con tanto d screen d rivatuner x dimostrarle)...e anke le ram avevano tutte contatto ottimale sia davanti ke dietro tranne due singoli chip nella parte dietro ke toccavano x metà...la mia è della sapphire...cmq con tutte le skede capita quella montata meglio e quella montata peggio, 6 solo stato un pò sfortunato a trovarne due d fila...
...ciao
p.s.: cmq come impressioni a freddo del HR03 dopo un pò d'utilizzo rimango soddisfatto...anke se ho trovato un difetto...a fronte d cadute notevoli d temp sul core (circa 20°) e sulla mem (circa 10°) la temp dei mosfet è invece sensibilmente peggiore rispetto al dissi stock (circa 10°)...questo con 92mm a circa 1450rpm e con il ricircolo presente nel TJ09 da parte d 5 schyte FDB a circa 960rpm...
...d questo nei test iniziali (ke era firefly forest ripetuto 8 volte a 1680x1050 4xAA/16xAF) d cui postai gli screen nn me ne ero accorto anke xkè la temp dei mosfet sale molto lentamente e x arrivare al max (88°) ci vogliono quasi due ore d gioco (rispetto ai circa 78° ke raggiungevano col dissi stock in analoghe situazioni con core e mem rispettivamente intorno ai 74°/62°)...
...ho risolto mettendo le 5 schyte a 1170rpm e la 92mm a circa 1750rpm...cosa ke ha fatto abbassare d un altro paio d gradi il core (52°) lasciando uguale la mem (50°) e abbassando la temp dei mosfet intorno ai 80/82°...
...il rumore del sistema è aumentato un pò ma cmq + ke accettabile e sempre niente in confronto al baccano ke faceva il dissi stock con la GPU sotto stress...
potresti per favore se ce la fai a provare la beta con le ombre e il post processing completamente disabilitati?
fatto: nn cambia niente, o per lo meno sono passato da una media di 32fps a 1280x1024 a 36, quindi siamo li
cmq siamo troppo ot, se c'è qualcosaltro mandami pvt o posta sul 3d di crysis ;)
Athlon 64 3000+
19-09-2007, 08:23
fatto: nn cambia niente, o per lo meno sono passato da una media di 32fps a 1280x1024 a 36, quindi siamo li
cmq siamo troppo ot, se c'è qualcosaltro mandami pvt o posta sul 3d di crysis ;)
ok,grazie per la prova effettuata.
mordsiger
19-09-2007, 09:14
ragazzi ho un problema con atitool, quando modifico il vgpu me lo modifica, vedo anche dal monitor di rivatuner... però al cambio di frequenza fatto con qualsiasi software il vgpu mi si resetta....io ho la 2900 1Gb
sapete darmi una soluzione?
c'è un altro software che mi permette di modificare i voltaggi?
ragazzi ho un problema con atitool, quando modifico il vgpu me lo modifica, vedo anche dal monitor di rivatuner... però al cambio di frequenza fatto con qualsiasi software il vgpu mi si resetta....io ho la 2900 1Gb
sapete darmi una soluzione?
c'è un altro software che mi permette di modificare i voltaggi?
Prova con amdsystem o atisystem è il software tool per pc ed ottimizazioni che viene direttamente da ati/amd. cercalo su techpowerup non è facilissimo da trovare xè non dovrebbe essere ufficiale ma solitamente è il software che amd/ati da agli overclockers tipo macci e sampsa e compagnia all'uscita delle vga.
con questo software hanno fatto il wr con le x1800xt con core a 1000mhz
*+*kekko*+*
19-09-2007, 11:28
scusate l'interruzione ma vale la pena prendere questi 7.9 o è meglio tenersi i 7.8 con gli hotfix x bioshock???
AndreaEG6
19-09-2007, 11:37
Ragazzi buongiorno, ho una domanda sui driver da utilizzare: ho scaricato quelli ufficiali dal sito ATI e fin qui tutto a posto, ma leggendo un pò tra i thread leggevo di driver non ufficiali che garantiscono migliori prestazioni della scheda, in cosa consistono? Per la HD2900XT esistono? Grazie mille per la pazienza, sto cercando di "sniubbarmi" in fretta :D.
webbuffa
19-09-2007, 11:43
:) Raga a cosa serve la mod fireGL?
http://forums.guru3d.com/showthread.php?t=237273
:)
:) Raga a cosa serve la mod fireGL?
http://forums.guru3d.com/showthread.php?t=237273
:)
Ad aumentare le prestazioni OpenGL in ambito professionale della scheda. Con i giochi si peggiora un poco.
Quoziente
19-09-2007, 12:31
:) Raga a cosa serve la mod fireGL?
http://forums.guru3d.com/showthread.php?t=237273
:)
Allora: Ati, come nVidia ha 2 serie di schede video per i desktop, le serie HD 2xxx e nVidia 8xxx per le applicazioni standard (S.O, giochi, ecc...) e le serie FireGL per Ati e Quadro per nVidia per i cad (applicativi OpenGL). Sostanzialmente le schede sono identiche con l'unica differenza che le schede FireGL e Quadro hanno un diverso "bios" ottimizzato per le OpenGL, montano solitamente più ram delle controparti "standard" (le nuove FireGL di ATI montano fino a 2GB di Vram) e costano anche 10 volte tanto.
Quello che hai linkato sembra essere un bios per "trasformare" una HD 2900 XT in una FireGL. Conta però che le schede FireGL sono ottimizzate solo per gli applicativi OpenGL (niente direct3D) e che solitamente con i giochi hanno prestazioni oscene...
ragazzi ho un grosso problema con la 2900xt asus appena comprata
non so se è da cambiare o no
appena reinstallato Vista Ultimate 32bit
metto i catalyst 7.9, ok
gioco e tutto ok
l'unica anomalia e che non riesco a vedere la temperatuna da nessuna parte e i dati e le frequenze niente
atitool 0,27b2 non parte
everest, nella sezione gpu non c'è niente e manco la temp.
dal control center manca la sezione over drive e temp.
x l'alimentazione, nella scatola c'erano solo 2 molex 6pin (ho usato quelli del mio alim.) seasoni s12 600w
e quello da 8pin? dove lo prendo? non serve per l'over drive?
grazie di tutto
Tidus.hw
19-09-2007, 13:33
ragazzi ho un grosso problema con la 2900xt asus appena comprata
non so se è da cambiare o no
appena reinstallato Vista Ultimate 32bit
metto i catalyst 7.9, ok
gioco e tutto ok
l'unica anomalia e che non riesco a vedere la temperatuna da nessuna parte e i dati e le frequenze niente
atitool 0,27b2 non parte
everest, nella sezione gpu non c'è niente e manco la temp.
dal control center manca la sezione over drive e temp.
x l'alimentazione, nella scatola c'erano solo 2 molex 6pin (ho usato quelli del mio alim.) seasoni s12 600w
e quello da 8pin? dove lo prendo? non serve per l'over drive?
grazie di tutto
usa rivatuner sia per l'overclock che per la temperatura :)
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
mi consigliate di farlo adesso a sotto il periodo natalizio? dico questo perchè se dovessi comprarla a meno nn sarebbe male. poi il mio ali ha 4 linee da 12 volt, ciascuna con 18A, basteranno (ovvio che si ma vorrei una conferma)?
e in fine: mi converrebbe? premetto che i prossimi titoli (quali: Crysis, UT3, ecc) me li voglio davvero godere con Tutto al max. certo è un azzardo perchè magari a novembre scopro che una 2900 basta e avanza, però in previsione di tenerla per un bel po' volevo un consiglio, perchè mi sono detto: mi faccio adesso il crossfire oppure mi prendo r700 (quandp uscirà) poi però nn vorrei essere cpu limit e tnate storie legate alla mia cpu.
voi cosa mi dite?
Grazie:) :)
ps: con un crossfire (di 2900) sarei cpu limit?
EvIL-LIFe
19-09-2007, 14:41
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
mi consigliate di farlo adesso a sotto il periodo natalizio? dico questo perchè se dovessi comprarla a meno nn sarebbe male. poi il mio ali ha 4 linee da 12 volt, ciascuna con 18A, basteranno (ovvio che si ma vorrei una conferma)?
e in fine: mi converrebbe? premetto che i prossimi titoli (quali: Crysis, UT3, ecc) me li voglio davvero godere con Tutto al max. certo è un azzardo perchè magari a novembre scopro che una 2900 basta e avanza, però in previsione di tenerla per un bel po' volevo un consiglio, perchè mi sono detto: mi faccio adesso il crossfire oppure mi prendo r700 (quandp uscirà) poi però nn vorrei essere cpu limit e tnate storie legate alla mia cpu.
voi cosa mi dite?
Grazie:) :)
ps: con un crossfire (di 2900) sarei cpu limit?
direi che con i soldi che spendersti per una nuova xt, ti conviene aspettare, vendere la tua e comprare direttamente r700... inoltre considera che (come tu stesso hai domandato) la tua cpu non all'altezza di darti il massimo delle prestazioni... penso che te ne accorgerai gia con crysis... quindi il mio consiglio in via definitiva è: lascia perdere il crossfire ;)
-Feanor-
19-09-2007, 14:44
direi che con i soldi che spendersti per una nuova xt, ti conviene aspettare, vendere la tua e comprare direttamente r700... inoltre considera che (come tu stesso hai domandato) la tua cpu non all'altezza di darti il massimo delle prestazioni... penso che te ne accorgerai gia con crysis... quindi il mio consiglio in via definitiva è: lascia perdere il crossfire ;)
mmm....direi che quoto...;)
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
mi consigliate di farlo adesso a sotto il periodo natalizio? dico questo perchè se dovessi comprarla a meno nn sarebbe male. poi il mio ali ha 4 linee da 12 volt, ciascuna con 18A, basteranno (ovvio che si ma vorrei una conferma)?
e in fine: mi converrebbe? premetto che i prossimi titoli (quali: Crysis, UT3, ecc) me li voglio davvero godere con Tutto al max. certo è un azzardo perchè magari a novembre scopro che una 2900 basta e avanza, però in previsione di tenerla per un bel po' volevo un consiglio, perchè mi sono detto: mi faccio adesso il crossfire oppure mi prendo r700 (quandp uscirà) poi però nn vorrei essere cpu limit e tnate storie legate alla mia cpu.
voi cosa mi dite?
Grazie:) :)
ps: con un crossfire (di 2900) sarei cpu limit?
il crossfire come lo sli non serve a nulla nei giochi, poi con la cpu che hai 6 stralimitato, se gioki a 1900x1200 magari potrebbe servirti, ma gran poco. x me è meglio se cambi la cpu. te lo dico xè prima avevo sempre sli di 7800, 7900 ecc.... se vuoi ti vendo la mia cpu.. ma non è il thread giusto questo
direi che con i soldi che spendersti per una nuova xt, ti conviene aspettare, vendere la tua e comprare direttamente r700... inoltre considera che (come tu stesso hai domandato) la tua cpu non all'altezza di darti il massimo delle prestazioni... penso che te ne accorgerai gia con crysis... quindi il mio consiglio in via definitiva è: lascia perdere il crossfire ;)
ok Grazie per il consiglio ;)
mmm....direi che quoto...;)
Grazie
il crossfire come lo sli non serve a nulla nei giochi, poi con la cpu che hai 6 stralimitato, se gioki a 1900x1200 magari potrebbe servirti, ma gran poco. x me è meglio se cambi la cpute lo dico xè prima avevo sempre sli di 7800, 7900 ecc.... se vuoi ti vendo la mia cpu.. ma non è il thread giusto questo
Grazie anche a te ;) (vedi che si può convivere :D )
edit: l'idea nn è male (anche se siamo ot) però prima voglio vedere come si comportano i K10 e i penryn ; se con questi la differenza è poca coi conroe mi prenderò un C2D (però nn prima di natale)
ok Grazie per il consiglio ;)
Grazie
Grazie anche a te ;) (vedi che si può convivere :D )
edit: l'idea nn è male (anche se siamo ot) però prima voglio vedere come si comportano i K10 e i penryn ; se con questi la differenza è poca coi conroe mi prenderò un C2D (però nn prima di natale)
è xè mi sto ascoltando un pò di oasis ke mi rilassano...... skerzo :D
-Feanor-
19-09-2007, 14:57
è xè mi sto ascoltando un pò di oasis ke mi rilassano...... skerzo :D
:asd:....svelato l'arcano...:asd:
è xè mi sto ascoltando un pò di oasis ke mi rilassano...... skerzo :D
:)
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
mi consigliate di farlo adesso a sotto il periodo natalizio? dico questo perchè se dovessi comprarla a meno nn sarebbe male. poi il mio ali ha 4 linee da 12 volt, ciascuna con 18A, basteranno (ovvio che si ma vorrei una conferma)?
e in fine: mi converrebbe? premetto che i prossimi titoli (quali: Crysis, UT3, ecc) me li voglio davvero godere con Tutto al max. certo è un azzardo perchè magari a novembre scopro che una 2900 basta e avanza, però in previsione di tenerla per un bel po' volevo un consiglio, perchè mi sono detto: mi faccio adesso il crossfire oppure mi prendo r700 (quandp uscirà) poi però nn vorrei essere cpu limit e tnate storie legate alla mia cpu.
voi cosa mi dite?
Grazie:) :)
ps: con un crossfire (di 2900) sarei cpu limit?
lascia stare io ho sulla pelle sia cf che sli e sono solo delle macchien mangia soldi con + problemi che altro...
non sai mai se il cf è attimo o meno guarda sono + problemi che soddisfazioni
è xè mi sto ascoltando un pò di oasis ke mi rilassano...... skerzo :D
Prova un po' di Slipknot. :O
Ragazzi buongiorno, ho una domanda sui driver da utilizzare: ho scaricato quelli ufficiali dal sito ATI e fin qui tutto a posto, ma leggendo un pò tra i thread leggevo di driver non ufficiali che garantiscono migliori prestazioni della scheda, in cosa consistono? Per la HD2900XT esistono? Grazie mille per la pazienza, sto cercando di "sniubbarmi" in fretta :D.
guarda fondamentalmente posso dirti che è inutile con una casa che ti da dvr ufficiali ogni mese andarti a procacciare hotfix e dvr beta che rischiano di incasinare solo il sistema.
anche xè torna sempre il solito discorso sui dvr è vero che ci possono essere incrementi ma ad ogni release aumentano di un 10-15% mo nsomma se il gioco fa 60 o 66fps non mi cambia la giocabilità in maniera drastica mentre se me ne fà 20 e passo a 22 sempre ingiocabile è.
quindi io sono sempre del parere che basta attendere quei 25-30giorni per avere i dvr nuovi oppure giocare senza farsi prendere la fregola dei 5 o 6 fps in +.
quindi vai avanti con quelli attuali che sono i 7.9 attorno al 10-15 ottorbe dovrebbero uscire i 7.10 quindi non è questa gransissima attesa.
gioca a quello che vuoi giocare xè tanto la potenza ci stà senza andare a cercarti beta di dubbie orgini od hotfix vari;)
Iantikas
19-09-2007, 15:24
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
mi consigliate di farlo adesso a sotto il periodo natalizio? dico questo perchè se dovessi comprarla a meno nn sarebbe male. poi il mio ali ha 4 linee da 12 volt, ciascuna con 18A, basteranno (ovvio che si ma vorrei una conferma)?
e in fine: mi converrebbe? premetto che i prossimi titoli (quali: Crysis, UT3, ecc) me li voglio davvero godere con Tutto al max. certo è un azzardo perchè magari a novembre scopro che una 2900 basta e avanza, però in previsione di tenerla per un bel po' volevo un consiglio, perchè mi sono detto: mi faccio adesso il crossfire oppure mi prendo r700 (quandp uscirà) poi però nn vorrei essere cpu limit e tnate storie legate alla mia cpu.
voi cosa mi dite?
Grazie:) :)
ps: con un crossfire (di 2900) sarei cpu limit?
ti consiglierei d aspettare innanzitutto il 25 settembre quando uscirà la demo single core d crysis ke già dovrebbe dare un primo quadro della situazione...e cmq d aspettare novembre quando uscirà il gioco completo...xiodo in cui forse esce anke la nuova hig-end nvidia ke sicuramente andrà meglio d un CF d HD2900XT e potresti prendere quella senza aspettare febbreio/marzo 2008 ad R700 (io x es. se si dovesse rivelare un ottima gpu top d gamma ho intenzione d fare proprio così, cosa ke mero programmato sin da quando a giungno ho preso R600...certo ke se R600 anke con i titoli d fine anno ancora mi soddisfa, anke se escono nuove ottime gpu, me la tengo finkè mi dura)...
...inoltre il mio consiglio è cmq quello d stare alla larga dalle config a doppia gpu SLI o CF ke siano...son + gli sbattimenti ke le soddisfazioni...
...ciao
AndreaEG6
19-09-2007, 15:27
guarda fondamentalmente posso dirti che è inutile con una casa che ti da dvr ufficiali ogni mese andarti a procacciare hotfix e dvr beta che rischiano di incasinare solo il sistema.
anche xè torna sempre il solito discorso sui dvr è vero che ci possono essere incrementi ma ad ogni release aumentano di un 10-15% mo nsomma se il gioco fa 60 o 66fps non mi cambia la giocabilità in maniera drastica mentre se me ne fà 20 e passo a 22 sempre ingiocabile è.
quindi io sono sempre del parere che basta attendere quei 25-30giorni per avere i dvr nuovi oppure giocare senza farsi prendere la fregola dei 5 o 6 fps in +.
quindi vai avanti con quelli attuali che sono i 7.9 attorno al 10-15 ottorbe dovrebbero uscire i 7.10 quindi non è questa gransissima attesa.
gioca a quello che vuoi giocare xè tanto la potenza ci stà senza andare a cercarti beta di dubbie orgini od hotfix vari;)
Grazie Catan, concetto immagazzinato :D!
ale0bello0pr
19-09-2007, 15:28
Come non detto, non avevo letto la risposta :).
OT save the cheerleader, save the world :ave:
FINE OT
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.