View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
Alexkidd85
20-05-2007, 02:14
ciao , a che risoluzione? tutto al max? hai scatti nel gioco o è sempre fluido?
Quoto...dicci dicci....che risoluzione? Comunque se è a 50 fuori...non scatta! E se scatta c'entra poco la vga penso... ;)
guardata questa review:eek: http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page1.php
apparte i soliti crolli con i filtri (neanche tanto però.....) la scheda si comporta molto bene,soprattutto con gli ultimi giochi usciti
comunque mi pare abbiano utilizzato driver più recenti di altre review
Poliphilo
20-05-2007, 09:08
ciao , a che risoluzione? tutto al max? hai scatti nel gioco o è sempre fluido?
Quoto. Che risoluzione è? Hai attivato tutto al massimo compreso HDR? 45 è il frame rate minimo?
gianni1879
20-05-2007, 09:17
guardata questa review:eek: http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page1.php
apparte i soliti crolli con i filtri (neanche tanto però.....) la scheda si comporta molto bene,soprattutto con gli ultimi giochi usciti
comunque mi pare abbiano utilizzato driver più recenti di altre review
già postata ;)
guardata questa review:eek: http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page1.php
apparte i soliti crolli con i filtri (neanche tanto però.....) la scheda si comporta molto bene,soprattutto con gli ultimi giochi usciti
comunque mi pare abbiano utilizzato driver più recenti di altre review
Già postata parecchie volte e sono sempre più perplesso...
Aspetto che gli utenti che l'hanno comprata possano darci un loro giudizio...
Già postata parecchie volte e sono sempre più perplesso...
Aspetto che gli utenti che l'hanno comprata possano darci un loro giudizio...
A prescindere dai numeri in sè il rapporto tra R600 e le altre schede mi pare corretto... Tutte le recensioni che hanno un test di Vegas riportano che la ATi è al livello di una GTX.
a Stalker ho un frame rate molto più basso forse a anche perchè ho il pc parecchio incasinato e la prossima settimana quando escono i nuovi driver formatto.
Dipende anche dal SO io ho Vista Home 64bit, ma con le impostazioni che ci siamo detti non ho mai fatto 18-30 fps con una media quindi di 24, poi dipende anche dal momento del giorno e se c'è il sole o meno, quando ho fatto io il test pioveva.
Comunque in game in generale va da dio, sto sulla 70ina nelle fogne.
Pk77
ciao , a che risoluzione? tutto al max? hai scatti nel gioco o è sempre fluido?
E' sempre fluido, 1280x1024 4x 16x tutto al max.
Pk77
Quoto. Che risoluzione è? Hai attivato tutto al massimo compreso HDR? 45 è il frame rate minimo?
Non ho HDR, bagliore e tutto il resto al max, dal gioco non mi fa impostare HDR e FSAA.
E' sempre fluido, 1280x1024 4x 16x tutto al max.
Pk77
Molto molto interessante...non vedo l'ora di poter montare la nuova bestiolina :)
E' sempre fluido, 1280x1024 4x 16x tutto al max.
Pk77
ma come mai non usi l'antialias a 6x?
Non ho HDR, bagliore e tutto il resto al max, dal gioco non mi fa impostare HDR e FSAA.
Beh, credo tu possa forzarlo tranquillamente via driver, o ci hai già provato e ti ha dato picche? :mbe:
Soulbringer
20-05-2007, 12:32
Beh, credo tu possa forzarlo tranquillamente via driver, o ci hai già provato e ti ha dato picche? :mbe:
Per Oblivion esiste una patch che permette di attivare HDR + aa insieme!
Iantikas
20-05-2007, 12:49
Non ho HDR, bagliore e tutto il resto al max, dal gioco non mi fa impostare HDR e FSAA.
azz...appena si riscontrano buone performance esce sempre ke c'era qualcosa sotto :stordita: ...
...x attivare AA e HDR insieme in oblivion basta ke fai così...
...attivi HDR dal gioco (lasciando disabilitato AA)...
...attivi AA dal pannello dei driver...
...quando farai partire il gioco avrai HDR+AA...
...se puoi fai una prova in esterni con FRAPS (lo fai partire in background e durante il gamepremi F11 x far partire il benchmark...poi ripremi F11 x stopparlo) sia con 4xAA ke con 8xAA (entrambi BOX)...
...ciao
Iantikas
20-05-2007, 12:51
Per Oblivion esiste una patch che permette di attivare HDR + aa insieme!
la patch nn'è un file a parte come agli inzi ma così come x la serie X1x00 anke con R600 è integrata nei driver ke si scaricano dal sito...ciao
Soulbringer
20-05-2007, 13:03
la patch nn'è un file a parte come agli inzi ma così come x la serie X1x00 anke con R600 è integrata nei driver ke si scaricano dal sito...ciao
Ah ok ero rimasto agli inizi:D meglio così allora!Ciao!
Soulbringer
20-05-2007, 13:07
Raga ma l'adattatore 6 pin->8 pin qualcuno sa dove trovarlo?
Iantikas
20-05-2007, 13:37
Raga ma l'adattatore 6 pin->8 pin qualcuno sa dove trovarlo?
x ora pare ke solo MSI lo da in bundle con la skeda...
...cmq vari siti hanno visto ke ad aria usando 6/8 o 6/6 le max freq ke si raggiungono sono le stesse (in quei casi 850/1000)...
...quindi alla fine il connettore ad 8pin serve a poco e niente...ciao
Per Oblivion esiste una patch che permette di attivare HDR + aa insieme!
Se ti riferisci alla chuck patch, credo che ormai sia stata inglobata nei driver da un pezzo, ma in ogni caso credo sia ancora da scrivere per le 2900 :boh:
No funziona, ho gia fatto gli screen devo solo uplodarli sul mio ftp, insieme a quelli di stalker, in Oblivion sono a 1280x1024 4x 16x HDR tutto il resto al max.
In stalker sono come avevo postato qualche post fa a 1280x1024 16x af illuminazione dinamica, il resto tutto al max.
Preannuncio performance ottime, ma fra poco vedrete.
Friz1983
20-05-2007, 13:58
No funziona, ho gia fatto gli screen devo solo uplodarli sul mio ftp, insieme a quelli di stalker, in Oblivion sono a 1280x1024 4x 16x HDR tutto il resto al max.
In stalker sono come avevo postato qualche post fa a 1280x1024 16x af illuminazione dinamica, il resto tutto al max.
Preannuncio performance ottime, ma fra poco vedrete.
non vedo l'ora :D
mitico che fai un po di prove a breve ordinero anche io la scheda.
Oblivion 1280x1024 4x 16x HDR tutto al max
img1 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-32-18-90.jpg)
img2 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-35-09-82.jpg)
img3 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-37-15-41.jpg)
img4 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-38-35-53.jpg)
img5 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-39-11-71.jpg)
Stalker 1280x1024 16x Af Illuminazione dinamica, tutto al max.
img1 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-11-10-71.jpg)
img2 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-14-07-04.jpg)
img3 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-14-44-04.jpg)
img4 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-15-30-20.jpg)
img5 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-16-08-00.jpg)
img6 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-16-38-37.jpg)
img7 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-18-29-01.jpg)
img8 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-18-55-77.jpg)
img9 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-19-07-42.jpg)
Friz1983
20-05-2007, 14:16
grande:ave:
solo più una domanda, anche in stalker il gioco è sempre fluido senza scatti? grazie
Alexkidd85
20-05-2007, 14:18
Molto buoni...sto incomnciando a rodere di aver preso la 8800gtx :muro:
anche se comunue a m interessano a risoluzioni più alte...tipo un 1680 :p
Stalker 1280x1024 16x Af Illuminazione dinamica, tutto al max.
img1 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-11-10-71.jpg)
img2 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-14-07-04.jpg)
img3 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-14-44-04.jpg)
img4 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-15-30-20.jpg)
img5 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-16-08-00.jpg)
img6 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-16-38-37.jpg)
img7 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-18-29-01.jpg)
img8 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-18-55-77.jpg)
img9 (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2014-19-07-42.jpg)
Questi sono risultati HDR off? Se no, qual è il contraccolpo sulle prestazioni?
Questi sono risultati HDR off? Se no, qual è il contraccolpo sulle prestazioni?
No questi sono gli screen con tutto attivato.
Senza Ombre Solari (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2015-27-24-19.jpg)
Questo è senza ombre solari, 50% in più.
Molto buoni...sto incomnciando a rodere di aver preso la 8800gtx :muro:
anche se comunue a m interessano a risoluzioni più alte...tipo un 1680 :p
direi che hai cmq una VGA fantastica VGA , soprattuttto consolidata ;)
la 2900 è ancora in divenire :p
Poi mi pare di ricordare che sei ad aria, per cui secondo me se volevi il top hai fatto la scelta azzeccata :)
Athlon 64 3000+
20-05-2007, 14:26
No questi sono gli screen con tutto attivato.
da me con tutto attivato viaggia sempre sotto i 30 fps,magari hai percaso modificato l'user.ini e melo puoi passare?
da me con tutto attivato viaggia sempre sotto i 30 fps,magari hai percaso modificato l'user.ini e melo puoi passare?
Io non ho nulla modificato, ho la patch 1.03, magari è quella ;) o Win vista 64 :O
Alexkidd85
20-05-2007, 14:31
direi che hai cmq una VGA fantastica VGA , soprattuttto consolidata ;)
la 2900 è ancora in divenire :p
Poi mi pare di ricordare che sei ad aria, per cui secondo me se volevi il top hai fatto la scelta azzeccata :)
Grazie mi rassicuri :D
Athlon 64 3000+
20-05-2007, 14:37
Io non ho nulla modificato, ho la patch 1.03, magari è quella ;) o Win vista 64 :O
Test fatto con XP 32 e patch 1.03 e tutto aggiornato all'ultima versione dei driver.
thommy87
20-05-2007, 14:43
[QU
img5 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-39-11-71.jpg)[/QUOTE]
prova ad andare proprio dentro il bosco dove è pieno di alberi e siepi...per me calano un po i frame la..
Athlon 64 3000+
20-05-2007, 15:00
No questi sono gli screen con tutto attivato.
Senza Ombre Solari (http://www.sigmaline.it/PAT/XR_3DA%202007-05-20%2015-27-24-19.jpg)
Questo è senza ombre solari, 50% in più.
da me il gioco gira molto peggio e proprio non riesco a capire e uso come driver gli 8.37.4.3
2 days left per i driver... speriamo bene
Alexkidd85
20-05-2007, 15:11
Ho ocme questa netta impressione che siamo cpu limited con ste schede.. :D (noi con i "vecchi" processori)
da me il gioco gira molto peggio e proprio non riesco a capire e uso come driver gli 8.37.4.3
Stessi miei, la differenza è il chipset e il so.
@mattste
20-05-2007, 15:20
Stessi miei, la differenza è il chipset e il so.
e ihmo il procio........forse un X2 nn è davvero piu sufficiente(spero di no)
davide155
20-05-2007, 15:25
e ihmo il procio........forse un X2 nn è davvero piu sufficiente(spero di no)
è sufficiente eccome.....ma tanto non verrà mai sfruttato al 100%......quindi è come avere un single core.......
Athlon 64 3000+
20-05-2007, 15:26
e ihmo il procio........forse un X2 nn è davvero piu sufficiente(spero di no)
io ho un x2 4800+ socket 939 mentre Pat77 un x2 4200+ socket AM2
Iantikas
20-05-2007, 15:31
@Athlon 64 3000+: seconsdo me hai qualcosa ke nn va a livello software x cui ti va così piano...cpu e il resto nn centrano niente...col tuo sistema dovresti avere prestazioni superiori...prova disinstallando i vari driver e mettendo di ognuno le versioni + nuove...ma la soluzione + sicura secondo me è un bel format...ciao
davide155
20-05-2007, 15:33
@Athlon 64 3000+: seconsdo me hai qualcosa ke nn va a livello software x cui ti va così piano...cpu e il resto nn centrano niente...col tuo sistema dovresti avere prestazioni superiori...prova disinstallando i vari driver e mettendo di ognuno le versioni + nuove...ma la soluzione + sicura secondo me è un bel format...ciao
Braverrimo!
Format C: e via......! :D
Installi i driver video....i driver del chipset......e 3dmark e basta!.....vedrai che avrai un bel pò di punticini in più :O
ho trovato una race su hd 2900xt con piattaforme di test differenti:
questa con cpu x2 4800+ ecc..
http://www.toxico-pc.com/review_det.php?p=5&idr=318
questa con cpu qx6700 ecc....
http://www.toxico-pc.com/review_det.php?p=7&idr=318
davide155
20-05-2007, 16:01
ho trovato una race su hd 2900xt con piattaforme di test differenti:
questa con cpu x2 4800+ ecc..
http://www.toxico-pc.com/review_det.php?p=5&idr=318
questa con cpu qx6700 ecc....
http://www.toxico-pc.com/review_det.php?p=7&idr=318
Fa così poco con un 4600 x2 dual core? :eek: :eek:
Se fosse così allora è fortemente dipendente dalla cpu.....al contrario della gtx :rolleyes:
ho trovato una race su hd 2900xt con piattaforme di test differenti:
questa con cpu x2 4800+ ecc..
http://www.toxico-pc.com/review_det.php?p=5&idr=318
questa con cpu qx6700 ecc....
http://www.toxico-pc.com/review_det.php?p=7&idr=318
Non sono il massimo dell'affidabilità, ma comunque se fossero veri i risultati di Carbon a 1280x1024 AA8x tutto al max sarebbero al livello se non superiori a quelli della GTX. Bisognerebbe solo essere sicuri che abbiano attivato il motion blur.
Fa così poco con un 4600 x2 dual core? :eek: :eek:
Se fosse così allora è fortemente dipendente dalla cpu.....al contrario della gtx :rolleyes:
Boh, a me pare altamente strano che faccia così poco al 3DMark06 con un X24600+... Troppa anche la differenza (sia con la cpu AMD che con quella Intel) tra i punteggi SM2 e SM3. In quei risultati c'è qualcosa che non va imho.
si ma in un test usano xp nell'altro vista...
io ho un x2 4800+ socket 939 mentre Pat77 un x2 4200+ socket AM2
Potrebbe anche essere la ram. La tua è ddr400, la sua ddr800.
Potrebbe anche essere la ram. La tua è ddr400, la sua ddr800.
si ma cmq io ne faccio 11000-10900 mi sembra strano faccia solo 12000 punti:mbe:
si ma in un test usano xp nell'altro vista...
@zzo quanto ralenta sta Vista :doh:
@zzo quanto ralenta sta Vista :doh:
io perdo 1000-1500 punti da xp a vista :D
io perdo 1000-1500 punti da xp a vista :D
Dove ti perde di+?? Cpu o Vga??
ho trovato una race su hd 2900xt con piattaforme di test differenti:
questa con cpu x2 4800+ ecc..
http://www.toxico-pc.com/review_det.php?p=5&idr=318
questa con cpu qx6700 ecc....
http://www.toxico-pc.com/review_det.php?p=7&idr=318
Secondo me sono poco affidabili, al 3dmark05 12000 punti si prendono con una 1900xt cloccata.
Io non ci sto capendo + una fava... spero arrivi presto il 22 perché veramente non capisco nulla.
Prima su un cacchio di sito trovavi driver beta come niente... adesso invece c'è sto caspita di NDA e i driver che ci sono risalgono a 1 - 2 settimane prima del lancio della scheda. Non si riesce ad avere nulla di nuovo... mi girano non poco le palle.
Il Creativo
20-05-2007, 16:33
Non vi meravigliate del fattore cpu-bound, io con la 8800 ho notato un incremento di punteggi tra 3000-5000 punti ai 3dmark 05 e 06 effettuando il test dapprima con opteron default, dopo con opteron 2,9 ghz, quindi per chi pensa che G80 non sia cpu-bounded si sbaglia di brutto...
per quanto riguarda i test che state effettuando avrei un paio di considerazioni da fare:
1) A quanto leggo ottenete dei punteggi differenti su Stalker, ma non è che qualcuno ci gioca con V-sync Off mentre qualcun'altro lo ha attivato?
2) Per chi non usa il V-sync è ovvio che il framerate schizzerà alle stelle rispetto a chi lo usa e, personalmente trovo assurdo giocare senza V-sync dato che vedere le immagini in movimento che si sdoppiano mi da enormemente fastidio:muro: .
davide155
20-05-2007, 16:34
Boh, a me pare altamente strano che faccia così poco al 3DMark06 con un X24600+... Troppa anche la differenza (sia con la cpu AMD che con quella Intel) tra i punteggi SM2 e SM3. In quei risultati c'è qualcosa che non va imho.
Lascia perdere il 3dmark 2006............ il calcolo dei punteggi ha tutta una sua proporzione......
Cmq il dual core è sfruttato solo nel test cpu....mentre in quegli altri è come se fosse un single core, perchè il secondo core non è sfruttato per nulla.
ciao ragazzi!
tirando delle somme iniziali, a limitare questa scheda è il processore, il chipset o il tipo di memoria ram?
Secondo voi quale sarebbe una config ideale per questo tipo di scheda?
Dove ti perde di+?? Cpu o Vga??
cpu perdo poco o nulla vga perdo un vallo (CAUSA DRIVER)
Lascia perdere il 3dmark 2006............ il calcolo dei punteggi ha tutta una sua proporzione......
Cmq il dual core è sfruttato solo nel test cpu....mentre in quegli altri è come se fosse un single core, perchè il secondo core non è sfruttato per nulla.
Beh, sì. Ma comunque 1000 e passa punti di differenza tra un punteggio (SM2) e l'altro (SM3) non si erano mai visti. ;)
A proposito, la recensione di PCPOP (93 pagine!!! :eek: :sofico: ) è già stata postata?
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F194%2F194233.shtml&langpair=zh%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Valutazione sulla qualità costruttiva di R600.
http://translate.google.com/translate?u=http%3A%2F%2Fwww.beareyes.com.cn%2F2%2Flib%2F200705%2F15%2F20070515353_1.htm&langpair=zh%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
A proposito, la recensione di PCPOP (93 pagine!!! :eek: :sofico: ) è già stata postata?
pazzi...:eek:
davide155
20-05-2007, 17:32
Beh, sì. Ma comunque 1000 e passa punti di differenza tra un punteggio (SM2) e l'altro (SM3) non si erano mai visti. ;)
A proposito, la recensione di PCPOP (93 pagine!!! :eek: :sofico: ) è già stata postata?
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F194%2F194233.shtml&langpair=zh%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Valutazione sulla qualità costruttiva di R600.
http://translate.google.com/translate?u=http%3A%2F%2Fwww.beareyes.com.cn%2F2%2Flib%2F200705%2F15%2F20070515353_1.htm&langpair=zh%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Porca :eek:
Fa così poco con un 4600 x2 dual core? :eek: :eek:
Se fosse così allora è fortemente dipendente dalla cpu.....al contrario della gtx :rolleyes:
non dovrebbe essere così, stando ai vari comunicati e recensioni in giro la scheda ATI al contrario di nvidia dovrebbe essere molto meno dipendente dalla cpu.
davide155
20-05-2007, 18:10
non dovrebbe essere così, stando ai vari comunicati e recensioni in giro la scheda ATI al contrario di nvidia dovrebbe essere molto meno dipendente dalla cpu.
Appunto dico che quelle race sono campate per aria :rolleyes:
Appunto dico che quelle race sono campate per aria :rolleyes:
non pensi invece che forse queste schede dipendano non tanto dalla cpu, quanto dal chipset che gestisce il bus pci-e...+ e veloce il chipset + va bene la scheda, IMHO
leoneazzurro
20-05-2007, 19:31
non dovrebbe essere così, stando ai vari comunicati e recensioni in giro la scheda ATI al contrario di nvidia dovrebbe essere molto meno dipendente dalla cpu.
Se si usasse il tessellatore si, altrimenti entrambe le schede sono egualmente limitate dalla CPU.
Oblivion 1280x1024 4x 16x HDR tutto al max
img1 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-32-18-90.jpg)
img2 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-35-09-82.jpg)
img3 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-37-15-41.jpg)
img4 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-38-35-53.jpg)
img5 (http://www.sigmaline.it/PAT/Oblivion%202007-05-20%2014-39-11-71.jpg)
Gentilmente riesci a fare qualche shot di situazioni un po' più "incasinate" ? A parte i 2 shots di imperial city dove si vede un npc, gli altri sono tutti paesaggi senza niente in movimento.
45 fps sono molto buoni con tutto attivo, ma se appena m'arriva un bandito in mezzo alla vegetazione finisci a 20fps, allora no :stordita:
Gentilmente riesci a fare qualche shot di situazioni un po' più "incasinate" ? A parte i 2 shots di imperial city dove si vede un npc, gli altri sono tutti paesaggi senza niente in movimento.
45 fps sono molto buoni con tutto attivo, ma se appena m'arriva un bandito in mezzo alla vegetazione finisci a 20fps, allora no :stordita:
penso sia impossibile una cosa simile... piu che altro sarebbe interessante provare la scheda in mezzo al bosco fitto con un casino di erba e alberi, a me li il framerate con la x1950xt scendeva precchio
penso sia impossibile una cosa simile... piu che altro sarebbe interessante provare la scheda in mezzo al bosco fitto con un casino di erba e alberi, a me li il framerate con la x1950xt scendeva precchio
Non ho capito che intendi per impossibile. Più npc/mostri ci sono nel fov, meno fps si fanno (almeno questo è la mia esperienza con qualsiasi gioco di questo tipo). Per questo è secondo me interessante conoscere come si comporta la scheda in quei frangenti :)
Non ho capito che intendi per impossibile. Più npc/mostri ci sono nel fov, meno fps si fanno (almeno questo è la mia esperienza con qualsiasi gioco di questo tipo). Per questo è secondo me interessante conoscere come si comporta la scheda in quei frangenti :)
sinceramente non mi è mai successo, anche quando facevo a pezzi interi gruppetti di banditi, il framerate nn calava, gli unici posti in cui mi calava era nel bosco fitto, se poi civ enivano anche i banditi era ingiocabile
thommy87
20-05-2007, 23:33
Secondo me sono poco affidabili, al 3dmark05 12000 punti si prendono con una 1900xt cloccata.
io li o presi con la x1900 gt;)
3DMark79
21-05-2007, 00:05
Se si usasse il tessellatore si, altrimenti entrambe le schede sono egualmente limitate dalla CPU.
Salve a tutti,
scusami dunque che CPU avrebbero di bisogno queste schede?Non basta un QX6700?
Sarei così limitato con una CPU come la mia in firma?
Salve a tutti,
scusami dunque che CPU avrebbero di bisogno queste schede?Non basta un QX6700?
Sarei così limitato con una CPU come la mia in firma?
Certo che basta. Secondo me pure la tua cpu occata va più che bene.
Prove (con tanto di grafico fatto in casa) da parte di un utente di Rage3D. Notare il miglioramento dagli 8.37.4.3 agli 8.37.4.2 (gli ultimi, nonostante il numero, sono successivi ai primi). ;)
http://img518.imageshack.us/img518/4395/6resultrv8.png
http://img503.imageshack.us/img503/4347/lostcoast83742lj1.png
thommy87
21-05-2007, 08:29
se e fatto in casa lo prenderei con le pinze...
Gentilmente riesci a fare qualche shot di situazioni un po' più "incasinate" ? A parte i 2 shots di imperial city dove si vede un npc, gli altri sono tutti paesaggi senza niente in movimento.
45 fps sono molto buoni con tutto attivo, ma se appena m'arriva un bandito in mezzo alla vegetazione finisci a 20fps, allora no :stordita:
Premesso che nelle zone aperte si incontreranno si e no 2-3 personaggi contemporaneamente, se noti lo screen con l'imperial city presa da fuori in basso a destra c'è una guardia a cavallo, ma a parte questo la differenza tra hdr e bagliore sarà di 5-10 fps che si notano più dentro le città che negli esterni.
La fluidità è ottima e questo è l'mportante, magari quando sono a casa faccio screen più affolati di gente, ma negli esterni a parte presso le mura raramente si trovano affollamenti di gente, incontri una guardia, un portale, qualche lupo ma non sono condizioni normali avere mille npc nei boschi e per una questione di praticità (dovrei vagare alla ricerca di un punto dove posso fare uno screen con tali condizioni) sono andato a prendere un panorama e ho fatto lo screen.
Se lotti con un bandito, comunque, ti posso assicurare che non fai 20 fps se questa è la tua preoccupazione.
thommy87
21-05-2007, 08:33
Se lotti con un bandito, comunque, ti posso assicurare che non fai 20 fps se questa è la tua preoccupazione.[/QUOTE]
mi ricordo che quando prendevo a spadate una guardia dopo mi correvano in 8 9 guardie e la si che erano botte e grossi cali di frame rate:D
Prove (con tanto di grafico fatto in casa) da parte di un utente di Rage3D. Notare il miglioramento dagli 8.37.4.3 agli 8.37.4.2 (gli ultimi, nonostante il numero, sono successivi ai primi). ;)
http://img518.imageshack.us/img518/4395/6resultrv8.png
http://img503.imageshack.us/img503/4347/lostcoast83742lj1.png
Ottimo, tra poco dovrebbero uscire i nuovi e sarà costruttivo fare un confronto, credo che metteranno a posto la compatibilità con lost planet che vaveramente male (20 fps nel primo bench e 14 nel secondo fate voi, con l'impossibilità di giocarlo perchè appare la scritta che l'hw non rientra nei requisiti minimi :O)
Se lotti con un bandito, comunque, ti posso assicurare che non fai 20 fps se questa è la tua preoccupazione.
mi ricordo che quando prendevo a spadate una guardia dopo mi correvano in 8 9 guardie e la si che erano botte e grossi cali di frame rate:D[/QUOTE]
Presumo in città però ;)
se e fatto in casa lo prenderei con le pinze...
BECCO è un utente abbastanza affidabile. ;)
thommy87
21-05-2007, 08:40
Presumo in città però ;)[/QUOTE]
si in città..chissa a quanti frame arriva in condizioni cosi estreme
Presumo in città però ;)
si in città..chissa a quanti frame arriva in condizioni cosi estreme[/QUOTE]
Non saprei ma non me ne preoccuperei più di tanto, essendo un caso talmente raro che fa parte di quei cali eccezionali che in ogni videogioco sia per pc sia per console esistono indipendentemente dalla scheda video, l'importante è come mediamente si comporta.
gianni1879
21-05-2007, 09:06
Prove (con tanto di grafico fatto in casa) da parte di un utente di Rage3D. Notare il miglioramento dagli 8.37.4.3 agli 8.37.4.2 (gli ultimi, nonostante il numero, sono successivi ai primi). ;)
http://img518.imageshack.us/img518/4395/6resultrv8.png
http://img503.imageshack.us/img503/4347/lostcoast83742lj1.png
c'era un rece dove si mettevano a confronto questi due driver, effettivamente 8.37.4.2 andavano meglio degli altri
Eccola: http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
Premesso che nelle zone aperte si incontreranno si e no 2-3 personaggi contemporaneamente, se noti lo screen con l'imperial city presa da fuori in basso a destra c'è una guardia a cavallo, ma a parte questo la differenza tra hdr e bagliore sarà di 5-10 fps che si notano più dentro le città che negli esterni.
La fluidità è ottima e questo è l'mportante, magari quando sono a casa faccio screen più affolati di gente, ma negli esterni a parte presso le mura raramente si trovano affollamenti di gente, incontri una guardia, un portale, qualche lupo ma non sono condizioni normali avere mille npc nei boschi e per una questione di praticità (dovrei vagare alla ricerca di un punto dove posso fare uno screen con tali condizioni) sono andato a prendere un panorama e ho fatto lo screen.
Se lotti con un bandito, comunque, ti posso assicurare che non fai 20 fps se questa è la tua preoccupazione.
Grazie per l'info, ma un bello shot "in fight" in esterna sarebbe l'ideale. Tra l'altro, tra evocazioni e servitori vari, siamo sempre in 6 o 7 a combattere (solo io, il mio dremora :D, un mago apprendista, un assassino e un cavaliere dei nove siamo 5)...
Io sono campione dell'arena con armatura inclusa, farò uno screen mentre combatto in esterna, ho una spada che cambia proprietà a seconda dell'ora, la sera gela il giorno brucia :O
halduemilauno
21-05-2007, 09:17
Io sono campione dell'arena con armatura inclusa, farò uno screen mentre combatto in esterna, ho una spada che cambia proprietà a seconda dell'ora, la sera gela il giorno brucia :O
e non ti dicono niente a casa te mandano in giro cosi?
:D
davide155
21-05-2007, 09:46
Salve a tutti,
scusami dunque che CPU avrebbero di bisogno queste schede?Non basta un QX6700?
Sarei così limitato con una CPU come la mia in firma?
Ma stai scherzando????
Un core duo a 3.2ghz è poco secondo te???
Lascia perdere i quad core che per ora sono completamente inutili in ambito videoludico.
Un dual core come il tuo va più che bene.
Se vuoi un quad core aspetta il confronto con i K10 di amd e poi scegli di conseguenza.
Ma comprarlo adesso secondo me è un'emerita cacchiata, soprattutto quando te hai giù un processore di ultima generazione :rolleyes:
3DMark79
21-05-2007, 09:49
Certo che basta. Secondo me pure la tua cpu occata va più che bene.
Dunque il problema che mi rimane se dovessi prenderla e solo Ali (+12V 24A) che sicuramente non andrà bene per la hd2900xt al max dovrei optare per la 8800GTS.:confused:
Cmq grazie A.l.m. ;)
Ma stai scherzando????
Un core duo a 3.2ghz è poco secondo te???
Lascia perdere i quad core che per ora sono completamente inutili in ambito videoludico.
Un dual core come il tuo va più che bene.
Se vuoi un quad core aspetta il confronto con i K10 di amd e poi scegli di conseguenza.
Ma comprarlo adesso secondo me è un'emerita cacchiata, soprattutto quando te hai giù un processore di ultima generazione :rolleyes:
mainch@ sè poco un core 2 duo a 3.2ghz allora con il mio povero x2 4600+ che fà la scheda manco parte perchè offesa dalla cpu:sofico:
cmq concordo, sarebbe meglio aspettare le nuove architetture di amd k10 o controparte intel per vedere sostanziali differenze....
davide155
21-05-2007, 09:53
Dunque il problema che mi rimane se dovessi prenderla e solo Ali (+12V 24A) che sicuramente non andrà bene per la hd2900xt al max dovrei optare per la 8800GTS.:confused:
Cmq grazie A.l.m. ;)
Io farei un tentativo anche con quell'alimentatore che hai te.
Male male non parte il pc........
mainch@ sè poco un core 2 duo a 3.2ghz allora con il mio povero x2 4600+ che fà la scheda manco parte perchè offesa dalla cpu:sofico:
E io allora col mio p4 3@3.6 + ati x1950pro dovrei buttarmi sotto un treno! :sofico:
E io allora col mio p4 3@3.6 + ati x1950pro dovrei buttarmi sotto un treno! :sofico:
:asd: no dai...:p
3DMark79
21-05-2007, 09:57
Ma stai scherzando????
Un core duo a 3.2ghz è poco secondo te???
Lascia perdere i quad core che per ora sono completamente inutili in ambito videoludico.
Un dual core come il tuo va più che bene.
Se vuoi un quad core aspetta il confronto con i K10 di amd e poi scegli di conseguenza.
Ma comprarlo adesso secondo me è un'emerita cacchiata, soprattutto quando te hai giù un processore di ultima generazione :rolleyes:
No ma io non avevo nessuna intenzione di comprare un quad core era solo una curiosità per capire se queste schede video (GTX-ULTRA o HD2900) sono limitate dalla CPU ed a quanto pare non è così!C'è ne vorrà tempo per comprare un altra CPU non si vive solo di PC!:D
davide155
21-05-2007, 09:59
mainch@ sè poco un core 2 duo a 3.2ghz allora con il mio povero x2 4600+ che fà la scheda manco parte perchè offesa dalla cpu:sofico:
cmq concordo, sarebbe meglio aspettare le nuove architetture di amd k10 o controparte intel per vedere sostanziali differenze....
Bè il quad core di intel è già stato svelato o quasi.......e diciamo che è una rivisitazione molto scarna del core 2 duo.
Quindi le prestazioni si possono già "prevedere".
I k10 di amd invece sono una tecnologia completamente nuova, quindi ci si può aspettare tutto o nulla.
Io sono fiducioso e aspetto.
Aspetto sia a comprare la vga, che per ora non me ne farei di nulla visto che di giochi per pc non ce ne sono punti validi. E fino a ottobre non ce ne sarà. A parte uno o due che giocherò tranquillamente su x360. Quindi la prenderei con un costo minore rispetto ad ora e con dei driver maturi.
E aspetto anche cpu per le cose di cui ho parlato sopra.
Scrambler77
21-05-2007, 10:03
Bè il quad core di intel è già stato svelato o quasi.......e diciamo che è una rivisitazione molto scarna del core 2 duo.
Quindi le prestazioni si possono già "prevedere".
I k10 di amd invece sono una tecnologia completamente nuova, quindi ci si può aspettare tutto o nulla.
Infatti non si riferiva ai quad Intel attuali ma ai futuri quad su singolo die...
3DMark79
21-05-2007, 10:06
Io farei un tentativo anche con quell'alimentatore che hai te.
Male male non parte il pc........
Dunque pensi che dovrei tentare?
Il problema sai qual'è e che si pongono anche altri che magari si potrebbe prendere però se non va l'ALI sono altri momey da spendere dunque qualità-prezzo con la GTS 640mb?
Io avevo sinceramente pensato di alimentare il PC con 2 Ali (un mattone che avevo in casa) semmai dovrebbe esserci qualche problema, nella speranza che possa essere poco la differenza di Ampere mancanti.Con l'altro alimenterei (Hard disk,ventole ,masterizzatore).Pensi sia fattibile?
Infatti non si riferiva ai quad Intel attuali ma ai futuri quad su singolo die...
io mi riferifo al Penryn,che non mi sembra una semplice rivisitazione dell'attuale architettura intel...
davide155
21-05-2007, 10:13
No ma io non avevo nessuna intenzione di comprare un quad core era solo una curiosità per capire se queste schede video (GTX-ULTRA o HD2900) sono limitate dalla CPU ed a quanto pare non è così!C'è ne vorrà tempo per comprare un altra CPU non si vive solo di PC!:D
E direi anche giustamente :O
Infatti non si riferiva ai quad Intel attuali ma ai futuri quad su singolo die...
Si si avevo capito.
Ma da quello che si sa adesso non è che abbiano rivoluzionato la tecnologia adottata dal core 2 duo.
Il grande salto intel l'ha fatto dal prescott al core duo.
Adesso il quad core su singolo die sarà si un passo avanti, ma mai come è stato per il prescott a core duo.
Mentre amd deve ancora fare il cambio di tecnologia. Questa di adesso (amd 64) è vecchia di 4 anni. Il K10 sarà la vera svolta per amd in tutti i sensi.
Non so se mi sono spiegato :stordita:
Dunque pensi che dovrei tentare?
Il problema sai qual'è e che si pongono anche altri che magari si potrebbe prendere però se non va l'ALI sono altri momey da spendere dunque qualità-prezzo con la GTS 640mb?
Io avevo sinceramente pensato di alimentare il PC con 2 Ali (un mattone che avevo in casa) semmai dovrebbe esserci qualche problema, nella speranza che possa essere poco la differenza di Ampere mancanti.Con l'altro alimenterei (Hard disk,ventole ,masterizzatore).Pensi sia fattibile?
Io proverei con il migliore che hai. Se incontri problemi inizi a levare la corrente ai dispositivi dentro il tuo pc che non sono di vitale importanza, come neon.....ventole......hard disk secondari....ecc.
Per vedere se sono i watt che mancano, oppure se sono gli ampere sulla linea da 12V ;)
davide155
21-05-2007, 10:14
io mi riferifo al Penryn,che non mi sembra una semplice rivisitazione dell'attuale architettura intel...
No? :confused:
Dai test che sono trapelati non sembra questo granchè :rolleyes:
No? :confused:
Dai test che sono trapelati non sembra questo granchè :rolleyes:
si parlava di migliorameni del 40% in ambito 3d e nei giochi rispetto al core 2 duo,boh se la situazione reale non è questa allora meglio puntare su k10 :boh:
gianni1879
21-05-2007, 10:28
si parlava di migliorameni del 40% in ambito 3d e nei giochi rispetto al core 2 duo,boh se la situazione reale non è questa allora meglio puntare su k10 :boh:
nuove istruzioni sse4, 45nm e fsb più alto in partenza, per il resto va uguale, quindi non mi sembra questo gran salto prestazionale
http://pc.watch.impress.co.jp/docs/2007/0518/kaigai_2.jpg
http://pc.watch.impress.co.jp/docs/2007/0518/kaigai_3.jpg
si parlava di migliorameni del 40% in ambito 3d e nei giochi rispetto al core 2 duo,boh se la situazione reale non è questa allora meglio puntare su k10 :boh:
i miglioramenti c'eranio perchè i programmi erano modificati per supportare le SSE4 :O
p.s. hanno pure più cache
p.p.s. siamo ot :stordita: :O
3DMark79
21-05-2007, 10:36
E direi anche giustamente :O
Si si avevo capito.
Ma da quello che si sa adesso non è che abbiano rivoluzionato la tecnologia adottata dal core 2 duo.
Il grande salto intel l'ha fatto dal prescott al core duo.
Adesso il quad core su singolo die sarà si un passo avanti, ma mai come è stato per il prescott a core duo.
Mentre amd deve ancora fare il cambio di tecnologia. Questa di adesso (amd 64) è vecchia di 4 anni. Il K10 sarà la vera svolta per amd in tutti i sensi.
Non so se mi sono spiegato :stordita:
Io proverei con il migliore che hai. Se incontri problemi inizi a levare la corrente ai dispositivi dentro il tuo pc che non sono di vitale importanza, come neon.....ventole......hard disk secondari....ecc.
Per vedere se sono i watt che mancano, oppure se sono gli ampere sulla linea da 12V ;)
Gli altri Volt sono: +3,3V 24A, +5V 36A, -12V 0,8A, -5V 0.5A, +5V VSB 2A (che non ho mai capito cosa sia) speriamo bene, intanto attenderò sviluppi di nuovi driver.
Cmq grazie del consiglio!;)
http://pc.watch.impress.co.jp/docs/2007/0518/kaigai_3.jpg
qualcuno può spiegarmelo? :stordita:
capisco solo il primo di schema (che tra l'altro tratta di una parte di R600 discussa e stradiscussa) :mc:
gianni1879
21-05-2007, 10:44
qualcuno può spiegarmelo? :stordita:
capisco solo il primo di schema (che tra l'altro tratta di una parte di R600 discussa e stradiscussa) :mc:
mi associo :)
davide155
21-05-2007, 10:57
nuove istruzioni sse4, 45nm e fsb più alto in partenza, per il resto va uguale, quindi non mi sembra questo gran salto prestazionale
Ma cosa il K10?
gianni1879
21-05-2007, 11:02
Ma cosa il K10?
no si parlava di penryn ;)
Ma cosa il K10?
penryn.
;)
davide155
21-05-2007, 11:06
no si parlava di penryn ;)
Ah ecco...infatti......
Athlon 64 3000+
21-05-2007, 11:12
Per curiosità puoi scaricare la demo dx9 di lost planet e provarla con la modalità alta descritta nella discussione ufficiale di lost planet e utilizzando il filtro anisotropico via driver settato su 16x e Catalist A.I. invece completamente disattivato.
Io con quella modalità faccio in snow 40 fps di media quando facevo 20 fps con la X1900XT
Io con quella modalità faccio in Cave 40 fps di media quando facevo 20 fps con la X1900XT
il doppio...bene :)
Mi spiace ma non scarico nuovamente 360 mega avendo già quella dx10 ;), comunque vi terrò informati sull'evoluzione dei driver su questa versione ;)
Athlon 64 3000+
21-05-2007, 11:22
Mi spiace ma non scarico nuovamente 360 mega avendo già quella dx10 ;), comunque vi terrò informati sull'evoluzione dei driver su questa versione ;)
volevo vedere quanto facevi per vedere se c'è qualche differenza.
Soulbringer
21-05-2007, 11:24
Ci sono anche io!Ho ordinato una hd2900xt!mi dovrebbe arrivare a giorni (spero!:sperem: ) inseme al pc nuovo..poi test a tutto spiano!:D
qualcuno può spiegarmelo? :stordita:
capisco solo il primo di schema (che tra l'altro tratta di una parte di R600 discussa e stradiscussa) :mc:
mi associo :)
Quel disegno dovrebbe spiegare (in maniera molto elementare, dato che non sempre tutte le processing units di R600 vengono occupate, credo) come R600 effettua lo scheduling delle istruzioni scalari. Piuttosto sarebbe interessante capire cosa c'è scritto nei commenti in giapponese...
Comunque credo che l'immagine venga spiegata meglio in quest'altro disegno:
http://pc.watch.impress.co.jp/docs/2007/0518/kaigai_1.jpg
In cui si mettono a confronto vecchie architetture (primi 2 disegni), R600 e G80.
L'articolo da cui sono prese le immagini è questo (http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2F&langpair=ja%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools).
Mi sembra interessante la parte in cui si parla del perchè ATi avrebbe scelto di usare un'architettura parzialmente VLIW per la sua GPU, ma: già la spiegazione credo non sia semplicissima, inoltre il traduttore di google è quello che è, quindi si capisce ben poco... :(
Scrambler77
21-05-2007, 11:28
Si si avevo capito.
Ma da quello che si sa adesso non è che abbiano rivoluzionato la tecnologia adottata dal core 2 duo.
Il grande salto intel l'ha fatto dal prescott al core duo.
Adesso il quad core su singolo die sarà si un passo avanti, ma mai come è stato per il prescott a core duo.
Mentre amd deve ancora fare il cambio di tecnologia. Questa di adesso (amd 64) è vecchia di 4 anni. Il K10 sarà la vera svolta per amd in tutti i sensi.
Non so se mi sono spiegato :stordita:
;)
Ci sono anche io!Ho ordinato una hd2900xt!mi dovrebbe arrivare a giorni (spero!:sperem: ) inseme al pc nuovo..poi test a tutto spiano!:D
con cosa la monti?
Soulbringer
21-05-2007, 11:33
con cosa la monti?
Gigabyte P35-DQ6, 4GB RAM Kingston 4-4-4-12, C2D e6600, 2xMaxtor 160Gb Raid 0, alimentatore Antec Truepower Trio 650w.
Gigabyte P35-DQ6, 4GB RAM Kingston 4-4-4-12, C2D e6600, 2xMaxtor 160Gb Raid 0, alimentatore Antec Truepower Trio 650w.
:sbav:
:cry:
Soulbringer
21-05-2007, 11:38
:sbav:
:cry:
Era ora che cambiassi il pc in sign..:D anche se mi ha servito benissimo! Speriamo sia 1 soddisfazione questa scheda, anche se penso che con la 9800pro non ci siano paragoni..:sofico: :sofico:
Scrambler77
21-05-2007, 11:45
penryn.
;)
Io mi riferivo a nehalem, a dire il vero... :D
Io mi riferivo a nehalem, a dire il vero... :D
http://img128.imageshack.us/img128/8203/20060125074957looksisi3qv4.gif
thommy87
21-05-2007, 11:49
cmq son tentato a prenderla adesso ma dubito di sentire molta differenza tra una 1900 gt e questa con i giochi di adesso..o mi sbaglio?p.s.gioco a 1280x1024
fanculium
21-05-2007, 11:52
Ciao Ragazzi!
E' il mio primo post!Volevo chiedervi se con il mio alimentatore avrei problemi a montare l'hd2900xt.
Ho un cooler master igreen power 600W.
Grazie!
CIAO!!!
thommy87
21-05-2007, 11:55
Ciao Ragazzi!
E' il mio primo post!Volevo chiedervi se con il mio alimentatore avrei problemi a montare l'hd2900xt.
Ho un cooler master igreen power 600W.
Grazie!
CIAO!!!
no con quello vai benissimo;)
fanculium
21-05-2007, 11:56
Grazie thommy!!
CIAO!
Ciao Ragazzi!
E' il mio primo post!Volevo chiedervi se con il mio alimentatore avrei problemi a montare l'hd2900xt.
Ho un cooler master igreen power 600W.
Grazie!
CIAO!!!
va benissimo...
davide155
21-05-2007, 12:01
Era ora che cambiassi il pc in sign..:D anche se mi ha servito benissimo! Speriamo sia 1 soddisfazione questa scheda, anche se penso che con la 9800pro non ci siano paragoni..:sofico: :sofico:
Il salto lo vedrai eccome da una 9800pro! :D
Gran bel pc ti sei fatto.
Soprattutto i 4gb di ram che con vista e dx 10 ci vorranno per stare tranquillissimi.
MuadDibb
21-05-2007, 12:09
Grazie thommy!!
CIAO!
:D :D :D :D
COMPLIMENTI PER IL NICK
volevo vedere quanto facevi per vedere se c'è qualche differenza.
Sì sì capisco, guarda io sono il primo che mi presto a fare testing, ma in questo caso l'ostacolo è il download per due soli dati, avendo per giunta la versione dx10, non me ne vogliate.
fanculium
21-05-2007, 12:16
:D :D :D :D
COMPLIMENTI PER IL NICK
Si lo so!!!!
E' una lunga storia....
CIAO!
davide155
21-05-2007, 12:16
Sì sì capisco, guarda io sono il primo che mi presto a fare testing, ma in questo caso l'ostacolo è il download per due soli dati, avendo per giunta la versione dx10, non me ne vogliate.
Bè se hai una linea adsl cagosa allora ti capisco :D
Ma se hai una 4mega o più ti ci vuole 6 minuti e mezzo per scaricarla :O
Bè se hai una linea adsl cagosa allora ti capisco :D
Ma se hai una 4mega o più ti ci vuole 6 minuti e mezzo per scaricarla :O
Ho una wiimax da 512, indi circa 55 Kb/s.
Un anno fa ero a 56 kb quindi mi va già più che bene.
davide155
21-05-2007, 12:22
Ho una wiimax da 512, indi circa 55 Kb/s.
Ah.....Bè allora si.....ti capisco.
Ci vorrebbe un oretta e mezzo :stordita:
Soulbringer
21-05-2007, 12:27
Il salto lo vedrai eccome da una 9800pro! :D
Gran bel pc ti sei fatto.
Soprattutto i 4gb di ram che con vista e dx 10 ci vorranno per stare tranquillissimi.
Già, la ram l'ho presa soprattutto per questo motivo..:) Grazie!
Scrambler77
21-05-2007, 12:46
Già, la ram l'ho presa soprattutto per questo motivo..:) Grazie!
In tal caso usa la versione a 64bit di vista... il PAE è una gran rottura di balle (anche sotto linux)...
thommy87
21-05-2007, 12:50
è certo che domani escano i nuovi driver?
Poliphilo
21-05-2007, 12:56
Io sono campione dell'arena con armatura inclusa, farò uno screen mentre combatto in esterna, ho una spada che cambia proprietà a seconda dell'ora, la sera gela il giorno brucia :O
:eek: e che spada è?
Vabbè: per provare bene la scheda dovresti (secondo me) andare nella zona del porto della città principale, dove sono ormeggiate le navi. Lì sono stato attaccato da 3 o 4 pirati e, con l'aggiunta della texture pesanti dell'acqua con tutti i riflessi delle navi, il frame rate con la X1950XTX è colato a picco: sembrava la moviola della domenica.
Ciao Ragazzi!
E' il mio primo post!Volevo chiedervi se con il mio alimentatore avrei problemi a montare l'hd2900xt.
Ho un cooler master igreen power 600W.
Grazie!
CIAO!!!
può andar bene anche da 400W, l'importante che l'alimentatore abbia il tanto giusto di AMPERE sulla linea 12v.
Non mi e` chiaro se la scheda audio incorporata sostituisce a pieno la scheda audio del PC o se come mi pareva di aver letto fa uscire solo l'audio di
Blu Ray e HDDVD... da qualche parte in questo forum nei mille thread aperti
su sta povera scheda :D avevate dato un link al manuale, ma della parte audio
non ne parla molto... sembrava non ci fosse nemmeno un pannello di controllo
per configurarla :eek:
fano
thommy87
21-05-2007, 13:20
Non mi e` chiaro se la scheda audio incorporata sostituisce a pieno la scheda audio del PC o se come mi pareva di aver letto fa uscire solo l'audio di
Blu Ray e HDDVD... da qualche parte in questo forum nei mille thread aperti
su sta povera scheda :D avevate dato un link al manuale, ma della parte audio
non ne parla molto... sembrava non ci fosse nemmeno un pannello di controllo
per configurarla :eek:
fano
quoto non so neanche io sta scheda audio integrata a cosa serve..un utente come me che non guarda film in hd e cazzate varie a che serve?
Soulbringer
21-05-2007, 13:22
In tal caso usa la versione a 64bit di vista... il PAE è una gran rottura di balle (anche sotto linux)...
Io almeno all'inizio metterò Win xp Sp2..cmq che cos'è sto PAE?
Scrambler77
21-05-2007, 13:32
Io almeno all'inizio metterò Win xp Sp2..cmq che cos'è sto PAE?
Physical Address Translation...
Serve per superare la soglia dei 4gb sugli OS a 32bit... Ma non so perchè, viene utilizzato anche su sistemi con oltre 2gb di ram (almeno questa è la mia esperienza, anche su linux).
Tra l'altro PAE introduce un certo overhead della cpu, se implementato.
Visto che vai su Vista, tanto vale andare sui 64bit... Ora cominciano ad esserci le applicazioni compilate a 64bit e vanno dal 30 al 50% più veloci rispetto le controparti a 32bit...
Per curiosità puoi scaricare la demo dx9 di lost planet e provarla con la modalità alta descritta nella discussione ufficiale di lost planet e utilizzando il filtro anisotropico via driver settato su 16x e Catalist A.I. invece completamente disattivato.
Io con quella modalità faccio in Cave 40 fps di media quando facevo 20 fps con la X1900XT
forse eri basso prima, io nella modalità alta del test faccio 31 di media in cave.
Per Athlon64
A questo punto penso tu abbia il pc incasinato, da 20 a 31 ci sono ben il 50% in più che non si ha dal passaggio da 1900xt a xtx.
Su Stalker poi da 30 a 18 fps non sono mai andato io, a questo punto, se ce l'hai, prova oblivion, se negli esterni a parità di settaggio vai a 20 fps urge format imho. ;)
OT/ si sa già la data o il periodo di uscita del primo SP per Vista? /OT
be dall' illustrazione si denota molto bene la complessità di R600; ben diverso per G80. credo che prima di poter vedere al massimo R600 si debba aspettare un po', in quanto credo che non sia facile fare un driver che si interfacci al 100% con questo tipo di architettura. invece per nvidia la cosa è molto più semplice, infatti ha semplicemente modificato due o tre cose rispetto alle architetture precedenti, quindi sapevano più o meno già cosa fare. spariamo solo che domani si possano vedere già dei miglioramenti coi nuovi driver, anche se credo che bisognerà aspettare un po', invece sono certo che quando ci saranno tutti gli interfacciamenti fatti bene credo proprio che per G80, si metterà male, visto che l' architettura di r600 è progettata per supportare grandi carichi di lavoro, a differenza di g80 che è "relativamente" svantaggiato.
ma sti driver arrivano domani? confermato?
OT/ si sa già la data o il periodo di uscita del primo SP per Vista? /OT
ultimamente sono compari degli screen su Fiji (l' SP1 di vista) ma cmq per ora non si sa niente di certo, pare che verrà rilasciato verso novembre (e lo spero visto che devono alleggerirlo di brutto il più in fretta possibile, o perderanno una miriade di utenti). cmq conoscendo MS arriverà nel 2008 inoltrato, a meno che non prevedano subito un SP2 per il 2008, ma significherebbe che nuovamente ci saranno delle tecnologie mancanti. anche se da quello che ho capito ms prevede di rilasciare fiji e poi circa nel 2009 Vista R2.
ma sti driver arrivano domani? confermato?
io ho capito e letto di si, poi....
ma sti driver arrivano domani? confermato?
Sembrerebbe...
MuadDibb
21-05-2007, 14:35
be dall' illustrazione si denota molto bene la complessità di R600; ben diverso per G80. credo che prima di poter vedere al massimo R600 si debba aspettare un po', in quanto credo che non sia facile fare un driver che si interfacci al 100% con questo tipo di architettura. invece per nvidia la cosa è molto più semplice, infatti ha semplicemente modificato due o tre cose rispetto alle architetture precedenti, quindi sapevano più o meno già cosa fare. spariamo solo che domani si possano vedere già dei miglioramenti coi nuovi driver, anche se credo che bisognerà aspettare un po', invece sono certo che quando ci saranno tutti gli interfacciamenti fatti bene credo proprio che per G80, si metterà male, visto che l' architettura di r600 è progettata per supportare grandi carichi di lavoro, a differenza di g80 che è "relativamente" svantaggiato.
Il discorso Nvidia non lo condivido molto... Nvidia ha modificato le Geforce6, le ha migliorate ed ha abbassati i consumi... e ha creato le Geforce7!!
Ma da G70 a G80 di cose ne son cambiate tantissime!! :rolleyes:
Il discorso Nvidia non lo condivido molto... Nvidia ha modificato le Geforce6, le ha migliorate ed ha abbassati i consumi... e ha creato le Geforce7!!
Ma da G70 a G80 di cose ne son cambiate tantissime!! :rolleyes:
è vero, da NV40 a G70 di cose ne cambiano molte, e anche da G71 a G80, ma da R580 a R600 c'è un abisso. mi sono espresso male non volevo dire che i predecessori di G80 sono uguali e esso, ma solo che non hanno un cambiamento così radicale come ha fatto Ati.
mi spiace se mi sono espresso male.
MuadDibb
21-05-2007, 14:44
è vero, da NV40 a G70 di cose ne cambiano molte, e anche da G71 a G80, ma da R580 a R600 c'è un abisso. mi sono espresso male non volevo dire che i predecessori di G80 sono uguali e esso, ma solo che non hanno un cambiamento così radicale come ha fatto Ati.
mi spiace se mi sono espresso male.
Per carità... non volevo sembrare saccente :p ... era solo per dire che se ATI/AMD sta messa male con i driver e' per colpa del suo ritardo, IMHO!! Se ricordi anche all'inizio G80 dava una marea di casini, ma adesso viaggia abbastanza bene!!!
Ecco perche' io, fedele Nvidia, adesso ho deciso di passare ad ATI (verso ottobre!! In estate me ne vado a mare!! :D :D )
Per carità... non volevo sembrare saccente :p ... era solo per dire che se ATI/AMD sta messa male con i driver e' per colpa del suo ritardo, IMHO!! Se ricordi anche all'inizio G80 dava una marea di casini, ma adesso viaggia abbastanza bene!!!
Ecco perche' io, fedele Nvidia, adesso ho deciso di passare ad ATI (verso ottobre!! In estate me ne vado a mare!! :D :D )
concordo pienamente, è anche quello che ho detto in altri post, dove sottolineavo (non solo io) che i driver sono immaturi e bisogna darli tempo, infatti gli amministratori hanno anche detto che quando tutti i driver saranno sistemati e ottimizzati faranno nuovi test (ma da quello che ho capito solo per le DX10)
MuadDibb
21-05-2007, 14:52
concordo pienamente, è anche quello che ho detto in altri post, dove sottolineavo (non solo io) che i driver sono immaturi e bisogna darli tempo, infatti gli amministratori hanno anche detto che quando tutti i driver saranno sistemati e ottimizzati faranno nuovi test (ma da quello che ho capito solo per le DX10)
Solo in DX10??? Cioè vogliono dire che la maggioranza degli utenti ha VISTA e non XP???
Mah... sinceramente test in DX10 dovrebbero farli dopo l'estate secondo me, per adesso vediamo in XP! Io Vista lo mettero' l'anno prossimo!! Poi non so gli altri, ma sinceramente per quello che costa VISTA e per quello che da... il gioco non vale la candela (o la scheda video!! :ciapet: :ciapet: )
Solo in DX10??? Cioè vogliono dire che la maggioranza degli utenti ha VISTA e non XP???
Mah... sinceramente test in DX10 dovrebbero farli dopo l'estate secondo me, per adesso vediamo in XP! Io Vista lo mettero' l'anno prossimo!! Poi non so gli altri, ma sinceramente per quello che costa VISTA e per quello che da... il gioco non vale la candela (o la scheda video!! :ciapet: :ciapet: )
infatti l' aveva detto Paolo Corsi (spero di non aver sbagliato il nome) che li avrebbero rifatti a settembre, ma siccome era sul Thread dei test fatti con lost planet (quindi in dx 10) credo che si riferisse solo a quelli, anche se non sarebbe male farne uno con tutti i nuovi modelli Ati e Nvidia, con game sia DX10 che DX9, e non solo ma fare anche gli altri test del tipo fisica, e editing video.
Athlon 64 3000+
21-05-2007, 15:11
forse eri basso prima, io nella modalità alta del test faccio 31 di media in cave.
facevo 20 fps con modalità alta come scritto da settare nella discussione e af 16x settato però da driver a 1280x960 però.
Marko#88
21-05-2007, 15:29
facevo 20 fps con modalità alta come scritto da settare nella discussione e af 16x settato però da driver a 1280x960 però.
non ho ben capito, quanto fai nei due bench e con che risoluzione?
ultimamente sono compari degli screen su Fiji (l' SP1 di vista) ma cmq per ora non si sa niente di certo, pare che verrà rilasciato verso novembre (e lo spero visto che devono alleggerirlo di brutto il più in fretta possibile, o perderanno una miriade di utenti). cmq conoscendo MS arriverà nel 2008 inoltrato, a meno che non prevedano subito un SP2 per il 2008, ma significherebbe che nuovamente ci saranno delle tecnologie mancanti. anche se da quello che ho capito ms prevede di rilasciare fiji e poi circa nel 2009 Vista R2.
Grazie ;)
Athlon 64 3000+
21-05-2007, 15:49
non ho ben capito, quanto fai nei due bench e con che risoluzione?
facevo con la X1900XT a 1280x960 in modalità alta con però af 16x settato da driver in snow 20 fps e 29 in cave.
Athlon 64 3000+
21-05-2007, 15:51
forse eri basso prima, io nella modalità alta del test faccio 31 di media in cave.
mi sono sbagliato a scrivere:
in snow con la X1900XT favevo 20 fps e 29 in cave mentre con la hd 2900xt e le stesse impostazioni 40 fps in snow e 36 in cave.
thommy87
21-05-2007, 15:52
allora nessuno mi dice a cosa serve l audio integrato su questa scheda??
pierluigi86
21-05-2007, 16:00
ma in idle quanto cosuma? più o meno delle 8800 gtx?
The_max_80
21-05-2007, 16:01
mi sono sbagliato a scrivere:
in snow con la X1900XT favevo 20 fps e 29 in cave mentre con la hd 2900xt e le stesse impostazioni 40 fps in snow e 36 in cave.
le impostazioni quali sono
ps: ma risoluzione alte non sono supportate da sto gioco?
Marko#88
21-05-2007, 16:05
mi sono sbagliato a scrivere:
in snow con la X1900XT favevo 20 fps e 29 in cave mentre con la hd 2900xt e le stesse impostazioni 40 fps in snow e 36 in cave.
ah, ora ho capito...io in snow ne faccio 46 con la vga @default, e 50 in oc...con modalità alta e 1280*800...ma anche in 1360*768 cambia pochissimo, sono tremendamente cpu limited...in cave lasciamo stare, ci vuole il dual core li....faccio la bellezza di 24fps...:asd:
leoneazzurro
21-05-2007, 16:07
allora nessuno mi dice a cosa serve l audio integrato su questa scheda??
Per potere inviare l'audio per i film (normali e in alta definizione) direttamentre tramite il cavo HDMI, anzichè dover utilizzare un cavo per il video e uno per l'audio come in altre soluzioni.
The_max_80
21-05-2007, 16:21
ah, ora ho capito...io in snow ne faccio 46 con la vga @default, e 50 in oc...con modalità alta e 1280*800...ma anche in 1360*768 cambia pochissimo, sono tremendamente cpu limited...in cave lasciamo stare, ci vuole il dual core li....faccio la bellezza di 24fps...:asd:
io con la 8800 gts xxx , faccio 18 e 20 :eek:
non puo essere, che settaggi mettete nel gioco?
Io 20 e 14 in dx10, 1280x900 e qualcosa
Inoltre ho errori grafici ovunque, domani riprovo con i driver nuovi.
Marko#88
21-05-2007, 16:25
io con la 8800 gts xxx , faccio 18 e 20 :eek:
non puo essere, che settaggi mettete nel gioco?
1280*800, aa4x, af16x, tutto al max a parte un'opzione su medium che si puo mettere su high solo in dx10 e io quei numeri li ho fatti in dx9 ovviamente...:)
1280*800, aa4x, af16x, tutto al max a parte un'opzione su medium che si puo mettere su high solo in dx10 e io quei numeri li ho fatti in dx9 ovviamente...:)
Quindi se metto quell'opzione su medium è come se andassi in dx9?
Poi provo quando arrivo a casa.
The_max_80
21-05-2007, 16:29
Quindi se metto quell'opzione su medium è come se andassi in dx9?
Poi provo quando arrivo a casa.
ah ecco, io ovviamente sto provando sotto vista tutti in d10, questa opzione qual'è?
JoeLatino
21-05-2007, 16:47
potete per favore fare dei tests con SPECviewperf® 9 ?
grazie;)
appleroof
21-05-2007, 17:01
Quindi se metto quell'opzione su medium è come se andassi in dx9?
Poi provo quando arrivo a casa.
no, va cmq in dx10...;)
leoneazzurro
21-05-2007, 17:06
Quindi niente da fare per mandare tutto al monitor via HDMI anche nei giochi?
Penso funzioni anche in quel caso, ma non avendo la scheda sottomano non saprei.
Marko#88
21-05-2007, 17:07
Quindi se metto quell'opzione su medium è come se andassi in dx9?
Poi provo quando arrivo a casa.
no, va sempre in dx10 ma è più leggero...l'opzione in questione mi sembra sia una cosa sulle ombre, ma non ricordo bene...
A chi parlava dei drivers, mi sa che gli 8.38, che dovrebbero essere i 7.5, si trovano già in rete. Se qualcuno volesse provarli in anteprima... :fiufiu:
EDIT: ho controllato il link e mi sa che sono quelli mobile.
A chi parlava dei drivers, mi sa che gli 8.38, che dovrebbero essere i 7.5, si trovano già in rete. Se qualcuno volesse provarli in anteprima... :fiufiu:
http://forum.beyond3d.com/showthread.php?t=41440
si ma sono alla RC2, va be li proviamo cmq.
GRAZIE!!!
si ma sono alla RC2, va be li proviamo cmq.
GRAZIE!!!
Ho visto che infatti sono alla RC2, quindi magari potrebbero avere qualche problemino...
Domani comunque dovrebbero uscire i 7.5 ufficiali. ;)
A chi parlava dei drivers, mi sa che gli 8.38, che dovrebbero essere i 7.5, si trovano già in rete. Se qualcuno volesse provarli in anteprima... :fiufiu:
http://forum.beyond3d.com/showthread.php?t=41440
Aspetto domani quelli ufficiali e inizio a testare da Lost Planet e altri bug che ho scovato. (uno su tutti il controllo della ventola quando si esce da oblivion la fa comunque andare al 100% pur utilizzandola in 2d, o il vsync che non si disabilita in Company of Heroes).
ragaaaaa, mi è arrivata, è colossale, la monto stasera, nn vedo l'ora, poi benckmarck a volontà :D :D :D :D :D :D :D
-Feanor-
21-05-2007, 17:23
ragaaaaa, mi è arrivata, è colossale, la monto stasera, nn vedo l'ora, poi benckmarck a volontà :D :D :D :D :D :D :D
cambia subito la firma allora......!!!!!!!!!!!è un ordine...!!!!!!!!!!!!!!:asd::asd:.........montala piu presto che puoi e inizia a benchare amico mio.............:D :D ........
ragaaaaa, mi è arrivata, è colossale, la monto stasera, nn vedo l'ora, poi benckmarck a volontà :D :D :D :D :D :D :D
asd dai corri! a montarla ora! facci un po di foto asd!
ragaaaaa, mi è arrivata, è colossale, la monto stasera, nn vedo l'ora, poi benckmarck a volontà :D :D :D :D :D :D :D
Ottimo, inizia da Stalker :D
appleroof
21-05-2007, 17:34
Se qualcuno dei possessori della 2900 avesse test drive unlimited, potrebbe se gli va provare come gira alla mx risoluzione possibile hdr+aa+af e dettagli max? grazie :)
webbuffa
21-05-2007, 17:36
Se qualcuno dei possessori della 2900 avesse test drive unlimited, potrebbe se gli va provare come gira alla mx risoluzione possibile hdr+aa+af e dettagli max? grazie :)
:) Super interessato anche io.... grazie :D
Marko#88
21-05-2007, 17:44
Se qualcuno dei possessori della 2900 avesse test drive unlimited, potrebbe se gli va provare come gira alla mx risoluzione possibile hdr+aa+af e dettagli max? grazie :)
gioco che va troppo a :ciapet: ...io non ho problemi con 1440*900 aa4x, af16x, hdr e tutto a palla, ma c'è gente che gli stuttera con configurazione ben superiori alla mia...chissà....
secondo voi riesco a fare il crossfire 2900xt con questo ali?
http://www.guru3d.com/article/content/330/2/
grazie mille
ciauzz
Andrea
Athlon 64 3000+
21-05-2007, 17:51
Se qualcuno dei possessori della 2900 avesse test drive unlimited, potrebbe se gli va provare come gira alla mx risoluzione possibile hdr+aa+af e dettagli max? grazie :)
provato a 1280x1024 tutto al massimo e viaggio trai i 40 e 60 fps.
provato a 1280x1024 tutto al massimo e viaggio trai i 40 e 60 fps.
sicome nn conosco il game e un buon risultato?
secondo voi riesco a fare il crossfire 2900xt con questo ali?
http://www.guru3d.com/article/content/330/2/
grazie mille
ciauzz
Andrea
se non overclocchi credo di si :stordita:
sicome nn conosco il game e un buon risultato?
direi ottimo ;)
Marko#88
21-05-2007, 17:54
provato a 1280x1024 tutto al massimo e viaggio trai i 40 e 60 fps.
come con la mia vga....però a 1440*900, ma cambia poco....:)
Athlon 64 3000+
21-05-2007, 17:55
sicome nn conosco il game e un buon risultato?
di contro con la X1900XT giocavo a 1024x768 tutto al massimo con hdr off però e stavo tra i 40 e 50 fps
provato a 1280x1024 tutto al massimo e viaggio trai i 40 e 60 fps.
Con AA?
come con la mia vga....però a 1440*900, ma cambia poco....:)
Con o senza tweaks?
Athlon 64 3000+
21-05-2007, 18:05
si,uso l'aa 4x attivato da gioco.
Athlon 64 3000+
tiraci delle conclusioni su questa scheda .
sei rimasto colpito? ti piace molto? o ti ha deluso?
Marko#88
21-05-2007, 18:08
Con AA?
Con o senza tweaks?
senza modificare nulla...solo aa4x dai driver, il resto dal gioco....:)
appleroof
21-05-2007, 18:08
provato a 1280x1024 tutto al massimo e viaggio trai i 40 e 60 fps.
grazie mille ;)
appleroof
21-05-2007, 18:10
si,uso l'aa 4x attivato da gioco.
Ma allora non puoi attivare hdr...:confused:
Marko#88
21-05-2007, 18:14
Ma allora non puoi attivare hdr...:confused:
si che si può.....a me permette di attivarli entrambi e fungono benone....:)
senza modificare nulla...solo aa4x dai driver, il resto dal gioco....:)
Ah, ok. Per tweaks comunque intendevo quelli che eliminano le toppe sull'asfalto, le cartacce, ecc... ;)
si,uso l'aa 4x attivato da gioco.
Hmm, secondo me è un po' basso. Comunque specie su TDU è molto importante deframmentare (per evitare lo stuttering) ed avere un sistema pulito per farlo andare bene. Poi comunque rimane un gioco dal comportamento incomprensibile. A me andava più veloce con l'AA4x che con il 2x. :sofico:
appleroof
21-05-2007, 18:17
si che si può.....a me permette di attivarli entrambi e fungono benone....:)
Si anche io li attivo entrambi (per questo ho chiesto hdr+aa+af e resto al max) però non lo attiviamo da gioco (da lì solo hdr) lo sovrascriviamo da driver...
Si anche io li attivo entrambi (per questo ho chiesto hdr+aa+af e resto al max) però non lo attiviamo da gioco (da lì solo hdr) lo sovrascriviamo da driver...
Anche con la mia misera X1600 Mobility riesco ad attivarli entrambi da gioco... :mbe:
Marko#88
21-05-2007, 18:22
Si anche io li attivo entrambi (per questo ho chiesto hdr+aa+af e resto al max) però non lo attiviamo da gioco (da lì solo hdr) lo sovrascriviamo da driver...
si può fare in entrambi i modi...sia dal gioco che dai driver...impostandolo dai driver si guadagna qualcosa in prestazioni, ma anche dal gioc funge tutto alla perfezione...
appleroof
21-05-2007, 18:26
si può fare in entrambi i modi...sia dal gioco che dai driver...impostandolo dai driver si guadagna qualcosa in prestazioni, ma anche dal gioc funge tutto alla perfezione...
ah ok, questa non la sapevo, io la sovrascrivevo direttamente da driver, convinto sin dall'inizio che non permettesse altro modo se non quello :)
Marko#88
21-05-2007, 18:28
ah ok, questa non la sapevo, io la sovrascrivevo direttamente da driver, convinto sin dall'inizio che non permettesse altro modo se non quello :)
non si finisce mai di imparare....:D
be mi sembra di aver capito che cmq la situazione non è per niente male. magari qualcuno faccia un confronto (anche solo con un gioco) tra i vecchi e i nuovi driver. già che ci siete postate una screen di lost planet in dx 10, solo per vedere i miglioramenti. (uffi non prima del 24 l'avro nelle mia mani, uffi!)
Athlon 64 3000+
21-05-2007, 19:19
Athlon 64 3000+
tiraci delle conclusioni su questa scheda .
sei rimasto colpito? ti piace molto? o ti ha deluso?
questa scheda a me piace molto e sono molto contento di averla perchè era da 2 anni che la stavo aspettando.
I driver sono veramente ancora molto acerbi perchè ho provato sia BF2 che NWN 1 e il primo mi da diversi bachi grafici mentre nwn 1 quando lascio attivato le increspature dell'acqua scatta da morire mentre se tolgo questo effetto il gioco torno ad un frame rate normale.
Per esempio appena escono i catalist 7.5 ufficiali formatto il pc.
-Feanor-
21-05-2007, 19:24
questa scheda a me piace molto e sono molto contento di averla perchè era da 2 anni che la stavo aspettando.
I driver sono veramente ancora molto acerbi perchè ho provato sia BF2 che NWN 1 e il primo mi da diversi bachi grafici mentre nwn 1 quando lascio attivato le increspature dell'acqua scatta da morire mentre se tolgo questo effetto il gioco torno ad un frame rate normale.
Per esempio appena escono i catalist 7.5 ufficiali formatto il pc.
scusa intendi dire che scatta con nwn UNO...:confused: :mbe: ..????....daccordo che i driver sono bacati.....ma rimane sempre un gioco di 5 anni fa buoni......miseria.....!!!!
gianni1879
21-05-2007, 19:35
beh i driver hanno un ruolo fondamentale, ad es. provai tempo fa Colin McRae rally 2, con la x1900 e messo la max ogni tanto il framerate ne scendeva, mentre con il 2005 ad es. la sk vola anche in 2d (500/600) ;)
Iantikas
21-05-2007, 19:54
sto combattendo una battaglia interiore se comprare o meno questa skeda :muro: ...
...alla fine da rece e test degli utenti ho potuto appurare ke rispetto alla mia X1900XTX@690/860 i miglioramenti + marcati (ke cambierebbero veramente il "gameplay") li otterei solo su TDU e Rainbow Six Vegas e Oblivion...
...col mio LCD vado a 1680x1050...con TDU in pratica già ora vado a tale risoluzione con dettagli al max e AF16x HQ ma senza AA stando sempre sopra i 30fps (con la HD2900XT potrei ativare 4xAA [giusto??? :stordita: ], cosa ke con la mia fa scendere il framerate sotto i 10fps)...[inoltre attivare 4xAA nn mi dispiacerebbe xkè l'aliasing in questo gioco si nota parekkio nonostante la ris relativamente elevata]
...con rainbow six vegas vado a 1280x960, con ombre basse, tutto il resto al max, Af 16x HQ e senza AA x avere una media sui 45 fps (con la HD2900XT potrei mettere tutto al max e a 1680x1050 con AA 4x, [giusto??? :stordita:])...[il migliramento qui sarebbe elevato e siccome è uno dei gioki ke sto giocando di + attualmente nn mi dispiacerebbe]
...con Oblivion vado a 1680x1050 tutto al max, AF16x HQ e senza AA (con la HD2900XT potrei mettere 4xAA)...[questo xò almeno al momento l'ho messo da parte]
...poi c'è anke Stalker [ke nonostante l'abbia finito già due volte ora con l'ultima patch mi è venuto di giocarlo di nuovo]...ma qui sinceramente nn ho capito se avrò miglioramenti e di quale entità...
...altri titoli andrebbe + o meno uguale anke xkè già ora vado a 1680x1050 con 4xAA e 16xAF e l'unica cosa ke potrei fare sarebbe aumentare l'AA o mettere l'Adaptive [opzione ke in pratica attualmente posso usare in ben poki gioki pena l'azzeramento delframerate)...ma qui sorgono i vari problemi della skeda con vari gioki con AA e Adaptive ke addirittura la fanno andare meno della generazione precedente...almeno con i driver attuali...
...vabbeh cmq oltre ai miglioramenti attuali avrei la compatibilità con le DX10 e la probabilità di miglioramenti tangibili con prox driver e di buona giocabilità con i prox futuri gioki DX10...
...morale della favola...secondo voi ne vale la pena??? :fagiano: ...
...ciao
p.s.: ci son altri gioki dove guadagnerei n maniera sostanziale???
Garagolo
21-05-2007, 20:03
ho un dubbio amletico che mi perseguita....mi devo rifare il pc nuovo con un procio E6600, 2 GB di RAM, Asus P5B Delux , hd 250 Gb, alimentatore da 550W LC-supersilent.....e non so se a tutto questo ben di dio affiancare una HD2900XT oppure una 8800GTS 320....
do qualche info per farmi consigliare meglio.....
ho un monitor Samsung 226BW....gioco a tutti i giochi + pesanti in circolazione.....e......non bado a spese....:D :D
secondo voi quale è meglio delle 2 schede grafiche affinacare questa configurazione???
p.s. tenete presente che vorrei sfruttare questo pc per 2 annetti circa...quindi anche in chiave futura per i giochi futuri:)
@ Iantikas
asp esce a settebre 2950xt/xtx ;)
davide155
21-05-2007, 20:15
sto combattendo una battaglia interiore se comprare o meno questa skeda :muro: ...
...alla fine da rece e test degli utenti ho potuto appurare ke rispetto alla mia X1900XTX@690/860 i miglioramenti + marcati (ke cambierebbero veramente il "gameplay") li otterei solo su TDU e Rainbow Six Vegas e Oblivion...
...col mio LCD vado a 1680x1050...con TDU in pratica già ora vado a tale risoluzione con dettagli al max e AF16x HQ ma senza AA stando sempre sopra i 30fps (con la HD2900XT potrei ativare 4xAA [giusto??? :stordita: ], cosa ke con la mia fa scendere il framerate sotto i 10fps)...[inoltre attivare 4xAA nn mi dispiacerebbe xkè l'aliasing in questo gioco si nota parekkio nonostante la ris relativamente elevata]
...con rainbow six vegas vado a 1280x960, con ombre basse, tutto il resto al max, Af 16x HQ e senza AA x avere una media sui 45 fps (con la HD2900XT potrei mettere tutto al max e a 1680x1050 con AA 4x, [giusto??? :stordita:])...[il migliramento qui sarebbe elevato e siccome è uno dei gioki ke sto giocando di + attualmente nn mi dispiacerebbe]
...con Oblivion vado a 1680x1050 tutto al max, AF16x HQ e senza AA (con la HD2900XT potrei mettere 4xAA)...[questo xò almeno al momento l'ho messo da parte]
...poi c'è anke Stalker [ke nonostante l'abbia finito già due volte ora con l'ultima patch mi è venuto di giocarlo di nuovo]...ma qui sinceramente nn ho capito se avrò miglioramenti e di quale entità...
...altri titoli andrebbe + o meno uguale anke xkè già ora vado a 1680x1050 con 4xAA e 16xAF e l'unica cosa ke potrei fare sarebbe aumentare l'AA o mettere l'Adaptive [opzione ke in pratica attualmente posso usare in ben poki gioki pena l'azzeramento delframerate)...ma qui sorgono i vari problemi della skeda con vari gioki con AA e Adaptive ke addirittura la fanno andare meno della generazione precedente...almeno con i driver attuali...
...vabbeh cmq oltre ai miglioramenti attuali avrei la compatibilità con le DX10 e la probabilità di miglioramenti tangibili con prox driver e di buona giocabilità con i prox futuri gioki DX10...
...morale della favola...secondo voi ne vale la pena??? :fagiano: ...
...ciao
p.s.: ci son altri gioki dove guadagnerei n maniera sostanziale???
Io aspetterei che escano i VERI giochi e allora inizierei a farmi un idea su una vga dx10.
Con una x1900 che hai puoi tirare benissimo fino a natale di quest'anno.
Tanto fino a tale data di giochi entusiasmanti che metteranno in ginocchio la tua r580 non ne usciranno.
Quindi io fossi in te aspetterei fine anno, o se proprio non ce la fai, aspetta l'uscita di crysis. E valuta un pò.
Tanto ora la compreresti a prezzo pieno avendo solo 10 fps in più in qualche gioco e dei driver che più acerbi di così non esistono.
Aspetta 4 o 5 mesi e si rivelerà l'acquisto dell'anno ;)
Ora come ora IMHO sono soldi buttati via :)
-Feanor-
21-05-2007, 20:34
Io aspetterei che escano i VERI giochi e allora inizierei a farmi un idea su una vga dx10.
Con una x1900 che hai puoi tirare benissimo fino a natale di quest'anno.
Tanto fino a tale data di giochi entusiasmanti che metteranno in ginocchio la tua r580 non ne usciranno.
Quindi io fossi in te aspetterei fine anno, o se proprio non ce la fai, aspetta l'uscita di crysis. E valuta un pò.
Tanto ora la compreresti a prezzo pieno avendo solo 10 fps in più in qualche gioco e dei driver che più acerbi di così non esistono.
Aspetta 4 o 5 mesi e si rivelerà l'acquisto dell'anno ;)
Ora come ora IMHO sono soldi buttati via :)
sono d'accordo.....la x1900 è ancora una scheda coi fiocchi.......il vero problema è per chi ha necessita di rifarsi il computer entro qualche settimana come il sottoscritto.....che è equipaggiato ancora con una maledetta geforce 4 mx.............:mad: :ncomment: :cry: ..............:help: ..........
che è equipaggiato ancora con una maledetta geforce 4 mx.............:mad: :ncomment: :cry: ..............:help: ..........
quella rulla altroche la 8800ultra !:sofico:
davide155
21-05-2007, 20:38
sono d'accordo.....la x1900 è ancora una scheda coi fiocchi.......il vero problema è per chi ha necessita di rifarsi il computer entro qualche settimana come il sottoscritto.....che è equipaggiato ancora con una maledetta geforce 4 mx.............:mad: :ncomment: :cry: ..............:help: ..........
Si infatti......però anche te visto che hai fatto 30 potresti fare 31.
Ovvero aspettare crysis, o meglio natale.....dove i prezzi saranno scesi di un buon 20-30%, ci saranno driver maturi, e ci saranno soprattutto giochi in dx10.
Se la prendi adesso andresti in contro a queste tre importantissime cose che ti ho elencato qui sopra :)
Si infatti......però anche te visto che hai fatto 30 potresti fare 31.
Ovvero aspettare crysis, o meglio natale.....dove i prezzi saranno scesi di un buon 20-30%, ci saranno driver maturi, e ci saranno soprattutto giochi in dx10.
Se la prendi adesso andresti in contro a queste tre importantissime cose che ti ho elencato qui sopra :)
straquoto
MuadDibb
21-05-2007, 20:42
sono d'accordo.....la x1900 è ancora una scheda coi fiocchi.......il vero problema è per chi ha necessita di rifarsi il computer entro qualche settimana come il sottoscritto.....che è equipaggiato ancora con una maledetta geforce 4 mx.............:mad: :ncomment: :cry: ..............:help: ..........
GIFORRRCCCE 4 EMMEICSSSSSSS... MIIIIIIIIIIIIIIIIIIIIIIIIII... Bei tempi! :D :D :D :D
-Feanor-
21-05-2007, 20:44
Si infatti......però anche te visto che hai fatto 30 potresti fare 31.
Ovvero aspettare crysis, o meglio natale.....dove i prezzi saranno scesi di un buon 20-30%, ci saranno driver maturi, e ci saranno soprattutto giochi in dx10.
Se la prendi adesso andresti in contro a queste tre importantissime cose che ti ho elencato qui sopra :)
è vero ragazzi......io stesso sono d'accordo.....ma il termine ultimo è impellente ed è dettato da forze "esterne" per cosi dire..anch'io dico che gia che ho fatto 30 posso fare 31.....ma è anche vero che sono stufo e qst estate dopo un anno di studio pesantissimo, vorrei tuffarmi nei nuovi videogiochi che seguo con enorme interesse e non riuscirei neanche ad avviare.....:mad: :cry: ...
-Feanor-
21-05-2007, 20:47
GIFORRRCCCE 4 EMMEICSSSSSSS... MIIIIIIIIIIIIIIIIIIIIIIIIII... Bei tempi! :D :D :D :D
seeeeeeeeee..............stai scherzando....??????? l'ho imparata ad odiare quasi subito........all'epoca ero un bocia e non me ne intendevo qnd l'ho comprata.......è una gf4 castrata....non ha pixel shader........dunque è dx7 e non riesco ad avviare giochi anche vecchi di 5 anni...........:cry: ........della serie sulle scatole c'è scritto "dalla gf 3 in su....(gf4 mx non supportata)" per far capire a chi non se ne intende.........:muro: :muro: :muro: ....
p.s. tenete presente che vorrei sfruttare questo pc per 2 annetti circa...quindi anche in chiave futura per i giochi futuri:)
ma allora visto il passato io ti consiglio di sicuro la 2900XT, il "piccolo" problema della GTS 320 è proprio il 320! poi vedi tu, ma cmq il mio consiglio sarebbe anche una HD2900 contro una GTX!! (non è che sono un fan ati, ma mi fido e preferisco la loro tecnologia)
seeeeeeeeee..............stai scherzando....??????? l'ho imparata ad odiare quasi subito........all'epoca ero un bocia e non me ne intendevo qnd l'ho comprata.......è una gf4 castrata....non ha pixel shader........dunque è dx7 e non riesco ad avviare giochi anche vecchi di 5 anni...........:cry: ........della serie sulle scatole c'è scritto "dalla gf 3 in su....(gf4 mx non supportata)" per far capire a chi non se ne intende.........:muro: :muro: :muro: ....
ASD, davvero!!! cmq se cambi il pc (e ti conviene se gli altri componenti sono come la SV) aspetta almeno i K10, oppure se preferisci intel hanno un calo telemente mostruoso di prezzi che ti compri un QX6600 a pochissimo (mi chiedo sempre se con intel si deve spendere circa 1000€ per poi sapere che 3/4 mesi dopo lo paghi 1/4)
-Feanor-
21-05-2007, 20:55
ASD, davvero!!! cmq se cambi il pc (e ti conviene se gli altri componenti sono come la SV) aspetta almeno i K10, oppure se preferisci intel hanno un calo telemente mostruoso di prezzi che ti compri un QX6600 a pochissimo (mi chiedo sempre se con intel si deve spendere circa 1000€ per poi sapere che 3/4 mesi dopo lo paghi 1/4)
gia ma il problema è anche di pecunia.......:D .........non posso sforare il tetto dei 1400/1500.......e penso che un e6600 assecondera ancora per un pezzo le richieste delle schede video.......:sofico: ..........o no......?.......ad ogni modo credo che potrei fare l'upgrade a q6600 all'ulteriore calo di prezzi quando uscira penryn......a meno che non punti su una mb p35 e quindi diretto a 45 nm......sempre se quest mb escono in tempo x me.......
gia ma il problema è anche di pecunia.......:D .........non posso sforare il tetto dei 1400/1500.......e penso che un e6600 assecondera ancora per un pezzo le richieste delle schede video.......:sofico: ..........o no......?.......ad ogni modo credo che potrei fare l'upgrade a q6600 all'ulteriore calo di prezzi quando uscira penryn......a meno che non punti su una mb p35 e quindi diretto a 45 nm......sempre se quest mb escono in tempo x me.......
consiglio spassionato prendi una cosa che ti consumi il meno possibile, io cambio SV perché non ce la faccio più, poi non gioco solo col pc, quindi ne ho bisogno, ma cmq se vuoi un consiglio punta su qualcosa che consumi poco. (la tua SV vale molto per la storia debinformatica non buttarla!)
edit: con 1400/1500 euro ti fai su un bel pc
-Feanor-
21-05-2007, 21:19
consiglio spassionato prendi una cosa che ti consumi il meno possibile, io cambio SV perché non ce la faccio più, poi non gioco solo col pc, quindi ne ho bisogno, ma cmq se vuoi un consiglio punta su qualcosa che consumi poco. (la tua SV vale molto per la storia debinformatica non buttarla!)
dici che vale molto eh.......? e me la ritireresti alla modica cifra di.................???.....scherzo :asd:.......ad ogni modo mi consigli una sk che consumi poco e hai comprato 2900xt....?:D .........a me piu che il consumo spaventa il rumore:( .....
dici che vale molto eh.......? e me la ritireresti alla modica cifra di.................???.....scherzo :asd:.......ad ogni modo mi consigli una sk che consumi poco e hai comprato 2900xt....?:D .........a me piu che il consumo spaventa il rumore:( .....
personalemte di del rumore non me ne frega niete, cmq ti rispondo tramite MP perchè non vorrei un ban per essere uscito dal discorso.
appleroof
21-05-2007, 21:21
dici che vale molto eh.......? e me la ritireresti alla modica cifra di.................???.....scherzo :asd:.......ad ogni modo mi consigli una sk che consumi poco e hai comprato 2900xt....?:D .........a me piu che il consumo spaventa il rumore:( .....
infatti....:D
Personalmente aspetto la 2600xt e vedo come va.., soprattutto in game :O altrimenti aspetto 2950GT/PRO @55/65nm ddr4 magari a €200 :oink: :ciapet:
Tanto non ho furia :D sVista asp...
-Feanor-
21-05-2007, 21:32
personalemte di del rumore non me ne frega niete, cmq ti rispondo tramite MP perchè non vorrei un ban per essere uscito dal discorso.
beh io direi che con il rumore della 2900xt siamo it..........cmq fai come preferisci.....davero....:D .........come fa a non darti fastidio il baccano delle ventolone...???????.magari di sera.......mentre posti sul forum di hwupgrade........:D ...........
beh io direi che con il rumore della 2900xt siamo it..........cmq fai come preferisci.....davero....:D .........come fa a non darti fastidio il baccano delle ventolone...???????.magari di sera.......mentre posti sul forum di hwupgrade........:D ...........
adesso come adesso ho una Nvidia 6800GT, un po' di rumore lo fa, ma io ho il trucco, ho un paio di cuffie stra belle e la musica sotto, quindi.... poi cmq tutto è ralativo dalla persona, io non faccio caso al rumore, certo dipente, tipo ho sentito una quadro FX4500 e una firegl 7300 e devo dire che sono un po' fastidiose, spero solo che la 2900 non sia così!
mi avete fatto preoccupare e sono andato a vedere la rece, effettivamente 62dB sonu un po', ma praticamente quanti? chi ha la 2900 mi dica come è (il rumore) e cosa aveva prima per avere un confronto
The_max_80
21-05-2007, 21:43
sto combattendo una battaglia interiore se comprare o meno questa skeda :muro: ...
combatti i tuoi demoni :D
mi avete fatto preoccupare e sono andato a vedere la rece, effettivamente 62dB sonu un po', ma praticamente quanti? chi ha la 2900 mi dica come è (il rumore) e cosa aveva prima per avere un confronto
In idle non la senti, in game si sente molto più di una 1900gt, scheda che avevo prima.
Per me in verità nulla è cambiato usando le cuffie, ma con le casse temo possa disturbare se tieni il volume basso.
In idle non la senti, in game si sente molto più di una 1900gt, scheda che avevo prima.
Per me in verità nulla è cambiato usando le cuffie, ma con le casse temo possa disturbare se tieni il volume basso.
ah, ok. va be vi farò sapere come andrà (non avevo riflettuto sulla rumorosità)
@ Iantikas
asp esce a settebre 2950xt/xtx ;)
Io aspetterei che escano i VERI giochi e allora inizierei a farmi un idea su una vga dx10.
Con una x1900 che hai puoi tirare benissimo fino a natale di quest'anno.
Tanto fino a tale data di giochi entusiasmanti che metteranno in ginocchio la tua r580 non ne usciranno.
Quindi io fossi in te aspetterei fine anno, o se proprio non ce la fai, aspetta l'uscita di crysis. E valuta un pò.
Tanto ora la compreresti a prezzo pieno avendo solo 10 fps in più in qualche gioco e dei driver che più acerbi di così non esistono.
Aspetta 4 o 5 mesi e si rivelerà l'acquisto dell'anno ;)
Ora come ora IMHO sono soldi buttati via :)
sono d'accordo.....la x1900 è ancora una scheda coi fiocchi.......il vero problema è per chi ha necessita di rifarsi il computer entro qualche settimana come il sottoscritto.....che è equipaggiato ancora con una maledetta geforce 4 mx.............:mad: :ncomment: :cry: ..............:help: ..........
quoto il tris :D
seeeeeeeeee..............stai scherzando....??????? l'ho imparata ad odiare quasi subito........all'epoca ero un bocia e non me ne intendevo qnd l'ho comprata.......è una gf4 castrata....non ha pixel shader........dunque è dx7 e non riesco ad avviare giochi anche vecchi di 5 anni...........:cry: ........della serie sulle scatole c'è scritto "dalla gf 3 in su....(gf4 mx non supportata)" per far capire a chi non se ne intende.........:muro: :muro: :muro: ....
hai l'hardware giusto per fare del retrogaming :)
Se vuoi te la scambio con una S3Trio 3D :D
TecnoWorld8
21-05-2007, 22:34
qualche nuovo driver all'orizzonte?
se avessi la certezza che la versione a 65nm esce a settembre, aspetterei di certo...il problema è...che non si sa con sicurezza e conoscendo ATi magari poi esce nel 2008!!! non so davvero...
qualche nuovo driver all'orizzonte?
se avessi la certezza che la versione a 65nm esce a settembre, aspetterei di certo...il problema è...che non si sa con sicurezza e conoscendo ATi magari poi esce nel 2008!!! non so davvero...
Oggi dovrebbero uscire.
Iantikas
22-05-2007, 00:15
grazie a tutti x i consigli...c'avete proprio ragione sarebbe una mossa parekkio azzardata...xò
combatti i tuoi demoni :D
...devo riuscire a sconfiggerli :mc: :D ...
...ciò ke anke mi spinge e ke ora c'ho qualcosa da parte x prenderla (e nn'è una cosa abituale :stordita: ) e inoltre vendendo la mia potrei ancora ricavarci qualcosina (un 160/180 penso li valga ancora)...a settembre/ottobre quando dovrebbe uscire R650 nn so se starò nella stessa condizione (molto probabilmente no :O )...e x quel tempo dovrebbero anke uscire titoli tipo bioshock, crysis, CoD 4 (o no?)...inoltre mi sa ke la mia skeda si svaluterà enormemente dato ke sarà anke uscita la seconda gen DX10...
...ma misa ke anke alla luce di queste considerazioni vale questo consiglio
Quindi io fossi in te aspetterei fine anno, o se proprio non ce la fai, aspetta l'uscita di crysis. E valuta un pò.
...ma la data d'uscita + o - si sa qual'è?...io ricordavo fine estate...ma nn son sicuro...
...ciao
Stasera ho fatto un piccolo test su counter strike source su x2900 e vista 64, nel bench integrato a 1280x1024 8x fsaa e 16x Af ovviamente tutto al max fa 140 fps di media.
Pk77
Alexkidd85
22-05-2007, 01:20
Stasera ho fatto un piccolo test su counter strike source su x2900 e vista 64, nel bench integrato a 1280x1024 8x fsaa e 16x Af ovviamente tutto al max fa 140 fps di media.
Pk77
Molto buono..attendo sti ultimi driver...intanto mi tengo la 8800gtx per la comparsa visto che a quanto pare l'ali non me la regge..e chissà con la 2900 cosa combianavo!!
Questi ultimi driver dovrebbero essere quelli che daranno un buon boost prestazionale no? quelli delle famose recensioni!?
TecnoWorld8
22-05-2007, 03:16
stavo notando in rete che una GTX si trova ormai sui 460€ spedita, ed una GTS ad un centinaio di € in meno, sempre inclusa spedizione. Secondo me, dato quello che consuma rispetto ad una GTS, questa XT dovrebbe costare al massimo 350€ spedita, per essere appetibile, a meno che questi driver in uscita non ribaltino la situazione prestazionale.
stavo notando in rete che una GTX si trova ormai sui 460€ spedita, ed una GTS ad un centinaio di € in meno, sempre inclusa spedizione. Secondo me, dato quello che consuma rispetto ad una GTS, questa XT dovrebbe costare al massimo 350€ spedita, per essere appetibile, a meno che questi driver in uscita non ribaltino la situazione prestazionale.
non credo che questi driver ribaltino la situazione, ma sono certo che quelli che verranno rilasciati in un imminente futuro si.
halduemilauno
22-05-2007, 07:45
sto combattendo una battaglia interiore se comprare o meno questa skeda :muro: ...
...alla fine da rece e test degli utenti ho potuto appurare ke rispetto alla mia X1900XTX@690/860 i miglioramenti + marcati (ke cambierebbero veramente il "gameplay") li otterei solo su TDU e Rainbow Six Vegas e Oblivion...
...col mio LCD vado a 1680x1050...con TDU in pratica già ora vado a tale risoluzione con dettagli al max e AF16x HQ ma senza AA stando sempre sopra i 30fps (con la HD2900XT potrei ativare 4xAA [giusto??? :stordita: ], cosa ke con la mia fa scendere il framerate sotto i 10fps)...[inoltre attivare 4xAA nn mi dispiacerebbe xkè l'aliasing in questo gioco si nota parekkio nonostante la ris relativamente elevata]
...con rainbow six vegas vado a 1280x960, con ombre basse, tutto il resto al max, Af 16x HQ e senza AA x avere una media sui 45 fps (con la HD2900XT potrei mettere tutto al max e a 1680x1050 con AA 4x, [giusto??? :stordita:])...[il migliramento qui sarebbe elevato e siccome è uno dei gioki ke sto giocando di + attualmente nn mi dispiacerebbe]
...con Oblivion vado a 1680x1050 tutto al max, AF16x HQ e senza AA (con la HD2900XT potrei mettere 4xAA)...[questo xò almeno al momento l'ho messo da parte]
...poi c'è anke Stalker [ke nonostante l'abbia finito già due volte ora con l'ultima patch mi è venuto di giocarlo di nuovo]...ma qui sinceramente nn ho capito se avrò miglioramenti e di quale entità...
...altri titoli andrebbe + o meno uguale anke xkè già ora vado a 1680x1050 con 4xAA e 16xAF e l'unica cosa ke potrei fare sarebbe aumentare l'AA o mettere l'Adaptive [opzione ke in pratica attualmente posso usare in ben poki gioki pena l'azzeramento delframerate)...ma qui sorgono i vari problemi della skeda con vari gioki con AA e Adaptive ke addirittura la fanno andare meno della generazione precedente...almeno con i driver attuali...
...vabbeh cmq oltre ai miglioramenti attuali avrei la compatibilità con le DX10 e la probabilità di miglioramenti tangibili con prox driver e di buona giocabilità con i prox futuri gioki DX10...
...morale della favola...secondo voi ne vale la pena??? :fagiano: ...
...ciao
p.s.: ci son altri gioki dove guadagnerei n maniera sostanziale???
se hai dubbi non comprare. se vuoi ati aspetta la 2950xt per settembre ottobre.
;)
la x2950xt sarebbe molto interessante... Poi nel frattempo che aspetto posso cambiare il monitor (attualmente un CRT 17 pollici... :muro: :muro: )
Per sfruttare decentemente questa scheda quanti pollici dovrebbe avere e che risoluzione dovrebbe raggiungere il monitor ?!?
stavo notando in rete che una GTX si trova ormai sui 460€ spedita, ed una GTS ad un centinaio di € in meno, sempre inclusa spedizione. Secondo me, dato quello che consuma rispetto ad una GTS, questa XT dovrebbe costare al massimo 350€ spedita, per essere appetibile, a meno che questi driver in uscita non ribaltino la situazione prestazionale.
Dalle numerose prove da me effettuate e riportate secondo me, anche in prospettiva futura è preferibile una 2900xt, che ricomprerei fossi ancora nel dubbio.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.