View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
davide155
26-06-2007, 14:19
Questo è probabilissimo. Il primo gioco dx10, che vedremo attuare questo meccanismo e Bioshock, con a ruota UT3.
In quel caso, sarà interessante confrontare le prestazioni di G80 con quelle di R600. :D
Bioshock non è dx10 :)
+Lonewolf+
26-06-2007, 14:21
Bioshock non è dx10 :)
si lo sarà
davide155
26-06-2007, 14:22
si lo sarà
Che io sappia no, se invece lo sarà linkami documenti ufficiali che lo affermano :)
+Lonewolf+
26-06-2007, 14:22
http://www.gamestar.it/showPage.php?template=News&id=9833&masterPage=ngs_articolo.html&argomento=Bioshock
ed è di febbraio, inoltre l'ho letto anche su GMC e un po' ovunque
...Tutto questo in termini tecnici ha comportato un duro lavoro ed un adeguato sfruttamento delle tecnologie hardware disponibili. Le versioni Pc e Xbox360 non dovrebbero differire in maniera sostanziale, anche se su computer, sfruttato le librerie delle DirectX 10, saranno accelerate alcune routine di effetti rendendo così maggiori dettagli in certe situazioni...
fonte http://www.onegames.it/07/05/2007/bioshock-alla-scoperta-dell-acqua/
http://www.giga.de/show/gigagames/pc/00138296_bioshock_directx_10_support/
aggiungo questa
Bioshock non è dx10 :)
Invece sì, ne avevamo già discusso tempo fa. :)
http://blogs.ign.com/Irrational_Games/2007/05/02/53775/ --->blog ufficiale degli sviluppatori
-Feanor-
26-06-2007, 14:24
vi ho postato l'elenco completo dei giochi che supporteranno dx10 a inizio pag....:rolleyes:
@ +Lonewolf+
forse ti è sfuggito quel post in cui ti do una brutta notizia...:asd:
hanno risposto all mail così
"la ringraziamo x averci dato il suo supporto nell'individuazione dei problemi da lei riscontrati, verificheremo personalmente e ci scusiamo per l'accaduto.Le dovute ottimizzazioni arriveranno con le successive relase dei drivers dato che sugli ultimi ci siamo concentrati molto sui problemi di compatibilità con il sistema operativo.nelle successive relase noterà, lei come gli altri che riscontrano problemi, un progressivo aumento nella performance, specialmente con l'utilizzo dei vari filtraggi grafici,e vari bugfix(questo non so renderlo in italiano:asd:) che sulla serie 2Xxx saranno presenti in gran numero almeno fino alla relase di agosto, dove verranno totalmente eliminati.Per quanto riguarda inoltre la domanda da lei sollevata riguardante il ring-bus la informo del fatto che il team che si occupa dello sviluppo driver programmerà entro questo mese quasi sicuramente un ring-bus decente, che verrà via via migliorato nelle prossime relase.Ci scusiamo per l'accaduto e la invitiamo ad avere fiducia, non se ne pentirà."
distinti saluti
hanno un pò di paura in ati. mi sa ke si stanno lamentando in tanti
Bioshock non è dx10 :)
diciamo che è DX10 come lo è UT3...
Free Gordon
26-06-2007, 14:25
Beh, ad quello che vedo, a parte casi abbastanza sporadici, direi che tutte le schede di fascia alta a risoluzioni "umane" (1280x1024, 1600x1200) danno FPS accettabili anche con AA. E comunque in realtà il problema dello shader AA resolve non è detto che sia così pesante IN SE, ad esempio questo è un commento molto interessante su B3D:
http://forum.beyond3d.com/showpost.php?p=1021807&postcount=179
che stima la potenza di calcolo assorbita in un "caso estremo" per l'AA resolve.
Per cui dici che, anche il vero grosso problema, è proprio lo scheduling? E il mem controller da riprogrammare?
(Notare che anche i commenti successivi considerino questo un caso, appunto, estremo. Il problema fondamentale con l'AA è l'ottimizzazione della schedulazione dei calcoli e il -relativamente- ridotto numero di unità texture e ROPs, nonchè -e qui c'è un punto fondamentale- la gestione del ring bus che deve essere ottimizzata per l'AA.
^_^
Da notare poi una cosa interessante, ossia che R600 sembra essere particolarmente ottimizzato dal punto di vista del supporto al formato floating point per texture e blending, ad esempio è vero che R600 ha 16 texture unit e quindi si possono avere un massimo di 16 texture filtrate per clock, contro le 64 di G80, ma è anche vero che rimangono 16 anche filtrando in formato FP32, mentre in G80 i 64 sample filtrati valgono per il formato INT8, che scendono a 32 per il FP16 e a 16 per il FP32.
IL problema è: quanti giochi nell'immediato futuro useranno il formato FP32?
La stessa cosa, se non erro, vale per le ROPs, dove i samples/s sono inferiori a quelli di G80 ma non ci dovrebbe essere perdita di prestazioni, banda permettendo, utilizzando formati FP16 e FP32. Quindi in giochi con grande utilizzo di questi formati, con HDR in FP16 o FP32, R600 non dovrebbe comportarsi affatto male.
HDR fp32? :eek:
Ma siamo sicuri che si necessiti di tale precisione? :confused:
Io già mi accorgo poco della differenza fra l'fp10 di Xenos e l'fp16 dei giochi pc.. figuriamoci tra fp16 e 32..
(una precisazione, poi, che non c'entra col tuo discorso: ho notato come molti parlino di R600 come contenente un numero maggiore di transistors rispetto a G80, ma questo vale solo se si considera il die principale, ma G80 è composto in realtà da 2 chip, ossia la GPU propriamente detta e il chip NVIO, le cui funzionalità invece sono integrate nel die principale di R600).
Mi piacerebbe proprio sapere da quanti mln di transistor è composto il chip NVIO. :)
-Feanor-
26-06-2007, 14:26
diciamo che è DX10 come lo è UT3...
ma si...certo....non è nativo dx10 questo è chiaro...le supporterà...punto...mi sembra gia qualcosa no..??
ma si...certo....non è nativo dx10 questo è chiaro...le supporterà...punto...mi sembra gia qualcosa no..??
e chi si lamenta :p
Free Gordon
26-06-2007, 14:28
diciamo che è DX10 come lo è UT3...
Il mio discorso non è su questo, ma sul fatto che tali giochi abbiano o meno features dx10. ;)
Nvidia fa sempre scelte "conservative", quella è la sua filosofia costruttiva.
E già con G80 s'è spinta molto in là, unificando gli shader.
con le 6800 e le x800 era nvidia la + innovativa x il supporto a shader 3.0, mentre ati era ancora a shader 2.0
-Feanor-
26-06-2007, 14:29
e chi si lamenta :p
tu no...?? :D .....beh allora nessuno credo...:stordita:
Il mio discorso non è su questo, ma sul fatto che tali giochi abbiano o meno features dx10. ;)
il mio commento era riferito a davide, che non credeva che bioshok sfruttasse le DX10, io gli ho fatto un paragone :O
-Feanor-
26-06-2007, 14:31
con le 6800 e le x800 era nvidia la + innovativa x il supporto a shader 3.0, mentre ati era ancora a shader 2.0
ma cosa centra....quella mica è una scelta innovativa...allora se nvidia è conservatrice le geforce dovrebbero ancora avere shader 1.0...o non averli del tutto...??ma dai....:sofico:
davide155
26-06-2007, 14:31
Azz.....questa non la sapevo :eek:
Ma non ne hanno parlato tanto.
Cioè si vede che sarà solo una piccola cosa.
Ut3 l'hanno reclamato tutti.
Invece bioshock non hanno detto quasi nessuno che sfrutterà le dx10.......
Cmq meglio così :D
+Lonewolf+
26-06-2007, 14:32
vi ho postato l'elenco completo dei giochi che supporteranno dx10 a inizio pag....:rolleyes:
@ +Lonewolf+
forse ti è sfuggito quel post in cui ti do una brutta notizia...:asd:
quale???
ma cosa centra....quella mica è una scelta innovativa...allora se nvidia è conservatrice le geforce dovrebbero ancora avere shader 1.0...o non averli del tutto...??ma dai....:sofico:
sarà come dici te ma con una 6800 puoi giocare anke con gli ultimi gioki, certo non al max mentre con le x800 no, bon basta |ot
-Feanor-
26-06-2007, 14:52
quale???
sempre quello a inizio dell altra pagina...va beh eccolo.... http://www.hwupgrade.it/forum/showpost.php?p=17678373&postcount=5621
Iantikas
26-06-2007, 14:59
Azz.....questa non la sapevo :eek:
Ma non ne hanno parlato tanto.
Cioè si vede che sarà solo una piccola cosa.
Ut3 l'hanno reclamato tutti.
Invece bioshock non hanno detto quasi nessuno che sfrutterà le dx10.......
Cmq meglio così :D
varamente dovunque ho visto parlare d bioshock, ho visto parlare del supporto alle dx10...mi sa ke ti era sfuggito solo a te :p :D ...ciao
davide155
26-06-2007, 15:03
varamente dovunque ho visto parlare d bioshock, ho visto parlare del supporto alle dx10...mi sa ke ti era sfuggito solo a te :p :D ...ciao
Su nextgame......tom's.....hardware upgrade......questi siti qui in prima pagina non ne hanno mai parlato.....
Almeno da quanto ho letto.
Ma se qualcuno mi riporta la pagina dove hanno parlato di tale cosa pure su questi siti che ho scritto allora sto zitto :D
+Lonewolf+
26-06-2007, 15:16
sempre quello a inizio dell altra pagina...va beh eccolo.... http://www.hwupgrade.it/forum/showpost.php?p=17678373&postcount=5621
ah si qll l'avevo letto...cmq lo compro lo stesso, mi attira e magari vi posto i results....dovrebbe andare bene in quanto proviene da xbox360
pensate che avevo letto non so dove che bioshock era stato creato su una versione ultra modificata dell unreal engine 2 :stordita: :fagiano:
davide155
26-06-2007, 15:29
pensate che avevo letto non so dove che bioshock era stato creato su una versione ultra modificata dell unreal engine 2 :stordita: :fagiano:
Hehehehe.......bè su questo non credo ci siano dubbi...
Unreal engine 3 regna :O
-Feanor-
26-06-2007, 15:48
sarà come dici te ma con una 6800 puoi giocare anke con gli ultimi gioki, certo non al max mentre con le x800 no, bon basta |ot
sono d'accordo...ma questo è un altro discorso...il passaggio da sm pinco.0 a pallino.0 è solo l'adesione a un protocollo in evoluzione...non è una scelta innovativa e/o azzardata....;)
halduemilauno
26-06-2007, 16:20
magari vi può essere utile.
http://www.tomshw.it/news.php?newsid=10567
halduemilauno
26-06-2007, 16:32
una bella rece fra le 2900xt e 8800gts640. ambedue oc una a 840/2100 l'altra a 648/1998.
http://it-review.net/index.php?option=com_content&task=view&id=1435&Itemid=1
;)
-Feanor-
26-06-2007, 16:37
magari vi può essere utile.
http://www.tomshw.it/news.php?newsid=10567
credo solo a CiAoRaGa1 .....:sofico: :sofico: :sofico: :D
Kenshiro86
26-06-2007, 16:42
http://www.3dfxzone.it/news/puntatore.php?uid=4807
In questo test con la demo di Crysis la HD2900XT risulta superiore alla 8800 GTX abbastanza nettamente, e se i driver ati verranno ancora aggiornati secondo me la 8800 GTX verrà stracciata dalla HD2900XT in campo DX10.. e ancor più dalla 2900 con 1 gb, che mi pare uscirà con lo stesso prezzo di quella di adesso.. :)
Free Gordon
26-06-2007, 16:42
con le 6800 e le x800 era nvidia la + innovativa x il supporto a shader 3.0, mentre ati era ancora a shader 2.0
L'unico caso nella storia :) dovuto semplicemente al fatto che il chip R400 di ATI (a shader unificati...) era stato sviluppato ma poi accantonato. ;)
Kharonte85
26-06-2007, 16:43
http://www.3dfxzone.it/news/puntatore.php?uid=4807
In questo test con la demo di Crysis la HD2900XT risulta superiore alla 8800 GTX abbastanza nettamente, e se i driver ati verranno ancora aggiornati secondo me la 8800 GTX verrà stracciata dalla HD2900XT in campo DX10.. e ancor più dalla 2900 con 1 gb, che mi pare uscirà con lo stesso prezzo di quella di adesso.. :)
Olderrimi e fake...;)
Free Gordon
26-06-2007, 16:44
pensate che avevo letto non so dove che bioshock era stato creato su una versione ultra modificata dell unreal engine 2 :stordita: :fagiano:
Tutto ciò non è molto distante dalla realtà. :D
-Feanor-
26-06-2007, 16:45
http://www.3dfxzone.it/news/puntatore.php?uid=4807
In questo test con la demo di Crysis la HD2900XT risulta superiore alla 8800 GTX abbastanza nettamente, e se i driver ati verranno ancora aggiornati secondo me la 8800 GTX verrà stracciata dalla HD2900XT in campo DX10.. e ancor più dalla 2900 con 1 gb, che mi pare uscirà con lo stesso prezzo di quella di adesso.. :)
:eek: :eek: :eek: ...ma .....ma...:eek: ...non capisco....un demo di crysis...??? ma sono solo speculazioni o cosa....???...pretendo chiarimenti...:D ...se questo test si rivelasse veritiero non so cosa farei...:ave: :ave: :ave:
-Feanor-
26-06-2007, 16:46
Olderrimi e fake...;)
ah ecco....:( ......gia smorzato......:cry:
EDIT....15/04......:cry:
halduemilauno
26-06-2007, 16:48
un'altra rece.
http://www.hwupgrade.it/articoli/skvideo/1753/xfx-geforce-8800-ultra-quando-il-top-non-basta_index.html
;)
halduemilauno
26-06-2007, 16:49
:eek: :eek: :eek: ...ma .....ma...:eek: ...non capisco....un demo di crysis...??? ma sono solo speculazioni o cosa....???...pretendo chiarimenti...:D ...se questo test si rivelasse veritiero non so cosa farei...:ave: :ave: :ave:
Olderrimi e fake...;)
ah ecco....:( ......gia smorzato......:cry:
EDIT....15/04......:cry:
scusami non avevo visto che avevi realizzato.
;)
Kharonte85
26-06-2007, 16:50
un'altra rece.
http://www.hwupgrade.it/articoli/skvideo/1753/xfx-geforce-8800-ultra-quando-il-top-non-basta_index.html
;)
Mi ci tuffo a pesce...:sofico:
-Feanor-
26-06-2007, 16:50
un'altra rece.
http://www.hwupgrade.it/articoli/skvideo/1753/xfx-geforce-8800-ultra-quando-il-top-non-basta_index.html
;)
gia....2900xt con catalyst 7.5........:muro:
Konrad76
26-06-2007, 16:58
Vi seguo praticamente ad ogni postata per capire un pò come si evolve la situazione ati....da fedele ati da quando ho un pc e solo ora passato per provare alla concorrenza....be non mi sembra che sia tutte rose e fiori con questa 2900....non riesco a capire bene come si posiziona, non penso che una vga del genere fatichi a tenere il passo di una 8800 gtx però vere prove e test fatti bene o vostri screen non ne vedo mai....
Vi seguo praticamente ad ogni postata per capire un pò come si evolve la situazione ati....da fedele ati da quando ho un pc e solo ora passato per provare alla concorrenza....be non mi sembra che sia tutte rose e fiori con questa 2900....non riesco a capire bene come si posiziona, non penso che una vga del genere fatichi a tenere il passo di una 8800 gtx però vere prove e test fatti bene o vostri screen non ne vedo mai....
mediamente è tra la GTS e la GTX ;)
Konrad76
26-06-2007, 17:04
mediamente è tra la GTS e la GTX ;)
Si questo lo vedo, ma penso sia solo per i driver acerbi o non ben ottimizzati....ma voi come vi trovate?
mediamente è tra la GTS e la GTX ;)
E tu, mica dovevi prendere la PRO? Perchè ti vedo una GT in sign?
:p
Si questo lo vedo, ma penso sia solo per i driver acerbi o non ben ottimizzati....ma voi come vi trovate?
R600 è un progetto ambizioso, forse troppo, a tal punto che ad AMD il settore drivers è in crisi, non riescono a sfruttare la scheda al 100%, però comunque non ti aspettare che la 2900XT supererà la 8800Ultra, almeno IMHO, e spero il contrario... ;)
Gerardo Emanuele Giorgio
26-06-2007, 17:22
da quello che vedo nei test mi sa che in dx9 difficilmente si arriverà alla 8800gtx. Cioè ho l'impressione che debbano ottimizzare ogni gioco, manco le dx9 andassero in emulazione su R600.
In dx10 il vantaggio di nvidia si assottiglia molto e le schede si equivalgono ma parliamo di 30frames a 1280x1024... Quindi o Call of Juarez è ottimizzato manco dai cani o le schede avranno vita breve nel 2008.
Giunge lecita la domanda: ma se 700milioni di transistor non bastano per le dx10 dove ci portano sta gente? 1miliardo di transistor? 1.4 miliardi? Qui si prende una cattiva piega, speriamo che inizino ad ottimizzare meglio il software.
scusate il post da noob ma sono perplesso.
Konrad76
26-06-2007, 17:25
E tu, mica dovevi prendere la PRO? Perchè ti vedo una GT in sign?
:p
R600 è un progetto ambizioso, forse troppo, a tal punto che ad AMD il settore drivers è in crisi, non riescono a sfruttare la scheda al 100%, però comunque non ti aspettare che la 2900XT supererà la 8800Ultra, almeno IMHO, e spero il contrario... ;)
Grazie x il punto sulla situazione attuale;) ...abbiamo tutti un po di pazienza e vediamo se finalmente riescano con dei driver accettabili a farla rullare a dovere:D
da quello che vedo nei test mi sa che in dx9 difficilmente si arriverà alla 8800gtx. Cioè ho l'impressione che debbano ottimizzare ogni gioco, manco le dx9 andassero in emulazione su R600.
In dx10 il vantaggio di nvidia si assottiglia molto e le schede si equivalgono ma parliamo di 30frames a 1280x1024... Quindi o Call of Juarez è ottimizzato manco dai cani o le schede avranno vita breve nel 2008.
Giunge lecita la domanda: ma se 700milioni di transistor non bastano per le dx10 dove ci portano sta gente? 1miliardo di transistor? 1.4 miliardi? Qui si prende una cattiva piega, speriamo che inizino ad ottimizzare meglio il software.
scusate il post da noob ma sono perplesso.
Quello, che tra l'altro è come è giusto che sia... ;)
La prossima ondata di VGA (non refresh) sarà la VERA next-gen...
E' da gennaio che lo ripeto... ;)
Grazie x il punto sulla situazione attuale;) ...abbiamo tutti un po di pazienza e vediamo se finalmente riescano con dei driver accettabili a farla rullare a dovere:D
Già adesso rulla abbastanza, flop 'sti cazzi, ce ne fossero di flop come R600... ;)
PS. Ti ripeto comunque di non farti troppe illusioni, R600 avrà, IMHO, al max un altro 10% di potenziale da esprimere, non oltre, anche perchè per settembre-ottobre sarà bene che AMD pensi ad un refresh @65nm e ottimizzato si, ma come hardware nell'architettura, come la X1900XTX con la X1950XTX, come X800XT con X850XT, caput?... ;)
appleroof
26-06-2007, 17:32
da quello che vedo nei test mi sa che in dx9 difficilmente si arriverà alla 8800gtx. Cioè ho l'impressione che debbano ottimizzare ogni gioco, manco le dx9 andassero in emulazione su R600.
In dx10 il vantaggio di nvidia si assottiglia molto e le schede si equivalgono ma parliamo di 30frames a 1280x1024... Quindi o Call of Juarez è ottimizzato manco dai cani o le schede avranno vita breve nel 2008.
Giunge lecita la domanda: ma se 700milioni di transistor non bastano per le dx10 dove ci portano sta gente? 1miliardo di transistor? 1.4 miliardi? Qui si prende una cattiva piega, speriamo che inizino ad ottimizzare meglio il software.
scusate il post da noob ma sono perplesso.
Bisogna considerare 2 cose secondo me: la mancanza di veri giochi/bench dx10 che appunto non aiutano a capire bene le cose, ma secondo me generano ancora più confusione, e il fatto che a fine anno (visto che giustamente ti proietti al 2008) usciranno novità sia Ati che Nvidia.
Le 2 cose insieme, secondo me, consigliano a chi ha una dx9 di starsene buonino alla finestra, oppure se proprio non resiste prendere massimo massimo una 8800gts320 a 250 euro (non spenderei di più, adesso) oppure una 8600gts/2600xt che tanto in dx9 vanno egregiamente (in attesa di notizie def. sulla 2600xt) e cmq alle opportune impo e risoluzioni i primi dx10 li fanno almeno girare, così uno si sfizia senza spendere un patrimonio.
Diverso se si hanno le idee chiare, ovvio ;)
-Feanor-
26-06-2007, 17:32
Quello, che tra l'altro è come è giusto che sia... ;)
La prossima ondata di VGA (non refresh) sarà la VERA next-gen...
E' da gennaio che lo ripeto... ;)
:muro: :muro: :muro: ...."giusto" è una parola grossa....
halduemilauno
26-06-2007, 17:33
gia....2900xt con catalyst 7.5........:muro:
Premesso che avevamo quei driver da qualche giorno, non vi sono sostanziali modifiche fatta eccezione per incrementi con le Radeon HD 2900 XT con due titoli, con particolari configurazioni e solo in Crossfire.
;)
E tu, mica dovevi prendere la PRO? Perchè ti vedo una GT in sign?
:p
guarda lasciamo perdere...venerdì vado dal fornitore a ritirare la scheda dopo che lui mi aveva chiamato per confermarmi che era arrivata, e quando sono lì mi dice che non c'è...allora vedo la gt e gli dico "dammi quella piuttosto -.-"
:muro: :muro: :muro: ...."giusto" è una parola grossa....
Invece è proprio una parola "giusta"... :rolleyes:
Tu non hai ancora capito che chi fa i tempi è la concorrenza, non le esigenze... ;)
guarda lasciamo perdere...venerdì vado dal fornitore a ritirare la scheda dopo che lui mi aveva chiamato per confermarmi che era arrivata, e quando sono lì mi dice che non c'è...allora vedo la gt e gli dico "dammi quella piuttosto -.-"
Si fa 'stesso, come prestazioni siamo li...
E poi quei 512Mb ti faranno comodo...
Si fa 'stesso, come prestazioni siamo li...
E poi quei 512Mb ti faranno comodo...
risparmiato 20 eurini :boh:
al massimo si OC
-Feanor-
26-06-2007, 17:55
Invece è proprio una parola "giusta"... :rolleyes:
Tu non hai ancora capito che chi fa i tempi è la concorrenza, non le esigenze... ;)
:asd:.....hai perfettamente ragione...il mio era solo uno sfogo...perche mi fa dannare lo spendere soldi in una vga che non dura piu di qualche mese..per l'amor del cielo ...è giusto che ogni tot mesi venga lanciata una nuova proposta che rinnovi e migliori lo scenario sul mercato...ma come sempre è l'ottimizzazione del software il problema...:muro:
risparmiato 20 eurini :boh:
al massimo si OC
Allora aspetto con ansia un tuo TH dove posti dei result!:D
Anche sul light side se vuoi...;)
:asd:.....hai perfettamente ragione...il mio era solo uno sfogo...perche mi fa dannare lo spendere soldi in una vga che non dura piu di qualche mese..per l'amor del cielo ...è giusto che ogni tot mesi venga lanciata una nuova proposta che rinnovi e migliori lo scenario sul mercato...ma come sempre è l'ottimizzazione del software il problema...:muro:
Lo so, è così purtroppo... :boh:
Iantikas
26-06-2007, 19:21
molti parlano di refresh a settembre, ma le ultime notizie nn davano x cancellati sia i refresh di ati ke d nvidia? e parlavano x entrambi d nuova generazione d gpu x novembre (nvidia-> G92) dicembre/gennaio (ati-> R700)?
...ciao
+Lonewolf+
26-06-2007, 19:31
molti parlano di refresh a settembre, ma le ultime notizie nn davano x cancellati sia i refresh di ati ke d nvidia? e parlavano x entrambi d nuova generazione d gpu x novembre (nvidia-> G92) dicembre/gennaio (ati-> R700)?
...ciao
anche io so così...cmq la mail di amd diceva drivers maturi entro settembre...magari se si danno da fare riescono a cavare fuori qualcosa, comunque invito i possessori ATI a inviare mail a jon.carvill@amd.com e di lamentarsi...forse se facciamo un po' di pressione spingono il lato drivers...io l'ho già mandata e anche un'altro mio amico
+Lonewolf+
26-06-2007, 19:36
cmq è bello vedere come le rece dicano cose diverse riguardo le òprestazioni di hd2900 e di 8800gts
io con i miei test personali ho fatto la mia rece...
per ora
8800GTX>HD2900XT>8800GTS indiscutibile
in utilizzo ue3 e shader lunghi la 2900 domina
davide155
26-06-2007, 19:43
cmq è bello vedere come le rece dicano cose diverse riguardo le òprestazioni di hd2900 e di 8800gts
io con i miei test personali ho fatto la mia rece...
per ora
8800GTX>HD2900XT>8800GTS indiscutibile
in utilizzo ue3 e shader lunghi la 2900 domina
Ma con i filtri prende la mazzate pure da una x1300.....
E' questo quello che devono risolvere al più presto!
Bioshock sarà in dx10....crysis uguale....ut3 uguale.
E son tutti giochi che li vedremo a partire fra 2 mesi.
Se ati non risolve questi problemi entro 2 mesi parecchi utenti sceglieranno la concorrenza, per non restare a piedi.
Io sono molto indeciso.
La 8800gtx non entra nel mio case e poi costa troppo tutt'ora per le mie tasche.
La gts con 320mb viene ammazzata dai filtri e dettagli alti alle alte risoluzioni
La gts con 640mb costa talmente tanto che vale la pena prendersi una gtx
E la 2900xt ha un prezzo accattivante.....in estrema discesa nei prox mesi, ma ha queste lacune improvvise che non giovano certo la mia scelta.
Non so proprio cosa fare.
Nuove vga dx10 quando usciranno?
+Lonewolf+
26-06-2007, 19:48
Ma con i filtri prende la mazzate pure da una x1300.....
E' questo quello che devono risolvere al più presto!
Bioshock sarà in dx10....crysis uguale....ut3 uguale.
E son tutti giochi che li vedremo a partire fra 2 mesi.
Se ati non risolve questi problemi entro 2 mesi parecchi utenti sceglieranno la concorrenza, per non restare a piedi.
Io sono molto indeciso.
La 8800gtx non entra nel mio case e poi costa troppo tutt'ora per le mie tasche.
La gts con 320mb viene ammazzata dai filtri e dettagli alti alle alte risoluzioni
La gts con 640mb costa talmente tanto che vale la pena prendersi una gtx
E la 2900xt ha un prezzo accattivante.....in estrema discesa nei prox mesi, ma ha queste lacune improvvise che non giovano certo la mia scelta.
Non so proprio cosa fare.
Nuove vga dx10 quando usciranno?
a novembre...io cmq penso che ati nn è scema...farà i suoi friver e risolverà i problemi nelle prossime relase, altrimenti xkè ammazzarsi da sola?
cmq i cata 7.6 sono datati 13 giugno...questo whql li ammaza
-Feanor-
26-06-2007, 19:48
Ma con i filtri prende la mazzate pure da una x1300.....
E' questo quello che devono risolvere al più presto!
Bioshock sarà in dx10....crysis uguale....ut3 uguale.
E son tutti giochi che li vedremo a partire fra 2 mesi.
Se ati non risolve questi problemi entro 2 mesi parecchi utenti sceglieranno la concorrenza, per non restare a piedi.
Io sono molto indeciso.
La 8800gtx non entra nel mio case e poi costa troppo tutt'ora per le mie tasche.
La gts con 320mb viene ammazzata dai filtri e dettagli alti alle alte risoluzioni
La gts con 640mb costa talmente tanto che vale la pena prendersi una gtx
E la 2900xt ha un prezzo accattivante.....in estrema discesa nei prox mesi, ma ha queste lacune improvvise che non giovano certo la mia scelta.
Non so proprio cosa fare.
Nuove vga dx10 quando usciranno?
beh cio che dici nella prima parte è inesatto....ut3 e bioshock sono giochi cmq dx9 con alcune feature dx10....niente di piu....e pure crysis non è un gioco dx 10 puro....assolutamente....per quelli ci vuole ancora un annetto e piu buono...nella migliore (o peggiore :asd:) delle ipotesi..;)
+Lonewolf+
26-06-2007, 19:51
ragazzi mi è scesa la temp in idle di 9°....prima con i cata 7.5 stava sui 56° ora 47!!!!
-Feanor-
26-06-2007, 19:52
ragazzi mi è scesa la temp in idle di 9°....prima con i cata 7.5 stava sui 56° ora 47!!!!
questa è un ottimissima notizia...speriamo solo che non sia stato un episodio fortuito....ma la gestione della ventola è rimasta uguale spiaccicata....??
Iantikas
26-06-2007, 19:53
Ma con i filtri prende la mazzate pure da una x1300.....
E' questo quello che devono risolvere al più presto!
Bioshock sarà in dx10....crysis uguale....ut3 uguale.
E son tutti giochi che li vedremo a partire fra 2 mesi.
Se ati non risolve questi problemi entro 2 mesi parecchi utenti sceglieranno la concorrenza, per non restare a piedi.
Io sono molto indeciso.
La 8800gtx non entra nel mio case e poi costa troppo tutt'ora per le mie tasche.
La gts con 320mb viene ammazzata dai filtri e dettagli alti alle alte risoluzioni
La gts con 640mb costa talmente tanto che vale la pena prendersi una gtx
E la 2900xt ha un prezzo accattivante.....in estrema discesa nei prox mesi, ma ha queste lacune improvvise che non giovano certo la mia scelta.
Non so proprio cosa fare.
Nuove vga dx10 quando usciranno?
fine anno...sei nella mia stessa situazione, ankio ero in procinto di cambiare gpu ma poi ho deciso ke è meglio aspettare almeno finkè nn escono gioki tipo crysis, bioshock, CoD4 etc ke d sicuro renderanno + kiaro il quadro prestazionale d queste skede...
...x come stanno le cose ora ki ha una X1900XTX o gpu simile nn gli conviene x niente cambiare...in pratica x ottenere un salto prestazionale degno d nota dovrebbe andare minimo su una GTX ma il salto cmq nn riesce a giustificare il prezzo (sopratutto dato ke nn si è sicuri delle prestazioni ke offrirà nei titoli ke usciranno nei prox mesi fino a fine anno)...
...la scelta quindi va su hd2900xt e GTS...tra le due sicuramente la prima ma se senza filtri le prestazion son soddisfacenti e valgono i soldi ke si spenderebbero facendo il cambio, una volta attivato l'AA xò il calo è impressionante e o va ai livelli di una GTS o va a quelli di una x1950xtx e anke con questa gpu c'è l'incognita d come fartà girare i gioki ke usciranno da qui a 6 mesi...
...secondo me è uno dei periodi peggiori x aquistare una skeda video...ciao
davide155
26-06-2007, 19:55
beh cio che dici nella prima parte è inesatto....ut3 e bioshock sono giochi cmq dx9 con alcune feature dx10....niente di piu....e pure crysis non è un gioco dx 10 puro....assolutamente....per quelli ci vuole ancora un annetto e piu buono...nella migliore (o peggiore :asd:) delle ipotesi..;)
Si esatto.
Ma se tu hai visto le differenze che ci sono in crysis fra dx9 e dx10 se permetti....vorrei godermelo in dx10 :O
Che sia un effettuccio o no....la differenza c'è eccome. E io non me la vorrei perdere.
Certo che se si continua così mi toccherà aspettare novembre per una nuova vga :muro:
davide155
26-06-2007, 19:56
fine anno...sei nella mia stessa situazione, ankio ero in procinto di cambiare gpu ma poi ho deciso ke è meglio aspettare almeno finkè nn escono gioki tipo crysis, bioshock, CoD4 etc ke d sicuro renderanno + kiaro il quadro prestazionale d queste skede...
...x come stanno le cose ora ki ha una X1900XTX o gpu simile nn gli conviene x niente cambiare...in pratica x ottenere un salto prestazionale degno d nota dovrebbe andare minimo su una GTX ma il salto cmq nn riesce a giustificare il prezzo (sopratutto dato ke nn si è sicuri delle prestazioni ke offrirà nei titoli ke usciranno nei prox mesi fino a fine anno)...
...la scelta quindi va su hd2900xt e GTS...tra le due sicuramente la prima ma se senza filtri le prestazion son soddisfacenti e valgono i soldi ke si spenderebbero facendo il cambio, una volta attivato l'AA xò il calo è impressionante e o va ai livelli di una GTS o va a quelli di una x1950xtx e anke con questa gpu c'è l'incognita d come fartà girare i gioki ke usciranno da qui a 6 mesi...
...secondo me è uno dei periodi peggiori x aquistare una skeda video...ciao
Non potevi usare parole migliori :O
;)
Iantikas
26-06-2007, 19:58
Si esatto.
Ma se tu hai visto le differenze che ci sono in crysis fra dx9 e dx10 se permetti....vorrei godermelo in dx10 :O
Che sia un effettuccio o no....la differenza c'è eccome. E io non me la vorrei perdere.
Certo che se si continua così mi toccherà aspettare novembre per una nuova vga :muro:
fortunatamente pare ke crysis uscirà a novembre/dicembre quindi appena in tempo xkè esca la nuova generazione nvidia...ciao
-Feanor-
26-06-2007, 20:00
fortunatamente pare ke crysis uscirà a novembre/dicembre quindi appena in tempo xkè esca la nuova generazione nvidia...ciao
crysis uscira il 14 settembre salvo rimandi che nessuno di noi si augura....:sperem:
davide155
26-06-2007, 20:01
fortunatamente pare ke crysis uscirà a novembre/dicembre quindi appena in tempo xkè esca la nuova generazione nvidia...ciao
Bè per ora non è stata smentita la data dichiarata da EA il 14 settembre ;)
Allora aspetto con ansia un tuo TH dove posti dei result!:D
Anche sul light side se vuoi...;)
adesso sono un bel po' incasinato...cmq appena riesco posto tutto nel light side :)
leoneazzurro
26-06-2007, 20:15
Per cui dici che, anche il vero grosso problema, è proprio lo scheduling? E il mem controller da riprogrammare?
In larga parte si
IL problema è: quanti giochi nell'immediato futuro useranno il formato FP32?
Pochi, però molti useranno FP16
HDR fp32? :eek:
Ma siamo sicuri che si necessiti di tale precisione? :confused:
Io già mi accorgo poco della differenza fra l'fp10 di Xenos e l'fp16 dei giochi pc.. figuriamoci tra fp16 e 32..
Più lunghi sono gli shader, più alta dev'essere la precisione per evitare artefatti. Ma ovviamente è un discorso "futuribile", anche se se non erro è un requisito delle DX10...
Mi piacerebbe proprio sapere da quanti mln di transistor è composto il chip NVIO. :)
Circa 5 stando ad alcune fonti, circa 5 volte tanto stando ad altre. Comunque con il processo a 90 nm per la GPU e NVIO l'area di silicio è maggiore
Più lunghi sono gli shader, più alta dev'essere la precisione per evitare artefatti.
come mai?
leoneazzurro
26-06-2007, 21:23
come mai?
Per il semplice fatto che con ogni operazione viene introdotto un errore, dato che la precisione del calcolo è limitata a 16 o 32 bit. Questo errore poi si propaga ed amplifica in tutte le operazioni successive, per cui alla fine potresti avere risultati differenti da quelli che vorresti ottenere (es. effetti di "pixellizzazione" su superfici sfumate).
Per il semplice fatto che con ogni operazione viene introdotto un errore, dato che la precisione del calcolo è limitata a 16 o 32 bit. Questo errore poi si propaga ed amplifica in tutte le operazioni successive, per cui alla fine potresti avere risultati differenti da quelli che vorresti ottenere (es. effetti di "pixellizzazione" su superfici sfumate).
e non si può evitare di introdurre errori?
e non si può evitare di introdurre errori?
se la precisione del calcolo è limitata (leggi: puoi usare meno cifre dopo la virgola) è matematico che vengano introdotti errori..più che errori le chiamerei approssimazioni :)
bYeZ!
se la precisione del calcolo è limitata (leggi: puoi usare meno cifre dopo la virgola) è matematico che vengano introdotti errori..più che errori le chiamerei approssimazioni :)
bYeZ!
ora capisco!
quindi FP16 significa 16 cifre dopo la virgola e FP32 32 cifre, ecc...
MonsterMash
26-06-2007, 21:42
ora capisco!
quindi FP16 significa 16 cifre dopo la virgola e FP32 32 cifre, ecc...
Non esattamente, significa cifre a 16 bit o a 32 bit.
leoneazzurro
26-06-2007, 21:44
e non si può evitare di introdurre errori?
Se la precisione di calcolo fosse infinita, non ci sarebbero errori. Per il fatto che invece è finita, l'errore è insito.
Facciamo un piccolo esempio:
Ho una precisione di calcolo di 3 decimali.
Devo dividere 1 per 3. Il risultato è 0.333333 (ecc, è un numero periodico) ma poichè ho solo 3 decimali, il risultato effettivo sarà 0.333.
Se rimoltiplico tale numero per 3, otterrò 0.999 che è diverso dal numero di partenza. Eleva a potenza di 3 - ottieni 0,997002999 ma che devi approssimare a 0.997 (mentre con la precisione "infinita" avresti ancora 1) e dividi per 4 : ottieni 0,24925 che devi approssimare a 0.249.
Immagina ora di avere una catena di queste operazioni dove ognuno dei passaggi viene approssimato, e nella quale magari alcune di queste operazioni sono non lineari. Vedrai che dopo magari un'ottantina di passaggi e approssimazioni successive qualche casino salta fuori ;)
Se la precisione di calcolo fosse infinita, non ci sarebbero errori. Per il fatto che invece è finita, l'errore è insito.
Facciamo un piccolo esempio:
Ho una precisione di calcolo di 3 decimali.
Devo dividere 1 per 3. Il risultato è 0.333333 (ecc, è un numero periodico) ma poichè ho solo 3 decimali, il risultato effettivo sarà 0.333.
Se rimoltiplico tale numero per 3, otterrò 0.999 che è diverso dal numero di partenza. Eleva a potenza di 3 - ottieni 0,997002999 ma che devi approssimare a 0.997 (mentre con la precisione "infinita" avresti ancora 1) e dividi per 4 : ottieni 0,24925 che devi approssimare a 0.249.
Immagina ora di avere una catena di queste operazioni dove ognuno dei passaggi viene approssimato (perchè ho una , e nella quale magari alcune di queste operazioni sono non lineari. Vedrai che dopo magari un'ottantina di passaggi e approssimazioni successive qualche casino salta fuori ;)
capisco, grazie mille a tutti per le spiegazioni! :)
-Feanor-
26-06-2007, 21:55
Se la precisione di calcolo fosse infinita, non ci sarebbero errori. Per il fatto che invece è finita, l'errore è insito.
Facciamo un piccolo esempio:
Ho una precisione di calcolo di 3 decimali.
Devo dividere 1 per 3. Il risultato è 0.333333 (ecc, è un numero periodico) ma poichè ho solo 3 decimali, il risultato effettivo sarà 0.333.
Se rimoltiplico tale numero per 3, otterrò 0.999 che è diverso dal numero di partenza. Eleva a potenza di 3 - ottieni 0,997002999 ma che devi approssimare a 0.997 (mentre con la precisione "infinita" avresti ancora 1) e dividi per 4 : ottieni 0,24925 che devi approssimare a 0.249.
Immagina ora di avere una catena di queste operazioni dove ognuno dei passaggi viene approssimato, e nella quale magari alcune di queste operazioni sono non lineari. Vedrai che dopo magari un'ottantina di passaggi e approssimazioni successive qualche casino salta fuori ;)
grazie mille per le tue spiegazioni....esaustive e di facile comprensione allo stesso tempo....una domanda pero....quali sono i difetti effettivamente avvertibili derivanti da questo tipo di errori o meglio imprecisioni...?? grazie......
EDIT: WOW 300 post in poco piu di un mese...
davide155
26-06-2007, 22:04
Se la precisione di calcolo fosse infinita, non ci sarebbero errori. Per il fatto che invece è finita, l'errore è insito.
Facciamo un piccolo esempio:
Ho una precisione di calcolo di 3 decimali.
Devo dividere 1 per 3. Il risultato è 0.333333 (ecc, è un numero periodico) ma poichè ho solo 3 decimali, il risultato effettivo sarà 0.333.
Se rimoltiplico tale numero per 3, otterrò 0.999 che è diverso dal numero di partenza. Eleva a potenza di 3 - ottieni 0,997002999 ma che devi approssimare a 0.997 (mentre con la precisione "infinita" avresti ancora 1) e dividi per 4 : ottieni 0,24925 che devi approssimare a 0.249.
Immagina ora di avere una catena di queste operazioni dove ognuno dei passaggi viene approssimato, e nella quale magari alcune di queste operazioni sono non lineari. Vedrai che dopo magari un'ottantina di passaggi e approssimazioni successive qualche casino salta fuori ;)
Mi sono bloccato alla prima riga :stordita:
leoneazzurro
26-06-2007, 22:08
grazie mille per le tue spiegazioni....esaustive e di facile comprensione allo stesso tempo....una domanda pero....quali sono i difetti effettivamente avvertibili derivanti da questo tipo di errori o meglio imprecisioni...?? grazie......
EDIT: WOW 300 post in poco piu di un mese...
Artefatti grafici, colori innaturali, pixellizzazione.
-Feanor-
26-06-2007, 22:10
Artefatti grafici, colori innaturali, pixellizzazione.
ma non credo che essi diventino tali da poter essere notati ad occhio nudo mentre si sta giocando.......o sbaglio.....?????? :stordita: :stordita:
da quello che vedo nei test mi sa che in dx9 difficilmente si arriverà alla 8800gtx. Cioè ho l'impressione che debbano ottimizzare ogni gioco, manco le dx9 andassero in emulazione su R600.
In dx10 il vantaggio di nvidia si assottiglia molto e le schede si equivalgono ma parliamo di 30frames a 1280x1024... Quindi o Call of Juarez è ottimizzato manco dai cani o le schede avranno vita breve nel 2008.
Giunge lecita la domanda: ma se 700milioni di transistor non bastano per le dx10 dove ci portano sta gente? 1miliardo di transistor? 1.4 miliardi? Qui si prende una cattiva piega, speriamo che inizino ad ottimizzare meglio il software.
scusate il post da noob ma sono perplesso.
Le dx9 su r600 sono supportate, ma il chip è creato volutamente sbilanciato sulle dx10, lo puoi leggere ovunque in internet, inoltre aggiungici un nuovo ring bus, ancora più complesso di quello di x1900 (che sottolineo migliora a ogni release ancora adesso) su un nuovo sistema operativo, per lo più in un ambito a lei sfavorevole in gran parte, allora capirai che quei 700M di transistor hanno bisogno di tempo per poter maturare.
Detto questo non è che sia scarsa in dx9, io ci gioco a tutto con qualsiasi livello di dettaglio, leggendo le review ho prestazioni migliori molto spesso, e la possiedo dal lancio praticamente e l'ho potuta testare con tutti i motori più nuovi.
Kharonte85
26-06-2007, 22:12
ma non credo che essi diventino tali da poter essere notati ad occhio nudo mentre si sta giocando.......o sbaglio.....?????? :stordita: :stordita:
:sofico: Se mandi in overclock esagerato ne vedi di tutti i colori...:asd:
+Lonewolf+
26-06-2007, 22:12
qualcuno mi spiega come mai con i 7.6 le temp si sono abbassate di 10° in idle? anche ad altri utenti eh....
migliore calibratura nella riulevazione da sensore? :mbe:
Kharonte85
26-06-2007, 22:14
qualcuno mi spiega come mai con i 7.6 le temp si sono abbassate di 10° in idle? anche ad altri utenti eh....
E Ti lamenti?
Cmq controlla:
- Temperatura ambientale di ieri e oggi
- Se è cambiata la velocita' della ventola in Idle
-Feanor-
26-06-2007, 22:16
:sofico: Se mandi in overclock esagerato ne vedi di tutti i colori...:asd:
:asd:...va beh dai...questi sono casi abbastanza limite...:asd:
leoneazzurro
26-06-2007, 22:18
ma non credo che essi diventino tali da poter essere notati ad occhio nudo mentre si sta giocando.......o sbaglio.....?????? :stordita: :stordita:
Dipende dagli effetti e dalla lunghezza degli shader. E si, potrebbero essere avvertibili in certi casi, al momento non è ancora un must.
3DMark79
26-06-2007, 23:26
ragazzi mi è scesa la temp in idle di 9°....prima con i cata 7.5 stava sui 56° ora 47!!!!
Non capisco come sia possibile se la ventola giri alla stessa maniera e con la temperatura ambiente alla stessa maniera giusto? :wtf:
La temperatura della GPU può dipendere dai driver?
Non solo dal tipo di dissy?Mah! :mbe:
Ora capisco...sarà sceso il processo produttivo?:D
Ma driver che abbassano il consumo?No vero? :D
Cmq è un ottima notizia!
Y2J Lionheart
27-06-2007, 00:11
qualcuno mi spiega come mai con i 7.6 le temp si sono abbassate di 10° in idle? anche ad altri utenti eh....
mi hai fatto invuriosire ed infatti è vero! prima in idle stava a 55-56 adesso 48-49 :D
Esettamente hai centrato in pieno è un bug dei driver ancora non tolto, cosa mi ottimizzi a fare Half life2? :doh:
LOL....hai presente cosa sia il Source? E hai presente quanti giochi lo usano e lo utilizzeranno? ... fai conto che tra i giochi più giocati ci sono giochi mossi dal source... una community di mod che va a gonfie vele e un sistema di distribuzione dei giochi che è passato da brutto anatroccolo alla miglior scoperta degli utlimi 10 anni di marketing del videogioco.
questa è un ottimissima notizia...speriamo solo che non sia stato un episodio fortuito....ma la gestione della ventola è rimasta uguale spiaccicata....??
mi hai fatto invuriosire ed infatti è vero! prima in idle stava a 55-56 adesso 48-49 :D
In rete si afferma che sia leggermente cambiata anche la gestione della ventola, facendo meno rumore!
E che quindi abbiano cominciato ad agire con lo spegnimento e/o l'abbassamento di frequenza della varie zone della GPU...
+Lonewolf+
27-06-2007, 00:42
LOL....hai presente cosa sia il Source? E hai presente quanti giochi lo usano e lo utilizzeranno? ... fai conto che tra i giochi più giocati ci sono giochi mossi dal source... una community di mod che va a gonfie vele e un sistema di distribuzione dei giochi che è passato da brutto anatroccolo alla miglior scoperta degli utlimi 10 anni di marketing del videogioco.
In rete si afferma che sia leggermente cambiata anche la gestione della ventola, facendo meno rumore!
E che quindi abbiano cominciato ad agire con lo spegnimento e/o l'abbassamento di frequenza della varie zone della GPU...
tutte ottime cose, mi inizio a ricredere...la mail dice che entro settembre risolveranno ogni problema ed ottimizzeranno la performance:) speriamo bene
Free Gordon
27-06-2007, 00:43
un'altra rece.
http://www.hwupgrade.it/articoli/skvideo/1753/xfx-geforce-8800-ultra-quando-il-top-non-basta_index.html
;)
E' di nuovo sotto Vista... :mad:
Free Gordon
27-06-2007, 00:48
Giunge lecita la domanda: ma se 700milioni di transistor non bastano per le dx10 dove ci portano sta gente? 1miliardo di transistor? 1.4 miliardi? Qui si prende una cattiva piega, speriamo che inizino ad ottimizzare meglio il software.
Quelle speculazioni, si potranno fare solo col primo vero gioco dx10, sugli scaffali. ;)
Alan Wake probabilmente.
+Lonewolf+
27-06-2007, 01:00
Quelle speculazioni, si potranno fare solo col primo vero gioco dx10, sugli scaffali. ;)
Alan Wake probabilmente.
intendi full dx10?
Free Gordon
27-06-2007, 01:17
Pochi, però molti useranno FP16
Ma con fp16, siamo sempre 16 vs 32.. ;)
Ok, che R600 gira a 740mhz, mentre G80 a 612.. però non basta ancora, il gap è cmq di un buon 40%..
Più lunghi sono gli shader, più alta dev'essere la precisione per evitare artefatti. Ma ovviamente è un discorso "futuribile", anche se se non erro è un requisito delle DX10...
^_^
Circa 5 stando ad alcune fonti, circa 5 volte tanto stando ad altre. Comunque con il processo a 90 nm per la GPU e NVIO l'area di silicio è maggiore
Maggiore l'area, ma come transistor count saremmo lì lì (anche considerando il caso peggiore).
+Lonewolf+
27-06-2007, 01:22
Ma con fp16, siamo sempre 16 vs 32.. ;)
Ok, che R600 gira a 740mhz, mentre G80 a 612.. però non basta ancora, il gap è cmq di un buon 40%..
^_^
Maggiore l'area, ma come transistor count saremmo lì lì (anche considerando il caso peggiore).
secondo te con un buon ring bus si recupererà il terreno che si perde con i filtri???
Free Gordon
27-06-2007, 01:28
intendi full dx10?
Intendo che ha un motore duplice, con una versione full dx10.
I giochi del 2007 invece, avranno più delle patch che altro.
AW uscirà verso marzo 2008 però.. :(
Free Gordon
27-06-2007, 01:32
secondo te con un buon ring bus si recupererà il terreno che si perde con i filtri???
Non lo so. :D
+Lonewolf+
27-06-2007, 01:43
Non lo so. :D
ma come tu sai tutto:D
dai, almeno assottigliarla? anzi, spigami il funzionamento del ring bu e poi traiamo una conclusione(seriamente)
halduemilauno
27-06-2007, 07:09
E' di nuovo sotto Vista... :mad:
una scheda dx10 dove la vuoi provare sotto un os dx9? ovviamente no. una cosa i giochi ancora non ci sono ma l'os si. che poi xp sia ancora diffusissimo è un'altro discorso.
Ciao raga il mio monitor e vecchio , un CTR 17p il prob e che quando avvio il sistema o un game il monitor si accenede e spegne in continuazione. Nn c e' forse qualche settaggio da fare nel CCC.
leoneazzurro
27-06-2007, 08:23
Ma con fp16, siamo sempre 16 vs 32.. ;)
Ok, che R600 gira a 740mhz, mentre G80 a 612.. però non basta ancora, il gap è cmq di un buon 40%..
Maggiore l'area, ma come transistor count saremmo lì lì (anche considerando il caso peggiore).
Si, infatti comunque c'è un deficit teorico rispetto a G80. Però è un deficit che si ridurrà via via che si aumenterà la precisione di calcolo e la lunghezza degli shader. E ancora si, R600 è molto proiettata verso il futuro. Come ho detto altre volte, la vedo molto come un test per le future architetture.
Si, il transistor count è praticamente uguale, ed è più o meno lì che volevo arrivare, solo che nello stesso transistor count ci sono andati anche 64x5 unità di calcolo e una unità di tessellazione in più, nonchè qualche ALU e qualche TU in meno. Considerato anche il "mostruoso" ring bus, questo potrebbe fare sperare bene per il futuro in termini di scalabilità in termini di "ALU e TU per transistor", tenendo ferma l'ampiezza del ring bus.
A proposito, ho letto che qualcuno si chiedeva se arriveremo presto a chip da oltre 1 miliardo di transistors, ebbene già l'anno scorso, dopo l'acquisizione, AMD dichiarava di avere già in sviluppo un chip da oltre un miliardo di transistors. Chissà quale potrebbe essere? ;)
una scheda dx10 dove la vuoi provare sotto un os dx9? ovviamente no. una cosa i giochi ancora non ci sono ma l'os si. che poi xp sia ancora diffusissimo è un'altro discorso.
hal, lo sai meglio di tutti che questo non sono schede dx10 a tutti gli effetti ma degli ibridi, anche se le due aziende si ostinano a spingere su questo fatto.
La maggior parte dei giocatori ha ancora winxp, e solo quando usciranno dei veri giochi dx10 e avremo bisogno di vista. Main quel momento R600 e g80 saranno roba vecchia...
Io rilancio (all in !!!) e dico che una recensione "impeccabile" testa la scheda sia su vista che su xp :D
Chissà quale potrebbe essere? ;)
R700 :O
gianni1879
27-06-2007, 08:56
una scheda dx10 dove la vuoi provare sotto un os dx9? ovviamente no. una cosa i giochi ancora non ci sono ma l'os si. che poi xp sia ancora diffusissimo è un'altro discorso.
è proprio questo il motivo, la diffusione di xp, molti siti hanno testato le vga su entrambi i sistemi operativi... non capisco perchè non lo fanno quì da noi.. boh
è proprio questo il motivo, la diffusione di xp, molti siti hanno testato le vga su entrambi i sistemi operativi... non capisco perchè non lo fanno quì da noi.. boh
Vedendo i risultati sotto XP io sarei decisamente ottimista... è chiaro che prima o poi la neonata ati raggiungerà il medesimo ottimo livello di performance di XP anche sotto Vista (la differenza tra i 2 s.o. con gli stessi giochi è chiaramente una cosa di driver)... per cui può solo migliorare... ;)
gianni1879
27-06-2007, 09:09
Vedendo i risultati sotto XP io sarei decisamente ottimista... è chiaro che prima o poi la neonata ati raggiungerà il medesimo ottimo livello di performance di XP anche sotto Vista (la differenza tra i 2 s.o. con gli stessi giochi è chiaramente una cosa di driver)... per cui può solo migliorare... ;)
quello senza dubbio ;)
però vedere la situazione attuale sotto XP sarebbe stato ottimo, almeno in questa maniera molti utenti che non si fidavano di altre rece di altri siti potevano toccare con mano, le performance e si rendevano conto un pò meglio delle reali potenzialità :)
Vedendo i risultati sotto XP io sarei decisamente ottimista... è chiaro che prima o poi la neonata ati raggiungerà il medesimo ottimo livello di performance di XP anche sotto Vista (la differenza tra i 2 s.o. con gli stessi giochi è chiaramente una cosa di driver)... per cui può solo migliorare... ;)
io lo dissi da subito al momento dell'uscita, che sotto xp questa scheda aveva tutt'altro passo rispetto a win vista,difatti alcuni siti online, che la recensirono, uno tra tutti Dinox Pc diedero un parere tutto sommato positovo alla hd 2900xt....
io lo dissi da subito al momento dell'uscita, che sotto xp questa scheda aveva tutt'altro passo rispetto a win vista,difatti alcuni siti online, che la recensirono, uno tra tutti Dinox Pc diedero un parere tutto sommato positovo alla hd 2900xt....
guarda quasti tutti i siti dettero un parere positivo sulla hd2900xt nessuno che ne sconsigliasse l'acquisto il fatto è che poi ovviamente dovevano per forza dire a parità di prezzo con la gts consuma e scalda + della gtx.
quando recensisci un componente hw ovviamente non puoi esimerti dal dire i pregi e i difetti dell'hw.
JoeLatino
27-06-2007, 10:04
ragazzi ho due notizie :
una per AMD (recensione 2900xt 1gb);)
http://hardware.gotfrag.com/portal/story/38332/?spage=1
e l'altra per gli Nvidiosi: sono usciti nuovi drivers che aumentano ancora le performance...:D
cosi' non sono di parte.....;)
Kharonte85
27-06-2007, 10:24
ragazzi ho due notizie :
una per AMD (recensione 2900xt 1gb);)
http://hardware.gotfrag.com/portal/story/38332/?spage=1
Una scheda inutile...
http://hardware.gotfrag.com/files/upload/shoes_r6001gb_hl2ep1.jpg
http://hardware.gotfrag.com/files/upload/shoes_r6001gb_coh.jpg
http://hardware.gotfrag.com/files/upload/shoes_r6001gb_oblivion.jpg
http://hardware.gotfrag.com/files/upload/shoes_r6001gb_fear.jpg
Non ho capito perche' c'è una 2900xtx :mbe:
e l'altra per gli Nvidiosi: sono usciti nuovi drivers che aumentano ancora le performance...:D
In che senso? Sono usciti driver nvidia che migliorano le prestazioni?
-Feanor-
27-06-2007, 10:26
Una scheda inutile...
Non ho capito perche' c'è una 2900xtx :mbe:
In che senso? Sono usciti driver nvidia che migliorano le prestazioni?
beh è alquanto evidente che i driver non danno una mano...soprattutto in crossfire dove spesso si hanno risultati identici rispetto alla scheda singola..quella della 2900xtx non l'ho capita nemmeno io....:confused:
ale0bello0pr
27-06-2007, 10:32
Una scheda inutile...
Non ho capito perche' c'è una 2900xtx :mbe:
In che senso? Sono usciti driver nvidia che migliorano le prestazioni?
Appunto c'è una XTX...e altre incongruenze, mi sa di fake
Sembrano gli stessi grafici di Crysis come fatti :mbe:
JoeLatino
27-06-2007, 10:46
Una scheda inutile...
In che senso? Sono usciti driver nvidia che migliorano le prestazioni?
effettivamente anche se le prestazioni sono leggermente migliori della versione a 512mb,sono sempre inferiori a quelle delle 8800gtx
Nvidia ha appena rilasciato i 162.15 per tutti i sistemi e sotto vista e' migliorato abbastanza,anche se a brevissimo e' prevista una versione rivista poiche' ha un problema con un gioco dx10 (mi sembra lost of planet)
JoeLatino
27-06-2007, 10:48
la xtx da quello che ho capito era una versione preliminare oem...
magari la XTX è semplicemente una XT cloccata come (si presume) sia una XTX ;)
gianni1879
27-06-2007, 10:49
Appunto c'è una XTX...e altre incongruenze, mi sa di fake
Sembrano gli stessi grafici di Crysis come fatti :mbe:
ma infatti sta XTX da dove è uscita fuori???
Iantikas
27-06-2007, 10:50
Appunto c'è una XTX...e altre incongruenze, mi sa di fake
Sembrano gli stessi grafici di Crysis come fatti :mbe:
se leggete l'articolo c'è spiegato cosa intendono x HD2900XTX...è una delle XTX lunga 12.5 pollici ke giravano prima della presentazione ufficiale d R600 e ke poi nn vennero + immesse sul mercato...
...cmq alla fine un miglioramento prestazionale dai 1600x1200 in su con la Diamond c'è quasi sempre...xò nn'è tale da giustificare una differenza cosìelevata d prezzo...se dovessi x forza aquistare una skeda video (xkè se nn si è costretti ora + ke mai convinee aspettare) e costasse giusto 50€ in + rispetto alla 512mb un pensierino ce lo farei...ciao
p.s. nn credo proprio sia un fake
Scrambler77
27-06-2007, 10:55
p.s. nn credo proprio sia un fake
Quoto. ;)
Kharonte85
27-06-2007, 11:00
se leggete l'articolo c'è spiegato cosa intendono x HD2900XTX...è una delle XTX lunga 12.5 pollici ke giravano prima della presentazione ufficiale d R600 e ke poi nn vennero + immesse sul mercato...
Vabbe' allora è la versione OEM della xt 512mb ;)
...cmq alla fine un miglioramento prestazionale dai 1600x1200 in su con la Diamond c'è quasi sempre...xò nn'è tale da giustificare una differenza cosìelevata d prezzo...se dovessi x forza aquistare una skeda video (xkè se nn si è costretti ora + ke mai convinee aspettare) e costasse giusto 50€ in + rispetto alla 512mb un pensierino ce lo farei...ciao
Imho era meglio se non la facevano uscire proprio...oppure la facevano uscire a 65nm...ma cosi' è davvero inutile perche' il rapporto prezzo/prestazioni la esclude automaticamente (visto che la 2900xt 512mb va quasi = )
Questa recensione fa capire il motivo per cui il progetto xtx è stato abbandonato.
Troppi costi in più per degli incrementi prestazionali abbastanza contenuti.
Oltretutto si sarebbe chiamata XTX e avrebbe presupposto un confronto con la GTX che, come si può vedere, perde.
Mi sono sfuggite le informazioni sui consumi e il calore, che si dice?
Nvidia ha appena rilasciato i 162.15 per tutti i sistemi e sotto vista e' migliorato abbastanza,anche se a brevissimo e' prevista una versione rivista poiche' ha un problema con un gioco dx10 (mi sembra lost of planet)
stiamo andando un po ot...no?
gianni1879
27-06-2007, 12:07
una cosuccia sulla baia si trovano a 280euro circa vers. 512 mb ;)
-Feanor-
27-06-2007, 12:55
per ricollegarci al discorso dell altro giorno du dx10 e AA ...qui c'è qualcosa... http://www.bit-tech.net/bits/2007/06/26/roy_taylor_interview_twimtbp_dx10/1 ....è di ieri...
Tony and David are right, there are API reductions, massive AA is ‘almost free’ with DX10 :sperem:
Kharonte85
27-06-2007, 16:49
per ricollegarci al discorso dell altro giorno du dx10 e AA ...qui c'è qualcosa... http://www.bit-tech.net/bits/2007/06/26/roy_taylor_interview_twimtbp_dx10/1 ....è di ieri...
Tony and David are right, there are API reductions, massive AA is ‘almost free’ with DX10 :sperem:
L'avevo gia' letto, molto interessante...speriamo che sia vero...
ragazzi ma come mai call of juarez mi dice che non ho la compatibilità sulle dx10 avendo sia vista 32bit che la hd2900xt?
grazie
ma ha voi con gli ultimi driver, i 7.6 (8.383) durante ogni tipo di refresh (ovviamente nn sempre) vi capitano diversi artefatti. vi posto una immagine per farvi capire cosa succede ha me:
http://img125.imageshack.us/img125/4784/immaginepz0.th.jpg (http://img125.imageshack.us/my.php?image=immaginepz0.jpg)
Edit: io però nn ho occato la SV, mi sembra come quando l'avevo fatto con la 6800gt.
ho installato l' ATITool, e mi rileva dei velori stani:
core:739.13
ram: 819.00
ma la ram nn doveva essere 825, e il core 745?
ragazzi ma come mai call of juarez mi dice che non ho la compatibilità sulle dx10 avendo sia vista 32bit che la hd2900xt?
grazie
questa mi piace :eek: cmq nn saprei
Iantikas
27-06-2007, 20:08
ragazzi ma come mai call of juarez mi dice che non ho la compatibilità sulle dx10 avendo sia vista 32bit che la hd2900xt?
grazie
i driver son i 7.5/7.6???...magari se stai usando ancora quelli beta è colpa loro oppure nel caso hai già i + recenti magari è qualke file sballato nelle DX (prova a reinstallarle)...ciao
Y2J Lionheart
27-06-2007, 21:02
A me quessti 7.6 paiono una porcheria...
Prima con i 7.5 il bug della nebbia lo vedevo solo in HL2 adesso in qualsiasi gioco (tranne stalker)
A me quessti 7.6 paiono una porcheria...
Prima con i 7.5 il bug della nebbia lo vedevo solo in HL2 adesso in qualsiasi gioco (tranne stalker)
segnalalo sul sito dell'ati....almeno hanno del materiale su cui lavorare...e riflettere!
ma allora sta rece su hwup arriva o dobbiamo aspettare r700 ?:D
ma allora sta rece su hwup arriva o dobbiamo aspettare r700 ?:D
credo che in ogni caso sia meglio aspettare driver decenti. tando devono rifarla, quindi che aspettino crysis, almeno spero che per quella data ci siano driver maturi e funzionanti, così poi possono anche fare il confronto tra le due architetture, e vedere quale è la migliore.
i driver son i 7.5/7.6???...magari se stai usando ancora quelli beta è colpa loro oppure nel caso hai già i + recenti magari è qualke file sballato nelle DX (prova a reinstallarle)...ciao
sono i 7.6...ma vista non integra già le dx10, boh!!??
Ecco la schermata:
http://img168.imageshack.us/img168/1347/cjsj3.th.jpg (http://img168.imageshack.us/my.php?image=cjsj3.jpg)
+Lonewolf+
27-06-2007, 23:02
sono i 7.6...ma vista non integra già le dx10, boh!!??
Ecco la schermata:
http://img168.imageshack.us/img168/1347/cjsj3.th.jpg (http://img168.imageshack.us/my.php?image=cjsj3.jpg)
scusa ma come hai fatto a installare la patch dx10 per coj? io c sto provando da giorni...mi spieghi quali patch hai applicato xkè a me dice che nn sn compatibili tra loro
Iantikas
27-06-2007, 23:42
sono i 7.6...ma vista non integra già le dx10, boh!!??
Ecco la schermata:
http://img168.imageshack.us/img168/1347/cjsj3.th.jpg (http://img168.imageshack.us/my.php?image=cjsj3.jpg)
si ma magari ti si è sballato qualke file o il bench ke devi far partire rikiede un aggiornamento di qualke dll...prova a reinstalare il pakketto completo ke trovi sul sito microsoft...probabimente nn serve a niente ma magari capita la botta d (_Y_) e s risolve :D ...ciao
Free Gordon
28-06-2007, 00:05
Chissà quale potrebbe essere? ;)
:D
Free Gordon
28-06-2007, 00:07
Io rilancio (all in !!!) e dico che una recensione "impeccabile" testa la scheda sia su vista che su xp :D
Avendo tempo, sono daccordo.. :D
Iantikas
28-06-2007, 00:21
beh cmq nell'utilma rece della 8800 Ultra c son anke i nuovi bench della hd2900xt con i 7.5 (e i 7.6 x stessa ammissione di ATI nn portano alcun miglioramento prestazionale se nn in HL2 con HDR abilitato e con sistemi CF, quindi un miglioramento ben lontano dall'essere utile su larga scala)...ciao
p.s.: secondo me una nuova rece sarà utile solo all'uscita d nuovi titoli d rilievo (crysis, bioshock, CoD 4, Alan Wake etc) e/o all'uscita d nuovi driver ke dikiarino svariati e sensibili miglioramenti prestazionali
Kurtferro
28-06-2007, 03:08
La ATI si è sempre dimostrata incompetente a lv di driver, peccato xchè sicuramente questa scheda ha delle potenzialità non sfruttate, oltre un ritardo di mesi per l'uscita ora si deve attendere altri mesi per vederla funzionare bene, ma questa a mio avviso non è una novità e magari vi farà riflettere sul prossimo acquisto (come fù tempo fà per me).
La ATI si è sempre dimostrata incompetente a lv di driver
certo come no... :mc: peccato che guarda un po' è l'unica che si fa certificare whql i driver ogni mese.... :rolleyes:
peccato xchè sicuramente questa scheda ha delle potenzialità non sfruttate, oltre un ritardo di mesi per l'uscita ora si deve attendere altri mesi per vederla funzionare bene, ma questa a mio avviso non è una novità e magari vi farà riflettere sul prossimo acquisto (come fù tempo fà per me).
Beh, non ci voleva molto a capire la tua idea.... :sofico:
bella la scheda video che hai in firma! :read:
Ciao raga magari qualcuno gentilmente potrebbe rispondermi))) SmartDoctor a voi vi funziona.? Leggendo il manuale dovrebbe monitore le temp la fanspeed e altre cosette interessanti hA ME nn viene neache il tasto per le impostazioni messo in basso a destra. Forse ho sbagliato thread :mbe:
certo come no... :mc: peccato che guarda un po' è l'unica che si fa certificare whql i driver ogni mese.... :rolleyes:
Beh, non ci voleva molto a capire la tua idea.... :sofico:
bella la scheda video che hai in firma! :read:
A che serve la certificazione whql se poi i driver non aumentano le prestazioni e non risolvono i bug :wtf:
A questo punto non è meglio un driver beta no whql che migliora appunto prestazioni e risolve bug?
Ciao raga magari qualcuno gentilmente potrebbe rispondermi))) SmartDoctor a voi vi funziona.? Leggendo il manuale dovrebbe monitore le temp la fanspeed e altre cosette interessanti hA ME nn viene neache il tasto per le impostazioni messo in basso a destra. Forse ho sbagliato thread :mbe:
UP
Scrambler77
28-06-2007, 09:18
Avendo tempo, sono daccordo.. :D
Non ci sono grosse novità in vista fino a dopo l'estate... di tempo ne hanno in abbondanza. ;)
A che serve la certificazione whql se poi i driver non aumentano le prestazioni e non risolvono i bug :wtf:
A questo punto non è meglio un driver beta no whql che migliora appunto prestazioni e risolve bug?
Quoto, ma lascia perdere le provocazioni...
loperloper
28-06-2007, 09:27
La ATI si è sempre dimostrata incompetente a lv di driver, peccato xchè sicuramente questa scheda ha delle potenzialità non sfruttate, oltre un ritardo di mesi per l'uscita ora si deve attendere altri mesi per vederla funzionare bene, ma questa a mio avviso non è una novità e magari vi farà riflettere sul prossimo acquisto (come fù tempo fà per me).
quoto
certo come no... :mc: peccato che guarda un po' è l'unica che si fa certificare whql i driver ogni mese.... :rolleyes:
Beh, non ci voleva molto a capire la tua idea.... :sofico:
bella la scheda video che hai in firma! :read:
il fatto che i driver vengano certificati ogni mese non è sinonimo di qualità professionale, se questi(i driver) non risolvono nulla puoi pubblicarli tutti i giorni ma il livello rimane sempre lo stesso....
ma lascia perdere le provocazioni...
avvertimento che quoto e rivolgo a tutti.
Quoto, ma lascia perdere le provocazioni...
La mia non era assolutamente una provocazione, ti prego di non mettermi in cattiva luce :oink:
Scrambler77
28-06-2007, 10:25
La mia non era assolutamente una provocazione, ti prego di non mettermi in cattiva luce :oink:
No infatti non mi riferivo a te, ti ho anche quotato... e nn ho l'abitudine di voler mettere in "cattiva luce" gli utenti, anzi.
scusatemi sapreste dirmi quando saranno disponibili le schede ati di fascia media ?!? In particolare la X2600xt.
Sarei interessato a quest'ultima scheda e volevo sapere quanto verrà a costare. Ed inoltre se come rapporto qualità/prezzo è buona.
Rispetto ad una ati x1800xt che livello prestazionale avrei ?!? Un incremento o decremento ?!?
Grazie.
scusatemi sapreste dirmi quando saranno disponibili le schede ati di fascia media ?!? In particolare la X2600xt.
Sarei interessato a quest'ultima scheda e volevo sapere quanto verrà a costare. Ed inoltre se come rapporto qualità/prezzo è buona.
Rispetto ad una ati x1800xt che livello prestazionale avrei ?!? Un incremento o decremento ?!?
Grazie.
io dico decremento..
bYeZ!
Kharonte85
28-06-2007, 10:37
io dico decremento..
bYeZ!
Quoto
No infatti non mi riferivo a te, ti ho anche quotato... e nn ho l'abitudine di voler mettere in "cattiva luce" gli utenti, anzi.
:mano:
scusatemi sapreste dirmi quando saranno disponibili le schede ati di fascia media ?!? In particolare la X2600xt.
Sarei interessato a quest'ultima scheda e volevo sapere quanto verrà a costare. Ed inoltre se come rapporto qualità/prezzo è buona.
Rispetto ad una ati x1800xt che livello prestazionale avrei ?!? Un incremento o decremento ?!?
Grazie.
Saranno li e lì secondo me.
Però non costerà tanto meno della 2900... e come prestazioni sarà presumibilmente molto inferiore all'ammiraglia. Se proprio devi comprare una nuova vga, prendi la 2900.
halduemilauno
28-06-2007, 10:40
scusatemi sapreste dirmi quando saranno disponibili le schede ati di fascia media ?!? In particolare la X2600xt.
Sarei interessato a quest'ultima scheda e volevo sapere quanto verrà a costare. Ed inoltre se come rapporto qualità/prezzo è buona.
Rispetto ad una ati x1800xt che livello prestazionale avrei ?!? Un incremento o decremento ?!?
Grazie.
http://www.hwupgrade.it/articoli/skvideo/1755/index.html
http://www.hothardware.com/Articles/ATI_Radeon_HD_2600_and_2400_Performance/
http://firingsquad.com/hardware/radeon_hd_2600_performance_preview/
;)
Ok :(
Decremento elevato ?!?
Per tornare ai livelli della x1800xt dovrei orientarmi sulla x2900xt oppure su quali altri schede ?!?
http://www.hwupgrade.it/articoli/skvideo/1755/index.html
http://www.hothardware.com/Articles/ATI_Radeon_HD_2600_and_2400_Performance/
http://firingsquad.com/hardware/radeon_hd_2600_performance_preview/
;)
ho letto l'articolo di hwupgrade però non c'è il paragone con la x1800xt.
Scrambler77
28-06-2007, 10:45
http://www.hwupgrade.it/articoli/skvideo/1755/index.html
http://www.hothardware.com/Articles/ATI_Radeon_HD_2600_and_2400_Performance/
http://firingsquad.com/hardware/radeon_hd_2600_performance_preview/
;)
Quest'uomo è un'enciclopedia vivente! :asd:
loperloper
28-06-2007, 10:47
Ok :(
Decremento elevato ?!?
Per tornare ai livelli della x1800xt dovrei orientarmi sulla x2900xt oppure su quali altri schede ?!?
dipende da un po di cose:
1. dal tuo budget;
2. se devi giocare a risoluzioni elevate;
3. se di solito attivi i filtri.
se le risposte sono:
1. alto
2. si
3. si
allora punta su una 2900xt ;)
ps: ovvio che non c'è la x1800xt nei confronti! ormai non li fanno manco più con le 7900gtx ;)
halduemilauno
28-06-2007, 10:51
ho letto l'articolo di hwupgrade però non c'è il paragone con la x1800xt.
non c'è(perchè vecchia) ma te ne ho postate tre proprio per farti vedere un più ampio scenario di schede possibili.
Quest'uomo è un'enciclopedia vivente! :asd:
;)
ho letto l'articolo di hwupgrade però non c'è il paragone con la x1800xt.
Ti consiglio di postare nella sezione consigli per gli acquisti per non "sporcare" troppo il thread :O
certo come no... :mc: peccato che guarda un po' è l'unica che si fa certificare whql i driver ogni mese.... :rolleyes:
Beh, non ci voleva molto a capire la tua idea.... :sofico:
bella la scheda video che hai in firma! :read:
Cerchiamo di stare un po' tutti calmi e non provocarci a vicenda (dico a tutti).
Zodd_Il_nosferatu
28-06-2007, 12:12
NUOVO HOTFIX DRIVER V: 8.39.5
http://support.ati.com/ics/support/d...estionID=28188
+Lonewolf+
28-06-2007, 12:29
http://support.ati.com/ics/support/default.asp?deptID=894
:D:D:D:D
LP;) buon segno...ci stanno lavorando
per chi si interessasse degli hotfix posto la pag xosì controllate + rapidamente
http://support.ati.com/ics/support/default.asp?deptID=894
+Lonewolf+
28-06-2007, 12:32
scusate ma l'hotfix si installa senza disinstallare i vekki e nn necessita di riavvio, confermate?
Zodd_Il_nosferatu
28-06-2007, 12:41
hai linkato male..
http://support.ati.com/ics/support/default.asp?deptID=894&tld=&task=knowledge&questionID=28188
ecco il link giusto
Zodd_Il_nosferatu
28-06-2007, 12:42
scusate ma l'hotfix si installa senza disinstallare i vekki e nn necessita di riavvio, confermate?
sbagliato...
sono dei driver completamente nuovi :D
TecnoWorld8
28-06-2007, 12:47
la cosa incredibile è che ancora oggi, dopo mesi che è stato segnalato da molti utenti, non abbiano implementato il triple buffering nelle risoluzioni wide, per i giochi basati sull'engine di Doom 3...
non ho molta fiducia nel supporto tecnico di ATi, a dire il vero...forse ora per HD2900XT faranno uno strappo alla regola, perchè è un prodotto cruciale. vedremo...
ma a ke release dei driver vedremo sta skeda video andare decentemente? ai 7.4 si diceva i 7.5, ai 7.5 si diceva 7.6, ora ci spostiamo a 7.7 7.8 o 7.20000, sono stufo di aspettare, o magari non centrano nulla i driver ma la skeda ke è veramente indietro rispetto a nvidia?
Zodd_Il_nosferatu
28-06-2007, 13:07
ma a ke release dei driver vedremo sta skeda video andare decentemente? ai 7.4 si diceva i 7.5, ai 7.5 si diceva 7.6, ora ci spostiamo a 7.7 7.8 o 7.20000, sono stufo di aspettare, o magari non centrano nulla i driver ma la skeda ke è veramente indietro rispetto a nvidia?
prova i driver che ho postato.... dovrebbero essere i 7.7 beta
Free Gordon
28-06-2007, 13:10
ma come tu sai tutto:D
dai, almeno assottigliarla? anzi, spigami il funzionamento del ring bu e poi traiamo una conclusione(seriamente)
Io non so una mazza. :D Io leggo B3D, parlo con Yoss (quando c'è... :D ), Leone, fek ecc.. e da questo, studiando, mi faccio un'idea.
La differenza che passa tra il ringbus e il crossbar, è più o meno come quella che passa tra il semaforo e la rotatoria (con più corsie)! :D
Il ringbus è la rotatoria. :D Il flusso scorre più omogeneo e le richieste dei vari "consumers" possono essere gestite in modo molto più fluido, a patto che la precedenza sia data in modo giusto. Sta lì il grosso del problema driver, oltre che nello scheduling delle operazioni dal dispatch processor.
+Lonewolf+
28-06-2007, 13:11
prova i driver che ho postato.... dovrebbero essere i 7.7 beta
ma sono solo per XP?
Zodd_Il_nosferatu
28-06-2007, 13:15
ma sono solo per XP?
se cercate bene dovrebbero esserci anche per vista... però io nn li ho visti (non ho cercato)
:mano:
Saranno li e lì secondo me.
Però non costerà tanto meno della 2900... e come prestazioni sarà presumibilmente molto inferiore all'ammiraglia. Se proprio devi comprare una nuova vga, prendi la 2900.
la 2600xt con gddr3 costa 140 euro, la 2600xt con gddr4 170 euro
e la 2600xt va un 20% in meno della x1950pro...quindi è un economico sostituto della x1800 per avere le dx10 ma restando su basse risoluzioni. se si va più su interviene il collo di bottiglia dato dal bus che sulla 2600 è, ironicamente, un po più piccolo di quello delle x1800....
+Lonewolf+
28-06-2007, 13:20
http://www.driverheaven.net/vista-radeon-display-drivers/140241-windows-vista-8-39-5-pre-7-7-released.html
CATALYST 7.7 beta for windoows Vista:D
ma a ke release dei driver vedremo sta skeda video andare decentemente? ai 7.4 si diceva i 7.5, ai 7.5 si diceva 7.6, ora ci spostiamo a 7.7 7.8 o 7.20000, sono stufo di aspettare, o magari non centrano nulla i driver ma la skeda ke è veramente indietro rispetto a nvidia?
non capisco dove tu vedi che la 2900xt è veramente indietro alla nvidia...mah... una scheda da 280 euro che performa quasi come la gtx sotto xp e tra la gts e la gtx sotto vista mi sembra una scheda "must buy"... Almeno questa ha dei driver VERAMENTE DX10: fa girare la global illumination e il test npatch dello SDK delle dx10, mentre tutta la serie 8000 di nvidia non ne vuol sapere....
Zodd_Il_nosferatu
28-06-2007, 13:21
http://www.driverheaven.net/vista-radeon-display-drivers/140241-windows-vista-8-39-5-pre-7-7-released.html
CATALYST 7.7 beta for windoows Vista:D
che alla fine so li stessi che ho postato io solo che per vista :D
+Lonewolf+
28-06-2007, 13:22
che alla fine so li stessi che ho postato io solo che per vista :D
esatto:D ma sono solo x 32 bit?
uff nn c capisco nnt cn qsti hotfix...chi mi illumina?
Zodd_Il_nosferatu
28-06-2007, 13:24
esatto:D ma sono solo x 32 bit?
uff nn c capisco nnt cn qsti hotfix...chi mi illumina?
mi sa che sono solo per 32bit... almeno si capisce così dal sito di driverheaven...
per quelli a 64bit devi aspettare un altro po... (So Vista X64 users have to wait a tad bit more for these hotfixed drivers?)
DakmorNoland
28-06-2007, 13:24
la 2600xt con gddr3 costa 140 euro, la 2600xt con gddr4 170 euro
e la 2600xt va un 20% in meno della x1950pro...quindi è un economico sostituto della x1800 per avere le dx10 ma restando su basse risoluzioni. se si va più su interviene il collo di bottiglia dato dal bus che sulla 2600 è, ironicamente, un po più piccolo di quello delle x1800....
Guarda che la x1800xt va un pò + della x1950pro, anche se forse la 1950 è migliorata con gli ultimi driver, ma di sicuro non ha superato la 1800xt nei giochi. Direi che la 1950pro è all'altezza della x1800xl o della 7900GT.
+Lonewolf+
28-06-2007, 13:25
mi sa che sono solo per 32bit... almeno si capisce così dal sito di driverheaven...
per quelli a 64bit devi aspettare un altro po... (So Vista X64 users have to wait a tad bit more for these hotfixed drivers?)
si xò che palle...siamo sempre gli ultimi noi 64ini:D
Free Gordon
28-06-2007, 13:33
:mano:
Saranno li e lì secondo me.
Però non costerà tanto meno della 2900... e come prestazioni sarà presumibilmente molto inferiore all'ammiraglia. Se proprio devi comprare una nuova vga, prendi la 2900.
La 1800XT, in molti giochi va come o più (causa anche clock più alto) di una 1950PRO. ;)
Ergo, la 2600XT è decisamente sotto. ;)
Y2J Lionheart
28-06-2007, 13:33
si xò che palle...siamo sempre gli ultimi noi 64ini:D
Però nella pagina c'è scritto anche vista x64...
Non saprei..
ma sono driver completamente nuovi? devo disinstalare prima i 7.6?
+Lonewolf+
28-06-2007, 13:39
Però nella pagina c'è scritto anche vista x64...
Non saprei..
ma sono driver completamente nuovi? devo disinstalare prima i 7.6?
no sono solo 32...risolvono parecchi bug dicono
Guarda che la x1800xt va un pò + della x1950pro, anche se forse la 1950 è migliorata con gli ultimi driver, ma di sicuro non ha superato la 1800xt nei giochi. Direi che la 1950pro è all'altezza della x1800xl o della 7900GT.
si ma con i giochi pieni di shaders come si comporta?
+Lonewolf+
28-06-2007, 13:40
ho testato shadowrun...
Frames, Time (ms), Min, Max, Avg
11605, 174621, 42, 89, 68.458
tutto al max coi fitri
Y2J Lionheart
28-06-2007, 13:45
no sono solo 32...risolvono parecchi bug dicono
peccato. è vero siamo sempre gli ultimi :asd:
gianni1879
28-06-2007, 14:03
ragazzi ma i 7.7 beta da dove si scaricano???
per XP
Zodd_Il_nosferatu
28-06-2007, 14:27
http://support.ati.com/ics/support/default.asp?deptID=894&tld=&task=knowledge&questionID=28188
ecco il link giusto
:)
Scusate ma ci sono già i 7.7 beta ?!?!?
non capisco dove tu vedi che la 2900xt è veramente indietro alla nvidia...mah... una scheda da 280 euro che performa quasi come la gtx sotto xp e tra la gts e la gtx sotto vista mi sembra una scheda "must buy"... Almeno questa ha dei driver VERAMENTE DX10: fa girare la global illumination e il test npatch dello SDK delle dx10, mentre tutta la serie 8000 di nvidia non ne vuol sapere....
ehm costa 360 non 280 e non è quasi come la gtx sotto xp
+Lonewolf+
28-06-2007, 14:36
ehm costa 360 non 280 e non è quasi come la gtx sotto xp
si trova anche a 280 xò la devi acquistare via internet e nn in italia
hai ragione nn è quasi come la gtx sotto xp...in alcuni casi è addirittura superiore,specialmente nei titoli con shader lunghi e UE3, che nn sono pochi, mano a mano saranno sempre d + vedrai
ciao
si trova anche a 280 xò la devi acquistare via internet e nn in italia
hai ragione nn è quasi come la gtx sotto xp...in alcuni casi è addirittura superiore,specialmente nei titoli con shader lunghi e UE3, che nn sono pochi, mano a mano saranno sempre d + vedrai
ciao
io le recensioni lette fino ad ora fra quelle attendibili era sempre sotto e non di poco in moltissimi casi, poi boh se te dici ke è sopra allora è vero
si trova anche a 280 xò la devi acquistare via internet e nn in italia
hai ragione nn è quasi come la gtx sotto xp...in alcuni casi è addirittura superiore,specialmente nei titoli con shader lunghi e UE3, che nn sono pochi, mano a mano saranno sempre d + vedrai
ciao
.....
evitando i commenti sul fatto che la 2900 è addirittura superiore alla 8800GTX in alcuni test...(1 su 100 forse cmq..)
realse di driver ne sono uscite ben 2 7.6 e 7.7 beta com'è vi è migliorata sta 2900? mi rivolgo a te perchè sono sempre ben pronto a effetturare bench 2900XT Vs. my 8800GTS quando volete;)
+Lonewolf+
28-06-2007, 14:58
.....
evitando i commenti sul fatto che la 2900 è addirittura superiore alla 8800GTX in alcuni test...(1 su 100 forse cmq..)
realse di driver ne sono uscite ben 2 7.6 e 7.7 beta com'è vi è migliorata sta 2900? mi rivolgo a te perchè sono sempre ben pronto a effetturare bench 2900XT Vs. my 8800GTS quando volete;)
non sono 1 su 100 ma in determinati test con caratteristiche grafiche nextgen;) e dovresti saperlo anche tu:rolleyes:
io fear per effettuare il test devo comprarlo...se hai un'alternativa...:)
cmq la scheda è in miglioramento e cqui nessuno si aspettava che in 1 relase(i 7.7 sono solo beta e hotfix quindi nn li calcolerei) migliorasse al massimo, ci vuole tempo;)
cmq sono scesi i c° in idle e le prestazioni OPEN GL e source sono aumentate, manca l'ottimizzazione scheduling e il ring bus, così possiamo divertirci ad usare i filtri al max senza perdere un botto come succede adesso;) e li poi vediamo le prestazioni:) ci vuole un po'...cmq sempre disponibile se cambi game, e scegline 1 (se è possibile,) senza marchio TWIMTBP così stiamo su terreno neutro;)
company of heroes?
TecnoWorld8
28-06-2007, 14:59
si ma con i giochi pieni di shaders come si comporta?
purtroppo il limite della mia scheda sono proprio i giochi con tantissimi shaders. colin dirt è praticamente ingiocabile a qualunque risoluzione, per esempio. però come fill rate e banda della memoria ha ancora moltissimo da dire...peccato che ormai gli unici giochi in cui questi parametri contano davvero siano quelli basati sul source engine e - forse - sull'engine di Doom 3 (vedremo come gira Quake Wars).
TecnoWorld8
28-06-2007, 15:02
si trova anche a 280 xò la devi acquistare via internet e nn in italia
diciamo che però sono 280€ + almeno 35€ di spedizione e + probabile dogana...diciamo che se si è fortunati si paga 315€, se invece si paga la dogana (Come dovrebbe essere, dato che è fuori UE) si arriverebbe a circa 350-360€, cioè il prezzo che si trova qui.
Costasse davvero 280€ finita ORA in Italia, allora sarebbe il suo prezzo giusto.
La 1800XT, in molti giochi va come o più (causa anche clock più alto) di una 1950PRO. ;)
Ergo, la 2600XT è decisamente sotto. ;)
Dopo aver visto la rece su hwupgrade mi sono dovuto ricredere. Hai ragione, la x2600xt non è abbastanza potente per le dx10, che sono l'unica cosa in più che ha rispetto alle vecchie ATI. A questo punto, restando in dx9, conviene nettamente di più la x1950pro che costa addirittura di meno...
company of heroes?
Secondo me questo è il test che tutti dovete fare, per questi semplici motivi:
1) il gioco è stupendo, vale la pena spendere i soldi (e ve lo dice un genovese d.o.c.)
2) test già presente nel menù del gioco. Per avviarlo basta premere un tasto.
3) E' stata rilasciata una patch ufficiale DX10.
4) E' un test neutrale. Cosa rara di questi tempi.
:)
+Lonewolf+
28-06-2007, 15:13
Secondo me questo è il test che tutti dovete fare, per questi semplici motivi:
1) il gioco è stupendo, vale la pena spendere i soldi (e ve lo dice un genovese d.o.c.)
2) test già presente nel menù del gioco. Per avviarlo basta premere un tasto.
3) E' stata rilasciata una patch ufficiale DX10.
4) E' un test neutrale. Cosa rara di questi tempi.
:)
è cmq THIMTBP xò l'hanno truccato poco sta volta :asd:
i test THIMTBP vanno fatti anke, xè i giochi se sono così sono così, non c'è nulla da dire purtroppo
+Lonewolf+
28-06-2007, 15:37
i test THIMTBP vanno fatti anke, xè i giochi se sono così sono così, non c'è nulla da dire purtroppo
certo, io li faccio...anche se so truccati;)
ci sarebbe da dire fino a domani guarda sullo schifo del TWIMTBP:rolleyes:
Secondo me questo è il test che tutti dovete fare, per questi semplici motivi:
1) il gioco è stupendo, vale la pena spendere i soldi (e ve lo dice un genovese d.o.c.)
2) test già presente nel menù del gioco. Per avviarlo basta premere un tasto.
3) E' stata rilasciata una patch ufficiale DX10.
4) E' un test neutrale. Cosa rara di questi tempi.
:)
Resto dell'idea che una patch su un motore dx9 sia poco significativa, e sto parlando di un test dove hd 2900 xt va bene ma per una questione di forza bruta più che di ottimizzazione.
certo, io li faccio...anche se so truccati;)
ci sarebbe da dire fino a domani guarda sullo schifo del TWIMTBP:rolleyes:
xè scusa?
gianni1879
28-06-2007, 16:11
:)
ma non è un hotfix^???
si installano prima i 7.6 e poi questo oppure no??
Zodd_Il_nosferatu
28-06-2007, 16:19
ma non è un hotfix^???
si installano prima i 7.6 e poi questo oppure no??
solo l'hotfix
Franx1508
28-06-2007, 16:20
purtroppo il limite della mia scheda sono proprio i giochi con tantissimi shaders. colin dirt è praticamente ingiocabile a qualunque risoluzione, per esempio. però come fill rate e banda della memoria ha ancora moltissimo da dire...peccato che ormai gli unici giochi in cui questi parametri contano davvero siano quelli basati sul source engine e - forse - sull'engine di Doom 3 (vedremo come gira Quake Wars).
mica vero la mia x1800xt và benissimo dove ci sono shaders.in generale va molto bene con quasi tutto.
gianni1879
28-06-2007, 16:34
solo l'hotfix
lo sto facendo provare ad un mio amico per un confronto con i 7.5 ;)
non sono 1 su 100 ma in determinati test con caratteristiche grafiche nextgen;) e dovresti saperlo anche tu:rolleyes:
io fear per effettuare il test devo comprarlo...se hai un'alternativa...:)
cmq la scheda è in miglioramento e cqui nessuno si aspettava che in 1 relase(i 7.7 sono solo beta e hotfix quindi nn li calcolerei) migliorasse al massimo, ci vuole tempo;)
cmq sono scesi i c° in idle e le prestazioni OPEN GL e source sono aumentate, manca l'ottimizzazione scheduling e il ring bus, così possiamo divertirci ad usare i filtri al max senza perdere un botto come succede adesso;) e li poi vediamo le prestazioni:) ci vuole un po'...cmq sempre disponibile se cambi game, e scegline 1 (se è possibile,) senza marchio TWIMTBP così stiamo su terreno neutro;)
company of heroes?
si ma co sto fatto aspettiamo altre relase di driver ma non ci prendiamo un pò in giro? cioè la 8800 quando uscì aveva i suoi grossi problemi ma nel giro di 4 relase è andata apposto...qui tra un pò testeremo quando già nel case avrò una vga della prossima generazione!:D
dimmeli tu i giochi per testare io non ne ho problemi;)
possibilmente stalker, C&C tiberium wars, rainbow six las vegas perchè li ho installati:D in caso installo se necessario
come succede da sempre che, ci sono test che avvantaggiano ati rispetto nvidia e viceversa, anche se la GTX è una vga di fascia più alta rispetto la2900, ma non perhcè ha più potenza di calcolo piuttosto perchè l'architettura è più affine a quell determinato redering video
si ma co sto fatto aspettiamo altre relase di driver ma non ci prendiamo un pò in giro? cioè la 8800 quando uscì aveva i suoi grossi problemi ma nel giro di 4 relase è andata apposto...qui tra un pò testeremo quando già nel case avrò una vga della prossima generazione!:D
per ora siamo a 2 release per le HD 2000 ;)
per ora siamo a 2 release per le HD 2000 ;)
si ma sommando ritardi scheda e ritardi driver non rampiamo + fuori, anke xè nei gioki è cambiato poko o nulla come dicono le recensioni :D
si ma sommando ritardi scheda e ritardi driver non rampiamo + fuori, anke xè nei gioki è cambiato poko o nulla come dicono le recensioni :D
Quello è un altro fattore da tenere in conto, fai conto che la X1950PRO ha raggiunto maturità dei drivers a partire dai catalyst serie 7...
TecnoWorld8
28-06-2007, 17:29
mica vero la mia x1800xt và benissimo dove ci sono shaders.in generale va molto bene con quasi tutto.
provala con colin mc rea rally: DIRT e poi mi dici ;) però pare che quel gioco sia programmato particolarmente male...
a me la X1800XT overclockata va maluccio solo in: Stalker se tutto al massimo dettaglio ed il succitato DIRT, in quest'ultimo anche abbassando i dettagli.
ho probato il demo di overlord e mi va tra i 20 ed i 30fps con tutto al max a 1680x1050, che per una scheda di ormai quasi due anni non mi pare male ;) non so se le 2600XT ce la fanno a competere...non credo!
provala con colin mc rea rally: DIRT e poi mi dici ;) però pare che quel gioco sia programmato particolarmente male...
a me la X1800XT overclockata va maluccio solo in: Stalker se tutto al massimo dettaglio ed il succitato DIRT, in quest'ultimo anche abbassando i dettagli.
ho probato il demo di overlord e mi va tra i 20 ed i 30fps con tutto al max a 1680x1050, che per una scheda di ormai quasi due anni non mi pare male ;) non so se le 2600XT ce la fanno a competere...non credo!
Una X1800XT è ancora una signora scheda, è dura metterla veramente in ginocchio (DiRT al max a parte, serve uno sli di 8800 per farlo girare bene al massimo dettaglio), però una 2600XT come prestazioni va molto simile e in più ha SM4 e cagate varie (leggasi: features)... ;)
Se per di più il prezzo sarà davvero 100€ o meno è una scheda da tenere in seria considerazione per gli utenti che vogliono prestazioni ma sono attenti al portafogli...
Anche questa si posiziona tra 8600GT e GTS...
TecnoWorld8
28-06-2007, 17:44
Una X1800XT è ancora una signora scheda, è dura metterla veramente in ginocchio (DiRT al max a parte, serve uno sli di 8800 per farlo girare bene al massimo dettaglio), però una 2600XT come prestazioni va molto simile e in più ha SM4 e cagate varie (leggasi: features)... ;)
Se per di più il prezzo sarà davvero 100€ o meno è una scheda da tenere in seria considerazione per gli utenti che vogliono prestazioni ma sono attenti al portafogli...
Anche questa si posiziona tra 8600GT e GTS...
va bene avere le features DX10, ma se poi non c'è potenza sufficiente per usarle, servono a poco...cmq è sacrosanto che se favvero costerà quella cifra, sarà un ottimo acquisto. ora come ora, non scambierei la mia scheda con una 2600XT, però....
http://news.softpedia.com/news/More-Details-on-ATI-039-s-Upcoming-R650-and-R700-GPUs-54971.shtml
le pinze mi raccomando ;)
-Feanor-
28-06-2007, 18:24
http://news.softpedia.com/news/More-Details-on-ATI-039-s-Upcoming-R650-and-R700-GPUs-54971.shtml
le pinze mi raccomando ;)
AMD/ATI assure us that it is on schedule and should be ready in Q3.
scusate ma ORA siamo nel Q3 e ancora non si sa nulla...mi sembra strano...e poi non era stato confermato che r650 era stato cancellato...?? ma noi di chi ci dobbiamo fidare...? :asd:
Free Gordon
28-06-2007, 18:44
ho testato shadowrun...
Frames, Time (ms), Min, Max, Avg
11605, 174621, 42, 89, 68.458
tutto al max coi fitri
Buono.
A che res?
+Lonewolf+
28-06-2007, 18:48
Buono.
A che res?
1280x1024
è talmente fluido che ci gioco con AA16x, il test nautalmente è standardizzato a AA4 af 16
naturalmente everything maxed
Free Gordon
28-06-2007, 18:49
purtroppo il limite della mia scheda sono proprio i giochi con tantissimi shaders. colin dirt è praticamente ingiocabile a qualunque risoluzione, per esempio. però come fill rate e banda della memoria ha ancora moltissimo da dire...peccato che ormai gli unici giochi in cui questi parametri contano davvero siano quelli basati sul source engine e - forse - sull'engine di Doom 3 (vedremo come gira Quake Wars).
Concordo.
Colin: DIRT è il primo gioco shader-intensive che mostra chiaramente i limiti di R520 in quel settore (oltretutto su pc non usando dynamic branching, R520 perde una delle sue possibilità di compensare la carenza di shader power con l'ottimizzazione dei calcoli..).
Gira abbastanza male.
Per paragone, su 360, con una GPU uscita in contemporanea con R520, si hanno circa il 60% dei frames in più.
Purtroppo, ci sarebbe il modo di farlo andare più forte, ma a questo punto penso che in giochi dx9 non lo vedremo mai. E tutto grazie ad nVidia. :D
Free Gordon
28-06-2007, 18:51
mica vero la mia x1800xt và benissimo dove ci sono shaders.in generale va molto bene con quasi tutto.
Fammi uno screen con FRAPS aperto, nella demo di DIRT... a 1280x960 (o 1024), setting alti. ;)
Poi ne riparliamo. :D
Free Gordon
28-06-2007, 18:54
Se per di più il prezzo sarà davvero 100€ o meno è una scheda da tenere in seria considerazione per gli utenti che vogliono prestazioni ma sono attenti al portafogli...
A 120 euro la 2600XT DDR4 avrebbe senso. A di più imho no. ;)
appleroof
28-06-2007, 18:56
Concordo.
Colin: DIRT è il primo gioco shader-intensive che mostra chiaramente i limiti di R520 in quel settore (oltretutto su pc non usando dynamic branching, R520 perde una delle sue possibilità di compensare la carenza di shader power con l'ottimizzazione dei calcoli..).
Gira abbastanza male.
Per paragone, su 360, con una GPU uscita in contemporanea con R520, si hanno circa il 60% dei frames in più.
Purtroppo, ci sarebbe il modo di farlo andare più forte, ma a questo punto penso che in giochi dx9 non lo vedremo mai. E tutto grazie ad nVidia. :D
già...sarebbe meglio un bel monopolio Ati.... :rolleyes:
A 120 euro la 2600XT DDR4 avrebbe senso. A di più imho no. ;)
Una 2600XT normale si assesta mediamente (e con l'incognita drivers maturi) tra la 8600GT e la GTS, se ci metti che il suo prezzo ufficiale di lancio è non oltre i 120€, direi che è una buona scheda...
Una 8600GT la trovi mediamente proprio per 120-130€, la GTS invece costa uno sproposito, la più straccia in rete costa 160€ minimo...
Il vero scontro è 8600GT vs. 2600XT, e quest'ultima in linea generale ne esce a testa alta, dignitosamente, anche se in diversi casi subisce nei confronti della controparte nVidia, si equivalgono bene o male...
PS. Poi c'è l'incognita DX10, nella rece di hwu in coj DX10 la XT STRA-vince anche sulla GTS con drivers immaturi (IMHO), è la prima release dove sono supportate, percui sono speranzoso...
All'atto pratico questa 2600XT "normale" è l'equivalente della X1800XT solo più avanzata..
già...sarebbe meglio un bel monopolio Ati.... :rolleyes:
solo un pazzo vorrebbe/gradirebbe un monopolio :eek:
-Feanor-
28-06-2007, 19:33
Fammi uno screen con FRAPS aperto, nella demo di DIRT... a 1280x960 (o 1024), setting alti. ;)
Poi ne riparliamo. :D
dai ragazzi lasciamo perdere dirt....oggi mi è capitata tra le mani la confezione e nei requisiti consigliati c'è: sk video...8800.....:eek:...alla faccia :sofico: ...SOLO ??????? ....ma almeno non scrivetelo nei requisiti..:sofico: ...
un altro è stalker...tra i minimi la ati x1850.....:confused: ...tra quanto esce questa....???? :sofico: :asd: :asd: :asd:
scusate l'OT.....:D
TecnoWorld8
28-06-2007, 20:26
ho testato shadowrun...
Frames, Time (ms), Min, Max, Avg
11605, 174621, 42, 89, 68.458
tutto al max coi fitri
ma è uscito?
-Feanor-
28-06-2007, 20:28
ma è uscito?
si....evidentemente...:O :D
-Feanor-
28-06-2007, 20:43
:eek: ragazzi su un famosissimo sito di acquisti online ho appena trovato in vendita (naturalmente dall estero) la 2900xt da 1gb ddr4 :eek: ...il prezzo è di 430€ piu ovviamente la spedizione....445€ per la versione overclockata (825/2100)......:eek: :D ;)
:eek: ragazzi su un famosissimo sito di acquisti online ho appena trovato in vendita (naturalmente dall estero) la 2900xt da 1gb ddr4 :eek: ...il prezzo è di 430€ piu ovviamente la spedizione....445€ per la versione overclockata (825/2100)......:eek: :D ;)
ma porca..... :muro: :mad:
-Feanor-
28-06-2007, 21:21
ma porca..... :muro: :mad:
in che senso...?? perche per tanto cosi ti prendevi quella da 1gb...?? in effetti è accattivante negli states...ma qui da noi saranno quasi 500€ temo....:muro:
Concordo.
Colin: DIRT è il primo gioco shader-intensive che mostra chiaramente i limiti di R520 in quel settore (oltretutto su pc non usando dynamic branching, R520 perde una delle sue possibilità di compensare la carenza di shader power con l'ottimizzazione dei calcoli..).
Gira abbastanza male.
Per paragone, su 360, con una GPU uscita in contemporanea con R520, si hanno circa il 60% dei frames in più.
Purtroppo, ci sarebbe il modo di farlo andare più forte, ma a questo punto penso che in giochi dx9 non lo vedremo mai. E tutto grazie ad nVidia. :D
cmq anche se il gioco non ha frame elevati è molto fluido e con un frame rate costante a differenza di altri giochi che hanno sbalzi enormi e danno fastidio!
In un'intervista dicevano che su xbox360 andava a 30 fps costanti, e anche sul pc 30 fps erano buoni!
di sicuro l'opzione ultra delle ombre è per qualche vga che uscirà tra 2 anni!:rolleyes:
-Feanor-
28-06-2007, 21:59
cmq anche se il gioco non ha frame elevati è molto fluido e con un frame rate costante a differenza di altri giochi che hanno sbalzi enormi e danno fastidio!
In un'intervista dicevano che su xbox360 andava a 30 fps costanti, e anche sul pc 30 fps erano buoni!
di sicuro l'opzione ultra delle ombre è per qualche vga che uscirà tra 2 anni!:rolleyes:
io ho visto parecchi filmati di dirt su x360...ma sinceramente era tutto tranne fluido..scattava vergognosamente...ora pero mi piacerebbe sapere come dettagli la versione della x360 a cosa corrisponde grossomodo in quella pc....
io ho visto parecchi filmati di dirt su x360...ma sinceramente era tutto tranne fluido..scattava vergognosamente...ora pero mi piacerebbe sapere come dettagli la versione della x360 a cosa corrisponde grossomodo in quella pc....
ho provato il demo sia su pc che su xbox360, e mi sembra di avere la stessa sensazione in entrambi i casi: in alcune curve o quando c'è confusione "tenta" a scattare(sul pc 23-25 fps). Cmq per il resto è molto fluido specialmente per quello che mostra.
cmq sul mio pc a 1024 tutto su alto tranne le ombre su medie e AA 2x sta sui 30 fps e lo vedo molto fluido a differenza di altri giochi che a 30 fps o meno mi danno fastidio!
penso che su xbox360 sia su ultra!
-Feanor-
28-06-2007, 22:23
ho provato il demo sia su pc che su xbox360, e mi sembra di avere la stessa sensazione in entrambi i casi: in alcune curve o quando c'è confusione "tenta" a scattare(sul pc 23-25 fps). Cmq per il resto è molto fluido specialmente per quello che mostra.
cmq sul mio pc a 1024 tutto su alto tranne le ombre su medie e AA 2x sta sui 30 fps e lo vedo molto fluido a differenza di altri giochi che a 30 fps o meno mi danno fastidio!
penso che su xbox360 sia su ultra!
personalmente ne dubito alla grande....:mbe: :O ;)
personalmente ne dubito alla grande....:mbe: :O ;)
in alcune cose si vede meglio del pc e sono su alto!:boh:
ma tu l'hai provato su xbox360?
davide155
28-06-2007, 22:31
Io ce l'ho completo su x360, e secondo me i livelli grafici sono impostati su alto. E nonostante ciò in alcune gare il frame rate cala al di sotto dei fatidici 30fps.
Appunto perchè neanche su x360 questo gioco è stato ottimizzato.
Va bene che per pc ormai ottimizzare è pura utopia, ma adesso pure su x360 no! :muro:
edit_user_name_here
28-06-2007, 22:32
Iscritto ;) cosi seguo meglio...
Anche a me interessa sapere gli sviluppi e vedere questa da 1 gb come se la cava ad alte risoluzioni.
Cya :)
-Feanor-
28-06-2007, 22:32
in alcune cose si vede meglio del pc e sono su alto!:boh:
ma tu l'hai provato su xbox360?
ehm.......ehm........:ops2: :ops: ....io mi baso solo sulle mie considerazioni guardando i filmati in hd.....:D
in che senso...?? perche per tanto cosi ti prendevi quella da 1gb...?? in effetti è accattivante negli states...ma qui da noi saranno quasi 500€ temo....:muro:
be almeno è una consolazione, anche se cmq sono contento e fiducioso della mia
Concordo.
Colin: DIRT è il primo gioco shader-intensive che mostra chiaramente i limiti di R520 in quel settore (oltretutto su pc non usando dynamic branching, R520 perde una delle sue possibilità di compensare la carenza di shader power con l'ottimizzazione dei calcoli..).
Gira abbastanza male.
Per paragone, su 360, con una GPU uscita in contemporanea con R520, si hanno circa il 60% dei frames in più.
Purtroppo, ci sarebbe il modo di farlo andare più forte, ma a questo punto penso che in giochi dx9 non lo vedremo mai. E tutto grazie ad nVidia. :D
questo potevi evitarlo, mostra solo che 6 un atista spudorato, e cosa ci guadagni da ati? ti pagano?
+Lonewolf+
29-06-2007, 08:20
questo potevi evitarlo, mostra solo che 6 un atista spudorato, e cosa ci guadagni da ati? ti pagano?
anche tu questa potevi evitarla...
lui non ha detto che ati è meglio di nvidia, ha solo giustamente detto che nvidia fà il mnopolio, non di certo che sarebbe meglio un monopolio di ATI
vediamo di evitare i commenti così...
Scrambler77
29-06-2007, 08:29
Che noia... :zzz:
+Lonewolf+
29-06-2007, 08:32
Che noia... :zzz:
buongiorno:D
per una volta siamo d'accordo :mano:
anche tu questa potevi evitarla...
lui non ha detto che ati è meglio di nvidia, ha solo giustamente detto che nvidia fà il mnopolio, non di certo che sarebbe meglio un monopolio di ATI
vediamo di evitare i commenti così...
ma che monopolio scusa?? |fine ot|
+Lonewolf+
29-06-2007, 08:34
ma che monopolio scusa?? |fine ot|
......c'è scusa, hai postato senza capire? hai letto nvidia e hai preso le difese?
se tu non l'avessi capito la morale è che nvidia fa il bello ed il cattivo tempo....tutto qui...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.