View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
ti consiglierei d aspettare innanzitutto il 25 settembre quando uscirà la demo single core d crysis ke già dovrebbe dare un primo quadro della situazione...e cmq d aspettare novembre quando uscirà il gioco completo...xiodo in cui forse esce anke la nuova hig-end nvidia ke sicuramente andrà meglio d un CF d HD2900XT e potresti prendere quella senza aspettare febbreio/marzo 2008 ad R700 (io x es. se si dovesse rivelare un ottima gpu top d gamma ho intenzione d fare proprio così, cosa ke mero programmato sin da quando a giungno ho preso R600...certo ke se R600 anke con i titoli d fine anno ancora mi soddisfa, anke se escono nuove ottime gpu, me la tengo finkè mi dura)...
...inoltre il mio consiglio è cmq quello d stare alla larga dalle config a doppia gpu SLI o CF ke siano...son + gli sbattimenti ke le soddisfazioni...
...ciao
Grazie (anche a te Catan)
cmq nn ensavo che le configurazioi cf e sli avessero tutti sti problemi, va be mi avete convinto, vedro a novembre cosa succederà (ovvio che se poi la 2900 andasse meglio del previsto me la tengo)
OT save the cheerleader, save the world :ave:
FINE OT
OT vorrei dirti un po' di cose, ma se le faccio mi uccidi perchè ti svelo tutto, cmq il padre di clair.... :Prrr: :asd: :asd: /OT
Free Gordon
19-09-2007, 15:45
http://en.hardspell.com/doc/showcont.asp?news_id=1440
2Q "QX6850" 333*9=3G
2G DDR2 1000 4-4-4-10
ASUS P5K-E WIFI/AP
ASUS EAH2900XT 512M
36 fps pare il frame rate minimo registrato.. anche se poi non arriva mai a 60..
se è la vers dx9, con un quad core a 3ghz e quella VGA, non è che vada molto bene come prestazioni... perchè sicuramente la vers dx10 sarà più pesante e i setting ultra complicheranno ancora di più le cose, facendo finire il frame rate spesso sotto i 30..
36 fps pare il frame rate minimo registrato.. anche se poi non arriva mai a 60..
se è la vers dx9, con un quad core a 3ghz e quella VGA, non è che vada molto bene come prestazioni... perchè sicuramente la vers dx10 sarà più pesante e i setting ultra complicheranno ancora di più le cose, facendo finire il frame rate spesso sotto i 30..
Speriamo sia in DX10, sennò minimo minimo bisogna disporre di quad-core e crossfire/sli per giocare al massimo e con fluidità... :confused:
Free Gordon
19-09-2007, 15:54
Puoi farmi un favore?
Potresti ripetere il test a 1280x1024 con la scheda overclockata al valore massimo con cui è stabile?
Non è per romperti le scatole, ma sto cercando di capire se in ottica di longevità è meglio una HD2900XT o una GeForce 8800 GTS 640 MB.
Non lo potrai mai capire in questo modo. ;)
Non lo potrai mai capire in questo modo. ;)
anche xè oggettivamente sia per le 8800 che per le 2900 con oc medi le prestazioni aumentando di quel 10% in +.
se il gioco è ingiocabile a 20fps farne 22 sotto oc non mi cambia nulla,
se è giocabile a 60fps farne 66 lo stesso non aumenta ne diminuisce la longevita della vga...
Free Gordon
19-09-2007, 15:58
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
Con il Crossfire di 2900XT andresti spesso più veloce che con una singola 8800Ultra nei giochi attuali (e sotto Vista è un valore aggiunto, non funzionando lo SLI ;) ) ma io te lo sconsiglio: consumi alti e prestazioni sempre da ottimizzare di volta in volta.
In pratica a volte è una spesa (grossa) inutile. :)
Free Gordon
19-09-2007, 16:02
La mia config: Amd Opteron 180 (dual-core) 2400mhz, 2Gb di Ram, Hd2900XT 512
1280x1024 Dettegli Max
AA 0x
Avg Min Max
35 15 53
Dettagli Max 1280x960
DX9 AA 0x
Avg Min Max
40 20 58
Prendendo a paragone i tuoi risultati, con quelli di hardspell, pare che il gioco sia fortemente CPU-limited.
Probabilmente il dual "cattivo" o il quad saranno davvero l'arma in più..
Attendo il Phenom per la prova del 9. :D
36 fps pare il frame rate minimo registrato.. anche se poi non arriva mai a 60..
se è la vers dx9, con un quad core a 3ghz e quella VGA, non è che vada molto bene come prestazioni... perchè sicuramente la vers dx10 sarà più pesante e i setting ultra complicheranno ancora di più le cose, facendo finire il frame rate spesso sotto i 30..
La risoluzione è 1680x1050?
Free Gordon
19-09-2007, 16:31
cmq tano prt dirlo attualmente crysis quasi come su una ultra, e cmq è hai livelli della gtx ;)
Fonte dell'info? Linkami proprio la pag del 3d. Grazie ;)
Free Gordon
19-09-2007, 16:34
La risoluzione è 1680x1050?
A quanto pare sì.
Prendendo a paragone i tuoi risultati, con quelli di hardspell, pare che il gioco sia fortemente CPU-limited.
Probabilmente il dual "cattivo" o il quad saranno davvero l'arma in più..
Attendo il Phenom per la prova del 9. :D
gurda in molti abbiamo fatto la stessa considerazioni: "l'attuale beta di crysis è molto più vecchia di quanto immaginiamo" come minimo è antecedente all'E3 2007, per vari motivi, rigurdanti: bug, motore grafico, TEXTURE, modelli, il readme dove c'è una conoscenza estrema dei bug presenti (stranissima cosa), il supporto a Win Vista che nn c'è. guarda io è vero mi sono sbattuto ho postato più o meno (sul 3d di crysis) 50 immagini, e ho fatto molti test, ma ti posso dire che da qui alla demo, anzi facciamo alla versione completa mi aspetto degli stravolgimenti enormi; sia come Fps he come grafica ;)
nn tenerli in considerazione quei test;)
Fonte dell'info? Linkami proprio la pag del 3d. Grazie ;)
allora ti linko le pag del 3d di crysis dove ci sono:
i valori della GTX http://www.hwupgrade.it/forum/showpost.php?p=18756583&postcount=10487
i miei http://www.hwupgrade.it/forum/showpost.php?p=18757195&postcount=10503
edit: c'erano altri test sul 3d ma nn li trovo. dammi un po' di tue considerazioni (che le attendo con ansia anche in pvt se nn vuoi sporcare il 3d)
Prendendo a paragone i tuoi risultati, con quelli di hardspell, pare che il gioco sia fortemente CPU-limited.
Probabilmente il dual "cattivo" o il quad saranno davvero l'arma in più..
Attendo il Phenom per la prova del 9. :D
Io trovo assurdo tutto questo, considerando che lo potrà giocare, viste le richieste, un 2-3% degli utenti pc, nessun utente nootebook e nemmeno tutta la classe media dx10, compresa la classe alta di vecchia generazione, mi chiedo per chi e cosa abbiano programmato un titolo ingiocabile quasi ovunque, leggevo che su x1900 andava a 25 fps su dettaglio low a 1024, potrei anche non ricordarmi benissimo quindi non assicuro su questa info e non ricordo dove lo lessi esattamente, ma è una presa in giro comunque, quando c'è una Valve che ottimizza ogni singolo bit, stragiocabile ovunque e dalla resa che non mi ha mai deluso.
Non so voi ma io mi aspettavo ben altro che 35 fps senza filtri su una beta multiplayer, poi per esperienza le versioni finali pagano sempre qualcosa come frame rate, aspetterò la demo single, ma sono alquanto deluso e preoccupato.
gurda in molti abbiamo fatto la stessa considerazioni: "l'attuale beta di crysis è molto più vecchia di quanto immaginiamo" come minimo è antecedente all'E3 2007, per vari motivi, rigurdanti: bug, motore grafico, TEXTURE, modelli, il readme dove c'è una conoscenza estrema dei bug presenti (stranissima cosa), il supporto a Win Vista che nn c'è. guarda io è vero mi sono sbattuto ho postato più o meno (sul 3d di crysis) 50 immagini, e ho fatto molti test, ma ti posso dire che da qui alla demo, anzi facciamo alla versione completa mi aspetto degli stravolgimenti enormi; sia come Fps he come grafica ;)
nn tenerli in considerazione quei test;)
Quoto
A quanto pare sì.
Sono molto fiducioso allora.
Altri 5-6 giorni e prendo la 2900,anche se penso dovrò cambiar aliementatore :cry:
Quoto
Sono molto fiducioso allora.
Altri 5-6 giorni e prendo la 2900,anche se penso dovrò cambiar aliemntatore :cry:
mhm si dovrai cambiarlo, più che altro perchè la tua cpu ciccia di brutto
Io trovo assurdo tutto questo, considerando che lo potrà giocare, viste le richieste, un 2-3% degli utenti pc, nessun utente nootebook e nemmeno tutta la classe media dx10, compresa la classe alta di vecchia generazione, mi chiedo per chi e cosa abbiano programmato un titolo ingiocabile quasi ovunque, leggevo che su x1900 andava a 25 fps su dettaglio low a 1024, potrei anche non ricordarmi benissimo quindi non assicuro su questa info e non ricordo dove lo lessi esattamente, ma è una presa in giro comunque, quando c'è una Valve che ottimizza ogni singolo bit, stragiocabile ovunque e dalla resa che non mi ha mai deluso.
Non so voi ma io mi aspettavo ben altro che 35 fps senza filtri su una beta multiplayer, poi per esperienza le versioni finali pagano sempre qualcosa come frame rate, aspetterò la demo single, ma sono alquanto deluso e preoccupato.
idem
gurda in molti abbiamo fatto la stessa considerazioni: "l'attuale beta di crysis è molto più vecchia di quanto immaginiamo" come minimo è antecedente all'E3 2007, per vari motivi, rigurdanti: bug, motore grafico, TEXTURE, modelli, il readme dove c'è una conoscenza estrema dei bug presenti (stranissima cosa), il supporto a Win Vista che nn c'è. guarda io è vero mi sono sbattuto ho postato più o meno (sul 3d di crysis) 50 immagini, e ho fatto molti test, ma ti posso dire che da qui alla demo, anzi facciamo alla versione completa mi aspetto degli stravolgimenti enormi; sia come Fps he come grafica ;)
nn tenerli in considerazione quei test;)
Fosse vero che è ante E3, che conoscono i bug, avrebbero dovuto correggerli almeno prima di darla in pasto ai giocatori, perchè mai far uscire una release problematica che non fa altro che scoraggiare utenti possibili acquirenti.
Fosse vero che è ante E3, che conoscono i bug, avrebbero dovuto correggerli almeno prima di darla in pasto ai giocatori, perchè mai far uscire una release problematica che non fa altro che scoraggiare utenti possibili acquirenti.
mhm per guadagnarci, cioè: loro fanno vedere che in 2 mesi fanno miracoli, e poi gli piovono soldi a palate in borsa, vedrai se nn è così ;) cmq basta nn vorrei che arrivi freeman.
Free Gordon rispondimi in pvt pls
Free Gordon
19-09-2007, 17:12
ma sono alquanto deluso e preoccupato.
Se la situazione resta questa, è davvero preoccupante...
Cmq sono fiducioso, la beta pare essere molto molto vecchia e i driver non pronti per questo titolo.
Almeno un 20% di prestazioni in più me le aspetto dal gioco definitivo, e con una grafica migliore.
Ma mi aspetto anche che sia giocabile al MAX solo con 8800 e 2900.. le altre VGA non ce la faranno sicuramente.
Se la situazione resta questa, è davvero preoccupante...
Cmq sono fiducioso, la beta pare essere molto molto vecchia e i driver non pronti per questo titolo.
Almeno un 20% di prestazioni in più me le aspetto dal gioco definitivo, e con una grafica migliore.
Ma mi aspetto anche che sia giocabile al MAX solo con 8800 e 2900.. le altre VGA non ce la faranno sicuramente.
ok da quello che leggo concordi anche tu con quello detto (mi fa piacere). cmq anche un 20% in più mi sembra un po' poco, cmq è inutile impazzire, si vedra il 25, o al max il 16 novembre
Un hd2900 xt testata da M4R1 anche col 20% in più, metti pure il 50% in più, da 35 arriverebbe a 50 circa, ma si parla di una situazione comunque preoccupante imho, 1 perchè, ripeto, le beta multiplayer (vedi quella di Farcry, per restare in tema) sono sempre state alleggerite e rese un pochino più fluide, 2 perchè si parla di una top di gamma, in dx9.
ok da quello che leggo concordi anche tu con quello detto (mi fa piacere). cmq anche un 20% in più mi sembra un po' poco, cmq è inutile impazzire, si vedra il 25, o al max il 16 novembre
Guarda io sono deluso ora e potrei cambiare idea tra pochi giorni, ci spero, ma dovesse essere confermata la situazione mi girerebbero alquanto le scatole vista la spesa per ste schede.
Iantikas
19-09-2007, 17:24
mentre impazzite appresso a crysis ke è ancora lontano anni luce e ne passera d'acqua sotto i ponti prima d poter toccare con mano la versione definitiva con driver ottimizzati ho giokikkiato un pò alla beta d TM2...
...ke dire dal punto d vista grafico niente d'eccezzionale ma è cmq carino...almeno è molto leggero...questi i risultati con FRAPS a 1680x1050 8xAA/16xAF tutto al max...
2007-09-19 17:39:32 - hl2
Frames: 8553 - Time: 120000ms - Avg: 71.275 - Min: 46 - Max: 272
...cmq nn ci vedoniente d rivoluzionario sia tra le classi ke nelle modalità d gioco...anzi se le classi cmq son belle, variegate e da rpovare + o - tutte, le modalità d gioco stancano presto almeno a me...
...cmq qualke oretta d gioco ogni tanto la farò...ciao
mentre impazzite appresso a crysis ke è ancora lontano anni luce e ne passera d'acqua sotto i ponti prima d poter toccare con mano la versione definitiva con driver ottimizzati ho giokikkiato un pò alla beta d TM2...
...ke dire dal punto d vista grafico niente d'eccezzionale ma è cmq carino...almeno è molto leggero...questi i risultati con FRAPS a 1680x1050 8xAA/16xAF tutto al max...
2007-09-19 17:39:32 - hl2
Frames: 8553 - Time: 120000ms - Avg: 71.275 - Min: 46 - Max: 272
...cmq nn ci vedoniente d rivoluzionario sia tra le classi ke nelle modalità d gioco...anzi se le classi cmq son belle, variegate e da rpovare + o - tutte, le modalità d gioco stancano presto almeno a me...
...cmq qualke oretta d gioco ogni tanto la farò...ciao
TM2?
Iantikas
19-09-2007, 17:30
Io trovo assurdo tutto questo, considerando che lo potrà giocare, viste le richieste, un 2-3% degli utenti pc, nessun utente nootebook e nemmeno tutta la classe media dx10, compresa la classe alta di vecchia generazione, mi chiedo per chi e cosa abbiano programmato un titolo ingiocabile quasi ovunque, leggevo che su x1900 andava a 25 fps su dettaglio low a 1024, potrei anche non ricordarmi benissimo quindi non assicuro su questa info e non ricordo dove lo lessi esattamente, ma è una presa in giro comunque, quando c'è una Valve che ottimizza ogni singolo bit, stragiocabile ovunque e dalla resa che non mi ha mai deluso.
Non so voi ma io mi aspettavo ben altro che 35 fps senza filtri su una beta multiplayer, poi per esperienza le versioni finali pagano sempre qualcosa come frame rate, aspetterò la demo single, ma sono alquanto deluso e preoccupato.
ok ke i gioki della valve girano tutti allegramente anke su HW vekkiotto ma confrontare il sorce d HL2 EP1 o anke dell'EP2 (x quello ke finora si è potuto vedere) con il cryengie2 e crysis è come confrontare mele con pere...
...anzi secondo me la valve dovrebbe fare qualke bella rivoluzione al suo source xkè oramai nn'è + al passo con i tempi e fa vedere tutti i segni della sua vekkiaia...ciao
Iantikas
19-09-2007, 17:30
TM2?
Team Fortress 2
p.s.: avendo una hd2900xt se inserisci il codice del black box in steam ti danno la possibilità d scaricare la beta...
-Feanor-
19-09-2007, 17:31
TM2?
penso intendesse TF2...team fortress 2....;)
Team Fortress 2
p.s.: avendo una hd2900xt se inserisci il codice del black box in steam ti danno la possibilità d scaricare la beta...
a ecco quindi TF2...
tm2 non mi diceva niente :asd:
cmq il codice lo avevo gia messo 1 mese fa :)
Io trovo assurdo tutto questo, considerando che lo potrà giocare, viste le richieste, un 2-3% degli utenti pc, nessun utente nootebook e nemmeno tutta la classe media dx10, compresa la classe alta di vecchia generazione, mi chiedo per chi e cosa abbiano programmato un titolo ingiocabile quasi ovunque, leggevo che su x1900 andava a 25 fps su dettaglio low a 1024, potrei anche non ricordarmi benissimo quindi non assicuro su questa info e non ricordo dove lo lessi esattamente, ma è una presa in giro comunque, quando c'è una Valve che ottimizza ogni singolo bit, stragiocabile ovunque e dalla resa che non mi ha mai deluso.
Non so voi ma io mi aspettavo ben altro che 35 fps senza filtri su una beta multiplayer, poi per esperienza le versioni finali pagano sempre qualcosa come frame rate, aspetterò la demo single, ma sono alquanto deluso e preoccupato.
hai perfettamente ragione anche se oggettivamente io la penso in maniera + elitaria.
si vuole l'aa?si vogliono la grafica real time?
queste sono tutte cose che se pagano e sicuramente sono cose che valgono di + dei miei 300E che ho speso per la hd2900xt, e dei 100E che ho speso per la hd2600 per il muletto.
il gioco è male ottimizzato xè mi fa fare solo 25fps, basta non lo compro e non ci gioco....se ci voglio giocare ci gioco a 1024 o 800x600.
poi abbiamo 2 scusanti gioco palesemente programmato male, o gioco palesemente programmato sopra le aspettative dell'hw presente?
commenti del genere non li capisco e li sento ciclicamente dall'uscita di ultimaIX...
il gioco è bello di grafica ma pesa da morire e me lo rende ingiocabile...benissimo nn ci gioco, il gioco mi piace ma devo giocarci con alcuni compromessi?
sta sicuro che se mi piace mi piace ben oltre il comparto grafico e ci gioco lo stesso.
Iantikas
19-09-2007, 18:27
infatti x es. dirt inzialmente lo giocai a 1024x768...ora lo gioco a 1680x1050 ma nn'è ke prima nn mi piaceva ed ora mi piace...prima cmq m'è piaciuto e ora mi piace uguale con in + il fatto d giocarlo ad una ris superiore...ma se nn mi fosse piaciuto a 1024 nn'è ke magicamente giocandolo a 1680 mi sarebbe piaciuto...
...e poi anke se crysis dovesse girare al max a 1280 sull'hw odierno nn sarebbe poi la fine del mondo... x farcry ke ora invece tutti se lo ricordano come un mostro d'ottimizzazione c son volute skede d due gen successive x giocarlo a 1600 o oltre con i filtri a palla fluidamente, quindi nn vedo xkè dovrebbe essere così clamoroso se crysis sull'HW attuale nn girerà a megauber risoluzioni...
...ciao
fustacchione90
19-09-2007, 19:16
raga ma a me danno solo il precaricamento...come mai??? la beta nel mio steam n cè ... :cry: :confused:
raga ma a me danno solo il precaricamento...come mai??? la beta nel mio steam n cè ... :cry: :confused:
lo hai gia scaricato? strano cmq..
Iantikas
19-09-2007, 19:29
raga ma a me danno solo il precaricamento...come mai??? la beta nel mio steam n cè ... :cry: :confused:
io avevo inserito il codice qualke settimana fa quando era iniziata a girare la notizia della beta d TF2...il 14/15 settembre hanno reso disponibile il pre-caricamento e poi il 17/18 hanno decodoficato i file scaricati e reso possibile l'avvio...
...quindi penso ke dovresti prima finire d pre-caricarlo...una volta pre-caricato te lo decodoficano e poi lo puoi usare...ciao
fustacchione90
19-09-2007, 19:45
io avevo inserito il codice qualke settimana fa quando era iniziata a girare la notizia della beta d TF2...il 14/15 settembre hanno reso disponibile il pre-caricamento e poi il 17/18 hanno decodoficato i file scaricati e reso possibile l'avvio...
...quindi penso ke dovresti prima finire d pre-caricarlo...una volta pre-caricato te lo decodoficano e poi lo puoi usare...ciao
sono riuscito ad averla....ma dopo il caricamento, nemmeno il tempo di andare sulle opzioni e iniziare a modificare i tansti che crasha, cioè il game resta li e si muove solo la freccetta del mouse...qualcuno sa qualcosa?
sono riuscito ad averla....ma dopo il caricamento, nemmeno il tempo di andare sulle opzioni e iniziare a modificare i tansti che crasha, cioè il game resta li e si muove solo la freccetta del mouse...qualcuno sa qualcosa?
crasha anche a me... ma io riesco a giocare per 10/15 minuti :O
webbuffa
19-09-2007, 20:12
sono riuscito ad averla....ma dopo il caricamento, nemmeno il tempo di andare sulle opzioni e iniziare a modificare i tansti che crasha, cioè il game resta li e si muove solo la freccetta del mouse...qualcuno sa qualcosa?
:) A me è andato tutto alla perfezione ... addirittura si è anche auto settato le impostazioni :|! gioco divertentissimo :D:D
ilbuglio
19-09-2007, 20:14
ho smontato una 2900xt sapphire e una 2900xt gecube , direi che sono uguali identiche pure stesso numero proggressivo di codice seriale e rev . board
bios identico stesso numero stessa data.
unica differenza in eguali condizioni e dopo modifica dissipatore per contatto ottimale , che la sapphire scalda un po di piu difatti dove sotto test "ho usato il 3dmark2005" ,la shappire arriva di punta su gpu a 80 gradi l'altra rimane a 72.
un altra differenza che ho trovato guardando il rivatuner che una porta un voltaggio a 1.2v sotto sforzo (sapphire) altra a 1.15v.
appena faccio altri test vi dico .
p.s. a livello di performance giustamente sono uguali identiche.
ciao :read:
fustacchione90
19-09-2007, 20:23
:) A me è andato tutto alla perfezione ... addirittura si è anche auto settato le impostazioni :|! gioco divertentissimo :D:D
visya o xp?
ci vorrebbe mari|<...
webbuffa
19-09-2007, 20:28
visya o xp?
ci vorrebbe mari|<...
XP :)
Settaggi che ha scelto sono 8x 16x @ 1680x1050 :) e va sempre oltre i 60 fps :D
visya o xp?
ci vorrebbe mari|<...
io sono sotto vista 64 bit... mi viene il dubbio che su vista ci sia una qualche incompatibilità :cry: spero che risolvano con la relase ufficiale del 10 ottobre
XP :)
Settaggi che ha scelto sono 8x 16x @ 1680x1050 :) e va sempre oltre i 60 fps :D
bè contando che è basato su half life 2 del 2004 (con giusto qualche aggiustatina al source) ci mancherebbe che mette in ginocchio la hd2900xt
webbuffa
19-09-2007, 20:59
bè contando che è basato su half life 2 del 2004 (con giusto qualche aggiustatina al source) ci mancherebbe che mette in ginocchio la hd2900xt
:cool:
ho smontato una 2900xt sapphire e una 2900xt gecube , direi che sono uguali identiche pure stesso numero proggressivo di codice seriale e rev . board
bios identico stesso numero stessa data.
unica differenza in eguali condizioni e dopo modifica dissipatore per contatto ottimale , che la sapphire scalda un po di piu difatti dove sotto test "ho usato il 3dmark2005" ,la shappire arriva di punta su gpu a 80 gradi l'altra rimane a 72.
un altra differenza che ho trovato guardando il rivatuner che una porta un voltaggio a 1.2v sotto sforzo (sapphire) altra a 1.15v.
appena faccio altri test vi dico .
p.s. a livello di performance giustamente sono uguali identiche.
ciao :read:
la cosa non stupisce xè sapphire gecube e compagnia bella sono solo rivenditori...le radeon le fanno tutte in uno stabilimento di assemblaggio in cina e poi vengono rivendute ai vari vendor che possono decidere solo che adesivo metterci.
quindi non è che cambiandole ci siano grossi cambiamenti...ovviamente il cambiamento di culo di temperatura e oc ci sta sempre.
evidentemente o la gecube monta un r600 che viene dalla parte + interna del wafer oppure ha il dissipatore con 3 heatpipes invece che 2.
anche se tempo fa la mia sapphire e qualla di un altro utente la mia con 2 heatpipes e la sua con 3 facevano registrare le stesse temperature sotto sforzo di 72gradi dissi stock
infatti x es. dirt inzialmente lo giocai a 1024x768...ora lo gioco a 1680x1050 ma nn'è ke prima nn mi piaceva ed ora mi piace...prima cmq m'è piaciuto e ora mi piace uguale con in + il fatto d giocarlo ad una ris superiore...ma se nn mi fosse piaciuto a 1024 nn'è ke magicamente giocandolo a 1680 mi sarebbe piaciuto...
...e poi anke se crysis dovesse girare al max a 1280 sull'hw odierno nn sarebbe poi la fine del mondo... x farcry ke ora invece tutti se lo ricordano come un mostro d'ottimizzazione c son volute skede d due gen successive x giocarlo a 1600 o oltre con i filtri a palla fluidamente, quindi nn vedo xkè dovrebbe essere così clamoroso se crysis sull'HW attuale nn girerà a megauber risoluzioni...
...ciao
hai perfettamente ragione io per tutta la mia vita di videogiocare(che ormai si attesta a circa 12 anni) l'unico gioco veramente ottimizzato che ho visto è stato hl2.
Programmato per stessa ammissione dai programmatori valve su macchine con una vga grafica molto simile ad una 9800pro. Usci quando c'erano le x800 che garantivano un impatto spettacolare ma c'era molta gente che lo giocava dettagli massimi con le 9700pro sui 45fps.
a casa di un amico mi ricordo che io avevo all'epoca gia la x800xt e lui me lo fece vedere su un dell 24" fluidissimo...
gli chiesi che vga aveva e quando mi disse che aveva una 9700pro ci rimasi di stucco...
provia a farlo partire su un amd64 3200+ ed una voodoo5500 in dx6 ed andava a 45fps 800x600 con aa2x...
Io credo che un gioco vada bene e sia largamento ottimizzato se si prende una vga attuale e si incominci a programmarlo pensado che debba dare il top degli effetti grafici su quella vga ed essere fluido.
cosi tra 1 anno all'uscita con le vga di seconda generazione ci si potra giocare al top con aa applicato e chi ha la vga vecchia di un anno cmq potra giocare al top lo stesso.
e chi ha cmq la vga vecchia di 2 anni potra giocarci con tranquillità.
certo questo vuol dire fare un motore cmq molto elitario che digerisca solo una particolare tipologia di vga(vedi hl2 con le radeon in generale) e sperare che non ci siano troppi salti(il salto 9800pro x800 non è stato un saltissimo le x800 erano fondamentalmente 9800pro stra pompate mentre il salto x800 x1800 gia era + consistente)
Iantikas
19-09-2007, 22:59
sono riuscito ad averla....ma dopo il caricamento, nemmeno il tempo di andare sulle opzioni e iniziare a modificare i tansti che crasha, cioè il game resta li e si muove solo la freccetta del mouse...qualcuno sa qualcosa?
ed io ke nell'altro post stavo x aggiungere ke il gioco d beta c'ha solo il nome :D ...in complessivo da quando è uscito sto sulle 6 ore d gioco e mai un crash nè artefatto o altri tipi d problemi...
...io sto su XP SP2 con cat 7.9...ma probabilmente in queste cose centrano anke altri componenti come mobo, skeda audio etc...magari (se nn l'hai già fatto) prova ad aggiornare tutti i driver e disabilità tutte le componenti nn necessarie a far girare il gioco e vedi se anke così ti crasha...ciao
ragazzi un aiutino
con rivatuner come si impostano i valori della ventola in base alla temp.
vedo solo dei valori prefissati dove non mi fa variare niente
con atitool li impostavo come volevo io
http://img209.imageshack.us/img209/1783/30309835fc4.jpg
Iantikas
19-09-2007, 23:21
ragazzi un aiutino
con rivatuner come si impostano i valori della ventola in base alla temp.
vedo solo dei valori prefissati dove non mi fa variare niente
con atitool li impostavo come volevo io
http://img209.imageshack.us/img209/1783/30309835fc4.jpg
se clikki col destro su uno dei valori ti esce una guida ke ti indica come fare...
...x evitare ke alcuni utenti poco informati su quello ke stanno facendo combinassero casini la modifica d quei valori d def è bloccata...x sbloccarla devi andare nella sezione "power user" e abilitare la voce "AutoFanSpeedControl"...ciao
x sbloccarla devi andare nella sezione "power user" e abilitare la voce "AutoFanSpeedControl"...ciao
lo trovata lo spulciata
ma non succede niente
http://img514.imageshack.us/img514/1884/32746651tj9.jpg
allora essendo più che soddifatto della 2900, in questi giorni mi è venuta l'idea, che potrei fare un bel crossfire, però volevo un vostro consiglio:
mi consigliate di farlo adesso a sotto il periodo natalizio? dico questo perchè se dovessi comprarla a meno nn sarebbe male. poi il mio ali ha 4 linee da 12 volt, ciascuna con 18A, basteranno (ovvio che si ma vorrei una conferma)?
e in fine: mi converrebbe? premetto che i prossimi titoli (quali: Crysis, UT3, ecc) me li voglio davvero godere con Tutto al max. certo è un azzardo perchè magari a novembre scopro che una 2900 basta e avanza, però in previsione di tenerla per un bel po' volevo un consiglio, perchè mi sono detto: mi faccio adesso il crossfire oppure mi prendo r700 (quandp uscirà) poi però nn vorrei essere cpu limit e tnate storie legate alla mia cpu.
voi cosa mi dite?
Grazie:) :)
ps: con un crossfire (di 2900) sarei cpu limit?
Allora posso darti anche la mia opinione.
Ho avuto 2 sk x850xt in crossfire e la mia esperienza e' stata fin troppo negativa(per sfarfallii vari ).
Attualmente ho come voi una 2900xt di cui sono soddisfatto ,ma ho avuto la fortuna di provare 2 2900xt in crossfire sul mio sistema . Nessun problema di sfarfallio e il cross entrava sempre raddoppiandomi il + delle volte le prestazioni della singola scheda.
Ho fatto diversi test col 3dmark06 e i fotogrammi facevano quasi il raddoppio (diverse volte).
Considerate poi che nn ho un mostro di cpu (amd 5600)
Sicuramente tra 4 o 5 mesi (forse meno) uscira' una sk molto + performante della nostra hd2900 (che nn converra' + il cross)ma devo dire che quando ho reso la seconda hd2900 al gentile negoziante mi e' pianto il cuore :cool:
TecnoWorld8
20-09-2007, 08:37
Sicuramente tra 4 o 5 mesi (forse meno) uscira' una sk molto + performante della nostra hd2900
spero MOLTO prima...tipo novembre :)
in ogni caso tendo sempre a diffidare da SLI e CF, in quanto alcuni giochi non lo supportano o lo supportano male. è anche vero che quello che dici, essendo esperienza diretta, è molto interessante...
Con il Crossfire di 2900XT andresti spesso più veloce che con una singola 8800Ultra nei giochi attuali (e sotto Vista è un valore aggiunto, non funzionando lo SLI ;) ) ma io te lo sconsiglio: consumi alti e prestazioni sempre da ottimizzare di volta in volta.
In pratica a volte è una spesa (grossa) inutile. :)
che scoperta, ci mancherebbe anche quello.......:fagiano:
webbuffa
20-09-2007, 09:08
lo trovata lo spulciata
ma non succede niente
http://img514.imageshack.us/img514/1884/32746651tj9.jpg
:) La voce giusta da cambiare è
Utente avanzato / RivaTuner/System / ATII2CAccessModeR6xx valore 1
Ciao!
hai perfettamente ragione anche se oggettivamente io la penso in maniera + elitaria.
si vuole l'aa?si vogliono la grafica real time?
queste sono tutte cose che se pagano e sicuramente sono cose che valgono di + dei miei 300E che ho speso per la hd2900xt, e dei 100E che ho speso per la hd2600 per il muletto.
il gioco è male ottimizzato xè mi fa fare solo 25fps, basta non lo compro e non ci gioco....se ci voglio giocare ci gioco a 1024 o 800x600.
poi abbiamo 2 scusanti gioco palesemente programmato male, o gioco palesemente programmato sopra le aspettative dell'hw presente?
commenti del genere non li capisco e li sento ciclicamente dall'uscita di ultimaIX...
il gioco è bello di grafica ma pesa da morire e me lo rende ingiocabile...benissimo nn ci gioco, il gioco mi piace ma devo giocarci con alcuni compromessi?
sta sicuro che se mi piace mi piace ben oltre il comparto grafico e ci gioco lo stesso.
Su Crysis, su Hd2900, sulla GTX, ci sono sempre state aspettative incentrate appunto sulla fruibilità del titolo su hw dx10 a frame rate discreti, ora io non pretendo la luna, mi basterebbe girasse come Bioshock, ma evidentemente peserà circa il doppio, tagliando fuori gran parte dell'utenza.
E' vero Hl2 è meno evoluto graficamente, ma la resa, la fisica, restano di primo livello imho.
Ora io su hd2900 volevo/speravo in un buon compromesso con Crysis, e i primi dati mi lasciano basito, sono per questo un po' deluso, penso sia lecito.
infatti x es. dirt inzialmente lo giocai a 1024x768...ora lo gioco a 1680x1050 ma nn'è ke prima nn mi piaceva ed ora mi piace...prima cmq m'è piaciuto e ora mi piace uguale con in + il fatto d giocarlo ad una ris superiore...ma se nn mi fosse piaciuto a 1024 nn'è ke magicamente giocandolo a 1680 mi sarebbe piaciuto...
...e poi anke se crysis dovesse girare al max a 1280 sull'hw odierno nn sarebbe poi la fine del mondo... x farcry ke ora invece tutti se lo ricordano come un mostro d'ottimizzazione c son volute skede d due gen successive x giocarlo a 1600 o oltre con i filtri a palla fluidamente, quindi nn vedo xkè dovrebbe essere così clamoroso se crysis sull'HW attuale nn girerà a megauber risoluzioni...
...ciao
Io ho appena comprato una Sparkle 8800 GTS 640 MB che tra overclock e Rivatuner 2.04 (clock di ROP, ecc.) conto di portare a lavorare come una 8800 GTX stock. Detto questo, io ho paura che nemmeno a 1280x1024 Crysis girerà in maniera fluida ed io a 1024x768 con il mio LCD che a risoluzioni + basse di 1280 sgrana l'immagine non posso giocare. :cry:
Come sistema ho un e6400 da overclockare, Asus P5B-Deluxe WIFI, e6400, 2 GB RAM Vdata cacca che conto di aggiornare a Natale.
L'e6400 ho potuto verificare che arriva fino a 3 GHz ma non so perché mi diventa un po' instabile il sistema, pur non essendo colpa del processore, all'aumentare dell'FSB dopo una certa soglia. Che minchia è? Il northbridge della mobo? Boh.
TecnoWorld8
20-09-2007, 09:36
Su Crysis, su Hd2900, sulla GTX, ci sono sempre state aspettative incentrate appunto sulla fruibilità del titolo su hw dx10 a frame rate discreti, ora io non pretendo la luna, mi basterebbe girasse come Bioshock, ma evidentemente peserà circa il doppio, tagliando fuori gran parte dell'utenza.
E' vero Hl2 è meno evoluto graficamente, ma la resa, la fisica, restano di primo livello imho.
Ora io su hd2900 volevo/speravo in un buon compromesso con Crysis, e i primi dati mi lasciano basito, sono per questo un po' deluso, penso sia lecito.
giustamente non gioisci, ma questo è esattamente il motivo per cui non ho acquistato R600. secondo me era ovvio che i giochi nuovi e pesanti l'avrebbero messa in difficoltà, se si pretende dettaglio massimo ed alta risoluzione, perchè questa scheda non va più di un G80, che ormai ha sulle spalle 10 mesi di vita abbondanti. e io dico e ripeto che non si può pretendere che un gioco che vuole essere il portabandiera della nuova generazione come grafica, possa girare al massimo, con AA e alta res, su schede uscite (o con prestazioni uguali o inferiori a quelle uscite) un anno prima.
Per questo c'è bisogno di una nuova high end, che permetta a chi vuole spendere di usare ogni cosa al massimo per un altro anno. E' sempre stato così, è l'evoluzione dell'hw.
per giocare a 1280, magari senza AA, con dettagli alti, invece, le schede GTX, GTS e HD2900 andranno benone.
Athlon 64 3000+
20-09-2007, 09:42
Su Crysis, su Hd2900, sulla GTX, ci sono sempre state aspettative incentrate appunto sulla fruibilità del titolo su hw dx10 a frame rate discreti, ora io non pretendo la luna, mi basterebbe girasse come Bioshock, ma evidentemente peserà circa il doppio, tagliando fuori gran parte dell'utenza.
E' vero Hl2 è meno evoluto graficamente, ma la resa, la fisica, restano di primo livello imho.
Ora io su hd2900 volevo/speravo in un buon compromesso con Crysis, e i primi dati mi lasciano basito, sono per questo un po' deluso, penso sia lecito.
se Crysis girerà male anche in dx9 io che ho la hd 2900xt non mi metto molto problemi sul fatto del perchè gira male ma dico che lo avranno programmato con i piedi e lo lascierò sullo scaffale.
Athlon 64 3000+
20-09-2007, 09:45
giustamente non gioisci, ma questo è esattamente il motivo per cui non ho acquistato R600. secondo me era ovvio che i giochi nuovi e pesanti l'avrebbero messa in difficoltà, se si pretende dettaglio massimo ed alta risoluzione, perchè questa scheda non va più di un G80, che ormai ha sulle spalle 10 mesi di vita abbondanti. e io dico e ripeto che non si può pretendere che un gioco che vuole essere il portabandiera della nuova generazione come grafica, possa girare al massimo, con AA e alta res, su schede uscite (o con prestazioni uguali o inferiori a quelle uscite) un anno prima.
Per questo c'è bisogno di una nuova high end, che permetta a chi vuole spendere di usare ogni cosa al massimo per un altro anno. E' sempre stato così, è l'evoluzione dell'hw.
per giocare a 1280, magari senza AA, con dettagli alti, invece, le schede GTX, GTS e HD2900 andranno benone.
io che uso ancora xp e le dx 9 G80 e R600 sono le gpu ideali per giocare anche a crysis in dx9 e non giustifico che anche a dettagli ultra high sia a 1024x768 che a 1280x1024 il gioco giri male e se succederà non lo comprerò.
TecnoWorld8
20-09-2007, 09:47
se Crysis girerà male anche in dx9 io che ho la hd 2900xt non mi metto molto problemi sul fatto del perchè gira male ma dico che lo avranno programmato con i piedi e lo lascierò sullo scaffale.
quando uscì Doom 3, ad agosto 2004, a dettaglio massimo girava male su quasi tutte le schede sul mercato, ad eccezione di Radeon X800XT PE e Geforce 6800 Ultra, che erano uscite pochissimi mesi prima. E comunque, anche su queste, a 1280x1024 con AA attivo, faceva "circa" 40-45fps di media:
http://www.hwupgrade.it/articoli/skvideo/1064/doom-3-analisi-delle-schede-video_13.html
Potrei citare decine di esempi di questo tipo. io davvero non capisco cosa ci sia di strano a pensare che un gioco di nuova generazione non giri al massimo dettaglio, AA ed alta res su schede vecchie di un anno, o con prestazioni pari a schede vecchie di un anno.
se Crysis girerà male anche in dx9 io che ho la hd 2900xt non mi metto molto problemi sul fatto del perchè gira male ma dico che lo avranno programmato con i piedi e lo lascierò sullo scaffale.
Quoto pienamente.
Non esiste che crysis non giri in maniera piu' che adeguata (dettagli medio alti) sulla nostra hd2900!!!
Succedera' probabilmente come ultimamente avviene con i nuovi giochi ,che inizialmente li tirano sul mercato con i piedi e poi gli danno una aggiustatina ai driver o al gioco "con le mani" ... Se cosi' non fosse anch io lo lascio ben volentieri sullo scaffale......maddai figuriamoci se gli conviene alla crytech non farlo girare bene sulle nostre schede.......State tranquilli ragazzi e' solo questione di attendere un po :)
giustamente non gioisci, ma questo è esattamente il motivo per cui non ho acquistato R600. secondo me era ovvio che i giochi nuovi e pesanti l'avrebbero messa in difficoltà, se si pretende dettaglio massimo ed alta risoluzione, perchè questa scheda non va più di un G80, che ormai ha sulle spalle 10 mesi di vita abbondanti. e io dico e ripeto che non si può pretendere che un gioco che vuole essere il portabandiera della nuova generazione come grafica, possa girare al massimo, con AA e alta res, su schede uscite (o con prestazioni uguali o inferiori a quelle uscite) un anno prima.
Per questo c'è bisogno di una nuova high end, che permetta a chi vuole spendere di usare ogni cosa al massimo per un altro anno. E' sempre stato così, è l'evoluzione dell'hw.
per giocare a 1280, magari senza AA, con dettagli alti, invece, le schede GTX, GTS e HD2900 andranno benone.
Ma qui non si parla di giocare a 1280 con dettagli alti, si parla di giocare male a dettagli low a 1024 su una vga tipo x1900 e giocare mediocramente su un hd2900xt a 1280 su una beta multiplayer.
Io dico che si può pretendere di più, un hd2900 deve poter far girare Crysis bene, se mancasse ciò vuol dire che resterebbe un gioco elitario, future vga pagherebbero comunque dazio se la situazione resta questa.
ale0bello0pr
20-09-2007, 11:22
mmm nonstante sia una beta...sento cm solo parlare di Crytek incompetente di qua....Crytek fannulloni di la... come se non sapessimo invece che sono i migliori attuali in fase di programmazione gaming e che hanno creato un ENGINE che nemmeno l'attuale UE3 riesce a stagli dietro per la sua reale bellezza, basta fare confronto fra titoli come Bioshock e UT3 per capire cosa intendo....(odio la plastica :fagiano: )
ma io lo ripeto sempre qui di mezzo ci sono anche la cara AMD e la carissima Nvidia con i suoi drivers..e mai mi stanchero' di dirlo finkè leggo sempre commenti antiCRYTEK e basta :)
FAR CRY docet
Iantikas
20-09-2007, 12:15
ma xkè già fasciarsi la testa prima di essersela rotta?...x ora (almeno x mia esperienza in DX9 su XP) nn'è uscito gioco ke m'abbia costretto a scendere sotto i 1680x1050 (naturalmente con dettagli al max)...nn vedo xkè pensare così negativo su crysis dato ke cmq x es. quegli screen a 1680x1050 della beta facevano vedere un framerate medio sui 35fps...e sicuramente sul gioco completo con driver ottimizzati le prestazioni potranno solo migliorare...
...inoltre anke se veramente dovesse girare al max a 1280x1024 nn vedo xkè gridare allo scandalo...nella storia d casi simili ce n'è un'infinità...ciao
Quoziente
20-09-2007, 12:28
ma xkè già fasciarsi la testa prima di essersela rotta?...x ora (almeno x mia esperienza in DX9 su XP) nn'è uscito gioco ke m'abbia costretto a scendere sotto i 1680x1050 (naturalmente con dettagli al max)...nn vedo xkè pensare così negativo su crysis dato ke cmq x es. quegli screen a 1680x1050 della beta facevano vedere un framerate medio sui 35fps...e sicuramente sul gioco completo con driver ottimizzati le prestazioni potranno solo migliorare...
...inoltre anke se veramente dovesse girare al max a 1280x1024 nn vedo xkè gridare allo scandalo...nella storia d casi simili ce n'è un'infinità...ciao
Beh, un gioco che in DX9 su XP va da schifo a 1680x1050 con dettagli max (e anche meno) c'é... un certo Colin McRae Dirt...
:) La voce giusta da cambiare è
Utente avanzato / RivaTuner/System / ATII2CAccessModeR6xx valore 1
Ciao!
e poi ? non succede niente
ma una guida non c'è?
Iantikas
20-09-2007, 12:40
Beh, un gioco che in DX9 su XP va da schifo a 1680x1050 con dettagli max (e anche meno) c'é... un certo Colin McRae Dirt...
nn'è x niente vero...io ci gioco a 1680x1050 4xAA/16xAF tutto al max (gioco patchato alla 1.2 e quindi impossibilitato a mettere le ombre su ultra...anke se le imposti dalle opzioni su ultra in verità rimangono su alto...infatti se poi ci torni le ritrovi su alto)...
...tempo fa postai anke dei bench con fraps...ciao
p.s.: a titolo informativo prima dei 7.8 ci giocavo con le stesse impo ma a 1440x900
tarabas2
20-09-2007, 12:47
ma xkè già fasciarsi la testa prima di essersela rotta?...x ora (almeno x mia esperienza in DX9 su XP) nn'è uscito gioco ke m'abbia costretto a scendere sotto i 1680x1050 (naturalmente con dettagli al max)...nn vedo xkè pensare così negativo su crysis dato ke cmq x es. quegli screen a 1680x1050 della beta facevano vedere un framerate medio sui 35fps...e sicuramente sul gioco completo con driver ottimizzati le prestazioni potranno solo migliorare...
...inoltre anke se veramente dovesse girare al max a 1280x1024 nn vedo xkè gridare allo scandalo...nella storia d casi simili ce n'è un'infinità...ciao
quoto in pieno...... 5 pagine a lamentarsi di un prodotto ke deve uscire tra 2 mesi, ke ha ampi margini di miglioramento sia dal punto di vista della programmazione ke dal punto di vista drivers....aspettiamo a piangere;)
webbuffa
20-09-2007, 12:49
e poi ? non succede niente
ma una guida non c'è?
Sei sfortunato mi sa... a me è andato subito dopo averlo messo quel set... :O
Free Gordon
20-09-2007, 12:55
che scoperta, ci mancherebbe anche quello.......:fagiano:
Problema di nVidia, che non fornisce supporto allo SLI sotto Vista. ;)
Io sono il primo a sperare in eventuali miglioramenti, ma parlando delle performance di hd2900, peraltro postate qua dentro, nel videogioco Crysis, e sapendo che similmente, la demo multiplayer di farcry, distribuita allo stesso modo, risultò poi di un buon 20-30% più fluida del gioco finale, mi preoccupo, non mi sto peraltro fasciando la testa, ma commentando dei dati.
ale0bello0pr
20-09-2007, 13:01
Io sono il primo a sperare in eventuali miglioramenti, ma parlando delle performance di hd2900, peraltro postate qua dentro, nel videogioco Crysis, e sapendo che similmente, la demo multiplayer di farcry, distribuita allo stesso modo, risultò poi di un buon 20-30% più fluida del gioco finale, mi preoccupo, non mi sto peraltro fasciando la testa, ma commentando dei dati.
demo non vuol dire beta.....ATTENZIONE!:read:
fine OT
mmm nonstante sia una beta...sento cm solo parlare di Crytek incompetente di qua....Crytek fannulloni di la... come se non sapessimo invece che sono i migliori attuali in fase di programmazione gaming e che hanno creato un ENGINE che nemmeno l'attuale UE3 riesce a stagli dietro per la sua reale bellezza, basta fare confronto fra titoli come Bioshock e UT3 per capire cosa intendo....(odio la plastica :fagiano: )
ma io lo ripeto sempre qui di mezzo ci sono anche la cara AMD e la carissima Nvidia con i suoi drivers..e mai mi stanchero' di dirlo finkè leggo sempre commenti antiCRYTEK e basta :)
FAR CRY docet
Bhe prima vediamolo questo motore grafico, perchè seppur potrebbe essere il migliore visivamente, secondo me conta, e conta molto di più, l'usabilità.
demo non vuol dire beta.....ATTENZIONE!:read:
fine OT
Pardon era una beta multiplayer.
CLICCAMI (http://gamesurf.tiscali.it/dynamic/articolo/CHIAVE/farc0042082001104/TIPO_PAGINA/speciale/NUMERO_PAGINA/0)
Iantikas
20-09-2007, 13:08
Beh, un gioco che in DX9 su XP va da schifo a 1680x1050 con dettagli max (e anche meno) c'é... un certo Colin McRae Dirt...
in aggiunta al mio post precedente un paio di bench con fraps freski freski...
...entrambi in un rallyraid a "Lower Otay Lake" a 1680x1050 4xAA/16xAF tutto al max (ombre su Alto)...
... 2007-09-20 13:49:02 - DIRT
Frames: 4215 - Time: 120000ms - Avg: 35.125 - Min: 29 - Max: 38 ...questo è con la visuale esterna...
... 2007-09-20 14:00:04 - DiRT
Frames: 4397 - Time: 120000ms - Avg: 36.642 - Min: 32 - Max: 40 ...questo invece con la visuale Casco ke è quella ke io uso x giocare (con tutte le altre nn mi trovo proprio)...
...nn saranno 100 e passa frame ma nn andando mai sotto i 30fps il gioco mi risulta perfettamente fluido...
...ciao
in aggiunta al mio post precedente un paio di bench con fraps freski freski...
...entrambi in un rallyraid a "Lower Otay Lake" a 1680x1050 4xAA/16xAF tutto al max (ombre su Alto)...
... 2007-09-20 13:49:02 - DIRT
Frames: 4215 - Time: 120000ms - Avg: 35.125 - Min: 29 - Max: 38 ...questo è con la visuale esterna...
... 2007-09-20 14:00:04 - DiRT
Frames: 4397 - Time: 120000ms - Avg: 36.642 - Min: 32 - Max: 40 ...questo invece con la visuale Casco ke è quella ke io uso x giocare (con tutte le altre nn mi trovo proprio)...
...nn saranno 100 e passa frame ma nn andando mai sotto i 30fps il gioco mi risulta perfettamente fluido...
...ciao
Non capisco come facciate ad abilitare AA su Dirt .
Ho Vista e con questo gioco come con bioshock i filtri AA non fungono. Tra l altro con dirt per non vedere quelle brutte seghettature nei menu devo toglierlo proprio AA .
Altra delusione poi con il mio mitico gtr2 che mi costringe a togliere l adaptive antialias per non vedere degli obbrobri durante il gioco.Cosa che mi par dipenda dai nuovi driver 7.8 perche reinstallati i 7.5 e quel problema e' scomparso.
Mi sa tanto che questa Hd2900 ha i driver ancora...molto ma molto immaturi...Almeno per windows Vista
Free Gordon
20-09-2007, 13:34
Ma qui non si parla di giocare a 1280 con dettagli alti, si parla di giocare male a dettagli low a 1024 su una vga tipo x1900 e giocare mediocramente su un hd2900xt a 1280 su una beta multiplayer.
Io dico che si può pretendere di più, un hd2900 deve poter far girare Crysis bene, se mancasse ciò vuol dire che resterebbe un gioco elitario, future vga pagherebbero comunque dazio se la situazione resta questa.
Se ben ricordi, quando uscì Far Cry, su 9700pro girava benino (io lo giocavo 1280x960 dettagli alti, con qualche filtro), su 9800XT andava proprio bene.
Stessa cosa accadrà probabilmente con Crysis...
Con la 2900XT si drovrà giocare a dettagli medio/alti, a res umane, con i prossimi refreah invernali (in arrivo all'uscita del gioco), si potrà osare di più. ;)
L'ottimizzazione è un problema della piattaforma pc, un gioco che pone l'asticella un pò più in alto della media dei titoli, dovrà sempre scontrarsi con questo genere di problemi.
Iantikas
20-09-2007, 13:46
Non capisco come facciate ad abilitare AA su Dirt .
Ho Vista e con questo gioco come con bioshock i filtri AA non fungono. Tra l altro con dirt per non vedere quelle brutte seghettature nei menu devo toglierlo proprio AA .
Altra delusione poi con il mio mitico gtr2 che mi costringe a togliere l adaptive antialias per non vedere degli obbrobri durante il gioco.Cosa che mi par dipenda dai nuovi driver 7.8 perche reinstallati i 7.5 e quel problema e' scomparso.
Mi sa tanto che questa Hd2900 ha i driver ancora...molto ma molto immaturi...Almeno per windows Vista
devi avere qualke problema...in DIRT l'AA si attiva senza problemi e dalle opzioni del gioco (nn c'è bisogno di forzarlo da CCC, rinominare eseguibili etc come invece si fa x es. con Bioshock tiotlo ke di suo nn supporta l'AA)...
...mi pare ancora + stran la frase delle seghettature nei menu...x come son fatti i menù d gioki l'AA si attiva anke in essi e si vede subito la sua attivazione proprio xkè scompare l'aliasing...te invece addirittura affermi ke attivando l'AA l'aliasing aumenta...
...il tuo post sembra il mondo alla rovescia...inoltre sia in XP ke in Vista nel 3d ufficiale nessuno si è lamentato d problemi simili...magari una bella formattata o una disinstallazione completa dei catalyst e del gioco nn guasterebbe...ciao
Se ben ricordi, quando uscì Far Cry, su 9700pro girava benino (io lo giocavo 1280x960 dettagli alti, con qualche filtro), su 9800XT andava proprio bene.
Stessa cosa accadrà probabilmente con Crysis...
Con la 2900XT si drovrà giocare a dettagli medio/alti, a res umane, con i prossimi refreah invernali (in arrivo all'uscita del gioco), si potrà osare di più. ;)
L'ottimizzazione è un problema della piattaforma pc, un gioco che pone l'asticella un pò più in alto della media dei titoli, dovrà sempre scontrarsi con questo genere di problemi.
Si ma qui si passa da hd2900xt sotto sfruttate, a nuova generazione direttamente, Farcry girava da dio sia su 9800 pro che su Geforce 5900 e a dettaglio medio (degli shaders), su una 9500 pro volava, su 9800 pro invece faceva mediamente 70 fps (sempre dettaglio medio).
Ma sinceramente siete contenti di questi primi riscontri?
devi avere qualke problema...in DIRT l'AA si attiva senza problemi e dalle opzioni del gioco (nn c'è bisogno di forzarlo da CCC, rinominare eseguibili etc come invece si fa x es. con Bioshock tiotlo ke di suo nn supporta l'AA)...
...mi pare ancora + stran la frase delle seghettature nei menu...x come son fatti i menù d gioki l'AA si attiva anke in essi e si vede subito la sua attivazione proprio xkè scompare l'aliasing...te invece addirittura affermi ke attivando l'AA l'aliasing aumenta...
...il tuo post sembra il mondo alla rovescia...inoltre sia in XP ke in Vista nel 3d ufficiale nessuno si è lamentato d problemi simili...magari una bella formattata o una disinstallazione completa dei catalyst e del gioco nn guasterebbe...ciao
Si in effetti e' un po di tempo che sto dubitando che il problema con Aliasing sia mio soltanto. Come dicevo una cosa che ho provato a fare e' stata quella di reinstallare i vecchi catalyst 7.5. E di fatti con gtr2 AA viene gestito in tutte le salse. Pero' poi ho rimesso i 7.8 hot fix perche' in bioshock la mano soprattutto si vedeva da "pena". Sinceramente non me la sento di formattare tutto ,attendo i 7.10 e magari provo a dare un occhiata al bios della mia hd2900 che penso sia proprio una delle prime uscite in Italia........
Ops volevo poi aggiungere una cosa non di poco conto....Ma non mi menate.
Sia Bioshock che Dirt non sono tanto originali....ehm....:mbe:
Ops volevo poi aggiungere una cosa non di poco conto....Ma non mi menate.
Sia Bioshock che Dirt non sono tanto originali....ehm....:mbe:
Non ti si mena, ti si banna
Ciao
Ops volevo poi aggiungere una cosa non di poco conto....Ma non mi menate.
Sia Bioshock che Dirt non sono tanto originali....ehm....:mbe:
:doh:
WAREZ
ATTENZIONE: qualunque allusione o richiesta di natura illegale (p2p illegale, warez, seriali, crack) porterà alla immediata sospensione dell'utente.
Niente richieste su come copiare videogiochi o ricerca di crack.
quindi niente "sberleffi" o "vanti" di usare programmi warez tipo "io lo pago gratis :asd:" : a parte che più che vantarsi c'è da VERGOGNARSI dato che non è certo un atteggiamento maturo nè responsabile (e questo al di là del prezzo dei videogiochi che è una scusa stupida: se una cosa costa tanto non la usate e basta ) e di certo facendo così non fate diminuire il prezzo dei giochi (si è già visto) più che altro fate il contrario.
sospeso 7gg.
Problema di nVidia, che non fornisce supporto allo SLI sotto Vista. ;)
no io intendevo che 2 2900xt andassaro + di una 8800 ultra.....
appleroof
20-09-2007, 14:54
no io intendevo che 2 2900xt andassaro + di una 8800 ultra.....
aggiungo per la precisione che i termini del problema sono completamente opposti, eppure free gordon mi pare un utente ben informato...mah, una svista capita a tutti....
http://www.hwupgrade.it/news/software/due-fix-microsoft-per-gpu-sotto-vista_22358.html
ragazzi mi consigliate di metterli i 7.9 con questa splendida scheda?
in tanti casi ho sentito che fanno casino con la nostra amata 2900....
io x ora gioco benissimo a tdu, bf2 e la demo di bioshock
che devo fare?
ragazzi mi consigliate di metterli i 7.9 con questa splendida scheda?
in tanti casi ho sentito che fanno casino con la nostra amata 2900....
io x ora gioco benissimo a tdu, bf2 e la demo di bioshock
che devo fare?
:mbe:
Allora posso darti anche la mia opinione.
Ho avuto 2 sk x850xt in crossfire e la mia esperienza e' stata fin troppo negativa(per sfarfallii vari ).
Attualmente ho come voi una 2900xt di cui sono soddisfatto ,ma ho avuto la fortuna di provare 2 2900xt in crossfire sul mio sistema . Nessun problema di sfarfallio e il cross entrava sempre raddoppiandomi il + delle volte le prestazioni della singola scheda.
Ho fatto diversi test col 3dmark06 e i fotogrammi facevano quasi il raddoppio (diverse volte).
Considerate poi che nn ho un mostro di cpu (amd 5600)
Sicuramente tra 4 o 5 mesi (forse meno) uscira' una sk molto + performante della nostra hd2900 (che nn converra' + il cross)ma devo dire che quando ho reso la seconda hd2900 al gentile negoziante mi e' pianto il cuore :cool:
grazie anche ha te per la risposta ;) cmq nn so adesso vedo alcune cose, poi valuterò anche se efettivamente prima di prendere un'altra 2900 vorrei cambiare monitor.
che vuoi dire?
che tipo di "casini"? non mi risulta che i 7.9 diano problemi...
EvIL-LIFe
20-09-2007, 17:04
infatti io ho i 7.9 e non ho mai avuto problemi... (ho installato direttamente quelli)
ragazzi mi consigliate di metterli i 7.9 con questa splendida scheda?
in tanti casi ho sentito che fanno casino con la nostra amata 2900....
io x ora gioco benissimo a tdu, bf2 e la demo di bioshock
che devo fare?
che problemi, io/noi nn abbimo niente, spiegati pls
bluefrog
20-09-2007, 18:14
Ragazzi ho un problema in Lost Planet su Vista 64 bit e Catalyst 7.9: se abilito il "Fur"(pelo) in qualità DX10 non si vede nulla! O meglio, mettendo Fur->NONE appare...ma credo sia quello in DX9....mentre se metto Fur->DX10 scompare! Sapete nulla se si tratta di un bug o cos'altro?
Denghiu':)
Ragazzi ho un problema in Lost Planet su Vista 64 bit e Catalyst 7.9: se abilito il "Fur"(pelo) in qualità DX10 non si vede nulla! O meglio, mettendo Fur->NONE appare...ma credo sia quello in DX9....mentre se metto Fur->DX10 scompare! Sapete nulla se si tratta di un bug o cos'altro?
Denghiu':)
cmq nn ho questi problemi, provo a togliere totalmente i driver con driverclear e reistalla direttamente i 7.9
Ops volevo poi aggiungere una cosa non di poco conto....Ma non mi menate.
Sia Bioshock che Dirt non sono tanto originali....ehm....:mbe:
magari intendeva dire che non era molto originale l'idea di fondo del gioco:D :D
magari intendeva dire che non era molto originale l'idea di fondo del gioco:D :D
Azz :asd:
PS: qualche possessore di una 2900xt sarebbe disposto ad abbassare la frequenza della scheda ai livelli di una pro? Per vedere quanto incide la diminuzione di frequenza, con conseguente diminuzione di clock delle 320 unità. (quella del bus non la chiedo neanche :Prrr: ,ma almeno una delle 2 schede è più o meno svelata :D)
Se qualcuno l'ha già fatto avvisatemi :D
Grazie mille :)
PS: qualche possessore di una 2900xt sarebbe disposto ad abbassare la frequenza della scheda ai livelli di una pro? Per vedere quanto incide la diminuzione di frequenza, con conseguente diminuzione di clock delle 320 unità. (quella del bus non la chiedo neanche :Prrr: ,ma almeno una delle 2 schede è più o meno svelata :D)
Se qualcuno l'ha già fatto avvisatemi :D
Grazie mille :)
http://www.hwupgrade.it/forum/showpost.php?p=18745878&postcount=44 ;)
Quoziente
21-09-2007, 09:04
@Iantikas: conta anche però che quei valori li hai ottenuti con il procio a 3150Mhz e la VGA occata... Dirt sembra essere estremamente dipendente dalla velocità del procio... Ergo, imho è ottimizzato da schifo...
Si sa ancora niente dei Cata 7.10 beta? Sono proprio curioso di sapere se hanno apportato tutte le modifiche annunciate...
http://www.hwupgrade.it/forum/showpost.php?p=18745878&postcount=44 ;)
Graz :D
Comunque davvero niente male :cool:
@Iantikas: conta anche però che quei valori li hai ottenuti con il procio a 3150Mhz e la VGA occata... Dirt sembra essere estremamente dipendente dalla velocità del procio... Ergo, imho è ottimizzato da schifo...
Si sa ancora niente dei Cata 7.10 beta? Sono proprio curioso di sapere se hanno apportato tutte le modifiche annunciate...
Modifiche? di che si tratta di preciso? :mbe:
Chicco85
21-09-2007, 12:22
Graz :D
Comunque davvero niente male :cool:
Tieni conto che sono i giochi il vero territorio di guerra. Dovrei provare anche li, ma non ne ho il tempo ne la voglia. :D
Graz :D
Comunque davvero niente male :cool:
nella norma anche se oggettivamente come abbiamo sempre detto per come è strutturato r600 risente + che dei mhz sulle ram(con un bus a 512 puoi anche risparmiare mettendo ram a 1.2ns e mettendo un clock a 1400mhz)
sei mhz sul core.
600mhz sono pochi per questo chip contando le 16rop's che cmq lavorano lo stesso a 600mhz.
anche se oggettivamente va fatto una certa osservazione, non sono r600 castrati nelle sp ergo vuol dire che il processo produttivo di questi chip è molto buono per quanto riguarda la realizazione interna mentre hanno dei problemi a salire in volumi con dei mhz.
se fosse possibile testare la 2900xt in configurazione "pro" con dei giochi si potrebbe valutare,in caso di differenze minime,se i drivers stanno spremendo l hardware della xt o no...
oppure ho detto una caxxata??:D
Quoziente
21-09-2007, 13:14
Modifiche? di che si tratta di preciso? :mbe:
Parlavano di una riscrittura del core dei drivers per la serie HD e di ottimizzazioni per il ringbus a 512 bit... sarebbe anche ora...:rolleyes:
intanto grazie...;)
Scusate se collaboro poco, ma in questi giorni sono pieno di impegni...
Sarei felice se venissero applicate tali migliorie...
Un noto shop nazionale, che ha sede anche qui a BN (non facciamo nomi) propone questa vga allo stesso prezzo di alcuni noti shop online, potrei prenderla al banco, senza sbattiamenti, ed averla in 24 ore...
Attendo non solo di liberarmi, ma anche che la demo di crysis dia risposte + concrete sul comportamento di questa vga con il motore in questione...
Ovviamente tengo d'occhio anche i driver...
Tidus.hw
21-09-2007, 13:43
@Iantikas: conta anche però che quei valori li hai ottenuti con il procio a 3150Mhz e la VGA occata... Dirt sembra essere estremamente dipendente dalla velocità del procio... Ergo, imho è ottimizzato da schifo...
Si sa ancora niente dei Cata 7.10 beta? Sono proprio curioso di sapere se hanno apportato tutte le modifiche annunciate...
se sfrutta al 100% la cpu è ottimizzato da schifo? :mbe:
-Feanor-
21-09-2007, 14:05
qualche notizia su rv670
RV670 will have RV670 XT and RV670 PRO, their symbols are Gladiator and Revival, that is to see there will be Radeon HD 2950 XT and Radeon HD 2950 PRO.
For specs, Gladiator, core clock 825MHz, 512MB GDDR4, 1.2GHz, Revival, 750MHz, 256MB/512MB GDDR3, 900MHz. Both of them used 55nm technology, bit-width 256-bit, support DirectX 10.1, Shader Model 4.1, PCI-E 2.0, UVD and new generation CF technology.
In addition, RV670 XT will be produced by AMD while the RV670 PRO will be produced by the manufactures. They possible be issued at the end of this year or the beginning of next year.
http://en.hardspell.com/doc/showcont.asp?news_id=1458
beh..se la notizia e' vera ora si spiega il perche' di 2900pro,per non buttare via nulla ati propone la 2900pro realizzata con il silicio che non regge le frequenze xt a prezzo affare e si prepara alla nuova generazione.....il nome gladiator promette bene :D
qualche notizia su rv670
RV670 will have RV670 XT and RV670 PRO, their symbols are Gladiator and Revival, that is to see there will be Radeon HD 2950 XT and Radeon HD 2950 PRO.
For specs, Gladiator, core clock 825MHz, 512MB GDDR4, 1.2GHz, Revival, 750MHz, 256MB/512MB GDDR3, 900MHz. Both of them used 55nm technology, bit-width 256-bit, support DirectX 10.1, Shader Model 4.1, PCI-E 2.0, UVD and new generation CF technology.
In addition, RV670 XT will be produced by AMD while the RV670 PRO will be produced by the manufactures. They possible be issued at the end of this year or the beginning of next year.
http://en.hardspell.com/doc/showcont.asp?news_id=1458
I 256bit di banda sono ringbus o proprio effettivi?
-Feanor-
21-09-2007, 14:24
I 256bit di banda sono ringbus o proprio effettivi?
:asd:.....e come pretendi che lo sappia...? :ciapet:
cmq personalmente suonano male i soli 256bit di bus per la XT..:mbe:
ma 256bit sono normali alla fine la sigla rv ha sempre contraddistinto prodotti di fascia medio alta.
rv570 era la x1950pro
rv670 puo solo essere una medio alta con bus a 256bit.
il core clock è alto 825mhz se la struttura resta sempre a 320sp come chip ci siamo fatto a 55nm.
anche se oggettivamente io gladiator la avrei chiamato x1950pro
mentre revival con core clock + basso e anche ram + basse l'avrei chiamato x1950gt.
la sigla xt e xtx dovrebbero cmq riferirsi sempre ad una vga di fascia alta a mano che non si pensi di saltare r680 e si passi diretto a r700 con la r700 che si chiamarà che so hd X3900xt e rv670 sarà lasciato come fascia medio alta come versione pompata nel core di r600 ma con bus dimezzato.
anche se oggettivamente 1200mhz gddr4 con un bus di 256bit sono cmq 68gb di banda...
Quoziente
21-09-2007, 14:45
se sfrutta al 100% la cpu è ottimizzato da schifo? :mbe:
No, non in quel senso... Se ti va di sbatterti un po' nel thread di Dirt ci sono parecchie pagine che parlano della pessima ottimizzazione del gioco, altrimenti qui andiamo OT... (cmq nel mio caso, che io tenga la ris. a 800x600 o a 1680x1050, con il mio procio a 3GHZ la CPU è SEMPRE stampata al 100% e i fps non cambiano da una risoluz. all'altra...)
Iantikas
21-09-2007, 15:53
No, non in quel senso... Se ti va di sbatterti un po' nel thread di Dirt ci sono parecchie pagine che parlano della pessima ottimizzazione del gioco, altrimenti qui andiamo OT... (cmq nel mio caso, che io tenga la ris. a 800x600 o a 1680x1050, con il mio procio a 3GHZ la CPU è SEMPRE stampata al 100% e i fps non cambiano da una risoluz. all'altra...)
impossibile ke stia sempre al 100%...d media io a 3ghz sto sul 75% (con un E4300)...tu con un E6600 a 3ghz (avendo un sistema molto simile) dovresti essere uguale o inferiore come occupazione...
...mi sembra strano anke ke nn cambia il framerate da una ris all'altra...anke xkè dato ke hai detto ke a te a 1680x1050 nn gira vuol dire ke nn gira neanke ad 800x6000 se il framerate nn cambia mai...il ke mi sembra assurdo...
...ciao
ale0bello0pr
21-09-2007, 16:10
preparate il prox thread...le HD2900XT sono gia' vecchie... :asd:
http://www.dinoxpc.com/News/news.asp?ID_News=13211&What=News&tt=Prime+immagini+dell%92Ati+Radeon+HD+2950+PRO+%28RV670%29%3F
Quoziente
21-09-2007, 16:25
impossibile ke stia sempre al 100%...d media io a 3ghz sto sul 75% (con un E4300)...tu con un E6600 a 3ghz (avendo un sistema molto simile) dovresti essere uguale o inferiore come occupazione...
...mi sembra strano anke ke nn cambia il framerate da una ris all'altra...anke xkè dato ke hai detto ke a te a 1680x1050 nn gira vuol dire ke nn gira neanke ad 800x6000 se il framerate nn cambia mai...il ke mi sembra assurdo...
...ciao
Questo è un comportamento che abbiamo riscontrato già nel thread. Non lo fa a tutti e non si riesce a capire cosa sia a causarlo. Io cmq se a 1680x1050 faccio 24fps, sia a 1440x900 che a 1280x800 faccio sempre 24fps (a parità di dettaglio grafico). Poi cmq il gioco spesso e volentieri ha dei cali di fps per qualche frazione di secondo (scatta vistosamente). Tutto qui. Va beh, inutle sbattersi tanto ormai l'ho finito...;)
preparate il prox thread...le HD2900XT sono gia' vecchie... :asd:
http://www.dinoxpc.com/News/news.asp?ID_News=13211&What=News&tt=Prime+immagini+dell%92Ati+Radeon+HD+2950+PRO+%28RV670%29%3F
rv670 ne + ne meno di una fascia medio alta...
quando è uscita la x1950pro non è che è andata meglio di una x1900xt;)
stessa cosa core clock a 825mhz processo a 55nm ram gddr4 pompata a 1.2ghz per compensare il bus a 256bit.
tutto sommato se hanno mantenuto 320sp e con gddr4 1.2 e una banda di 68gb a risoluzioni di 1024 potrebbe anche andare meglio di una hd2900xt dove in queste risoluzioni + che la banda conta il clock del core.
certo sotto AA non saranno i 50mhz in + sul core a riprendere il gap del bus a 256bit contro quello a 512.
Iantikas
21-09-2007, 18:00
inoltre nn credo ke abbiano mantenuto (anke se lo spero) tutti i 320sp...
...credo ke li porteranno a 240sp ma lasciando inalterati il numero d RBE con relative unità all'interno...anke xkè x come è fatto R600 mi pare un approccio d questo tipo sia possibile e nn x forza disabilitando un blocco d sp si perde anke una RBE...
...daltronde questa skeda dovrebbe essere la nuova x1950pro e confrontarsi con l'ipotetica 8700gts nella fascia d prezzo intorno ai 200€...ciao
§°°...Røb£rtØ...°°§
21-09-2007, 20:50
Scusatemi se mi permetto questa domanda,siccome non ho trovato altri thread penso che questo sia anche per la 2900XT 1GB. Ora,volevo sapere come sono le prestazioni di questa scheda (anche in oc) rispetto a una 8800gtx/ultra?:D
Siccome ho letto in alcune pagine che la 2900XT 512 sta accanto alla gtx come prestazioni negli ultimi driver...volevo sapere sulle prestazioni della sorella + grande,in quanto dalla gpu mi dipende pure la scelta sulla mobo da acquistare.
Non vado troppo OT sennò rischio di inquinare il thread.;)
Grazie e ciao!:)
Scusatemi se mi permetto questa domanda,siccome non ho trovato altri thread penso che questo sia anche per la 2900XT 1GB. Ora,volevo sapere come sono le prestazioni di questa scheda (anche in oc) rispetto a una 8800gtx/ultra?:D
Siccome ho letto in alcune pagine che la 2900XT 512 sta accanto alla gtx come prestazioni negli ultimi driver...volevo sapere sulle prestazioni della sorella + grande,in quanto dalla gpu mi dipende pure la scelta sulla mobo da acquistare.
Non vado troppo OT sennò rischio di inquinare il thread.;)
Grazie e ciao!:)
falso la XT va come la GTX in rari casi e cmq sia senza filtri....con i filtri ha le prestazioni di una GTS
cmq è inutile prendi la 512mb e overclocca
§°°...Røb£rtØ...°°§
21-09-2007, 21:02
falso la XT va come la GTX in rari casi e cmq sia senza filtri....con i filtri ha le prestazioni di una GTS
cmq è inutile prendi la 512mb e overclocca
ok grazie mille mi hai levato un grande dubbio ":D mobo"
MonsterMash
21-09-2007, 22:21
ok grazie mille mi hai levato un grande dubbio ":D mobo"
Non prendere per oro colato quello che dice nos. E' vero che la 2900xt raramente arriva ai livelli della gtx, ma è ben al di sopra di una gts. Se la overcloccki poi sei quasi ai livelli di una gtx quasi in tutti i giochi. Ce ne sono poi alcuni (in particolare quelli basati sull'UE3) in cui la 2900xt overclocckata compete con le ultra.
Con i filtri in proporzione perde più della controparte nvidia, ma anche coi filtri a palla resta molto sopra una gts640 praticamente ovunque.
Ciao
Iantikas
21-09-2007, 22:35
Non prendere per oro colato quello che dice nos. E' vero che la 2900xt raramente arriva ai livelli della gtx, ma è ben al di sopra di una gts. Se la overcloccki poi sei quasi ai livelli di una gtx quasi in tutti i giochi. Ce ne sono poi alcuni (in particolare quelli basati sull'UE3) in cui la 2900xt overclocckata compete con le ultra.
Con i filtri in proporzione perde più della controparte nvidia, ma anche coi filtri a palla resta molto sopra una gts640 praticamente ovunque.
Ciao
quoto...
...con la precisazione ke in titoli ke sfruttano l'UE3 tipo "Bioshock" o "Medal of Honor: Airborne" la HD2900XT è ai livelli di una 8800 GTX senza dover ricorrere a nessun oc...
...x il resto prendi il modello da 512mb...nn ne vale la pena prendere quello da 1gb ke al momento porta a miglioramenti in pokissimi gioki e solo a ris molto elevate ma nel 95% dei casi vanno uguale...ciao
Scusatemi se mi permetto questa domanda,siccome non ho trovato altri thread penso che questo sia anche per la 2900XT 1GB. Ora,volevo sapere come sono le prestazioni di questa scheda (anche in oc) rispetto a una 8800gtx/ultra?:D
Siccome ho letto in alcune pagine che la 2900XT 512 sta accanto alla gtx come prestazioni negli ultimi driver...volevo sapere sulle prestazioni della sorella + grande,in quanto dalla gpu mi dipende pure la scelta sulla mobo da acquistare.
Non vado troppo OT sennò rischio di inquinare il thread.;)
Grazie e ciao!:)
la versione hd2900xt da 1gb si differisce da quella da 512mb per il solo clock della ram una monta gddr3 da 1650mhz e l'altra gddr4 da 1100mhz.
fondamentalmente c'è una differenza di banda passante da 105gb della 512mb a 128gb per la versione da 1gb.
diciamo questa differenza di clock e dotazione di memoria si sente solo per risoluzioni superiori ai 1600x1200 punti ed è un aumento prestazionale che si conta nell'ordine dal 3 al 5% di prestazioni in +.
io sono un ex possessore di 8800gts(che cmq è una gran bella vga) e posso assicurarti che sicuramente la hd2900xt è notevolmente sopra sia con prestazioni senza filtri dove arriva a competere con la gtx sia con filtri dove è sicuramente sopra la gts.
ad oggi ti direi tra una gts ed una gtx.
poi è un gap che si presenta solo in dx9 mentre in dx10 con aa via shader se il gioco lo supporta è a livello di gtx anche con i filtri
il paragone con la ultra secondo me nn va fatto semplicemente xè la ultra è sicuramente la vga + veloce in assoluto di questo periodo ma ha dei costi cosi proibitivi per l'utenza media che forse in certi confronti non va nemmeno presa in considerazione(si confrontano vga da 330 come la 8800gts e la hd2900xt da 512 e vga da 430E come la 8800gtx e la hd2900xt da 1gb con una vga da 600E che altro non è che un overclock tirato a motre della 8800gtx.)
fondamentalmente adesso la situazione è
dx9
hd2900xt a livello di gtx senza filtri
hd2900xt tra una gts e una gtx con filtri, la versione da 1gb è + vicina alla gtx ovviamente.
dx10
2900 a livello di gtx senza filtri
2900 tra gts e gtx con filtri se il gioco esegue aa classico
2900 a livello di gtx se il gioco esegue aa via shader.
Scrambler77
22-09-2007, 10:22
2900 a livello di gtx se il gioco esegue aa via shader.
Fonte?
Chicco85
22-09-2007, 10:26
E' un dato di fatto... R600 ha una capacità di elaborazione matematica superiore a G80 (in alcuni casi non di poco). Ergo, se i calcoli di interpolazione per applicare l'AA li devono fare gli shader, R600 se la cava alla pari o meglio di G80 nella sua incarnazione completa.
Scrambler77
22-09-2007, 10:40
E' un dato di fatto... R600 ha una capacità di elaborazione matematica superiore a G80 (in alcuni casi non di poco). Ergo, se i calcoli di interpolazione per applicare l'AA li devono fare gli shader, R600 se la cava alla pari o meglio di G80 nella sua incarnazione completa.
In questi mesi AMD ci ha insegnato che i numeri teorici ed i riscontri reali sono due cose distinte e separate.
Pertanto se parliamo di un riscontro reale, ripeto la domanda: c'è qualche benchmark pratico di qualche videogame a sostegno di questa tesi? Se si, quale?
Chicco85
22-09-2007, 10:42
Benchmark reali? Eccoli... sono test sintetici, ma più reali che mai.
http://img483.imageshack.us/img483/3660/r600elaborazionematematef1.jpg
Parlavo di dati di fatto, non di supposizioni teoriche. ;)
P.s.: ed il link da cui viene la tabella, gentilmente passato da un amico.
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821
Chicco85
22-09-2007, 10:53
Al momento nessun gioco utilizza gli shader per effettuare AA, quindi per ora è solo teoria ;)
Allora perchè e solo teoria evitiamo di parlarne? Anche se L'UE3 prevede l'AA esclusivamente L'AA via shader? Anche se le dx10.1 richiedono l'interpolazione non lineare per applicare l'AA?
Curioso. :D
edit
Curioso anche questo. :D
Scrambler77
22-09-2007, 10:57
Benchmark reali? Eccoli... sono test sintetici, ma più reali che mai.
Parlavo di dati di fatto, non di supposizioni teoriche. ;)
P.s.: ed il link da cui viene la tabella, gentilmente passato da un amico.
http://www.hkepc.com/bbs/hwdb.php?tid=790821&tp=AMD-R600-HIS&rid=790821
Non per polemizzare, ma la mia richiesta era relativa a bench su videogames che sostengano la tua (e non solo) tesi, basata a mio avviso su semplici illazioni di natura teorica. Nonostante tutta questa potenza di calcolo di cui parli, infatti, R600 ad oggi resta indietro su tutti i titoli in circolazione, coi filtri attivi (AA+HDR soprattutto), requisito minimo per una scheda di fascia medio-alta.
Ergo, mi dispiace, ma i test sintetici dicono ben poco, perchè non riflettono le prestazioni "de-facto" della scheda, mentre quell'utente chiedeva informazioni sulle prestazioni reali (videogames) delle schede in oggetto.
Visto che mi pare di aver capito che non ci sono scenari reali che sostengano quella tesi, per me il discorso è chiarito. ;)
Ciao.
TecnoWorld8
22-09-2007, 10:58
Ma bioshock che è basato su UT3, prevede l'AA via shader?
Chicco85
22-09-2007, 11:03
Ne riparleremo quando ci saranno scenari reali di cui parli allora. :)
Puntualizzo solo una cosa... non sono io che parlo della capacità matematica di R600, ma sono quei test, quei dati che, proprio perchè provengono da test sintetici, non sono poi molto confutabili (poichè non si può barare molto). Quindi, non sono illazioni teoriche. ;)
Chicco85
22-09-2007, 11:04
Ma bioshock che è basato su UT3, prevede l'AA via shader?
Bioshock è una bestia un pò strana in realtà... il fatto che non si possa attivare l'AA su qualsiasi architettura senza usare strani hack la dice lunga. :D
Scrambler77
22-09-2007, 11:09
Ne riparleremo quando ci saranno scenari reali di cui parli allora. :)
Puntualizzo solo una cosa... non sono io che parlo della capacità matematica di R600, ma sono quei test, quei dati che, proprio perchè provengono da test sintetici, non sono poi molto confutabili (poichè non si può barare molto). Quindi, non sono illazioni teoriche. ;)
Condivido (in linea teorica) ciò che dici su quei test (dai numeri in effetti interessanti), ma quei test sintetici, fino ad oggi, sono stati smentiti in scenari reali. Domani si vedrà.
Converrai con me, però, che dispensare ad un utente inesperto un consiglio teorico che invece ad oggi è smentito "nella pratica" non è del tutto corretto. Ma questa è tutta un'altra storia.
Saluti.
TecnoWorld8
22-09-2007, 11:17
verso l'inizio del 2007, quando di R600 si parlava delle sole caratteristiche tecniche, io ero in attesa spasmodica perchè mi pareva un vero mostro. addirittura, prima ancora, avevo acquistato la scheda che possiedo (economica, ma onesta) specificamente per attendere R600, che ero sicuro sarebbe stata la mia prossima scheda.
tutti sanno quale fu la mia delusione all'uscita, tanto che ad oggi sono ancora qui in attesa di una nuova scheda e non riesco più a giocare a ciò che esce (o meglio, non riesco a giocarci al dettaglio a cui vorrei, quindi accantono i giochi, nell'attesa di una scheda come dico io). io avrei voluto qualcosa che fosse significativamente più potente di G80 ed R600 pareva esserlo. Come è mostrato dai quei benchmark sintetici, poteva esserlo! E invece non lo è stato :(
Non so se sia perchè ancora non è sfruttato a dovere, o per qualche errore progettuale che ha fatto sì che questo chip fosse eccessivamente sbilanciato. Il fatto è che anche dopo 4 mesi dall'uscita, non è in grado di superare un chip molto più vecchio e, sulla carta, meno efficiente.
Magari in futuro (in altri prodotti) l'approccio di ATi si mostrerà più efficace (lo spero molto), ma questa situazione ha fatto sì che una scheda uscita a novembre 2006 continui a costare 500€.
Spero che il 25 settembre AMD ci stupisca tutti. Lo spero con il cuore, qualunque cosa farà.
webbuffa
22-09-2007, 11:23
Dispoibili gli 8.0 beta! :D datati 07/09/07 :)
http://www.station-drivers.com/page/ati%20catalyst.htm
Chicco85
22-09-2007, 11:25
Curiosa la scelta di chiamarli 8.0 beta...
Peccato ci siano solo per xp e non ci sia un changelog... :)
webbuffa
22-09-2007, 11:29
Curiosa la scelta di chiamarli 8.0 beta...
Peccato ci siano solo per xp e non ci sia un changelog... :)
:) Da quel poco che ho visto cercando on line, pare che abbiano aggiunto il supporto per la HD2900PRO :)... chissà se apportano anche migliorie :)
TecnoWorld8
22-09-2007, 11:31
:) Da quel poco che ho visto cercando on line, pare che abbiano aggiunto il supporto per la HD2900PRO :)... chissà se apportano anche migliorie :)
spero non sia questa la "sorpresa" del 25 settembre, altrimenti AMD/ATi mi deluderà ancora una volta :(
Chicco85
22-09-2007, 11:40
:) Da quel poco che ho visto cercando on line, pare che abbiano aggiunto il supporto per la HD2900PRO :)... chissà se apportano anche migliorie :)
Già, quello l'avevo intuito anche io... solo che cambiare proprio dicitura per il semplice supporto di una vga in più mi sembra eccessivo. Sono sempre più curioso, va a finire che li scarico e li installo su l'xp da bench, anche se non avrei molto tempo.
webbuffa
22-09-2007, 11:41
Già, quello l'avevo intuito anche io... solo che cambiare proprio dicitura per il semplice supporto di una vga in più mi sembra eccessivo. Sono sempre più curioso, va a finire che li scarico e li installo su l'xp da bench, anche se non avrei molto tempo.
:O Potrebbe anche essere una esagerazione messa in giro da qualche sito poco competente... resta il fatto che sono v.code 8.42 :)
Iantikas
22-09-2007, 11:48
le bolas ke ha fatto questa storia...se la HD2900XT in generale fosse + prestante della GTX nn costerebbe 340€...nessuna azienda regala niente a nessuno...
...quindi al caro utente in cerca di info gli dico senza tante disquisizioni filosofike ke, anzikè stare a sentire tanti discorsi "generalizzati", x info + dettagliate sulle prestazioni gli conviene puntare su qualke rece...
http://www.legionhardware.com/document.php?id=683 (Medal of Honor Airborne)
http://www.legionhardware.com/document.php?id=681 (Bioshock)
http://www.xbitlabs.com/articles/video/display/enemy-territory-performance.html (ET:QW)
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html (rece con driver recenti ke comprende una ventina d test su tutti i titoli + importanti attualmente in circolazione)
http://www.xbitlabs.com/articles/video/display/directx10-games.html (rece ke si sofferma sulle prestazioni nei gioki DX10 attualmente in commercio)
...l'insieme d queste rece offre un quadro completo sulle prestazioni ke attualmete offrono le varie skede DX10 attualmente in commercio...
...tramite queste potrai capire quale skeda s'addice d + a te e soddisfa meglio le tue esigenze...considerando ke la HD2900XT si trova a partire da 340€...la 8800GTS 640mb si trova a partire da 320€...la 8800 GTX si trova a partire da 460€...la 8800 Ultra si trova a partire da 550€...
... http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0 ...qui trovi invece consumo e rumore (entrambi rilevati strumentalmente e in maniera abb precisa) di queste skede...
...se dopo aver letto tutto questo ancora nn saprai qualke skeda aquistare vuol dire ke è meglio se aspetti nuove offerte xkè nessuna d queste skede fa x te ;) :D ...ciao
§°°...Røb£rtØ...°°§
22-09-2007, 11:57
scusatemi se per la domanda ho creato troppe discussioni,cmq vi ringrazio davvero delle risposte davvero esaurienti,quindi aspetto un secondo il 25 sett per vedere quest dark side e poi mi decido,anche perchè sul p35 il crossfire lo posso fare e lo sli no,per quello:cry:
forse è ot come domanda ma un vf-1000 è più grande del dissi della 2900xt?:)
Allora perchè e solo teoria evitiamo di parlarne? Anche se L'UE3 prevede l'AA esclusivamente L'AA via shader? Anche se le dx10.1 richiedono l'interpolazione non lineare per applicare l'AA?
Curioso. :D
Non ho affatto detto che se è solo teoria è inutile parlarne, ho solo detto che è AL MOMENTO solo teoria, e non credo che tu o qualcun altro che non sia ingegnere ATI o nVidia, o sviluppatore Epic, possano smentire questo fatto: di giochi che implementano AA via shader non ce n'è, questa è la verità.
E poi se UE3 prevede AA "esclusivamente tramite shader" (parole tue), come mai quando lo si abilita G80 vola e R600 arranca, quando dovrebbe essere il contrario secondo te?
Non inventarti cose che non ho detto per favore :rolleyes:
Curioso anche questo. :D
Ho editato solo perché non sapevo ci fossero benchmark: vedo cmnq che sono solo sintetici, cioè tutt'altro che esaustivi, quindi rimango cmnq della mia opinione; fino a quando non si vedrà 'sto benedetto AA via shader implemnetato nei giochi (che alla fine è quello che conta), e non vedo l'ora che accada, poiché sarà davvero una svolta, senza stare ad aspettare driver speciali o usare utility di terze parti, le tue parole rimarranno solo teoria, che ti piaccia o no ;)
le bolas ke ha fatto questa storia...se la HD2900XT in generale fosse + prestante della GTX nn costerebbe 340€...nessuna azienda regala niente a nessuno...
...quindi al caro utente in cerca di info gli dico senza tante disquisizioni filosofike ke, anzikè stare a sentire tanti discorsi "generalizzati", x info + dettagliate sulle prestazioni gli conviene puntare su qualke rece...
http://www.legionhardware.com/document.php?id=683 (Medal of Honor Airborne)
http://www.legionhardware.com/document.php?id=681 (Bioshock)
http://www.xbitlabs.com/articles/video/display/enemy-territory-performance.html (ET:QW)
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html (rece con driver recenti ke comprende una ventina d test su tutti i titoli + importanti attualmente in circolazione)
http://www.xbitlabs.com/articles/video/display/directx10-games.html (rece ke si sofferma sulle prestazioni nei gioki DX10 attualmente in commercio)
...l'insieme d queste rece offre un quadro completo sulle prestazioni ke attualmete offrono le varie skede DX10 attualmente in commercio...
...tramite queste potrai capire quale skeda s'addice d + a te e soddisfa meglio le tue esigenze...considerando ke la HD2900XT si trova a partire da 340€...la 8800GTS 640mb si trova a partire da 320€...la 8800 GTX si trova a partire da 460€...la 8800 Ultra si trova a partire da 550€...
... http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0 ...qui trovi invece consumo e rumore (entrambi rilevati strumentalmente e in maniera abb precisa) di queste skede...
...se dopo aver letto tutto questo ancora nn saprai qualke skeda aquistare vuol dire ke è meglio se aspetti nuove offerte xkè nessuna d queste skede fa x te ;) :D ...ciao
E questo andrebbe in 1a pagina... :)
...dato che si parlava di Bioshock ed UT3, è interessante la recensione lincata da Iantikas (non l'avevo ancora letta)
http://img233.imageshack.us/img233/7100/high1600hl9.png (http://imageshack.us)
http://img79.imageshack.us/img79/6378/highau2.png (http://imageshack.us)
ps. imho i Catalyst 8.0 sono solo un errore di battitura, dovrebbero essere i 7.10...oppure...dark side...:D
*edit* non si vedevano le immagini.
TecnoWorld8
22-09-2007, 12:05
ps. imho i Catalyst 8.0 sono solo un errore di battitura, dovrebbero essere i 7.10...oppure...dark side...:D
sarebbe un dark side ben poco dark...ma ormai da AMD (che tanto stimavo) mi attendo di tutto.
Chicco85
22-09-2007, 12:18
Non ho affatto detto che se è solo teoria è inutile parlarne, ho solo detto che è AL MOMENTO solo teoria, e non credo che tu o qualcun altro che non sia ingegnere ATI o nVidia, o sviluppatore Epic, possano smentire questo fatto: di giochi che implementano AA via shader non ce n'è, questa è la verità.
E poi se UE3 prevede AA "esclusivamente tramite shader" (parole tue), come mai quando lo si abilita G80 vola e R600 arranca, quando dovrebbe essere il contrario secondo te?
Non inventarti cose che non ho detto per favore :rolleyes:
La tua affermazione sembrava così categorica da non lasciare spazio a trattazioni ulteriori. Ok, se vuoi faccio un mea culpa, anche se quel "curioso" era da leggersi in chiave ironica. Volente o nolente sono cose che si devono tener conto, vista l'evoluzione che stanno compiendo i motori grafici.
Sinceramente non ho capito questa cosa:
di giochi che implementano AA via shader non ce n'è, questa è la verità.
E poi se UE3 prevede AA "esclusivamente tramite shader" (parole tue), come mai quando lo si abilita G80 vola e R600 arranca, quando dovrebbe essere il contrario secondo te?
Sai già che G80 vola ed R600 arranca? E comunque è vera la faccenda dell'UE3 relativa all'AA via shader.
Ho editato solo perché non sapevo ci fossero benchmark: vedo cmnq che sono solo sintetici, cioè tutt'altro che esaustivi, quindi rimango cmnq della mia opinione; fino a quando non si vedrà 'sto benedetto AA via shader implemnetato nei giochi (che alla fine è quello che conta), e non vedo l'ora che accada, poiché sarà davvero una svolta, senza stare ad aspettare driver speciali o usare utility di terze parti, le tue parole rimarranno solo teoria, che ti piaccia o no ;)
Sono previsioni basate su dati concreti. R600 ha certe capacità matematiche, G80 ne ha altre. Ergo, in caso di utilizzo dello shader core per effettuare calcoli, avranno prestazioni diverse. Quanto queste prestazioni diverse alla fine incidano in termini di frame al secondo questo si vedrà, ma non si può lasciar perdere di disquisire su quei dati di fatto bollandoli come semplici teorie.
Tutto questo dicendo che sono un utente che ha acquistato R600 "as is", che non spera certo nel miracolo di vederlo scavare un solco tra lui e G80 (GTX/Ultra) perchè so che se succederà, sarà solo in alcuni particolari scenari.
si poi trà l'altro io vado cmq sempre ricordando che anche qui g80 non è che farà pena nsomma è vero che ha 128shader ma li ha anche clokkati a 1350mhz mentre r600 li ha sempre clokkati a 740mhz.
g80 sicuramente in dx10 non avrà un abbassamento di prestazioni anzi, è dato di fatto teorico e dai test sintetici che r600 invece avrà un aumento prestazionale importante.
che puo con ogni probabilità arrivare a competere con le gtx.
come come detto se i prendiamo solo i test dei game il + grande test è UT2009 e crysis se invece gia volgiamo parlare di primi test sintetici nell'uso esclusivo delle feature dx10 dalle tabelle postare r600 vince a mani basse
E questo andrebbe in 1a pagina... :)
QUOTO,molto interessante ;)
yossarian
22-09-2007, 13:00
i test postati da Chicco rappresentano solo una situazione parziale (quella relativa ai soli calcoli matematici), ma reale e non teorica (è stato proprio grazie ai test sintetici che sono emerse le "magagne" della serie NV3x, molto prima che in game). Le capacità matematiche dei due chip sono diverse perchè i due chip hanno architetture molto differenti (con R600 molto più complesso da ottimizzare). E' lapalissiano che quei test non siano esaustivi ma sono indicativi. Ad esempio, che G80 sia molto più veloce di R600 in quasi tutte le operazioni di texture filtering e nelle z-ops emerge dai test sintetici (e rappresenta una situazione reale). Così come è reale il fatto che il ring bus di R600 introduce latenze inferiori rispetto al crossbar di G80, che R600 se la cavi meglio con i gs e che il db di G80 sia leggermente migliore.
Una situazione in game è solo una combinazione tra le tante possibili che può favorire una o l'altra architettura
Athlon 64 3000+
22-09-2007, 13:06
http://www.spaziogames.com/content2/news/news.asp?id=77573&zona=pc&foto=1&num_foto=0
E' uscito un altro benchmark che permettere ci provare R600 e G80 sia in dx9 che in dx10.
Scrambler77
22-09-2007, 13:10
Non ho mai detto che quei numeri sono falsi, anzi sono interessanti. Ma tutto ciò si diceva anche prima che R600 uscisse... poi si è visto come sono andate le cose.
Alla luce di tutto questo, consentitemi di rimanere scettico, finchè non ci sarà un riscontro nell'ambito pratico (cioè dei videogames).
Gli utenti (in genere) non si comprano una sk.video sulla base dei test sintetici, ma sulle prestazioni dei videogames veri e propri.
http://www.legionhardware.com/document.php?id=681 (Bioshock)
ma mica era davanti la 2900xt in bioshock rispetto alla 8800 gtx, come mai ora è dietro??
i test postati da Chicco rappresentano solo una situazione parziale (quella relativa ai soli calcoli matematici), ma reale e non teorica (è stato proprio grazie ai test sintetici che sono emerse le "magagne" della serie NV3x, molto prima che in game). Le capacità matematiche dei due chip sono diverse perchè i due chip hanno architetture molto differenti (con R600 molto più complesso da ottimizzare). E' lapalissiano che quei test non siano esaustivi ma sono indicativi. Ad esempio, che G80 sia molto più veloce di R600 in quasi tutte le operazioni di texture filtering e nelle z-ops emerge dai test sintetici (e rappresenta una situazione reale). Così come è reale il fatto che il ring bus di R600 introduce latenze inferiori rispetto al crossbar di G80, che R600 se la cavi meglio con i gs e che il db di G80 sia leggermente migliore.
Una situazione in game è solo una combinazione tra le tante possibili che può favorire una o l'altra architettura
Non ho mai detto che quei numeri sono falsi, anzi sono interessanti. Ma tutto ciò si diceva anche prima che R600 uscisse... poi si è visto come sono andate le cose.
Alla luce di tutto questo, consentitemi di rimanere scettico, finchè non ci sarà un riscontro nell'ambito pratico (cioè dei videogames).
Gli utenti (in genere) non si comprano una sk.video sulla base dei test sintetici, ma sulle prestazioni dei videogames veri e propri.
Niente da aggiungere.
@ Chicco85
Nessun meaculpa, ci mancherebbe: mi dà solo fastidio che mi si affibbino parole che non ho pronunciato ;)
@ Safendi
Leggi la pagina 11 del test: sono stati fatti test anche in altre locazioni del gioco dove ed in effetti HD2900XT è supriore alla 8800GTX
-Feanor-
22-09-2007, 13:15
ma mica era davanti la 2900xt in bioshock rispetto alla 8800 gtx, come mai ora è dietro??
guarda questa pagina
http://www.legionhardware.com/document.php?id=681&p=11
Athlon 64 3000+
22-09-2007, 13:17
http://www.firingsquad.com/hardware/amd_nvidia_windows_vista_driver_performance_update/page8.asp
Guardando questo test rimango molto perplesso perchè con aa attivato la hd2900XT stacca di netto persino la 8800GTX.
Secondo me questo test è completamente campato per aria.
Chicco85
22-09-2007, 13:19
Notes
It’s important to note that the Radeon cards in BioShock are running with 0xAA/16xAF, all the other cards (including the GeForce 7900 GT) are running with 4xAA/16xAF. AMD Radeon cards do not support AA by default in BioShock. AA must be forced by renaming the executable from “bioshock.exe” to “Oblivion.exe”. Doing this however disables all performance optimizations.
We have a strong suspicion that NVIDIA’s ForceWare 163.69 delivers a nice performance boost over the 163.67 driver. This applies to both Windows XP and WinVista. It looks like the performance boost is a little greater under XP though based on our tests: the GeForce 8800 GTX ran up to 8% faster under XP than Vista.
The rest of the cards perform pretty similarly regardless of OS used.
;)
guarda questa pagina
http://www.legionhardware.com/document.php?id=681&p=11
Ma sono in DX 9 o 10?
-Feanor-
22-09-2007, 13:21
http://www.firingsquad.com/hardware/amd_nvidia_windows_vista_driver_performance_update/page8.asp
Guardando questo test rimango molto perplesso perchè con aa attivato la hd2900XT stacca di netto persino la 8800GTX.
Secondo me questo test è completamente campato per aria.
mmm...anche secondo...
ti basti pensare che si tratta dello stesso sito che dava come risultato di bioshock questo... http://www.hwupgrade.it/forum/showpost.php?p=18546513&postcount=3
:rolleyes:
Notes
It’s important to note that the Radeon cards in BioShock are running with 0xAA/16xAF, all the other cards (including the GeForce 7900 GT) are running with 4xAA/16xAF. AMD Radeon cards do not support AA by default in BioShock. AA must be forced by renaming the executable from “bioshock.exe” to “Oblivion.exe”. Doing this however disables all performance optimizations.
Ma come è possibile che anche la 7900GT abbia AA attivato? MI sa tanto che si sono fumati qualcosa quelli di firingsquad :mbe:
Cert che cmnq STALKER e R600 non vanno affatto d'accordo
Free Gordon
22-09-2007, 13:30
I 256bit di banda sono ringbus o proprio effettivi?
Sono il bus esterno.
2400x32= 77GB/s di banda (circa).
Più che sufficienti anche per l'attuale 2900XT, nelle attuali applicazioni. ;)
Credo che questa 2950XT (lo dice anche il nome :D ) andrà più forte dell'attuale versione di R600 anche a risoluzioni elevate...e costerà molto meno ad AMD.
Sarebbe bello se uscisse per Natale.. anche se non ci spero molto.
-Feanor-
22-09-2007, 13:30
Ma come è possibile che anche la 7900GT abbia AA attivato? MI sa tanto che si sono fumati qualcosa quelli di firingsquad :mbe:
Cert che cmnq STALKER e R600 non vanno affatto d'accordo
infatti....la serie 7 non puo gestire aa e hdr insieme...
perche in bioshock c'è l hdr vero..?? :stordita:
Free Gordon
22-09-2007, 13:38
tutto sommato se hanno mantenuto 320sp e con gddr4 1.2 e una banda di 68gb a risoluzioni di 1024 potrebbe anche andare meglio di una hd2900xt dove in queste risoluzioni + che la banda conta il clock del core. certo sotto AA non saranno i 50mhz in + sul core a riprendere il gap del bus a 256bit contro quello a 512.
Se fosse il die shrink del core R600 (per cui 5TU, 4 RBE, 320sp), questa scheda andrebbe più forte della 2900XT nella grande maggioranza dei casi. 77GB/s di banda bastano anche a res alte.
Zodd_Il_nosferatu
22-09-2007, 13:39
http://img88.imageshack.us/img88/3110/nuovoantialiasinghd7.th.jpg (http://img88.imageshack.us/my.php?image=nuovoantialiasinghd7.jpg)
nuovo adaptive antialiasing...
come lo devo impostare? :confused:
Chicco85
22-09-2007, 13:44
Ma come è possibile che anche la 7900GT abbia AA attivato? MI sa tanto che si sono fumati qualcosa quelli di firingsquad :mbe:
Cert che cmnq STALKER e R600 non vanno affatto d'accordo
Non saprei... non avendo una 7900 GT tra le mani e bioshock non mi sono mai interessato dall'applicazione AA relativo a vga di quella famiglia.
Giunge nuova anche a me in ogni caso.
TecnoWorld8
22-09-2007, 13:46
Sono il bus esterno.
2400x32= 77GB/s di banda (circa).
Più che sufficienti anche per l'attuale 2900XT, nelle attuali applicazioni. ;)
Credo che questa 2950XT (lo dice anche il nome :D ) andrà più forte dell'attuale versione di R600 anche a risoluzioni elevate...e costerà molto meno ad AMD.
Sarebbe bello se uscisse per Natale.. anche se non ci spero molto.
se uscisse il 25 settembre sarei la persona più felice al mondo, ma dubito
http://img88.imageshack.us/img88/3110/nuovoantialiasinghd7.th.jpg (http://img88.imageshack.us/my.php?image=nuovoantialiasinghd7.jpg)
nuovo adaptive antialiasing...
come lo devo impostare? :confused:
nuovo? ma se c'è da mesi...
Zodd_Il_nosferatu
22-09-2007, 13:51
nuovo? ma se c'è da mesi...
ehm forse non hai letto sotto il MULTISAMPLING...
prima c'era solo via supersampling l'adaptive antialiasing ;)
Free Gordon
22-09-2007, 13:52
E poi se UE3 prevede AA "esclusivamente tramite shader" (parole tue), come mai quando lo si abilita G80 vola e R600 arranca, quando dovrebbe essere il contrario secondo te?
Di quale gioco stai parlando?
Non ci sono giochi (Call of Juarez dx10 a parte) dove l'AA sia via shader.
In bioshock se si attiva l'AA, l'illuminazione globale va su ON e spariscono le fonti di luce alternative. ;)
E questo andrebbe in 1a pagina... :)
sto rifacendo io la prima pagina del 3d, forse domani riesco a mandarla al moderatore (nn scannatemi ma nn ricordo nome)
cmq Iantikas grazie per tutti i link ;)
Iantikas
22-09-2007, 14:22
ma mica era davanti la 2900xt in bioshock rispetto alla 8800 gtx, come mai ora è dietro??
se avessi letto tutta la rece nn mi faresti questa domanda xkè sapresti già la risposta...
...in tutti i test iniziali presenti in quell'articolo, come scenario (siccome bioshock nn ha un bench integrato) hanno scelto la scena iniziale (quella dove si skianta l'aereo e poi si prende la batisfera)...tale scena, come saprà kiunque ha giocato a bioshock, rappresenta uno scenario totalmente diverso da quello ke poi c si ritrova in tutti i livelli del gioco (dove si sta sempre "al kiuso")...
...mentre nella scena inziale la HD2900XT sta leggermente dietro la 8800 GTX (ma di poco e cmq parekkio sopra la GTS) si è visto ke nei vari livelli d gioco è invece la GTX ha stare leggermente dietro alla HD2900XT...
...cmq le differenze in entrambi i casi sono lievi e dato il metodo usato x testare (Fraps, ke d x se nn porta a risultati perfettamente costanti e riproducibili) se ne deduce ke in tale gioco HD2900XT e 8800GTX vanno alla pari...
...l'uscita d MoH:A ha poi in seguito permesso d constatare quello ke x ora sembra un trend comune...ossia ke in gioki ke sfruttano l'UE3 la XT eguaglia la GTX distanziando in modo netto la sua diretta concorrente (8800 GTS 640mb)...
...questo assume importanza dato ke questo motore è uno dei + importanti attualmente in circolazione e ora, ma sopratutto nel prox futuro, usciranno una miriade di titoli basati su d esso...
...x es. la GTS invece stacca in modo netto la XT in Stalker...questo xò nn fa grande notizia dato ke tale motore l'utilizza esclusivamente questo gioco...
...tenendo cmq presente ke x quanto possa essere (e sarà) diffuso l'UE3 nn tutti i gioki lo sfrutteranno e in generale la GTX offre prestazioni superiori tali da garantire, sopratutto a ris elevate (tipo 1920x1200 o superiori) con AA, un migliore gameplay nella maggior parte dei titoli attualmente in commercio...
...ciao
webbuffa
22-09-2007, 14:34
:) Complimenti per l'ottima panoramica Iantikas :)
In bioshock se si attiva l'AA, l'illuminazione globale va su ON e spariscono le fonti di luce alternative. ;)
ma questo sia con la 2900 che con la 8800?
10.1 :eek:
http://www.tomshw.it/news.php?newsid=11429
Bioshock è una bestia un pò strana in realtà... il fatto che non si possa attivare l'AA su qualsiasi architettura senza usare strani hack la dice lunga. :D
Mica vero, su XP con i FW >= 163.44 e G80 si imposta così
http://img146.imageshack.us/img146/6664/nuovo2yk8.th.jpg (http://img146.imageshack.us/my.php?image=nuovo2yk8.jpg)
e questa mi sembra una cosa abbastanza consueta, piuttostro che uno strano hack :)
Scrambler77
22-09-2007, 16:59
Mica vero, su XP con i FW >= 163.44 e G80 si imposta così
e questa mi sembra una cosa abbastanza consueta, piuttostro che uno strano hack :)
Confermo.
Iantikas
22-09-2007, 18:48
In effetti nn ho mai capito xkè gioki come Oblivion, Bioshock, R6V, etc x loro natura nn supportino l'AA se poi in una maniera o nell'altra è possibile attivarlo senza problemi d sorta o artefatti grafici d alcun genere...
...il forzarlo dal pannello driver nn'è la forma + consueta x attivare l'AA (altrimenti l'attivarlo direttamente dal gioco dovrebbe essere quella "+ consuetissima" :D ) ma nn'è neanke uno strano hack...
...e dà da pensare l'impossibilità ke invece si presenta al momento con ATI se nn si rinomina l'eseguible in Oblivion.exe...dato ke nn credo sia d così difficile attuazione anke xkè pure rimoninando l'eseguibile (e perdendo le ottimizzazioni x bioshock) c'è cmq potenza a sufficenza x giocarlo a 1680x1050 4xAA/16xAF senza problemi e artefatti d'alcun tipo avendone anke in avanzo...
...infatti credevo integrassero tale funzione nei 7.9 ma così nn'è stato...lasciandomi la speranza nei 7.10 o nel fatto ke "Chuck" possa essere un fan anke d bioshock x creare un'omonima patch a quella ke ai tempi fece x oblivion...
...ciao
Iantikas
22-09-2007, 19:02
a me nn me ne può fregar de meno (anke se un pò curioso lo ero)..cmq x molti mi sa ke nn'è una delle notizie + belle...
... http://www.tomshw.it/news.php?newsid=11430 ...
...alla fine anke se dovessero posticipare pure l'uscita del gioco completo c son tanti d quei titoli in uscita nelle prox settimane/mesi ke d crysis nn ne sentirò proprio la mancanza...
...quello ke sta x arrivare è davvero uno dei periodi + floridi x i videogioki su pc...come nn se ne vedevano da tempo...ciao
i test postati da Chicco rappresentano solo una situazione parziale (quella relativa ai soli calcoli matematici), ma reale e non teorica (è stato proprio grazie ai test sintetici che sono emerse le "magagne" della serie NV3x, molto prima che in game). Le capacità matematiche dei due chip sono diverse perchè i due chip hanno architetture molto differenti (con R600 molto più complesso da ottimizzare). E' lapalissiano che quei test non siano esaustivi ma sono indicativi. Ad esempio, che G80 sia molto più veloce di R600 in quasi tutte le operazioni di texture filtering e nelle z-ops emerge dai test sintetici (e rappresenta una situazione reale). Così come è reale il fatto che il ring bus di R600 introduce latenze inferiori rispetto al crossbar di G80, che R600 se la cavi meglio con i gs e che il db di G80 sia leggermente migliore.
Una situazione in game è solo una combinazione tra le tante possibili che può favorire una o l'altra architettura
Ommioddio yoss. :ave:
Vengo. :O
i test postati da Chicco rappresentano solo una situazione parziale (quella relativa ai soli calcoli matematici), ma reale e non teorica (è stato proprio grazie ai test sintetici che sono emerse le "magagne" della serie NV3x, molto prima che in game). Le capacità matematiche dei due chip sono diverse perchè i due chip hanno architetture molto differenti (con R600 molto più complesso da ottimizzare). E' lapalissiano che quei test non siano esaustivi ma sono indicativi. Ad esempio, che G80 sia molto più veloce di R600 in quasi tutte le operazioni di texture filtering e nelle z-ops emerge dai test sintetici (e rappresenta una situazione reale). Così come è reale il fatto che il ring bus di R600 introduce latenze inferiori rispetto al crossbar di G80, che R600 se la cavi meglio con i gs e che il db di G80 sia leggermente migliore.
Una situazione in game è solo una combinazione tra le tante possibili che può favorire una o l'altra architettura
yoss yoss yoss
yoss yoss yoss
yoss yoss yoss
yoss yoss yoss
Venuto pure tu, eh? :O
Salve a tutti,
mi chiedevo se qualcuno ha provato ad utilizzare l'adattatore HDMI della Shappire 2900XT per collegare il Pc ad un TV LCD.
Io ci ho provato ieri sera senza alcun risultato. Infatti dopo aver collegato, con grande difficoltà, il cavo HDMI al PC (non sono riuscito in alcun modo a far arrivare il connettore del cavo al fondo dell'adattatore), il mio televisore (un Samsung 32R74) non mi ha rilevato alcuna unità collegata all'ingresso HDMI.
Non riesco a capire se il problema è dovuto al cattivo accoppiamento cavo-adattatore (colpa dell'adattatore essendo il cavo un Qunex da 120 euro), oppure è da impostarequalcosa nel control panel Ati.
Saluti
gstia
Iantikas
22-09-2007, 20:47
Salve a tutti,
mi chiedevo se qualcuno ha provato ad utilizzare l'adattatore HDMI della Shappire 2900XT per collegare il Pc ad un TV LCD.
Io ci ho provato ieri sera senza alcun risultato. Infatti dopo aver collegato, con grande difficoltà, il cavo HDMI al PC (non sono riuscito in alcun modo a far arrivare il connettore del cavo al fondo dell'adattatore), il mio televisore (un Samsung 32R74) non mi ha rilevato alcuna unità collegata all'ingresso HDMI.
Non riesco a capire se il problema è dovuto al cattivo accoppiamento cavo-adattatore (colpa dell'adattatore essendo il cavo un Qunex da 120 euro), oppure è da impostarequalcosa nel control panel Ati.
Saluti
gstia
ma quando dici "non sono riuscito in alcun modo a far arrivare il connettore del cavo al fondo dell'adattatore" intendi ke adattatore e cavo n erano perfettamente connessi?...no xkè se è così puoi smettere d cercarla xkè la causa è sicuramente quella li...
...inoltre (se nn l'hai già fatto) scarica gli "HDMI audio driver" dal sito ati (o, nel caso già l'avssi fatto, assicurati ke siano instllati correttamente e ke la versione dei driver hdmi sia la stessa dei cat...dovrebbe funzionare lo stesso anke se son diverse ma nn si sa mai)...
...ciao
Iantikas
22-09-2007, 20:50
articolo ke ben s'aggiunge agli altri linkati prima (anke se è un pò presto x avere un quadro definitvo)...
http://www.guru3d.com/article/Videocards/459/1 ....prestazioni in WiC
...aldilà delle performance delle varie skede si evince (così come x Call of Juarez DX10) ke x sfruttare il setting very high in DX10 512mb d ram son il minimo indispensabile...
...ciao
Intendevo dire che il connettore del cavo penetra all'interno dell'adattatore per mezzo centimetro, ma non riesco a capire se il collegamento è efficacie oppure no.:confused:
Per quanto riguarda i driver audio Hdmi non li ho scaricati. Adesso provo a scaricarli, grazie del consiglio.;)
Saluti
gstia
A proposito,
i driver audio HDMI, sono inclusi nei catalyst? Perche sul sito dell'AMD/ATI non riesco a trovare nulla.
Saluti
gstia
i test postati da Chicco rappresentano solo una situazione parziale (quella relativa ai soli calcoli matematici), ma reale e non teorica (è stato proprio grazie ai test sintetici che sono emerse le "magagne" della serie NV3x, molto prima che in game). Le capacità matematiche dei due chip sono diverse perchè i due chip hanno architetture molto differenti (con R600 molto più complesso da ottimizzare). E' lapalissiano che quei test non siano esaustivi ma sono indicativi. Ad esempio, che G80 sia molto più veloce di R600 in quasi tutte le operazioni di texture filtering e nelle z-ops emerge dai test sintetici (e rappresenta una situazione reale). Così come è reale il fatto che il ring bus di R600 introduce latenze inferiori rispetto al crossbar di G80, che R600 se la cavi meglio con i gs e che il db di G80 sia leggermente migliore.
Una situazione in game è solo una combinazione tra le tante possibili che può favorire una o l'altra architettura
O MIO DIO (OMG!!!) il tanto famigerato, acclamato e stimato yoss!!! è un piacere :)
mordsiger
23-09-2007, 00:34
ragazzi.... mio record personale... la config è in firma ( appena aggiornata)
3DMark05
http://img507.imageshack.us/img507/9793/3dm05op5.th.jpg (http://img507.imageshack.us/my.php?image=3dm05op5.jpg)
3DMark06
http://img507.imageshack.us/img507/7125/3dm06vo4.th.jpg (http://img507.imageshack.us/my.php?image=3dm06vo4.jpg)
che ne dite? ...con proc e board ho finito con l'overclock... sono al max... adesso aspetto il nuovo atitool sperando di overvoltare la 2900 !!!
webbuffa
23-09-2007, 00:45
ragazzi.... mio record personale... la config è in firma ( appena aggiornata)
3DMark05
CUT
3DMark06
CUT
che ne dite? ...con proc e board ho finito con l'overclock... sono al max... adesso aspetto il nuovo atitool sperando di overvoltare la 2900 !!!
Complimenti... ottimi scores :D
Scrambler77
23-09-2007, 00:56
Ommioddio yoss. :ave:
Vengo. :O
Venuto pure tu, eh? :O
Ragazzi dovete riprendere ad uscire più spesso! :asd:
Zodd_Il_nosferatu
23-09-2007, 01:15
ma nessuno ha testato i catalyst 8.40 (i 7.10beta) su una 2900xt?
Ragazzi dovete riprendere ad uscire più spesso! :asd:
No, è che yoss ci mancava tanto (non si era notato eh? :stordita: ). :O
Athlon 64 3000+
23-09-2007, 10:33
c'è qualcuno che ha provato gli 8.42 beta?
raga avrei bisogno di una lista dei dissippatori compatibili sulla 2900, e dell'utente che ne ha montato uno (scusa ma nn mi ricordo il tuo nome)
Grazie :)
raga avrei bisogno di una lista dei dissippatori compatibili sulla 2900, e dell'utente che ne ha montato uno (scusa ma nn mi ricordo il tuo nome)
Grazie :)
Ci dovrebbero essere (ad aria): VF1000Cu e HR-03 R600.
Ci dovrebbero essere (ad aria): VF1000Cu e HR-03 R600.
ok Grazie.
ps: ho appena finito di riscrivere tutta la prima pagina del 3d, dopo la posto.
Iantikas
23-09-2007, 11:27
Ci dovrebbero essere (ad aria): VF1000Cu e HR-03 R600.
il VF1000 nn vien dato x compatibile con R600 (almeno nn ce traccia d lei sul sito Zalman)...al momento mi sembra l'unico sia l'HR03 x R600...
...ciao
p.s.: a M4R1|<, io ho montato l'HR03...ciao
il VF1000 nn vien dato x compatibile con R600 (almeno nn ce traccia d lei sul sito Zalman)...al momento mi sembra l'unico sia l'HR03 x R600...
...ciao
p.s.: a M4R1|<, io ho montato l'HR03...ciao
azzo devo subito dirli di correggere allora, Grazie!
se avete suggerimanti o correzione da fare (ecc.) fatemi sapere che conunicherò le modifiche a simon82. se volete fatelo anche voi, l'unica cosa che da quello che ho visto ultimamente i mod sono molto occupati, quindi se lo faceva solo uno e riassumeva tutte le modifiche era anche più veloce;)
ps: adesso nn so cmq credo che entro stassera la prima pag del 3d sia aggiornata
cmq commentate pure:)
il VF1000 nn vien dato x compatibile con R600 (almeno nn ce traccia d lei sul sito Zalman)...al momento mi sembra l'unico sia l'HR03 x R600...
...ciao
p.s.: a M4R1|<, io ho montato l'HR03...ciao
Ma dovrebbe andare lo stesso.
http://www.techpowerup.com/reviews/Zalman/ZM-VF1000LED/images/front_warning.jpg
Iantikas
23-09-2007, 12:26
Ma dovrebbe andare lo stesso.
http://www.techpowerup.com/reviews/Zalman/ZM-VF1000LED/images/front_warning.jpg
sul sito Zalman tra le skede compatibili la HD2900XT NON c'è (mentre c son HD2600XT e HD2400XT)...poi ke cmq essendo i fori distanziati allo stesso modo ke sulle X1x00 e quindi (forse) sia possibile montarlo lo stesso è un'altra storia...
...ma se la Zalman nn lo dikiara compatibile un motivo c sarà sicuramente xkè nn ha ke da perderci a nn dikiararlo se poi invece è possibile montarlo senza problemi (inoltre a montarlo bisognerebbe poi procurarsi da se dei dissi x mosfet e mem xkè quelli forniti in dotazione nn son in numero sufficente x la HD2900XT)...
...ciao
sul sito Zalman tra le skede compatibili la HD2900XT NON c'è (mentre c son HD2600XT e HD2400XT)...poi ke cmq essendo i fori distanziati allo stesso modo ke sulle X1x00 e quindi (forse) sia possibile montarlo lo stesso è un'altra storia...
...ma se la Zalman nn lo dikiara compatibile un motivo c sarà sicuramente xkè nn ha ke da perderci a nn dikiararlo se poi invece è possibile montarlo senza problemi (inoltre a montarlo bisognerebbe poi procurarsi da se dei dissi x mosfet e mem xkè quelli forniti in dotazione nn son in numero sufficente x la HD2900XT)...
...ciao
Molto probabilmente servirà una placca come quella necessaria alle 8800, ma il dissi si può agganciare sulla scheda e riesce a raffreddare il core.
ragazzi quando io ho smontato per mettere il liquido i fori di r600 sono uguali a quelli delle x19x0 quindi presumo si possano montare su di lui anche gli zalman vecchi...
Scrambler77
23-09-2007, 12:38
Evidentemente il problema è raffreddare le ram.
corradobernardi
23-09-2007, 12:40
secondo me la soluzione di ventola a turbina con il tunnel che guida il flusso all'esterno del case è la soluzione ideale. (cioè dissy 2900xt stock).
o si va a liquido, o si tiene quello stock... è un ottimo dissipatore. credo che altri dissy ad aria se non hanno il sistema di sfogo sul retro sono inutili imho.
secondo me la soluzione di ventola a turbina con il tunnel che guida il flusso all'esterno del case è la soluzione ideale. (cioè dissy 2900xt stock).
o si va a liquido, o si tiene quello stock... è un ottimo dissipatore. credo che altri dissy ad aria se non hanno il sistema di sfogo sul retro sono inutili imho.
nn è detto, dipenda come si ha il case
Free Gordon
23-09-2007, 12:50
ma questo sia con la 2900 che con la 8800?
Con tutte.
Confermo.
Non è un hack, ma non è possibile con nessuna scheda attivare l'AA avendo le features di illuminazione completamente attive.
Quando attivi l'AA, spariscono le fonti di luce alternative, il motore in pratica non usa deferred shading.
Iantikas
23-09-2007, 13:41
secondo me la soluzione di ventola a turbina con il tunnel che guida il flusso all'esterno del case è la soluzione ideale. (cioè dissy 2900xt stock).
o si va a liquido, o si tiene quello stock... è un ottimo dissipatore. credo che altri dissy ad aria se non hanno il sistema di sfogo sul retro sono inutili imho.
nn'è vero...dipende dal ricircolo ke c'è nel case...io ho montato un HR03 su R600 e le temp del core/mem si son abbassate d 22°/10° con una semplice 92mm a 1600rpm (anni luce + silenziosa dello stock in 3d)...e in un TJ09 con 5 schyte FDB a 1050rpm le temp di mobo/cpu/etc sono rimaste le stesse ke avevo con il dissi stock...
...l'unico accorgimento ke voglio mettere in atto adesso e il mettere l'HX620 con la ventola rivolta verso il basso ad aspirare l'aria direttamente da fuori il case...finora l'ho tenuto con la ventola rivolta verso l'alto dimodokè partecipasse anke lui al ricircolo d'aria del case...penso d girarlo xkè nonostante ci siano 7/8cm tra lui e la 92mm del HR03, dato il bassisimo numero d giri ke tiene l'ali anke in full load, ho paura ke la 92mm possa essere influenzata da lui aspirando aria un pò + calda...appena lo faccio comq vedrò se è solo un film o ci guadagno qualke altro grado...
...ciao
Non è un hack, ma non è possibile con nessuna scheda attivare l'AA avendo le features di illuminazione completamente attive.
Quando attivi l'AA, spariscono le fonti di luce alternative, il motore in pratica non usa deferred shading.
Coiè tu dici che attivando AA si disattiva HDR? Dove lo hai letto?
Coiè tu dici che attivando AA si disattiva HDR? Dove lo hai letto?
sicuramente se uno usa una geforce 7000 series questo succede;)
Con tutte.
Non è un hack, ma non è possibile con nessuna scheda attivare l'AA avendo le features di illuminazione completamente attive.
Quando attivi l'AA, spariscono le fonti di luce alternative, il motore in pratica non usa deferred shading.
Allora questo dovrebbe spiegare la ragione per cui l'opzione non esiste nella configurazione delle opzioni video.
Sai se ci sono screenshot che mostrano le differenze qualitative ?
Grave Digger
23-09-2007, 17:53
ragazzi avete un link dove si fa un test comparativo tra un sistema con due 2900 xt in CF full 16x ed uno in cui le stesse schede sono settate in modalità 8x cadauna :) ???
vorrei ben capire che divario prestazionale vi sia :) ....
sicuramente se uno usa una geforce 7000 series questo succede;)
Onestamente ho provato ad attivare AA in Bioshock, ma non si attiva un bel nulla (la cosa per altro non mi stupisce affatto, conoscendo il limite della serie 7x00 in caso di HDR+AA): le seghettature ci sono ancora tutte :mbe:
@ Grave Digger
non farti sentire: la configurazione dual gpu ATI si chiama CrossFire, non SLI :asd:
Iantikas
23-09-2007, 18:27
ragazzi avete un link dove si fa un test comparativo tra un sistema con due 2900 xt in sli full 16x ed uno in cui le stesse schede sono settate in modalità 8x cadauna :) ???
vorrei ben capire che divario prestazionale vi sia :) ....
mi sembra attualmente x il CF si sia limitati a config 8/8...con l'immininente X38 sia avrà la possibilità d fare CF 16/16...
...cmq dalle prove fatte su SLI d 8800 la differenza è irrisoria...ciao
Grave Digger
23-09-2007, 18:27
Onestamente ho provato ad attivare AA in Bioshock, ma non si attiva un bel nulla (la cosa per altro non mi stupisce affatto, conoscendo il limite della serie 7x00 in caso di HDR+AA): le seghettature ci sono ancora tutte :mbe:
@ Grave Digger
non farti sentire: la configurazione dual gpu ATI si chiama CrossFire, non SLI :asd:
mi sono distratto un attimo,adesso correggo ;) ....
mi sembra attualmente x il CF si sia limitati a config 8/8...con l'immininente X38 sia avrà la possibilità d fare CF 16/16...
...cmq dalle prove fatte su SLI d 8800 la differenza è irrisoria...ciao
scusa Iantikas ma dici che si e' linitati a 8x in cf per colpa delle schede?perche' la mia mobo ha un dual slot pciex 16x cross fire ready.....e' su socket 939..
scusa Iantikas ma dici che si e' linitati a 8x in cf per colpa delle schede?perche' la mia mobo ha un dual slot pciex 16x cross fire ready.....e' su socket 939..
idem, il mio chipset supporta senza problemi il 16x16
Chicco85
23-09-2007, 19:42
Mica vero, su XP con i FW >= 163.44 e G80 si imposta così
http://img146.imageshack.us/img146/6664/nuovo2yk8.th.jpg (http://img146.imageshack.us/my.php?image=nuovo2yk8.jpg)
e questa mi sembra una cosa abbastanza consueta, piuttostro che uno strano hack :)
Questo ti permette di evitare di rinominare l'exe come si faceva prima per poi forzare l'AA. Si insomma, semplifica un pò la vita. Sta di fatto che bioshock di suo non supporta l'AA (o meglio non lo supporta senza l'illuminazione globale attiva) e, come avrai notato, non è presente nelle impostazioni video del gioco. ;)
Io personalmente riesco a forzarlo solo in dx9. In dx10 attualmente non c'è verso. :)
idem, il mio chipset supporta senza problemi il 16x16
si allora il chip radeonxpress1600 supporto un cf 8x-8x su 2 slot 16x meccanici.
il chip radeonexpress3200 invece supporta il cf16x-16x su 2 slot 16x meccanici.
questi 2 per il lato amd.
anche ovviamente l'amd rd690 e rd790 supportano cf 16x-16x.
su intel invece per via della differente gestione delle linee pci-ex invece anche sul radeonextpress intel3200 si puo fare solo 8x-8x ed anche sulle 965 e 975 solo 8x-8x.
fino ad x38 si puo fare solo 8x-8x ma è una questione insita nel chipset diciamo è una questione di diverso uso delle linee pci-express tra amd ed intel.
ad esempio rd600 per intel ed rd600 per amd sono + o - lo stesso chipset con 48 linee pciexpress eppure su intel se ne possono usare solo 16 per la linea grafica e su amd ben 32 di massimo.
per questo che sulla mia icfx3200 intel hanno messo 3 slot pci-express per le vga che anche se occupati tutte e 3 posso usare sempre un max di 8 linee a slot.
lo hanno messo per recuperare linee che se no in configurazione cf non verrebbero usate.
anche se oggettivamente purtroppo(e faccio mea culpa) non so affondo xè su intel non è possibile sfruttare con i c2d + di 8 linee in configurazione cf mentre su amd si.
Free Gordon
23-09-2007, 20:46
Coiè tu dici che attivando AA si disattiva HDR? Dove lo hai letto?
L'HDR è un'altra cosa.
Io parlo delle ombre dinamiche: a quanto pare se metti l'AA, è come se impostassi l'illuminazione globale su ON.
E in quel caso spariscono le ombre secondarie, in pratica esiste solo più una fonte di luce.
Per cui tanto vale attivare l'AA.. perdi tutta la bellezza del gioco, che sta proprio nelle stupende ombre, accelerate col deferred shading. In DX10 le ombre sono ancora più belle.
fustacchione90
23-09-2007, 21:22
raga allora qualcuno sa se si puo risolvere ora il crash del beta di team fortress 2 con 2900+vista?:mc:
raga allora qualcuno sa se si puo risolvere ora il crash del beta di team fortress 2 con 2900+vista?:mc:
lo hanno aggiornato TF2... a me crasha molto meno ;) , prima del update una volta ogni 5 minuti c'era un crash, ora posso giocare anche per 1 ora senza crash :p
si allora il chip radeonxpress1600 supporto un cf 8x-8x su 2 slot 16x meccanici.
il chip radeonexpress3200 invece supporta il cf16x-16x su 2 slot 16x meccanici.
questi 2 per il lato amd.
anche ovviamente l'amd rd690 e rd790 supportano cf 16x-16x.
su intel invece per via della differente gestione delle linee pci-ex invece anche sul radeonextpress intel3200 si puo fare solo 8x-8x ed anche sulle 965 e 975 solo 8x-8x.
fino ad x38 si puo fare solo 8x-8x ma è una questione insita nel chipset diciamo è una questione di diverso uso delle linee pci-express tra amd ed intel.
ad esempio rd600 per intel ed rd600 per amd sono + o - lo stesso chipset con 48 linee pciexpress eppure su intel se ne possono usare solo 16 per la linea grafica e su amd ben 32 di massimo.
per questo che sulla mia icfx3200 intel hanno messo 3 slot pci-express per le vga che anche se occupati tutte e 3 posso usare sempre un max di 8 linee a slot.
lo hanno messo per recuperare linee che se no in configurazione cf non verrebbero usate.
anche se oggettivamente purtroppo(e faccio mea culpa) non so affondo xè su intel non è possibile sfruttare con i c2d + di 8 linee in configurazione cf mentre su amd si.
Grazie per la spiagazione Catan :)
cmq quando vedo delle domande dove posso rispondo nei limiti delle mie conoscenze. spero di nn infastidirti se ogni tanto mi correggi:)
conviene comprare la HD2900 Xt da 512 o da 1 Gb ?
ho sentito dire che la Geforce 8800 gts da 640 è più potente della HD2900 XT 512 è vero ?
avete problemi di temperatura con la HD2900 XT ? a quanto arriva ? è calda come l'inferno ? vi trovate bene con sta scheda ?
e per i consumi in watt ? mantenere una radeon hd 2900 xt influisce molto sulla spesa della bolletta della corrente ? fate conto che tengo il computer acceso dalla mattina alla sera e quando gioco dedico circa 5-6 ore al massimo dei filtri ecc...
quale è la temperatura limite alla quale ci si deve preoccupare ?
in sostanza vi ha mai dato qualche genere di problema ?
grazie :)
conviene comprare la HD2900 Xt da 512 o da 1 Gb ?
dipende della risoluzione del tuo schermo
ho sentito dire che la Geforce 8800 gts da 640 è più potente della HD2900 XT 512 è vero ?
no è assolutamete vero, la 2900xt è più poteste sia senza filtri che con filtri della 8800gts. le prestazioni variano da game a game, ma cmq si può dire che ormai se uno nn attiva AA le prestazioni sono molto simili alla gtx, invece se viene attivato le prestazioni sono cmq sempre superiori della gts ;) ci sono solo un paio di game in qui questa è sopra, per esempio bioshock in dx10, ma calcola che tutto dipende dai driver, quindi si dovrebbe aspettare per giudicare :)
avete problemi di temperatura con la HD2900 XT ? a quanto arriva ? è calda come l'inferno ? vi trovate bene con sta scheda ?
assolutamente no, si è un po' rumorosa, ma calcola che la ventoa nn va mai oltre il 41%. cmq le temperature sono un po' superiori della gtx
e per i consumi in watt ? mantenere una radeon hd 2900 xt influisce molto sulla spesa della bolletta della corrente ? fate conto che tengo il computer acceso dalla mattina alla sera e quando gioco dedico circa 5-6 ore al massimo dei filtri ecc...
allora quano nn usi la scheda consuma in load, e ti incide circa un 100/120watt, invece quado giochi al max consuma in torno hai 280 (cmq come una ultra), come mi hanno fatto notare degli utenti, il concetto espresso nn è chiaro, per tanto mi riferisco ha un sistema completo; mi sembrava ovvio che solo la vga nn consumasse così tanto, se no altro che 1000W l'intero pc :D
quale è la temperatura limite alla quale ci si deve preoccupare ?
nn ci arriverai mai. cmq nn lo so, ma credo oltre i 120°
in sostanza vi ha mai dato qualche genere di problema ?
grazie :)
No.
nn c'è di che, spero di averti chiarito le idee
conviene comprare la HD2900 Xt da 512 o da 1 Gb ?
ho sentito dire che la Geforce 8800 gts da 640 è più potente della HD2900 XT 512 è vero ?
avete problemi di temperatura con la HD2900 XT ? a quanto arriva ? è calda come l'inferno ? vi trovate bene con sta scheda ?
e per i consumi in watt ? mantenere una radeon hd 2900 xt influisce molto sulla spesa della bolletta della corrente ? fate conto che tengo il computer acceso dalla mattina alla sera e quando gioco dedico circa 5-6 ore al massimo dei filtri ecc...
quale è la temperatura limite alla quale ci si deve preoccupare ?
in sostanza vi ha mai dato qualche genere di problema ?
grazie :)
no male che va la hd2900xt va poco di + di una 8800gts, bene che va va come una gtx.
io vengo appunto da una 8800gts e mi sono trovato molto meglio, le vga hanno le stesse temperature circa sia in idle che in full load e si attestano sempre attorno ai 70-75 gradi.
fondamentalmente se parli di spesa della corrente non è che stiamo parlando di vga economicissime nei consumi nsomma è vero che la hd2900xt consuma un pò di + da si aprla cmq di vga che consumano tra i 100 e i 120w poi la differenza tra una decina di watt tra la gtx e la hd2900 non si fa sentire.
ovviamente il consumo risparmiato si sente se prendi una fascia media che raramente consuma + di 65w e li la differenza con una vga che ne consuma 120 si sente.
Problemi i soliti problemi che ci possono essere con le vga nsomma conta che quando avevo la 8800gts la demo di lost planet mi crashava quindi i soliti problemini random di ogni vga vanno tenuti in considerazione ma tutto nella norma.
per la 1gb secondo me la hd2900xt ha gia una banda elevato con 512mb , quella da 1gb serve solo se pensi di giocare assiduamente con risoluzioni superiori ai 1600x1200 punti.
L'HDR è un'altra cosa.
Io parlo delle ombre dinamiche: a quanto pare se metti l'AA, è come se impostassi l'illuminazione globale su ON.
E in quel caso spariscono le ombre secondarie, in pratica esiste solo più una fonte di luce.
Per cui tanto vale attivare l'AA.. perdi tutta la bellezza del gioco, che sta proprio nelle stupende ombre, accelerate col deferred shading. In DX10 le ombre sono ancora più belle.
ma è meglio metterla su off l'illuminazione globale?
Scrambler77
24-09-2007, 08:50
conviene comprare la HD2900 Xt da 512 o da 1 Gb ?
Conviene non acquistare nulla adesso. Siamo a fine settembre. Aspetta novembre per l'uscita di nuove soluzioni e poi decidi.
L'HDR è un'altra cosa.
Io parlo delle ombre dinamiche: a quanto pare se metti l'AA, è come se impostassi l'illuminazione globale su ON.
E in quel caso spariscono le ombre secondarie, in pratica esiste solo più una fonte di luce.
Per cui tanto vale attivare l'AA.. perdi tutta la bellezza del gioco, che sta proprio nelle stupende ombre, accelerate col deferred shading. In DX10 le ombre sono ancora più belle.
ALcuni test fatti sul gioco, non evidenziano affatto l'abilitazione dell'illuminazione globale quandi si attiva AA ;)
ma è meglio metterla su off l'illuminazione globale?
Su ON si perdono alcune ombre, ma niente di eclatante; OFF è l'impostazione per la massima qualità delle stesse
Tidus.hw
24-09-2007, 09:09
raga allora qualcuno sa se si puo risolvere ora il crash del beta di team fortress 2 con 2900+vista?:mc:
a me non è mai crashato...
Conviene non acquistare nulla adesso. Siamo a fine settembre. Aspetta novembre per l'uscita di nuove soluzioni e poi decidi.
nuovi chip grafici in arrivo, o remaking degli attuali? che si prevede all'orizzonte?
Iantikas
24-09-2007, 09:59
assolutamente no, si è un po' rumorosa, ma calcola che la ventoa nn va mai oltre il 41%. cmq le temperature sono un po' superiori della gtx
allora quano nn usi la scheda consuma in load, e ti incide circa un 100/120watt, invece quado giochi al max consuma in torno hai 280 (cmq come una ultra)
nn ci arriverai mai. cmq nn lo so, ma credo oltre i 120°
No.
nn c'è di che, spero di averti chiarito le idee
nn lo fai xò se scrivi cose del genere...
...120Win idle e 280W in load??? :eek: ...fortunatamente la situazione è molto + rosea di quella ke descrivi e nn credo si arriverà mai a quei livelli...
...il consumo in idle si assesta sui 70W al pari della GTX e 160W in full load (30W in + della GTX e 55W in + della GTS)...
... http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0 ...(qui trovi consumo e rumore delle varie kede DX10 misurati strumentalmente e quindi abb precisi)...
...dal punto d vista del consumo nn son circa 60W (nel caso della diretta concorrente GTS 640mb) a creare problemi dato ke se l'ali ce la fa ad alimentare una ce la fa ad alimentare anke l'altra (difficilmente gl ali li si usano al max delle loro capacità)...la differenza sulla bolletta derivante da un consumo così è qualcosa d irrisorio ed equivalente a poke decine d 'euro all'anno...
...x quanto riguarda le temp in full load io sulla mia quando avevo il dissi stock arrivavo sui 71/74° (con velocità max della ventola 37%)...
...la temp d'allerta è 100°...giunti alla quale il dissi va in protezione e parte la ventola al 100%...x impedire d passare i 110° ke rappresentano la temp max sopportata dal chip...cmq con una skeda in condizioni normali è impossibile arrivare ad uno scenario del genere...
...il rumore era l'unico problema ke dava a me (è abb + rumorosa della GTS/GTX in full load....anke se cmq nn ai livelli delle "vekkie"x1900xtx" e ad uno ke nn ci sta molto attento può andare bene com'è anke xkè in idle è silenziosa)...ho risolto il problema in full load cambiando dissi e usando un HR03 x R600...oltre ad un minor rumore ho guadagnato anke circa 20/10° su core/mem ...
...x le prestazioni si pon in media a metà strada tra GTS/GTX...+ vicina alla prima se si abilita AA e + vicina alla seconda se nn lo si fa...
...verso fine anno dovrebbero uscire i refresh ati/nvidia...se nn hai fretta forse ti conviene aspettare un paio d mesi...ma se devi aquistare ora nn'è ke prendi delle carrette anke xkè le nuove arkitetture ke porteranno seri miglioramenti arriveranno verso marzo 2008...ciao
Leggi le news di oggi ;)
Scusa ma le 2950 non saranno di fascia inferiore rispetto all'attuale 2900 XT?
http://www.hwupgrade.it/forum/showthread.php?t=1554641
si si, so bene della pro, ma è cmq inferiore alla XT, mi chiedevo se per novembre c'è da attendersi delle nuove top di gamma da ATI e nVIDIA...
Domani AMD svelerà il "mostro" (http://www.hwupgrade.it/forum/showthread.php?t=1557585) che dice di avere in serbo: se si tratta di una nuova CPU o di una nuova high end ATI, o di qualcosa d'altro, lo scopriremo solo domani
Iantikas
24-09-2007, 11:05
si si, so bene della pro, ma è cmq inferiore alla XT, mi chiedevo se per novembre c'è da attendersi delle nuove top di gamma da ATI e nVIDIA...
durante l'estate la roadmap dava R680 (ipotetica HD2950XT/XTX) in uscita a novembre/dicembre...ma da allora nn se n'è sentito + parlare e si è messo d mezzo anke un bel pò d FUD...aspettare è un riskio...xkè sia x ati ke x nvidia a fianco alle medie/medio-alte nn c'è certezza ke escano anke nuove high-end e ti potresti quindi ritrovare a dicembre senza una nuova high-end da poter comprare e ad aspettare altri tre o + mesi finkè nn esce la nuova generazione...
...ciao
Deve presentare un "mostro"?? Non ne sapevo niente, così mi metti curiosità a mille... speriamo bene.. vedremo domani allora.. magari sarà un grande giorno.. una bella GPU a 55nm da 1ghz magari??? Speriamo bene :)
Free Gordon
24-09-2007, 11:40
Mah, spero solo che sia qualcosa di fruibile per tutti (economicamente) e che sia qualcosa di supportato fin da subito... :D
......e speriamo che non serva un ali da 1000w....e un estintore per le temperature :asd:
Domani AMD svelerà il "mostro" (http://www.hwupgrade.it/forum/showthread.php?t=1557585) che dice di avere in serbo: se si tratta di una nuova CPU o di una nuova high end ATI, o di qualcosa d'altro, lo scopriremo solo domani
Da dove viene questa notizia ?!?
mordsiger
24-09-2007, 11:50
avete visto questa news?
Catalyst 7,10 beta (o 8.0 beta che dir si voglia) ver 8.42 di driver con nuovi AA supersampling e multisampling
http://www.dinoxpc.com/News/news.asp?ID_News=13213&What=News&tt=Disponibili+i+driver+Ati+Catalyst+7.10+BETA
qualcuno li ha provati o li proverà? ....dato che all'uscita del 7.10 ufficiali passerà ancora un po'.......
io mi lancio come cavia...però prima di stasera dopo cena nn ho il tempo....
Da dove viene questa notizia ?!?
Hai cliccato su mostro ?
Si... Letto grazie.
Quindi si dovrebbe sapere domani ?!?
......e speriamo che non serva un ali da 1000w....e un estintore per le temperature :asd:
:sbonk: :sbonk: :sbonk: :sbonk:
Si... Letto grazie.
Quindi si dovrebbe sapere domani ?!?
Se domani è il 25 settembre, e lo è..si. :stordita:
Free Gordon
24-09-2007, 12:44
Ponendo il caso di un RV670 (ma è strano che abbia questa V dentro allora...) con un core R600 completo + circuiteria AA (dubito fortemente) e bus a 256bit, avremmo una scheda con un core con 75mhz in più di R600 e una banda disponibile di 77GB/s (quasi).
Questa scheda sarebbe nella grande maggioranza dei casi più veloce della 2900XT.
75mhz sul core in più rispetto alla 2900XT non sono pochissimi.. e quella banda a disposizione sarebbe più che sufficiente nelle grande maggioranza dei casi e dimostro anche perchè: la 8800GTX ha un controller crossbar da 87Gb/s di banda (per cui meno "capace" del ringbus di R580/R600 e con soli 10GB/s in più rispetto a questa ipotetica 2950pro) e non patisce granchè le alte risoluzioni con le applicazioni attuali...
Rispetto alla 2900XT, Rv670 avrebbe lo stesso quantitativo di ram e un controller più semplice da ottimizzare via software, oltre a possedere 75mhz in più sul core.
Se le caratteristiche sono quelle ipotizzate sopra (ma dubito molto), Rv670 sarà un'agguerrito concorrente per la GTX... e più veloce della 2900XT sicuramente, sopratutto con AA "box" attivato.
scusate ma esiste una versione con frequente 815/1900 della HD 2900 Xt ? ho visto che alcuni di voi hanno queste frequenze. Con queste frequenze la scheda diventa più calda ? se si quanto di più ? dove l'avete comprata ?
grazie
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.