PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

bioexml
03-07-2007, 18:21
mi sto pentendo di aver preso la 8800GTX, avrei dovuto aspettare l'uscita della 2900XT e assaporare la sua enorme potenza di calcolo e incredibile ed avanzata tecnologia interna :cry:
Lo sapevo che con i driver sarebbe arrivata a livelli incredibili, va beh.... aspettiamo la prossima mandata e via...

webbuffa
03-07-2007, 18:22
invece guardate che questa riflessione è stata fatta diverse volte a dire il vero.....;)

:) infatti LOL e il mio post precedente ne è una conferma lol :oink:

webbuffa
03-07-2007, 18:23
mi sto pentendo di aver preso la 8800GTX, avrei dovuto aspettare l'uscita della 2900XT e assaporare la sua enorme potenza di calcolo e incredibile ed avanzata tecnologia interna :cry:
Lo sapevo che con i driver sarebbe arrivata a livelli incredibili, va beh.... aspettiamo la prossima mandata e via...

:oink: non dire cosi', dai, tutti facciamo incauti acquisti :) almeno una volta nella vita



:asd: (STO SUPER SCHERZANDO EH!)

bioexml
03-07-2007, 18:28
:oink: non dire cosi', dai, tutti facciamo incauti acquisti :) almeno una volta nella vita



:asd: (STO SUPER SCHERZANDO EH!)

se solo avessi immaginato che la 2900XT fosse stata la più potente scheda DX10-DX9 esistente, non avrei esitato ad aspettare, sicuramente surclasserà anche le prossime schede nvidia, tipo il G90, grazie alla maturazione dei suoi driver incredibili.
Vedendo tutti quei fps in più mi mangio le mani, veramente incredibile

webbuffa
03-07-2007, 18:29
se solo avessi immaginato che la 2900XT fosse stata la più potente scheda DX10-DX9 esistente, non avrei esitato ad aspettare, sicuramente surclasserà anche le prossime schede nvidia, tipo il G90, grazie alla maturazione dei suoi driver incredibili.
Vedendo tutti quei fps in più mi mangio le mani, veramente incredibile

:ciapet: auhauhaauhuhauha :Prrr:

Tidus.hw
03-07-2007, 18:29
se solo avessi immaginato che la 2900XT fosse stata la più potente scheda DX10-DX9 esistente, non avrei esitato ad aspettare, sicuramente surclasserà anche le prossime schede nvidia, tipo il G90, grazie alla maturazione dei suoi driver incredibili.
Vedendo tutti quei fps in più mi mangio le mani, veramente incredibile

sicuramente con un aggiornamento dei driver supporterà anche le dx12 :ahsisi:

bioexml
03-07-2007, 18:34
sicuramente con un aggiornamento dei driver supporterà anche le dx12 :ahsisi:

stai scherzando vero ? :eek:

webbuffa
03-07-2007, 18:36
stai scherzando vero ? :eek:

:) fonti di corridoio dicono che entro il Q4 del 2007 sara' possibile.

:asd:

Evangelion01
03-07-2007, 18:38
mi sto pentendo di aver preso la 8800GTX, avrei dovuto aspettare l'uscita della 2900XT e assaporare la sua enorme potenza di calcolo e incredibile ed avanzata tecnologia interna :cry:
Lo sapevo che con i driver sarebbe arrivata a livelli incredibili, va beh.... aspettiamo la prossima mandata e via...

Beh, allora scusa, perchè non te la rivendi? scommetto che la tua scarsa gtx :asd:, la piazzi facilmente a 350€. E con quei soldi ci pigli la 2900xt nuova senza spedere 1 centesimo e senza difficoltà. Fossi in te lo farei subito! ;)

Tidus.hw
03-07-2007, 18:39
ragazzi che dite la smettiamo di floodare? :asd:

-Feanor-
03-07-2007, 18:40
dai ragazzi piantatela tutti...altrimenti qui ci chiudono il 3d..

Tidus.hw
03-07-2007, 18:42
già, comunque ricordate che prima che uscisse la scheda dicevano che le prestazioni erano abbastanza influenzate dalla frequenza del pci express?
qualcuno ha fatto delle prove col pcix a 100mhz e poi.. boh.. 120?

Defragg
03-07-2007, 18:42
già, comunque ricordate che prima che uscisse la scheda dicevano che le prestazioni erano abbastanza influenzate dalla frequenza del pci express?
qualcuno ha fatto delle prove col pcix a 100mhz e poi.. boh.. 120?

così sputtani i dischi :mbe:

Tidus.hw
03-07-2007, 18:44
così sputtani i dischi :mbe:

99% delle mobo moderne fixa i canali pci classici a 33mhz indipendentemente dal bus pci express ;)

zero rischi.

bioexml
03-07-2007, 18:48
Beh, allora scusa, perchè non te la rivendi? scommetto che la tua scarsa gtx :asd:, la piazzi facilmente a 350€. E con quei soldi ci pigli la 2900xt nuova senza spedere 1 centesimo e senza difficoltà. Fossi in te lo farei subito! ;)

[OT battutes on]
ahuuhauhaauhuahhuahuahauahu la mia GTX non la vendo neanche se viene un vatusso e mi pianta una pistola alla tempia...
[OT battutes off]
L'unico gioco che ho visto un po a scatti è R6 Las Vegas, ma ho provato un 1680x1050 AA 16Qx e AF 16x e tutto al max :D , volevo che si alzasse da terra il PC da quanto andavano le ventole, ma nulla :mbe:
A me serviva una scheda che andasse ORA e non tra un anno, anche perché tra un anno ne avrò un'altra nel case :D

ps. ATI è una grande, non ho mai detto il contrario, ma ha voluto mettere in commercio una scheda in un momento sbagliato, è come le macchine a idrogeno, per quanto siano meravigliose, ora rimangono "congelate" li pronte in un futuro, sempre che non ci si inventi qualcosa d'altro e pufff le macchine ad idrogeno non servono più.

+Lonewolf+
03-07-2007, 18:49
se solo avessi immaginato che la 2900XT fosse stata la più potente scheda DX10-DX9 esistente, non avrei esitato ad aspettare, sicuramente surclasserà anche le prossime schede nvidia, tipo il G90, grazie alla maturazione dei suoi driver incredibili.
Vedendo tutti quei fps in più mi mangio le mani, veramente incredibile

ma non fai altro che prendere per il culo la 2900? non hai altro da fare?

bioexml
03-07-2007, 18:51
ma non fai altro che prendere per il culo la 2900? non hai altro da fare?

mamma mia quanto sei permaloso, stavo solo scherzando, ma ridere un po ogni tanto tra tanta serietà non ti riesce ?
Non prendo in giro nessuno, figurati ;)

peace and love :D

Nos89
03-07-2007, 18:52
tranquillo, sotto sotto lo sanno anche i possessori delle 8800, tranne nos89 forse :asd:

(owiamente scherzo ;) )

infatti la penso al contrario di come dici tu....quando arrivera Crisys vedremo...e cmq non ti dimenticare i 6 mesi di ritardo di Ati dove hanno avuto tutto il tempo per fare una scheda ben più veloce dalla Ultra.....ma sembra che quei tempi sono finiti:O

+Lonewolf+
03-07-2007, 18:54
infatti la penso al contrario di come dici tu....quando arrivera Crisys vedremo...e cmq non ti dimenticare i 6 mesi di ritardo di Ati dove hanno avuto tutto il tempo per fare una scheda ben più veloce dalla Ultra.....ma sembra che quei tempi sono finiti:O

TWIMTBP;)

io aspetterei bioshock e tutto il resto...crysis magari sarà un ottimo banco di prova x g80;)

poi se la 2900 andasse meglio di g80 ben venga, anche se ci credo poco, per il resto stai sicuro che le dx10 sul g80 siono quasi uno specchietto per le allodole imho, poi vediamo la ultra in dx10, non per forza crysis

Nos89
03-07-2007, 18:56
TWIMTBP;)

io aspetterei bioshock e tutto il resto...crysis magari sarà un ottimo banco di prova x g80;)

poi se la 2900 andasse meglio di g80 ben venga, anche se ci credo poco, per il resto stai sicuro che le dx10 sul g80 siono quasi uno specchietto per le allodole imho

aspetta pure però fossi in te non me la sentirei cosi calda.....

vedi sopra;)

M4R1|<
03-07-2007, 19:00
tranquillo, sotto sotto lo sanno anche i possessori delle 8800, tranne nos89 forse :asd:

(owiamente scherzo ;) )

LOL

M4R1|<
03-07-2007, 19:02
mi sto pentendo di aver preso la 8800GTX, avrei dovuto aspettare l'uscita della 2900XT e assaporare la sua enorme potenza di calcolo e incredibile ed avanzata tecnologia interna :cry:
Lo sapevo che con i driver sarebbe arrivata a livelli incredibili, va beh.... aspettiamo la prossima mandata e via...

guarda che cmq la tua 8800gtx nn è mica da buttare, anzi. ricorda che cmq a parte qualche raro gioco in dx9 tutti quanti ti vanno più che bene! anzi...

edit: cmq potevi evitare di fare quasta uscita :nonsifa:

+Lonewolf+
03-07-2007, 19:22
aspetta pure però fossi in te non me la sentirei cosi calda.....

vedi sopra;)

:rolleyes: rispetto la tua idea...:rolleyes:

nico88desmo
03-07-2007, 19:33
La 8800GTX rimane la scelta migliore dai 400€ in su.
Rispetto a R600 in dx9 vince in tutti i bench mentre in dx10, quando perde, è sotto l'hd2900xt di 2fps che a occhio nudo non si vedono nemmeno.

nVidia questo giro ha vinto come tempistica, qualità della scheda, rumorosità, dissipazione, qualità filtro anisotropico.
amd è uscita troppo tardi in confronto e sinceramente, dopo tutti quei mesi mi sarei aspettato una scheda più veloce della top della concorrenza uscita 7 mesi prima.

Chi ha comprato il G80 a Novembre imho ha fatto una delle migliori scelte di sempre, tutt'ora è ancora al top.
Chi l'ha comprato in questo periodo invece, avrebbe fatto bene ad aspettare qualche altro mese per vedere come funzioneranno queste schede in DX10.

Questa ovviamente è una mia opinione.
Ora attendiamo i giochi DX10 e poi si trarranno tutte le conclusioni.

Iantikas
03-07-2007, 19:43
io credo crysis girerà bene sia su G80 ke su R600 e molto probabilmente andrà + ke dignitosamente anke con R580 e G71...

...il fatto ke sia un gioco TWIMNTB nn significa niente (x es. company of Heroes aderisce al programma ma gira meglio su ATI sia in DX9 ke in DX10 e x stessa ammissione del team nvidia hanno collabborato attivamente nella creazione della patch 1.70 decidendo insieme alla SH cosa andava implementato e come)...il programma TWIMTBP fa si ke siano abb sicuri ke sul loro HW giri dignitosamente sin dall'inzio ma ciò nn implica ke debba girare da skifo su HW ATI anke xkè nessuna SH d rilievo accetterebe d fare un gioco ke può essere giocato x bene solo dalla metà dei possibili aquirenti...

...inoltre cosi come nvidia ha TWIMTBP, allo stesso modo ati ha "ATI Game" con l'unica differenza ke mentre il primo è mega publicizzato il secondo è tenuto + in segreto ma cmq nn son poki i titoli ke aderiscono all'inziativa tra i quali spiccano i gioki della Valve (proprio in queste ultime settimane avevo trovato un articolo ke parlava d entrambi, se lo ritrovo lo linko)...

...secondo me crysis potrà essere giocato in DX9 con quasi tutto al max e con ris da 1280x800 in su con l'ultima gen DX9 tipo r580/G71 e R600/G80 saranno in grado d farlo girare in tutto il suo splendore almeno a 1680x1050 in Dx10...

...magari mi sbaglio d brutto ma finkè nn esce preferisco essere ottimista ke fasciarmi la testa prima ancora d essermela rotta...ciao

Pat77
03-07-2007, 20:02
C'è un passaggio logico che mi manca.

Hd2900 lanciata 1 mese e mezzo fa è troppo proiettata al futuro, eppure Vista esiste, Dx10 pure e qualcosa Dx10 esce pure.

8 mesi fa, invece, 8800, era invero un ottimo acquisto, dove non esisteva NULLA dx10, dove Vista non era uscito, dove dx10 erano ancora sulla carta e, soprattutto, dove in dx9 andava il doppio su giochi che facevano già ottimi frame rate su schede Dx9. (questa si che è utilità)

Ovviamente, vuoi per i mesi di vantaggio di sviluppo driver, era palese che la serie g80 doveva per vendere trovarsi ottimamente in dx9, essendo dx10 troppo lontane per rappresentare uno stimolo all'acquisto.

Amd, invece, ha sviluppato un architettura concentrata dx10, lanciata con So e API già uscite, per funzionare al meglio proprio in questo ambiente, ma che è chiaramente sbilanciata su questo lato offrendo comunque ottime performance dx9.

Nos89
03-07-2007, 20:05
C'è un passaggio logico che mi manca.

Hd2900 lanciata 1 mese e mezzo fa è troppo proiettata al futuro, eppure Vista esiste, Dx10 pure e qualcosa Dx10 esce pure.

8 mesi fa, invece, 8800, era invero un ottimo acquisto, dove non esisteva NULLA dx10, dove Vista non era uscito, dove dx10 erano ancora sulla carta e, soprattutto, dove in dx9 andava il doppio su giochi che facevano già ottimi frame rate su schede Dx9. (questa si che è utilità)
prova a giocare a Rainbow6:Vegas senza R600 e G80 poi ne riparliamo e visto che all'epoca R600 non c'era....bhje se volevi giocare senza scatti la soluzione era solo una
Ovviamente, vuoi per i mesi di vantaggio di sviluppo driver, era palese che la serie g80 doveva per vendere trovarsi ottimamente in dx9, essendo dx10 troppo lontane per rappresentare uno stimolo all'acquisto.

Amd, invece, ha sviluppato un architettura concentrata dx10, lanciata con So e API già uscite, per funzionare al meglio proprio in questo ambiente, ma che è chiaramente sbilanciata su questo lato offrendo comunque ottime performance dx9.

tze tutto da dimostare e al momento queste sono solo supposizioni

Pat77
03-07-2007, 20:13
tze tutto da dimostare e al momento queste sono solo supposizioni

R6 Vegas giocato e finito su 1900GT, dimostrare che 8800 è stata lanciata 8 mesi fa e Windows Vista a fine febbraio?
Gia qualche indizio si ha, manca la conferma.

Nos89
03-07-2007, 20:16
R6 Vegas giocato e finito su 1900GT, dimostrare che 8800 è stata lanciata 8 mesi fa e Windows Vista a fine febbraio?
Gia qualche indizio si ha, manca la conferma.

si ho capito....ma a 1024*768 lo hai finito e non credo AA quindi non mi dire che hai avuto un esperienza di gioco definitiva.....vuoi che cito qualche altro titolo?:rolleyes:

Pat77
03-07-2007, 20:25
si ho capito....ma a 1024*768 lo hai finito e non credo AA quindi non mi dire che hai avuto un esperienza di gioco definitiva.....vuoi che cito qualche altro titolo?:rolleyes:

1280, ma guarda veramente anche su 7900 gs un mio amico, se mi sono divertito? Non vedo l'ora esca il seguito visto il finale aperto ;)

Nos89
03-07-2007, 20:40
1280, ma guarda veramente anche su 7900 gs un mio amico, se mi sono divertito? Non vedo l'ora esca il seguito visto il finale aperto ;)

ok avete sempre ragione:rolleyes:
per il seguito concordo:D

+Lonewolf+
03-07-2007, 20:42
ok avete sempre ragione:rolleyes:
per il seguito concordo:D

smettila di polemizzare ogni cosa, non se ne può più...

Nos89
03-07-2007, 20:43
smettila di polemizzare ogni cosa, non se ne può più...

ma stai zitto che tu sei il primo quindi non commentare;)

+Lonewolf+
03-07-2007, 20:45
ma stai zitto che tu sei il primo quindi non commentare;)

io nn polemizzo assolutamente niente, apparte ciò che misembra una cretinata...tu invece m pare che vieni qua solo x criticare, dire che la tua 8800gts è la vga + veloce del mondo e che le 2900 fanno schifo...a me pare che io nn faccia affatto quello che fai tu

io commento quanto mi pare rispettando gli utenti e le loro idee, come ho scritto anche a te prima, quindi fammi il piacere

Raven
03-07-2007, 20:49
smettila di polemizzare ogni cosa, non se ne può più...

ma stai zitto che tu sei il primo quindi non commentare;)

...

+Lonewolf+
03-07-2007, 20:51
io non polemizzo proprio nulla, apparte le castronerie

poi se x te polemizzare significa esprimere le proprie idee allora si, polemizzo

chiudo quà altrimenti faccio inc@zzare i mod

Nos89
03-07-2007, 20:54
ma ne sei proprio sicuro? fossi in te mi rileggerei qualche pagina....dove sei pure stato sospeso quindi Ihmo parlare con te è l'equivalente di parlare con un (:muro: )

-Feanor-
03-07-2007, 20:55
si ho capito....ma a 1024*768 lo hai finito e non credo AA quindi non mi dire che hai avuto un esperienza di gioco definitiva.....vuoi che cito qualche altro titolo?:rolleyes:

:rolleyes: ...mamma mia...questo è manifesto di quanto siamo malati...mi vergogno fin...esperienza di gioco definitiva...non riusciremo manco piu a divertirci di questo passo con i videogiochi....:rolleyes:

+Lonewolf+
03-07-2007, 20:56
ma ne sei proprio sicuro? fossi in te mi rileggerei qualche pagina....dove sei pure stato sospeso quindi Ihmo parlare con te è l'equivalente di parlare con un (:muro: )

sono stato sospeso xkè ho chiamato un'utente ignorante, tant'è vero poi il livello di quell'utente lo hanno visto tutti nei suoi mess privati,

l'utente di cui nn faccio nome continuava a flammare e io ho solo detto ignorante

poi mi pare che tu sia stato sospeso x circa 30gg se nn m sbaglio, quindi se parlare cn me equivale a parlare con il muro xkè sn stato sospeso 5gg...per 30gg...

ti consiglio di smetterla di polemizzare, (so che è difficile ma provaci)

Nos89
03-07-2007, 20:56
:rolleyes: ...mamma mia...questo è manifesto di quanto siamo malati...mi vergogno fin...esperienza di gioco definitiva...non riusciremo manco piu a divertirci di questo passo con i videogiochi....:rolleyes:

purtroppo è gia cosi.....perchè saremo sempre ossesionati da Fraps e da Rivatuner che alla fine il gioco serve solo per vedere 2 numeretti:rolleyes:

Nos89
03-07-2007, 20:58
sono stato sospeso xkè ho chiamato un'utente ignorante, tant'è vero poi il livello di quell'utente lo hanno visto tutti nei suoi mess privati,

l'utente di cui nn faccio nome continuava a flammare e io ho solo detto ignorante

poi mi pare che tu sia stato sospeso x circa 30gg se nn m sbaglio, quindi se parlare cn me equivale a parlare con il muro xkè sn stato sospeso 5gg...per 30gg...

ti consiglio di smetterla di polemizzare, (so che è difficile ma provaci)

mi spiace ma sono arrivato a 'soli' 21gg e non a causa di questo tread ma parecchio tempo fa perchè insultai Freeman in Pvt

+Lonewolf+
03-07-2007, 21:04
mi spiace ma sono arrivato a 'soli' 21gg e non a causa di questo tread ma parecchio tempo fa perchè insultai Freeman in Pvt

beh, mi ricordavo male, cmq cambia poco...

-Feanor-
03-07-2007, 21:04
purtroppo è gia cosi.....perchè saremo sempre ossesionati da Fraps e da Rivatuner che alla fine il gioco serve solo per vedere 2 numeretti:rolleyes:

è proprio quello che intendo io...che tristezza....:rolleyes:

Nos89
03-07-2007, 21:08
beh, mi ricordavo male, cmq cambia poco...

per me non cambia niente io la continuo a pensare nel mio modo te nel tuo....basta cosi per oggi:stordita:

Iantikas
03-07-2007, 21:08
C'è un passaggio logico che mi manca.

Hd2900 lanciata 1 mese e mezzo fa è troppo proiettata al futuro, eppure Vista esiste, Dx10 pure e qualcosa Dx10 esce pure.

8 mesi fa, invece, 8800, era invero un ottimo acquisto, dove non esisteva NULLA dx10, dove Vista non era uscito, dove dx10 erano ancora sulla carta e, soprattutto, dove in dx9 andava il doppio su giochi che facevano già ottimi frame rate su schede Dx9. (questa si che è utilità)

Ovviamente, vuoi per i mesi di vantaggio di sviluppo driver, era palese che la serie g80 doveva per vendere trovarsi ottimamente in dx9, essendo dx10 troppo lontane per rappresentare uno stimolo all'acquisto.

Amd, invece, ha sviluppato un architettura concentrata dx10, lanciata con So e API già uscite, per funzionare al meglio proprio in questo ambiente, ma che è chiaramente sbilanciata su questo lato offrendo comunque ottime performance dx9.


da quasi possessore di HD2900XT spero nn penserai ke se ti sto quotando son un fanboy nvidia (o di ati)...cmq andando al sodo secondo me sbagli in partenza a fare questo discorso "GPU + o - DX10"...

x es. la frase le geforce8 sono schede dx9 compatibili con le dx10.
le hd 2k sono vga dx10 compatibili con le dx9 ...scritta poco fa (ke gira da parekkio in vari 3d) è assurda così come il discorso ke fai tu...

...le DX10 son delle librerie e a parte prediligere un'arkitettura a shader unificati nn dicono quale sia la migliore tra le due attulmente in commercio...

...la differenza ke fai tu DX10/DX9 invece la dovresti spostare sul fatto ke R600 è + spostata verso gioki ke fanno un uso massiccio d operazioni sui pixel e relativamente basso su texture...G80 invece è un arkitettura ke ad una buona capacità eleborativa sui pixel affianca ottime doti x quanto riguarda le texture...

...quale rapporto ALU/TEX avranno i futuri gioki DX10 è impossibile da predire...è vero ke tale rapporto a poco a poco si sta spostando verso un uso sempre maggiore dei pixel ma è anke vero ke una discreta parte delle operazioni sui pixel prevede cmq degli accessi alle texture (e questo potrebbe limitare R600)...

...in bench sintetici (e NON sto palrando del 3dmark) danno un quadro di quella ke è la situazione e delle potenzialità nei vari scenari d queste due arkitetture...

...il fatto ke da questi ne esca ke c sia da sperare ke R600 possa andare bene nn implica ke G80 andrà male (e cmq dipende tutto da ke titoli faranno uscire le varie SH)...

...tutto il discorso GPU DX10 nn son supposizioni son proprio pensieri campati in aria...altrimenti ora indicami le motivazioni e i vari xkè una sia + o - orientata verso le DX10 dell'altra...ciao

Raven
03-07-2007, 21:35
io non polemizzo proprio nulla, apparte le castronerie

poi se x te polemizzare significa esprimere le proprie idee allora si, polemizzo

chiudo quà altrimenti faccio inc@zzare i mod

ma ne sei proprio sicuro? fossi in te mi rileggerei qualche pagina....dove sei pure stato sospeso quindi Ihmo parlare con te è l'equivalente di parlare con un (:muro: )

sono stato sospeso xkè ho chiamato un'utente ignorante, tant'è vero poi il livello di quell'utente lo hanno visto tutti nei suoi mess privati,

l'utente di cui nn faccio nome continuava a flammare e io ho solo detto ignorante

poi mi pare che tu sia stato sospeso x circa 30gg se nn m sbaglio, quindi se parlare cn me equivale a parlare con il muro xkè sn stato sospeso 5gg...per 30gg...

ti consiglio di smetterla di polemizzare, (so che è difficile ma provaci)

purtroppo è gia cosi.....perchè saremo sempre ossesionati da Fraps e da Rivatuner che alla fine il gioco serve solo per vedere 2 numeretti:rolleyes:

mi spiace ma sono arrivato a 'soli' 21gg e non a causa di questo tread ma parecchio tempo fa perchè insultai Freeman in Pvt

beh, mi ricordavo male, cmq cambia poco...

per me non cambia niente io la continuo a pensare nel mio modo te nel tuo....basta cosi per oggi:stordita:

beh... non mi pare che il mio "avvertimento" sia servito a qualcosa... forse devo sospendervi entrambi per 5gg?!...

nico88desmo
03-07-2007, 21:37
da quasi possessore di HD2900XT spero nn penserai ke se ti sto quotando son un fanboy nvidia (o di ati)...cmq andando al sodo secondo me sbagli in partenza a fare questo discorso "GPU + o - DX10"...

x es. la frase ...scritta poco fa (ke gira da parekkio in vari 3d) è assurda così come il discorso ke fai tu...

...le DX10 son delle librerie e a parte prediligere un'arkitettura a shader unificati nn dicono quale sia la migliore tra le due attulmente in commercio...

...la differenza ke fai tu DX10/DX9 invece la dovresti spostare sul fatto ke R600 è + spostata verso gioki ke fanno un uso massiccio d operazioni sui pixel e relativamente basso su texture...G80 invece è un arkitettura ke ad una buona capacità eleborativa sui pixel affianca ottime doti x quanto riguarda le texture...

...quale rapporto ALU/TEX avranno i futuri gioki DX10 è impossibile da predire...è vero ke tale rapporto a poco a poco si sta spostando verso un uso sempre maggiore dei pixel ma è anke vero ke una discreta parte delle operazioni sui pixel prevede cmq degli accessi alle texture (e questo potrebbe limitare R600)...

...in bench sintetici (e NON sto palrando del 3dmark) danno un quadro di quella ke è la situazione e delle potenzialità nei vari scenari d queste due arkitetture...

...il fatto ke da questi ne esca ke c sia da sperare ke R600 possa andare bene nn implica ke G80 andrà male (e cmq dipende tutto da ke titoli faranno uscire le varie SH)...

...tutto il discorso GPU DX10 nn son supposizioni son proprio pensieri campati in aria...altrimenti ora indicami le motivazioni e i vari xkè una sia + o - orientata verso le DX10 dell'altra...ciao

Concordo :O

+Lonewolf+
03-07-2007, 21:39
beh... non mi pare che il mio "avvertimento" sia servito a qualcosa... forse devo sospendervi entrambi per 5gg?!...

no:) io mi scuso x avere risposto alle provocazioni

TecnoWorld8
03-07-2007, 21:57
io credo che per ognuno l'esperienza di gioco sia soggettiva; mi spiego...io per esempio, se nn ho almeno 30fps nella situazione peggiore (a meno che davvero non sia "una tantum") e se quindi, mettiamo, ogni tanto il gioco mi scatta, non lo considero giocabile fluidamente.

inoltre, se non posso giocare a 1680x1050, con i settaggi al massimo e magari l'AA almeno a 2x, mi pare di "togliere" qualcosa all'esperienza di gioco che potrei avere.

Allora...aspetto. Per esempio, ho giocato a Quake 4 e Doom 3 solamente dopo aver acquistato il sistema in sign, ad agosto scorso. Lo stesso farò con giochi come rainbox 6 vegas, colin DIRT, stalker e qualunque altro non risponderà ai miei parametri ORA.

Quindi è inutile criticare se qualcuno dice di averci giocato bene con una scheda che ci pare inadeguata...evidentemente, lui ha altri parametri dai nostri e va bene anche così...

l'unica cosa da fare per poter confrontare le configurazione è avere parametri "oggettivi", tipo frame rate e cose del genere. a quel punto, chiaramente, non ci sarà nulla da discutere e se uno si accontenta di 20fps o di basse risoluzioni o bassa qualità visiva, sarà appunto solo un fatto personale.

emax81
03-07-2007, 22:38
:) Ecco la schermata di stats, molto bella. In questo ss si possono vedere temperatura massima e minima con ventola al 45%, ed anche il voltaggio che cambia :P

http://web.tiscali.it/buffa87/Immagini/HD2900XT/RivaTuner2.02.PNG

Ciao! :D

dunque, si può pure regolare la ventola???? :)

Chief
03-07-2007, 22:41
dunque, si può pure regolare la ventola???? :)

Certo che si puo pure regolare la ventola ;) L'unica cosa che non riesco a trovare è il voltaggio visto che non sono pratico di Rivatuner

Iantikas
03-07-2007, 23:02
Certo che si puo pure regolare la ventola ;) L'unica cosa che non riesco a trovare è il voltaggio visto che non sono pratico di Rivatuner

a meno ke nn l'hanno aggiunto proprio in quest'ultima release nn'è possibile modificare i voltaggi della GPU tramite rivatuner (sia essa ati o nvidia)...siccome cmq x il daily-use nn'è conveniente overvoltare una GPU nn lo reputo una grande perdita...le frecce al suo arco cmq son altre...ciao

Pat77
03-07-2007, 23:15
da quasi possessore di HD2900XT spero nn penserai ke se ti sto quotando son un fanboy nvidia (o di ati)...cmq andando al sodo secondo me sbagli in partenza a fare questo discorso "GPU + o - DX10"...

x es. la frase ...scritta poco fa (ke gira da parekkio in vari 3d) è assurda così come il discorso ke fai tu...

...le DX10 son delle librerie e a parte prediligere un'arkitettura a shader unificati nn dicono quale sia la migliore tra le due attulmente in commercio...

Io non ho affermato che, poichè R600 è orientata più sulle specifiche Dx10, sia migliore, presumo solo che sia meglio in quell'ambito, d'altronde è sempre stato così con l'hw, si prende un modello software e si crea l'hw per soddisfarlo.
Fin da 3dfx con glide, che erano appunto un binomio col software perfetto, tant'è che il primo UT non l'ho mai visto girare bene in Dx.
Non ho mai assistito a un chip che sia forte in tutto, si fanno scelte progettuali.

...la differenza ke fai tu DX10/DX9 invece la dovresti spostare sul fatto ke R600 è + spostata verso gioki ke fanno un uso massiccio d operazioni sui pixel e relativamente basso su texture...G80 invece è un arkitettura ke ad una buona capacità eleborativa sui pixel affianca ottime doti x quanto riguarda le texture...

...quale rapporto ALU/TEX avranno i futuri gioki DX10 è impossibile da predire...è vero ke tale rapporto a poco a poco si sta spostando verso un uso sempre maggiore dei pixel ma è anke vero ke una discreta parte delle operazioni sui pixel prevede cmq degli accessi alle texture (e questo potrebbe limitare R600)...

Che poi pare sia lo scenario futuro, ma a livello di capacità di elaborazione pixel pare che siano sostanzialmente vicine, 2900 XT e GTX, coi geometry invece c'è un buon vantaggio ATI, le demo tecnologiche, infatti, si basano in gran parte sulle doti di tale tecnologia.

...in bench sintetici (e NON sto palrando del 3dmark) danno un quadro di quella ke è la situazione e delle potenzialità nei vari scenari d queste due arkitetture...

...il fatto ke da questi ne esca ke c sia da sperare ke R600 possa andare bene nn implica ke G80 andrà male (e cmq dipende tutto da ke titoli faranno uscire le varie SH)...

...tutto il discorso GPU DX10 nn son supposizioni son proprio pensieri campati in aria...altrimenti ora indicami le motivazioni e i vari xkè una sia + o - orientata verso le DX10 dell'altra...ciao

E' orientata verso Dx10 perchè i progettisti l'hanno voluta così, e dai primi riscontri pare sia proprio così, poi possono tutti pigliarci in giro e dire cose non vere (come con 8500 che doveva avere un solo vertex quando ne aveva 2) ma a che pro? Ora ad esempio usare gli sp per fare l'AA in dx9 non paga, in dx10 probabilmente sarà l'unico modo di farlo con effetti di PP abilitati, poi puntano molto sulla gemoetry tesselation, Nvidia in questo ambito paga dazio, almeno sulla carta.

Pat77
03-07-2007, 23:20
ok avete sempre ragione:rolleyes:
per il seguito concordo:D

:mc: evidentemente anche se non era a 60 fps fissi e pompato al massimo era comunque più che godibile, non è avere ragione, è saper divertirsi e non essere troppo viziati tecnologicamente.

Pat77
03-07-2007, 23:27
io credo che per ognuno l'esperienza di gioco sia soggettiva; mi spiego...io per esempio, se nn ho almeno 30fps nella situazione peggiore (a meno che davvero non sia "una tantum") e se quindi, mettiamo, ogni tanto il gioco mi scatta, non lo considero giocabile fluidamente.

inoltre, se non posso giocare a 1680x1050, con i settaggi al massimo e magari l'AA almeno a 2x, mi pare di "togliere" qualcosa all'esperienza di gioco che potrei avere.

Allora...aspetto. Per esempio, ho giocato a Quake 4 e Doom 3 solamente dopo aver acquistato il sistema in sign, ad agosto scorso. Lo stesso farò con giochi come rainbox 6 vegas, colin DIRT, stalker e qualunque altro non risponderà ai miei parametri ORA.

Quindi è inutile criticare se qualcuno dice di averci giocato bene con una scheda che ci pare inadeguata...evidentemente, lui ha altri parametri dai nostri e va bene anche così...

l'unica cosa da fare per poter confrontare le configurazione è avere parametri "oggettivi", tipo frame rate e cose del genere. a quel punto, chiaramente, non ci sarà nulla da discutere e se uno si accontenta di 20fps o di basse risoluzioni o bassa qualità visiva, sarà appunto solo un fatto personale.

Chi ha qualche anno ricorda che Gp2 andava su Pc molto ben dotati a 16 fps di media e sembrava incredibile, mentre quake arrivava forse a 18 a 640, tanto che tramite un programmino si abbassava a 320 per avere almeno 20 fps ;)
Poi arrivò la prima 3dfx e tutto cambiò, anche le pretese.

wiltord
03-07-2007, 23:42
no:) io mi scuso x avere risposto alle provocazioni

non capiterà più, i bonus sono finiti. vale per tutti.

Free Gordon
04-07-2007, 00:01
tranquillo, sotto sotto lo sanno anche i possessori delle 8800, tranne nos89 forse :asd:
(owiamente scherzo ;) )


Io non credo sia più di tanto un problema di dx9 o dx10... ma di filosofia con cui vengono creati i giochi.
Nei giochi fillrate-limited (diciamo così), la 8800 sarà sempre più veloce della 2900.
Nei giochi che faranno uso di molte shader ops, con shader lunghi e molta geometria, la 2900 sarà più veloce.

+Lonewolf+
04-07-2007, 00:04
Io non credo sia più di tanto un problema di dx9 o dx10... ma di filosofia con cui vengono creati i giochi.
Nei giochi fillrate-limited (diciamo così), la 8800 sarà sempre più veloce della 2900.
Nei giochi che faranno uso di molte shader ops, con shader lunghi e molta geometria, la 2900 sarà più veloce.

precisamente il fill rate di cosa si occupa?

Free Gordon
04-07-2007, 00:38
8 mesi fa, invece, 8800, era invero un ottimo acquisto, dove non esisteva NULLA dx10, dove Vista non era uscito, dove dx10 erano ancora sulla carta e, soprattutto, dove in dx9 andava il doppio su giochi che facevano già ottimi frame rate su schede Dx9. (questa si che è utilità)

Il problema più grosso di una scheda come G80, all'uscita, era il prezzo (ancora oggi alto a dire il vero). Ma è il problema di tutte le high end.

La "fortuna" :D di R600 è di essere uscita a 360 euro, pur essendo un progetto high-end. Tarato su un certo tipo di applicazioni ma sicuramente high end come target prestazionale.

Per cui è difficile dire quando sia conveniente e che cosa, dipende dalle esigenze personali ma sopratutto dipende dai giochi. :D

Se la 2900XT andrà come o meglio della GTX in giochi come Crysis e Alan Wake, sarà stata un acquisto migliore della rivale nVidia (sopratutto per chi veniva da 1900 e 7900), sennò non so..

carver
04-07-2007, 00:46
Certo che si puo pure regolare la ventola ;) L'unica cosa che non riesco a trovare è il voltaggio visto che non sono pratico di Rivatuner

FUNGE OVERCLOKER? il mitico programmino che mi permettedi mettere la ventola al 100% sulla 1900..... rumorosa si.. ma tanto ho le cuffie! e vai di 68° max con 26° in camera!

Free Gordon
04-07-2007, 00:55
precisamente il fill rate di cosa si occupa?

Il fillrate non si occupa di nulla :D rappresenta un valore per definire quanto una VGA è veloce a "generare" una certa quantità di texture e pixel (nello specifico intendevo questo) nell'unità di tempo.
Per cui texel e pixel fillrate sono valori sicuramente importanti, valori in cui G80 eccelle (rispetto a R600) e dipendono essenzialmente dalla quantità di texture unit e rops e dalla loro frequenza.

Non è molto complesso aumentare i valori di fillrate, l'essenziale è aumentare le unità in questione e la loro frequenza (ovviamente cercando di non sbilanciare troppo i carichi), in più aumentare le varie cache e registri ed Nvidia con G80 ha puntato essenzialmente su questo, facendo però nel contempo un'operazione scaltra: aumentare moltissimo la frequenza dello shader core per risparmiare transistor in quella sezione, mantenendo cmq alto il throughput massimo della capacità matematica del chip.

ATI invece ha sempre spinto di più sulla programmabilità del chip e si è mossa nella direzione opposta, sviluppare in ampiezza e complessità lo shader core (la parte più programmabile della GPU), aumentando moderatamente i valori di fillrate rispetto alle passate generazioni di VGA high-end (dalla X800XT in poi essenzialmente).

TecnoWorld8
04-07-2007, 00:59
Chi ha qualche anno ricorda che Gp2 andava su Pc molto ben dotati a 16 fps di media e sembrava incredibile, mentre quake arrivava forse a 18 a 640, tanto che tramite un programmino si abbassava a 320 per avere almeno 20 fps ;)
Poi arrivò la prima 3dfx e tutto cambiò, anche le pretese.

speriamo che ora, con il rallentare della concorrenza, non si torni a quei tempi...cioè non si torni a doversi accontentare!

Simon82
04-07-2007, 07:32
non capiterà più, i bonus sono finiti. vale per tutti.

Il problema e' che sembra che o si faccia finta di non capire o ci si dimentica in fretta.

Tidus.hw
04-07-2007, 08:15
Io non credo sia più di tanto un problema di dx9 o dx10... ma di filosofia con cui vengono creati i giochi.
Nei giochi fillrate-limited (diciamo così), la 8800 sarà sempre più veloce della 2900.
Nei giochi che faranno uso di molte shader ops, con shader lunghi e molta geometria, la 2900 sarà più veloce.

già, e purtroppo la epic ha affermato qualche settimana fa che ut3 è un gioco fillrate limited >.<
speriamo che R600 si rifaccia grazie all'AA dato che ha una potenza di calcolo maggiore neglio shader.

roccodifilippo
04-07-2007, 08:26
Eccovi i link....si tratta di un crossfire con due hd2900xt con 1 gb di ram contro uno sli con due 8800gtx



:O :O :O :O :O :O :O :O :O :O
eccovi il link:

http://www.pcmag.com/article2/0,1895,2147064,00.asp
:eek: :eek: :eek: :eek: :eek:

Che ne dite?

Pat77
04-07-2007, 09:08
Il problema più grosso di una scheda come G80, all'uscita, era il prezzo (ancora oggi alto a dire il vero). Ma è il problema di tutte le high end.

La "fortuna" :D di R600 è di essere uscita a 360 euro, pur essendo un progetto high-end. Tarato su un certo tipo di applicazioni ma sicuramente high end come target prestazionale.

Per cui è difficile dire quando sia conveniente e che cosa, dipende dalle esigenze personali ma sopratutto dipende dai giochi. :D

Se la 2900XT andrà come o meglio della GTX in giochi come Crysis e Alan Wake, sarà stata un acquisto migliore della rivale nVidia (sopratutto per chi veniva da 1900 e 7900), sennò non so..

Sinceramente una valutazione del genere non mi interessa, io penso che 8 mesi fa una 8800 fosse del tutto inutile e costosa, come altri potranno pensare che un architettura Dx10 oriented sia troppo futuristica, io scrivo appunto nel 3d dei soli prodotti che mi interessano, senza mai andare a sindacare le scelte altrui (la trovo una perdita di tempo).

Ora torniamo It però ;)

Pat77
04-07-2007, 09:10
speriamo che ora, con il rallentare della concorrenza, non si torni a quei tempi...cioè non si torni a doversi accontentare!

Sinceramente non ho mai visto un videogioco visivamente tanto fluido e bello come oblivion su Hd2900, quei tempi sono lontani, ma rimpiango un po' alcune dinamiche.

+Lonewolf+
04-07-2007, 09:43
Il fillrate non si occupa di nulla :D rappresenta un valore per definire quanto una VGA è veloce a "generare" una certa quantità di texture e pixel (nello specifico intendevo questo) nell'unità di tempo.
Per cui texel e pixel fillrate sono valori sicuramente importanti, valori in cui G80 eccelle (rispetto a R600) e dipendono essenzialmente dalla quantità di texture unit e rops e dalla loro frequenza.

Non è molto complesso aumentare i valori di fillrate, l'essenziale è aumentare le unità in questione e la loro frequenza (ovviamente cercando di non sbilanciare troppo i carichi), in più aumentare le varie cache e registri ed Nvidia con G80 ha puntato essenzialmente su questo, facendo però nel contempo un'operazione scaltra: aumentare moltissimo la frequenza dello shader core per risparmiare transistor in quella sezione, mantenendo cmq alto il throughput massimo della capacità matematica del chip.

ATI invece ha sempre spinto di più sulla programmabilità del chip e si è mossa nella direzione opposta, sviluppare in ampiezza e complessità lo shader core (la parte più programmabile della GPU), aumentando moderatamente i valori di fillrate rispetto alle passate generazioni di VGA high-end (dalla X800XT in poi essenzialmente).

grazie free Gordon

la cosa che mi stupisce di più è che la 2900 ha un texture fill rate corrispondente a 11888 op/s contro la gts che ne ha 12000, quindi una differenza minima...discorso diverso per gli shader,qui abbiamo 237000 op/s contro 153000 della gts, 178000 ella gtx e 196000 della ultra...la vga quindi grazie a queste specifiche dovrebbe avere una potenza di calcolo di shading irraggiungibile da G80, e comunque un fillrate che è praticamente uguale a quello della gts dunque non potrà mai andare meno di quest'ultima in nessun gioco, dato che se si overclocca il core di 10mhz si superano le 12000 op/s della gts...per inferiore a g80 in fillrate specificherei alla gtx, dunque la vga non sarà mai inferiore alla gts giusto?anche in un gioco fillratelimited

Poliphilo
04-07-2007, 09:56
Sinceramente non ho mai visto un videogioco visivamente tanto fluido e bello come oblivion su Hd2900.

Ciao Pat. Posso chiederti una cosa? Come setti Oblivion? A che risoluzione? Con tutti i dettagli attivati? Quanti FPS fai in media e come massimi?
Perchè a me sembrano bassi i miei valori.

+Lonewolf+
04-07-2007, 09:59
Ciao Pat. Posso chiederti una cosa? Come setti Oblivion? A che risoluzione? Con tutti i dettagli attivati? Quanti FPS fai in media e come massimi?
Perchè a me sembrano bassi i miei valori.

ti rispondo anche io, magari ti posso aiutare:)

oblivion tutto al max HDR+AA,1280x1024,AA4x AF16x

interni:faccio non meno di 70fps nei punti + critici e nei punti rilassati supero tranquillamente i 100, anche di parechio

esterni: non scendo mai sotto i 40 e faccio circa 70fps massimi

tu che results hai?

webbuffa
04-07-2007, 10:04
ti rispondo anche io, magari ti posso aiutare:)

oblivion tutto al max HDR+AA,1280x1024,AA4x AF16x

interni:faccio non meno di 70fps nei punti + critici e nei punti rilassati supero tranquillamente i 100, anche di parechio

esterni: non scendo mai sotto i 40 e faccio circa 70fps massimi

tu che results hai?

:) E soprattutto aggiungerei... con quale config :)?

Tidus.hw
04-07-2007, 10:05
grazie free Gordon

la cosa che mi stupisce di più è che la 2900 ha un texture fill rate corrispondente a 11888 op/s contro la gts che ne ha 12000, quindi una differenza minima...discorso diverso per gli shader,qui abbiamo 237000 op/s contro 153000 della gts, 178000 ella gtx e 196000 della ultra...la vga quindi grazie a queste specifiche dovrebbe avere una potenza di calcolo di shading irraggiungibile da G80, e comunque un fillrate che è praticamente uguale a quello della gts dunque non potrà mai andare meno di quest'ultima in nessun gioco, dato che se si overclocca il core di 10mhz si superano le 12000 op/s della gts...per inferiore a g80 in fillrate specificherei alla gtx, dunque la vga non sarà mai inferiore alla gts giusto?anche in un gioco fillratelimited
esatto, in linea teorica quindi nel peggiore dei casi la 2900xt dovrebbe andare come una 8800gts, salvo attivazione dei filtri in dx9.
è anche vero però che le rops delle 8800 sono più stressate perchè si occupano anche dell'aa, mentre la 2900 lo applica tramite shader... corregetemi se sbaglio.

+Lonewolf+
04-07-2007, 10:10
esatto, in linea teorica quindi nel peggiore dei casi la 2900xt dovrebbe andare come una 8800gts, salvo attivazione dei filtri in dx9.
è anche vero però che le rops delle 8800 sono più stressate perchè si occupano anche dell'aa, mentre la 2900 lo applica tramite shader... corregetemi se sbaglio.

non so se in ogni caso ma comunque anche se fosse applicato Via shader non penso ci perderebbe molto data la sua potenza di calcolo Shading, i problemi AA derivano dal ring-bus e dallo sheduling

gianni1879
04-07-2007, 10:16
nei test con i 7.7beta hot fix che sta facendo Deos, oggi dovrebbe finire,

ad es in lost planet sono scomparsi i problemi degli artefatti, ma rimangono i problemi con i filtri (esce dal gioco quando si attivano), invece in COH dx10 da circa 30fps è passata a circa 45fps un guadagno del 50% circa (certo non è un framerate da paura), direi che g80 è ampiamente superato in dx10 almeno per adesso

ed in ogni caso i miglioramenti ci sono di parecchio rispetto ai 7.6 negli altri giochi

MaRtH
04-07-2007, 10:26
Mi pare un pò na cacchiata...

sopratutto il test di Company Of Heroes e quello di Prey 2500

Poi fate vobis... :rolleyes:



Più altro non ha senso che a parità di SLI un QX6700@3.2Ghz vada di più di un QX6800@3.7Ghz...;)

Test IMHO fatti un pò col culo...

Poliphilo
04-07-2007, 10:57
ti rispondo anche io, magari ti posso aiutare:)

oblivion tutto al max HDR+AA,1280x1024,AA4x AF16x

interni:faccio non meno di 70fps nei punti + critici e nei punti rilassati supero tranquillamente i 100, anche di parechio

esterni: non scendo mai sotto i 40 e faccio circa 70fps massimi

tu che results hai?

Ok. Un po' di domande:

Quali driver hai? I 7.7?
L'antialiasing lo setti dal CCC della scheda video?
Tutto al massimo intendi che dentro il gioco nei settaggi video hai attivato tutto? Visualizza erba, dettagli erba, edifici lontani, riflessione dell'acqua...cioè hai tirato al massimo tutte le varie barre delle opzioni video?
Una cosa importante è anche il file oblivion.ini: tu lo hai editato seguendo i consigli della prima pagina del thread tecnico ufficiale di Oblivion qui nella sezione giochi? Perchè io l'ho modificato.

Poi ti dico quanto faccio io di fps.

Pat77
04-07-2007, 11:06
Ciao Pat. Posso chiederti una cosa? Come setti Oblivion? A che risoluzione? Con tutti i dettagli attivati? Quanti FPS fai in media e come massimi?
Perchè a me sembrano bassi i miei valori.

Allora, 1440x900, 4x Fsaa 16x Af, negli interni faccio di media una 70ina con punte di 120-130, negli esterni dipende dal luogo, ma avrò una media di 35-40, con punte massime di 60-70.

+Lonewolf+
04-07-2007, 11:23
Ok. Un po' di domande:

Quali driver hai? I 7.7?
L'antialiasing lo setti dal CCC della scheda video?
Tutto al massimo intendi che dentro il gioco nei settaggi video hai attivato tutto? Visualizza erba, dettagli erba, edifici lontani, riflessione dell'acqua...cioè hai tirato al massimo tutte le varie barre delle opzioni video?
Una cosa importante è anche il file oblivion.ini: tu lo hai editato seguendo i consigli della prima pagina del thread tecnico ufficiale di Oblivion qui nella sezione giochi? Perchè io l'ho modificato.

Poi ti dico quanto faccio io di fps.

tutto tutto tutto al max senza editare il file.ini + AA4x da ccc ma io ci gioco con 16x

JoeLatino
04-07-2007, 11:31
scusate ma avete letto questa notizia?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1760&Itemid=1

cosa ne pensate??:eek:

Poliphilo
04-07-2007, 11:32
Allora, 1440x900, 4x Fsaa 16x Af, negli interni faccio di media una 70ina con punte di 120-130, negli esterni dipende dal luogo, ma avrò una media di 35-40, con punte massime di 60-70.

Ok. Io con una cpu conroe 6700 e 2 gb di ram negli esterni sto su una media di 25, max 40. Ho qualche problema? Sarà che avete 4 gb di ram? O forse il file.ini editato? Lonewolf mi passeresti il tuo ini che lo provo, per cortesia?
C'è anche da dire che non ho ancora overcloccato nulla.

Defragg
04-07-2007, 11:34
scusate ma avete letto questa notizia?
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1760&Itemid=1

cosa ne pensate??:eek:

che sarà la versione OEM ;)

-Feanor-
04-07-2007, 11:36
che sarà la versione OEM ;)

infatti..;)

+Lonewolf+
04-07-2007, 11:57
Ok. Io con una cpu conroe 6700 e 2 gb di ram negli esterni sto su una media di 25, max 40. Ho qualche problema? Sarà che avete 4 gb di ram? O forse il file.ini editato? Lonewolf mi passeresti il tuo ini che lo provo, per cortesia?
C'è anche da dire che non ho ancora overcloccato nulla.

non penso siano i 4gb di ram

purtroppo ho disinstallato oblivion

TecnoWorld8
04-07-2007, 11:57
Allora, 1440x900, 4x Fsaa 16x Af, negli interni faccio di media una 70ina con punte di 120-130, negli esterni dipende dal luogo, ma avrò una media di 35-40, con punte massime di 60-70.

dociamo che la res non è elevatissima, come numero di pixel inferiore addirittura ad un 1280x1024. se fai media di 35-40 a quella res, mi sa che alla res a cui dovrei/vorrei settarlo io (1680x1050) andresti anche sotto i 30...

+Lonewolf+
04-07-2007, 11:59
dociamo che la res non è elevatissima, come numero di pixel inferiore addirittura ad un 1280x1024. se fai media di 35-40 a quella res, mi sa che alla res a cui dovrei/vorrei settarlo io (1680x1050) andresti anche sotto i 30...

io penso di no, anche mettendio AA16x Le prestazioni scendono di poco, a 1680 ci giochi tranquillo a 40fps medi

ps: io gioco a 1280

TecnoWorld8
04-07-2007, 12:02
io penso di no, anche mettendio AA16x Le prestazioni scendono di poco, a 1680 ci giochi tranquillo a 40fps medi

ps: io gioco a 1280

a 1680 c'è il 35% in più di pixel sullo schermo rispetto a 1440. Poichè il fill rate di questa scheda nn è il suo punto forte, temo invece che l'aumento di pixel si ripercuota quasi linearmente sul frame rate. quindi se lui fa 40-35 di media, vedo probabile 30-25 di media alla ris che mi interessa. poi andrebbe provato ovviamente...

Poliphilo
04-07-2007, 12:07
non penso siano i 4gb di ram

purtroppo ho disinstallato oblivion

Vabbè, ma il file.ini l'hai cancellato?
Pat, tu me lo puoi passare? Comunque perchè faccio così pochi fps? :cry:

+Lonewolf+
04-07-2007, 12:08
a 1680 c'è il 35% in più di pixel sullo schermo rispetto a 1440. Poichè il fill rate di questa scheda nn è il suo punto forte, temo invece che l'aumento di pixel si ripercuota quasi linearmente sul frame rate. quindi se lui fa 40-35 di media, vedo probabile 30-25 di media alla ris che mi interessa. poi andrebbe provato ovviamente...

11888 megatextel al secondo reggono 1680 + AA4x tenendo una media di 40fps negli esterni imho

+Lonewolf+
04-07-2007, 12:08
Vabbè, ma il file.ini l'hai cancellato?
Pat, tu me lo puoi passare? Comunque perchè faccio così pochi fps? :cry:

ho formattato;)

Pat77
04-07-2007, 12:17
dociamo che la res non è elevatissima, come numero di pixel inferiore addirittura ad un 1280x1024. se fai media di 35-40 a quella res, mi sa che alla res a cui dovrei/vorrei settarlo io (1680x1050) andresti anche sotto i 30...

E' l'equivalente wide proprio di quella risoluzione 4/3, con il vantaggio di essere leggermente meno onerosa.
Parlaimo di HDR con FSAA e dettaglio massimo, i risultati secondo me sono sensazionali, poi ovviamente non so dirti come va a 1680x1050, ma al limite disabiliti qualcosa.

Pat77
04-07-2007, 12:22
Vabbè, ma il file.ini l'hai cancellato?
Pat, tu me lo puoi passare? Comunque perchè faccio così pochi fps? :cry:

Io non ho toccato il file ini, comunque dopo varie peripezie in SI sono tornato nel mondo classico, negli esterni il frame rate è leggermente migliore, diciamo 40-45.

davide155
04-07-2007, 12:22
E' l'equivalente wide proprio di quella risoluzione 4/3, con il vantaggio di essere leggermente meno onerosa.
Parlaimo di HDR con FSAA e dettaglio massimo, i risultati secondo me sono sensazionali, poi ovviamente non so dirti come va a 1680x1050, ma al limite disabiliti qualcosa.

La 1280x1024 non è una 4:3, ma bensì una 5:4 :O

http://upload.wikimedia.org/wikipedia/commons/4/44/Vector_Video_Standards.png

:read:

Pat77
04-07-2007, 12:24
a 1680 c'è il 35% in più di pixel sullo schermo rispetto a 1440. Poichè il fill rate di questa scheda nn è il suo punto forte, temo invece che l'aumento di pixel si ripercuota quasi linearmente sul frame rate. quindi se lui fa 40-35 di media, vedo probabile 30-25 di media alla ris che mi interessa. poi andrebbe provato ovviamente...

non è detto, abbiamo un ring bus da un giga internamente e 512 bit verso le ram, secondo me ci sono i presupposti per avere un buon frame rate, per dirti, abilitando fsaa e af 16x perdo circa il 30% di performance, non male in rapporto all'aumento di qualità.

+Lonewolf+
04-07-2007, 12:27
non è detto, abbiamo un ring bus da un giga internamente e 512 bit verso le ram, secondo me ci sono i presupposti per avere un buon frame rate, per dirti, abilitando fsaa e af 16x perdo circa il 30% di performance, non male in rapporto all'aumento di qualità.

e aggiungo, il ring bus al momento utilizza quello programmato x le 1900 quindi 256bit verso le ram e 512 internamente quindi giudicate voi

Pat77
04-07-2007, 12:28
La 1280x1024 non è una 4:3, ma bensì una 5:4 :O

http://upload.wikimedia.org/wikipedia/commons/4/44/Vector_Video_Standards.png

:read:

Si impara sempre qualcosa di nuovo, ora capisco perchè alcuni giochi settano 960, quindi per un qualsiasi monitor 4/3 è meglio impostare 960 o 1024? Perchè sul mio Acer 4/3 la nativa è 1024? (1280x1024)

Tidus.hw
04-07-2007, 12:35
Si impara sempre qualcosa di nuovo, ora capisco perchè alcuni giochi settano 960, quindi per un qualsiasi monitor 4/3 è meglio impostare 960 o 1024? Perchè sul mio Acer 4/3 la nativa è 1024? (1280x1024)

è 5/4 il tuo

Pat77
04-07-2007, 12:41
è 5/4 il tuo

Sulla scatola, dove l'ho preso e sul manuale:

Ratio: 4/3

davide155
04-07-2007, 12:41
Si impara sempre qualcosa di nuovo, ora capisco perchè alcuni giochi settano 960, quindi per un qualsiasi monitor 4/3 è meglio impostare 960 o 1024? Perchè sul mio Acer 4/3 la nativa è 1024? (1280x1024)

Boh...non l'ho create io le risoluzioni standard :D
Ma quel grafico è da un pezzo che c'è li, quindi se era sbagliato l'avrebbero subito levato :)

Non saprei perchè il tuo acer abbia la ris nativa a 1280x1024 essendo un 4/3.

Siamo sicuri che sia 4/3??

Tidus.hw
04-07-2007, 12:49
Sulla scatola, dove l'ho preso e sul manuale:

Ratio: 4/3

se la risoluzione nativa è 1280x1024 è impossibile, a meno che non ha i pixel rettangolari :asd:

TecnoWorld8
04-07-2007, 12:52
i rapporti di dimensione derivano proprio dal "rapporto" tra i due numeri che rappresentano il numero di pixel in larghezza ed in altezza.

mi spiego:

4/3 = 1,333333
5/4 = 1,25
16/9 = 1,777777
16/10 = 1,6

per sapere l'aspect ratio del proprio monitor, è sufficiente prendere la quantità dei pixel in larghezza e dividerla per quella in altezza e confrontare il risultato con quelli che ho messo sopra. 1280/1024 fa appunto 1,25, quindi è 5:4. 1024/768 è invece 4:3 (provate) e 1680/1050 è 16:10.

gianni1879
04-07-2007, 12:55
Sulla scatola, dove l'ho preso e sul manuale:

Ratio: 4/3

è un errore comune dire che 1280*1024 è 4/3
in realtà il 4/3 è 1280*960 e derivati

Iantikas
04-07-2007, 12:59
Bench 1: Imperial City - Elven Garden District (giro x il quartiere dove c'è abbondanza di gente e nei giardini): Avg: 71, Min: 42, Max: 123.
Bench 2: Shrine Of Sanguine (Parto davanti alla statua dove ci sono 4 o 5 persone e passando per la foresta vado verso fort dirich, nel frattempo lancio incantesimi e combatto con un fantasma.. ): durata 60secondi: Min: 26, Avg: 47, Max: 86
Bench 3: Chorrol South Gate (parto davanti alla statua e vado verso la cattedrale po i torno indietro sulla sx passando per i giardini): Durata: 60sec: Min: 29, Avg: 54, Max: 120
Bench 4: Ecco l'ultimo bech e il + spettacolare! Parto sempre da Chorrol South gate e massacro un po di persone fino a quando non ho contro tipo 7-8 guardie e altra gente.. Scusate ma il bench è durato solo 37 sec per cause di forza maggiore.. cmq: Min: 18, Avg: 46, Max: 116

dal 3d dei test queste son le prestazioni @1600x1200 senza AA con un E6600...son fatti con gli 8.37 xò...probabilmente contando i miglioramenti fatti con i 7.6 un 4xAA dovrebbe essere possibile (al limite un 2xAA)...ciao

Pat77
04-07-2007, 16:09
Boh...non l'ho create io le risoluzioni standard :D
Ma quel grafico è da un pezzo che c'è li, quindi se era sbagliato l'avrebbero subito levato :)

Non saprei perchè il tuo acer abbia la ris nativa a 1280x1024 essendo un 4/3.

Siamo sicuri che sia 4/3??

ho sempre pensato fosse 4/3, visto quello che state dicendo sarà 5/4, lo pubblicizzano però come 4/3, probabilmente questione di marketing, comunque so una cosa in più ;)

davide155
04-07-2007, 16:14
ho sempre pensato fosse 4/3, visto quello che state dicendo sarà 5/4, lo pubblicizzano però come 4/3, probabilmente questione di marketing, comunque so una cosa in più ;)

;)

Raven
04-07-2007, 16:15
ho sempre pensato fosse 4/3, visto quello che state dicendo sarà 5/4, lo pubblicizzano però come 4/3, probabilmente questione di marketing, comunque so una cosa in più ;)

640x480 -> 4:3
800x600-> 4:3
1024x768 -> 4:3

1280x960-> 4:3
1280x1024->5:4 (e infatti sul mio CRT da 21'', che ha un rapporto "fisico" di 4:3 la 1280x1024 mi "schiaccia" ovviamente l'immagine se la tengo a pieno schermo... ;) )

Invero molti LCD da 19'' nativi 1280x1024 hanno la proporzione dello schermo settata correttamente a 5:4 (quasi quadrato, insomma) visualizzando quindi correttamente le forme... il problema è se viene cambiata (ad es. diminuenuita) la risoluzione... le forme si allungano... :O

carver
04-07-2007, 17:15
raga COI 7.6 E' MIGLIORATA LA SITUAZIONE FRAME?

Tidus.hw
04-07-2007, 17:25
raga COI 7.6 E' MIGLIORATA LA SITUAZIONE FRAME?

in opengl decisamente si, poi se metti gli hotfix migliorano anche le prestazioni con aa abilitato.

Kharonte85
04-07-2007, 17:31
edit :stordita:

Gioman
04-07-2007, 20:11
se la risoluzione nativa è 1280x1024 è impossibile, a meno che non ha i pixel rettangolari :asd:
In un famoso giornale affermavano che un monitor (da loro testato) aveva i pixel rettangolari. :eek:

Pat77
04-07-2007, 20:38
in opengl decisamente si, poi se metti gli hotfix migliorano anche le prestazioni con aa abilitato.

Oltre che risolvere i problemi con Lost Planet (con Hotfix), aumentano le performance in oblivion, CofH.

+Lonewolf+
04-07-2007, 20:41
Oltre che risolvere i problemi con Lost Planet (con Hotfix), aumentano le performance in oblivion, CofH.

e anche coj dx9 e 10 + tutti i giochi che usano i filtri;)

Nos89
04-07-2007, 20:47
e anche coj dx9 e 10 + tutti i giochi che usano i filtri;)

forse perchè funziona meglio il bus da 512 bit?

Tidus.hw
04-07-2007, 20:48
si scusate, non ricordavo anche i giochi :asd:

Tidus.hw
04-07-2007, 20:49
forse perchè funziona meglio il bus da 512 bit?
ma va, davvero? :asd:

Nos89
04-07-2007, 20:54
ma va, davvero? :asd:

è una presa per il culo forse?

NicolaTeam
04-07-2007, 20:55
Ciao
Sapete darmi una risposta xkè nn mi parte il 3d mark?

Tidus.hw
04-07-2007, 20:57
è una presa per il culo forse?

dipende.
comunque, se la tua era una domanda retorica allora si :asd:
se no, si e' proprio perche' hanno ottimizzato il ringbus.

Nos89
04-07-2007, 20:58
dipende.
comunque, se la tua era una domanda retorica allora si :asd:
se no, si e' proprio perche' hanno ottimizzato il ringbus.

dicevo seriamente;)
cmq grazie della risposta.

Tidus.hw
04-07-2007, 21:01
dicevo seriamente;)
cmq grazie della risposta.

di niente ;)

Ciao
Sapete darmi una risposta xkè nn mi parte il 3d mark?

preso dal 3d dei test:

Se il 3dMark non vi parte e resta bloccato durante la fase di analisi del sistema, dovete inserire nel collegamento all'eseguibile il parametro: "-nosysteminfo". Ricordate di mettere tra virgolette il percorso del collegamento, e fuori dalle virgolette il parametro -nosysteminfo.
Per cui nella sezione "Destinazione" ci sarà una cosa del tipo: "C:\Programmi\Futuremark\3DMark05\3DMark05.exe" -nosysteminfo

NicolaTeam
04-07-2007, 21:44
Grazie per la risp.
adesso il 3d mark 06 funziona, ma nn riesco a visuallizzare il mio risultato

Pat77
04-07-2007, 22:08
forse perchè funziona meglio il bus da 512 bit?

Io parlo di 7.6, non hanno toccato quella parte che io sappia, aumentano le performance molto in prey perchè, almeno in vista, stanno riprogrammando tutta la sezione opengl, e a detta del supporto tecnico, si sono concentrati sulla compatibilità.
Posso testimoniare che Oblivion va con i 7.6 leggermente meglio, roba di 2-3 frame.
CoH invece aumenta di 3 frame nel bench integrato e in dx10.

3DMark79
04-07-2007, 23:16
Ragazzi alla fine ho scelto ed acquistato l'Ali Silverstone Zeus 650W ST65ZF a 120Euro.Sembra davvero molto potente e non mi pare così rumoroso come si dice.:D
Non ho capito se i 2 connettori a 6 PIN sono entrambi su una singola linea visto che hanno colori diversi.Boh!
Adesso mi attende un HD2900XT?Attendiamo chi vivrà vedrà!

PS: Visto che purtroppo a solo 2 PCI-E a 6 pin vorrei sapere se dovessi prendere la HD2900 per attivare Overdrive (serve 8 pin) dovrei aggiungere un negativo ed un positivo sulla stessa riga del 6 pin giusto?Qualcuno mi pare ci ha già pensato?

M4R1|<
04-07-2007, 23:30
Ragazzi alla fine ho scelto ed acquistato l'Ali Silverstone Zeus 650W ST65ZF a 120Euro.Sembra davvero molto potente e non mi pare così rumoroso come si dice.:D
Non ho capito se i 2 connettori a 6 PIN sono entrambi su una singola linea visto che hanno colori diversi.Boh!
Adesso mi attende un HD2900XT?Attendiamo chi vivrà vedrà!

PS: Visto che purtroppo a solo 2 PCI-E a 6 pin vorrei sapere se dovessi prendere la HD2900 per attivare Overdrive (serve 8 pin) dovrei aggiungere un negativo ed un positivo sulla stessa riga del 6 pin giusto?Qualcuno mi pare ci ha già pensato?

qualcuno diceva che bastava fare cavalletto con i pin della scheda oppure attaccare due cavetti al cavo da 6 pin, nella parte finale così arrivava energia anche agli altri 2 pin, però io nn ho provato (e nn ci tengo:D ). magari qualcuno l'ha fatto

Iantikas
04-07-2007, 23:43
Ragazzi alla fine ho scelto ed acquistato l'Ali Silverstone Zeus 650W ST65ZF a 120Euro.Sembra davvero molto potente e non mi pare così rumoroso come si dice.:D
Non ho capito se i 2 connettori a 6 PIN sono entrambi su una singola linea visto che hanno colori diversi.Boh!
Adesso mi attende un HD2900XT?Attendiamo chi vivrà vedrà!

PS: Visto che purtroppo a solo 2 PCI-E a 6 pin vorrei sapere se dovessi prendere la HD2900 per attivare Overdrive (serve 8 pin) dovrei aggiungere un negativo ed un positivo sulla stessa riga del 6 pin giusto?Qualcuno mi pare ci ha già pensato?


ora ke rivatuner supporta r600 nn c'è proprio bisogno dell'overdrive...

...con rivatuner a differenza d altri tool nn devi killare processi, nn devicreare profili etc...in pratica è come se usassi l'overdrive ma senza limiti d freq se nn quelli propri della GPU...

...ciao

3DMark79
05-07-2007, 00:26
qualcuno diceva che bastava fare cavalletto con i pin della scheda oppure attaccare due cavetti al cavo da 6 pin, nella parte finale così arrivava energia anche agli altri 2 pin, però io nn ho provato (e nn ci tengo:D ). magari qualcuno l'ha fatto

ora ke rivatuner supporta r600 nn c'è proprio bisogno dell'overdrive...

...con rivatuner a differenza d altri tool nn devi killare processi, nn devicreare profili etc...in pratica è come se usassi l'overdrive ma senza limiti d freq se nn quelli propri della GPU...

...ciao
Dite di utilizzare Riva?
Io ho sempre preferito Ati Tray tool che mi dava anche i frame, ma funziona? :(
Iantikas non capisco una cosa...sarei limitato dalla GPU in overclock se non metto l'8pin?
M4R1 penso che non sia difficile l'importante è non scambiare un positivo con un negativo :D e dovrebbe essere fattibile con un connettore a 4 pin dell'alimentazione CPU basta sfilare gli spinottini interni che sembrano uguali e in qualche modo inserirli adeguatamente nella scheda senza farli toccare e il gioco è fatto!:)
Merci!;)

Free Gordon
05-07-2007, 01:27
Si impara sempre qualcosa di nuovo, ora capisco perchè alcuni giochi settano 960, quindi per un qualsiasi monitor 4/3 è meglio impostare 960 o 1024? Perchè sul mio Acer 4/3 la nativa è 1024? (1280x1024)


Io preferisco le res wide 16:10 (la sezione aurea: 1,6 :D ) ma la 1280x1024 (5:4) l'ho sempre trovata particolarmente odiosa...(è troppo quadrata).

Imho se uno ha un monitor 4:3, come tutti i crt, la cosa migliore è la 1280x960 oppure la classica 1024x768 (o 1600x1200 se si ha dal 19/21 in sù). :D

Free Gordon
05-07-2007, 01:30
In un famoso giornale affermavano che un monitor (da loro testato) aveva i pixel rettangolari. :eek:

solo i plasma hanno i pixel rettangolari. ^_^

TecnoWorld8
05-07-2007, 01:46
Io preferisco le res wide 16:10 (la sezione aurea: 1,6

anche tu un "appassionato" di Phi? :D

p.s.: scusate per l'OT.

M4R1|<
05-07-2007, 08:22
Dite di utilizzare Riva?
Io ho sempre preferito Ati Tray tool che mi dava anche i frame, ma funziona? :(
Iantikas non capisco una cosa...sarei limitato dalla GPU in overclock se non metto l'8pin?
M4R1 penso che non sia difficile l'importante è non scambiare un positivo con un negativo :D e dovrebbe essere fattibile con un connettore a 4 pin dell'alimentazione CPU basta sfilare gli spinottini interni che sembrano uguali e in qualche modo inserirli adeguatamente nella scheda senza farli toccare e il gioco è fatto!:)
Merci!;)

a ok, buono a sapersi

Grazie

davide155
05-07-2007, 09:18
solo i plasma hanno i pixel rettangolari. ^_^

No no ci sono anche gli lcd con i pixel rettangolari fidati ;)

Poliphilo
05-07-2007, 10:22
Ragazzi, a quanto pare ho risolto. :)
Premetto che penso di avere qualche casino con i drivers, visto che avevo i 7.5 li ho tolti e ho messo i 7.6, ma avevo ati tool e mi ha creato problemi.

Ieri sera, dopo aver montato il liquido da un po' di tempo, ho finalmente cominciato a smanettare con il bios su cpu e memoria.

CONFIGURAZIONE DEFAULT
Questa è senza toccare alcunchè nel bios, che significa che le impostazioni delle memorie non erano tirate e neanche, diciamo, a "default". Erano con il bios della scheda appena installata dalla scatola.

. DFI DARK PF965
. CONROE E6700 2.66 Ghz
. CELL SHOCK PC 5400 800 Mhz (2 X 1Gb)
. SAPPHIRE ATI HD2900 XT - 512 Mb
. IMPIANTO LIQUIDO: RADIATORE 3VENTOLE - DTEK FUZION (CPU) - YBRIS K7 (GPU) - LAING 350@500 12V + PLEXY TOP OCLABS

RISULTATI
TEMPERATURA CORE CPU IDLE: 25-26 °C
TEMPERATURA MEDIA ORTHOS: 45 °C circa
3DMARK2006 (1280 X 1024 default): 10.410

CONFIGURAZIONE OVERCLOCK
Questa invece con i settaggi ok del bios con cpu tirata e memorie a default (non ancora tirate).

. DFI DARK PF965
. CONROE E6700 2.66@3.6 Ghz
. CELL SHOCK PC 5400 800 Mhz (2 X 1Gb)
. SAPPHIRE ATI HD2900 XT - 512 Mb
. IMPIANTO LIQUIDO: RADIATORE 3VENTOLE - DTEK FUZION (CPU) - YBRIS K7 (GPU) - LAING 350@500 12V + PLEXY TOP OCLABS

RISULTATI
TEMPERATURA CORE CPU IDLE: 35-36 °C
TEMPERATURA MEDIA ORTHOS (dopo 3 ore): 58 °C circa
3DMARK2006 (1280 X 1024 default): 11.390

La cosa bella è che OBLIVION è cambiato.

Tutto al massimo del dettaglio con HDR attivato a 1280 x 1024.

ESTERNI:
FPS MIN. 35
FPS MED. 45-50
FPS MAX 80

INTERNI:
FPS MIN. 100
FPS MED. 120-140
FPS MAX 250

E se metto a 1600 x 1200 la situazione non cambia più di tanto.

La cpu la devo ancora testare bene (posso salire ancora). La vga non l'ho ancora alzata, ed a liquido pure quella.
Appena ho settato bene cpu e ram comincio a salire anche con la vga

:D

Iantikas
05-07-2007, 10:31
Dite di utilizzare Riva?
Io ho sempre preferito Ati Tray tool che mi dava anche i frame, ma funziona? :(
Iantikas non capisco una cosa...sarei limitato dalla GPU in overclock se non metto l'8pin?
M4R1 penso che non sia difficile l'importante è non scambiare un positivo con un negativo :D e dovrebbe essere fattibile con un connettore a 4 pin dell'alimentazione CPU basta sfilare gli spinottini interni che sembrano uguali e in qualche modo inserirli adeguatamente nella scheda senza farli toccare e il gioco è fatto!:)
Merci!;)

sottovaluti rivatuner :D ...il monitoring d rivatuner è uno dei + completi ke esista...x es. può visualizzare i frame come fa fraps e può anke registrarteli in un grafico...sempre dal monitoring può analizzare d tutto (freq core/mem/shader...temp core/mem/mosfet...temp cpu...occupazione d ogni core...ocupazione della memoria video on-board...della memoria video nn-locale...della memoria d sistema e del file d swap...le varie tensioni etc etc etc)....

...con l'ultimo ke supporta R600, ke è apena uscito, puoi modificare i settaggi della ventola e puoi overclokkare (esattamente come faresti dall'overdrive presente nei ccc...imposti le freq desiderate e via...nn devi fare altro)...

...x quanto riguarda l'8pin è stato appurato ke nn cabia le potenzialità in oc della skeda rispetto al 6-pin...questo xkè le specifike ke vogliono max 75W dal cavetto 6-pin sono un limite solo sulla carta...in verità da quel cavetto può passare molta + corrente senza nessun pericolo (prova ne è anke ke in molte rece ke usano un load tester x testare l'ali da un cavetto 6-pin fan passare anke + di 15A)...

...t consiglio veramente d provarlo...stai sicuro ke ne rimarrai soddisfatto...l'unica limitazione ke pone è ke nn si possono modificare le tensioni (quindi nn puoi overvoltare)...ma se nn devi fare oc estremi e stai ad aria nn ti limita x niente...inoltre è sconigliato overvoltare sensibilmente le GPu x il daily use dato ke, a differenza delle CPU ke le si può overvoltare anke nn ce male senza problemi, lo gradiscono poco e la loro vita mediasi riduce parekkio (questo te lo dico anke x esperienza dato ke prima quando usavo le TEC lo facevo e al max mi son durate un anno e mezzo...poi proprio partivano le pipeline o la memoria...quando mi capitò con una 6800le sbloccata @16/6 e capace a 1.4v [contro gli 1.2v d def] d andare a 475/920 decisi ke x l'uso giornaliero era meglio tenerle a voltaggio def)...e infatti da allora nn me ne + morta nessuna (fino ad allora ho fatto una strage :D )...

...ciao

zorco
05-07-2007, 11:56
io ho sempre utilizzato rivatuner per settare il regime di rotazione ventole monitorare temp,oc e ecc..

l'ultima versione di rivatuner funziona benissimo su r600,le temp registare in idle con ventola settata in auto sono queste:

http://www.pctuner.info/up/results/_200707/th_20070705125433_tempriva.JPG (http://www.pctuner.info/up/image.php?src=_200707/20070705125433_tempriva.JPG)

3DMark79
05-07-2007, 12:54
sottovaluti rivatuner :D ...il monitoring d rivatuner è uno dei + completi ke esista...x es. può visualizzare i frame come fa fraps e può anke registrarteli in un grafico...sempre dal monitoring può analizzare d tutto (freq core/mem/shader...temp core/mem/mosfet...temp cpu...occupazione d ogni core...ocupazione della memoria video on-board...della memoria video nn-locale...della memoria d sistema e del file d swap...le varie tensioni etc etc etc)....

...con l'ultimo ke supporta R600, ke è apena uscito, puoi modificare i settaggi della ventola e puoi overclokkare (esattamente come faresti dall'overdrive presente nei ccc...imposti le freq desiderate e via...nn devi fare altro)...

...x quanto riguarda l'8pin è stato appurato ke nn cabia le potenzialità in oc della skeda rispetto al 6-pin...questo xkè le specifike ke vogliono max 75W dal cavetto 6-pin sono un limite solo sulla carta...in verità da quel cavetto può passare molta + corrente senza nessun pericolo (prova ne è anke ke in molte rece ke usano un load tester x testare l'ali da un cavetto 6-pin fan passare anke + di 15A)...

...t consiglio veramente d provarlo...stai sicuro ke ne rimarrai soddisfatto...l'unica limitazione ke pone è ke nn si possono modificare le tensioni (quindi nn puoi overvoltare)...ma se nn devi fare oc estremi e stai ad aria nn ti limita x niente...inoltre è sconigliato overvoltare sensibilmente le GPu x il daily use dato ke, a differenza delle CPU ke le si può overvoltare anke nn ce male senza problemi, lo gradiscono poco e la loro vita mediasi riduce parekkio (questo te lo dico anke x esperienza dato ke prima quando usavo le TEC lo facevo e al max mi son durate un anno e mezzo...poi proprio partivano le pipeline o la memoria...quando mi capitò con una 6800le sbloccata @16/6 e capace a 1.4v [contro gli 1.2v d def] d andare a 475/920 decisi ke x l'uso giornaliero era meglio tenerle a voltaggio def)...e infatti da allora nn me ne + morta nessuna (fino ad allora ho fatto una strage :D )...

...ciao

Sei stato molto esplicito grazie!A dire il vero non sapevo che visualizzava anche i frame :eek:.Ma da dove si setta questa opzione che lo provo nella mia FX5600XT del mio piccolo server?:D

+Lonewolf+
05-07-2007, 13:03
io ho sempre utilizzato rivatuner per settare il regime di rotazione ventole monitorare temp,oc e ecc..

l'ultima versione di rivatuner funziona benissimo su r600,le temp registare in idle con ventola settata in auto sono queste:

http://www.pctuner.info/up/results/_200707/th_20070705125433_tempriva.JPG (http://www.pctuner.info/up/image.php?src=_200707/20070705125433_tempriva.JPG)

zorco, mi diresti rapidamente come si usa rivatuner? come faccio a cambiare i valori? tipo rotazione ventola,frequenze ecc...

Pat77
05-07-2007, 13:36
Ragazzi, a quanto pare ho risolto. :)
Premetto che penso di avere qualche casino con i drivers, visto che avevo i 7.5 li ho tolti e ho messo i 7.6, ma avevo ati tool e mi ha creato problemi.

Ieri sera, dopo aver montato il liquido da un po' di tempo, ho finalmente cominciato a smanettare con il bios su cpu e memoria.

CONFIGURAZIONE DEFAULT
Questa è senza toccare alcunchè nel bios, che significa che le impostazioni delle memorie non erano tirate e neanche, diciamo, a "default". Erano con il bios della scheda appena installata dalla scatola.

. DFI DARK PF965
. CONROE E6700 2.66 Ghz
. CELL SHOCK PC 5400 800 Mhz (2 X 1Gb)
. SAPPHIRE ATI HD2900 XT - 512 Mb
. IMPIANTO LIQUIDO: RADIATORE 3VENTOLE - DTEK FUZION (CPU) - YBRIS K7 (GPU) - LAING 350@500 12V + PLEXY TOP OCLABS

RISULTATI
TEMPERATURA CORE CPU IDLE: 25-26 °C
TEMPERATURA MEDIA ORTHOS: 45 °C circa
3DMARK2006 (1280 X 1024 default): 10.410

CONFIGURAZIONE OVERCLOCK
Questa invece con i settaggi ok del bios con cpu tirata e memorie a default (non ancora tirate).

. DFI DARK PF965
. CONROE E6700 2.66@3.6 Ghz
. CELL SHOCK PC 5400 800 Mhz (2 X 1Gb)
. SAPPHIRE ATI HD2900 XT - 512 Mb
. IMPIANTO LIQUIDO: RADIATORE 3VENTOLE - DTEK FUZION (CPU) - YBRIS K7 (GPU) - LAING 350@500 12V + PLEXY TOP OCLABS

RISULTATI
TEMPERATURA CORE CPU IDLE: 35-36 °C
TEMPERATURA MEDIA ORTHOS (dopo 3 ore): 58 °C circa
3DMARK2006 (1280 X 1024 default): 11.390

La cosa bella è che OBLIVION è cambiato.

Tutto al massimo del dettaglio con HDR attivato a 1280 x 1024.

ESTERNI:
FPS MIN. 35
FPS MED. 45-50
FPS MAX 80

INTERNI:
FPS MIN. 100
FPS MED. 120-140
FPS MAX 250

E se metto a 1600 x 1200 la situazione non cambia più di tanto.

La cpu la devo ancora testare bene (posso salire ancora). La vga non l'ho ancora alzata, ed a liquido pure quella.
Appena ho settato bene cpu e ram comincio a salire anche con la vga

:D

Bisognerebbe prendere un punto specifico, ci sono interni e interni, in alcuni vado anche io così, ma in altri si abbassa molto di più, che so a 70 di media.

gianni1879
05-07-2007, 14:21
tutte le differenze tra i 7.5 e 7.6 per chi le ha perse
http://www.hwstation.net/vbulletin/showthread.php?p=40#post40

ci saranno le ultime prove con gli hot fix ;)

zorco
05-07-2007, 15:39
zorco, mi diresti rapidamente come si usa rivatuner? come faccio a cambiare i valori? tipo rotazione ventola,frequenze ecc...
per variare la velocità della ventola vai su Customize low level system settings-->fan poi spunti enable low-lev fan control e poi puoi regolarti i giri ventola in base alle temperature....

la frequenza Customize low level system settings-->overclocking spunti enable low-lev overclocking e oc...:p

ciao

nico88desmo
05-07-2007, 20:49
nuova recensione sulle DX10

http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2

davide155
05-07-2007, 21:21
nuova recensione sulle DX10

http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2

Azz.....la 2900xt non ne esce benissimo......
Forse perchè sono i 7.6......i driver......?

nitro89
05-07-2007, 21:27
Sono,ahimè, dolori sia per la gtx che per le 2900 :(

TecnoWorld8
05-07-2007, 21:34
c'è bisogno di nuovo hardware serio per queste librerie nuove. una R600 a 65nm ce l'avrebbe fatta benone. come andrebbe alla grande una G80 a 65nm...considerando ovviamente che il processo produttivo migliore permetterebbe frequenze di clock MOLTO superiori.

Mister Tarpone
05-07-2007, 21:36
ma roba da matti... C of H si passa da 150fps in dx9 a 40fps in dx10 :doh:

100fps volati via così.... :doh: :doh: :doh:


:sbonk:

Chief
05-07-2007, 21:39
nuova recensione sulle DX10

http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2

Ma come è stato fatto il test di call of juarez :rolleyes: Non sono proprio in linea con in miei risultati senza AA io faccio la bellezza di 35.5 fps con aa4x sto sopra i 30 non si trovano sti risultati ;) Sinceramente non so cosa pensavano mentre facevano i test

nico88desmo
05-07-2007, 21:46
c'è bisogno di nuovo hardware serio per queste librerie nuove. una R600 a 65nm ce l'avrebbe fatta benone. come andrebbe alla grande una G80 a 65nm...considerando ovviamente che il processo produttivo migliore permetterebbe frequenze di clock MOLTO superiori.

Concordo.
Questo è il dato preoccupante. Non so se sono i giochi programmati davvero male, ma ora come ora, non c'è nessuna scheda che riesce a tener testa alle DX10.
Qui i programmatori si sono trovati spiazzati secondo me...però mi viene un dubbio...questi su quali piattaforme programmavano?

Per quanto concerne COJ, sarà rilasciato un nuovo bench in quanto questo è poco attendibile ed inoltre presenta problemi di rendering quando è attivato sia l'AA con l'HDR.

Chief
05-07-2007, 21:48
Ma come è stato fatto il test di call of juarez :rolleyes: Non sono proprio in linea con in miei risultati senza AA io faccio la bellezza di 35.5 fps con aa4x sto sopra i 30 non si trovano sti risultati ;) Sinceramente non so cosa pensavano mentre facevano i test

Vorrei qualche riscontro con gli altri possessori della 2900xt...per sapere se sono l'unico a fare questi punteggi grazie :)

A.L.M.
05-07-2007, 22:26
nuova recensione sulle DX10

http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2

Peccato, Anandtech aveva fatto sempre dei bei test, ultimamente sta facendo la fine di Tom's... :rolleyes:
Chissà come mai i test fatti nel forum dicono cose un po' diverse: la HD2900 va meglio della GTX in CoJ (35fps vs meno di 30). Non capisco poi come faccia a fare la GTX oltre 50fps a 1280x1024 in CoH, quando in altri test fa meno di 40fps. R600 invece perde 5 fps.
Lost Planet è inutile provarlo, visto che gli artefatti li hanno citati in molti.
Vabbè, ormai si è capito che si sono fatti un'idea della scheda e quella terranno fino alla fine... :rolleyes:

×§ñåkê×
05-07-2007, 22:30
Peccato, Anandtech aveva fatto sempre dei bei test, ultimamente sta facendo la fine di Tom's... :rolleyes:
Chissà come mai i test fatti nel forum dicono cose un po' diverse: la HD2900 va meglio della GTX in CoJ (35fps vs meno di 30). Non capisco poi come faccia a fare la GTX oltre 50fps a 1280x1024 in CoH, quando in altri test fa meno di 40fps. R600 invece perde 5 fps.
Lost Planet è inutile provarlo, visto che gli artefatti li hanno citati in molti.
Vabbè, ormai si è capito che si sono fatti un'idea della scheda e quella terranno fino alla fine... :rolleyes:

in lost planet gli artefatti si vedevano con i 7.6, con i 7.7 beta sono spariti, e le performance sono aumentate parecchio...copio quello che ho scritto stò pomeriggio sul altro thread:

lost planet in directx 10, con i cata 7.7 beta, risoluzione a 1280x960, quasi tutto al max, allora:


Snow:
Max: 65
Medi: 45
Min: 35

Cave:
Max: 60
Medi:47
Min: 35.

e confermo che nel passaggio da lost planet dx9 a lost planet dx10 sono spariti circa 50 fps :asd:

Chief
05-07-2007, 22:37
in lost planet gli artefatti si vedevano con i 7.6, con i 7.7 beta sono spariti, e le performance sono aumentate parecchio...copio quello che ho scritto stò pomeriggio sul altro thread:

lost planet in directx 10, con i cata 7.7 beta, risoluzione a 1280x960, quasi tutto al max, allora:


Snow:
Max: 65
Medi: 45
Min: 35

Cave:
Max: 60
Medi:47
Min: 35.

e confermo che nel passaggio da lost planet dx9 a lost planet dx10 sono spariti circa 50 fps:asd:

Senza vedere minimamente nessuna differenza grafica tra il passaggio :asd:

nico88desmo
05-07-2007, 22:38
Peccato, Anandtech aveva fatto sempre dei bei test, ultimamente sta facendo la fine di Tom's... :rolleyes:
Chissà come mai i test fatti nel forum dicono cose un po' diverse: la HD2900 va meglio della GTX in CoJ (35fps vs meno di 30). Non capisco poi come faccia a fare la GTX oltre 50fps a 1280x1024 in CoH, quando in altri test fa meno di 40fps. R600 invece perde 5 fps.
Lost Planet è inutile provarlo, visto che gli artefatti li hanno citati in molti.
Vabbè, ormai si è capito che si sono fatti un'idea della scheda e quella terranno fino alla fine... :rolleyes:

Per ora comunque è meglio prendere di riferimento test fatti da un sito (per di più affidabile) che da utenti diversi del forum che magari hanno qualche impostazione diversa, qualche dettaglio disattivato, ecc..

Comunque, la conclusione è che entrambe le schede non riescono a gestire bene le DX10.
O giochi mal programmati, o driver ancora immaturi....
Attendiamo Bioschock ma soprattutto Crysis, poi iniziamo a tirare le conclusioni più veritiere.
Imho, con tutta la potenza di calcolo offerta da queste schede, la causa del decadimento prestazionale è dovuto al non sfruttamento delle schede stesse..almeno spero in questo.

+Lonewolf+
05-07-2007, 22:39
ottimi i results di LP...cmq andtech ha fatto la rece con i cata 7.5

Chief
05-07-2007, 22:45
Per ora comunque è meglio prendere di riferimento test fatti da un sito (per di più affidabile) che da utenti diversi del forum che magari hanno qualche impostazione diversa, qualche dettaglio disattivato, ecc..

Comunque, la conclusione è che entrambe le schede non riescono a gestire bene le DX10.
O giochi mal programmati, o driver ancora immaturi....
Attendiamo Bioschock ma soprattutto Crysis, poi iniziamo a tirare le conclusioni più veritiere.
Imho, con tutta la potenza di calcolo offerta da queste schede, la causa del decadimento prestazionale è dovuto al non sfruttamento delle schede stesse..almeno spero in questo.

Controllando le impostazione di COJ in dx 10 ho avuto completamente risultati opposti con le medesime impostazioni veramente sono stati fatti con il :ciapet: quei test a parer mio, per quanto riguarda le prestazioni in dx10 nessuno sa come andranno queste schede e non penso si possano tirare conclusioni su un gioco il primo LP il quale non ce differenza visiva tra dx9 e 10 e un bench di COJ 10 che ha anche dei problemi grafici ;)...Lo ripeto il primo banco di prova IMHO sarà Bioshock...

Chief
05-07-2007, 22:46
ottimi i results di LP...cmq andtech ha fatto la rece con i cata 7.5

Praticamente fare una race con quei driver vuol dire suicidare la 2900 :asd:

M4R1|<
05-07-2007, 22:48
nuova recensione sulle DX10
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=2

peccato mi aspettavo una rece un po' diversa


Peccato, Anandtech aveva fatto sempre dei bei test, ultimamente sta facendo la fine di Tom's... :rolleyes:
Chissà come mai i test fatti nel forum dicono cose un po' diverse: la HD2900 va meglio della GTX in CoJ (35fps vs meno di 30). Non capisco poi come faccia a fare la GTX oltre 50fps a 1280x1024 in CoH, quando in altri test fa meno di 40fps. R600 invece perde 5 fps.
Lost Planet è inutile provarlo, visto che gli artefatti li hanno citati in molti.
Vabbè, ormai si è capito che si sono fatti un'idea della scheda e quella terranno fino alla fine... :rolleyes:

spero che la cambino, anche perchè dopo tutto questa scheda non è per niente male, anzi! cmq chi se ne frega di quello che dicono, io rimango alla notizie di HW, sono le migliori

M4R1|<
05-07-2007, 22:49
Praticamente fare una race con quei driver vuol dire suicidare la 2900 :asd:

già è vero :asd: :asd:

piccolo ot

sii avete visto sono diventato Senior Member

fine ot

davide155
05-07-2007, 22:51
ottimi i results di LP...cmq andtech ha fatto la rece con i cata 7.5

Ahhhhhhhh....ecco.......

Adesso si spiega l'arcano :O

nico88desmo
05-07-2007, 22:53
Meglio aspettare il rilascio di nuove beta significative ed attendere che HWUpgrade esegua di nuovo i test con gli ultimi driver :D (speriamo che Corsini abbia sentito :D:D:D)

Chief
05-07-2007, 22:54
Ahhhhhhhh....ecco.......

Adesso si spiega l'arcano :O

A parte i test con quei driver, sinceramente fare test in dx10 con quel che c'è in giro vuol dire insultare la nostra intelligenza :asd:

M4R1|<
05-07-2007, 22:54
Meglio aspettare il rilascio di nuove beta significative ed attendere che HWUpgrade esegua di nuovo i test con gli ultimi driver :D (speriamo che Corsini abbia sentito :D:D:D)

be basta mandargli un messaggio privato

M4R1|<
05-07-2007, 22:55
A parte i test con quei driver, sinceramente fare test in dx10 con quel che c'è in giro vuol dire insultare la nostra intelligenza :asd:

non solo ma anche le schede :D siano esse ati o nvidia

nico88desmo
05-07-2007, 22:59
non solo ma anche le schede :D siano esse ati o nvidia

Già! Se penso alle demo rilasciate da entrambe le case...
mi stupisco che non riescano a far girare "giochetti" come COJ :D

Chief
05-07-2007, 23:01
Già! Se penso alle demo rilasciate da entrambe le case...
mi stupisco che non riescano a far girare "giochetti" come COJ :D

Possiamo parlare per giorni mesi anni se non escono i giochi che supportano realmente queste librerie no come LP(nessuna differenza visiva) possiamo supporre solamente....il 24 agosto si avvicina non abbiate paura faremo dei mega test ;)

Chief
05-07-2007, 23:03
Spero anche in una demo di crysis in tempi record così capiremo ancora di più :D

davide155
05-07-2007, 23:05
Spero anche in una demo di crysis in tempi record così capiremo ancora di più :D

Si parla di una demo rilasciata durante l'e3 :O

Chief
05-07-2007, 23:07
Si parla di una demo rilasciata durante l'e3 :O

Sarebbe troppo bello per essere vero non oso immaginare per scaricarla tipo ci vorranno 3 giorni :read:

M4R1|<
05-07-2007, 23:08
Già! Se penso alle demo rilasciate da entrambe le case...
mi stupisco che non riescano a far girare "giochetti" come COJ :D

io non l'ho ancora vista, è bella?

M4R1|<
05-07-2007, 23:11
Sarebbe troppo bello per essere vero non oso immaginare per scaricarla tipo ci vorranno 3 giorni :read:

be mica distribuiranno 10gb di demo, perchè se no mi chiedo quanto è quella finale (distributa su 1 supporto blue ray, oppure 5dvd:D :D )

Chief
05-07-2007, 23:12
io non l'ho ancora vista, è bella?

Ma cosa il bench di COJ in dx10 è solo un bench non ci puoi giocare :asd:

Chief
05-07-2007, 23:13
be mica distribuiranno 10gb di demo, perchè se no mi chiedo quanto è quella finale (distributa su 1 supporto blue ray, oppure 5dvd:D :D )

Non intendevo 10gb di demo intendevo talmente i server saranno intasati che ci vorranno 3 giorni per scaricarla :asd:

NicolaTeam
05-07-2007, 23:15
Ciao
Per attivare l'overdrive sulla 2900 xt cosa bisogna fare?

Chief
05-07-2007, 23:21
Ciao
Per attivare l'overdrive sulla 2900 xt cosa bisogna fare?

devi attaccare alla scheda video il connettore da 8 pin

M4R1|<
05-07-2007, 23:22
Non intendevo 10gb di demo intendevo talmente i server saranno intasati che ci vorranno 3 giorni per scaricarla :asd:

a ok non avevo capito così, si cmq lo credo anchio :D :D :D

M4R1|<
05-07-2007, 23:22
Ma cosa il bench di COJ in dx10 è solo un bench non ci puoi giocare :asd:

no intento la demo della ati in dx10

NicolaTeam
05-07-2007, 23:23
devi attaccare alla scheda video il connettore da 8 pin

e se nn c'è il cavo da 8 pin.
Si può comprare o devo cambiare alimentatore?

Chief
05-07-2007, 23:25
e se nn c'è il cavo da 8 pin.
Si può comprare o devo cambiare alimentatore?

Il cavo da 8 pin non si puo comprare ma puoi attaccare tranquillamente i due da 6 pin...tanto l'overdrive non serve visto che rivatuner funziona perfettamente e ti permette di cloccare la scheda ;)

Chief
05-07-2007, 23:26
no intento la demo della ati in dx10

La demo dell'ati è tutta da vedere sinceramente molto molto bella tutta in dx10

NicolaTeam
05-07-2007, 23:29
Il cavo da 8 pin non si puo comprare ma puoi attaccare tranquillamente i due da 6 pin...tanto l'overdrive non serve visto che rivatuner funziona perfettamente e ti permette di cloccare la scheda ;)

la frequenza del processore e della memoria al max quanto li posso portare?
C'è il pericolo ke si bruci la skeda?

M4R1|<
05-07-2007, 23:30
La demo dell'ati è tutta da vedere sinceramente molto molto bella tutta in dx10

appena rimetto vista (cioè appena mi arriva il dual-core che ho ordinato) la provo subito!
grazie!

Chief
05-07-2007, 23:31
la frequenza del processore e della memoria al max quanto li posso portare?
C'è il pericolo ke si bruci la skeda?

Se non mi dici la tua configurazione con l'ali che hai non posso aiutari :)

M4R1|<
05-07-2007, 23:32
la frequenza del processore e della memoria al max quanto li posso portare?
C'è il pericolo ke si bruci la skeda?

io ho visoto anche 2400 per la ram, per la gpu nn saprei ma nn credo più di 850 col dissippatore in dotazione, (dimenticavo quello che ha portato la scheda a 2400mhz nella ram dopo ha dovuto tenere spento il pc per un oretta e mezza, perchè gli dava artefatti a default)

Chief
05-07-2007, 23:36
io ho visoto anche 2400 per la ram, per la gpu nn saprei ma nn credo più di 850 col dissippatore in dotazione, (dimenticavo quello che ha portato la scheda a 2400mhz nella ram dopo ha dovuto tenere spento il pc per un oretta e mezza, perchè gli dava artefatti a default)

Penso una cosa portare questa scheda attualmente in OC è inutile,quindi meglio utilizzarla a default,quando sarà realmente necessario allora si inizierà con un po di OC

NicolaTeam
05-07-2007, 23:37
Se non mi dici la tua configurazione con l'ali che hai non posso aiutari :)

skeda madre: ASUS P5N-E SLI
processore: INTEL E6700
ram: CORSAIR 2X1Gb
skeda video: SAPPHIRE HD 2900 XT
alimentatore: XION 650W
hardisk: MAXTOR 250Gb SATA

M4R1|<
05-07-2007, 23:38
Penso una cosa portare questa scheda attualmente in OC è inutile,quindi meglio utilizzarla a default,quando sarà realmente necessario allora si inizierà con un po di OC

infatti io nn ho nemmeno attaccato il connettore a 8 pin, sinceramente ho paura di friggere qualcosa

Chief
05-07-2007, 23:43
skeda madre: ASUS P5N-E SLI
processore: INTEL E6700
ram: CORSAIR 2X1Gb
skeda video: SAPPHIRE HD 2900 XT
alimentatore: XION 650W
hardisk: MAXTOR 250Gb SATA

Se vuoi fare un po di OC non dovrebbero esserci problemi ma sinceramente lascia la scheda video a default con quello che c'è oggi in giro non dovresti avere problemi, ti do un consiglio installa i driver nuovi e no i 7.6 ufficiali ciao ;)

Kal-El
05-07-2007, 23:44
Qualcuno sa spiegarmi perchè ancora qui su hwup non c'è una rece ?:mbe:

3DMark79
05-07-2007, 23:44
già è vero :asd: :asd:

piccolo ot

sii avete visto sono diventato Senior Member

fine ot

Tanti auguri M4R1 sei diventato vecchio!:D
Non me ne ero accorto lo sono anch'io!!!Ragazzi si festeggia!:cincin: :mano: :happy: :gluglu:

Chief
05-07-2007, 23:49
Qualcuno sa spiegarmi perchè ancora qui su hwup non c'è una rece ?:mbe:

Io si sinceramente fare una race ora sarebbe inutile, direi di aspettare un altro pò anche perchè con i nuovi giochini che escono (crysis e bioshock ) avremo un quadro ancora più chiaro e completo su questa scheda :asd: poi con driver ancora più aggiornati ;)

A.L.M.
05-07-2007, 23:49
Per ora comunque è meglio prendere di riferimento test fatti da un sito (per di più affidabile) che da utenti diversi del forum che magari hanno qualche impostazione diversa, qualche dettaglio disattivato, ecc..

Call of Juarez nel thread ufficiale è stato testato da tutti con le stesse impostazioni, ossia tutto al max a 1280x1024 sia con che senza AA. E tutte le HD2900 facevano segnare framerates superiori a quelli illustrati da Anandtech, pure con drivers più vecchi di quelli della rece in questione, e superiori alla GTX.

I drivers comunque sono gli 8.38.9.1 rc2: che drivers sono? :mbe:

M4R1|<
05-07-2007, 23:53
Tanti auguri M4R1 sei diventato vecchio!:D
Non me ne ero accorto lo sono anch'io!!!Ragazzi si festeggia!:cincin: :mano: :happy: :gluglu:

grazie :D :happy: :gluglu: :gluglu:

Chief
05-07-2007, 23:54
Call of Juarez nel thread ufficiale è stato testato da tutti con le stesse impostazioni, ossia tutto al max a 1280x1024 sia con che senza AA. E tutte le HD2900 facevano segnare framerates superiori a quelli illustrati da Anandtech, pure con drivers più vecchi di quelli della rece in questione, e superiori alla GTX.

I drivers comunque sono gli 8.38.9.1 rc2: che drivers sono? :mbe:

Ti do perfettamente ragione anche con i vecchi la 2900 andava meglio della gtx quei driver sono i 7.5 la nuova versione è 8.39.5 ;)

OT
Auguri Mario scusa se ti do del tu :asd:

M4R1|<
05-07-2007, 23:54
Call of Juarez nel thread ufficiale è stato testato da tutti con le stesse impostazioni, ossia tutto al max a 1280x1024 sia con che senza AA. E tutte le HD2900 facevano segnare framerates superiori a quelli illustrati da Anandtech, pure con drivers più vecchi di quelli della rece in questione, e superiori alla GTX.

I drivers comunque sono gli 8.38.9.1 rc2: che drivers sono? :mbe:

bho, forse sono in possesso di qualcosa che noi nn abbiamo

Free Gordon
06-07-2007, 00:35
anche tu un "appassionato" di Phi? :D
p.s.: scusate per l'OT.


Piuttosto direi di tutta la conoscenza antica!
Gli antichi la sapevano lunga.. :D

Free Gordon
06-07-2007, 00:38
No no ci sono anche gli lcd con i pixel rettangolari fidati ;)


Quali?

Free Gordon
06-07-2007, 00:45
Peccato, Anandtech aveva fatto sempre dei bei test, ultimamente sta facendo la fine di Tom's... :rolleyes:
Chissà come mai i test fatti nel forum dicono cose un po' diverse: la HD2900 va meglio della GTX in CoJ (35fps vs meno di 30). Non capisco poi come faccia a fare la GTX oltre 50fps a 1280x1024 in CoH, quando in altri test fa meno di 40fps. R600 invece perde 5 fps.
Lost Planet è inutile provarlo, visto che gli artefatti li hanno citati in molti.
Vabbè, ormai si è capito che si sono fatti un'idea della scheda e quella terranno fino alla fine... :rolleyes:

Ho paura che hai proprio ragione sai...anche io ho avuto una strana impressione negli ultimi mesi, a riguardo.

Free Gordon
06-07-2007, 00:54
bho, forse sono in possesso di qualcosa che noi nn abbiamo

Cioè di driver vecchi?? :asd:

Ma cmq il problema non è dei driver ma del fatto che sta rece ha risultati molto strani. Differenti dagli altri. Perlomeno in questo ambito (dx10).

Poliphilo
06-07-2007, 07:58
RAGA

Ho formattato, reinstallato tutto e messo puliti i 7.6 con rivatuner 2.02.

Finalmente ho spinto anche un po' il sistema.
Ero partito da qua:



http://img213.imageshack.us/img213/4326/primoex7.jpg

E adesso sono invece con:

CPU :CONROE CORE DUO E6700 2.66@3.60 Ghz
GPU : CORE 749@900 Mhz MEM 828@875 Mhz

E questo ora è il nuovo risultato:

http://img230.imageshack.us/img230/9615/3dmark06aq2.jpg

ABBASTANZA SODDISFATTO
:yeah: :sofico:

zorco
06-07-2007, 08:41
c'è bisogno di nuovo hardware serio per queste librerie nuove. una R600 a 65nm ce l'avrebbe fatta benone. come andrebbe alla grande una G80 a 65nm...considerando ovviamente che il processo produttivo migliore permetterebbe frequenze di clock MOLTO superiori.
no,cè bisogno che i programmatori incomincino a fare il loro larovo sul serio,guarda che ci sono giochi in dx9 e tu lo sai meglio di mè che sono scarsamente ottimizzati che rendono spesso e volentieri l'esperienza videoludica una vera porcheria....

poi secondo mè questi primi giochi dx9 patchati a dx10 non fanno testo aspettiamo bioschok e crysis per dire se g80 e r600 sono architetture inadeguate alle nuove librerie di microsoft...

Catan
06-07-2007, 08:43
RAGA



CPU :CONROE CORE DUO E6700 2.66@3.60 Ghz
GPU : CORE 749@900 Mhz MEM 828@875 Mhz

:yeah: :sofico:

sti 900mhz di core li hai presi ad aria?
mentre le ram ti salgono cosi poco?
cmq ragazzi entro metà settimana entro anche io nel club;)

Mister Tarpone
06-07-2007, 08:45
sti 900mhz di core li hai presi ad aria?
mentre le ram ti salgono cosi poco?
cmq ragazzi entro metà settimana entro anche io nel club;)

:confused: :confused: :confused:

cioè, hai già una bella vga?? ma la cambi per la 2900???

imho, il salto di prestazioni sarà basso :boh:

M4R1|<
06-07-2007, 09:19
:confused: :confused: :confused:

cioè, hai già una bella vga?? ma la cambi per la 2900???

imho, il salto di prestazioni sarà basso :boh:

ma non lo sarà in dx10, anzi :D :D

M4R1|<
06-07-2007, 10:15
ragazzi magari è già stato detto, ma lo sapete che la 2900 ha fatto il record mondiale in 3dmark 05. qui (http://it.theinquirer.net/2007/06/i_dreamhacker_impazziscono_con.html) il link

e qui la screed

http://img249.imageshack.us/img249/1157/image3phpot0.th.jpg (http://img249.imageshack.us/my.php?image=image3phpot0.jpg)

webbuffa
06-07-2007, 10:19
ragazzi magari è già stato detto, ma lo sapete che la 2900 ha fatto il record mondiale in 3dmark 05. qui (http://it.theinquirer.net/2007/06/i_dreamhacker_impazziscono_con.html) il link

e qui la screed

http://img249.imageshack.us/img249/1157/image3phpot0.th.jpg (http://img249.imageshack.us/my.php?image=image3phpot0.jpg)

:p Lo sapevamo da prima che uscisse sul mercato!!! LOL solo che era un po' piu' basso... 28.000 :eek: ora è 34.000 :eek:

TecnoWorld8
06-07-2007, 11:37
ABBASTANZA SODDISFATTO
:yeah: :sofico:

complimenti per i 900Mhz!!! ma sono ad aria o a liquido?

Defragg
06-07-2007, 11:44
sti 900mhz di core li hai presi ad aria?
complimenti per i 900Mhz!!! ma sono ad aria o a liquido?
è a liquido, lo aveva detto qualche pagina fà...
:confused: :confused: :confused:

cioè, hai già una bella vga?? ma la cambi per la 2900???

imho, il salto di prestazioni sarà basso :boh:

magari ha qualche convenienza a passare ;)

Poliphilo
06-07-2007, 12:00
sti 900mhz di core li hai presi ad aria?
mentre le ram ti salgono cosi poco?
cmq ragazzi entro metà settimana entro anche io nel club;)

complimenti per i 900Mhz!!! ma sono ad aria o a liquido?

Grazie, grazie. :D

Tra l'altro non ha dato alcun segno di artefatti.
Ad aria? E poi? No, no, ad aria arrivi forse a 870 massimo.
Sono a liquido: se guardi il mio post precedente, infatti, c'è l'immagine della prima prova che ho fatto a default e si legge anche la configurazione. Ho un ybris K7 sulla gpu.

Comunque stamattina, prima di andare in studio, ho provato 915/915 e crashava. Ho abbassato un po' e a 905/885 passava il punto critico, poi stavo perdendo il treno :D e allora ho stoppato. Devo capire se è la gpu o se sono le memorie o che crashano, e soprattutto perchè salgono così poco. Forse dovrei dissiparle, però ho tolto solo il gabbiotto di plastica, ho lasciato la struttura con i pad termici e la ventola attaccata.

roccodifilippo
06-07-2007, 12:08
Ragazzi qualcuno avrà già recensito questa:

http://amdzone.com/phpads/adclick.php?bannerid=78&zoneid=7&source=&dest=http%3A%2F%2Fwww.diamondmm.com%2F2900XT1GPE.php


Il prezzo è buono.....per me è competitivo.

TecnoWorld8
06-07-2007, 12:13
si era già visto questa?

http://pc.watch.impress.co.jp/docs/2007/0705/kaigai370.htm

e in particolare questa:

http://pc.watch.impress.co.jp/docs/2007/0705/kaigai370_01l.gif

dove pare che a breve ci sarà uno shrink a 65nm di R600? io continuo a sperarci. sarebbe decisamente la scheda che vorrei comprare...

Pat77
06-07-2007, 12:29
Addirittura r800, io continuo a dire che il salto prestazionale si avrà tra 2-3 release di driver e seguirà il software, precisamente Bioshock, Crysis e credo modern warefare o qualcosa del genere.
Riguardo alla versione a 0.65 mi pare che AMD abbia più di una volta smentito.

+Lonewolf+
06-07-2007, 12:44
Addirittura r800, io continuo a dire che il salto prestazionale si avrà tra 2-3 release di driver e seguirà il software, precisamente Bioshock, Crysis e credo modern warefare o qualcosa del genere.
Riguardo alla versione a 0.65 mi pare che AMD abbia più di una volta smentito.

io fra 2 giorni testo world in conflict

TecnoWorld8
06-07-2007, 12:46
Addirittura r800, io continuo a dire che il salto prestazionale si avrà tra 2-3 release di driver e seguirà il software, precisamente Bioshock, Crysis e credo modern warefare o qualcosa del genere.
Riguardo alla versione a 0.65 mi pare che AMD abbia più di una volta smentito.

già pensare ad R700 secondo me è inutile, dato che ci vorrà almeno un anno. Sarei MOLTO più interessato ad R600 a 65nm, perchè finalmente potrebbe essere seriamente competitivo, sia come prestazioni, sia - ancor più importante - come consumi!

Mister Tarpone
06-07-2007, 12:48
io fra 2 giorni testo world in conflict

ti sei registrato?? io pure... ;)

Chief
06-07-2007, 12:51
già pensare ad R700 secondo me è inutile, dato che ci vorrà almeno un anno. Sarei MOLTO più interessato ad R600 a 65nm, perchè finalmente potrebbe essere seriamente competitivo, sia come prestazioni, sia - ancor più importante - come consumi!

Perchè puntare su ati se tu hai più vollte ripetuto che questo progetto è una delusione ;)...Amd ha più volte smentito un proggetto a 65nm per le 2900xt:read:

TecnoWorld8
06-07-2007, 12:53
Perchè puntare su ati se tu hai più vollte ripetuto che questo progetto è una delusione ;)...Amd ha più volte smentito un proggetto a 65nm per le 2900xt:read:

è una delusione ad 80nm perchè non sopravvanza una tecnologia di 7 mesi fa, ma potrebbe essere vincente a 65nm, dato che ATi stessa ha puntualizzato che la serie R600 nasce PER i 65nm, ma che la top è stata fatta ad 80nm per motivi pratici. E' stata smentita tale versione, è vero, ma ora...parrebbe invece che potrebbe uscire.

E dato che nVidia stessa per ora non sta annunciando un nuovo progetto, io punto sulla prima prossima high end che uscirà.

Chief
06-07-2007, 12:57
è una delusione ad 80nm perchè non sopravvanza una tecnologia di 7 mesi fa, ma potrebbe essere vincente a 65nm, dato che ATi stessa ha puntualizzato che la serie R600 nasce PER i 65nm, ma che la top è stata fatta ad 80nm per motivi pratici. E' stata smentita tale versione, è vero, ma ora...parrebbe invece che potrebbe uscire.

E dato che nVidia stessa per ora non sta annunciando un nuovo progetto, io punto sulla prima prossima high end che uscirà.

Staremo a vedere...comunque non si ha nessuna certezza che a 65nm sia superiore alla serie 8xxx ;)

Chief
06-07-2007, 13:01
Sinceramente poi ora come ora non serve nessuna scheda High end visto che le attuali sia ATi che nVidia permettono di giocare a qualsiasi gioco :)

TecnoWorld8
06-07-2007, 13:27
Sinceramente poi ora come ora non serve nessuna scheda High end visto che le attuali sia ATi che nVidia permettono di giocare a qualsiasi gioco :)

solitamente non si compra una scheda da oltre 350€ pensando ad "ora" ;) anzi, dato il trend che mi pare di vedere negli ultimi giochi usciti, credo proprio che ci sarà un aumento notevole di complessità nei giochi nel giro di un paio di mesi. per esempio, oggi ho visto un video di Bioshock e pur essendo proprio un video "promozionale" della casa produttrice, non girava fluidissimo. Potrebbe essere dovuto al fatto che non è ancora ottimizzato (speriamo), ma anche al fatto che...gli sviluppatori hanno tenuto conto, come hanno sempre fatto, che G80 è ormai fuori da 8 mesi e probabilmente a breve dovrebbe esserci qualcosa di più potente e dunque hanno alzato le pretese del sw.

credo davvero che con bioshock - prima - e crysis - poi - ci sarà modo di testare seriamente G80 ed R600.

Catan
06-07-2007, 13:38
:confused: :confused: :confused:

cioè, hai già una bella vga?? ma la cambi per la 2900???

imho, il salto di prestazioni sarà basso :boh:

a volte non contano solo il salto prestazionale conta anche come ci si trova con le vga e con il supporto che le case produtrici offrono alle stesse.
personalmente mi sono sempre trovato molto meglio con ati che non con nvidia anche se ho avuto molte vga nvidia.
visto che presi la 8800gts circa 5 mesi fa ad un prezzo di affare mi sono detto xè no intanto che aspetto r600 mi traghetta questi 5-6 mesi.
ora visto che riesco ad avere un r600 come previsto 6 mesi fà con una piccola differenza di prezzo di 60E l'ho fatto tranquillamente.
alla fine guadagno un pò di ram e sicuramente in prestazioni e cmq ho una vga fatta da una casa con la quale mi sono sempre trovato bene che nn con l'altra.

+Lonewolf+
06-07-2007, 13:38
è una delusione ad 80nm perchè non sopravvanza una tecnologia di 7 mesi fa, ma potrebbe essere vincente a 65nm, dato che ATi stessa ha puntualizzato che la serie R600 nasce PER i 65nm, ma che la top è stata fatta ad 80nm per motivi pratici. E' stata smentita tale versione, è vero, ma ora...parrebbe invece che potrebbe uscire.

E dato che nVidia stessa per ora non sta annunciando un nuovo progetto, io punto sulla prima prossima high end che uscirà.

non credo che 65nm migliorino la situazione...io t dico che non è stata una delusione

TecnoWorld8
06-07-2007, 13:40
non credo che 65nm migliorino la situazione...io t dico che non è stata una delusione

beh, per me lo è stata, dato che mi aspettavo un qualcosa di incredibile, mentre è uscito un prodotto ottimo in rapporto con il prezzo, ma...di certo non superiore (o non troppo superiore) a ciò che già era da tempo sul mercato

Chief
06-07-2007, 13:41
solitamente non si compra una scheda da oltre 350€ pensando ad "ora" ;) anzi, dato il trend che mi pare di vedere negli ultimi giochi usciti, credo proprio che ci sarà un aumento notevole di complessità nei giochi nel giro di un paio di mesi. per esempio, oggi ho visto un video di Bioshock e pur essendo proprio un video "promozionale" della casa produttrice, non girava fluidissimo. Potrebbe essere dovuto al fatto che non è ancora ottimizzato (speriamo), ma anche al fatto che...gli sviluppatori hanno tenuto conto, come hanno sempre fatto, che G80 è ormai fuori da 8 mesi e probabilmente a breve dovrebbe esserci qualcosa di più potente e dunque hanno alzato le pretese del sw.

credo davvero che con bioshock - prima - e crysis - poi - ci sarà modo di testare seriamente G80 ed R600.

Infatti io ho preferito spendere 350 euro per una 2900xt al posto di una 8800 gts 640mb ritenendo la 2900 più pronta per il futuro,oggi anche io ho visionato un video di bioshock spero sia lo stesso ,girava su 360,da quello che ho potuto vedere c'è stato un solo singolo scatto del gioco,poi sinceramente mi è parso molto fluido senza rallentamenti.Comuqnue ho capito che anche tu vorresti cambiare schede si vede proprio che stai per esplodere la 1800gto inizia ad andarti stretta:D

Chief
06-07-2007, 13:49
beh, per me lo è stata, dato che mi aspettavo un qualcosa di incredibile, mentre è uscito un prodotto ottimo in rapporto con il prezzo, ma...di certo non superiore (o non troppo superiore) a ciò che già era da tempo sul mercato

Io ragazzi sinceramente non so come fate a giudicare questa scheda e le nvidia con i prossimi giochi,comunque ritorniamo sempre al punto di partenza lo sappiamo per te come per qualcun'altro è una mega delusione(è stato ripetuto mille volte) , il tuo problema è l'attesa si è capito perfettamente,direi di tenerti la 1800gto e aspettare la prossima high end spero vivamente che sia nVdia così avrai la tua schedina high end :D

TecnoWorld8
06-07-2007, 13:59
Comuqnue ho capito che anche tu vorresti cambiare schede si vede proprio che stai per esplodere la 1800gto inizia ad andarti stretta:D

sì, io avevo acquistato questa scheda ad agosto scorso come soluzione temporanea, proprio in attesa di R600 che a quell'epoca pareva sarebbe stata un mostro di potenza. dunque mi ero fatto i miei conti ed avevo preso la scheda più overclockabile in assoluto e quindi con più potenzialità rispetto al prezzo (va come una 1800XT PE e mi è costata 238 euro quasi un anno fa...).

Per questo sono così deluso da R600, perchè mi ha letteralmente "scombinato" i piani. Ora la mia scheda non mi permette di giocare "come voglio io" ad alcuni giochi che mi piacciono (stalker, rainbow 6 vegas, DIRT, overlord) e quindi non vedo l'ora che esca una high end come io mi aspettavo.

In alternativa, potrei prendere un'altra scheda "di attesa", ma dovrebbe costare al massimo 250-280€ ed essere abbastanza potente da mandarmi tutti quei giochi - e quelli in uscita nei prossimi mesi - a 1680x1050 al max dettaglio. E purtroppo ad ora non esiste una scheda che lo consenta davvero...

MaRtH
06-07-2007, 14:02
sì, io avevo acquistato questa scheda ad agosto scorso come soluzione temporanea, proprio in attesa di R600 che a quell'epoca pareva sarebbe stata un mostro di potenza. dunque mi ero fatto i miei conti ed avevo preso la scheda più overclockabile in assoluto e quindi con più potenzialità rispetto al prezzo (va come una 1800XT PE e mi è costata 238 euro quasi un anno fa...).

Per questo sono così deluso da R600, perchè mi ha letteralmente "scombinato" i piani. Ora la mia scheda non mi permette di giocare "come voglio io" ad alcuni giochi che mi piacciono (stalker, rainbow 6 vegas, DIRT, overlord) e quindi non vedo l'ora che esca una high end come io mi aspettavo.

In alternativa, potrei prendere un'altra scheda "di attesa", ma dovrebbe costare al massimo 250-280€ ed essere abbastanza potente da mandarmi tutti quei giochi - e quelli in uscita nei prossimi mesi - a 1680x1050 al max dettaglio. E purtroppo ad ora non esiste una scheda che lo consenta davvero...


...o meglio, esiste, ma IMHO comprarla adesso non ne vale la pena... ;)

TecnoWorld8
06-07-2007, 14:03
spero vivamente che sia nVdia così avrai la tua schedina high end :D

non so cosa tu intendi con questa frase...io punto alla prima in uscita che faccia, che so, 60fps a DIRT di media al max dettaglio, a 1680x1050. so che quel gioco è programmato male, ma lo prendo ad esempio per dire che se una scheda permette quel frame rate a quella risoluzione, allora sarà potente circa 50% in più di R600 e G80 e quello è l'incremento che mi attendo per una high end che esca mesi dopo la precedente top di gamma, come è sempre stato finora.

sia ATi, sia nVidia, sia qualunque altra marca (magari ce ne fossero...maggiore è la competizione, migliore è il prezzo e più rapida l'evoluzione) voglio una scheda che, come fu per ogni high end, sia sovrabbondante per i giochi già esistenti e sia in grado di far girare al massimo i giochi per almeno 1 anno e mezzo dalla sua uscita, cosa che R600 non credo davvero potrà fare.

Pat77
06-07-2007, 14:12
Qui è una questione realmente di fede, perchè anche io compro guardando il futuro e R600 mi sembra proprio quella che abbia maggiori chance, e permettimi, è UN MOSTRO, io non ho mai giocato così bene a titoli anche estremamente pesanti con margini così ampi poi (ring bus per ora mosso dai driver di x1900, titoli dx10 ancora rari e solo patch, ecc..).
Poi consuma e fa rumore, sono difetti che con un buon ali e delle cuffie per me sono del tutto ininfluenti.

Iantikas
06-07-2007, 14:16
In alternativa, potrei prendere un'altra scheda "di attesa", ma dovrebbe costare al massimo 250-280€ ed essere abbastanza potente da mandarmi tutti quei giochi - e quelli in uscita nei prossimi mesi - a 1680x1050 al max dettaglio. E purtroppo ad ora non esiste una scheda che lo consenta davvero...


qualcosa nn quadra...dici d aver comprato la x1800gto2 come skeda d'attesa a 240€ un anno fa...

...ora dici ke potresti prendere una skeda d'attesa sempre a 280€ MA dovrebbe permetterti d giocare @1680x1050 con tutto al max a tutti i gioki esistenti e ANKE a quelli in uscita nei prox mesi

...ma xkè quando hai preso la x1800gto2 t ha permesso d farlo?...t posso risp io: sicuramente NO e nn solo a quelli in uscita dopo qualke mese ma anke a quelli ke erano già presenti quando l'hai aquistata...

...quindi nn t sembra d kiedere un pò troppo?...

...se la mettiamo così allora io volgio una skeda ke costa 100€ e ke mi permetta d giocare a 2560x1600 con tutti i titoli presenti e anke con quelli ke usciranno tra 2 anni...se devo sognare almeno lo faccio bene ;)

+Lonewolf+
06-07-2007, 14:17
Qui è una questione realmente di fede, perchè anche io compro guardando il futuro e R600 mi sembra proprio quella che abbia maggiori chance, e permettimi, è UN MOSTRO, io non ho mai giocato così bene a titoli anche estremamente pesanti con margini così ampi poi (ring bus per ora mosso dai driver di x1900, titoli dx10 ancora rari e solo patch, ecc..).
Poi consuma e fa rumore, sono difetti che con un buon ali e delle cuffie per me sono del tutto ininfluenti.

io senza cuffie nn lo sento...

3DMark79
06-07-2007, 14:19
sì, io avevo acquistato questa scheda ad agosto scorso come soluzione temporanea, proprio in attesa di R600 che a quell'epoca pareva sarebbe stata un mostro di potenza. dunque mi ero fatto i miei conti ed avevo preso la scheda più overclockabile in assoluto e quindi con più potenzialità rispetto al prezzo (va come una 1800XT PE e mi è costata 238 euro quasi un anno fa...).

Per questo sono così deluso da R600, perchè mi ha letteralmente "scombinato" i piani. Ora la mia scheda non mi permette di giocare "come voglio io" ad alcuni giochi che mi piacciono (stalker, rainbow 6 vegas, DIRT, overlord) e quindi non vedo l'ora che esca una high end come io mi aspettavo.

In alternativa, potrei prendere un'altra scheda "di attesa", ma dovrebbe costare al massimo 250-280€ ed essere abbastanza potente da mandarmi tutti quei giochi - e quelli in uscita nei prossimi mesi - a 1680x1050 al max dettaglio. E purtroppo ad ora non esiste una scheda che lo consenta davvero...

Come non quotarti.:O
Io ho fatto il tuo stesso ragionamento con una X800GTO2 adesso venduta ed ero in trepita attesa per R600 ma come alternativa non abbiamo nulla!:mad:
Mi sa che sarà un miracolo se si potrà giocare con i filtri a 1680x1050 in DirectX10 con la Hd2900 figuriamoci con una di fascia di 250-280 Euro sempre che ci sarà e quanto bisognerà attendere?E pensare che vicino casa adesso è disponibile HD2900XT a 370E non so proprio che fare!:confused: :(

MaRtH
06-07-2007, 14:23
qualcosa nn quadra...dici d aver comprato la x1800gto2 come skeda d'attesa a 240€ un anno fa...

...ora dici ke potresti prendere una skeda d'attesa sempre a 280€ MA dovrebbe permetterti d giocare @1680x1050 con tutto al max a tutti i gioki esistenti e ANKE a quelli in uscita nei prox mesi

...ma xkè quando hai preso la x1800gto2 t ha permesso d farlo?...t posso risp io: sicuramente NO e nn solo a quelli in uscita dopo qualke mese ma anke a quelli ke erano già presenti quando l'hai aquistata...

...quindi nn t sembra d kiedere un pò troppo?...

...se la mettiamo così allora io volgio una skeda ke costa 100€ e ke mi permetta d giocare a 2560x1600 con tutti i titoli presenti e anke con quelli ke usciranno tra 2 anni...se devo sognare almeno lo faccio bene ;)

Non fa 'na grinza... ;)

Iantikas
06-07-2007, 14:26
Come non quotarti.:O
Io ho fatto il tuo stesso ragionamento con una X800GTO2 adesso venduta ed ero in trepita attesa per R600 ma come alternativa non abbiamo nulla!:mad:
Mi sa che sarà un miracolo se si potrà giocare con i filtri a 1680x1050 in DirectX10 con la Hd2900 figuriamoci con una di fascia di 250-280 Euro sempre che i sarà e quanto bisognerà attendere?E pensare che vicino casa adesso è disponibile HD2900XT a 370E non so proprio che fare!:confused: :(

infatti come nn quotare anke te :D ...

...la x800gto2 ke anke lei sicuramente nn ti ha permesso di giocare a 1680x1050 con i titoli presenti quando l'hai aquistata...meno ke meno anke con i filtri e i titoli successivi...

...quella x te era una gran skeda mentre una skeda da 280€ (tipo la GTS 320mb) ke in prospettiva ti permetterebbe d giocare ai titoli presneti ora molto meglio d come te l'ha permesso ai suoi tempi la x800gto2 è una ciofeca e nn vale la pena aquistarla?

p.s.: se hai la possibilità io ti consiglio di prenderla la hd2900xt...neanke t'immagini il salto ke avrai rispetto ad una x800gto2 e sicuramente t durerà quanto te durata quella se nn molto d +...xkè sempre in prospettiva la hd2900xt ha molto + potenza x spingere i gioki attuali/futuri d quanta nn ne aveva ai tempi la x800gto2 x i gioki dei suoi tempi (inoltre proprio quella serie fu una delle meno lungimiranti della ATI ke in un certo senso nacque ke era già vekkia nn supportando gli sm3.0)...

TecnoWorld8
06-07-2007, 14:28
qualcosa nn quadra...dici d aver comprato la x1800gto2 come skeda d'attesa a 240€ un anno fa...

...ora dici ke potresti prendere una skeda d'attesa sempre a 280€ MA dovrebbe permetterti d giocare @1680x1050 con tutto al max a tutti i gioki esistenti e ANKE a quelli in uscita nei prox mesi

...ma xkè quando hai preso la x1800gto2 t ha permesso d farlo?...t posso risp io: sicuramente NO e nn solo a quelli in uscita dopo qualke mese ma anke a quelli ke erano già presenti quando l'hai aquistata...

...quindi nn t sembra d kiedere un pò troppo?...

...se la mettiamo così allora io volgio una skeda ke costa 100€ e ke mi permetta d giocare a 2560x1600 con tutti i titoli presenti e anke con quelli ke usciranno tra 2 anni...se devo sognare almeno lo faccio bene ;)

ehm...forse non hai presente che scheda è la mia...è una XT a tutti gli effetti e se noti, l'ho overclockata a frequenze quasi da PE. mi fa 5350 nel 3D Mark 2006 e oltre 10500 nel 3D Mark 2005. Ho giocato ai giochi arretrati che avevo (Doom 3, Quake 4, HL2, FEAR) ma anche quelli usciti dopo, come Dark Messiah, prey, HL2 episode 1, tomb raider anniversary e tanti altri, tutti sempre al max dettaglio e con AA 2x o 4x. SEMPRE fluidissimi.

L'ho detto più volte...gli unici che finora non mi girano fluidi al massimissimo dettaglio sono Stalker, Oblivion nei soli esterni, rainbow 6 vegas, DIRT, e Overlord, quindi tutti giochi (a parte Oblivion) usciti negli ultimissimi mesi.

dimenticavo...anche C&C tiberium va alla grande a 1680x1050 con AA2x e tutto al max. mi fa dai 30 ai 40fps.

3DMark79
06-07-2007, 14:53
infatti come nn quotare anke te :D ...

...la x800gto2 ke anke lei sicuramente nn ti ha permesso di giocare a 1680x1050 con i titoli presenti quando l'hai aquistata...meno ke meno anke con i filtri e i titoli successivi...

...quella x te era una gran skeda mentre una skeda da 280€ (tipo la GTS 320mb) ke in prospettiva ti permetterebbe d giocare ai titoli presneti ora molto meglio d come te l'ha permesso ai suoi tempi la x800gto2 è una ciofeca e nn vale la pena aquistarla?

p.s.: se hai la possibilità io ti consiglio di prenderla la hd2900xt...neanke t'immagini il salto ke avrai rispetto ad una x800gto2 e sicuramente t durerà quanto te durata quella se nn molto d +...xkè sempre in prospettiva la hd2900xt ha molto + potenza x spingere i gioki attuali/futuri d quanta nn ne aveva ai tempi la x800gto2 x i gioki dei suoi tempi (inoltre proprio quella serie fu una delle meno lungimiranti della ATI ke in un certo senso nacque ke era già vekkia nn supportando gli sm3.0)...

Iantikas ti posso garantire che sino a giochi come Prey-Infernal-Virtual Tennis 3-GTR2 Fear-Half life2 tutto o (quasi al Max per Fear) a parte i giochi di adesso che mi davano dei grattacapi come stalker ma giocabile sicuramente a 1280x1024 senza illuminazione dinamica.
Il mio sistema cmq mi ha aiutato e credimi che non avrei motivo di dirti cavolate!
Per gli Sm3 non me ne fregato più di tanto visti anche i pochi giochi che supportavano solo questi e la differenza cmq non è stata un gran chè rispetto ai 2.0b.;)

Iantikas
06-07-2007, 14:55
ehm...forse non hai presente che scheda è la mia...è una XT a tutti gli effetti e se noti, l'ho overclockata a frequenze quasi da PE. mi fa 5350 nel 3D Mark 2006 e oltre 10500 nel 3D Mark 2005. Ho giocato ai giochi arretrati che avevo (Doom 3, Quake 4, HL2, FEAR) ma anche quelli usciti dopo, come Dark Messiah, prey, HL2 episode 1, tomb raider anniversary e tanti altri, tutti sempre al max dettaglio e con AA 2x o 4x. SEMPRE fluidissimi.

L'ho detto più volte...gli unici che finora non mi girano fluidi al massimissimo dettaglio sono Stalker, Oblivion nei soli esterni, rainbow 6 vegas, DIRT, e Overlord, quindi tutti giochi (a parte Oblivion) usciti negli ultimissimi mesi.

dimenticavo...anche C&C tiberium va alla grande a 1680x1050 con AA2x e tutto al max. mi fa dai 30 ai 40fps.

so benissimo come va una x1800xt con i titoli citati...e t consiglierei d spararle un pò meno grosse...

...x fare giusto un esempio in fear i 1680x1050 4xAA tutto al max li prendo a malapena io con una x1900xtx (e fear è uno dei gioki dove a 1600x1200 la differenza tra x1800/x1900 arriva al 30% ... http://www.beyond3d.com/content/reviews/2/16 ...)...

...Prey, Quake 4, Splinter Cell CT, Tomb Raider Legend (l'anniversary potevi risparmiartelo dato ke lo si può definire retrogaming), Condemned: Criminal Origins (sempre x rimanere in quelli di un bel pò di tempo fa) son altri titoli in cui sicuramente nn hai potuto avere un gameplay fluido a 1680x1050 tutto al max e filtri a palla...

...e cmq senza starti a contraddire io già tu da solo hai negato ke t giravano TUTTI (i titoli presenti all'uscita e alcuni mesi dopo) a 1680x1050 tutto a palla...xkè se aquistassi una skeda da 280€ ora dovrebbero farlo???

TecnoWorld8
06-07-2007, 15:00
so benissimo come va una x1800xt con i titoli citati...e t consiglierei d spararle un pò meno grosse...

...x fare giusto un esempio in fear i 1680x1050 4xAA tutto al max li prendo a malapena io con una x1900xtx (e fear è uno dei gioki dove a 1600x1200 la differenza tra x1800/x1900 arriva al 30% ... http://www.beyond3d.com/content/reviews/2/16 ...)...

...Prey, Quake 4, Splinter Cell CT, Tomb Raider Legend (l'anniversary potevi risparmiartelo dato ke lo si può definire retrogaming), Condemned: Criminal Origins (sempre x rimanere in quelli di un bel pò di tempo fa) son altri titoli in cui sicuramente nn hai potuto avere un gameplay fluido a 1680x1050 tutto al max e filtri a palla...

...e cmq senza starti a contraddire io già tu da solo hai negato ke t giravano TUTTI (i titoli presenti all'uscita e alcuni mesi dopo) a 1680x1050 tutto a palla...xkè se aquistassi una skeda da 280€ ora dovrebbero farlo???

senza fare troppo spam, potrei dirti: vieni a casa mia e controlla se ho detto cose errate. FEAR l'ho giocato senza AA perchè in alcuni punti scendeva sotto i 30, ma credimi anche con AA era più fluido che l'attuale DIRT su una R600.

Per Prey e Q4, faccio dai 45 ai 60fps con AA2x attivo e cmq oltre i 30fps con AA4x. Tomb raider anniversary faccio 60fps FISSI con aa 2x e circa 45-60 con AA4x. con HL2, HL2 episode1 e dark messiah faccio anche qui praticamente 60fps costanti con AA2x e circa 50fps con AA4x.

Splinter cell non so perchè non mi piace e non l'ho mai acquistato.

Chief
06-07-2007, 15:04
senza fare troppo spam, potrei dirti: vieni a casa mia e controlla se ho detto cose errate. FEAR l'ho giocato senza AA perchè in alcuni punti scendeva sotto i 30, ma credimi anche con AA era più fluido che l'attuale DIRT su una R600.

Per Prey e Q4, faccio dai 45 ai 60fps con AA2x attivo e cmq oltre i 30fps con AA4x. Tomb raider anniversary faccio 60fps FISSI con aa 2x e circa 45-60 con AA4x. con HL2, HL2 episode1 e dark messiah faccio anche qui praticamente 60fps costanti con AA2x e circa 50fps con AA4x.

Splinter cell non so perchè non mi piace e non l'ho mai acquistato.

Come fai a dire che Dirt su r600 non è fluido hai r600 a portata di mano no, quindi ti dico a parte che il gioco sta sopra i 30 fps e credimi risulta super fluido sembre che giri sopra i 60 e ti ricordo che con i nuovi driver in certe occasioni tocca anche i 42 fps ;) se non ci credi vieni da me :D

TecnoWorld8
06-07-2007, 15:07
Come fai a dire che Dirt su r600 non è fluido hai r600 a portata di mano no, quindi ti dico a parte che il gioco sta sopra i 30 fps e credimi risulta super fluido sembre che giri sopra i 60 e ti ricordo che con i nuovi driver in certe occasioni tocca anche i 42 fps ;) se non ci credi vieni da me :D

mi basavo su quanto detto da alcuni utenti all'uscita del gioco, cioè che nel livello delle buggy si era sotto i 30fps di media, senza AA, a 1280x1024. Se ora la situazione è migliorata, bene, allora ora andrà come va FEAR sulla mia configurazione anzichè andare peggio...

Chief
06-07-2007, 15:10
mi basavo su quanto detto da alcuni utenti all'uscita del gioco, cioè che nel livello delle buggy si era sotto i 30fps di media, senza AA, a 1280x1024. Se ora la situazione è migliorata, bene, allora ora andrà come va FEAR sulla mia configurazione anzichè andare peggio...

Ribadisco quel quadro me lo mangio conn aa attivo e ti dico pure un altra cosa vai sul thread test e prove di r600 così capisci le performnce con i nuovi driver...non puoi paragonare due giochi diversi un fps con un gioco di rally impossibile, un fps per me deve stare sempre sopra i 40fps in tutte le situazioni, mentre il rally di codemaster credimi a 30 fps gira davvero in maniera fluida ;)

Mister Tarpone
06-07-2007, 15:11
mi basavo su quanto detto da alcuni utenti all'uscita del gioco, cioè che nel livello delle buggy si era sotto i 30fps di media, senza AA, a 1280x1024. Se ora la situazione è migliorata, bene, allora ora andrà come va FEAR sulla mia configurazione anzichè andare peggio...

dai prendi sto 2900xt, suuhh!!! :asd: non stare tanto a menarla, lo so che ti garba tanto :asd: !!



ciao :read:

3DMark79
06-07-2007, 15:14
Forse uscirà una Hd2900XT a 65nm.Che dite aspettiamo?:D

http://www.tomshw.it/news.php?newsid=10700

Questo è quanto detto:
La divisione schede grafica sembra orientata a fare un uso fugace del processo produttivo a 65 nanometri, utilizzato nelle attuali proposte HD 2600/2400. Probabilmente vedremo un nuovo modello di HD 2900 XT con tale processo, scelto per aumentare la competitività del prodotto in tutti gli ambiti (prestazioni, consumi, etc).

Chief
06-07-2007, 15:17
dai prendi sto 2900xt, suuhh!!! :asd: non stare tanto a menarla, lo so che ti garba tanto :asd: !!



ciao :read:

Il problema come dice Tarpone, si capisce che sei interessato a questa scheda solo che hai paura di prenderla :asd:

Iantikas
06-07-2007, 15:18
Ribadisco quel quadro me lo mangio conn aa attivo e ti dico pure un altra cosa vai sul thread test e prove di r600 così capisci le performnce con i nuovi driver...non puoi paragonare due giochi diversi un fps con un gioco di rally impossibile, un fps per me deve stare sempre sopra i 40fps in tutte le situazioni, mentre il rally di codemaster credimi a 30 fps gira davvero in maniera fluida ;)

quoto con dirt stare poco sopra i 30fps è tutto quello ke c vuole x un'esperienza d gioco ottimale...

...cmq a prescindere dal genere proprio ogni gioco ha un determinato framerate medio a cui risulta fluido (x es. Oblivion/R6V bastano 45fps d media...FEAR/HL2/quake 4/prey ne vogliono 60fps, dirt ne bastano 32/33fps etc)...ciao

Chief
06-07-2007, 15:21
Forse uscirà una Hd2900XT a 65nm.Che dite aspettiamo?:D

http://www.tomshw.it/news.php?newsid=10700

Questo è quanto detto:
La divisione schede grafica sembra orientata a fare un uso fugace del processo produttivo a 65 nanometri, utilizzato nelle attuali proposte HD 2600/2400. Probabilmente vedremo un nuovo modello di HD 2900 XT con tale processo, scelto per aumentare la competitività del prodotto in tutti gli ambiti (prestazioni, consumi, etc).

Non è confermato ne smentito anzi ha piu volte smentito quindi aspettiamo la parola di ATi cmq sinceramente una nuova 2900xt a 65nm sarebbe un ottima cosa, ma penso che non la vedremo mai sempre IMHO.. anche perchè sarebbe stato inutile far uscire la sorella maggiore a 80nm con 1 giga di ram ;) a questo punto aspettavano per far uscire la nuova top 65nm con 1 giga di ram

TecnoWorld8
06-07-2007, 15:22
Il problema come dice Tarpone, si capisce che sei interessato a questa scheda solo che hai paura di prenderla :asd:

sono interessato da circa 1 anno a questa scheda :) per questo sono "arrabbiato" con lei, per non essere stata più potente...io la volevo a 500€, ma che - per dare un valore sintetico come esempio - facesse 15000 punti nel 3dmark 06 a default...

×§ñåkê×
06-07-2007, 15:24
quoto con dirt stare poco sopra i 30fps è tutto quello ke c vuole x un'esperienza d gioco ottimale...

...cmq a prescindere dal genere proprio ogni gioco ha un determinato framerate medio a cui risulta fluido (x es. Oblivion/R6V bastano 45fps d media...FEAR/HL2/quake 4/prey ne vogliono 60fps, dirt ne bastano 32/33fps etc)...ciao

be è normale, negli fps servono perforza i 60 fps, per avere il max di precisione nei movimenti, in giochi come dirt invece bastano 30 in genere, anche se i 60 non mi dispiacerebbero anche li :asd:

×§ñåkê×
06-07-2007, 15:26
sono interessato da circa 1 anno a questa scheda :) per questo sono "arrabbiato" con lei, per non essere stata più potente...io la volevo a 500€, ma che - per dare un valore sintetico come esempio - facesse 15000 punti nel 3dmark 06 a default...

vabè ne fa 12.000 e qualcosa :O non credo che da questa generazione di schede otterrai di + che sia a 65 nm o 32 nm :asd:

zorco
06-07-2007, 15:28
senti TecnoWorld8 lo dico un pò a nome di tutti,ci hai un pò stufato per non dire... con sta storia di r600 e Ati che ti hanno deluso,insomma basta lo abbiamo capito non cè bisogno di ripetere gli stessi concetti due milioni di volte e per mesi....

Chief
06-07-2007, 15:29
sono interessato da circa 1 anno a questa scheda :) per questo sono "arrabbiato" con lei, per non essere stata più potente...io la volevo a 500€, ma che - per dare un valore sintetico come esempio - facesse 15000 punti nel 3dmark 06 a default...

Sinceramente anche io l'aspettavo dopo averla presa nessuna delusione tutte soddisfazioni ti ricordo che ne vengo da una 1900xtx quindi avrei dovuto essere deluso ma non lo sono....per quanto riguarda il 3dmarko6 a me non interessa piu di tanto quello che conta sono i giochi e per il momento nessun gioco mette in ginocchio questa scheda ;)

TecnoWorld8
06-07-2007, 15:30
senti TecnoWorld8 lo dico un pò a nome di tutti,ci hai un pò stufato per non dire... con sta storia di r600 e Ati che ti hanno deluso,insomma basta lo abbiamo capito non cè bisogno di ripetere gli stessi concetti due milioni di volte e per mesi....

ma se mi si tira in ballo, io rispondo! avevo iniziato con il postare la news dei 65nm possibili per R600, dicendo che lo spero perchè finalmente potrebbe essere competitiva veramente e...hanno iniziato a darmi contro, dunque mi sono difeso.

ripeto, io avevo SOLO postato una notizia, dato che R600 mi interessa potenzialmente, ma non a 80nm e non a questo prezzo. con questo, chiudo il mio intervento.

Quoziente
06-07-2007, 15:31
Il problema come dice Tarpone, si capisce che sei interessato a questa scheda solo che hai paura di prenderla :asd:

Mi sa che anch'io ho lo stesso problema... :rolleyes: :rolleyes: :rolleyes:
Devo solo trovare il coraggio di fare la "spesona". Ammetto che mi girerebbero le scatole se magari fra 1-2 mesi uscisse un R600 a 65nm magari più performante e con consumi ridotti...

Chief
06-07-2007, 15:32
ma se mi si tira in ballo, io rispondo! avevo iniziato con il postare la news dei 65nm possibili per R600, dicendo che lo spero perchè finalmente potrebbe essere competitiva veramente e...hanno iniziato a darmi contro, dunque mi sono difeso.

ripeto, io avevo SOLO postato una notizia, dato che R600 mi interessa potenzialmente, ma non a 80nm e non a questo prezzo. con questo, chiudo il mio intervento.

Sinceramente nessuno ti è venuto contro ti stiamo facendo aprire gl'occhi su una scheda che IMHO è sottovalutata ;)